Informe: Asistente de Google vs Siri

Un nuevo reporte publicado por la agencia de marketing Stone Temple Consulting confirmó lo que muchos de nosotros ya sabíamos: el Asistente de Google es el asistente virtual más eficiente de todos en comparación con sus competidores más importantes. Desafortunadamente para los usuarios del ecosistema de Apple, Siri quedó en el último lugar de las mismas pruebas realizadas en los demás asistentes.

La agencia Stone Temple Consulting escogió a los 4 asistentes más importantes del mercado: Alexa (Amazon), Cortana (Microsoft), Siri (Apple) y obviamente al Asistente de Google; y los puso a competir para determinar el resultado de dos parámetros: cuántas preguntas responderá cada asistente y cuántas de esas preguntas responderá de forma completa y correcta. Como mencionamos anteriormente, el Asistente de Google superó fácilmente a todos sus competidores.

Un detalle interesante es que los individuos que realizaron el experimento, probaron al Asistente de Google tanto en smartphones como en los dispositivos inteligentes para el hogar de Google Home, lo cual dio como resultado dos conjuntos distintos de estadísticas.

Lamentablemente el reporte no especifica de forma exacta qué dispositivos fueron utilizados para los experimentos, pero el escritor principal menciona algunos como el Pixel 2, así que al menos sabemos cuál smartphone fue utilizado para probar la interfaz móvil del Asistente de Google.

A continuación podrán observar la primera gráfica con los resultados del experimento:

Como pueden observar, por alguna razón la app para smartphones del Asistente de Google obtuvo mejores resultados que la versión para dispositivos de la línea Google Home. Sin embargo, ambas versiones del Asistente siguen siendo superiores a la mayoría de sus competidores con la excepción de Cortana, la cual superó a la versión de Google Home del Asistente de Google en lo que respecta a qué tan correctas y completas fueron las respuestas a las preguntas del experimento.

Gracias a dichos resultados, podemos concluir lo siguiente:

  • El Asistente de Google para smartphones es capaz de responder más preguntas y sus respuestas son más confiables que las de cualquier otro asistente virtual de su categoría.
  • Cortana se posiciona fácilmente en el segundo lugar del experimento con resultados que pisan los talones del Asistente de Google.
  • Alexa también tiene un buen índice de respuestas correctas, pero no responde tantas preguntas como sus competidores.
  • Siri tampoco responde tantas preguntas como sus competidores, pero también tiene un buen índice de respuestas correctas.

Para garantizar que el experimento fuera lo más efectivo posible, Stone Temple Consulting le hizo casi 25 mil preguntas a los 4 asistentes, lo cual es bastante impresionante.

La segunda gráfica proveída por Stone Temple Consulting revela la cantidad de respuestas incorrectas de cada uno de los asistentes y la compara con los resultados de una prueba parecida realizada el año pasado:

En esta categoría Cortana superó al Asistente de Google por un margen bastante pequeño, y por alguna razón Alexa tuvo resultados considerablemente peores que el año pasado, lo cual podría indicar que dicho Asistente está empeorando en vez de mejorar.

La gráfica también revela que en lo que respecta a respuestas incorrectas, Siri también es el peor asistente de todos.

:)