Informe: Asistente de Google vs Siri

Un nuevo reporte publicado por la agencia de marketing Stone Temple Consulting¬†confirm√≥ lo que muchos de nosotros ya sab√≠amos:¬†el Asistente de Google es el asistente virtual m√°s eficiente de todos¬†en comparaci√≥n con sus competidores m√°s importantes. Desafortunadamente para los usuarios del ecosistema de Apple,¬†Siri qued√≥ en el √ļltimo lugar¬†de las mismas pruebas realizadas en los dem√°s asistentes.

La agencia Stone Temple Consulting escogió a los 4 asistentes más importantes del mercado: Alexa (Amazon), Cortana (Microsoft), Siri (Apple) y obviamente al Asistente de Google; y los puso a competir para determinar el resultado de dos parámetros: cuántas preguntas responderá cada asistente y cuántas de esas preguntas responderá de forma completa y correcta. Como mencionamos anteriormente, el Asistente de Google superó fácilmente a todos sus competidores.

Un detalle interesante es que los individuos que realizaron el experimento, probaron al Asistente de Google tanto en smartphones como en los dispositivos inteligentes para el hogar de Google Home, lo cual dio como resultado dos conjuntos distintos de estadísticas.

Lamentablemente el reporte no especifica de forma exacta qué dispositivos fueron utilizados para los experimentos, pero el escritor principal menciona algunos como el Pixel 2, así que al menos sabemos cuál smartphone fue utilizado para probar la interfaz móvil del Asistente de Google.

A continuación podrán observar la primera gráfica con los resultados del experimento:

Como pueden observar, por alguna razón la app para smartphones del Asistente de Google obtuvo mejores resultados que la versión para dispositivos de la línea Google Home. Sin embargo, ambas versiones del Asistente siguen siendo superiores a la mayoría de sus competidores con la excepción de Cortana, la cual superó a la versión de Google Home del Asistente de Google en lo que respecta a qué tan correctas y completas fueron las respuestas a las preguntas del experimento.

Gracias a dichos resultados, podemos concluir lo siguiente:

  • El Asistente de Google para smartphones es capaz de responder m√°s preguntas y sus respuestas son m√°s confiables que las de cualquier otro asistente virtual de su categor√≠a.
  • Cortana se posiciona f√°cilmente en el segundo lugar del experimento con resultados que pisan los talones del Asistente de Google.
  • Alexa tambi√©n tiene un buen √≠ndice de respuestas correctas, pero no responde tantas preguntas como sus competidores.
  • Siri tampoco responde tantas preguntas como sus competidores, pero tambi√©n tiene un buen √≠ndice de respuestas correctas.

Para garantizar que el experimento fuera lo más efectivo posible, Stone Temple Consulting le hizo casi 25 mil preguntas a los 4 asistentes, lo cual es bastante impresionante.

La segunda gr√°fica prove√≠da por Stone Temple Consulting revela¬†la cantidad de respuestas incorrectas¬†de cada uno de los asistentes y la compara con los resultados de una prueba parecida realizada el a√Īo pasado:

En esta categor√≠a¬†Cortana super√≥ al Asistente de Google¬†por un margen bastante peque√Īo, y por alguna raz√≥n Alexa tuvo resultados considerablemente peores que el a√Īo pasado,¬†lo cual podr√≠a indicar que dicho Asistente est√° empeorando en vez de mejorar.

La gráfica también revela que en lo que respecta a respuestas incorrectas, Siri también es el peor asistente de todos.

:)