Facebook tenía evidencia que sugería que los algoritmos de la compañía fomentan la polarización y «explotan la atracción del cerebro humano hacia la división», pero los altos ejecutivos, incluido el CEO Mark Zuckerberg, mataron o debilitaron las soluciones propuestas, informó el martes The Wall Street Journal.
El esfuerzo por comprender mejor el impacto de Facebook en el comportamiento del usuario comenzó en respuesta al escándalo de Cambridge Analytica, y sus investigadores internos determinaron que, contrariamente a la misión de la compañía de conectar al mundo, sus productos estaban teniendo el efecto contrario, según el periódico.
Un informe de 2016 encontró que «el 64% de todas las uniones de grupos extremistas se deben a nuestras herramientas de recomendación», y la mayoría de las personas se unen por sugerencia de los algoritmos «Grupos a los que debes unirte» y «Descubrir» de Facebook. Los investigadores señalaron que «nuestros sistemas de recomendación aumentan el problema», según el documento.
¿Qué solución aplicó Facebook con sus algoritmos?
El Wall Street Journal informó que los equipos de Facebook lanzaron múltiples soluciones. Estas incluyen: limitar la difusión de información de los usuarios más hiperactivos e hiperpartidarios de los grupos; sugiriendo una variedad de grupos más amplia que la que los usuarios podrían encontrar normalmente; y creando subgrupos para debates acalorados para evitar que descarrilen grupos enteros.
Sin embargo, estas propuestas a menudo fueron rechazadas total o significativamente por Zuckerberg y el jefe de políticas Joel Kaplan, según el documento. Este también informó que Zuckerberg finalmente perdió interés en tratar de abordar el problema de polarización. También que estaba preocupado por el potencial de soluciones para limitar el crecimiento de los usuarios.
En respuesta al discurso sobre la limitación de la viralidad de las publicaciones de usuarios hiperpartidistas, Zuckerberg supuestamente le pidió al equipo que no le trajera algo así nuevamente.
Los investigadores de la compañía también determinaron que, debido a una mayor presencia de cuentas de extrema derecha y páginas que publican contenido en Facebook, cualquier cambio, incluidos ajustes apolíticos, como la reducción de clickbait, tendría un mayor efecto neto en los conservadores.
Esa preocupación preocupaba a Kaplan en particular, quien previamente detuvo un proyecto llamado «Common Ground». Este tenía como objetivo fomentar un discurso político más saludable en la plataforma.
En última instancia, muchos de los esfuerzos del equipo no se incorporaron a los productos de Facebook. Los gerentes les dijeron a los empleados en septiembre de 2018 que la compañía estaba cambiando «del bien social al valor individual», según el Wall Street Journal.
«Hemos aprendido mucho desde 2016 y hoy no somos la misma compañía», dijo una portavoz de Facebook al periódico. «Creamos un equipo de integridad robusto, fortalecimos nuestras políticas y prácticas para limitar el contenido dañino. También utilizamos la investigación para comprender el impacto de nuestra plataforma en la sociedad para continuar mejorando».
Facebook ha sido criticado repetidamente por críticos. ¿Por qué? Porque dicen que la compañía no ha hecho lo suficiente para limitar la propagación de contenido dañino en su plataforma. Ese tema ha adquirido un enfoque más agudo debido a la información errónea relacionada con el coronavirus que se está extendiendo en las redes sociales. También a las inminentes elecciones presidenciales de 2020 .
:)