YouTube prohibe contenido de supremacistas, miles de canales serán eliminados

YouTube prohibe contenido de supremacistas. La compañía dijo hoy que YouTube está cambiando las pautas de su comunidad para prohibir los vídeos que promueven la superioridad de cualquier grupo como justificación de la discriminación contra otros por su edad, género, raza, casta, religión, orientación sexual o estado de veterano. Se espera que la medida, que dará como resultado la eliminación de todos los vídeos que promuevan el nazismo y otras ideologías discriminatorias, resulte en la eliminación de miles de canales en YouTube.

«La apertura de la plataforma de YouTube ha ayudado a que la creatividad y el acceso a la información prosperen», dijo la compañía en una publicación de blog. «Es nuestra responsabilidad proteger eso y evitar que nuestra plataforma se use para incitar al odio, el hostigamiento, la discriminación y la violencia».

YouTube prohíbe contenido de supremacistas para mejorar su contenido

YouTube prohibe contenido de supremacistas, miles de canales serán eliminados

Los cambios anunciados el miércoles, donde YouTube prohibe contenido de supremacistas, intentan mejorar la moderación de su contenido de tres maneras. Primero, la prohibición de los supremacistas eliminará a los nazis y otros extremistas que abogan por la segregación o la exclusión por edad, género, raza, religión, orientación sexual o condición de veterano. Además de esas categorías, YouTube está agregando castas. Esto tiene implicaciones significativas en la India, y «eventos violentos bien documentados», como el tiroteo en la escuela primaria Sandy Hook y el 11-S. Los usuarios ya no pueden publicar videos que indiquen que esos eventos no ocurrieron, dijo YouTube.

En segundo lugar, YouTube dijo que ampliaría los esfuerzos anunciados en enero para reducir la propagación de lo que se denomina «contenido límite e información errónea dañina». Promoción de esos vídeos a través de recomendaciones. YouTube dijo que la política, que afecta a los vídeos, incluyendo a los aficionados a la tierra y a los vendedores ambulantes de curas milagrosas falsas, ya había reducido la cantidad de vistas que reciben los vídeos de la frontera en un 50%. En el futuro, dijo la compañía, recomendará vídeos de fuentes más autorizadas, como los principales canales de noticias, en su panel de «próxima observación».

Finalmente, YouTube dijo que restringiría que los canales monetizaran sus vídeos si se los encuentra «repasando las políticas de odio». Esos canales no podrán publicar anuncios ni usar Super Chat, que permite a los suscriptores de los canales pagar a los creadores directamente por Funciones extra de chat. El último cambio se produce después de que BuzzFeed informara que el sistema de comentarios pagados se había utilizado para financiar a los creadores de vídeos con racismo y discurso de odio.

En 2017 comenzó todo…

En 2017, YouTube dio un paso hacia la reducción de la visibilidad de los extremistas en la plataforma cuando comenzó a colocar advertencias frente a algunos vídeos. Pero se ha sometido a un escrutinio continuo por la forma en que recluta seguidores para racistas e intolerantes al promover su trabajo a través de algoritmos de recomendación y la colocación prominente en los resultados de búsqueda. En abril, Bloomberg informó que los vídeos realizados por creadores de extrema derecha representaban una de las secciones más populares de YouTube, junto con música, deportes y videojuegos.

Al mismo tiempo, YouTube y su empresa matriz, Alphabet, están bajo una creciente presión política para controlar a los malos actores de la plataforma. Los ataques de Christchurch en marzo llevaron a críticas generalizadas de YouTube y otras plataformas por no identificar y eliminar inmediatamente los vídeos de los disparos; y varios países han propuesto leyes diseñadas para obligar a las empresas de tecnología a actuar con mayor rapidez. Mientras tanto, The New York Times descubrió esta semana que los algoritmos de YouTube recomendaban vídeos con niños en trajes de baño a personas que previamente habían visto contenido de temática sexual. Esto generaba listas de reproducción para pedófilos.

Miles de canales podrían ser eliminados

YouTube no reveló los nombres de ningún canal que se espera que se vea afectado por el cambio. La compañía se negó a comentar sobre una controversia actual que rodea a mi colega de Vox, Carlos Maza. Este ha sido acosado repetidamente en base a su raza y orientación sexual por el destacado comentarista de derecha Steven Crowder. (Después de hablar con la compañía, respondió a Maza que no planeaba tomar ninguna medida contra el canal de Crowder).

Aún así, es probable que el movimiento provoque pánico entre los canales de derecha de YouTube. En los Estados Unidos, los conservadores han promovido la idea de que YouTube y otras plataformas los discriminan. A pesar del hecho de que no hay evidencia de sesgo sistemático, los republicanos han celebrado varias audiencias durante el año pasado sobre el tema. Es probable que el movimiento de hoy de YouTube genere una nueva ronda de indignación, junto con advertencias de que estamos en la pendiente resbaladiza hacia el totalitarismo.

Por supuesto, como ha demostrado el caso de Maza, YouTube no siempre aplica sus propias reglas. Una cosa es hacer una política, y otra es asegurar que una fuerza laboral global de contratistas mal pagados la entienda y la aplique con precisión. Será fascinante ver cómo la nueva política, que prohíbe «los videos que afirman que un grupo es superior para justificar… la segregación o la exclusión», afectará la discusión sobre la inmigración en YouTube.

La política modificada, donde YouTube prohibe contenido de supremacistas, entrará en vigencia hoy, dijo YouTube, y la aplicación se intensificará en los próximos días.

:)