ElDiario.es/Carlos del Castillo.- ¿Los algoritmos de la plataforma aumentan la visibilidad de las “narrativas xenófobas”, denuncia un análisis externo.
Cómo muestran a los migrantes los vídeos de YouTube más potenciados por su algoritmo? Normalmente, en grandes masas (grupos de 16 o más) de personas anónimas (no se muestra su cara) y no blancas, que se encuentran cruzando una frontera terrestre o atravesando el mar en lanchas o barcos, en las que los hombres son mayoría y aparecen enfrentados a los militares o a las fuerzas de seguridad, tratando la migración como un problema. O lo que es lo mismo, “de forma predominantemente negativa” y “altamente deshumanizante”, avisa la primera auditoría externa sobre el comportamiento de la plataforma de vídeo en este área.
El análisis ha sido realizado por Eticas, autora de otras iniciativas de este tipo como la auditoria externa de VioGén, el algoritmo de prevención de la violencia machista que utiliza el Ministerio del Interior, y colaboradora del Ministerio de Trabajo en el desarrollo de la herramienta de transparencia de los algoritmos laborales.
“La narrativa de la migración en los medios de comunicación tradicionales ha sido ampliamente estudiada, pero no así en las redes sociales, a pesar del rápido aumento de sus usuarios. Los estudios sobre las redes sociales confirman la misma tendencia narrativa: la migración como amenaza y la infrarrepresentación de los propios migrantes a la hora de comunicar sus propias historias”, destaca la organización.
La representación de las personas migrantes como gente sin rostro que se enfrenta a las fuerzas de seguridad está relacionada “con el auge de los partidos de extrema derecha”, recuerdan los autores. Una tendencia que se reproduce también en YouTube, ya que “el algoritmo de la plataforma de vídeo premia mensajes políticos xenófobos”, revelan: “los retrata como una amenaza”.
El algoritmo de YouTube premia mensajes políticos xenófobos
La segunda tendencia detectada es la que lleva a mostrar a los migrantes como “víctimas de las circunstancias”. “Usar el marco de víctima en relación con los migrantes refuerza los estereotipos y prejuicios sobre los migrantes, como la idea de que son débiles o dependientes y carecen de autonomía”, explican desde Eticas. La tercera conclusión principal es la ausencia de vídeos con mensajes positivos o exitosos sobre los migrantes entre los más recomendados por la plataforma a los usuarios.
YouTube tiene más de 2.000 millones de usuarios en todo el mundo y el 75% de los contenidos que consumen son recomendados por sus algoritmos. elDiario.es se puso en contacto con YouTube este martes para incluir su posición sobre los resultados de esta auditoría externa, pero la compañía no ha contestado al requerimiento al cierre de esta información.
El sesgo positivo de los refugiados
Los autores llevaron a cabo el proceso de auditoría externa haciendo un análisis cuantitativo y cualitativo. En un primer paso analizaron los vídeos que YouTube mostraba a usuarios en diferentes localizaciones (Londres, como “contexto anti-migración”, y Toronto, como “contexto pro-migración”), tanto cuando se buscaban desde perfiles de personas nativas como de personas migrantes. Encontraron pocas diferencias: “La conclusión es que el algoritmo de recomendación de YouTube no diferencia entre usuarios nativos y migrantes en cuanto al contenido que recomienda”.
“En lugar de priorizar el contenido que apoya o se opone firmemente a la migración y crea una dinámica de polarización entre los usuarios locales y los migrantes, el algoritmo parece enfocarse en retratar a los migrantes como deshumanizados y víctimas, independientemente de los antecedentes del usuario”, desglosan.
En cambio, sí encontraron una “notable diferencia” en cómo trata el algoritmo los vídeos sobre “refugiados” respecto a los de personas migrantes. En este caso la inteligencia artificial de YouTube potencia vídeos que muestran a grupos más pequeños (de dos a cuatro personas) y “predominantemente caucásicos”, “probablemente marcados por la guerra en Ucrania”, recoge el análisis. Se muestran mucho más sus rostros y “son en su mayoría individuos reconocibles”. Por el contrario, desparecen las narrativas de cruce de fronteras y de enfrentamiento con fuerzas de seguridad. El marco de víctima, no obstante, se mantiene.
La imagen más común de la búsqueda de “refugiados” en YouTube. Título del vídeo: «¡Recogiendo refugiados ucranianos atractivos!»
En la segunda parte de la investigación, el análisis cualitativo, los autores han entrevistado a personas migrantes para saber cómo perciben la representación que se hace de ellos en las redes sociales. “Aunque la mayoría usa las redes sociales, principalmente para mantener el contacto con su comunidad, son conscientes de cómo se fomenta una imagen negativa y altamente politizada sobre ellos, mientras que la positiva se silencia”, destacan.
“Merecemos mejores redes sociales”
A la vista de los resultados de la auditoría, desde Eticas apuntan que YouTube “necesita desarrollar aún más su sistema de recomendaciones para una mejor representación de las minorías, como los inmigrantes”. También deben facilitar a los investigadores y centros de investigación los datos internos necesarios para estudiar los riesgos que pueden tener sus algoritmos de recomendación, así como aliarse con instituciones públicas para definir con exactitud los sesgos que no deberían estar presentes en el sistema, solicitan.
“Si nosotros, un pequeño equipo, hemos podido hacer este trabajo, creo que lo mínimo es exigirles a las plataformas que proporcionan estos servicios, y que tienen beneficios gracias a ellos, que hagan esfuerzos mucho mayores para evitar estas dinámicas de discriminación y estereotipación”, afirma Gemma Galdón, directora de Eticas. “Merecemos mejores redes sociales y mejores proveedores de redes sociales, así como un mejor regulador que sea capaz de asegurar que nos protegen y que no nos representan de forma injusta”, concluye en conversación con elDiario.es.