La red social quiere incluir esta categoría entre las prohibidas en su política contra los mensajes de odio
RAÚL LIMÓN. EL PAÍS.- Detrás de un genocidio hay siempre un proceso de deshumanización. Lo describió Chistopher R. Browning en Aquellos hombres grises, su libro sobre el Batallón de Reserva Policial 101, encargado de acciones de exterminio de judíos en el distrito de Lublin (Polonia) durante la Segunda Guerra Mundial. El historiador describió patrones de conducta que llevaron a la “brutalidad, humillación y deshumanización”. Más recientemente, durante el genocidio tutsi en Ruanda, el Gobierno obligó a muchos a participar en las matanzas tras años de propaganda y tácticas de deshumanización para adoctrinar a otros en la ideología del odio. Las redes sociales pueden multiplicar estos mensajes y Twitter no quiere ser una plataforma de propagación. Para evitarlo, quiere eliminar cualquier mensaje que promueva estas conductas y ha pedido a sus usuarios que colaboren con una encuesta que sirva para determinar qué información es susceptible de incitar al odio.
La compañía, en una publicación firmada por Vijaya Gadde y Del Harvey, responsables de políticas y confianza de la red, ha anunciado que antes de introducir una nueva norma interna sobre mensajes quieren contar con la participación de los usuarios.
La medida se adopta después de tres meses analizando cómo acabar con el lenguaje deshumanizador en Twitter, al que atribuyen la capacidad de “normalizar la violencia” y que contradice las normas contra conductas que favorezcan el odio.
La compañía considera que el lenguaje deshumanizador consiste en tratar a los demás como “menos que humanos” al negarles las cualidades o la naturaleza propia del hombre. “Algunos ejemplos incluyen comparaciones de grupos con animales o virus o la reducción de estos a sus órganos sexuales”, explican las autoras.
La política contra las conductas de odio de Twitter prohíbe la promoción de la violencia o ataques directos contra otras personas por su raza, etnia, origen geográfico, orientación sexual, género, religión, edad, discapacidad o patologías. Pese a estas limitaciones, muchos usuarios han seguido denunciando la existencia de mensajes que, aunque no rompen las normas internas, son considerados abusivos.
Por esta razón, Twitter quiere incluir los contenidos deshumanizadores dentro de sus categorías, aunque no incluyan un ataque directo. Se amparan en estudios como el de Susan Benesch, profesora de Harvard y directora del proyecto Discurso Peligroso, que ha descrito cómo el lenguaje deshumanizador puede hacer que la violencia parezca aceptable. O en el de Herbert Kelman, profesor de ética social en la misma Universidad, quien ha apuntado estos contenidos como causa de la reducción de la resistencia a los comportamientos violentos.
Twitter, además de contar con un equipo de ONG y expertos, quiere contar con la opinión de sus usuarios, quienes son los que perciben y sufren determinados lenguajes y contenidos. De esta forma, hasta el próximo 9 de octubre, permanecerá abierta una encuesta cuyos resultados se sumarán a los grupos de trabajo de la red social, incluyendo los ingenieros e investigadores.