Los documentos filtrados plantean dudas legítimas sobre el contenido que Facebook no está dispuesto a tolerar y su capacidad de reacción. «Facebook está intentando reparar un coche que circula a una velocidad cada vez mayor y tal vez ni siquiera tiene las herramientas necesarias»
NICK HOPKINS. JULIA CARRIE WONG. THE GUARDIAN / ELDIARIO.ES.- En las últimas semanas, Facebook ha protagonizado pésimos titulares. El mes pasado, un tailandés mostró en directo cómo mataba a su hija de once meses y se suicidaba. En la ciudad de Cleveland, Estados Unidos, un hombre de 74 años fue asesinado por un desconocido, que también lo mostró en directo a través de Facebook.
Muchos acusan a esta red social de haberse convertido en la herramienta perfecta para misóginos y racistas, un foro idóneo para las noticias falsas, las amenazas, la crueldad y el mal gusto.
Tanto sus usuarios, que ya superan los dos mil millones, como sus críticos se preguntan qué ha podido pasar. ¿Y qué hace Facebook para encontrar un equilibrio entre esta preocupación legítima y el interés público en el contexto de la libre circulación de información?
Encontramos algunas de las respuestas en los documentos de la compañía relativos a la labor de «moderación», a los que ha tenido acceso the Guardian. Estos documentos indican con detalle qué contenido se puede colgar y qué contenido se debe eliminar así como los retos a los que se enfrentan los moderadores. Estos han indicado que su trabajo es cada vez más difícil y confuso.
Nadie pudo prever esta situación. Desde que inició su andadura en febrero de 2004, este sitio creado por un grupo de amigos de la Universidad de Harvard que querían estar conectados con otros estudiantes ha crecido hasta alcanzar dimensiones mundiales.
La compañía que nunca deja de crecer
Facebook es la compañía cuya burbuja nunca estalla; simplemente sigue creciendo. Durante todo el proceso de expansión, el fundador de Facebook, Mark Zuckerberg, ha intentado mantenerse fiel a la misma filosofía que inspiró la idea original. En un discurso pronunciado en febrero, Zuckerberg indicó que en la esencia de Facebook está el objetivo de «hacer que todos estemos más cerca los unos de los otros y construir una comunidad global».
En el documento filtrado sobre la estrategia de moderación, la compañía deja claro que esto se consigue «promoviendo un espacio donde todos puedan debatir abiertamente y expresar sus opiniones, al mismo tiempo que respetan los derechos de los demás».
» Cuando millones de personas se juntan para compartir algo que es importante para ellas, a veces estos debates y los posts pueden incluir contenido polémico. Creemos que este debate en la red refleja el intercambio de ideas y opiniones que tienen estas personas en su vida física, es decir, en la oficina, en casa, en las cafeterías y en las aulas».
Hasta aquí, es un objetivo loable. La gran mayoría de los usuarios de Facebook no se aprovecharían de la naturaleza abierta de esta herramienta. Sin embargo, algunos sí lo hacen: entre ellos, terroristas y pederastas.
Muchos analistas indican que esta plataforma se ha transformado y se ha convertido en una de las principales herramientas publicitarias y de difusión que existen a nivel mundial. Se ha acusado a la compañía de haber ayudado a Trump, involuntariamente, a ganar las elecciones estadounidenses al haber difundido noticias falsas.
Zuckerberg no imaginó hace 13 años que esto podía suceder. Sin embargo, esta es la realidad con la que ahora tiene que lidiar. Y tiene que hacerlo en un contexto en el que muchos medios de comunicación lo critican (algunos motivados por intereses comerciales). También recibe críticas por parte de políticos de Estados Unidos, Europa y del Reino Unido que creen que esta situación es insostenible.
Quieren que Facebook ponga orden y no creen que esto pueda hacerse con la estrategia diseñada por la compañía según la cual los usuarios pueden denunciar malas prácticas o contenido inapropiado para que los moderadores decidan si ese contenido puede quedarse en la página o tiene que ser eliminado.
Pero… ¿cuáles son sus principios?
Facebook proporciona algunos detalles sobre las normas que los usuarios deben cumplir. Sin embargo ¿no debería proporcionar más información sobre qué principios tienen en cuenta sus moderadores a la hora de mantener o eliminar contenido?
El año pasado, Facebook suspendió de forma temporal las cuentas de muchos suscriptores de la página web de izquierdas australiana New Matilda cuando el editor de este sitio, Chris Graham, publicó un artículo con motivo del Día Internacional de la Mujer.
Acompañaba el artículo una ilustración de dos mujeres aborígenes que mostraban sus pechos. Facebook le indicó a Graham que la imagen no era apropiada y que algunos usuarios se habían quejado. Señaló que «algunos usuarios de nuestra comunidad global podrían sentirse ofendidos con este tipo de contenido».
Sin embargo, the Guardian ha comprobado que la red social tiene imágenes mucho más explícitas, como por ejemplo la de una mujer que muestra los pechos y que está montada sobre un pene gigante y erecto. Para algunos críticos, el sitio ha tenido mucho tiempo para diseñar una estrategia coherente. Ahora, quieren que exista una normativa para Facebook parecida a la que tienen que respetar los medios de comunicación tradicionales.
El año pasado, la Asociación Nacional de Editores de Periódicos de Estados Unidos, la institución mediática de mayor tamaño en manos de la comunidad afroamericana, pidió regulación para la red social y criticó la falta de transparencia de la compañía. Algunos políticos alemanes y británicos afirman que cada vez que Facebook tenga contenido que sea extremadamente inapropiado debería ser multada.
En Estados Unidos, cada vez son más los que abogan por una mayor transparencia de la compañía al explicar los criterios de sus moderadores.
Facebook repite una y otra vez que no es un medio de comunicación sino una herramienta tecnológica. Sin embargo, la pregunta clave se mantiene inalterada: ¿Cómo puede ser una herramienta de masas y al mismo tiempo impedir que se cometan abusos? ¿Y qué constituye un abuso?
Parte del problema de Facebook reside en el propio espíritu de la compañía.
Facebook insiste en su compromiso de tener información disponible para todos y ser una comunidad abierta.
No obstante, en un informe sobre crímenes de odio, los diputados británicos señalaron que «las redes sociales son muy opacas y no proporcionan información sobre el número de trabajadores y los recursos que asignan a la labor de control, seguimiento y eliminación de contenido inapropiado». Los diputados condenaron esta falta de transparencia.
Y este es el motivo por el cual los documentos filtrados son tan importantes. Por primera vez, millones de usuarios de Facebook tendrán acceso a las normas de moderación. También proporcionan una idea de la filosofía de la empresa y de los retos a los que se enfrentan los moderadores. Estos creen que esquivar todo el contenido extremista es «misión imposible» y que no puede evitar que los terroristas utilicen esta herramienta.
Los moderadores aguantan mucha presión
No es la primera vez que se tiene conocimiento de la presión que padecen los moderadores. Según las fuentes de the Guardian, esto no ha cambiado. Los empleados llegan y se van, quemados y hartos de ver material extremadamente desagradable; decapitaciones, maltrato animal y canibalismo.
Los diputados británicos señalan que a menudo Facebook elimina cierto tipo de contenido tras la protesta de algún medio de comunicación. Fue necesario que los periodistas se quejaran para que Facebook eliminara vídeos de decapitaciones, de abusos sexuales a menores o de un hombre siendo apuñalado. Los usuarios ya habían denunciado estos posts.
Facebook está reaccionando. Ha indicado que está utilizando un nuevo software para evitar que cierto tipo de material se cuele en sus páginas; por ejemplo, imágenes de abuso sexual infantil o terrorismo. También ha afirmado que está desarrollando inteligencia artificial que le permita eliminar este tipo de contenido a una mayor velocidad.
Además, va a contratar a 3.000 moderadores. Sin embargo, uno de los responsables de la compañía, Simon Milner, ha reconocido que esta no será la solución a todos los problemas. «La relación entre el número de moderadores contratados y el resultado obtenido no tiene por qué ser lineal».
Así que todo parece indicar que Facebook está intentando reparar un coche que circula a una velocidad cada vez mayor y tal vez ni siquiera tiene las herramientas necesarias.
Los documentos filtrados plantean dudas legítimas sobre el contenido que Facebook no está dispuesto a tolerar y su capacidad de reacción. También plantean dudas sobre el material que sí tolera, ya que algunas personas consideran que parte de este contenido es cruel, insultante, ofensivo, machista y racista.
Los responsables de Facebook reconocen que existe una «zona gris». Zuckerberg ha indicado que siguen definiendo los criterios y que quieren aprender de sus errores y mejorar: «Nos tomamos nuestras responsabilidades en serio y tenemos que esforzarnos más».
Los documentos filtrados sobre Facebook deberían servir para enriquecer el debate en torno a las mejores estrategias para lograrlo.
Traducido por Emma Reverter