DIARIO JUDÍO.- En respuesta a la evidencia que demostró que sus herramientas habían permitido que hubiera publicidad dirigida a usuarios que publicaron comentarios racistas o discurso de odio en sus perfiles, la semana pasada Facebook señaló que cambiaría su forma de dirigir los anuncios publicitarios.
El hecho de que sus herramientas para focalizar publicidad se pudieran usar de esa manera fue “un error” de la empresa, mencionó Sheryl Sandberg, directora de operaciones de Facebook. Agregó que la empresa añadiría “más análisis y supervisión humana” a sus sistemas automatizados para prevenir abusos en el futuro.
Sandberg, quien por primera vez abordó de manera directa los recientes problemas que tuvo la red social con la publicidad, también afirmó que la empresa se esforzaría más para garantizar que el contenido ofensivo —incluido el que ataca a las personas por su raza y religión— no se utilice con el objetivo de focalizar publicidad.
El anuncio llegó después de que un informe que emitió ProPublica la semana pasada revelara que las herramientas de publicidad en línea de Facebook habían permitido que los anunciantes se dirigieran a quienes se describieron como “personas que odian a los judíos” o gente que había utilizado términos como “cómo quemar judíos”. Los términos aparecieron de forma automática en el sistema de publicidad de Facebook porque al parecer la gente los colocó en la sección de “formación” y “empleo” de sus perfiles.
“En Facebook no hay lugar para el odio: como judía, madre y ser humano, conozco el daño que produce el odio”, escribió Sandberg. “Nunca fue nuestra intención ni tampoco anticipamos que esta funcionalidad se fuera a utilizar de tal manera, y es nuestra culpa. Además, tampoco lo detectamos nosotros… también es nuestra culpa”.
Facebook ha crecido hasta convertirse en una de las empresas mejor valoradas del mundo, ofreciendo a los anunciantes la capacidad de focalizar de manera rápida y sencilla a sus usuarios con base en un despliegue vasto de información, desde el tipo de casa en la que viven hasta sus programas favoritos de televisión. Sin embargo, la empresa está enfrentando una nueva ola de escrutinio sobre la manera en que se puede abusar de esas herramientas, en especial después de que este mes se divulgó que perfiles falsos desde Rusia habían comprado más de 100,000 dólares en publicidad dedicada a temas divisorios durante la recta final de las elecciones presidenciales.
Facebook también ha sido criticado por no prever que su tecnología pudiera ser usada para fines ruines.
“La aparición de estos términos ofensivos fue vergonzoso para Facebook y refleja la tendencia que tienen las empresas de Silicon Valley de confiar demasiado en los algoritmos y sistemas automatizados para el manejo de la publicidad”, señaló Ari Paparo, director ejecutivo de Beeswax, una empresa emergente de tecnología en publicidad con sede en Nueva York. “El negocio de los medios se concentra en las personas y la influencia, así que la moderación y el control humanos tienen un papel necesario”.
No es la primera vez que Facebook ha enfrentado problemas por la falta de supervisión humana. A principios de este año, después de una serie de actos violentos que aparecieron en las transmisiones de Facebook Live, la empresa aseguró que agregaría 3000 personas al equipo de 4500 empleados que revisan y eliminan contenido que viola los lineamientos de su comunidad.
No obstante, fue la primera vez que Sandberg, la responsable de toda la organización de publicidad de Facebook, trató en público y de manera directa problemas de publicidad de alto perfil. Sandberg, una veterana en la industria de la publicidad digital, ganó su reconocimiento en Silicon Valley por haber desarrollado la organización de ventas para Google en los primeros días de existencia del gigante de las búsquedas. Se unió a Facebook en 2008 y se le pidió que hiciera lo mismo en la red social.
Facebook ya ha enfrentado cuestionamientos controvertidos sobre asuntos raciales y sus herramientas de focalización de publicidad. El otoño pasado, ProPublica, informó que los anunciantes podían utilizar estas herramientas para excluir a ciertas razas —o lo que la red social llamaba “afinidades étnicas”— de publicidad relacionada con viviendas y empleos: una violación potencial de la Ley de Vivienda Justa de 1968 y de la Ley de Derechos Civiles de 1964. Facebook asigna el término actualizado “afinidad multicultural” para ciertos usuarios con base en sus intereses y actividades en el sitio y ya no permite que se utilice la clasificación anterior en publicidad de viviendas, empleo o créditos.
“Facebook enfrentó muchos problemas el año pasado que tendrán consecuencias”, afirmó Brian Wieser, un analista de Pivotal Research Group, quien sigue de cerca el caso de Facebook. “Es una mezcla de descuido, falta de consideración en una gran variedad de asuntos y los simples retos de dirigir una enorme empresa que está creciendo a un paso sin igual”.
Las ganancias anuales de Facebook, las cuales provienen casi en su totalidad de la publicidad en línea, se han más que triplicado durante los últimos cuatro años hasta llegar a 27,600 millones de dólares en 2016, cuando tuvo una utilidad neta de 10,200 millones de dólares. Por otro lado, la empresa también ha trabajado para reparar su relación con anunciantes importantes después de que hace un año divulgara que algunas de sus herramientas de medición no daban resultados precisos.
Como consecuencia del informe que divulgó ProPublica la semana pasada, Facebook restringió la manera en que los anunciantes podían focalizar a los usuarios; además, reincorporó 5000 de los términos más comunes para focalizar, como “enfermero” y “maestra”, después de haber revisado las opciones manualmente, según mencionó Sandberg en su publicación.
Sandberg también afirmó que la empresa está trabajando en un programa para animar a los usuarios de Facebook a que reporten los abusos del sistema de publicidad de la red social.
“La medida de agregar más revisiones humanas es buena y esperamos que se anticipen al siguiente problema que pueda surgir en su poderoso sistema”, mencionó Paparo.