BORJA ADSUARA. EL PAÍS.- Muchas voces vienen reclamando, desde hace años, una Constitución de Internet, en la que se recojan, como hacen todas las Constituciones, una declaración de los “Derechos Humanos” digitales o, mejor dicho, los Derechos Fundamentales de los ciudadanos ‘en’ el entorno digital. Otros creemos que no hace falta y que bastaría con aplicar la vieja Declaración Universal de Derechos Humanos de la ONU (1948).
Mientras tanto, en España, los ciudadanos esperan que se garanticen y protejan, “los derechos fundamentales y las libertades públicas” de nuestra Constitución (Título I, capítulo segundo, Sección 1ª), también en internet. En especial, la libertad de expresión o derecho de opinión y el derecho de la información (art. 20.1.a y d) y el derecho al honor, a la intimidad y a la propia imagen (art. 18.1).
Y los españoles esperan que esos derechos fundamentales y libertades públicas tengan una “tutela judicial efectiva”, como también garantiza nuestra Constitución (Título I, capítulo cuarto, art. 53.2): “Cualquier ciudadano podrá recabar la tutela de las libertades y derechos [reconocidos en el artículo 14 y la Sección primera del Capítulo segundo] ante los Tribunales” (…)
Derecho al olvido, noticias falsas, contenidos inadecuados y delitos de odio
Todo esto viene a cuento del -cada vez más preocupante- proceso que estamos viviendo, desde hace tiempo, por el que la Unión Europea y los Estados miembros están cediendo su soberanía y, de paso, descargando su responsabilidad en las empresas de internet, para que éstas sean las que se encarguen de garantizar los derechos o, más bien, de censurar la libertad de expresión, según sus criterios.
La cosa empezó con la sentencia del Tribunal de Justicia de la Unión Europea de 13 de mayo de 2014, por la que se consagraba el (mal) llamado “derecho al olvido”. Más allá de consideraciones de fondo sobre este “nuevo” derecho (que no lo era), lo que más chocaba era que se delegaba en los buscadores de internet la tarea de decidir en primera instancia si se aplicaba o no.
Recientemente (sobre todo, a raíz de la campaña electoral de EEUU) ha surgido la polémica sobre si las empresas de internet deberían controlar las noticias falsas, pronunciándose, sorprendentemente, algunos periódicos a favor de que lo hagan, anunciando dichas empresas la adopción de medidas en este sentido y exigiéndolo urgentemente algunos políticos.
Por otro lado, existe una fuerte reacción por la censura de contenidos que algunas redes sociales consideran inadecuados, según sus términos y condiciones de uso, aunque sean legales (en especial, la desnudez), no entendiéndose por qué unas redes sociales optan directamente por el borrado, cuando otras utilizan tecnología disponible para etiquetado y filtrado de contenidos para adultos.
Por último, existe una creciente confusión ante los (mal) llamados “delitos de odio” en las redes sociales, que hace que se borre por las empresas o se persiga por los usuarios (hasta el linchamiento virtual) o por la policía (hasta la detención física) cualquier expresión que pueda considerar socialmente reprochable o políticamente incorrecta, cuando el Derecho Penal debiera ser la “última ratio” del ordenamiento.
La Comisión Europea y la lucha contra el “discurso del odio” ilegal en línea
Sobre este último tema hay novedades, puesto que el 6 de diciembre, mientras en España se celebraba el Día de la Constitución, la Comisión Europea publicaba una contundente nota de prensa respecto a “La lucha contra el ‘discurso de odio’ ilegal en línea: primera evaluación del nuevo código de conducta”, en la que exige a las empresas de internet que hagan más de lo que están haciendo.
Esta primera evaluación, que también ha sido publicada, la han realizado 12 ONGs en 9 países, durante seis semanas (del 10 de octubre al 18 de noviembre de 2016) y han reportado un total de 600 casos. En España la ha hecho el Movimiento contra la intolerancia, que ha analizado la respuesta a 8 notificaciones sobre contenidos que constituirían “delitos de odio” (tal y como están tipificados en el Código Penal).
Los resultados de la evaluación han sido que “el 28% de todas las notificaciones de presunto odio ilegal en línea conducen a la eliminación del contenido marcado. Sin embargo, sólo el 40% de todas las notificaciones se examinan actualmente en 24 horas, mientras que el objetivo del Código de Conducta es revisar la mayoría en 24 horas”. Por lo que a la Comisión Europea le parece un esfuerzo insuficiente.
Este informe de evaluación se refiere al Código de Conducta “para luchar contra el ‘discurso del odio’ ilegal en línea”, que la Comisión Europea firmó, el 31 de mayo, con Facebook, Microsoft, Twitter y Google (YouTube), por el cual estas compañías de internet se comprometían a “retirar o deshabilitar el acceso a dichos contenidos”, como decía la nota de prensa.
Para borrar o impedir el acceso a esos contenidos las compañías de internet deben seguir los criterios de la “Decisión marco relativa a la lucha contra determinadas formas y manifestaciones del racismo y la xenofobia mediante el Derecho penal”, por lo que -en la práctica- se les pide que hagan de jueces (y, además penales), en una asunto tan delicado como es la libertad de expresión.
Refuerzo de tutela judicial y creación de organismo de autocontrol sectorial
Una cosa es el refuerzo de los medios para la tutela judicial efectiva de los derechos fundamentales y una intensificación de la “colaboración” de las multinacionales de internet con las autoridades policiales y judiciales en la investigación de los delitos de odio (tipificados en España en el art. 510 del Código Penal) y otra, decir a éstas que los persigan, los borren o impidan el acceso a ellos.
Algunos defienden este sistema de censura o “control de contenidos” empresarial, argumentando que es imposible que la Administración de Justicia pueda responder ágilmente a la rapidez con que se cometen los delitos de odio en las redes sociales, pero, por esa vía, estamos dejando la protección de los derechos fundamentales en manos de empresas, que, dicho sea de paso, no lo han pedido.
Por otra parte, el peligro no está en la censura del “discurso del odio” ilegal en línea (al que se refiere el Código de Conducta, la Decisión Marco y los “delitos de odio” del Código Penal), sino en el “discurso del odio” que no llega a constituir un delito, y la posible censura de otros contenidos, como las noticias falsas o los contenidos que estas empresas consideren “inadecuados”.
Si hay indicio de delito, deben denunciarse y ponerse en conocimiento de la policía y de los jueces. Y, si no hay indicio de delito, ¿qué hacen las empresas de internet borrando contenidos amparados por la libertad de expresión?, ¿están los términos y condiciones de uso de estas plataformas por encima de la Constitución española y de la Declaración Universal de Derechos Humanos?
Como mal menor y en búsqueda de una mayor agilidad, cabría pensar en sistemas de resolución extrajudicial de conflictos, como los organismos independientes de autocontrol sectorial que ya funcionan en algunos ámbitos de contenidos (como los publicitarios), al menos como una segunda instancia del autocontrol empresarial, cuando un usuario no esté de acuerdo con el borrado o bloqueo de un contenido.
Borja Adsuara es profesor, abogado, consultor y experto en derecho y estrategia digital.