'Me han borrado un comentario en Facebook': ¿censura, responsabilidad legal o libertad de expresión?
Es uno de los grandes debates de la nueva sociedad de la información, la que ha surgido tras la explosión de internet, de las redes sociales, de las plataformas y del contenido digital. ¿Hasta dónde es libertad de expresión, hasta dónde censura, hasta dónde se puede comentar o no, y de quién es la responsabilidad? El magistrado Rafael Sarazá Jimena es un jurista cordobés que ejerce como magistrado de la sala Primera de lo Civil en el Tribunal Supremo. Sarazá participó este lunes en una ponencia en el Colegio de la Abogacía de Córdoba, en el que trató de arrojar luz sobre la jurisdicción en los abusos y publicaciones en internet, desde el punto de vista del juzgador que conoce casi a diario una multitud de asuntos sobre este tema.
Sarazá arrancó citando la sentencia del Tribunal Constitucional de febrero de 2020 que detalla que “los ciudadanos no han quedado desprovistos de sus derechos fundamentales” aunque la sociedad haya evolucionado hacia un mundo digital. “Con internet han cambiado muchas cosas”, explicó, al tiempo que aseguró que con sus “ventajas innegables” también plantea “nuevos riesgos” como el de convertirse en un “cauce para realizar actividades ilícitas y contenidos lesivos hacia los derechos de la personalidad, honor y propia imagen”. Al final, la “responsabilidad del vulnerador se rige por las mismas normas” que en los medios tradicionales, algo recogido en los artículos 18 y 20 de la Constitución Española.
“Dios perdona y olvida, pero internet no”, arrancó, para detallar cómo una de las grandes demandas en los tribunales tiene que ver con el derecho al olvido, algo que siempre existió en los “medios tradicionales” pero que ahora es un “riesgo amplificado por los motores de búsqueda” de las plataformas. El magistrado sostuvo que “el derecho de supresión para eliminar los enlaces” en los que se ve afectada una persona por hechos del pasado “es compatible con que la información permanezca en internet. Lo que se trata es conseguir que esa información no se asocie a esa persona. No debemos censurar un artículo periodístico que era de interés. Pero sí lograr que se introduzca en la página web una serie de códigos para que los datos personales no sean indexados por motores de búsqueda”.
Así, citó una información de “hace 30 años” en los que una persona estaba implicada. Ahora, la acción se considera ya caducada, por lo que se ha de retirar el nombre de esta persona, aunque la información publicada permanezca. Pero, ¿cuál es el plazo de esa caducidad?, se preguntó. Hasta ahora, se fijaba en cuatro años desde la publicación. Pero, “¿en internet?”. En esta caso, se considera la fecha de la primera difusión.
El magistrado también se refirió al “problema de replicación de informaciones de internet”, algo que “suele ser usual”. En este caso, explicó cómo surgen multitud de páginas que replican informaciones de terceros. En este caso, se opta por obligar a los responsables de los motores de búsqueda a “bloquear” los enlaces en los que se consideran vulnerados derechos fundamentales.
Los comentarios y los “prestadores de servicios”
Uno de los grandes problemas jurídicos está en quién es el moderador de los comentarios que inundan las redes sociales. ¿De quién es la responsabilidad? ¿Quién los puede borrar? ¿Afecta a la libertad de expresión hacerlo? En este punto, el magistrado se refirió a la “responsabilidad de los prestadores de servicios”, las habituales plataformas, como Google, Yahoo, Facebook, Twitter, Instagram, o agregadores de noticias como Menéame. En este punto en España hay “legislación europea y jurisprudencia del Tribunal de la Unión Europea” por el “carácter transfronterizo” de estas plataformas, donde se consideró que divergencias en uso o limitaciones “afectaban negativamente al mercado interior”.
“Esta ley establece una norma especial: más que régimen de responsabilidad es de no responsabilidad”, explicó. Así detalló que estos “prestadores de servicios” tienen una “exención, conocida de puerto seguro”, en el que señala que no son responsables del contenido que alojan sus usuarios. Pero para ello, han de cumplir dos requisitos: “uno, que no tengan conocimiento de contenido ilícito; y dos, que cuando lo tengan, actúen con diligencia para suprimir o inutilizar el enlace”.
Rafael Sarazá incidió en estos dos conceptos. Sobre el conocimiento efectivo dijo que “la ley considera que un prestador lo tiene cuando un órgano competente ha ordenado la ilicitud o hubiera declarado la existencia de la lesión”. El magistrado citó casos antiguos y recientes de la Sala Primera del Supremo. Uno de ellos fue el caso Menéame, a partir de insultos de un usuario. “Se insultaba claramente a una determinada persona. Se enviaron comunicaciones al prestador y no se retiró el contenido. Se recurrió en amparo y se desestimó el recurso. El requisito del conocimiento efectivo es amplio y exige no se vulnera la libertad de expresión”, explicó.
También aludió a la “responsabilidad del titular de una cuenta en una red social que permite que usuarios que acceden a esa cuenta publiquen mensajes ilícitos”, como los comentarios en un muro de Facebook. “¿Qué responsabilidad tiene el titular de esa cuenta por mensajes que no los ha escrito él?”, se preguntó, para citar un fallo del Tribunal Europeo de Derechos Humanos en un caso de un político francés que fue “condenado porque en su cuenta de Facebook permitió comentarios racistas durante mucho tiempo. Acudió al Tribunal de Derechos Humanos. Ahí se declaró que era conforme al convenio la condena penal por no haber eliminado de su muro de Facebook los comentarios racistas”, explicó el magistrado. “Los titulares de cuentas disponen de amplio poder para ocultar, denunciar, marcar como spam o bloquear. No pueden desentenderse sin más de lo que publican otros usuarios”, sostuvo.
Sobre el segundo requisito, Sarazá detalló qué es una “actuación diligente para suprimir o inutilizar un enlace”. Así, habló de la “interesante sentencia del Tribunal de Justicia de la UE de 3 octubre 2019” sobre una política verde austríaca“. Sarazá aseguró que estos agregadores disponen de recursos y medios para retirar una información cuando se considere lesionado un derecho. ”Y obligación de suprimir todos los contenidos idénticos“ que han sido replicados por terceros.
El magistrado sostuvo, sin embargo, que “para que haya excepción de responsabilidad, las plataformas tienen que ser neutras. Si dirigen la información no rige este régimen de exención de responsabilidad”, según un nuevo reglamento. ¿Son neutros? El magistrado mostró sus dudas sobre el contenido que le ofrecen diversas plataformas, como Google, que “no es la misma que muestra a mi vecino”, dijo.
0