“Un mal día para Internet”: Europa permitirá censurar contenidos en menos de una hora sin pasar por el juez con su nueva ley contra el terrorismo

(Xataka) | La Unión Europea da otro paso más en el control de lo que se publica en la red. El Parlamento Europeo ha aprobado una nueva legislación, en este caso para “frenar la propagación de contenido terrorista en internet”. Una directiva que obligará a empresas como Google o Facebook a eliminar el contenido terrorista en menos de una hora o de lo contrario se expondrán a importantes sanciones.

Os explicamos los detalles de esta nueva ley, qué tipo de contenidos se verán afectados y cómo pretende Europa que las grandes plataformas filtren lo que se publica. Una nueva normativa que a la práctica otorga a las autoridades de los distintos países el poder de censurar sin la aprobación de un juez.

Qué contenido se filtrará y quién lo decide

El nuevo reglamento se aplicará sobre “textos, imágenes, grabaciones de audio o video, incluidas las retransmisiones en directo, que inciten, demanden o contribuyan a la comisión de delitos terroristas; faciliten instrucciones para ello, o animen a participar en grupos terroristas”. Esto incluye también información sobre la fabricación de armas de fuego o explosivos con fines terroristas.

¿Qué se considera contenido terrorista? En este caso se deja el aviso en manos de la “autoridad competente” de cada país. Una vez las compañías reciban la orden, tendrán una hora para suprimir el contenido o impedir el acceso al mismo. Un bloqueo que deberá ser aplicado en todos los países de la Unión Europea, no solo en el de origen.

Esta autoridad competente variará en función del país y podría ser un organismo administrativo; pudiendo dejar en manos de los gobiernos el poder solicitar el borrado de un contenido por considerarlo como terrorista.

Europa Terrorismo

En caso de no retirar el contenido, las empresas se enfrentarán a sanciones que se calcularán “teniendo en cuenta la naturaleza de la infracción y el tamaño de la compañía”.

Las empresas tendrán una hora para eliminar contenidos, contados a partir de que la “autoridad competente” de cada país lo solicite.

¿Qué ocurre si por ejemplo se incluye material terrorista en un documental? El texto establece que el material subido a la red con fines educativos, periodísticos, artísticos o de investigación, o utilizado para sensibilizar, no será considerado contenido terrorista.

Una de las principales dudas es cómo lograrán las grandes compañías detectar el contenido terrorista y su propagación por la plataforma. En este sentido, desde Europa explican que “las plataformas no tendrán una obligación general de filtrar todo el contenido que alojan ni deberán utilizar herramientas automáticas de control”. Esto supone un paso adelante frente a las propuestas que defendían la aplicación de algoritmos automáticos, que podían ser a la práctica un elemento de censura generalizada. Si bien, la normativa sí establece que deberán “tomar medidas específicas para evitar su diseminación en caso de que las autoridades detecten su exposición a este tipo de material”, sin especificar qué tipo de medidas concretas.

De manera equivalente a los datos ofrecidos en la lucha contra la desinformación, los proveedores de servicios de internet estarán obligados a publicar informes anuales de transparencia. El nuevo reglamento entrará en vigor durante las próximas semanas una vez se publique en el diario oficial y comenzará a aplicarse 12 meses después, por lo que esta obligación de eliminar los contenidos no será efectiva hasta 2022.Desde la Plataforma en Defensa de Libertad de Información (PDLI) han catalogado esta nueva normativa como “malas noticias”. 75 organizaciones a nivel europeo han alertado de los peligros de esta nueva normativa ya que “proporciona a las autoridades nacionales el poder de censurar online un contenido sin la aprobación de un juez”, según describe la asociación European Digital Rights (EDRi).

Para la PDLI, este Reglamento “preocupa mucho” porque tiene dos problemas importantes: el requerimiento de retirada en una hora, sin posibilidad de revisión judicial inmediata, el cual resulta “desproporcionado y potencialmente arbitrario” y las obligaciones de supervisión activa de contenidos para evitar que una determinada pieza se vuelve a colgar, que según la PDLI “contradice los principios generales de la directiva de comercio electrónico y en la práctica obliga al uso de sistemas de filtrado muy controvertidos como el GIFCT”.

Desde la organización en defensa de los derechos digitales explican que la nueva ley “no protege suficientemente el periodismo, el arte y la educación de los abusos políticos y afectará a las comunidades musulmanas y racializadas que ya son un blanco desproporcionado de las medidas antiterroristas”.

La PDLI muestra su preocupación porque “esas obligaciones estén vinculadas a conceptos genéricos como “incitar” y “glorificar” que es peligroso. Al menos se contempla la intervención de una autoridad judicial o independiente que ha de designarse para emitir las órdenes motivadas de bloqueo a las plataformas, al menos en España, hay cierta transparencia (podría ser más) y expresamente se contemplan garantías de recursos tanto para quien le bloquean contenidos cuanto para las plataformas. En todo caso, son más las sombras que las luces y a juicio de la PDLI, al igual que para otras organizaciones de defensa de los derechos digitales europeas, hoy es un mal día para Internet”.

“El reglamento permite que un estado de la UE solicite la eliminación, en el plazo de una hora, de contenido alojado en otro país con el argumento de que se trata de contenido “terrorista”. Lo que esto significa es que alguien como Viktor Orban podría pedir la eliminación del contenido subido en otro país porque critica a su gobierno”, expresa Eva Simon, abogada de la Unión de Libertades Civiles para Europa.

Joan Barata, jurista de la Universidad de Stanford, explica a Xataka que “el nuevo Reglamento es una nueva oportunidad perdida para la Unión Europea de introducir una regulación de las plataformas que sea respetuosa con los derechos fundamentales, especialmente la libertad de expresión”.

“El Reglamento plantea problemas en cuanto a la posibilidad de imponer una obligación de remoción expeditiva de contenidos sin control jurisdiccional suficiente e inmediato”, cuenta Barata, quien nos recuerda que una norma parecida en Francia fue declarada inconstitucional por parte del Consejo Constitucional.

“Por otra parte, se introducen también obligaciones de monitoreo activo de contenidos por parte de las plataformas las cuales, en la práctica, requerirán del uso de filtros automatizados. La experiencia ha demostrado que este tipo de filtros cometen muchos errores cuando se trata de analizar contenido que requiere de una comprensión adecuada del contexto, como es el caso del contenido terrorista”, concluye el jurista.

Deja un comentario

fifteen + 10 =