Público
Público

Bruselas plantea luchar contra el porno infantil en internet a costa del cifrado

Una nueva legislación que propone la Comisión abre un delicado debate que enfrenta dos legítimas preocupaciones: la lacra de la pederastia 'online' y el derecho a la privacidad en las comunicaciones. La solución no será fácil.

Una agente de la Policía Nacional frente a un ordenador.
Una agente de la Policía Nacional frente a un ordenador. Policía Nacional

Las cifras de la producción y distribución de la pornografía infantil y el abuso sexual a niñas y niños por internet son realmente alarmantes. La Comisión Europea señala que sólo en 2011 se reportaron en todo el mundo 85 millones de imágenes y vídeos que muestran abuso sexual. Y habrá muchos más sin denunciar. La Comisión Europea ya ha publicado su borrador de ley para tratar de luchar contra esta terrible lacra (llamada CSAM), y su propuesta podría abrir la puerta al fin del cifrado punto a punto y a la obligación de escanear todo lo que circule por mensajes y redes sociales.

Bruselas cree que los esfuerzos de las compañías de internet por detectar y eliminar este tipo de material no son suficientes, porque el problema no deja de crecer. Por ejemplo, los confinamientos por la pandemia de covid-19 han hecho incrementar en un año un 64% el número de denuncias de abuso sexual infantil confirmados en 2021, según la Internet Watch Foundation.

Esta proposición legislativa para la UE busca que una gran parte de la responsabilidad recaiga en las compañías de internet, a las que se pretende obligar a "detectar, informar y eliminar material de abuso sexual infantil en sus servicios". Y prevé la creación de un centro europeo de prevención y coordinación de las acciones de cada país.

¿Y la privacidad de las comunicaciones?

No obstante, y a pesar de que el borrador insiste en preservar la privacidad de los usuarios, lo cierto es que el texto levanta algunas preocupaciones entre activistas y organizaciones defensoras del derecho a la privacidad.

Así, esta primera propuesta -que se presentará a la Eurocámara en breve- prevé que "los proveedores de servicios de hospedaje y los proveedores de servicios de comunicación interpersonal que hayan recibido una orden de detección deberán ejecutarla instalando y operando tecnologías para detectar" estos contenidos "a solicitud de la autoridad judicial competente o de autoridad administrativa independiente", señala el proyecto de reglamento, que nuevamente avalaría la eliminación de la garantía judicial en estos casos.

También pretende que las plataformas implementen sistemas capaces de detectar material pedófilo en sistemas de comunicación que, como WhatsApp, Telegram o Signal, prometen un cifrado punto a punto que impide precisamente lo que Bruselas quiere hacer: husmear nuestros mensajes que son privados por derecho.

Bruselas insiste en los proveedores sean los que elijan cómo cumplir con las órdenes de detección

Para ello, la propuesta en sí (que, por cierto, sólo contiene la palabra "cifrado" en dos ocasiones) insiste en que sean los proveedores los que elijan cómo cumplir con las órdenes de detección, y "eso incluye el uso de tecnología de cifrado de extremo a extremo".

La Comisión pone por ejemplo la polémica decisión de Apple de 'peinar' su servicio de nube 'Cloud', las iniciativas 'Child Safety' presentada en agosto de 2021, y que tuvo que detener un mes más tarde por las críticas de activistas y expertos en privacidad.

"Las soluciones técnicas que podrían aplicarse para identificar las URL CSAM en las comunicaciones cifradas punto a punto ya están disponibles", afirma Bruselas en uno de sus documentos de trabajo. "Por ejemplo, servicios como WhatsApp o Signal escanean URLs de mensajes antes de cifrarlos para detectar 'spam' y 'malware', y para mostrar al usuario una vista previa de la página web a la que apunta la URL".

Pero no es lo que dicen las plataformas de mensajería. WhatsApp, por ejemplo.  explica cómo lucha contra la explotación sexual a partir de datos que no están cifrados: informes y denuncias de usuarios, máquinas que escanean imágenes no cifradas (la del perfil, la de los grupos) para alimentar una inteligencia artificial en busca de comportamientos sospechosos y patrones. No parece que esto sea suficiente para Bruselas.

Premisas que plantea Bruselas para actuar

  • Más del 60% del material de abuso sexual infantil en todo el mundo está alojado en servidores de la UE.

  • Los Estados miembros de la UE se encuentran entre los diez principales países anfitriones de porno infantil del mundo.

  • En 2019 y 2020, el 95% de todos los informes a nivel mundial provienen de un solo proveedor de servicios.

  • El sistema de denuncia o reporte voluntario es susceptible a cambios en las políticas de las empresas.

La Comisión Europea insiste que las obligaciones propuestas para los proveedores de servicios con respecto a la detección de material de abuso sexual infantil son tecnológicamente neutrales, lo que significa que no se prescribe qué tecnología debe usarse para la detección; es una obligación de resultado.

Una de esas tecnologías es el cifrado, "importante para la protección de la ciberseguridad y la confidencialidad de las comunicaciones", reconoce Bruselas, pero que "los delincuentes pueden abusar de su uso como canal seguro para ocultar sus acciones, lo que obstaculiza los esfuerzos para llevar ante la Justicia a los perpetradores de abuso sexual infantil".

Los menores tienen prioridad

"El interés superior del niño debe ser una consideración primordial", dice el preámbulo del texto de la Comisión, que recuerda que que "si bien son de gran importancia, ninguno de los derechos fundamentales al respeto a la privacidad, a la protección de datos personales y a la libertad de expresión e información son absolutos y deben ser considerados en relación con su función en sociedad".

Pero muchos defensores de la privacidad temen una intrusión indiscriminada y desproporcionada en las comunicaciones personales, y afirman que las herramientas que la tecnología puede proporcionar no pueden ser la única solución a un problema social más grande.

"Hay muchos problemas para combatir el material de abuso infantil, como una Policía sobrecargada y una cooperación internacional deficiente", afirma Rejo Zenger, asesor de políticas de la fundación holandesa Bits of Freedom, miembro de la red European Digital Rights (EDRi), que también ha alertado contra lo que propone la Comisión Europea. "Esta propuesta no resuelve esos problemas, no ayuda a los niños y sí perjudica a ciudadanos inocentes", que pueden verse afectados por una especie de 'Stasi 2.0': vigilancia permanente.

¿Te ha resultado interesante esta noticia?

Más noticias