Home Espectáculos Imported Article – 2026-04-10 13:32:19

Imported Article – 2026-04-10 13:32:19

10
0

El Parlamento Europeo ha bloqueado la extensión de una ley que permite a las grandes empresas de tecnología escanear la explotación sexual infantil en sus plataformas, creando un vacío legal que los expertos en seguridad infantil dicen que conducirá a la detección de delitos.

La ley, que fue una excepción de la Ley de Privacidad de la UE, se implementó en 2021 como una medida temporal que permitía a las empresas utilizar tecnologías de detección automatizada para escanear mensajes en busca de daños, incluido material de abuso sexual infantil (CSAM), además de grooming y sextorsión. Sin embargo, expiró el 3 de abril y el Parlamento Europeo decidió no votar para extenderla, ante las preocupaciones de privacidad de algunos legisladores.

La brecha regulatoria ha creado incertidumbre para las grandes empresas de tecnología, porque mientras escanear los daños en sus plataformas es ahora ilegal, siguen siendo responsables de eliminar cualquier contenido ilegal alojado en sus plataformas bajo otra ley, la Ley de Servicios Digitales. Google, Meta, Snap y Microsoft dijeron que seguirían escaneando voluntariamente sus plataformas en busca de CSAM, en un comunicado conjunto publicado en un blog de Google.

“Estamos decepcionados por este fracaso irresponsable en alcanzar un acuerdo para mantener los esfuerzos establecidos para proteger a los niños en línea”, dijo la declaración.

El Parlamento Europeo dijo en un comunicado que estaba priorizando su trabajo en legislación para prevenir y combatir el abuso sexual infantil en línea y que las negociaciones sobre un marco legal permanente estaban en curso, aunque no ofreció un cronograma para acuerdos o implementación.

Los defensores de la protección infantil habían advertido que permitir que la legislación caducara probablemente provocaría una fuerte caída en los informes de abuso sexual infantil. Señalaron una brecha legal similar que ocurrió en 2021, cuando los informes sobre dicho material provenientes de cuentas con sede en la UE al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) disminuyeron en un 58% en un período de 18 semanas.

“Cuando las herramientas de detección se interrumpen, perdemos visibilidad que afecta directamente nuestra capacidad para encontrar y proteger a las víctimas de abuso sexual infantil”, dijo John Shehan, vicepresidente del NCMEC, una organización con sede en EE. UU. que actúa como una central de informes de abuso infantil que envía a las agencias policiales relevantes de todo el mundo. “Cuando la detección se va, el abuso no se detiene”.

En 2025, el NCMEC recibió 21,3 millones de informes que incluían más de 61,8 millones de imágenes, videos y otros archivos sospechosos de estar relacionados con abuso infantil, de todo el mundo. Cerca del 90% de estos informes están relacionados con países fuera de Estados Unidos.

Un portavoz del Parlamento Europeo declinó hacer comentarios sobre si el cuerpo legislativo había realizado análisis para determinar las consecuencias de la caducidad de la ley.

La decisión de la UE de prohibir el escaneo tendrá efectos en otras regiones del mundo, dijeron los expertos en seguridad infantil. Muchos crímenes en Internet son transfronterizos, con perpetradores que envían imágenes ilegales a personas o que apuntan a niños en otros países. Los “sextorsionistas”, que se hacen pasar por intereses románticos para engañar a las personas a enviar fotografías íntimas antes de intentar chantajear, también pueden aprovechar el cambio en la ley, dijo Shehan.

“El delincuente puede estar en cualquier parte del mundo, pero podrían tener acceso ilimitado a menores en Europa ahora que existe incertidumbre legal en torno a esas salvaguardas y protecciones para identificar cuándo se está acosando a un niño”, dijo Shehan.

Años de negociaciones tensas llevan a la caducidad de una ley vital

Durante los últimos cuatro años, la regulación propuesta de abuso sexual infantil ha estado en negociación, con controversias surgidas porque obligaría a las empresas a tomar medidas para minimizar riesgos en sus plataformas, dijo Hannah Swirsky, jefa de política y asuntos públicos de Internet Watch Foundation, una organización sin fines de lucro de seguridad infantil con sede en el Reino Unido.

Los defensores de la privacidad argumentan que las grandes empresas que escanean mensajes en busca de abuso infantil amenazan los derechos fundamentales de privacidad y seguridad de datos de los ciudadanos de la UE, equiparando estas medidas a un “control de chat” que podría conducir a la vigilancia masiva y a falsos positivos.

“Hay afirmaciones de vigilancia o infracción de la privacidad”, dijo Swirsky. “Bloquear el CSAM no es una evasión de la privacidad. La libertad de expresión no incluye el abuso sexual de niños”.

La tecnología de escaneo utiliza aprendizaje automático que realiza una detección de patrones para identificar imágenes o videos conocidos de abuso, así como lenguaje asociado con la explotación infantil, y no almacena ningún dato, dijo Emily Slifer, directora de política en Thorn, una organización sin fines de lucro que construye tecnología para detectar el abuso infantil en línea y que es comúnmente utilizada por empresas y fuerzas del orden.

El sistema funciona al tener analistas capacitados revisar CSAM conocido obtenido de fuentes externas, como informes de la policía, el público o investigaciones en sitios web conocidos por alojar material de abuso infantil. Cuando los analistas confirman que el contenido es ilegal de abuso sexual infantil, generan una huella digital única, conocida como un valor hash, que identifica esa imagen exacta. Las listas de valores hash se comparten con las plataformas, las cuales utilizan sistemas automatizados para escanear las cargas y bloquear contenido coincidente instantáneamente, sin necesidad de que un humano lo vea.

“La tecnología no encuentra bebés en bañeras y cosas así. Si solo piensas en cómo se vería una imagen de abuso en comparación con un contenido consensuado: esos son dos materiales muy diferentes, y la tecnología puede determinar esos patrones entre ellos”, dijo Slifer.

Mientras que la UE ha bloqueado el escaneo de abuso infantil, ha permitido a las empresas tecnológicas escanear voluntariamente mensajes en busca de detección de contenido terrorista bajo la legislación adoptada en 2021, dijo ella.

“La UE está arriesgando efectivamente abrir las puertas a depredadores”, dijo Swirsky. “Si la UE se toma en serio la protección de los niños en línea, entonces necesita llegar a un acuerdo sobre un marco legislativo permanente para proteger a los niños y para habilitar la detección”.