La Unión Europea ya no permite a las grandes tecnológicas buscar material de abuso sexual infantil en las comunicaciones de los usuarios. La decisión, tomada por el Parlamento a finales de marzo, es efectiva desde este mes de abril y está siendo duramente criticada por centenares de organizaciones centradas en la protección de los menores y por las grandes tecnológicas. Acusan a Bruselas de actuar de forma «irresponsable» y de tomar un camino que «tendrá consecuencias devastadoras» para la seguridad de los más pequeños. «Sentimos una preocupación tremenda. Hasta hace unos días contábamos con una medida para detectar algo tan grave como el abuso sexual infantil en línea; ahora nos hemos quedado sin ella y eso supone un paso atrás enorme en la protección de los menores», explica en conversación con ABC Sonsoles Bartolomé, directora del departamento jurídico de las líneas de ayuda de la Fundación ANAR , dedicada a prestar ayuda a los niños y adolescentes en situación de riesgo. Esta asociación es una de las 247 organizaciones europeas que han firmado recientemente un comunicado en el que «condenan enérgicamente el fracaso de los responsables políticos de la UE a la hora de prorrogar la base legal que permitía estas actividades de detección». Según explican, desde 2021, grandes empresas tecnológicas como Meta (propietaria de WhatsApp, Facebook e Instagram), Google o TikTok contaban con permiso temporal de la Unión Europea para buscar material de abuso sexual infantil entre las comunicaciones que intercambian los usuarios. Esta operación se llevaba a cabo mediante tecnologías de detección automatizada y era completamente voluntaria. Durante los últimos años, varios países de la UE, entre ellos España, han trabajado activamente en la aprobación de una nueva ley que obligaría directamente a las tecnológicas a buscar contenido de abuso infantil en sus servicios. Sin embargo, la medida fue descartada una vez tras otra debido al temor de que pudiera provocar daños en la privacidad de las conversaciones que mantienen los usuarios. Las organizaciones de protección infantil se muestran preocupadas por la posibilidad de que ahora, con la desaparición de la ley, «las denuncias de material de abuso sexual infantil caigan drásticamente» en Europa. Consideran que «las fuerzas del orden perderán pistas cruciales para destapar casos de abuso sexual y los menores seguirán atrapados en situaciones de abuso». Las asociaciones recuerdan que la última vez que surgió una laguna similar, en 2021, las denuncias de este tipo procedentes de cuentas con sede en la UE al Centro Nacional para Niños Desaparecidos y Explotados -organización estadounidense que funciona como un centro de información de casos de abuso sexual- cayeron un 58% durante dos meses y medio. Las tecnológicas también se han mostrado contrariadas por la situación actual. En otro comunicado conjunto, Meta (propietaria de WhatsApp, Instagram y Facebook), Google, Microsoft y Snapchat, señalan que con el final de este permiso, «Europa corre el riesgo de dejar a los niños de todo el mundo menos protegidos de los daños más abominables»: «Nos decepciona este fracaso a la hora de alcanzar un acuerdo para mantener los esfuerzos establecidos para proteger a los niños en línea». Las empresas aseguran comprender que, en esta nueva situación, Bruselas espere que sean ellas las que «tomen medidas para garantizar la seguridad infantil». Les preocupa la actual laguna jurídica, pero han tomado la determinación de «seguir adoptando medidas voluntarias en relación con nuestros servicios de comunicación interpersonal pertinentes». Esto implica que tienen intención de seguir buscando material abusivo aunque no tengan permiso directo para ello, algo que podría ir en contra de la directiva de privacidad europea , que protege la confidencialidad de las comunicaciones electrónicas. La situación de las tecnológicas no es sencilla. Cabe recordar que en base a la Ley de Servicios Digitales de la UE, las cuatro compañías detrás del manifiesto -como cualquier otra que cuente con, al menos, 45 millones de usuarios únicos mensuales en suelo comunitario- tienen la obligación de eliminar cualquier contenido ilegal alojado en sus plataformas, lo que incluye la material de abuso infantil. Si no cumplen, pueden recibir multas que ascienden hasta el 6% de sus ingresos anuales globales. Para acabar con la incertidumbre y las lagunas jurídicas, las tecnológicas han hecho un llamamiento «a las instituciones de la UE para que concluyan con urgencia las negociaciones sobre un (nuevo) marco regulatorio» lo antes posible. Lo mismo esperan desde las ONG. «Parece que en Europa les está costando llegar a un acuerdo, pero deben entender que nos han dejado sin cobertura para controlar el envío de contenido abusivo. No sé cuándo llegará esa regulación que nos permita proteger a los niños, pero queda claro que es necesaria», remarca Bartolomé. Fuentes de la UE señalan que, actualmente, se está trabajando en el desarrollo de una nueva legislación que permita solventar esta situación, aunque por el momento no está claro cuándo se aprobará y será efectiva.
Europa se queda sin medios para detectar pornografía infantil en WhatsApp
Escrito el 11/04/2026