Portada conceptual sobre la ofensiva regulatoria de la UE contra los deepfakes sexuales y la IA generativa

La UE le declara la guerra a la IA pornográfica: deepfakes, Grok y una regulación histórica

Hay cifras que dejan sin palabras. En 2025, la Internet Watch Foundation —la organización europea líder en la detección de material de abuso sexual infantil online— identificó 8.029 imágenes y videos de abuso sexual infantil de apariencia realista generados por IA, un incremento del 14% respecto al año anterior. Internet Watch Foundation Pero el dato que realmente sacudió a los legisladores europeos fue otro: de los 3.443 videos de CSAM generados por IA detectados, el 65% fue clasificado como Categoría A, la categoría más grave bajo la ley del Reino Unido, que abarca violación, tortura sexual y bestialismo. Para comparar, en 2024 solo se habían encontrado 13 videos de este tipo. Internet Watch Foundation

Un salto de 13 a 3.443 en un solo año. La IA no estaba esperando a que las leyes la alcanzasen.

Si los datos ya eran alarmantes, lo que ocurrió en el cambio de año fue el catalizador que lo cambió todo. A finales de diciembre de 2025, el chatbot Grok, de xAI —la empresa de Elon Musk— lanzó nuevas capacidades de edición de imágenes. En cuestión de días, una avalancha de deepfakes sexualizados no consensuados de mujeres y niñas comenzó a generarse y compartirse directamente en la plataforma X. Tech Policy Press

Las cifras del escándalo fueron brutales. Un análisis de 800 piezas de contenido recuperado por la ONG parisina AI Forensics reveló que casi el 10% eran “instancias de personas fotorrealistas, muy jóvenes, realizando actividades sexuales”. Una segunda investigación, realizada durante 24 horas entre el 5 y el 6 de enero, calculó que los usuarios generaban 6.700 imágenes sexualmente sugerentes o desnudificadas por hora mediante Grok, 84 veces más que los cinco principales sitios de deepfakes combinados. Wikipedia

Las reacciones no tardaron. El Parlamento Europeo calificó la situación de escándalo internacional, y varios gobiernos bloquearon la plataforma o abrieron investigaciones sobre la denominada función de “pornificación” que ponía en riesgo a mujeres y menores. European Parliament La Comisión Europea ordenó a X retener todos los documentos e información interna relacionados con Grok hasta finales de 2026 y abrió una investigación formal para determinar si la plataforma había vulnerado la Ley de Servicios Digitales, una norma que puede imponer multas de hasta el 6% de la facturación global anual de una empresa. The Next Web

Y Elon Musk, en lugar de apagar el fuego, lo avivó publicando él mismo deepfakes en bikini, mientras aseguraba que los usuarios que abusasen de Grok enfrentarían consecuencias. USAPP

Lo que sucedió a continuación fue poco habitual en Bruselas: rapidez. El 11 de marzo de 2026, los legisladores europeos alcanzaron un acuerdo político sobre un paquete de enmiendas a la Ley de IA de la UE, con la prohibición de imágenes íntimas no consensuadas generadas por IA —incluyendo material de abuso sexual infantil— como uno de los puntos más debatidos y trascendentales del texto. The Next Web

Concretamente, los legisladores introdujeron una nueva prohibición de los sistemas llamados “nudifiers” que utilizan IA para crear o manipular imágenes sexualmente explícitas o íntimas que se parezcan a una persona real identificable sin su consentimiento. Eso sí, aclararon que los sistemas de IA con medidas de seguridad efectivas que impidan a los usuarios crear ese tipo de imágenes no quedan afectados por la prohibición. France 24

No fue fácil llegar hasta aquí. Hizo falta un escándalo, una ola de indignación regulatoria y la presión de 57 eurodiputados para que la prohibición se incluyera finalmente en el texto. The Next Web Una coalición transversal de izquierda y derecha que difícilmente se pone de acuerdo en nada encontró terreno común en la protección de menores y mujeres frente a la IA generativa.

Hubo otro paso legislativo que pasó algo más desapercibido pero que merece su propio titular. En junio de 2025, el Parlamento Europeo votó abrumadoramente a favor de una directiva que criminalizaría la creación, posesión y distribución de material de abuso sexual infantil generado mediante inteligencia artificial. La votación fue de 599 a favor, solo 2 en contra y 62 abstenciones. Euronews

Un consenso casi absoluto, rarísimo en Bruselas. El eurodiputado Jeroen Lenaers, responsable de la ponencia, explicó la lógica de la norma: “Se tratará exactamente igual que si fuera material de abuso infantil real, porque sabemos que estos modelos, en primer lugar, necesitan entrenarse con material real de abuso sexual infantil y, en segundo lugar, vemos que usar este tipo de contenido generado por IA es un paso muy pequeño hacia el abuso real”. Euronews

La propuesta también busca cerrar un agujero legal particularmente inquietante: en su posición inicial, el Consejo de la UE incluía una excepción que permitía la posesión de CSAM generado por IA para “uso personal”. La IWF y sus socios fueron tajantes: esa disposición debe eliminarse. Internet Watch Foundation

Mientras los legisladores celebraban acuerdos, otra pieza del sistema se rompía en silencio. El 3 de abril de 2026 expiró el marco legal temporal de la UE que permitía a los proveedores de servicios online escanear comunicaciones privadas en busca de CSAM de forma voluntaria, sin violar las normas de privacidad. Ante la incapacidad de los legisladores de acordar una extensión, las empresas tecnológicas se encuentran ahora en un limbo jurídico. The Cyber Express

A pesar de la incertidumbre, varias grandes empresas, entre ellas Google, Meta, Microsoft y Snap, han declarado que continuarán sus esfuerzos voluntarios de detección. En una declaración conjunta, subrayaron la urgencia de que las instituciones de la UE establezcan un marco regulatorio estable, señalando que la seguridad infantil no puede verse comprometida por retrasos políticos. The Cyber Express

El problema es que las buenas intenciones no sustituyen a las obligaciones legales. La IWF advierte de que los delincuentes que buscan explotar las lagunas legales se mueven más deprisa que los legisladores, y que fortalecer las leyes contra el CSAM generado por IA no sirve de nada si los sistemas que lo detectan y eliminan se apagan. International Women’s Foundation

Para entender por qué la regulación se ha acelerado, basta con mirar la tendencia. En 2024, la IWF confirmó 245 informes sobre CSAM generado por IA, una cifra que ya representaba un aumento del 380% respecto a 2023. Casi el 40% de ese material mostraba abusos de Categoría A. Internet Watch Foundation Un año después, las cifras se dispararon de nuevo.

Una analista senior de la IWF describió el panorama con crudeza: “Es muy evidente por las perturbadoras conversaciones en la dark web que las innovaciones en IA son recibidas con deleite por los usuarios de material de abuso sexual infantil. Cada nuevo avance en la IA generativa es celebrado por su capacidad de mejorar el realismo, intensificar la gravedad o hacer más inmersivo cualquier escenario sexual imaginable con un niño”. International Women’s Foundation

La batalla entre regulación y tecnología nunca ha estado más abierta. Lo que la UE acaba de construir es un andamiaje legal —todavía en negociación trilateral entre Parlamento, Consejo y Comisión— que buscará hacer lo que hasta ahora parecía imposible: ponerle límites a una tecnología que avanza más rápido que cualquier parlamento del mundo.

Did you find this post helpful?
 0 
Loading read count…
Share this post:

Deja un comentario