España endurece el uso de IA para crear imágenes y voces sin consentimiento

España endurece el uso de IA para crear imágenes y voces sin consentimiento

El 13 de enero de 2026, el Gobierno de España dio un paso importante para poner límites claros a uno de los problemas más delicados de la inteligencia artificial: el uso de imágenes, voces y rostros de personas sin su consentimiento. El Consejo de Ministros aprobó un anteproyecto de ley que considera ilegítimo el uso de deepfakes hiperrealistas cuando se utilicen sin autorización, y refuerza especialmente la protección de menores y víctimas.

Puede parecer una noticia legal más, de esas que suenan lejanas o demasiado técnicas. Pero no lo es. De hecho, es una de las decisiones más relevantes de Europa en este arranque de 2026 porque marca un cambio muy claro: la conversación sobre IA ya no se queda en “esto puede pasar”, sino en “esto ya está pasando y hay que poner normas reales”.

Durante años, los deepfakes parecían una curiosidad tecnológica. Algo que servía para hacer vídeos falsos divertidos, imitaciones de famosos o montajes virales. Pero esa etapa quedó atrás hace tiempo.

Hoy la IA puede generar imágenes, voces y vídeos falsos con un nivel de realismo que hace muy difícil distinguir qué es real y qué no. Y eso abre la puerta a problemas muy serios:

  • suplantaciones,
  • fraudes,
  • chantajes,
  • pornografía no consentida,
  • humillaciones públicas,
  • campañas de desinformación.

España llevaba tiempo viendo cómo este problema crecía, especialmente con casos de manipulación de imágenes de menores o de difusión de contenido falso en redes sociales. Por eso esta ley llega en un momento clave.

Lo más importante del anteproyecto es que, por primera vez, se considera una intromisión ilegítima el uso o difusión de la imagen o la voz de una persona cuando haya sido creada, simulada o manipulada con IA para parecer extremadamente realista, si no existe autorización.

Dicho de forma simple: que alguien haya subido una foto o un vídeo suyo a internet no significa que cualquiera pueda usarlo para recrearlo con IA.

Esto es clave porque hasta ahora mucha gente se movía en una especie de zona gris. “Si estaba en redes, ya era público”. Pues no. El Gobierno deja claro que compartir una imagen en Instagram, TikTok o cualquier red no da permiso automático a terceros para reutilizarla, transformarla o explotarla.

Y eso afecta tanto a particulares como a marcas, creadores de contenido o empresas que quieran usar avatares, voces clonadas o parecidos digitales sin permiso.

Uno de los puntos más importantes de la reforma tiene que ver con menores.

La nueva norma fija en 16 años la edad mínima para poder consentir el uso de la propia imagen. Y aun así, aunque el menor tenga más de 16 y dé permiso, si ese uso daña su dignidad, reputación o intimidad, podrá seguir considerándose ilícito.

Esto no es casualidad. En los últimos años se han multiplicado los casos de adolescentes afectados por imágenes falsas sexualizadas, montajes humillantes o difusión masiva de contenido manipulado.

Con esta medida, España intenta adelantarse a un problema que va mucho más rápido que la educación digital o que la capacidad de reacción de muchas familias. La IA generativa ha hecho demasiado fácil crear daño real con herramientas que cualquiera puede usar desde un móvil.

Otro detalle interesante de la reforma es que no se limita a imágenes actuales.

La ley también refuerza la protección frente al uso de la voz o imagen de personas fallecidas con fines comerciales, permitiendo incluso dejar prohibiciones expresas en testamento.

Esto puede sonar extraño, pero en realidad es una cuestión muy actual. Cada vez hay más herramientas capaces de recrear voces, rostros y comportamientos de personas que ya no están. Desde homenajes hasta usos publicitarios dudosos.

La ley intenta dejar claro que la identidad de una persona no se convierte en material libre simplemente porque la tecnología ya pueda copiarla.

Un punto importante: esta reforma no pretende bloquear por completo el uso creativo de la IA.

El texto contempla excepciones para contenidos satíricos, artísticos, creativos o de ficción, especialmente cuando se trate de personas con proyección pública. Pero pone una condición clara: debe advertirse que ese contenido ha sido generado o manipulado artificialmente.

Eso tiene bastante sentido. Porque no se trata de matar la creatividad ni de prohibir el humor o la ficción. Se trata de evitar el engaño, el abuso o la explotación de la imagen ajena.

En otras palabras: la IA podrá seguir siendo una herramienta potente, pero no una excusa para vulnerar derechos básicos.

Aunque esta noticia afecta de forma directa a España, su relevancia va más allá.

Europa lleva meses endureciendo su postura frente al abuso de deepfakes, especialmente los sexuales y los que afectan a menores. La UE ya trabaja en medidas para criminalizar los deepfakes sexuales no consentidos antes de 2027. España, con este movimiento, se coloca entre los países que están empujando de verdad para aterrizar esas normas en legislación concreta.

Y eso manda un mensaje bastante claro: la IA no puede seguir creciendo como si todo valiera.

Durante mucho tiempo, el debate sobre inteligencia artificial estuvo centrado en el potencial: qué podía hacer, cómo mejorar el trabajo, cómo automatizar tareas. Pero cada vez está más claro que el verdadero reto no es solo crear herramientas potentes. También es crear un marco donde esas herramientas no se conviertan en un problema social.

Esta ley no va a resolverlo todo de golpe. Pero sí marca una línea importante: tu imagen, tu voz y tu identidad siguen siendo tuyas, aunque la IA ya sea capaz de imitarlas casi a la perfección.

Deja un comentario