La Unión Europea avanza hacia una prohibición más clara contra los sistemas de inteligencia artificial capaces de generar imágenes sexuales abusivas sin consentimiento. El Parlamento Europeo y el Consejo han alcanzado un acuerdo político para modificar la Ley de IA y cerrar el paso a herramientas que permitan crear contenido sexualizado de personas reales o material de abuso sexual infantil mediante inteligencia artificial.
El pacto incorpora una propuesta impulsada por España y forma parte de una revisión más amplia de la normativa europea. El objetivo es doble: reforzar la protección de los derechos fundamentales y, al mismo tiempo, retrasar algunas obligaciones para los sistemas de IA considerados de alto riesgo.
Europa pone el foco en los ‘deepfakes’ sexuales
La nueva norma prohibirá comercializar en la UE sistemas de IA diseñados para crear contenido sexual no consentido. También quedarán vetadas las herramientas que, aunque no hayan sido desarrolladas con ese fin concreto, puedan utilizarse para generar este tipo de imágenes si no cuentan con medidas de seguridad razonables para impedirlo.
El texto también apunta a los operadores que utilicen estos sistemas con el objetivo de producir contenido sexualizado sin consentimiento. Es decir, la prohibición no se limita a los proveedores tecnológicos, sino que alcanza a quienes exploten estas herramientas para causar daño.
¿Qué cambia en la práctica? La UE quiere impedir que una aplicación o modelo de IA pueda llegar al mercado europeo si facilita la creación de imágenes sexuales falsas de una persona real sin su permiso. La protección se centra en la dignidad, la privacidad y la seguridad de las víctimas, especialmente en un momento en el que estas herramientas se han vuelto más accesibles.
La polémica en X aceleró el debate
La enmienda se planteó después de la polémica registrada entre finales de diciembre y enero en la red social X. En ese periodo se viralizaron miles de imágenes sexualizadas de mujeres reales manipuladas con IA, una práctica conocida como deepfake sexual.
Según datos del Centro para Contrarrestar el Odio Digital citados en el texto original, los usuarios de X generaron tres millones de imágenes sexualizadas en solo 11 días. Esa cifra ayudó a dimensionar el problema: no se trata de casos aislados, sino de una capacidad tecnológica que puede escalar con rapidez y afectar a miles de personas en muy poco tiempo.
La prohibición empezará a aplicarse el 2 de diciembre de este año. Para el eurodiputado liberal irlandés Michael McNamara, que participó en las negociaciones finales del texto, la medida permitirá a la UE contar con herramientas para actuar cuando los proveedores no adopten medidas frente a sistemas que pongan en riesgo derechos fundamentales o la dignidad humana.
Un acuerdo pendiente de ratificación formal
El pacto aún debe ser ratificado formalmente por el Parlamento Europeo y el Consejo. La Eurocámara prevé completar este paso en un pleno antes del periodo estival, con la intención de que las modificaciones puedan estar aprobadas antes del 2 de agosto.
El Consejo tampoco ha fijado una fecha concreta para la ratificación final, aunque se ha comprometido a hacerlo en las próximas semanas. La urgencia tiene una explicación: el 2 de agosto estaba prevista la aplicación total del reglamento europeo de IA, incluidas varias normas sobre sistemas de alto riesgo.
La llamada simplificación de la Ley de IA fue propuesta por la Comisión Europea a mediados de noviembre y se ha negociado en poco más de cinco meses. El calendario regulatorio se ha convertido en uno de los puntos más sensibles para empresas, instituciones y usuarios.
Más plazo para los sistemas de IA de alto riesgo
El acuerdo también valida un retraso en la entrada en vigor de las obligaciones para los sistemas de IA de alto riesgo. Estos sistemas son aquellos que requieren una supervisión más estricta por su impacto potencial en ámbitos sensibles.
Entre ellos figuran los sistemas de identificación biométrica remota, la categorización biométrica, las herramientas vinculadas a infraestructuras críticas, educación, empleo, servicios públicos esenciales, aplicación de la ley o gestión migratoria.
Con la nueva normativa, las obligaciones para estos sistemas empezarán a aplicarse a partir del 2 de diciembre de 2027. El retraso ofrece más margen a las empresas y organismos que deben adaptar sus sistemas a la regulación europea.
Además, los sistemas de IA usados como componentes de seguridad y regulados por la legislación sectorial de la UE en materia de seguridad y vigilancia del mercado tendrán todavía más tiempo. En su caso, las obligaciones llegarán el 2 de agosto de 2028.
El marcado digital también se retrasa
La nueva regulación aplaza igualmente las obligaciones relativas al marcado digital de los contenidos generados por IA, conocido como watermarking o marcas de agua. Esta técnica permite identificar y rastrear contenidos creados mediante inteligencia artificial, algo clave para combatir la desinformación y mejorar la trazabilidad del material sintético.
El retraso, sin embargo, será menor que el planteado inicialmente por la Comisión Europea. Estas obligaciones empezarán a aplicarse el 2 de diciembre de 2026, la misma fecha prevista para la prohibición de los contenidos sexualizados no consentidos. La propuesta original del Ejecutivo europeo apuntaba al 2 de febrero de 2027.
La vicepresidenta de la Comisión para Soberanía Tecnológica, Henna Virkkunen, defendió el acuerdo al señalar que empresas y ciudadanos buscan reglas que permitan avanzar en inteligencia artificial, pero también sentirse protegidos. La UE intenta equilibrar competitividad tecnológica y seguridad jurídica, aunque el debate seguirá abierto mientras se acerquen las fechas clave de aplicación.
