La llegada de Sora 2, el generador de vídeo de OpenAI, ha reavivado uno de los debates más urgentes del ecosistema digital: cómo detectar y autenticar contenidos creados con inteligencia artificial. Aunque la herramienta incluye metadatos que deberían marcar su origen, las pruebas han mostrado que esos sistemas pasan inadvertidos para el usuario común y que el etiquetado de deepfakes sigue sin ser eficaz.
Vídeos hiperrealistas que engañan al ojo y al algoritmo
Desde su lanzamiento, Sora 2 ha dejado claro que puede reproducir escenas de un realismo inquietante a partir de simples descripciones textuales. En cuestión de días aparecieron clips con rostros de figuras públicas y personajes históricos, como Martin Luther King Jr. o Michael Jackson, e incluso material protegido por derechos de autor.
OpenAI defiende que cada vídeo incluye “credenciales de contenido” (Content Credentials), un estándar desarrollado por Adobe y la Coalition for Content Provenance and Authenticity (C2PA). Este sistema busca registrar el origen y las modificaciones de cada imagen o vídeo, con el objetivo de garantizar su trazabilidad.
Una etiqueta que nadie encuentra
En la práctica, esas credenciales apenas se ven. Plataformas como YouTube, TikTok o Instagram ocultan los marcadores bajo menús secundarios o descripciones colapsadas. El resultado es previsible: los vídeos generados por IA circulan sin advertencias claras sobre su procedencia. Ejemplo de ello fue el clip viral del supuesto hombre que atrapaba a un bebé en caída libre, creado con Sora 2 y compartido millones de veces sin indicación alguna de su falsedad.
El problema no se limita a la visibilidad. Las etiquetas se pierden al descargar o volver a subir un archivo, y los sistemas de marcas invisibles —como los watermarks de Google o los metadatos de Adobe— pueden eliminarse con facilidad. Para muchos expertos, la responsabilidad de identificar contenido generado por IA debería recaer en las plataformas, no en los usuarios.
Reacciones del sector y señales de alarma
La agencia de talentos CAA, una de las mayores de Hollywood, advirtió que Sora 2 pone en riesgo los derechos de imagen de artistas y creadores. La polémica creció cuando OpenAI restringió temporalmente el modelo tras detectarse vídeos que recreaban rostros de actores como Bryan Cranston sin autorización. Según la empresa, se están estableciendo acuerdos con herederos y representantes para evitar estos usos no consentidos.
Pese a esas limitaciones, compañías especializadas en detección como Reality Defender afirmaron haber burlado las protecciones de Sora 2 en menos de 24 horas, generando deepfakes de celebridades sin restricciones. El hecho expone la fragilidad de las medidas actuales y la falta de coordinación entre quienes desarrollan la tecnología y quienes deberían supervisarla.
Un reto de infraestructura digital
Sora 2 ilustra tanto el avance técnico de la generación de vídeo por IA como la lentitud con que se adapta el sistema a sus consecuencias. Las credenciales de contenido y los marcos regulatorios aún están lejos de ofrecer una solución eficaz. Aunque Adobe y OpenAI insisten en que el estándar C2PA ganará tracción, cuatro años después de su presentación sigue siendo prácticamente invisible para el público.
El caso plantea una paradoja evidente: las empresas que promueven la autenticidad digital son, al mismo tiempo, las que facilitan la creación de falsificaciones realistas. En este nuevo escenario, el reto no es solo hacer modelos más potentes, sino construir una infraestructura de confianza verificable. En un internet inundado por vídeos generados por IA, la pregunta crucial es si sabremos distinguir lo real de lo fabricado.
