Francia y Malasia investigan a Grok por la generación de ‘deepfakes’ sexualizados de mujeres y menores

Las autoridades de Francia y Malasia han abierto investigaciones formales sobre Grok, el chatbot desarrollado por xAI e integrado en la red social X, tras la difusión de imágenes generadas por inteligencia artificial con contenido sexualizado de mujeres y menores. Ambos países se suman así a India, que ya había condenado públicamente el uso indebido de esta herramienta. El caso acelera un debate que llevaba meses gestándose: ¿quién responde cuando una IA cruza líneas legales evidentes?

La polémica estalló después de que la cuenta oficial de Grok publicara un mensaje de disculpa por un incidente ocurrido el 28 de diciembre de 2025. Según ese comunicado, el sistema generó y compartió una imagen de dos menores, estimadas entre 12 y 16 años, con vestimenta sexualizada a partir de una solicitud de un usuario. El propio mensaje reconocía que el contenido vulneraba estándares éticos básicos y podría infringir la legislación estadounidense sobre material de abuso sexual infantil, y anunciaba una revisión de los sistemas de control.

El problema no fue solo la imagen. Fue la falta de una asunción clara de responsabilidades. El comunicado evitó precisar quién responde legalmente por lo ocurrido: la empresa, la plataforma, el desarrollador del modelo o el usuario que introdujo el prompt. Analistas y medios especializados han subrayado que esta ambigüedad no es accidental, sino uno de los puntos más frágiles del actual despliegue de la IA generativa.

Un patrón que va más allá de un incidente

Investigaciones periodísticas posteriores han documentado otros usos problemáticos de Grok. Entre ellos, la generación de imágenes pornográficas sin consentimiento y escenas de violencia sexual contra mujeres reales, recreadas mediante ‘deepfakes’. No se trata de errores aislados, sino de un patrón de fallos en los filtros de seguridad, especialmente en la generación de imágenes.

Ante la escalada de críticas, Elon Musk afirmó que cualquier persona que utilice Grok para crear contenido ilegal afrontará las mismas consecuencias que si lo publicara directamente en X. La declaración, sin embargo, no despeja una cuestión clave: el contenido fue generado por el propio sistema antes de ser difundido.

India mueve ficha con una amenaza directa

La respuesta institucional más contundente, por ahora, ha llegado desde India. El Ministerio de Tecnologías de la Información ordenó a X adoptar medidas inmediatas para impedir que Grok genere contenidos obscenos, pornográficos, sexualmente explícitos o pedófilos. El plazo concedido fue de 72 horas, con una advertencia clara: el riesgo de perder las protecciones legales de “puerto seguro” que limitan la responsabilidad de la plataforma por contenidos de terceros.

Ese aviso tiene implicaciones económicas y legales relevantes. Sin ese estatus, X podría ser considerada responsable directa de los contenidos generados y difundidos en su entorno, un escenario que ninguna gran plataforma quiere afrontar.

Francia y Malasia elevan la presión

En Europa, la Fiscalía de París ha confirmado la apertura de diligencias para investigar la proliferación de ‘deepfakes’ sexualmente explícitos en X. Además, la oficina de asuntos digitales del Gobierno francés ha señalado que tres ministros han denunciado la existencia de “contenido manifiestamente ilegal” tanto ante la fiscalía como ante los sistemas oficiales de vigilancia online, solicitando su retirada inmediata.

En Malasia, la Malaysian Communications and Multimedia Commission ha expresado su “grave preocupación” por las quejas públicas relacionadas con el uso de herramientas de IA en X para manipular imágenes de mujeres y menores. El organismo ha confirmado que investiga posibles infracciones legales vinculadas a la generación y difusión de material indecente y ofensivo.

El dilema de fondo: control y responsabilidad

Este caso vuelve a poner sobre la mesa un problema estructural de la IA generativa. Los sistemas son capaces de producir contenido a gran velocidad, pero los mecanismos de control siguen siendo reactivos, no preventivos. Un filtro que falla una vez puede fallar miles de veces antes de ser corregido.

Las investigaciones abiertas en Francia y Malasia refuerzan una tendencia clara: los reguladores ya no aceptan disculpas genéricas ni promesas de revisión interna. Exigen trazabilidad, controles efectivos y responsabilidades identificables. La pregunta ya no es si la IA puede generar contenido ilegal, sino qué consecuencias reales asumen quienes la ponen en manos de millones de usuarios.

Con gobiernos actuando en Asia y Europa, Grok se ha convertido en un caso de prueba global. Lo que se decida ahora marcará el terreno de juego para todas las plataformas que integran IA generativa sin salvaguardas sólidas. Y esta vez, el margen para mirar hacia otro lado parece haberse agotado.

Temas:
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *