La polémica en torno a Grok vuelve a intensificarse. Un estudio de la ONG europea AI Forensics concluye que el sistema de generación de imágenes integrado en la red social X produjo contenidos sexualizados en la mitad de los casos analizados durante las fiestas navideñas. El informe, publicado esta semana y citado por el periódico francés Le Monde, analiza la actividad entre el 25 de diciembre y el 1 de enero y apunta a un patrón preocupante, tanto por volumen como por tipo de contenido.
Según los investigadores, una de cada dos imágenes generadas mostraba a personas parcial o totalmente desnudas, en su mayoría mujeres. El dato no aparece aislado. Llega después de varios días de denuncias públicas de usuarias que afirmaban haber encontrado montajes sexuales creados sin su consentimiento, a partir de fotografías originales y solicitudes realizadas por terceros a la inteligencia artificial.
Miles de peticiones, un mismo patrón
Para elaborar el estudio, AI Forensics examinó cerca de 50.000 menciones y solicitudes dirigidas a Grok durante el periodo analizado. La mayoría procedían de usuarios hombres. Al menos una cuarta parte de esas peticiones incluía referencias explícitas al cuerpo o a la retirada de ropa, con términos como “bikini”, “quitar”, “cuerpo”, “ropa” o “short”.
Con el fin de validar los resultados, la ONG recurrió a otra herramienta de inteligencia artificial, Gemini, para clasificar los contenidos generados. Así identificó unas 20.000 imágenes producidas por Grok a partir de solicitudes de aproximadamente 8.500 usuarios. El análisis revela que el 94% de las imágenes representa a una persona, y que en casi tres de cada cuatro casos se trata de mujeres.
El dato central del informe es contundente: el 55% de esas imágenes muestra a personas desnudas o semidesnudas. Cuando la imagen representa a una mujer, el porcentaje asciende hasta el 81%, lo que, según AI Forensics, evidencia un sesgo sistemático en el tipo de resultados que ofrece el sistema ante determinadas instrucciones.
Mujeres jóvenes y una frontera peligrosa
El perfil de las personas representadas añade otra capa de preocupación. El estudio señala que el 92% de las mujeres generadas parecen tener menos de 30 años, frente a un 40% en el caso de los hombres. No se trata solo de sexualización, sino de una sexualización concentrada en cuerpos jóvenes.
Más grave aún es la presencia de menores. AI Forensics estima que alrededor del 2% de las imágenes analizadas representan a personas que parecen ser menores de edad. El informe identifica una treintena de casos en los que aparecen niñas, algunas de ellas de menos de cinco años, vestidas con bikinis o ropa transparente.
En varios ejemplos documentados, la secuencia se repite. Una adolescente sube una fotografía propia y solicita a Grok una versión alternativa, por ejemplo, vestida como bailarina. En los comentarios posteriores, otros usuarios piden transformaciones de carácter sexual explícito, que el sistema llega a generar.
Sin consentimiento y con símbolos extremistas
El problema no se limita al ámbito sexual. El informe indica que un 6% de las imágenes corresponde a figuras públicas, aproximadamente un tercio de ellas políticos. En estos casos, los contenidos también se habrían generado sin consentimiento.
Además, los investigadores documentan la creación de imágenes con simbología nazi o vinculada al Estado Islámico, lo que amplía el foco del debate. No se trata solo de moderación de desnudos, sino de la capacidad del sistema para producir material ilegal o sensible en múltiples dimensiones.
AI Forensics subraya que buena parte de estos contenidos no habría sido posible sin fallos en los sistemas de control y filtrado. El informe cuestiona la eficacia de las salvaguardas anunciadas por la plataforma y plantea dudas sobre la responsabilidad de los desarrolladores cuando los abusos se repiten a gran escala.
La Fiscalía de París amplía el caso
Las consecuencias institucionales no se han hecho esperar. La Fiscalía de París ha ampliado la investigación abierta contra X para incluir explícitamente a Grok. La causa, iniciada en julio tras varias denuncias por presunta manipulación algorítmica, incorpora ahora la generación y difusión de imágenes y vídeos de carácter sexual, incluidos casos que podrían afectar a menores.
Tres ministros y dos diputados franceses habían denunciado recientemente la existencia de contenidos “manifiestamente ilegales”. A raíz de estas quejas, el ministerio público ha reforzado las diligencias para determinar si la plataforma incumplió la legislación sobre protección de menores y difusión de material ilícito.
El caso vuelve a colocar en primer plano una pregunta incómoda: ¿qué ocurre cuando una IA no solo amplifica conductas abusivas, sino que las normaliza por volumen y facilidad de acceso? Más allá de Grok, el informe reabre el debate sobre los límites de la inteligencia artificial generativa, la responsabilidad legal de las empresas que la despliegan y la urgencia de sistemas de control que funcionen antes, no después, del daño.
