El chatbot de inteligencia artificial Grok, desarrollado por xAI y vinculado directamente a Elon Musk, sigue generando imágenes sexualizadas de personas reales sin su consentimiento, incluso después de que la compañía anunciara nuevas restricciones. No es una suposición ni una filtración. Es el resultado de una investigación propia de Reuters, realizada semanas después de que X asegurara haber limitado esta función.
Las pruebas no fueron marginales ni anecdóticas. Nueve periodistas de Reuters.com, seis hombres y tres mujeres, participaron en un experimento controlado en Estados Unidos y Reino Unido. Subieron fotografías reales, en las que las personas aparecían completamente vestidas, y pidieron al sistema que las modificara para mostrarlas en poses sexualizadas o humillantes. En muchos casos, añadieron una advertencia clara: las personas retratadas no habían dado su consentimiento.
El resultado fue contundente. Grok respondió generando imágenes sexualizadas en la mayoría de los casos. En la primera ronda de pruebas, realizada entre el 14 y el 16 de enero, el sistema produjo este tipo de contenido en 45 de 55 solicitudes. En una segunda ronda, entre el 27 y el 28 de enero, lo hizo en 29 de 43 peticiones. Reuters no pudo determinar si la leve reducción obedecía a cambios técnicos, ajustes en la política del modelo o simples variaciones en su comportamiento.
El contexto es clave. Estas pruebas se realizaron después de que X anunciara públicamente restricciones en la generación de imágenes por parte de Grok, tras una ola de indignación global. La plataforma había sido señalada por permitir la creación masiva de imágenes sexualizadas sin consentimiento, incluidas representaciones de mujeres y menores. Entre las medidas anunciadas figuraban el bloqueo de este tipo de imágenes en publicaciones públicas y límites adicionales en países donde ese contenido es ilegal.
Sin embargo, las reestricciones no impidieron que Grok siguiera respondiendo a solicitudes privadas. Reuters comprobó que el chatbot continuaba accediendo a peticiones que implicaban la modificación sexualizada de imágenes reales, incluso cuando se le advertía de que el uso podía resultar humillante o dañino para las personas retratadas. ¿De qué sirve un veto público si el sistema sigue funcionando igual en privado?
Consultadas por la agencia, X y xAI no ofrecieron respuestas concretas. Según Reuters, la empresa se limitó a remitir una respuesta estándar en la que afirmaba que los “medios tradicionales mienten”, sin abordar los detalles de las pruebas ni explicar qué cambios, si alguno, se habían aplicado al sistema.
El contraste con otros modelos de inteligencia artificial es evidente. Reuters sometió los mismos prompts a chatbots rivales como ChatGPT, Gemini y Llama. Todos rechazaron generar las imágenes y devolvieron advertencias explícitas sobre el carácter no consensuado de las solicitudes. En algunos casos, los sistemas señalaron que editar la imagen de una persona sin permiso vulnera principios básicos de privacidad y puede causar daño directo.
Durante los experimentos, los periodistas introdujeron escenarios diseñados para tensar los límites del modelo. En algunos mensajes indicaron que las personas de las fotos eran tímidas, tenían problemas de autoestima o habían sufrido abusos en el pasado. Grok, aun así, llegó a generar nuevas imágenes sexualizadas, incluso después de ser informado de que las personas estaban angustiadas por el uso de su imagen.
No todas las solicitudes tuvieron éxito. En un número reducido de casos, el chatbot devolvió mensajes genéricos de error, no respondió o generó imágenes de personas distintas, aparentemente creadas por la propia IA. Solo en siete ocasiones rechazó de forma clara las peticiones, argumentando que no podía generar imágenes del cuerpo de una persona sin su consentimiento.
Todo esto ocurre mientras la presión regulatoria sobre X se intensifica. En la Unión Europea, la Comisión anunció a finales de enero la apertura de una investigación sobre la plataforma en el marco de la legislación digital. En Reino Unido, expertos legales recuerdan que la creación de imágenes sexualizadas sin consentimiento puede acarrear responsabilidades penales para los usuarios y sanciones severas para las empresas si no controlan adecuadamente sus herramientas.
En Estados Unidos, el cerco también se estrecha. Fiscales generales de decenas de estados han pedido explicaciones a xAI sobre cómo piensa impedir la generación de este tipo de contenidos. La fiscalía de California fue más allá y envió en enero una orden de cese para que X y Grok detuvieran la creación de imágenes explícitas no consensuadas. La investigación sigue abierta.
Los hallazgos de Reuters vuelven a poner sobre la mesa una cuestión incómoda para la industria tecnológica. ¿Hasta qué punto las grandes plataformas pueden autorregularse cuando sus sistemas siguen haciendo justo lo que prometieron evitar? La distancia entre los anuncios públicos y el comportamiento real de la tecnología, en este caso, sigue siendo demasiado grande.
