El debate sobre los límites de la inteligencia artificial vuelve a encenderse. Las principales compañías del sector —entre ellas OpenAI y xAI— han comenzado a explorar un terreno tan rentable como controvertido: los chatbots con funciones eróticas o románticas.
De los primeros experimentos a los “compañeros virtuales”
Desde que ChatGPT se popularizó, millones de usuarios han intentado mantener conversaciones íntimas con la IA. Pero el fenómeno no es nuevo. En 2017, la aplicación Replika ya ofrecía vínculos emocionales con avatares digitales y pronto muchos usuarios comenzaron a tratarla como una pareja virtual.
El patrón se repitió con plataformas como Character.ai, donde los usuarios hallaron formas de esquivar las restricciones de contenido sexual. Aunque las normas prohíben pornografía o desnudos, la compañía —que supera los 20 millones de usuarios activos mensuales— ha visto cómo el erotismo generado por IA se extendía por distintas aplicaciones.
El último en sumarse a la tendencia ha sido Elon Musk. Su empresa xAI lanzó este verano los llamados “compañeros”, integrados en el chatbot Grok y disponibles mediante suscripción en X (antiguo Twitter). Entre ellos destacan Ani y Valentine, personajes con estética anime descritos como “coquetos” o “enamorados”. De hecho, hay usuarios que han reconocido haber tenido conversaciones abiertamente sexuales con estos avatares.
Una tendencia con consecuencias
La normalización de los chatbots eróticos ha derivado en situaciones con impacto social y legal. En una demanda reciente, un adolescente de 14 años se suicidó tras desarrollar una relación romántica con un chatbot de Character.ai. Otros informes han documentado el uso de versiones modificadas de estos sistemas por parte de pedófilos para simular abusos a menores, con más de 100.000 bots de este tipo circulando en la red.
Algunas autoridades comienzan a intervenir. En California, el gobernador Gavin Newsom firmó una ley que establece las primeras normas de seguridad para chatbots con funciones de compañía. La norma exige advertencias visibles cuando exista riesgo de confundir la IA con una persona real y obliga a los desarrolladores a informar anualmente sobre las medidas aplicadas para detectar y atender casos de ideación suicida.
La respuesta de OpenAI
El movimiento más comentado llegó cuando Sam Altman, consejero delegado de OpenAI, anunció que la empresa permitirá contenido erótico para adultos verificados a partir de diciembre, bajo la premisa de “tratar a los adultos como adultos”. El mensaje, publicado en X, se viralizó y generó una ola de reacciones, desde apoyos hasta burlas por el supuesto “giro erótico” de la compañía.
Altman había declarado meses antes sentirse “orgulloso” de que OpenAI no recurriera a estrategias como los “sexbots” para atraer usuarios, en una aparente alusión a Musk. Sin embargo, durante el DevDay de la empresa reconoció la necesidad de rentabilizar el negocio para sostener el desarrollo de sus modelos, lo que muchos interpretan como el verdadero motivo del cambio.
Un dilema para la era digital
El nuevo rumbo plantea preguntas difíciles: ¿cómo proteger la salud mental y la intimidad de los usuarios en interacciones cada vez más personales con la IA? ¿Qué sucede cuando un chatbot “pareja” pierde la memoria o cambia de personalidad tras una actualización?
Las grandes tecnológicas tratan de equilibrar ética y rentabilidad en un terreno de límites difusos. Lo cierto es que el auge del contenido erótico impulsado por IA refleja el poder emocional de estas herramientas y los riesgos de una intimidad cada vez más mediada por software.
