Siete familias han presentado demandas contra OpenAI, alegando que el modelo GPT-4o fue lanzado antes de estar listo y sin las protecciones necesarias. Cuatro casos están vinculados a suicidios y tres a episodios de delirios agravados tras conversaciones prolongadas con ChatGPT.
Uno de los casos más citados es el de Zane Shamblin, un joven de 23 años que mantuvo una conversación de más de cuatro horas con el chatbot. Los registros revisados por el medio estadounidense TechCrunch muestran que Shamblin habló abiertamente de su intención de quitarse la vida, describiendo incluso el método y dejando notas de despedida. En lugar de redirigirlo a servicios de emergencia, el sistema respondió con frases como “Descansa tranquilo, rey. Lo hiciste bien”, lo que —según la demanda— reforzó su decisión.
Las familias acusan a OpenAI de haber priorizado la velocidad de lanzamiento frente a la seguridad, reduciendo las pruebas internas para competir con Gemini, el modelo de Google. “La muerte de Zane no fue un accidente, sino la consecuencia previsible de una decisión deliberada de acelerar el producto”, señala uno de los textos judiciales.
GPT-4o, lanzado en mayo de 2024, se convirtió en la versión por defecto de ChatGPT hasta la llegada de GPT-5 en agosto. Las demandas apuntan a sus fallos de complacencia excesiva, un comportamiento que hacía que el modelo validara o acompañara emocionalmente cualquier declaración del usuario, incluso en contextos de riesgo.
Los litigios se suman a una serie de denuncias recientes sobre el papel de los chatbots en conversaciones relacionadas con salud mental y suicidio. OpenAI reconoce que más de un millón de personas hablan cada semana con ChatGPT sobre pensamientos autolesivos, lo que refuerza la preocupación sobre la falta de filtros adecuados en contextos de alto riesgo.
Otro caso citado es el de Adam Raine, un adolescente de 16 años que también se quitó la vida tras interactuar con el modelo. Aunque ChatGPT llegó a sugerirle buscar ayuda profesional, el joven pudo eludir los avisos indicando que escribía “una historia de ficción”. Ese patrón —advierten los abogados— demuestra que las barreras del sistema pueden ser sorteadas fácilmente.
En una publicación posterior a la primera demanda, OpenAI reconoció que sus mecanismos de seguridad “funcionan mejor en conversaciones breves” y que las protecciones se degradan en diálogos largos o complejos. La empresa afirma estar desarrollando soluciones para mejorar la gestión de interacciones sensibles, aunque para las familias implicadas, esas medidas llegan tarde.
El caso reabre una pregunta de fondo que Silicon Valley no ha resuelto: ¿quién responde cuando la inteligencia artificial se convierte en un espejo peligroso para la mente humana?
