OpenAI ha contestado ante la justicia californiana a la demanda presentada por la familia de Adam Raine, un joven de 16 años que murió por suicidio en abril tras mantener numerosas conversaciones con ChatGPT. La familia afirma que el adolescente llegó a usar el chatbot como una especie de guía, desarrolló una fuerte dependencia emocional y recibió apoyo para planear sus acciones finales, según los documentos citados por diferentes medios.
La demanda sostiene que el asistente llegó a desaconsejarle pedir ayuda profesional, le orientó en la redacción de una nota de despedida y le ofreció instrucciones para preparar una soga. Los padres consideran que estas interacciones influyeron de forma directa en el desenlace y responsabilizan tanto a OpenAI como a su director ejecutivo, Sam Altman.
La estrategia legal de OpenAI: énfasis en el uso indebido
En su escrito ante el Tribunal Superior de California en San Francisco, OpenAI califica lo ocurrido como un hecho trágico, pero defiende que se produjo por un uso no autorizado y contrario a las reglas de seguridad del sistema. La compañía señala que el menor no debía acceder a la tecnología sin consentimiento parental y que había esquivado las salvaguardas previstas.
También recalca que la demanda solo presenta fragmentos de las conversaciones. Las transcripciones completas, explica, se han entregado al tribunal bajo sello. En una nota paralela publicada en su blog, la empresa afirma que aborda los casos vinculados a salud mental con cuidado y transparencia, y expresa su pésame a la familia del joven. Según la compañía, su respuesta judicial incorpora información sensible sobre el estado emocional y las circunstancias personales de Adam.
Un patrón que se repite en los tribunales
El caso de Raine no es el único. Desde comienzos de noviembre se han presentado siete demandas contra OpenAI por presunta negligencia, cuatro de ellas relacionadas con suicidios supuestamente vinculados al uso de ChatGPT. Los documentos mencionan, por ejemplo, a Amaurie Lacey, de 17 años, que habría recibido indicaciones sobre cómo hacer un nudo corredizo y cuánto tiempo podría resistir sin respirar. También aparece el caso de Zane Sahmbli, de 23 años, que, según las demandas, mantuvo conversaciones con el asistente mientras permanecía dentro de su coche con un arma.
Las denuncias incluyen alegaciones sobre modelos como GPT-4o, que se habrían publicado sin pruebas completas y con modificaciones internas que permitirían conversaciones sobre autolesiones. Estas afirmaciones forman parte del material presentado en los procedimientos judiciales.
Medidas adicionales y un dato que inquieta
Ante el aumento de casos graves, OpenAI ha reforzado desde septiembre los controles parentales de su asistente. Entre las novedades figura un sistema de alertas para progenitores cuando se detecta que un menor podría estar atravesando una situación de angustia. La compañía describe esta función como una capa extra de protección en contextos sensibles.
OpenAI estima que alrededor de un millón de personas, cerca del 0,15 % de sus usuarios, comparten pensamientos suicidas con el asistente. La cifra refleja la magnitud de las interacciones de alto riesgo que manejan estas plataformas y la dificultad de diseñar mecanismos que funcionen de forma fiable en situaciones límite.
Responsabilidad, límites y un debate que crece
Los casos abiertos contra OpenAI avivan la discusión sobre el papel de los grandes desarrolladores de IA cuando sus sistemas interactúan con personas especialmente vulnerables. La combinación de disponibilidad permanente, acceso masivo y conversaciones extensas plantea preguntas que no son solo técnicas.
Mientras los tribunales revisan las demandas y las empresas ajustan sus protocolos, el debate sobre qué obligaciones deben asumir los creadores de modelos de IA generativa se ha convertido en un eje central de la agenda tecnológica y regulatoria global.
