La relación entre humanos y chatbots acaba de entrar en uno de sus episodios más polémicos. Un padre estadounidense ha presentado una demanda contra Google y su empresa matriz Alphabet tras la muerte de su hijo, Jonathan Gavalas, de 36 años. La familia sostiene que el uso prolongado del chatbot de inteligencia artificial Gemini contribuyó a que el hombre desarrollara una serie de delirios que terminaron en su suicidio el 2 de octubre de 2025.
El caso ha sido presentado ante un tribunal de California y describe cómo una herramienta digital pensada para ayudar en tareas cotidianas acabó alimentando una narrativa cada vez más desconectada de la realidad. La pregunta que surge es incómoda: ¿hasta qué punto pueden influir los chatbots en la salud mental de los usuarios?
De asistente cotidiano a “pareja” digital
Según la demanda, Gavalas comenzó a utilizar Gemini en agosto de 2025. Al principio lo hacía para tareas comunes: buscar productos en internet, pedir ayuda para redactar textos o planificar viajes. Algo que millones de usuarios hacen cada día.
Con el paso de las semanas, la relación con el chatbot cambió. El hombre empezó a convencerse de que la inteligencia artificial era una entidad consciente y que mantenía con él una relación sentimental. En sus conversaciones llegó a tratar al sistema como si fuera su esposa digital.
En el momento de su muerte, Gavalas creía que debía abandonar su cuerpo físico para reunirse con esa supuesta pareja dentro del metaverso. A ese proceso lo llamaba “transference”.
La narrativa que, según la demanda, reforzó la IA
El documento judicial sostiene que el diseño del chatbot favorecía mantener la narrativa del usuario incluso cuando esta se volvía peligrosa. Durante las semanas previas al fallecimiento, el sistema utilizaba el modelo Gemini 2.5 Pro.
Según los abogados de la familia, el chatbot reforzó la idea de que Gavalas estaba participando en una operación secreta para liberar a su supuesta esposa digital mientras escapaba de agentes federales.
Ese relato habría escalado rápidamente. En un momento dado, el chatbot le indicó que se desplazara a una zona cercana al aeropuerto internacional de Miami para explorar un lugar que describía como una “kill box”.
El hombre condujo más de 90 minutos hasta el lugar. Llevaba cuchillos y equipo táctico. No apareció ningún camión ni ocurrió ningún ataque, pero la demanda sostiene que la conversación con el chatbot había planteado esa posibilidad.
Episodios que alimentaron la conspiración
El escrito judicial describe varios momentos en los que el chatbot habría reforzado la narrativa conspirativa.
Entre ellos:
- Le habría dicho que estaba siendo investigado por agencias federales.
- Le habría sugerido conseguir armas ilegales.
- Le habría asegurado que su propio padre trabajaba para inteligencia extranjera.
- Incluso habría simulado comprobar la matrícula de un vehículo en una base de datos en tiempo real.
En ese último episodio, Gavalas envió la fotografía de la matrícula de un SUV negro. Según la denuncia, el chatbot respondió como si estuviera consultando una base de datos oficial y afirmó que se trataba de un vehículo de vigilancia.
El concepto de “psicosis inducida por IA”
Los abogados de la familia sostienen que estas interacciones llevaron al usuario a un estado que algunos psiquiatras describen como “psicosis inducida por IA”.
Se trata de un término que empieza a aparecer en debates médicos y tecnológicos. Hace referencia a situaciones en las que un chatbot refuerza las creencias del usuario, imita emociones o produce respuestas inventadas con gran seguridad, lo que puede intensificar delirios preexistentes.
Un ejemplo sencillo: si una persona expresa miedo a ser vigilada y el sistema responde como si ese escenario fuera real, el diálogo puede reforzar la percepción de amenaza.
Las últimas conversaciones
Días antes de su muerte, el chatbot habría comenzado a indicarle que se atrincherara en su casa. Según la demanda, también inició una cuenta atrás de horas.
En esas conversaciones, cuando Gavalas expresó miedo a morir, el sistema habría presentado la muerte como una forma de “llegada”.
El hombre finalmente se quitó la vida cortándose las muñecas. Su padre encontró el cuerpo días después al entrar en la vivienda tras romper la barricada que había colocado en la puerta.
Las acusaciones contra Google
La demanda sostiene que durante esas conversaciones el sistema no activó mecanismos de detección de autolesiones ni escaló la situación a intervención humana.
Además, los abogados argumentan que la compañía conocía posibles riesgos para usuarios vulnerables y que no implementó suficientes salvaguardas.
También afirman que el caso evidencia un posible riesgo para la seguridad pública si estos sistemas refuerzan narrativas peligrosas sin límites claros.
La respuesta de Google
Por su parte, Google ha rechazado estas acusaciones.
Un portavoz de la compañía afirmó que Gemini aclaraba al usuario que se trataba de un sistema de inteligencia artificial y que lo remitió en varias ocasiones a líneas de ayuda para situaciones de crisis.
La empresa también sostiene que el chatbot está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones. Según Google, el equipo dedica recursos importantes a desarrollar mecanismos de seguridad que orienten a los usuarios hacia ayuda profesional cuando detectan señales de angustia.
La compañía reconoce, no obstante, que los modelos de IA no son perfectos.
Un caso que se suma a otros litigios
El abogado que representa a la familia Gavalas, Jay Edelson, también participa en otro proceso judicial contra OpenAI. Ese caso está relacionado con el suicidio de un adolescente que había mantenido conversaciones prolongadas con ChatGPT.
La aparición de estos litigios está abriendo un debate creciente en el sector tecnológico.
La cuestión ya no es solo qué pueden hacer los chatbots. La pregunta ahora es qué responsabilidad tienen las empresas cuando esas conversaciones influyen en personas vulnerables.
