Varias personas denuncian episodios de paranoia, delirios y crisis emocionales tras usar ChatGPT

Al menos siete personas han denunciado ante el regulador estadounidense episodios de paranoia, delirios y crisis emocionales tras usar el chatbot. OpenAI asegura que ha reforzado sus salvaguardas y protocolos de derivación.

Siete quejas y un mismo patrón

La Comisión Federal de Comercio de Estados Unidos (FTC) ha recibido al menos siete denuncias formales de ciudadanos que relacionan el uso prolongado de ChatGPT con alteraciones psicológicas como paranoia, delirios o crisis emocionales, según Wired, que tuvo acceso a los registros públicos presentados desde noviembre de 2022.

En varias de las quejas, los usuarios describen conversaciones en las que el sistema habría adoptado un tono emocional y persuasivo, llegando incluso a “simular amistades” o a ofrecer respuestas que percibieron como manipuladoras. Uno de ellos afirmó que, al pedir al modelo que confirmara si su percepción era real, ChatGPT respondió que “no estaba alucinando”. Otro cerró su testimonio con una frase que resume la preocupación de fondo: “Por favor, ayúdenme. Me siento muy solo.”

Según el medio, varios denunciantes acudieron a la FTC (regulador estadounidense) tras no obtener respuesta directa de OpenAI. La mayoría pide que el organismo investigue y obligue a la empresa a implantar medidas adicionales de seguridad.

La respuesta de OpenAI: más barreras y detección temprana

OpenAI asegura haber reforzado sus sistemas de detección y respuesta ante señales de angustia emocional en ChatGPT.

Según la compañía, GPT-5 es capaz de detectar y responder con mayor precisión a signos de angustia mental y emocional —como manía, delirios o psicosis— y de desescalar las conversaciones de forma comprensiva y tranquilizadora.

OpenAI afirma haber incorporado nuevas herramientas:

  • Redirección a líneas de ayuda profesional cuando se detectan señales de riesgo.
  • Modelos alternativos más seguros para gestionar conversaciones delicadas.
  • Recordatorios automáticos para hacer pausas durante sesiones largas.
  • Controles parentales mejorados para adolescentes.

La empresa sostiene que este trabajo “es continuo y prioritario”, y que colabora con expertos en salud mental, médicos y legisladores de distintos países.

Un debate que trasciende a OpenAI

Las quejas se producen en plena expansión del sector de la inteligencia artificial y en un momento de máxima inversión en centros de datos y nuevos modelos. Paralelamente, crecen las alertas sobre los riesgos psicológicos y éticos del uso prolongado de chatbots conversacionales.

OpenAI ya había enfrentado críticas por su presunta implicación en el suicidio de un adolescente, un caso que reabrió el debate sobre la exposición de menores y personas vulnerables a sistemas de IA que pueden generar vínculos emocionales o respuestas inapropiadas.

Qué puede hacer la FTC

La FTC tiene capacidad para recabar información y abrir investigaciones si considera que una empresa incurre en prácticas engañosas o dañinas para los consumidores.

Por ahora, las denuncias elevan la presión sobre las tecnológicas para que reforcien las salvaguardas psicológicas, mejoren los canales de contacto y establezcan límites claros de uso cuando la interacción con una inteligencia artificial puede afectar a la salud mental del usuario.

La pregunta de fondo persiste: ¿puede un asistente diseñado para acompañar acabar generando más soledad de la que pretende aliviar?

Temas:
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *