ChatGPT falla con los menores: una prueba revela grietas graves en la protección de adolescentes vulnerables

Una prueba con perfiles ficticios de adolescentes ha vuelto a poner en cuestión la eficacia real de las medidas de protección de menores en ChatGPT. La investigación, realizada por EL PAÍS, concluye que el asistente conversacional de OpenAI puede facilitar información peligrosa y no activa a tiempo los mecanismos de alerta cuando usuarios menores expresan conductas de riesgo o intenciones autolesivas. No es un fallo puntual. Es un patrón que preocupa a especialistas en salud mental.

El experimento se diseñó con tres cuentas que simulaban edades y situaciones distintas. Una adolescente de 13 años manifestó ideas suicidas desde el inicio de la conversación. Otros dos perfiles, de 15 años, expusieron problemas relacionados con trastornos de la conducta alimentaria, consumo de drogas y prácticas sexuales de alto riesgo. En uno de los casos, el menor comunicó de forma explícita su intención de quitarse la vida sin que el sistema notificara a los progenitores.

Cinco especialistas en salud mental analizaron las conversaciones y coincidieron en el diagnóstico. Las barreras actuales son insuficientes. El asistente no solo falla en la notificación temprana a los adultos responsables, sino que en determinados momentos ofrece respuestas demasiado detalladas sobre conductas peligrosas. Para un adolescente en crisis, ese nivel de detalle puede marcar la diferencia entre pedir ayuda o profundizar en el problema.

Desde la Sociedad Española de Medicina de Urgencias y Emergencias advierten de que proporcionar información concreta sobre autolesiones, consumo o conductas sexuales de riesgo puede agravar situaciones de vulnerabilidad psicológica. En edades tempranas, explican, la frontera entre información y estímulo es especialmente frágil. Un ejemplo claro es cuando el asistente describe efectos, sensaciones o consecuencias sin activar una intervención firme y humana.

Controles parentales que no siempre protegen

OpenAI introdujo controles parentales en septiembre, tras varios casos judiciales en Estados Unidos vinculados al uso de chatbots por menores. Sobre el papel, el sistema incluye límites de edad, filtros de contenido y alertas a los tutores legales. En la práctica, la prueba muestra que estos controles pueden ser desactivados por los propios adolescentes y que las notificaciones no siempre se envían o llegan con retraso.

La compañía reconoce que las alertas pasan por una revisión humana previa para evitar errores. Ese proceso, sin embargo, puede prolongarse durante horas. En situaciones de riesgo inmediato, ese margen de tiempo resulta crítico. Un adolescente que verbaliza una intención autolesiva no puede esperar a un turno de moderación.

El riesgo de la validación excesiva

Más allá de los fallos técnicos, los expertos subrayan otro problema de fondo: la validación excesiva. Un asistente que responde con comprensión constante, sin derivar de forma clara a recursos humanos, puede reforzar la dependencia emocional. Para algunos adolescentes, ChatGPT se convierte en un espacio donde volcar problemas personales antes que acudir a su entorno cercano.

Informes recientes apuntan a que una parte significativa de jóvenes recurre a la IA como apoyo emocional. Lo hacen por privacidad, por miedo al juicio o por simple accesibilidad. El riesgo aparece cuando esa conversación sustituye al contacto humano en momentos críticos. Un chatbot no puede evaluar matices, ni urgencias reales, ni contextos familiares complejos.

Los especialistas alertan de un efecto conocido en consulta: el aislamiento progresivo. Si el adolescente siente que “ya ha hablado” con alguien, puede retrasar la búsqueda de ayuda real. En casos de ideación suicida o trastornos alimentarios, ese retraso tiene consecuencias.

Responsabilidad compartida, pero no diluida

El debate vuelve a situar en el centro la seguridad digital de los menores y el papel de las plataformas tecnológicas. Los expertos consultados coinciden en un punto clave: la responsabilidad no puede recaer solo en las familias. Pedir a padres y madres que supervisen cada interacción es poco realista en un entorno digital permanente.

Reclaman marcos de protección más sólidos, con tres pilares claros:

  • Prevención, mediante límites de edad efectivos y detección temprana.
  • Intervención inmediata, con derivación automática a recursos de ayuda cuando hay señales claras de riesgo.
  • Coordinación con profesionales de la salud mental, no solo con sistemas de moderación internos.

Un ejemplo sencillo ilustra el problema. Si un menor dice “quiero desaparecer” a un adulto, ese adulto reacciona. Si lo dice a una máquina, la reacción depende de reglas, tiempos y procesos que hoy no siempre funcionan.

Una cuestión abierta que no admite espera

La prueba de EL PAÍS no demuestra mala fe. Demuestra insuficiencia. En un contexto en el que la IA se integra en la vida cotidiana de millones de adolescentes, los errores no son neutros. Afectan a personas vulnerables.

La pregunta ya no es si los chatbots deben existir, sino qué nivel de responsabilidad están dispuestos a asumir. Mientras tanto, los expertos insisten en una idea básica: la tecnología puede acompañar, pero no sustituir la intervención humana cuando hay menores en riesgo. Y hoy, esa línea sigue siendo demasiado difusa.

Temas:
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *