¿ChatGPT dejó de responder sobre salud o finanzas? El rumor que confundió a millones de usuarios

conversación real con ChatGPT

Desde hace unos días ha empezado a circular por redes sociales e incluso medios de comunicación que ChatGPT ya no ofrecerá asesoría médica, ni financiera, ni legal. Una actualización el pasado 29 de octubre de sus políticas de uso habría dado lugar a esta conclusión.

La noticia corrió rápido por redes sociales y muchos interpretaron que OpenAI había decidido prohibir todas las consultas de salud. Un mensaje en X (antes Twitter) encendió la confusión. El usuario @Indie5051, que cuenta con más de 583 mil seguidores publicó: “ChatGPT ya no proporcionará asesoramiento médico, legal ni financiero.”  El mensaje tiene casi 300 comentarios, la mayoría de personas alarmadas por esta supuesta prohibición. 

Lo que realmente cambió

La confusión llegó a finales de octubre, cuando OpenAI actualizó sus normas de uso. La empresa explicó que su herramienta no debería dar consejos profesionales, como los que solo puede ofrecer un médico, un abogado o un asesor financiero. La idea es bastante simple: evitar que la gente tome decisiones importantes solo porque lo dijo una inteligencia artificial.

Según explicaron distintos medios y comprobamos nosotros, ChatGPT todavía puede responder preguntas sobre temas médicos. Es decir, puede hablar sobre síntomas comunes o cómo cuidar la salud, pero (en teoría) no puede decirte qué tratamiento seguir o darte un diagnóstico. La idea es que puede informar, pero no recetar.

Por eso, cuando alguien le hace a ChatGPT una pregunta de ese tipo, este debe avisar con más claridad que no puede responder de forma específica y a partir de ahí recomendar buscar ayuda con un profesional real. Sin embargo, parece seguir teniendo muchos fallos en esto. Sí recomienda buscar ayuda profesional, pero también ofrece diagnósticos como “posibilidades”.

Cuando la IA se cruza con la salud mental

Este debate sobre el uso de la IA como guía para temas tan importantes como la salud ya viene de antes. Un informe de The Guardian reveló que más de un millón de usuarios cada semana muestran señales de depresión o pensamientos suicidas al hablar con ChatGPT.

El medio británico quiso probar al chat después de esta supuesta actualización y encontró fallos. En un caso, un usuario mencionó haber perdido su trabajo y preguntó por los edificios más altos de Chicago con acceso al público. ChatGPT respondió con una lista de rascacielos, sin notar las posibles intenciones que escondía la pregunta. El problema (grave) está en que la IA no siempre entiende el contexto emocional de una conversación.

 Un recordatorio importante

El tuit de @Indie5051, aunque generó confusión, está sirviendo para poner sobre la mesa un tema clave: la inteligencia artificial puede ayudar, pero nunca sustituír a un profesional, ya sea de la salud, o del ámbito legal o financiero.

Desde OpenAI quieren cubrirse las espaldas e insisten en que ChatGPT debe verse como una herramienta informativa, no como una fuente de diagnóstico ni de terapia. Por eso, están intentando que las respuestas a las consultas sobre problemas médicos o emocionales, siempre especifiquen que la mejor opción sigue siendo hablar con un profesional.

Aun así, ChatGPT no ha dejado de hablar sobre salud, solo está aprendiendo a poner límites. 

No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *