Google retira los resúmenes de IA en búsquedas médicas tras detectar respuestas problemáticas

Google ha decidido retirar los resúmenes generados por inteligencia artificial en determinadas búsquedas médicas después de detectar respuestas problemáticas que podían inducir a error. La decisión llega tras una investigación periodística que puso el foco en un punto sensible: la divulgación de información sanitaria sin el contexto clínico necesario. No es un ajuste menor. Es una rectificación con implicaciones directas sobre cómo millones de personas interpretan datos de salud.

El caso salió a la luz a través de The Guardian, que analizó varias búsquedas relacionadas con análisis clínicos. En ellas, las llamadas AI Overviews ofrecían rangos “normales” de valores médicos, como los análisis de sangre del hígado, sin tener en cuenta variables básicas. Edad, sexo, origen étnico o condiciones previas quedaban fuera de la ecuación. El resultado era una cifra aparentemente clara, pero potencialmente engañosa.

Para un usuario sin formación médica, ese tipo de respuesta puede parecer suficiente. El problema aparece cuando un valor que debería consultarse con un profesional se interpreta como normal. Un ejemplo sencillo: un mismo marcador hepático puede ser aceptable en un adulto joven y preocupante en una persona mayor con antecedentes. El resumen automático no hacía esa distinción.

Qué ha retirado Google y qué sigue activo

Tras la publicación del reportaje, Google eliminó los resúmenes de IA en búsquedas concretas como “¿cuál es el rango normal para los análisis de sangre del hígado?” o “¿cuál es el rango normal para las pruebas de función hepática?”. En esas consultas, el bloque generado por IA desapareció de los resultados estándar.

Sin embargo, la retirada no ha sido total. Otras formulaciones similares seguían activando respuestas automáticas en el momento de la investigación. Incluso cuando el resumen desaparecía, el buscador ofrecía la opción de repetir la consulta en el llamado “modo IA”, una vía alternativa que mantiene activos estos sistemas.

En pruebas realizadas horas después, algunos de los primeros resultados remitían directamente al artículo de The Guardian. Una señal poco habitual, pero reveladora: el propio buscador priorizaba la crítica que había motivado el cambio.

La respuesta oficial y sus matices

Google evitó pronunciarse sobre eliminaciones concretas. En declaraciones al diario británico, un portavoz aseguró que la compañía trabaja de forma continua en mejorar el sistema y que un equipo interno de médicos revisó las consultas señaladas. Según esa revisión, en muchos casos la información no era incorrecta y procedía de fuentes consideradas fiables.

Ese matiz es clave. El debate no gira solo en torno a la veracidad de los datos, sino a cómo se presentan. Un rango puede ser técnicamente correcto y, aun así, inapropiado si se muestra sin advertencias claras o sin contexto clínico. En salud, la forma importa tanto como el contenido.

Un problema que va más allá de un error puntual

La retirada parcial llega en un momento de mayor escrutinio sobre la IA aplicada a la salud. Como prueba, el lanzamiento de Chat GPT Health, que estará disponible en las próximas semanas.

Google lleva tiempo reforzando este ámbito, con modelos específicos para contenidos médicos y con avisos que recuerdan que la información no sustituye a un profesional sanitario.

Aun así, el episodio muestra los límites prácticos de ese enfoque. Cuando una respuesta aparece destacada en lo alto del buscador, muchos usuarios la leen como una referencia fiable. No como un punto de partida. La diferencia es sutil, pero decisiva.

El equilibrio imposible entre accesibilidad y responsabilidad

Google defiende que sus resúmenes ayudan a entender mejor búsquedas complejas. En muchos ámbitos, eso es cierto. En salud, el margen de error es mínimo. Una mala interpretación no implica solo desinformación, sino decisiones personales con impacto real.

El caso ilustra un dilema más amplio:

  • Accesibilidad: información clara y rápida para millones de personas.
  • Contexto clínico: variables individuales imposibles de generalizar.
  • Responsabilidad: quién asume el riesgo cuando una respuesta se malinterpreta.

Por ahora, Google ha optado por retirar algunas vistas generales y revisar otras. No ha anunciado un cambio estructural. La discusión, sin embargo, ya está abierta.

La pregunta no es si la inteligencia artificial puede hablar de salud. Es cómo hacerlo sin simplificar en exceso lo que nunca es simple. En ese terreno, incluso un resumen bien intencionado puede convertirse en un problema.

Temas:
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *