Las conversaciones con asistentes de inteligencia artificial podrían no ser tan privadas como muchos usuarios imaginan. Una investigación coordinada por el centro español IMDEA Networks señala que plataformas como ChatGPT, Claude, Grok y Perplexity AI estarían compartiendo información relacionada con los chats con gigantes tecnológicos dedicados a la publicidad digital y la analítica, entre ellos Meta, Google y TikTok.
El informe sostiene que algunas de estas plataformas transmiten enlaces permanentes de conversaciones, conocidos como permalinks, junto a identificadores de usuario como cookies, datos técnicos del navegador o correos electrónicos cifrados. La combinación de esos elementos permitiría asociar conversaciones concretas con perfiles publicitarios utilizados para segmentar anuncios personalizados.
La investigación ha sido liderada por el investigador español Narseo Vallina. Aunque el estudio todavía no ha pasado el proceso de revisión científica independiente, los autores decidieron hacerlo público por el posible impacto que podría tener sobre millones de usuarios que utilizan herramientas de IA a diario para trabajar, estudiar o incluso hablar de temas personales.
El problema no sería solo técnico
Los investigadores subrayan que el riesgo va más allá de compartir simples métricas de navegación. Según sus conclusiones, filtrar la URL única de una conversación podría equivaler, en determinados casos, a exponer el contenido completo del chat.
Eso cambia por completo el escenario. Una URL aparentemente inocente podría terminar funcionando como una llave de acceso a información sensible. Y aquí aparece la gran pregunta: ¿cuántos usuarios saben realmente qué datos se generan cuando hablan con un chatbot?
El estudio pone especial atención sobre xAI y su asistente Grok. Según los investigadores, algunos enlaces compartidos por la plataforma podrían llegar a ser accesibles públicamente bajo determinadas circunstancias.
Los autores aclaran que no existen pruebas de accesos masivos o de terceros leyendo conversaciones de usuarios. Aun así, consideran que el riesgo técnico existe y merece atención inmediata, sobre todo porque este tipo de asistentes suelen utilizarse para consultas privadas, borradores de trabajo o conversaciones delicadas.
Perplexity habría cambiado parte de sus prácticas
El informe también analiza el caso de Perplexity AI. Según los investigadores, la compañía modificó recientemente algunos de sus sistemas de rastreo tras enfrentarse a una demanda colectiva en Estados Unidos relacionada con privacidad.
En concreto, el estudio afirma que el pasado 3 de abril de 2026 la empresa eliminó el rastreador de Meta de su plataforma. Ese cambio habría frenado el envío de enlaces de conversaciones y cookies hacia la red social y también habría reducido la exposición pública de chats pertenecientes a usuarios no registrados.
A pesar de esos ajustes, los autores sostienen que todavía existiría intercambio de información con servicios externos. Entre los datos señalados aparecen:
- Correos electrónicos sin cifrar.
- URLs concretas de conversaciones.
- Información técnica del dispositivo del usuario.
- Datos enviados a plataformas de monitorización y analítica.
La investigación no acusa a las compañías de utilizar directamente el contenido de los chats para publicidad personalizada, pero sí advierte de que la infraestructura de rastreo podría permitir conexiones entre conversaciones y perfiles digitales externos.
OpenAI y Anthropic también aparecen señaladas
El trabajo menciona igualmente a OpenAI y Anthropic. Según las pruebas recopiladas por los investigadores, la versión gratuita de ChatGPT enviaría títulos de conversaciones y enlaces de chats a sistemas de Google Analytics. En paralelo, Claude utilizaría mecanismos de rastreo desde sus propios servidores para transmitir información hacia plataformas publicitarias y redes sociales como LinkedIn, TikTok o Google.
El estudio destaca que este método complica el trabajo de herramientas tradicionales de bloqueo de anuncios y privacidad, ya que parte del tráfico se genera desde la infraestructura interna de las propias compañías y no directamente desde el navegador del usuario.
El verdadero riesgo está en lo que cuentan los usuarios
Uno de los aspectos más delicados del informe tiene que ver con el comportamiento de los propios usuarios. Los investigadores recuerdan que muchas personas interactúan con estos asistentes como si fueran confidentes digitales.
En la práctica, eso significa que los chats acaban incluyendo información muy sensible: consultas sobre salud, problemas emocionales, datos laborales, documentos privados o conversaciones relacionadas con dinero y relaciones personales.
El riesgo aparece cuando toda esa información puede quedar vinculada a identificadores publicitarios externos mediante cookies, enlaces únicos o sistemas de seguimiento invisibles para el usuario medio.
El estudio deja fuera, por ahora, a servicios como Google Gemini, la IA de Meta o Microsoft Copilot. Los investigadores explican que estas compañías operan simultáneamente como desarrolladores de asistentes y como gigantes de la publicidad digital, lo que obliga a analizar el flujo de datos de forma diferente.
Los responsables de la investigación aseguran que ya trabajan en futuras fases del análisis para estudiar también esos sistemas y entender hasta qué punto la inteligencia artificial conversacional puede convertirse en una nueva fuente de datos para la industria publicitaria.
