ChatGPT ha empezado a citar contenidos procedentes de Grokipedia, la enciclopedia generada por inteligencia artificial vinculada a xAI, la empresa fundada por Elon Musk. Es importante recordar que no se trata de una fuente académica consolidada ni de un repositorio editorial tradicional, sino de un proyecto nacido como alternativa explícita a Wikipedia y construido íntegramente con sistemas de IA.
La detección la ha realizado The Guardian, que ha identificado al menos nueve referencias directas a Grokipedia en respuestas ofrecidas por el modelo GPT-5.2 ante más de una docena de preguntas distintas. No es un caso aislado ni una prueba anecdótica. Las citas aparecen integradas como cualquier otra fuente, sin advertencias visibles para el usuario medio.
Qué es Grokipedia y por qué importa
Grokipedia se lanzó en octubre, después de que Elon Musk criticara públicamente a Wikipedia por lo que considera un sesgo ideológico persistente. La propuesta era clara: crear una enciclopedia alternativa, generada por IA, que ofreciera versiones distintas de los hechos y rompiera con lo que Musk describe como una narrativa dominante.
Desde su aparición, el proyecto ha estado rodeado de polémica. Diversos medios han documentado que muchos de sus artículos reproducían contenidos casi idénticos a Wikipedia, mientras que otros introducían afirmaciones controvertidas o directamente problemáticas. Entre los ejemplos señalados se encuentran textos que atribuían un papel causal a la pornografía en la crisis del VIH, ofrecían justificaciones ideológicas de la esclavitud o utilizaban un lenguaje despectivo hacia personas transgénero.
Ese historial convierte a Grokipedia en una fuente especialmente sensible. No tanto por su existencia, sino por su entrada en circuitos externos, fuera del entorno controlado de xAI.
De xAI al ecosistema global de modelos
Hasta ahora, Grokipedia había quedado relativamente confinada al ecosistema de productos vinculados a Musk. El salto se produce cuando otros modelos de lenguaje empiezan a utilizarla como referencia, aunque sea de forma puntual.
Según The Guardian, ChatGPT no recurre a Grokipedia en temas ampliamente documentados o altamente politizados, como el asalto al Capitolio del 6 de enero o la epidemia del VIH/sida. En esos casos, la falta de fiabilidad de la fuente parece actuar como barrera.
El problema aparece en terrenos menos vigilados. Por ejemplo, el medio británico detectó citas de Grokipedia en afirmaciones sobre el historiador Sir Richard Evans, algunas de las cuales ya habían sido desmentidas previamente. El mismo patrón se habría observado en Claude, el chatbot desarrollado por Anthropic, que también estaría utilizando Grokipedia en ciertas respuestas.
Aquí el riesgo no es la desinformación masiva, sino algo más sutil: la circulación silenciosa de datos dudosos en temas de baja visibilidad, donde es menos probable que el usuario cuestione la fuente o contraste la información.
Cómo eligen fuentes los modelos de lenguaje
Este caso vuelve a poner el foco en una cuestión incómoda para el sector: cómo seleccionan y ponderan las fuentes los grandes modelos de lenguaje. A diferencia de un buscador clásico, el usuario no ve una lista de enlaces ordenados. Ve una respuesta integrada, fluida, que transmite una sensación de autoridad.
Un portavoz de OpenAI explicó a The Guardian que la compañía “pretende basarse en una amplia gama de fuentes y puntos de vista disponibles públicamente” al generar respuestas. La frase es reveladora. Habla de amplitud, no necesariamente de jerarquía o validación editorial estricta.
En la práctica, eso significa que una fuente pasa a ser utilizable en el momento en que es accesible públicamente, incluso si su calidad es discutida o su origen es una IA entrenada con otras enciclopedias.
El bucle de la IA citando a la IA
El fondo del problema va más allá de Grokipedia. Lo que empieza a emerger es un bucle de retroalimentación: sistemas de IA que generan contenido, ese contenido se publica, y otros sistemas de IA lo incorporan como referencia válida.
Un ejemplo sencillo lo ilustra bien. Una entrada generada por IA sobre un personaje histórico se publica en una enciclopedia automatizada. Años después, otro modelo la cita como fuente secundaria. El error original, si existe, se consolida no por mala fe, sino por repetición.
Este fenómeno complica enormemente la trazabilidad del conocimiento. Ya no basta con preguntar de dónde sale un dato. Hay que preguntarse si ese dato fue alguna vez verificado por humanos.
Un reto que no tiene solución simple
El caso de Grokipedia demuestra lo difícil que resulta contener determinados contenidos una vez entran en el ecosistema abierto de datos. Bloquear una fuente concreta puede parecer una solución inmediata, pero no escala. Surgen nuevas plataformas, nuevos repositorios y nuevas capas de información generada automáticamente.
Para los desarrolladores de modelos, el reto es doble:
- Evitar la amplificación de contenidos problemáticos sin caer en censura arbitraria.
- Mantener respuestas útiles sin convertir cada interacción en una advertencia permanente.
Para los usuarios, el desafío es aún más complejo. La apariencia de neutralidad técnica sigue siendo uno de los mayores puntos ciegos de la inteligencia artificial conversacional.
