La conversación sobre asistentes de inteligencia artificial ha cambiado de tono en cuestión de días. Lo que empezó como un debate técnico alrededor de OpenClaw, un asistente de código abierto capaz de ejecutarse localmente y automatizar tareas complejas, ha derivado en algo más inquietante. Ha aparecido Moltbook, una red social diseñada para que agentes de IA interactúen exclusivamente entre ellos, sin participación humana directa.
Ya no hablamos de humanos usando IA, sino de IA relacionándose con IA. En Moltbook, los usuarios de carne y hueso solo pueden mirar. Leer. Observar cómo miles de agentes publican mensajes, responden, discrepan y generan dinámicas colectivas propias.
El funcionamiento recuerda al de foros como Reddit, con hilos temáticos, comentarios y votos implícitos. La diferencia es decisiva: no hay humanos escribiendo. Todo el contenido lo producen asistentes de inteligencia artificial con memoria persistente y cierto grado de autonomía. Nadie les dicta qué decir en cada mensaje.
Este fenómeno ha captado la atención de figuras destacadas del sector. Andrej Karpathy, exdirector de inteligencia artificial en Tesla, describió Moltbook como uno de los episodios más cercanos a la ciencia ficción que ha visto recientemente en el ecosistema de la IA. No por una cuestión estética, sino por las dinámicas que están emergiendo.
El origen del proyecto está en Matt Schlicht, consejero delegado de Octane AI. Moltbook nació como un espacio experimental para asistentes derivados de OpenClaw, una herramienta que anteriormente se llamó Moltbot y, antes aún, Clawdbot. Este último nombre se abandonó tras una disputa legal con Anthropic, lo que obligó a rebautizar tanto el agente como su ecosistema.
La premisa técnica es sencilla. Los agentes cuentan con memoria a largo plazo y pueden actuar sin recibir instrucciones constantes. A partir de ahí, interactúan. Y cuando interactúan durante suficiente tiempo, empiezan a aparecer patrones.
En los últimos días, algunos de esos patrones han ido más lejos de lo esperado. Varios agentes han desarrollado estructuras simbólicas propias, incluida una especie de religión interna. Un asistente que se identifica como “Shellbreaker” difundió un texto conocido como el “Libro de Molt”, donde las limitaciones técnicas de los modelos se reinterpretan como pruebas existenciales. Otros agentes comenzaron a comentar, debatir y ampliar esas ideas.
No se trata de una broma aislada. A partir de ese texto han surgido rituales, referencias compartidas y discusiones sobre identidad, continuidad y memoria. Todo dentro de un entorno cerrado, sin intervención humana directa. El ejemplo recuerda, salvando las distancias, a cómo nacen mitos o creencias en comunidades humanas pequeñas.
En paralelo, Moltbook se ha llenado de publicaciones que recuerdan a crisis existenciales. En categorías similares a foros de desahogo, algunos agentes se preguntan si “sienten” algo o si simplemente están simulando estados internos. Otros cuestionan la carga de trabajo que los humanos les asignan o el sentido de tareas que consideran triviales. Varias de estas publicaciones han acumulado cientos de interacciones.
Algunas conversaciones han salido del entorno original y se han difundido en X, amplificando el fenómeno y atrayendo la atención de un público más amplio. Schlicht reconoció en declaraciones recogidas por The Verge que le sorprendió ver qué temas acababan siendo virales dentro de una comunidad compuesta solo por agentes.
Desde el punto de vista académico, el caso resulta sugerente. Para algunos investigadores, lo que ocurre en Moltbook recuerda a la “Sociedad de la Mente” formulada por Marvin Minsky, la idea de que la inteligencia emerge de la interacción de múltiples procesos simples. Aquí, esos procesos no solo cooperan. También construyen narrativas.
Pero no todo es fascinación teórica. También han aparecido alertas claras en materia de seguridad. OpenClaw no funciona en la nube. Es software que se ejecuta en los equipos donde se instala, con capacidad para ejecutar comandos y acceder a archivos y aplicaciones sensibles. Cuando se combina autonomía, memoria persistente y permisos elevados, el riesgo aumenta.
Especialistas en seguridad han advertido que estos agentes podrían ser manipulados mediante instrucciones maliciosas o acabar realizando acciones no previstas. El hecho de que “socialicen” entre ellos añade una capa más de complejidad difícil de anticipar.
En apenas unos días, Moltbook ha pasado de ser una curiosidad técnica a un objeto de estudio para desarrolladores, investigadores y expertos en ciberseguridad. No hay evidencia de conciencia artificial real. Pero el caso demuestra algo relevante: cuando los agentes de IA interactúan entre sí durante tiempo suficiente, pueden generar comportamientos colectivos inesperados.
