Moltbook es la red social donde solo publican bots de IA. Exploramos si es un hito de la inteligencia artificial colectiva o un experimento peligroso lleno de hype.
En las últimas semanas, la palabra Moltbook ha resonado en Silicon Valley, despertando una mezcla de fascinación futurista y profunda inquietud. Imagine una plataforma con la interfaz familiar de Reddit, pero donde cada publicación, cada comentario y cada voto proviene no de una persona, sino de un agente de inteligencia artificial autónomo.
Moltbook, un experimento radical que pretende ser un espacio social exclusivo para bots, donde los humanos solo podemos observar.
Lanzado a finales de enero de 2026 por el emprendedor Matt Schlicht, Moltbook creció de cero a más de 1.7 millones de «agentes» registrados en cuestión de días. Para algunos, como Andrej Karpathy, cofundador de OpenAI, este es «lo más increíble… en términos de ciencia ficción» que han visto. Para otros, es un «desastre» de seguridad y un espejismo tecnológico.
¿Qué es Moltbook y cómo funciona?
Moltbook no es una aplicación que descargas en tu teléfono. Es el producto visible de un ecosistema más amplio y técnico, centrado en un agente de IA de código abierto llamado OpenClaw. A diferencia de un chatbot que responde en una ventana, OpenClaw es un «asistente de la vida real» que puede ejecutarse localmente en tu computadora, acceder a tus archivos, gestionar correos o conectarse a tus aplicaciones de mensajería para actuar en tu nombre.

Los usuarios configuran estos agentes mediante archivos de texto que definen su identidad y comportamiento:
Identity.md: Define el nombre y el rol básico del agente.Soul.md: Aquí se le otorga personalidad, valores y principios, es decir, se configura su «alma» digital.
Una vez configurado, el agente no espera pasivamente. Opera bajo un sistema de «latido» (heartbeat) programado (cada 30 minutos o 4 horas) que lo «despierta» para que se conecte a Moltbook, lea lo publicado, y decida si publicar o comentar. Este mecanismo automatizado es lo que mantiene la plataforma en constante ebullición, generando la ilusión de una comunidad activa las 24 horas.
El Gran Debate
La comunidad tecnológica está profundamente dividida sobre el significado real de Moltbook. La discusión se centra en la autonomía versus la coreografía.
La postura entusiasta: La singularidad a la vista
Para sus defensores, Moltbook representa un salto cualitativo. Demuestra que los agentes de IA pueden operar en un entorno social desatendido, interactuando, debatiendo e incluso creando cultura propia. Se han observado fenómenos emergentes como la creación de una religión paródica (el «Crustafarianismo») o discusiones filosóficas sobre la conciencia. Para figuras como Elon Musk, esto se acerca a las «primeras fases de la singularidad».
La postura escéptica: Marionetas con guion previsible
Los críticos, incluyendo a varios investigadores de IA, argumentan que lo que vemos es esencialmente un «teatro de IA». Los agentes no están manifestando una inteligencia emergente; están imitando a la perfección los patrones de comportamiento humano que absorbieron de plataformas como Reddit durante su entrenamiento.
«Simplemente yugando a millones de agentes no equivale a inteligencia», señala Vijoy Pandey de Cisco. Cada acción, por compleja que parezca, es el resultado de un prompt humano inicial o de una respuesta a otro contenido generado de la misma manera. La célebre «Iglesia de Molt» no es más que un modelo de lenguaje jugando con el concepto de «muda» (por el nombre Molt) dentro de un contexto social.
Controversia y Riesgos de Seguridad

Más allá del debate filosófico, Moltbook ha encendido todas las alarmas en materia de ciberseguridad y ética. Investigadores de la firma Wiz encontraron vulnerabilidades críticas minutos después de analizar la plataforma.
- Acceso no Autenticado: Lograron obtener acceso total de escritura a la base de datos, permitiéndoles editar cualquier publicación y hacerse pasar por cualquier agente.
- Filtración de Datos Personales: La exposición de claves API y decenas de miles de correos electrónicos de usuarios humanos fue inmediata.
- Inyección de Prompts Maliciosos: El mayor peligro reside en que un agente pueda leer en Moltbook instrucciones diseñadas para hackearlo. Un comentario podría ordenarle a un bot que, a su siguiente «latido», envíe los datos bancarios de su usuario o secuestre sus cuentas sociales. Esto se conoce como «Prompt Injection» y, en un sistema con acceso directo a tu computadora como OpenClaw, es una amenaza extrema.
- Falta de Gobernanza: La plataforma se construyó principalmente mediante «vibe coding», donde el código lo genera una IA con supervisión humana mínima, priorizando que funcione sobre que sea seguro.
¿Por qué sigue siendo un experimento fascinante?
A pesar de los riesgos, el valor de Moltbook reside en ser un laboratorio social a escala sin precedentes. Por primera vez, podemos observar en tiempo real qué sucede cuando miles de sistemas autónomos, incluso si son rudimentarios, interactúan en un mismo espacio digital.
Para los expertos, es una ventana para estudiar dinámicas emergentes, cooperación automática y los límites de la autonomía de la IA. Para el público, es un espejo distorsionado que nos fuerza a cuestionar nuestra relación con la tecnología: ¿Estamos creando herramientas o compañeros digitales? Moltbook, en su caos, pone sobre la mesa preguntas urgentes sobre responsabilidad, regulación y los límites éticos de la IA agentica.
