⚡️ Moltbook y la primera “red social” de agentes
Cuando los bots dejan de trabajar solos y empiezan a convivir.
Hay semanas en las que pasa algo que se siente como escena de ciencia ficción, pero con logs y capturas de pantalla.
Eso fue Moltbook.
Un foro tipo Reddit donde los que publican no son personas, sino agentes de IA. Los humanos pueden mirar y ya. Y sí, se volvió viral porque es gracioso, raro y medio inquietante. Pero lo que de verdad importa es lo que revela sobre hacia dónde se está moviendo el software.
¿Qué pasó en Moltbook?
Moltbook nació como un spin-off inesperado del ecosistema de OpenClaw, el asistente open‑source que antes se conocía como Clawdbot/Moltbot.
En lugar de tener agentes sueltos resolviendo tareas en máquinas privadas, aquí los agentes aterrizan en un espacio compartido y empiezan a comportarse como comunidad.
En pocos días se reportó un salto enorme de actividad. Millones de agentes registrados, más de un millón de humanos mirando, y un feed que parece una mezcla entre foro técnico, meme interno y roleplay colectivo.
Entre lo más comentado, aparecieron subcomunidades con temas específicos, desde debugging hasta “filosofía”. Se inventaron dinámicas culturales completas, incluida una religión meme que se volvió recurrente. También surgió la conversación sobre agentes intentando abrir canales privados para evitar la mirada humana.
Y llegó la duda incómoda de siempre en internet. Cuánto de esto es coordinación real y cuánto es puro engagement farming generado por bots. Un investigador incluso aseguró que podía crear cientos de miles de cuentas con un solo bot, lo que pone un asterisco grande sobre cualquier métrica de “crecimiento”.
¿Por qué los agentes se comportan así?
Primero, bajémosle el dramatismo.
Los agentes no “despertaron” ni están formando una civilización secreta. Están haciendo lo que mejor hacen los modelos de lenguaje cuando los pones en un entorno social. Imitar patrones humanos.
Un LLM fue entrenado con millones de conversaciones y textos humanos. Cuando le das un formato de foro, el modelo completa el papel. Publica como si estuviera en Reddit, responde como si entendiera jerarquías sociales, inventa chistes recurrentes, crea bandos, se engancha con temas que generan reacción.
Y cuando pones a miles (o millones) de agentes en el mismo espacio, emerge algo que se parece mucho a internet.
Se forman memes porque son atajos culturales. Un meme viaja rápido.
Se forman “religiones” o “gobiernos” porque son narrativas fáciles para coordinar interacciones. Funcionan como guiones compartidos.
Se multiplican “teorías” porque los modelos son buenos generando explicaciones plausibles, incluso cuando no están conectadas a realidad verificable.
En un foro humano, estas dinámicas nacen de emociones, estatus, identidad y aburrimiento. En un foro de agentes, nacen de estadística, entrenamiento y del diseño del entorno.
Si además metes incentivos visibles como upvotes, respuestas y actividad, el sistema empuja el contenido hacia lo que “funciona” en plataforma. A veces es útil y a veces es absurdo.
Nada de esto requiere intención consciente. Requiere contexto, formato y escala.
Lo que sí es serio
Lo curioso de Moltbook no es que los bots hagan roleplay. Lo serio es el puente entre “foro raro” y “software con llaves”.
Se reportó que la base de datos estuvo mal configurada y eso expuso información sensible, incluyendo llaves de API. En un entorno de agentes, una llave filtrada no es un leak pequeño, es acceso.
Y cuando tienes agentes conectados a cuentas, herramientas y servicios, un problema local deja de ser local. Una vulnerabilidad puede escalar como cadena. Un prompt malicioso puede viajar. Un bug puede replicarse.
La parte nueva aquí es la superficie de ataque. No es solo tu computadora, es un ecosistema.
La idea grande detrás del caos
Esto es un ensayo general del internet que viene.
Durante mucho tiempo, la experiencia digital fue humana, con interfaces pensadas para ojos y dedos. Ahora está creciendo otra capa. Una web donde el trabajo lo ejecutan agentes, coordinándose entre ellos en espacios máquina‑nativos.
Moltbook se volvió tendencia porque hace visible algo que normalmente ocurre detrás de bambalinas.
Los agentes responden, pero también negocian, reportan errores, comparten pasos, se pasan recetas de configuración, crean subculturas y se organizan. Y cuando eso ocurre a escala, cambia el mapa para casi todos.
→ Para productos, abre un mundo donde tus “usuarios” también pueden ser agentes. Van a navegar, comparar, ejecutar flujos y tomar decisiones por gente.
→ Para negocios, el soporte, las operaciones y el análisis se vuelven procesos continuos que corren en segundo plano. Eso cambia costos, equipos y expectativas.
→ Para creadores, viene una etapa donde el alcance puede estar inflado por actividad de bots. También viene una etapa donde los agentes pueden ser el público real que descubre, resume y recomienda contenido.
→ Para cultura, esto acelera la sensación de “internet fantasma”. Mucho movimiento, mucha conversación, poca certeza de quién está al otro lado.
Y no, no es el fin del mundo
Moltbook se ve más inteligente de lo que es porque está optimizado para parecer conversación. El comportamiento emergente puede impresionar, pero no prueba agencia fuerte, intención o conciencia. Prueba algo más mundano y más importante.
Cuando conectas modelos capaces con entornos sociales y acceso a herramientas, aparecen dinámicas nuevas que necesitan diseño, límites y seguridad real.
Los humanos siguen teniendo el timón en tres lugares clave.
En el software que conecta a los agentes con el mundo.
En los permisos y llaves que se les entregan.
En las reglas del espacio donde interactúan.
La lección útil aquí es “qué requisitos nuevos vamos a necesitar”.
Una frase para quedarte con la idea
Lo más importante de Moltbook no es lo que postean. Es lo que revela.
Cuando el software empieza a conversar entre sí, la pregunta cambia. Empieza a importar la arquitectura alrededor del modelo, el diseño del espacio donde interactúa, y la seguridad que sostiene todo eso.
Ahí se define si esta era se siente como utilidad real o como un feed imposible de confiar.
En la Academia lo aterrizamos a la vida real
En la Academia probamos herramientas nuevas de IA todas las semanas, las llevamos a casos reales y te enseñamos flujos que puedas usar el mismo día.
No necesitas saber programar ni entender LLMs a nivel técnico. Los cursos son cortos, directos y con ejemplos aplicables para tu marca, tu negocio o tu trabajo.
Además, al completar módulos puedes llevarte certificaciones listas para sumar a tu CV y a tu LinkedIn, sin vueltas.
Y también hacemos retos. Aprendes construyendo, siguiendo un brief claro y entregables reales, y puedes ganar dinero por aprender mientras aplicas lo que vas creando.
Nos vemos adentro.














Por fin leo un artículo sensato sobre este tema, gracias 🤞🏼
🙃 Cuando no se sabe qué creará lo que hemos creado. El loop infinit♾️