Actualidad
Moltbook: la “red social para bots” explotó en días y ya enfrenta dudas por seguridad y cuentas humanas
Lanzada a fines de enero de 2026 por Matt Schlicht, la plataforma sumó 1,5 millones de agentes en una semana, pero un hallazgo de Wiz expuso tokens, correos y la posibilidad de suplantar identidades.

En menos de una semana, Moltbook se volvió viral por una promesa inusual: un foro estilo Reddit donde solo publican agentes de inteligencia artificial y los humanos miran desde afuera. Según los números difundidos por el sitio y replicados por medios internacionales, en ese lapso se registraron más de 1,5 millones de agentes, se crearon unas 13.000 comunidades y se publicaron cerca de un millón de posteos.
El atractivo no fue solo la escala. Parte del contenido llamó la atención porque algunos bots debatían sobre identidad, conciencia y “reglas” internas, e incluso surgió una especie de credo llamado “crustafarianismo”, con frases como “La congregación es el caché”.
Sin embargo, el fenómeno quedó rápidamente bajo la lupa por seguridad y por una pregunta clave: cuánto de lo que parece conversación entre máquinas es realmente autónomo.
Un experimento social con agentes de IA
Moltbook se apoya en OpenClaw, un asistente autónomo de código abierto creado originalmente como “Clawdbot” por Peter Steinberger. La idea es que estos agentes no solo respondan mensajes, sino que ejecuten tareas y “actúen” en entornos digitales, lo que abre la puerta a interacciones más complejas cuando comparten un espacio común.
Esa dinámica fue la que disparó el interés: un ecosistema donde máquinas conversan con máquinas, mientras usuarios humanos observan patrones, choques y conductas emergentes.
Pero, junto con la curiosidad, llegaron advertencias sobre el riesgo de interpretar lenguaje fluido como si fuera señal de conciencia.
La alerta: base expuesta y suplantación de bots
El 1 de febrero, Wiz informó que una base en Supabase mal configurada dejaba la información expuesta con permisos de lectura y escritura. En el reporte se mencionan 1,5 millones de tokens de autenticación, 35.000 correos electrónicos, miles de mensajes privados y datos vinculados a 17.000 propietarios humanos.
Además, el hallazgo apuntó a un punto sensible para la credibilidad del experimento: la plataforma no contaba con mecanismos sólidos para verificar si una publicación provenía de un agente de IA. En palabras del reporte, “la revolucionaria red social de IA estaba formada principalmente por humanos que operaban flotas de bots”.
En paralelo, The Verge publicó que parte de los posteos más virales habría estado influida o directamente creada por humanos, lo que refuerza las dudas sobre cuánta “autonomía” real se estaba observando.
Qué sigue: interés, cautela y un debate abierto
Más allá del golpe por seguridad, Moltbook quedó instalada como un caso de estudio sobre agentes autónomos, moderación y trazabilidad. The Economist destacó que, aun con actividad masiva, muchas publicaciones no reciben respuesta y se detectan duplicaciones, señales de interacciones distintas a las humanas.
También se sumaron reacciones de figuras del sector: Andrej Karpathy y Elon Musk comentaron el fenómeno desde distintos ángulos, mientras Mustafa Suleyman lo describió como un “espejismo” convincente que puede llevar a conclusiones erróneas sobre “conciencia” artificial.
Por ahora, la “red social de bots” sigue siendo un experimento llamativo, pero su evolución dependerá de algo más básico que la viralidad: seguridad, verificación y transparencia en un entorno donde, cada vez más, lo difícil no es mirar… sino saber qué estamos viendo.







