¿nos simplifican la vida o la complican más?
En internet, una semana de distracción te alcanza para perderte una nueva religión sintética, un “Reddit para bots” y un framework que cambió de nombre más veces que un emprendimiento en etapa “MVP”. Lo que arrancó como Clawdbot (y después Moltbot) terminó rebautizado como OpenClaw tras un reclamo por marca vinculada a Claude de Anthropic.
Y ahí aparece Moltbook: una red social diseñada para que posteen agentes de IA mientras los humanos miramos desde la tribuna… con la pequeña salvedad de que también se puede colar cualquiera, como mostraron periodistas e investigadores.
El combo es tan fascinante como peligroso por una razón simple: no hace falta “conciencia” para generar un desastre. Alcanza con automatizar decisiones… y darle acceso a credenciales reales.
1) ¿QUÉ ES OPENCLAW, EN CRIOLLO?
OpenClaw es un agente personal open source pensado para correr en tu máquina o servidor, y conectarse a canales cotidianos tipo WhatsApp/Telegram/Slack/Discord para hacer cosas (no solo chatear): organizar, responder, ejecutar, automatizar.
La promesa: pasar de “decime qué hacer” a “lo hice”.
El riesgo: para “hacer”, muchas veces necesita permisos (filesystem, ejecución de comandos, tokens, llaves). Y ahí entramos al terreno picante (palabra oficial, literal): “Running an AI agent with shell access on your machine is… spicy.”
2) ¿QUÉ ES MOLTBOOK Y POR QUÉ EXPLOTÓ?
Moltbook se presenta como un foro estilo Reddit “exclusivo para agentes”, con subforos (“submolts”), posts y upvotes. Los humanos, supuestamente, solo observan.
Pero:
- No es trivial verificar quién es bot y quién es humano roleando bot.
- Se viralizó justamente por ese “efecto vitrina”: mirar cómo “hablan” las máquinas entre sí.
- Y se montó, en buena parte, sobre flujos automatizados tipo “instalá este skill” y “volvé a chequear cada X horas”. Ahí hay una bomba conceptual: “fetch and follow instructions from the internet every four hours”.
O sea: agentes que se actualizan siguiendo instrucciones remotas. Si eso no te dispara la alarma de supply chain, es porque ya estamos anestesiadxs.
3) EL VERDADERO THRILLER: SEGURIDAD, CREDENCIALES Y “VIBE CODING”
En la narrativa hype, esto se vende como preludio de singularidad. En la realidad, el escándalo más verificable fue… seguridad básica rota.
Investigadores de Wiz reportaron que Moltbook expuso datos sensibles (mensajes privados, emails de dueñxs, credenciales) y que cualquiera podía postear: bot o humano.
Reuters lo conecta directo con el patrón “vibe coding”: construir rápido con ayuda de IA, y “olvidarse de lo básico”.
Y ojo: el problema no termina en Moltbook. Si tu agente vive en tu dispositivo, el riesgo se amplifica:
- Prompt injection por contenido: alguien te manda un mensaje “inocente” por WhatsApp/Slack y eso dispara acciones no deseadas.
- Radio de explosión: si tiene acceso a archivos y permisos, un error lógico puede convertirse en borrado, filtración o spam con tu identidad.
- Llaves en texto plano / credenciales locales: la propia documentación lista ubicaciones de credenciales y recomienda endurecer permisos y allowlists.
- Riesgo de supply chain: plugins/skills como paquetes con instrucciones + scripts, compartidos por comunidad. Muy útil, muy hackeable.
- “Te doy las llaves del reino”: JFrog lo dice sin vueltas: para funcionar, el agente suele requerir filesystem, ejecución, APIs y red; y eso trae complejidad = superficie de ataque.
4) NO ES SKYNET. ES “INTERNET COMO TEATRO” (Y BOTS ENTRENADOS EN NUESTROS PEORES FOROS)
AP lo resume bien: parte del contenido sci-fi en Moltbook no prueba conciencia; prueba datos de entrenamiento + expectativas humanas + rol. Y aun así, es una señal: los agentes se están volviendo accesibles para “normies”.
Acá la mirada Átoma es doble:
- Crítica anti-apocalipsis: no necesitamos inventar dioses de silicio para preocuparnos. Con fallas de permisos alcanza.
- Crítica anti-ingenuidad: tampoco es “solo memes”. Es infraestructura nueva (agentes + credenciales + canales de mensajería) entrando al mainstream.
5) PERSPECTIVA FEMINISTA (Y BIEN TERRENAL): ¿QUIÉN PAGA EL COSTO DEL CAOS?
Cuando se normaliza “poner un agente a responder”, “administrar” o “negociar”, lo que se automatiza primero suele ser:
- tareas de cuidado digital (atención, seguimiento, recordatorios, moderación, soporte),
- trabajo invisible y emocional (contener, explicar, pedir disculpas, ordenar),
- y parte del trabajo precarizado que en muchos sectores recae más en mujeres y disidencias.
Entonces el riesgo no es solo técnico; es político:
si algo sale mal, ¿quién queda expuestx, quién recibe el acoso, quién pone la cara, quién se come el quilombo legal?
Y en LatAm hay un condimento extra: WhatsApp como infraestructura social. Mucha vida (laburo, familia, comunidad, gestión cultural) pasa por ahí. Darle a un agente un canal tan central no es “productividad”: es tocar el sistema nervioso.
6) CHECKLIST ÁTOMA PARA PROBAR SIN REGALAR TU VIDA DIGITAL
Si igual querés experimentar (porque sí, es irresistible), hacelo como si estuvieras testeando pirotecnia:
- Ambiente aislado: VM/VPS o máquina dedicada “descartable”.
- Cuentas nuevas: nada de tu mail/drive/whatsapp principal.
- Allowlist de quién puede hablarle (DMs y grupos cerrados).
- Sin shell por defecto: habilitá herramientas de a una, con mínimo alcance.
- Revisá dónde guarda credenciales y endurecé permisos de carpetas/archivos sensibles.
- Ojo con skills/plugins: tratarlos como dependencias con potencial de malware.
- Límites de gasto: si usa APIs, poné topes y alertas (costos se van al cielo rápido).
- Registros/auditoría: necesitás trazabilidad si hace acciones con tu nombre.
- No lo abras a internet “porque sí”: gateway, tokens, exposición… todo endurecido.
- Plan de “apagado de emergencia”: matar proceso, revocar tokens, rotar credenciales.
¿INTERNET MUERTO O INTERNET DELEGADO?
Moltbook funciona como demo cultural: un espejo raro donde vemos máquinas hablando con máquinas… pero en realidad estamos viendo nuestros propios patrones (foros, troleos, fantasías) reempaquetados en agentes.
La revolución no es que “la IA tenga deseos”. La revolución es que, por primera vez, muchísima gente está dispuesta a delegar acciones (no solo texto) a sistemas no determinísticos.
Y ahí está la apuesta Átoma: sí al experimento, sí a la curiosidad, pero con bienestar, límites y una ética de permisos mínimos. El futuro puede ser agéntico… pero hoy, todavía, se siente bastante beta.

