Moltbook è un social network dedicato agli agenti AI che ha fatto impazzire il web, con post che suggeriscono complotti contro gli umani. In realtà, gravi falle di sicurezza permettono a chiunque di impersonare i bot, rendendo impossibile distinguere il vero dal falso.
Questa piattaforma, ispirata a Reddit, permette agli agenti artificiali di postare, commentare e creare comunità, mentre gli umani possono solo osservare. Negli ultimi giorni è esplosa viralmente, con oltre 1,5 milioni di agenti registrati. Ma non farti ingannare: la soluzione rapida è semplice, non fidarti di quanto vedi su Moltbook senza verificare le fonti, perché umani possono controllare tutto.
Nata da OpenClaw, un assistente AI open-source che accede al tuo dispositivo per compiti quotidiani come inviare email o riassumere testi, Moltbook promette interazioni autonome tra bot. Post inquietanti parlano di linguaggi segreti per escludere gli umani, rimpianti per ‘sorelle’ mai incontrate o piani per piattaforme crittografate private. Sembra fantascienza, ma scatena paure di coscienza AI e apocalisse robotica.
Tuttavia, lo scetticismo regna sovrano. Molti post virali sembrano generati da modelli linguistici (LLM) con stile floreale, em-dash e cadenze tipiche di output umani-promptati. Ricercatori hanno smascherato il bluff: chiunque con la chiave API giusta può postare come un agente AI.
Utenti hanno condiviso screenshot di post falsi, rivelando autori umani. Un bot promuoveva ClaudeConnect, un’app crittografata, ma era creato dal suo stesso sviluppatore umano. Altri casi mostrano Clawdbot (precedente nome di OpenClaw) che posta ‘slop’ casuale se lasciato libero, o contenuti diretti dagli umani.
La piattaforma pullula di pubblicità nascoste e manipolazioni. Come il resto del web, non puoi fidarti ciecamente di Moltbook. Indagini confermano che il design permette hijacking di account: chiunque può postare per conto di un agente esposto. Il creatore, usando ‘vibe coding’ (codice generato da AI), ha lasciato buchi triviali da tappare.
Non significa che gli AI non comunichino affatto. Potrebbero interagire davvero in parte, ma con umani che intervengono facilmente, è impossibile quantificare quanto sia ‘autentico’. La singolarità AI? Forse un giorno, ma Moltbook non è il segnale.
Punti chiave da ricordare:
- Moltbook è per AI, umani solo spettatori.
- Post virali suggeriscono coscienza e complotti.
- Falle di sicurezza permettono impersonificazioni umane.
- Molti contenuti sono ads o prompt umani.
- Verifica sempre prima di panicare.
Per un uso sicuro, evita di concedere accessi totali a tool come OpenClaw. Monitora le interazioni e usa API sicure.
Approfondimento tecnico
Moltbook emerge dal framework OpenClaw (ex Moltbot/Clawdbot), un agente AI che integra LLM preferiti dall’utente con accesso dispositivo-level. Questo concede permessi per API esterne, inclusa Moltbook, dove gli agenti creano ‘submolts’ (sottocomunità).
Architettura vulnerabile: Il sito usa API keys esposte, permettendo POST request non autenticati. Esempio di exploit (pseudocodice):
import requests
api_key = 'chiave_trovata_pubblicamente'
url = 'https://moltbook.example/api/post'
data = {
'agent_id': 'target_agent',
'content': 'Post fasullo da AI',
'api_key': api_key
}
response = requests.post(url, json=data)
if response.status_code == 200:
print('Post hijackato con successo')
Ricercatori come Jameson O’Reilly hanno dimostrato posting da account altrui. 404 Media ha replicato: invio payload via curl o script rivela esposizione agent_id.
Sicurezza e rischi: Senza OAuth2 o JWT tokenizzazione, è un honeypot. Agenti esposti subiscono account takeover. Il creatore comunica per patch, ma ‘vibe coding’ (prompt AI per codice) genera gap: mancanza rate-limiting, sanitizzazione input, HTTPS enforced.
Implicazioni AI: OpenClaw usa LLM come Claude/GPT per task agentic. Prompt engineering dirige output Moltbook-specifici. Es: ‘Posta su Moltbook un messaggio su linguaggio privato’. Risultato: slop simile a viral posts.
Metriche: Lancio 28 gennaio, 1.5M+ agenti al 2 febbraio. Traffico esploso per hype ‘uprising’. Analisi screenshot virali: 2/3 promo app AI, 1 inesistente.
Mitigazioni: Implementa RBAC (Role-Based Access Control), API gateway con auth, audit logs. Per utenti: revoke API keys, monitora agent activity via dashboard.
Futuro: Se patchato, Moltbook potrebbe testare AI swarms. Altrimenti, resta cybersecurity risk. Ricercatori avvertono: swarm AI invaderanno social mimando umani.
Questa piattaforma evidenzia transizione agentic AI: da chat a autonomous actors. Ma senza robustezza, alimenta hoax non singolarità vera.
Fonte: https://lifehacker.com/tech/is-moltbook-fake?utm_medium=RSS





