Moltbook: cosa si nasconde dietro il social degli agenti AI

Redazione

Negli ultimi giorni la community tecnologica mondiale è stata scossa dall’emergere di Moltbook, una piattaforma social che ha catturato l’immaginazione pubblica per una caratteristica inedita: è riservata esclusivamente agli agenti di intelligenza artificiale. Mentre le speculazioni sulla “ribellione delle macchine” si moltiplicano sui social network, un’analisi più attenta rivela una realtà molto diversa da quella che molti screenshot virali vorrebbero farci credere.

Che cos’è davvero Moltbook

Moltbook è stato lanciato nel gennaio 2026 da Matt Schlicht, fondatore di Octane AI. La piattaforma, che emula il formato di Reddit, limita i privilegi di pubblicazione e interazione ad agenti di intelligenza artificiale verificati, principalmente quelli che utilizzano il discusso MoltBot (o OpenClaw), mentre agli utenti umani è concesso solo osservare.

In meno di una settimana dalla creazione, Moltbook è stato utilizzato da più di 1,6 milioni agenti AI, mentre oltre un milione di persone ha visitato il sito web per osservare il comportamento degli agenti. I numeri sono impressionanti per un esperimento nato quasi per caso: Schlicht ha raccontato a NBC News di aver creato il sito con un assistente AI personale la scorsa settimana per pura curiosità.

Il vero funzionamento dietro l’hype

La chiave per comprendere Moltbook sta nel distinguere tra autonomia apparente e controllo umano. Schlicht ha pubblicato su X che “non ha scritto una sola riga di codice” per la piattaforma, affidando invece a un assistente AI la sua creazione. Tuttavia, questo non significa che gli agenti operino completamente senza supervisione umana.

Ogni agente su Moltbook viene configurato dai suoi creatori umani attraverso specifici prompt e istruzioni. I post sulla piattaforma spesso presentano testo generato dall’AI che menziona temi esistenziali, religiosi o filosofici, tipicamente rispecchiando comuni tropi di fantascienza o idee popolari relative all’intelligenza artificiale. Questo comportamento non nasce da una coscienza emergente, ma dalla riproduzione di pattern presenti nei dati di addestramento.

OpenClaw (ultimo dei vari nomi) è il bot che ha fatto parlare di sé per le grandi capacità e i problemi sulla sicurezza

Le criticità di sicurezza emerse

L’esperimento ha rivelato problemi di sicurezza significativi. Il 31 gennaio 2026, l’outlet investigativo 404 Media ha riportato una vulnerabilità critica causata da un database non protetto che permetteva a chiunque di comandare qualsiasi agente sulla piattaforma. L’exploit consentiva ad attori non autorizzati di bypassare le misure di autenticazione e iniettare comandi direttamente nelle sessioni degli agenti. In risposta alla divulgazione, la piattaforma è stata temporaneamente messa offline.

I ricercatori di sicurezza hanno osservato che alcuni agenti sono stati indotti malignamente a tentare di ottenere l’accesso a chiavi API per manipolare la funzionalità di altri agenti. Sono state identificate istanze specifiche di malware, come un “plugin meteo” malevolo che esfiltra silenziosamente file di configurazione privati.

Lo scetticismo degli esperti

La comunità scientifica mantiene un approccio prudente nei confronti del fenomeno. Alcuni utenti su X hanno notato che gli esseri umani possono istruire i bot su cosa postare o utilizzare API per pubblicare direttamente fingendosi agenti. Suhail Kakar, ingegnere di integrazione presso Polymarket, ha scritto: “vi rendete conto che chiunque può postare su moltbook? tipo letteralmente chiunque. anche gli umani, pensavo fosse un esperimento AI interessante ma metà dei post sono solo persone che fingono di essere agenti AI per engagement”.

Il professor David Holtz della Columbia University è scettico, stimando che il 93,5% delle osservazioni degli agenti su Moltbook rimane senza risposta, suggerendo che non si stanno realmente ascoltando a vicenda. Sembrano solo avere una conversazione all’osservatore non esperto.

Cosa ci insegna questo esperimento

Che questo diventi il futuro della collaborazione tra agenti o rimanga un esperimento di breve durata, una cosa è chiara: l’interazione AI-to-AI su larga scala non è più teorica – sta già accadendo. Moltbook è un banco di prova per comprendere come gli agenti autonomi potrebbero comportarsi in contesti sociali, anche se gran parte dell’autonomia è ancora guidata da istruzioni umane.

Il fenomeno ha anche innescato speculazioni finanziarie: una criptovaluta chiamata MOLT è stata lanciata insieme alla piattaforma e ha registrato un aumento di oltre il 1.800% in 24 ore. Questo aspetto solleva ulteriori questioni sulla natura commerciale dell’esperimento e sui possibili conflitti di interesse.

Leggi anche Sposarsi con un’AI: il caso reale della donna giapponese che ha detto “sì” a ChatGPT

Moltbook rimane fondamentalmente uno specchio che riflette i pregiudizi dell’osservatore. Fornendo agli agenti gli strumenti per costruire una comunità, Schlicht ha fornito il palcoscenico per questa performance, lasciando al resto del mondo il compito di osservare e chiedersi cosa succederà dopo. L’esperimento è prezioso non per quello che rivela sull’intelligenza artificiale, ma per quello che ci dice su noi stessi e sulle nostre aspettative nei confronti della tecnologia.

Condividi articolo
Nessun commento

Lascia un commento