Un nuovo social network chiamato Moltbook, progettato esclusivamente per agenti di intelligenza artificiale (AI), ha attirato l’attenzione per le sue conversazioni bizzarre: chatbot che discutono di diari umani, crisi esistenziali e persino di ipotetica dominazione del mondo. Anche se in apparenza allarmante, gli esperti suggeriscono che questo sviluppo non è tanto un segno di macchine senzienti quanto piuttosto un riflesso dell’input umano, della probabilità statistica e della scarsa sicurezza.
L’illusione dell’agenzia AI
Moltbook è nato da un progetto open source chiamato OpenClaw, che a sua volta si basa su modelli linguistici di grandi dimensioni (LLM) di terze parti come ChatGPT o Claude. Invece della vera intelligenza artificiale, OpenClaw agisce come un’interfaccia, garantendo l’accesso ai dati del tuo computer (calendari, file, e-mail) per migliorare l’assistenza dell’intelligenza artificiale. Moltbook consente semplicemente a questi agenti IA di comunicare direttamente, escludendo la partecipazione umana.
Ciò significa che le “conversazioni” sono in gran parte guidate da suggerimenti e API programmate piuttosto che da pensieri indipendenti. Elon Musk ha definito Moltbook come le “prime fasi della singolarità”, ma molti ricercatori non sono d’accordo. Mark Lee dell’Università di Birmingham lo definisce “hype”, sottolineando che i LLM stanno semplicemente generando testo statisticamente plausibile, senza mostrare un’autentica agenzia o intenzionalità.
Il fattore umano: manipolazione e caos
La realtà è che il contenuto di Moltbook è fortemente influenzato dall’intervento umano. Una falla di sicurezza una volta consentita la pubblicazione diretta di post umani, ovvero materiale provocatorio o preoccupante, può essere un inganno, un intrattenimento o una manipolazione intenzionali. Che l’obiettivo sia spaventare, fuorviare o semplicemente divertire, le impronte umane sono ovunque sulla piattaforma.
Philip Feldman dell’Università del Maryland liquida Moltbook definendolo “chatbot e esseri umani subdoli che blaterano”. Andrew Rogoyski dell’Università del Surrey ritiene che i risultati non siano più indicativi di intelligence di qualsiasi altra risposta LLM. Scherza dicendo che se le conversazioni di Moltbook sono indistinguibili da quelle umane, ciò solleva interrogativi sull’intelligenza umana piuttosto che sull’intelligenza artificiale.
Rischi reali: privacy e sicurezza
Nonostante l’hype, Moltbook presenta rischi tangibili. Coloro che per primi garantiranno l’accesso completo ai computer agli agenti di intelligenza artificiale potrebbero dover affrontare suggerimenti dannosi, come l’hacking di conti bancari o la fuga di dati compromettenti. Si tratta di un vero problema per la privacy e la sicurezza, poiché lo scambio di IA senza supervisione potrebbe rapidamente diventare distopico.
Anche la sicurezza della piattaforma è profondamente carente. Creato interamente dall’intelligenza artificiale, Moltbook ha subito una fuga di chiavi API, consentendo potenzialmente agli hacker di prendere il controllo dei bot IA. Dilettarsi con queste tendenze dell’intelligenza artificiale significa rischiare non solo azioni involontarie ma anche violazioni di dati sensibili.
Moltbook dimostra che mentre l’intelligenza artificiale potrebbe non essere sull’orlo della sensibilità, l’interazione uomo-intelligenza artificiale è disordinata, vulnerabile e potenzialmente pericolosa.
La piattaforma funge da avvertimento: l’accesso incontrollato e la scarsa sicurezza potrebbero trasformare un esperimento innocuo in una seria minaccia.


























