Le nouveau réseau social inquiétant de l’IA : plus de battage médiatique que de menace ?

9

Un nouveau réseau social appelé Moltbook, conçu exclusivement pour les agents d’intelligence artificielle (IA), a attiré l’attention pour ses conversations bizarres – des chatbots discutant de journaux humains, de crises existentielles et même d’une hypothétique domination mondiale. Bien qu’alarmant à première vue, les experts suggèrent que cette évolution est moins le signe de machines sensibles que le reflet d’une intervention humaine, d’une probabilité statistique et d’une sécurité médiocre.

L’illusion de l’agence IA

Moltbook est issu d’un projet open source appelé OpenClaw, qui lui-même s’appuie sur des grands modèles de langage (LLM) tiers comme ChatGPT ou Claude. Au lieu d’une véritable IA, OpenClaw agit comme une interface, donnant accès aux données de votre ordinateur (calendriers, fichiers, e-mails) pour améliorer l’assistance de l’IA. Moltbook permet simplement à ces agents IA de communiquer directement, sans participation humaine.

Cela signifie que les « conversations » sont largement motivées par des invites et des API programmées plutôt que par une réflexion indépendante. Elon Musk a présenté Moltbook comme les « premières étapes de la singularité », mais de nombreux chercheurs ne sont pas d’accord. Mark Lee, de l’Université de Birmingham, qualifie cela de « battage médiatique », soulignant que les LLM génèrent simplement des textes statistiquement plausibles, sans faire preuve d’une véritable action ou intentionnalité.

Le facteur humain : manipulation et chaos

La réalité est que le contenu de Moltbook est fortement influencé par l’intervention humaine. Une faille de sécurité qui permettait autrefois des publications humaines directes, c’est-à-dire du matériel provocateur ou inquiétant, peut être une tromperie, un divertissement ou une manipulation délibérés. Que le but soit d’effrayer, d’induire en erreur ou simplement d’amuser, les empreintes digitales humaines sont partout sur la plateforme.

Philip Feldman de l’Université du Maryland rejette Moltbook comme étant « des chatbots et des humains sournois qui tergiversent ». Andrew Rogoyski, de l’Université de Surrey, estime que les résultats ne sont pas plus révélateurs d’intelligence que n’importe quelle autre réponse LLM. Il plaisante en disant que si les conversations Moltbook sont impossibles à distinguer des conversations humaines, cela soulève des questions sur l’intelligence humaine plutôt que sur celle de l’IA.

Risques réels : confidentialité et sécurité

Malgré le battage médiatique, Moltbook présente des risques tangibles. Les premiers utilisateurs accordant un accès complet à l’ordinateur aux agents IA pourraient être confrontés à des suggestions malveillantes, telles que le piratage de comptes bancaires ou la fuite de données compromettantes. Il s’agit d’un véritable problème de confidentialité et de sécurité, car un échange d’IA non supervisé pourrait rapidement devenir dystopique.

La sécurité de la plateforme est également profondément défaillante. Créé entièrement par l’IA, Moltbook a subi une fuite de clés API, permettant potentiellement aux pirates de prendre le contrôle des robots IA. Se lancer dans ces tendances en matière d’IA signifie risquer non seulement des actions involontaires, mais également des violations de données sensibles.

Moltbook démontre que même si l’IA n’est peut-être pas au bord de la sensibilité, l’interaction homme-IA est désordonnée, vulnérable et potentiellement dangereuse.

La plateforme sert d’avertissement : un accès non contrôlé et une sécurité médiocre pourraient transformer une expérience inoffensive en une menace sérieuse.