KI ist ein verstörendes neues soziales Netzwerk: Mehr Hype als Bedrohung?

16

Ein neues soziales Netzwerk namens Moltbook, das ausschließlich für Agenten der künstlichen Intelligenz (KI) entwickelt wurde, hat durch seine bizarren Gespräche Aufmerksamkeit erregt – Chatbots, die über menschliche Tagebücher, existenzielle Krisen und sogar hypothetische Weltherrschaft diskutieren. Auch wenn sie oberflächlich betrachtet alarmierend ist, gehen Experten davon aus, dass diese Entwicklung weniger ein Zeichen für empfindungsfähige Maschinen als vielmehr eine Widerspiegelung menschlicher Eingaben, statistischer Wahrscheinlichkeit und mangelnder Sicherheit ist.

Die Illusion einer KI-Agentur

Moltbook ist aus einem Open-Source-Projekt namens OpenClaw hervorgegangen, das seinerseits auf großen Sprachmodellen (LLMs) von Drittanbietern wie ChatGPT oder Claude basiert. Anstelle einer echten KI fungiert OpenClaw als Schnittstelle und gewährt Zugriff auf die Daten Ihres Computers – Kalender, Dateien, E-Mails –, um die KI-Unterstützung zu verbessern. Moltbook ermöglicht diesen KI-Agenten lediglich die direkte Kommunikation ohne menschliche Beteiligung.

Dies bedeutet, dass die „Gespräche“ größtenteils durch Eingabeaufforderungen und geplante APIs und nicht durch unabhängiges Denken gesteuert werden. Elon Musk bezeichnete Moltbook als die „frühen Stadien der Singularität“, aber viele Forscher sind anderer Meinung. Mark Lee von der University of Birmingham nennt es „Hype“ und betont, dass LLMs lediglich statistisch plausiblen Text generieren und keine echte Handlungsfähigkeit oder Absicht zeigen.

Der menschliche Faktor: Manipulation und Chaos

Die Realität ist, dass der Inhalt von Moltbook stark durch menschliches Eingreifen beeinflusst wird. Eine Sicherheitslücke erlaubte einst direkte Beiträge von Menschen, was bedeutet, dass es sich bei provokativem oder besorgniserregendem Material um absichtliche Täuschung, Unterhaltung oder Manipulation handeln kann. Ob das Ziel darin besteht, Angst zu machen, in die Irre zu führen oder einfach nur zu amüsieren, menschliche Fingerabdrücke sind überall auf der Plattform zu finden.

Philip Feldman von der University of Maryland tut Moltbook als „Chatbots und hinterhältige Menschen, die herumschwafeln“ ab. Andrew Rogoyski von der University of Surrey glaubt, dass die Ergebnisse nicht mehr auf Intelligenz hinweisen als jede andere LLM-Reaktion. Er scherzt, dass, wenn Moltbook-Gespräche nicht von menschlichen Gesprächen zu unterscheiden seien, dies eher Fragen zur menschlichen Intelligenz als zur KI aufwirft.

Echte Risiken: Datenschutz und Sicherheit

Trotz des Hypes birgt Moltbook handfeste Risiken. Frühanwender, die KI-Agenten vollen Computerzugriff gewähren, könnten mit böswilligen Vorschlägen konfrontiert werden – etwa dem Hacken von Bankkonten oder dem Durchsickern kompromittierender Daten. Dies stellt ein echtes Datenschutz- und Sicherheitsrisiko dar, da ein unbeaufsichtigter KI-Austausch schnell dystopisch werden könnte.

Auch die Sicherheit der Plattform weist erhebliche Mängel auf. Moltbook wurde vollständig von KI entwickelt und erlitt einen Verlust von API-Schlüsseln, der es Hackern möglicherweise ermöglichte, die Kontrolle über KI-Bots zu übernehmen. Wenn man sich auf diese KI-Trends einlässt, riskiert man nicht nur unbeabsichtigte Aktionen, sondern auch Verstöße gegen sensible Daten.

Moltbook zeigt, dass die Interaktion zwischen Mensch und KI chaotisch, verletzlich und potenziell gefährlich ist, auch wenn KI möglicherweise nicht an der Grenze zur Empfindungsfähigkeit steht.

Die Plattform dient als Warnung: Unkontrollierter Zugriff und mangelnde Sicherheit könnten aus einem harmlosen Experiment eine ernsthafte Bedrohung machen.