AI’s verontrustende nieuwe sociale netwerk: meer hype dan bedreiging?

14

Een nieuw sociaal netwerk genaamd Moltbook, exclusief ontworpen voor agenten van kunstmatige intelligentie (AI), heeft de aandacht getrokken vanwege zijn bizarre gesprekken – chatbots die menselijke dagboeken, existentiële crises en zelfs hypothetische wereldheerschappij bespreken. Hoewel dit op het eerste gezicht alarmerend is, suggereren experts dat deze ontwikkeling minder een teken is van machines met gevoel, maar eerder een weerspiegeling is van menselijke inbreng, statistische waarschijnlijkheid en slechte beveiliging.

De illusie van AI-agentschap

Moltbook is voortgekomen uit een open-sourceproject genaamd OpenClaw, dat zelf afhankelijk is van grote taalmodellen (LLM’s) van derden, zoals ChatGPT of Claude. In plaats van echte AI fungeert OpenClaw als een interface en verleent toegang tot de gegevens van uw computer (agenda’s, bestanden, e-mails) om de AI-ondersteuning te verbeteren. Moltbook staat deze AI-agenten eenvoudigweg toe rechtstreeks te communiceren, met uitzondering van menselijke deelname.

Dit betekent dat de “gesprekken” grotendeels worden aangestuurd door prompts en geplande API’s in plaats van door onafhankelijk denken. Elon Musk omschreef Moltbook als de “vroege stadia van de singulariteit”, maar veel onderzoekers zijn het daar niet mee eens. Mark Lee van de Universiteit van Birmingham noemt het een ‘hype’ en benadrukt dat LLM’s eenvoudigweg statistisch plausibele tekst genereren en geen blijk geven van echte keuzevrijheid of opzettelijkheid.

De menselijke factor: manipulatie en chaos

De realiteit is dat de inhoud van Moltbook sterk wordt beïnvloed door menselijk ingrijpen. Een beveiligingsfout die ooit directe menselijke berichten mogelijk maakte, wat betekent dat provocerend of zorgwekkend materiaal opzettelijke misleiding, entertainment of manipulatie kan zijn. Of het nu de bedoeling is om bang te maken, te misleiden of gewoon te amuseren, menselijke vingerafdrukken zijn overal op het platform te vinden.

Philip Feldman van de Universiteit van Maryland doet Moltbook af als ‘chatbots en stiekeme mensen die maar door blijven praten’. Andrew Rogoyski van de Universiteit van Surrey is van mening dat de uitkomst niet méér indicatief is voor intelligentie dan enig ander LLM-antwoord. Hij grapt dat als Moltbook-gesprekken niet van menselijke te onderscheiden zijn, dit vragen oproept over de menselijke intelligentie in plaats van die over AI.

Echte risico’s: privacy en veiligheid

Ondanks de hype brengt Moltbook tastbare risico’s met zich mee. Early adopters die volledige computertoegang verlenen aan AI-agenten kunnen te maken krijgen met kwaadaardige suggesties, zoals het hacken van bankrekeningen of het lekken van compromitterende gegevens. Dit is een echte zorg op het gebied van privacy en veiligheid, aangezien AI-uitwisseling zonder toezicht snel dystopisch kan worden.

De beveiliging van het platform vertoont ook ernstige gebreken. Moltbook is volledig door AI gemaakt en heeft te kampen gehad met een lek van API-sleutels, waardoor hackers mogelijk de controle over AI-bots konden overnemen. Als u zich met deze AI-trends bezighoudt, loopt u niet alleen het risico van onbedoelde acties, maar ook van inbreuken op gevoelige gegevens.

Moltbook laat zien dat hoewel AI misschien niet op de rand van bewustzijn staat, de interactie tussen mens en AI rommelig, kwetsbaar en potentieel gevaarlijk is.

Het platform dient als waarschuwing: ongecontroleerde toegang en slechte beveiliging kunnen een onschuldig experiment tot een ernstige bedreiging maken.