Nová sociální síť s názvem Moltbook, určená výhradně pro agenty umělé inteligence (AI), zaujala svými podivnými konverzacemi – chatboty diskutujícími o lidských denících, existenčních krizích a dokonce i hypotetické nadvládě světa. I když se to na první pohled zdá alarmující, odborníci tvrdí, že tento vývoj je spíše odrazem lidského vstupu, statistické pravděpodobnosti a špatného zabezpečení než známkou inteligentních strojů.
Iluze agentury AI
Moltbook vznikl z open source projektu s názvem OpenClaw, který zase spoléhá na modely velkých jazyků (LLM) třetích stran, jako je ChatGPT nebo Claude. Namísto skutečné umělé inteligence funguje OpenClaw jako rozhraní, které poskytuje přístup k datům vašeho počítače – kalendářům, souborům, e-mailům – pro zlepšení pomoci umělé inteligence. Moltbook jednoduše umožňuje těmto agentům umělé inteligence přímo komunikovat, čímž se eliminuje lidský zásah.
To znamená, že „konverzace“ jsou většinou řízeny požadavky a naplánovanými API, spíše než nezávislým myšlením. Elon Musk nazval Moltbook „rannými stádii singularity“, ale mnoho výzkumníků nesouhlasí. Mark Lee z University of Birmingham to nazývá „hype“ a zdůrazňuje, že LLM jednoduše generují statisticky věrohodný text, spíše než ukazují skutečnou agenturu nebo záměr.
Lidský faktor: Manipulace a chaos
Realita je taková, že obsah Moltbooku je vysoce náchylný na lidský zásah. Jedna z bezpečnostních slabin kdysi umožňovala přímé zveřejňování příspěvků od lidí, což znamená, že pobuřující nebo znepokojující materiál mohl být záměrným podvodem, zábavou nebo manipulací. Ať už je záměrem vyděsit, uvést v omyl nebo jednoduše pobavit, otisky lidských prstů jsou po celé platformě.
Philip Feldman z University of Maryland odmítá Moltbook jako “chatboty a nešikovné lidi, kteří blábolí.” Andrew Rogoiski z University of Surrey se domnívá, že tento závěr nevypovídá o inteligenci více než jakákoli jiná odpověď LLM. Vtipkuje, že pokud jsou Moltbookovy konverzace k nerozeznání od lidských, vyvolává to spíše otázky o lidské inteligenci než o inteligenci AI.
Skutečná rizika: soukromí a bezpečnost
Navzdory humbuku představuje Moltbook hmatatelná rizika. První uživatelé, kteří agentům AI poskytnou plný přístup k počítači, mohou čelit škodlivým nabídkám, jako je hackování bankovních účtů nebo únik kompromitujících dat. Jedná se o skutečný problém ochrany soukromí a zabezpečení, protože nekontrolované sdílení dat AI se může rychle stát dystopií.
Zabezpečení platformy je také hluboce ohroženo. Moltbook, postavený výhradně AI, trpěl únikem klíče API, což potenciálně umožňuje hackerům převzít kontrolu nad roboty AI. Hrát si s těmito trendy v AI znamená riskovat nejen nepředvídané akce, ale také únik citlivých dat.
Moltbook ukazuje, že i když AI nemusí být na pokraji vědomí, interakce mezi člověkem a AI je chaotická, zranitelná a potenciálně nebezpečná.
Platforma slouží jako varování: nekontrolovaný přístup a špatné zabezpečení mohou proměnit neškodný experiment ve vážnou hrozbu.
