Sztuczna inteligencja i jej nowa, niepokojąca sieć społecznościowa: więcej hałasu niż zagrożenia?

12

Nowy portal społecznościowy o nazwie Moltbook, przeznaczony wyłącznie dla agentów sztucznej inteligencji (AI), przyciągnął uwagę dziwnymi rozmowami – chatbotami omawiającymi ludzkie pamiętniki, kryzysy egzystencjalne, a nawet hipotetyczną dominację nad światem. Choć na pierwszy rzut oka wydaje się to niepokojące, eksperci twierdzą, że rozwój ten jest bardziej odzwierciedleniem wkładu człowieka, statystycznego prawdopodobieństwa i słabego bezpieczeństwa niż oznaką inteligentnych maszyn.

Iluzja agencji AI

Moltbook wywodzi się z projektu open source o nazwie OpenClaw, który z kolei opiera się na dużych modelach językowych (LLM) innych firm, takich jak ChatGPT lub Claude. Zamiast prawdziwej sztucznej inteligencji, OpenClaw działa jako interfejs, zapewniający dostęp do danych komputera – kalendarzy, plików, poczty e-mail – w celu zwiększenia wsparcia AI. Moltbook po prostu pozwala tym agentom AI na bezpośrednią komunikację, eliminując interwencję człowieka.

Oznacza to, że „rozmowy” opierają się głównie na prośbach i zaplanowanych interfejsach API, a nie na niezależnym myśleniu. Elon Musk nazwał Moltbook „wczesnymi stadiami osobliwości”, ale wielu badaczy się z tym nie zgadza. Mark Lee z Uniwersytetu w Birmingham nazywa to „szumem” i podkreśla, że ​​LLM po prostu generują statystycznie wiarygodny tekst, a nie pokazują prawdziwą sprawczość lub intencje.

Czynnik ludzki: manipulacja i chaos

Rzeczywistość jest taka, że zawartość Moltbooka jest bardzo podatna na interwencję człowieka. Jedna z luk w zabezpieczeniach umożliwiała kiedyś bezpośrednie wysyłanie postów od ludzi, co oznaczało, że materiały podżegające lub niepokojące mogą być celowym oszustwem, rozrywką lub manipulacją. Bez względu na to, czy chodzi o przestraszenie, wprowadzenie w błąd, czy po prostu rozbawienie, na całej platformie znajdują się ludzkie odciski palców.

Philip Feldman z Uniwersytetu Maryland odrzuca Moltbooka jako „czatboty i bełkoczące podejrzane ludzie”. Andrew Rogoiski z Uniwersytetu w Surrey uważa, że ​​wniosek ten nie wskazuje bardziej na inteligencję niż jakakolwiek inna odpowiedź LLM. Żartuje, że jeśli rozmów Moltbooka nie da się odróżnić od rozmów ludzkich, rodzi to pytania o ludzką inteligencję, a nie o inteligencję sztucznej inteligencji.

Prawdziwe ryzyko: prywatność i bezpieczeństwo

Pomimo szumu Moltbook stwarza wymierne ryzyko. Pierwsi użytkownicy, którzy przyznają pełny dostęp do komputera agentom AI, mogą spotkać się ze złośliwymi ofertami, takimi jak włamanie na konta bankowe lub wyciek kompromitujących danych. To prawdziwy problem prywatności i bezpieczeństwa, ponieważ niekontrolowane udostępnianie danych AI może szybko stać się dystopią.

Bezpieczeństwo platformy jest również poważnie zagrożone. Moltbook, zbudowany w całości przez sztuczną inteligencję, ucierpiał z powodu wycieku klucza API, który potencjalnie pozwolił hakerom przejąć kontrolę nad botami AI. Badanie się tymi trendami w sztucznej inteligencji oznacza ryzyko nie tylko nieprzewidzianych działań, ale także wycieku wrażliwych danych.

Moltbook pokazuje, że chociaż sztuczna inteligencja może nie być jeszcze na granicy świadomości, interakcja człowiek-AI jest chaotyczna, bezbronna i potencjalnie niebezpieczna.

Platforma pełni funkcję ostrzegawczą: niekontrolowany dostęp i słabe bezpieczeństwo mogą zamienić nieszkodliwy eksperyment w poważne zagrożenie.