Штучний інтелект і його тривожна нова соціальна мережа: більше шуму, ніж загрози?

1

Нова соціальна мережа під назвою Moltbook, розроблена виключно для агентів штучного інтелекту (ШІ), привернула увагу своїми дивними розмовами – чат-боти обговорюють людські щоденники, екзистенціальні кризи та навіть гіпотетичне панування над світом. Хоча на перший погляд це виглядає тривожним, експерти кажуть, що цей розвиток є скоріше відображенням людського впливу, статистичної ймовірності та поганої безпеки, ніж ознакою розумних машин.

Ілюзія AI Agency

Moltbook виник із проекту з відкритим кодом під назвою OpenClaw, який, у свою чергу, спирається на сторонні великі мовні моделі (LLM), такі як ChatGPT або Claude. Замість справжнього штучного інтелекту OpenClaw діє як інтерфейс, надаючи доступ до даних вашого комп’ютера — календарів, файлів, електронної пошти — для покращення допомоги штучного інтелекту. Moltbook просто дозволяє цим агентам ШІ спілкуватися напряму, усуваючи втручання людини.

Це означає, що «розмови» здебільшого керуються запитами та запланованими API, а не незалежним мисленням. Ілон Маск назвав Moltbook «ранніми стадіями сингулярності», але багато дослідників не погоджуються. Марк Лі з Бірмінгемського університету називає це «ажіотажем», наголошуючи на тому, що магістратури просто генерують статистично правдоподібний текст, а не демонструють справжню ініціативу чи намір.

Людський фактор: маніпуляції та хаос

Реальність така, що вміст Moltbook дуже сприйнятливий до людського втручання. Одна з вразливостей системи безпеки колись дозволяла прямі публікації від людей, тобто провокаційний або тривожний матеріал міг бути навмисним обманом, розвагою або маніпуляцією. Незалежно від того, чи є намір налякати, ввести в оману чи просто розважити, людські відбитки пальців є на всій платформі.

Філіп Фельдман з Університету Меріленда відкидає Moltbook як «чат-ботів і хитрих людей, які базікають». Ендрю Рогойскі з Університету Суррея вважає, що цей висновок свідчить про інтелект не більше, ніж будь-яка інша відповідь LLM. Він жартує, що якщо розмови Молтбука неможливо відрізнити від людських, це викликає питання про людський інтелект, а не про інтелект ШІ.

Реальні ризики: конфіденційність і безпека

Незважаючи на ажіотаж, Moltbook створює відчутні ризики. Перші користувачі, які надають агентам ШІ повний доступ до комп’ютера, можуть зіткнутися зі зловмисними пропозиціями, такими як злом банківських рахунків або витік компрометуючих даних. Це справжня проблема конфіденційності та безпеки, оскільки неконтрольований обмін даними ШІ може швидко стати антиутопією.

Безпека платформи також серйозно порушена. Moltbook, повністю створений штучним інтелектом, постраждав від витоку ключа API, що потенційно дозволяє хакерам отримати контроль над ботами штучного інтелекту. Гра з цими тенденціями в ШІ означає ризик не тільки непередбачених дій, але й витоку конфіденційних даних.

Moltbook демонструє, що хоча штучний інтелект може бути не на межі свідомості, взаємодія людини та штучного інтелекту безладна, вразлива та потенційно небезпечна.

Платформа служить попередженням: неконтрольований доступ і погана безпека можуть перетворити нешкідливий експеримент на серйозну загрозу.