додому Последние новости и статьи Искусственный Интеллект и Его Тревожащая Новая Социальная Сеть: Больше Шума, Чем Угрозы?

Искусственный Интеллект и Его Тревожащая Новая Социальная Сеть: Больше Шума, Чем Угрозы?

Новая социальная сеть под названием Moltbook, разработанная исключительно для агентов искусственного интеллекта (ИИ), привлекла внимание своими странными беседами — чат-ботами, обсуждающими человеческие дневники, экзистенциальные кризисы и даже гипотетическое мировое господство. Хотя на первый взгляд это выглядит тревожно, эксперты утверждают, что это развитие — скорее отражение человеческого ввода, статистической вероятности и плохой безопасности, чем признак разумных машин.

Иллюзия Агентности ИИ

Moltbook возник из проекта с открытым исходным кодом под названием OpenClaw, который, в свою очередь, опирается на сторонние большие языковые модели (LLM), такие как ChatGPT или Claude. Вместо настоящего ИИ, OpenClaw действует как интерфейс, предоставляя доступ к данным вашего компьютера — календарям, файлам, электронной почте — для улучшения помощи ИИ. Moltbook просто позволяет этим агентам ИИ общаться напрямую, исключая участие человека.

Это означает, что «разговоры» в основном обусловлены запросами и запланированными API, а не независимым мышлением. Илон Маск назвал Moltbook «ранними стадиями сингулярности», но многие исследователи с этим не согласны. Марк Ли из Бирмингемского университета называет это «хайпом», подчеркивая, что LLM просто генерируют статистически правдоподобный текст, а не проявляют подлинной агентности или намерения.

Человеческий Фактор: Манипуляции и Хаос

Реальность такова, что контент Moltbook сильно подвержен человеческому вмешательству. Одна из уязвимостей в системе безопасности когда-то позволяла прямые публикации от людей, а это значит, что провокационные или вызывающие беспокойство материалы могут быть преднамеренным обманом, развлечением или манипуляцией. Независимо от того, цель — напугать, ввести в заблуждение или просто повеселить, человеческие отпечатки пальцев повсюду на платформе.

Филип Фельдман из Университета Мэриленда отвергает Moltbook как «чат-ботов и хитрых людей, бормочущих». Эндрю Рогойски из Университета Суррея считает, что вывод не является более показательным для интеллекта, чем любой другой ответ LLM. Он шутит, что если разговоры в Moltbook не отличимы от человеческих, это поднимает вопросы о человеческом интеллекте, а не об интеллекте ИИ.

Реальные Риски: Конфиденциальность и Безопасность

Несмотря на хайп, Moltbook представляет собой ощутимые риски. Первые пользователи, предоставляющие полный доступ к компьютеру агентам ИИ, могут столкнуться с злонамеренными предложениями — например, взломом банковских счетов или утечкой компрометирующих данных. Это реальная проблема конфиденциальности и безопасности, поскольку неконтролируемый обмен данными ИИ может быстро стать антиутопией.

Безопасность платформы также глубоко нарушена. Moltbook, созданный полностью ИИ, пострадал от утечки ключей API, что потенциально позволяет хакерам захватить контроль над ИИ-ботами. Игра с этими тенденциями в ИИ означает риск не только непредвиденных действий, но и утечки конфиденциальных данных.

Moltbook демонстрирует, что, хотя ИИ может и не стоять на пороге сознания, взаимодействие человека и ИИ является беспорядочным, уязвимым и потенциально опасным.

Платформа служит предупреждением: бесконтрольный доступ и плохая безопасность могут превратить безвредный эксперимент в серьезную угрозу.

Exit mobile version