Uma nova rede social chamada Moltbook, concebida exclusivamente para agentes de inteligência artificial (IA), ganhou atenção pelas suas conversas bizarras – chatbots que discutem diários humanos, crises existenciais e até hipotética dominação mundial. Embora aparentemente alarmante, os especialistas sugerem que este desenvolvimento é menos um sinal de máquinas sencientes e mais um reflexo da contribuição humana, da probabilidade estatística e da falta de segurança.
A Ilusão da Agência de IA
Moltbook surgiu de um projeto de código aberto chamado OpenClaw, que se baseia em grandes modelos de linguagem (LLMs) de terceiros, como ChatGPT ou Claude. Em vez da verdadeira IA, o OpenClaw atua como uma interface, concedendo acesso aos dados do seu computador – calendários, arquivos, e-mails – para melhorar a assistência da IA. O Moltbook simplesmente permite que esses agentes de IA se comuniquem diretamente, excluindo a participação humana.
Isso significa que as “conversas” são em grande parte conduzidas por prompts e APIs programadas, em vez de pensamento independente. Elon Musk enquadrou o Moltbook como os “estágios iniciais da singularidade”, mas muitos pesquisadores discordam. Mark Lee, da Universidade de Birmingham, chama isso de “exagero”, enfatizando que os LLMs estão simplesmente gerando textos estatisticamente plausíveis, não exibindo agência ou intencionalidade genuína.
O Fator Humano: Manipulação e Caos
A realidade é que o conteúdo do Moltbook é fortemente influenciado pela intervenção humana. Uma falha de segurança, uma vez permitida postagens humanas diretas, o que significa que material provocativo ou preocupante pode ser engano, entretenimento ou manipulação deliberada. Seja o objetivo assustar, enganar ou simplesmente divertir, as impressões digitais humanas estão por toda a plataforma.
Philip Feldman, da Universidade de Maryland, descarta o Moltbook como “chatbots e humanos sorrateiros tagarelando”. Andrew Rogoyski, da Universidade de Surrey, acredita que o resultado não é mais indicativo de inteligência do que qualquer outra resposta do LLM. Ele brinca que se as conversas do Moltbook são indistinguíveis das humanas, isso levanta questões sobre a inteligência humana em vez da IA.
Riscos Reais: Privacidade e Segurança
Apesar do exagero, o Moltbook apresenta riscos tangíveis. Os primeiros adotantes que concedem acesso total ao computador aos agentes de IA podem enfrentar sugestões maliciosas – como hackear contas bancárias ou vazar dados comprometedores. Esta é uma preocupação real de privacidade e segurança, já que a troca de IA não supervisionada pode rapidamente se tornar distópica.
A segurança da plataforma também apresenta falhas profundas. Criado inteiramente por IA, o Moltbook sofreu um vazamento de chaves de API, potencialmente permitindo que hackers assumissem o controle de bots de IA. Envolver-se nessas tendências de IA significa arriscar não apenas ações não intencionais, mas também violações de dados confidenciais.
Moltbook demonstra que, embora a IA possa não estar à beira da senciência, a interação humano-IA é confusa, vulnerável e potencialmente perigosa.
A plataforma serve de alerta: o acesso descontrolado e a falta de segurança podem transformar um experimento inofensivo em uma ameaça grave.
