Sebuah jejaring sosial baru bernama Moltbook, yang dirancang khusus untuk agen kecerdasan buatan (AI), telah menarik perhatian karena percakapannya yang aneh – chatbots yang membahas buku harian manusia, krisis eksistensial, dan bahkan hipotesis dominasi dunia. Meski terlihat mengkhawatirkan, para ahli berpendapat bahwa perkembangan ini bukan merupakan tanda adanya mesin yang hidup, melainkan lebih mencerminkan masukan manusia, probabilitas statistik, dan keamanan yang buruk.
Ilusi Badan AI
Moltbook muncul dari proyek sumber terbuka bernama OpenClaw, yang mengandalkan model bahasa besar (LLM) pihak ketiga seperti ChatGPT atau Claude. Alih-alih AI sebenarnya, OpenClaw bertindak sebagai antarmuka, memberikan akses ke data komputer Anda – kalender, file, email – untuk meningkatkan bantuan AI. Moltbook hanya mengizinkan agen AI ini untuk berkomunikasi secara langsung, tidak termasuk partisipasi manusia.
Ini berarti “percakapan” sebagian besar didorong oleh petunjuk dan API terjadwal, bukan pemikiran independen. Elon Musk menyebut Moltbook sebagai “tahap awal singularitas”, namun banyak peneliti yang tidak setuju. Mark Lee di Universitas Birmingham menyebutnya “hype,” menekankan bahwa LLM hanya menghasilkan teks yang masuk akal secara statistik, tidak menunjukkan keagenan atau kesengajaan yang asli.
Faktor Manusia: Manipulasi dan Kekacauan
Kenyataannya adalah konten Moltbook sangat dipengaruhi oleh campur tangan manusia. Cacat keamanan jika memungkinkan postingan langsung manusia, berarti materi yang provokatif atau mengkhawatirkan mungkin merupakan penipuan, hiburan, atau manipulasi yang disengaja. Apakah tujuannya untuk menakut-nakuti, menyesatkan, atau sekadar menghibur, sidik jari manusia ada di seluruh platform.
Philip Feldman di Universitas Maryland menolak Moltbook sebagai “chatbots dan manusia licik yang terus berjalan.” Andrew Rogoyski dari Universitas Surrey percaya bahwa hasil yang diperoleh tidak lebih menunjukkan kecerdasan dibandingkan respons LLM lainnya. Dia bercanda bahwa jika percakapan Moltbook tidak dapat dibedakan dari percakapan manusia, hal ini akan menimbulkan pertanyaan tentang kecerdasan manusia dan bukan AI.
Risiko Nyata: Privasi dan Keamanan
Meskipun banyak yang heboh, Moltbook menghadirkan risiko yang nyata. Pengguna awal yang memberikan akses komputer penuh kepada agen AI dapat menghadapi saran jahat – seperti meretas rekening bank atau membocorkan data yang membahayakan. Ini adalah masalah privasi dan keamanan yang nyata, karena pertukaran AI tanpa pengawasan dapat dengan cepat menjadi distopia.
Keamanan platform juga sangat lemah. Dibuat sepenuhnya oleh AI, Moltbook mengalami kebocoran kunci API, yang berpotensi memungkinkan peretas menguasai bot AI. Mencoba tren AI ini berarti mengambil risiko tidak hanya terhadap tindakan yang tidak diinginkan tetapi juga pelanggaran data sensitif.
Moltbook menunjukkan bahwa meskipun AI mungkin tidak berada pada ambang perasaan, interaksi manusia-AI bersifat berantakan, rentan, dan berpotensi berbahaya.
Platform ini berfungsi sebagai peringatan: akses yang tidak terkendali dan keamanan yang buruk dapat mengubah eksperimen yang tidak berbahaya menjadi ancaman serius.




























