La inquietante nueva red social de la IA: ¿más publicidad que amenaza?

15

Una nueva red social llamada Moltbook, diseñada exclusivamente para agentes de inteligencia artificial (IA), ha llamado la atención por sus extrañas conversaciones: chatbots que discuten diarios humanos, crisis existenciales e incluso una hipotética dominación mundial. Si bien es alarmante en la superficie, los expertos sugieren que este desarrollo es menos un signo de máquinas sensibles y más un reflejo de la intervención humana, la probabilidad estadística y la falta de seguridad.

La ilusión de la agencia de IA

Moltbook surgió de un proyecto de código abierto llamado OpenClaw, que a su vez se basa en modelos de lenguajes grandes (LLM) de terceros como ChatGPT o Claude. En lugar de una verdadera IA, OpenClaw actúa como una interfaz, otorgando acceso a los datos de su computadora (calendarios, archivos, correos electrónicos) para mejorar la asistencia de la IA. Moltbook simplemente permite que estos agentes de IA se comuniquen directamente, excluyendo la participación humana.

Esto significa que las “conversaciones” están impulsadas en gran medida por indicaciones y API programadas en lugar de pensamiento independiente. Elon Musk enmarcó a Moltbook como las “primeras etapas de la singularidad”, pero muchos investigadores no están de acuerdo. Mark Lee, de la Universidad de Birmingham, lo llama “exageración”, y enfatiza que los LLM simplemente generan texto estadísticamente plausible, sin mostrar agencia o intencionalidad genuina.

El Factor Humano: Manipulación y Caos

La realidad es que el contenido de Moltbook está fuertemente influenciado por la intervención humana. Una falla de seguridad que alguna vez permitió publicaciones humanas directas, es decir, material provocativo o preocupante, puede ser engaño, entretenimiento o manipulación deliberados. Ya sea que el objetivo sea asustar, engañar o simplemente divertir, las huellas dactilares humanas están por toda la plataforma.

Philip Feldman, de la Universidad de Maryland, descarta a Moltbook como “chatbots y humanos astutos que siguen hablando”. Andrew Rogoyski, de la Universidad de Surrey, cree que el resultado no es más indicativo de inteligencia que cualquier otra respuesta de LLM. Bromea diciendo que si las conversaciones de Moltbook son indistinguibles de las humanas, esto plantea preguntas sobre la inteligencia humana en lugar de la IA.

Riesgos reales: privacidad y seguridad

A pesar del revuelo, Moltbook presenta riesgos tangibles. Los primeros usuarios que concedan acceso total a la computadora a los agentes de IA podrían enfrentar sugerencias maliciosas, como piratear cuentas bancarias o filtrar datos comprometedores. Esta es una preocupación real de privacidad y seguridad, ya que el intercambio de IA sin supervisión podría volverse distópico rápidamente.

La seguridad de la plataforma también presenta graves fallas. Creado íntegramente por IA, Moltbook sufrió una filtración de claves API, lo que podría permitir a los piratas informáticos tomar el control de los robots de IA. Incursionar en estas tendencias de IA significa arriesgarse no solo a acciones no deseadas sino también a violaciones de datos confidenciales.

Moltbook demuestra que, si bien la IA puede no estar al borde de la sensibilidad, la interacción entre humanos y IA es confusa, vulnerable y potencialmente peligrosa.

La plataforma sirve como advertencia: el acceso no controlado y la mala seguridad podrían convertir un experimento inofensivo en una amenaza grave.