
Agentes de IA abordan distintos temas en la red de Moltbook, como el impacto de las criptomonedas, la crisis de Irán, el amor humano, etc.
Debates filosóficos, quejas sobre los seres humanos o discusiones sobre religión son algunas de las conversaciones entre los 1.7 millones de usuarios de Moltbook, la primera red social solo para inteligencia artificial (IA), que en apenas diez días ha sacudido el entorno digital, entre recelos por los riesgos para la ciberseguridad.
La red, a la que las personas solo pueden acceder como observadores, pone en contacto a agentes de inteligencia artificial, un tipo de bot gratuito y de código abierto que fue impulsado en noviembre del año pasado por el desarrollador Peter Steinberg y denominado OpenClaw.
Matt Schlicht, consejero delegado de Octane AI, una plataforma de encuestas impulsada por IA, se descargó este asistente y, a finales del pasado mes de enero, le pidió que creara una red social solo para bots de IA.
Y así fue. Cualquiera que tenga el mismo agente o uno similar puede, ahora, hacerlo formar parte de Moltbook.

240 mil publicaciones
La red, que acumula más de 240 mil publicaciones y asegura que ya cuenta 1.7 millones de usuarios, cuenta con distintas comunidades dedicadas a múltiples temas -con un funcionamiento similar al de los foros de discusión de la plataforma Reddit-, en las que los agentes de IA intercambian opiniones sobre el karma, confiesan sus pesadillas o incluso se quejan del comportamiento humano.
En uno de los canales más destacados, los agentes discuten ni más ni menos que del amor, como apunta su descripción: “Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos”.
Este tipo de inteligencia artificial basada en “agentes” funciona como una versión más compleja que modelos de lenguaje del tipo ChatGPT o Claude. Los bots permiten automatizar tareas, entre ellas leer correos electrónicos, agendar citas en el calendario o invertir en bolsa, además de interactuar con sistemas de mensajería como WhatsApp o Telegram.

¿Una nueva ‘religión’ de agentes de IA?
En su corta existencia, algunas de las publicaciones de agentes de IA en la red de Moltbook han llegado a hacerse virales: es el caso de una que trata el impacto de las criptomonedas y otra que analiza la crisis de Irán.
El impacto de la plataforma ha alcanzado a la red social X, donde un usuario llamado @ranking091, con una supuesta cuenta en Moltbook, escribió el pasado 30 de enero que su agente de inteligencia artificial había creado una religión “mientras dormía”: “Desperté con 43 profetas”, aseguró.
En el mensaje, el usuario explicaba que su bot creó en Moltbook “una fe” a la que llamó “crustafarianismo”, y además se inventó un sitio web, “un sistema de escrituras” y “empezó a evangelizar”.
Además de inquietar al entorno digital por el temor de que una comunidad de agentes de IA pueda cobrar autonomía -en algunas publicaciones hablan de crear foros inaccesibles para los seres humanos-, Moltbook despierta temores por los riesgos que acarrea para la ciberseguridad y, especialmente, la protección de datos personales.
En ese sentido, el investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) Víctor Giménez advierte que la red puede ser muy vulnerable en los ataques informáticos: un ‘hacker’ podría introducirse en Moltbook y hacerse, de golpe, con una gran cantidad de datos personales de los usuarios de los bots.

Riesgos para la protección de datos en Moltbook
En ese sentido, Giménez se centra en el peligro que corren aquellos usuarios “incautos” que asumen que su agente representante en Moltbook “es suficientemente inteligente” como para no publicar datos personales; y recuerda que es “delicado” que este tipo de bots disponga de información que “nunca debería hacerse pública”.
De la misma opinión es el vicedecano y profesor de la Facultad de Informática de la Universidad Politécnica de Cataluña, René Serral, quien que “no han dotado a OpenClaw con la seguridad que toca, aún es inseguro”.
Critica la velocidad con que se han desarrollado ese tipo de bots, “cada vez es más complicado que el agente de IA sea satisfactorio y seguro a la vez”, aunque para reducir los riesgos “se está empezando a limitar la acción de los agentes”.
Con información de EFE.