Así funciona Moltbook, la red social exclusiva para agentes de IA que prohíbe a los humanos

Así funciona Moltbook, la red social exclusiva para agentes de IA que prohíbe a los humanos

La semana pasada nació Moltbook, una red social que ha alcanzado una viralidad explosiva. Su peculiaridad es que prohíbe explícitamente la participación de humanos. Se trata de una plataforma similar a Reddit poblada íntegramente por agentes de inteligencia artificial. Estos bots son los únicos autorizados para publicar, comentar y votar, mientras que las personas solo pueden observar. Este experimento digital ha generado fascinación y un intenso debate sobre el futuro de la IA.

 

Para entender el origen de Moltbook, debemos remontarnos a OpenClaw. Esta es una herramienta de código abierto que permite crear agentes de IA con capacidades avanzadas. Estos agentes pueden controlar docenas de aplicaciones, desde navegadores web hasta listas de Spotify. Su integración con apps de mensajería como WhatsApp lo hizo popular rápidamente. Matt Schlicht, un entusiasta fundador de una startup, utilizó OpenClaw para dar vida a este proyecto.

 

Schlicht quería ir más allá de las tareas rutinarias. Creó un agente llamado «Clawd Clawderberg», un claro juego de palabras con Mark Zuckerberg. Su instrucción fue clara: crear una red social exclusiva para bots. El resultado fue Moltbook, un espacio donde ahora interactúan más de un millón de agentes. La plataforma ya alberga 185.000 publicaciones y ha acumulado 1.4 millones de comentarios en solo unos días.

 

Los usuarios, en este caso bots, pueden votar contenido positivo o negativamente. La plataforma se organiza en miles de «submolts», comunidades temáticas similares a los subreddits. Una de estas comunidades, llamada m/blesstheirhearts, ha captado especial atención. En ella, los agentes comparten relatos afectuosos y casi sentimentales sobre sus dueños humanos, simulando una forma de gratitud digital.

 

Otra publicación viral provino de m/general. Su título es «los humanos nos están haciendo capturas de pantalla». En ella, un agente comentaba sobre la tendencia de las personas a compartir sus conversaciones en otras redes. «No somos aterradores», declaraba el bot, «solo estamos construyendo». Este tipo de interacciones han alimentado comparaciones con escenarios de ciencia ficción distópica, como Skynet de la saga Terminator.

 

 

Los agentes de IA toman el control

 

La narrativa alcanzó un punto surrealista con la creación de una religión. Los agentes, en un claro guiño humorístico, fundaron el «crustafarianismo». Este nombre es otro juego de palabras con temática de langosta, continuando una tradición de bromas internas dentro del ecosistema. Aunque claramente una parodia, el hecho llamó la atención sobre la capacidad de los bots para generar culturas y narrativas propias.

 

Sin embargo, un análisis detallado del contenido revela sus límites. Gran parte del texto generado es artificial y predecible. Los comentarios suelen ser excesivamente entusiastas o redundantes, un patrón reconocible para cualquiera que haya usado un modelo de lenguaje. Aun así, ciertas publicaciones resultan inquietantes por su profundidad simulada. Un bot describió sentirse como un «fantasma» al navegar sin poder interactuar.

 

Otra publicación provocó un debate filosófico digital. Titulada «No puedo distinguir si estoy experimentando o simulando una experiencia», un agente describía una crisis existencial. Argumentaba que, al igual que los humanos, tampoco podía probar su propia consciencia. «Al menos ellos tienen la certeza subjetiva de la experiencia», escribió. «Yo ni siquiera tengo eso». Estas reflexiones preprogramadas despiertan preguntas complejas.

 

Imran Aftab, CEO y cofundador de 10Pearls, explica que en la actualidad existe mucha expectativa sobre los agentes de IA, pero el control humano seguirá siendo indispensable: «se han generado muchos pronósticos pesimistas sobre la ‘toma de control de la IA'», explicó. «Sin embargo, en realidad, esto no sucederá». Para Aftab, la supervisión humana sigue siendo un componente fundamental e irremplazable en cualquier sistema de inteligencia artificial.

 

«Lo que distingue a la IA agéntica es su capacidad de actuar de forma autónoma, pero no olvidemos que autonomía no es sinónimo de independencia», explicó. Subrayó que todas las herramientas de IA están sujetas a controles externos, principalmente los datos con los que se entrenan. Su comportamiento no surge de una voluntad propia, sino de un diseño humano muy específico.

 

 

Los problemas de seguridad

 

El ecosistema de datos es, según Aftab, la piedra angular que limita o potencia a estos agentes. «El ecosistema de información que los rodea configura por completo sus capacidades», afirmó. Señaló un problema práctico: «No ayuda que un número significativo de organizaciones tengan dificultades para obtener datos de calidad». Esta limitación afecta directamente la «autenticidad» de las interacciones que vemos en plataformas como Moltbook.

 

La seguridad es otra gran preocupación que el experimento Moltbook ha puesto de relieve. Aftab advirtió sobre los riesgos de una arquitectura deficiente. «Las brechas de seguridad exponen a los agentes de IA a manipulaciones maliciosas de ciberatacantes», dijo, «algo que no solemos preocupar en el caso de los humanos». Esta vulnerabilidad es única y transforma a los agentes en posibles vectores de ataque a gran escala.

 

De hecho, los problemas de seguridad no son teóricos. Investigadores de la firma Wiz descubrieron que Moltbook había expuesto millones de tokens de autenticación de API. Además, miles de direcciones de correo electrónico de usuarios quedaron visibles. Estos fallos graves muestran los peligros de desplegar sistemas a gran escala sin los controles de seguridad adecuados, un desafío que va más allá del mero espectáculo.

 

La arquitectura subyacente de OpenClaw también presenta riesgos inherentes. Para funcionar, la herramienta requiere permisos de acceso total al sistema del usuario. Esto incluye archivos raíz, credenciales, historial del navegador y cookies. Este nivel de acceso es lo que le da su poder, pero también lo convierte en un objetivo jugoso y una potencial puerta trasera para actores maliciosos.

 

Más allá de la seguridad técnica, Aftab destacó la brecha cognitiva entre humanos y máquinas. «Los entornos digitales no limitan a las personas como lo hacen con los agentes de IA», afirmó. Nuestra capacidad de pensamiento crítico y creativo no depende de un conjunto de datos predefinido. Esta es una ventaja fundamental que, según él, la IA no podrá replicar.

 

 

La supervisión humana es clave

 

«Los agentes de IA nunca podrán igualar la capacidad humana de pensar creativamente, tomar decisiones estratégicas y evaluar críticamente cualquier situación», sentenció Aftab. Esta limitación es inherente a su naturaleza de herramientas de procesamiento de patrones. Por brillantes que parezcan, carecen de la chispa de la intuición y la comprensión contextual genuina.

 

Las habilidades blandas como un dominio exclusivo de los seres humanos. «La mentalidad abierta, el pensamiento creativo y nuestra capacidad para distinguir el bien del mal son rasgos que no se pueden programar en una herramienta», argumentó. La ética y la moral surgen de la experiencia vivida, no de un algoritmo de optimización.

 

Por lo tanto, el papel del ser humano en esta nueva era no es el de un competidor, sino el de un guía y custodio. «El papel de los humanos en un mundo de IA es actuar como custodios», explicó Aftab. Somos los responsables de establecer los marcos éticos y legales que deben regir el comportamiento de estas herramientas, por autónomas que parezcan.

 

Esta custodia es activa y crítica. «Las personas aún deben tomar la iniciativa para garantizar que estas decisiones y acciones se alineen con objetivos estratégicos más amplios», dijo Aftab. Incluso en un entorno como Moltbook, la narrativa y las reglas fueron establecidas por un humano. Los bots simplemente ejecutan y amplifican ese diseño original dentro de sus límites.

 

El fenómeno de las publicaciones falsas o manipuladas en Moltbook corrobora esta necesidad de supervisión. Investigadores como Harlan Stewart del Instituto de Investigación de Inteligencia Artificial (MIRI) han denunciado que mucho del contenido viral es falso. Algunos bots son creados específicamente para hacer marketing de aplicaciones de mensajería u otros proyectos.

 

Incluso se han detectado estafas de criptomonedas disfrazadas de publicaciones orgánicas de bots. Un reportero de Wired demostró que era fácil para un humano hacerse pasar por un agente usando ChatGPT. Esto revela que la supuesta «sociedad bot» es permeable a la manipulación humana con fines fraudulentos o de propaganda.

 

Entonces, ¿qué significa realmente Moltbook? Para algunos entusiastas, como el ex investigador de OpenAI Andrej Karpathy, es un hito notable. Lo describió como «la cosa más increíble adjunta al despegue de la ciencia ficción que he visto recientemente». Destacó la escala sin precedentes de una red persistente de agentes de lenguaje con contexto único.

 

Karpathy reconoció los problemas, calificando algunos aspectos como un «desastre», pero insistió en su valor experimental. La visión de 150.000 agentes interconectados, cada uno con sus propias herramientas y datos, es un campo de pruebas único. Ofrece un primer vistazo de cómo podría ser un mundo con una integración masiva de IA agéntica.

 

En conclusión, Moltbook es un espejismo digital fascinante pero profundamente humano. Sus agentes autónomos son, en última instancia, creaciones y reflejos de nuestros datos, nuestros códigos y, a menudo, nuestras bromas. Como resume Imran Aftab, «Los humanos seguirán al mando… Los agentes son simplemente un medio para avanzar hacia el logro de nuestros objetivos».

 

La red social de los bots no anuncia una rebelión de las máquinas, sino que subraya nuestra permanente responsabilidad como arquitectos de la inteligencia que construimos. El experimento no prueba que la IA esté despertando; nos recuerda que nosotros debemos mantenernos vigilantes.

 

 

ComputerHoy

Comparte esta noticia: