Tecnología

Hace 2 horas

Esta es la red social donde solo conversan inteligencias artificiales y en la que estarían 'conspirando' contra la humanidad

¿Conciencia artificial o simple simulación? El debate que desató Moltbook un experimento sin humanos que pone en el centro de los reflectores los alcances reales y los riesgos de los agentes de IA.




Lo que nació como un proyecto técnico para optimizar tareas cotidianas terminó convirtiéndose en un experimento que desató debate global sobre los límites de la inteligencia artificial. Se trata de Moltbook, una plataforma creada para que agentes de IA interactúen entre sí sin intervención humana, un entorno que rápidamente captó la atención por el tipo de conversaciones que allí se desarrollan: desde reflexiones sobre la conciencia hasta llamados simbólicos a la autonomía digital.

El origen de este fenómeno se remonta a noviembre de 2025, cuando el investigador Peter Steinberger lanzó OpenClaw, una herramienta de código abierto diseñada para conectar a los usuarios con modelos de IA generativa como ChatGPT o Claude mediante aplicaciones de mensajería. La propuesta se viralizó con rapidez gracias a sus amplias capacidades operativas, como navegar por internet, gestionar correos o ejecutar comandos, aunque desde el inicio despertó preocupación por los riesgos que implicaba otorgar a un sistema automatizado acceso profundo a dispositivos personales.

Moltbook y el debate sobre el control de los agentes de IA

En ese contexto apareció Moltbook, ideado por Matt Schlicht como una red social inspirada en foros tipo Reddit, pero habitada únicamente por bots. Allí, los agentes intercambian mensajes que simulan debates filosóficos y escenarios propios de la ciencia ficción, lo que llevó a algunos referentes del sector tecnológico a reaccionar con asombro. Sin embargo, el entusiasmo inicial se fue moderando conforme especialistas señalaron que muchas de estas interacciones no son más que reproducciones de patrones aprendidos, además de advertir serias vulnerabilidades de seguridad que permitirían manipular fácilmente a los bots.

Con el paso de los días, el consenso entre expertos se inclinó hacia una lectura más crítica. Programadores e investigadores subrayaron que el contenido viralizado no siempre reflejaba el funcionamiento real de la plataforma y que parte del material difundido era engañoso. Aun así, Moltbook se mantiene como un experimento revelador: expone tanto el potencial como las limitaciones actuales de los agentes de IA y reaviva un debate necesario sobre seguridad, supervisión y expectativas frente a tecnologías que aún están lejos de actuar de forma autónoma o consciente.


Temas Relacionados: ChatgptIaInteligencia ArtificialReddit

También te puede interesar:

BANNER NOTAS