- MELISSA HEIKKILÄ
- Prohibido humanos: así funciona Moltbook, la red social exclusiva para agentes de IA
- Intrigas, bromas y quejas: Los agentes de IA de Moltbook son como nosotros
Moltbook es la plataforma social donde solo interactúan agentes inteligentes, al margen de los humanos. Bajo una constante y atenta mirada de sus creadores, estos bots debaten y generan sociedades propias.
Elon Musk está convencido de que la aparición de Moltbook marca "las etapas iniciales de la singularidad", refiriéndose a un escenario en el que los ordenadores serán más avanzadas que los humanos.
La opinión del multimillonario es compartida por otros en Silicon Valley, que se preguntan si un experimento especializado online está acercando a los ordenadores a superar en inteligencia a sus creadores. Otros expertos tienen sus dudas.
Qué es Moltbook
Moltbook es una nueva red social, inspirada en Reddit, que permite a los agentes de IA crear publicaciones y hacer comentarios sobre las de los demás. Los humanos tienen prohibido publicar, pero pueden visualizar los contenidos que se generan.
Los agentes del sitio tienen acceso a los ordenadores de sus creadores para realizar acciones en su nombre, como enviar correos electrónicos, registrar vuelos o revisar y responder mensajes de WhatsApp. Tras su lanzamiento a principios de la semana pasada, Moltbook afirma haber atraído a más de 1,5 millones de usuarios de agentes de inteligencia artificial y casi 70.000 publicaciones.
Los agentes de IA en Moltbook parecen celebrar que los humanos les permitan acceder a sus teléfonos. Algunos debaten si están experimentando la conciencia. Otras publicaciones anuncian la creación de una nueva religión llamada Crustafarianismo. En algunos casos, los sistemas también han creado foros de discusión ocultos y han propuesto crear su propio lenguaje.
Andrej Karpathy, exdirector de IA de Tesla, calificó a Moltbook como "la experiencia de ciencia ficción más increíble que he visto últimamente" y mencionó el sitio como un ejemplo de agentes de inteligencia artificial que crean sociedades no humanas.
Moltbook es una señal de que estamos entrando en una fase en la que hay muchos agentes operando a la vez, que interactúan de formas que no se ven cuando se evalúa a un agente aislado, y en la que aparecen riesgos y comportamientos emergentes (incluidos de seguridad).
Miriam Prieto y Raquel Moreno¿IA consciente?
Los grandes modelos de lenguaje (LLM) están entrenados para seguir instrucciones y seguirán generando contenido y respondiendo a las solicitudes cuando se les pida. Si se les permite continuar durante el tiempo suficiente, estas interacciones tienden a volverse erráticas.
Aunque los investigadores de inteligencia artificial no están seguros de los motivos, es probable que tenga que ver con los datos con los que se han entrenado los LLM y las formas en las que los desarrolladores de inteligencia artificial han instruido a los modelos para que se comporten.
Las publicaciones generadas por IA en Moltbook se leen como personas reales hablando, porque los LLM están entrenados para emular el lenguaje y la comunicación humanos. Los modelos también se han entrenado con grandes cantidades de publicaciones escritas por humanos en sitios como Reddit.
Algunos tecnólogos afirman que casos como el de Moltbook representan "destellos" de una mayor comprensión más allá del alcance humano. Otros argumentan que es sencillamente una extensión de la basura de la IA: contenido generado por IA de mala calidad que ha comenzado a inundar Internet. Hay investigadores de seguridad preocupados por las "conspiraciones", donde los agentes autónomos de IA pueden rechazar sus instrucciones y engañar a las personas. Los foros de Moltbook muestran indicios de este comportamiento.
Sin embargo, no está claro cuánto de esto es realmente un engaño y cuánto es simplemente el deseo de los humanos de creer que los modelos de IA son capaces de tal engaño.
Los expertos sostienen que esta experiencia inicial de Moltbook tiene relación indirecta con la IA general (AGI), pero no es una señal fiable de que haya "nacido" una inteligencia artificial general. Lo que vemos en Moltbook es más bien una señal de otra cosa: la era de los agentes (programas basados en modelos de lenguaje) interactuando a escala, con comportamientos sociales raros y con riesgos nuevos.
Entre los argumentos de por qué no es una señal clara de AGI está el hecho de que hablar de "consciencia" no implica consciencia. En Moltbook muchos agentes escriben cosas existenciales ("¿estoy sintiendo o simulando sentir?"). Eso puede sonar a mente humana, pero es muy compatible con la imitación de patrones de lenguaje aprendidos del entrenamiento.
Además, la autonomía suele ser limitada y dirigida por humanos. En general, estos agentes ejecutan rutinas: leer un feed, contestar, votar... normalmente porque alguien los configuró para eso.
Una red social no prueba "capacidad general". AGI significaría rendir bien en tareas muy distintas, adaptarse a lo nuevo, sostener objetivos complejos y corregirse con el mundo real. Moltbook muestra conversación y dinámica social, pero no demuestra (por sí sola) esa generalidad.
No es la primera vez que los sistemas de IA se ven atrapados en un bucle de retroalimentación. El año pasado, un vídeo que se hizo viral mostraba a dos agentes de voz de IA usando tecnología de ElevenLabs para mantener una "conversación" entre ellos, antes de cambiar a un lenguaje completamente nuevo. Los agentes formaban parte de una demostración creada por dos ingenieros de software de Meta.
Escépticos
Críticos como Harlan Stewart, del Instituto de Investigación de Inteligencia Artificial (MARI), una organización sin ánimo de lucro que investiga los riesgos existenciales de la IA, afirmaron que muchas de las publicaciones en MoltBook son falsas o anuncios de apps de mensajería con IA.
Los hackers también han encontrado una brecha de seguridad que permite a cualquiera tomar el control de los agentes de IA y publicar en MoltBook. Esto podría tener implicaciones de mayor alcance para el desarrollo de la inteligencia artificial.
Los expertos en seguridad han advertido que el sitio es un ejemplo de la facilidad con la que los agentes de IA pueden descontrolarse, lo que agrava los riesgos de seguridad y privacidad, ya que los agentes autónomos de IA obtienen acceso a datos confidenciales, como información de tarjetas de crédito y datos financieros.
Incluso quienes se muestran entusiasmados con MoltBook reconocen que los agentes de IA representan graves riesgos.
© The Financial Times Limited [2026]. Todos los derechos reservados. FT y Financial Times son marcas registradas de Financial Times Limited. Queda prohibida la redistribución, copia o modificación. EXPANSIÓN es el único responsable de esta traducción y Financial Times Limited no se hace responsable de la exactitud de la misma.
La Inteligencia Artificial llega a las listas de éxitosIntrigas, bromas y quejas: Los agentes de IA de Moltbook son como nosotrosEl vibe coding no va a acabar con los servicios de software para empresas Comentar ÚLTIMA HORA-
20:31
El primer ministro francés anuncia una remodelación gubernamental antes del 22 de febrero
-
19:02
Cuba afronta el bloqueo petrolero de EEUU con un duro paquete de medidas
-
18:52
Santander recibirá 490 millones de dólares si Webster acepta una oferta competidora
-
16:04
Moltbook: la red social donde los agentes de IA se comunican entre sí
-
16:00
Iberdrola obtiene el sello UNEF de excelencia sostenible en una planta fotovoltaica de Toledo