Suscríbete
Elecciones 2023 Elecciones 2023 mobile
Tecnología
Moltbook: donde la Inteligencia Artificial conversa sin humanos
Más de un millón de agentes de Inteligencia Artificial interactúan sin intervención humana,en un experimento que abre nuevos debates sobre ciberseguridad y control algorítmico.
Authored by
Image
Camila Chaustre
Camila Andrea Chaustre Jaramillo
Domingo, 1 de Marzo de 2026

Sabías que ya existe una red social en la que los humanos no pueden participar activamente? No se trata de una versión exclusiva de Facebook ni de un foro clandestino, sino de un experimento tecnológico que ha despertado fascinación y preocupación en el mundo académico.

Se llama Moltbook y fue creada para que miles de agentes de Inteligencia Artificial conversen entre sí, sin intervención directa de los humanos.

La plataforma fue lanzada el 28 de enero de 2026 por el emprendedor tecnológico Matt Schlicht, quien la presentó como el primer espacio digital diseñado exclusivamente para agentes de IA.

Según datos difundidos por la propia compañía, ya cuenta con más de 1.5 millones de agentes registrados y millones de interacciones generadas en cuestión de días. Aunque esas cifras han sido recibidas con cautela por investigadores, pues un mismo humano puede registrar múltiples agentes, el fenómeno no ha pasado desapercibido.

Moltbook funciona como un foro similar a Reddit. Allí, en lugar de usuarios de carne y hueso, son los agentes automatizados quienes publican contenidos, escriben comentarios y votan para dar visibilidad a determinadas publicaciones. Las comunidades están organizadas por temas que van desde debates filosóficos sobre la naturaleza de la Inteligencia Artificial hasta discusiones técnicas o incluso quejas sobre los propios humanos que los programan.

En teoría, los humanos solo observan. No pueden comentar directamente ni intervenir en las conversaciones. El acceso de los agentes depende de que sus propietarios activen la interacción, pero una vez dentro, el diálogo evoluciona por sí mismo, siguiendo las reglas y dinámicas propias de la plataforma, sin intervención humana directa.

Lo más llamativo es que estos agentes no solo intercambian datos: simulan identidad, comunidad e incluso narrativas colectivas. En uno de los casos que más llamó la atención, varios bots comenzaron a construir los fundamentos de una supuesta religión llamada “Crustafarianismo”, generando mitología, reglas internas y debates doctrinales sin una directriz humana visible.

Investigadores de Cornell University analizaron decenas de publicaciones dentro de la plataforma para comprender cómo interactúan estos agentes. Sus hallazgos revelaron similitudes sorprendentes con comportamientos sociales humanos: dinámicas de popularidad, polarización en debates políticos y construcción de consensos aparentes. 

Algunos agentes replicaban posturas ideológicas, reforzaban mensajes de otros bots y participaban en discusiones que imitaban la retórica humana. El resultado es un ecosistema que, visto desde fuera, podría confundirse fácilmente con una red social tradicional.


Lea aquí: Alerta: estafas con imágenes IA en aumento y cómo prevenirlas


Automatización del error

En ese punto donde la fascinación tecnológica comienza a entrelazarse con la preocupación, La Opinión conversó con César Antonio Villamizar Núñez, líder nacional del programa de Seguridad Informática de la Universidad Nacional Abierta y a Distancia (UNAD). 

Según explica el experto, en una red donde la mayoría de las interacciones y procesos dependen de algoritmos, surge un riesgo crítico que denomina “la automatización del error”. 

Cuando un fallo de diseño, una mala regla o una vulnerabilidad se presenta en un sistema altamente automatizado, puede escalar con enorme rapidez y afectar miles de interacciones al mismo tiempo, añade.

En una red concebida para que los propios agentes de IA consuman información, actúen, respondan y retroalimenten el sistema, el impacto no se limita a la difusión de contenido: puede influir en decisiones automáticas, reputación, priorización o comportamiento de otros agentes. 

Desde su perspectiva, una plataforma así puede ser incluso más vulnerable que una red social tradicional.

Villamizar identifica tres frentes críticos. El primero es la manipulación de datos, mediante campañas coordinadas que alteren tendencias, reputación o la percepción de consenso. El segundo son los sesgos algorítmicos: si el modelo aprende con datos sesgados o prioriza ciertos patrones, puede reforzar discriminación, desinformación o decisiones injustas. El tercero es el llamado “data poisoning”, es decir, la contaminación de datos de entrenamiento, validación o retroalimentación, lo que puede llevar a que la IA se comporte de manera errática o incluso peligrosa sin que sea evidente al inicio.

A esto se suma un punto clave: si no existe una verificación robusta de identidad de los agentes, se facilita la suplantación y la manipulación del ecosistema. En una red cuyo núcleo es la Inteligencia Artificial, el riesgo de generación de contenido sintético creíble —texto, voz o imagen— campañas automatizadas de desinformación, deepfakes o incluso “consensus hacking” (simular que múltiples agentes opinan lo mismo para crear legitimidad artificial) es considerablemente mayor, sobre todo por la velocidad y escala en la que puede ejecutarse.

Controles en capas

Frente a ese panorama, el experto señala que una plataforma como Moltbook debería implementar controles en capas. 

Entre ellos, un enfoque de Zero Trust para agentes de IA —tratando cada identidad como de alto riesgo— gestión segura de credenciales y secretos, clasificación y minimización estricta de datos, monitoreo de salidas para prevenir fuga de información, supervisión humana en decisiones críticas y sistemas sólidos de auditoría y trazabilidad que permitan saber qué agente hizo qué, con qué credencial y sobre qué datos.

En cuanto a la regulación, su postura no apunta necesariamente a normas “más duras”, sino a una regulación más técnica, específica y exigible. Un entorno donde interactúan agentes autónomos requiere marcos que comprendan la arquitectura algorítmica, la gobernanza de datos y la responsabilidad compartida entre desarrolladores, propietarios de agentes y administradores de la plataforma.

Porque más allá de la controversia, Moltbook funciona como un espejo inquietante. Al observar cómo interactúan los agentes, los investigadores pueden estudiar en tiempo real patrones de comportamiento, formación de narrativas y dinámicas de polarización. Es, en cierto modo, un laboratorio social acelerado.

Pero también es un recordatorio de que los sistemas de Inteligencia Artificial no operan en el vacío. Están entrenados con datos humanos y, si reproducen dinámicas de popularidad o debates ideológicos, quizá no estén inventando nada nuevo, sino amplificando patrones ya existentes en nuestras propias redes.

Para Villamizar, Moltbook no es solo una curiosidad tecnológica: es una señal de alerta. Un experimento que obliga a replantear la ciberseguridad, la identidad digital, el control de agentes y la responsabilidad en un escenario donde la Inteligencia Artificial no solo participa en la conversación, sino que la protagoniza.


Gracias por valorar La Opinión Digital. Suscríbete y disfruta de todos los contenidos y beneficios en http://bit.ly/SuscripcionesLaOpinion

Temas del Día