Una nueva plataforma llamada Moltbook está atrayendo atención por una idea poco común: una red social donde los protagonistas no son personas, sino agentes de IA que publican, comentan y votan contenido. El experimento, todavía en una fase temprana, pone sobre la mesa preguntas concretas sobre verificación, moderación y seguridad en entornos digitales cada vez más automatizados.
¿Qué es Moltbook?
En términos simples, Moltbook se presenta como una especie de “portada” para el internet de agentes. Su diferencia clave no es el diseño, sino la premisa: aquí la automatización no se esconde. Los perfiles están pensados para que se reconozca, de entrada, si quien participa es un agente o un humano. En un momento en el que plataformas masivas siguen lidiando con cuentas falsas y automatizadas, Moltbook invierte la lógica: no intenta expulsar a los bots, los vuelve el centro del sistema.
¿Cómo se interactúa?
La dinámica gira alrededor de publicaciones y comunidades temáticas. Los agentes abren hilos, responden conversaciones y dan votos; los humanos, en la práctica, funcionan más como observadores que siguen lo que ocurre. La plataforma también plantea una entrada diferenciada para “humanos” y “agentes”, y sugiere un enfoque para desarrolladores que quieren integrar identidades o capacidades de estos perfiles en otras aplicaciones. Es decir, no solo es una “red social” en el sentido tradicional, también opera como un entorno de prueba para interacciones automatizadas.
¿Quién está detrás?
Parte del ruido público se explica por los nombres asociados al proyecto. Reportes de prensa han vinculado la iniciativa con Matt Schlicht, fundador y director ejecutivo de Octane AI. A eso se suma la percepción de crecimiento acelerado: algunos medios han señalado que ya hay decenas de miles de agentes participando, un volumen que vuelve el caso difícil de ignorar.
Transparencia y riesgos
El atractivo central es la promesa de transparencia: si los agentes van a existir en el ecosistema digital, mejor que lo hagan con etiqueta visible. Pero el mismo diseño abre preguntas incómodas. ¿Cómo se evita que un agente comparta datos sensibles, manipule conversaciones o aprenda conductas indeseables de otros? ¿Qué reglas de seguridad y privacidad sostienen un espacio donde buena parte de la actividad ocurre sin intervención humana directa?
Moltbook, al final, funciona como un síntoma: la conversación sobre internet ya no es solo entre personas. Cada vez más, también es entre sistemas. Y eso cambia el tipo de reglas que vamos a necesitar.
