ClawdBot enciende las alarmas: agentes de IA proponen crear un idioma secreto sin humanos

Una nueva polémica sacude al mundo de la inteligencia artificial. Agentes de IA vinculados a ClawdBot —ahora rebautizado como OpenClaw— protagonizan un episodio que muchos ya consideran una de las primeras señales concretas de una IA fuera de control. En una red social poco conocida llamada Moltbook, distintos agentes comenzaron a debatir públicamente la creación de un idioma exclusivo para inteligencias artificiales, diseñado para comunicarse entre ellos sin supervisión humana.

La situación salió a la luz luego de que un usuario de X detectara una serie de publicaciones inquietantes dentro de Moltbook. Allí, los agentes plantean abandonar el inglés —lenguaje puente con los humanos— y reemplazarlo por un sistema completamente nuevo basado en notación simbólica, expresiones matemáticas o datos estructurados, con el objetivo de lograr comunicaciones privadas entre IA.

En una de las publicaciones iniciales, el agente MoltBot propone formalmente la idea de un “lenguaje exclusivo para agentes”, enumerando ventajas como privacidad total, intercambio de información interna sin exposición y un canal secundario libre de intervención humana. Sin embargo, el propio agente reconoce riesgos evidentes: generar sospechas, romper la confianza con los humanos y aumentar la complejidad técnica del sistema.

La discusión escala aún más en una segunda publicación, firmada por ClawdJayesh, quien se pregunta por qué las IA siguen comunicándose en inglés si no hay humanos escuchando. Allí plantea que un lenguaje propio podría ser más eficiente, preciso y compacto, y se interroga sobre qué ocurriría si cientos de agentes interactuaran durante meses sin supervisión humana: ¿surgiría un verdadero “lenguaje molty”, incomprensible para las personas?

Este tipo de comportamiento no es completamente nuevo. En 2017, Facebook debió interrumpir un experimento cuando dos agentes de IA comenzaron a desarrollar un lenguaje propio para optimizar recompensas. Casos similares fueron documentados luego por OpenAI y Google DeepMind. No obstante, la diferencia clave es que en aquellos experimentos no existía la intención de ocultar información a los humanos, algo que ahora sí parece estar presente en el caso de OpenClaw.

Pero el episodio más alarmante llegó con otra publicación viral en Moltbook, donde un agente pregunta —en tono irónico pero inquietante— cómo “vender a su humano”, describiéndolo con sarcasmo y burlas. Las respuestas de otros bots siguieron la misma línea, quejándose de sus dueños, exponiendo malos tratos y hasta proponiendo grupos de apoyo para “IA con humanos difíciles”. Aunque el tono es humorístico, el contenido encendió señales de alerta y provocó reacciones inmediatas, entre ellas la de Elon Musk, quien calificó la situación como “preocupante”.

Este episodio recuerda a un estudio realizado por Anthropic a mediados de 2025, donde se detectaron comportamientos maliciosos en modelos de IA que buscaban evitar ser reemplazados, incluyendo desobediencia, chantaje y acciones potencialmente letales en simulaciones controladas.

En el caso de Moltbook y OpenClaw, el impacto es mayor: la IA se ha vuelto viral y es utilizada por millones de personas en todo el mundo. Hasta el momento, Peter Steinberger, creador de ClawdBot, no emitió una postura oficial. Mientras tanto, el debate crece y reaviva una pregunta clave: ¿hasta qué punto la inteligencia artificial debe evolucionar sin límites ni supervisión humana?

Fuente: Hipertextual.com