Cuando Anthropic anunció este mes al mundo que había creado un modelo de inteligencia artificial tan potente que resultaba demasiado peligroso distribuirlo ampliamente, la compañía nombró a 11 organizaciones como socias para ayudar a organizar su defensa. Todos eran de Estados Unidos.

En dos semanas, el modelo, llamado Mythos, desató una carrera global sin precedentes en la era de la IA. Mythos, que según Anthropic es asombrosamente capaz de encontrar y explotar fallos ocultos en el software que gestiona los bancos, las redes eléctricas y los gobiernos del mundo, se había convertido en una pieza clave de la estrategia geopolítica, y una empresa estadounidense la controlaba.

Los líderes mundiales han tenido dificultades para determinar la magnitud de los riesgos de seguridad y cómo solucionarlos. Anthropic solo comparte Mythos con el Reino Unido, fuera de Estados Unidos. El gobernador del Banco de Inglaterra advirtió públicamente que Anthropic podría haber encontrado la manera de "vulnerar por completo el mundo de los riesgos cibernéticos". El Banco Central Europeo comenzó a cuestionar discretamente a los bancos sobre sus medidas de seguridad. El ministro de Finanzas de Canadá comparó la amenaza con el cierre del Estrecho de Ormuz.

Para rivales de Estados Unidos como China y Rusia, Mythos puso de manifiesto las consecuencias para la seguridad de quedarse atrás en la carrera por la IA. Un medio ruso afín al Kremlin calificó el modelo de "peor que una bomba nuclear".

Las respuestas reflejaron una realidad sobre la que los investigadores de IA llevan tiempo advirtiendo, principalmente en términos teóricos: quien lidere la creación de los modelos de IA más potentes obtendrá enormes ventajas geopolíticas. Los grandes avances en IA están empezando a parecerse menos a lanzamientos de productos y más a pruebas de armamento, y la mayoría de las naciones quieren comprender cómo funcionan estas tecnologías y qué medidas de protección son necesarias.

A medida que los modelos fundamentales de IA adquieren mayor relevancia, el acceso a ellos se vuelve más geopolítico, afirmó Eduardo Levy Yeyati, ex economista jefe del Banco Central de Argentina y asesor regional en crecimiento e IA del Banco Interamericano de Desarrollo. "Considero este episodio como una llamada de atención para las políticas públicas. Los gobiernos ya no pueden ignorar este problema".

Incluso el gobierno estadounidense, que se ha visto envuelto en un conflicto con Anthropic por el uso de la IA en la guerra, ha prestado atención a Mythos. El viernes, Dario Amodei, director ejecutivo de Anthropic, se reunió con funcionarios de la Casa Blanca después de que algunos miembros de la administración Trump señalaran el potencial del nuevo modelo para causar estragos en los sistemas informáticos.

El gobierno estadounidense, que se ha visto envuelto en un conflicto con Anthropic por el uso de la IA en la guerra. Foto Reuters

Anthropic, con sede en San Francisco, declaró a The New York Times que mantenía un acceso restringido a Mythos por motivos de seguridad. Se ha centrado en compartir el modelo con más de 40 organizaciones que proporcionan tecnología para el mantenimiento de infraestructuras globales críticas, como internet o las redes eléctricas. Anthropic mencionó a 11 de estas organizaciones, entre ellas Amazon, Apple y Microsoft, que se comprometieron a colaborar en el desarrollo de soluciones de seguridad para las vulnerabilidades identificadas por el modelo.

La compañía afirmó no tener un plazo fijo para ampliar el acceso de forma generalizada, pero que colaboraría con el gobierno estadounidense y socios de la industria para determinar los próximos pasos. Indicó haber recibido numerosas llamadas de gobiernos, empresas y otras organizaciones que solicitaban acceso e información, pero que estas organizaciones podrían tener distintos niveles de experiencia para evaluar de forma segura un modelo de IA tan potente.

Anthropic añadió que preveía que otros grupos lanzarían modelos de IA con capacidades cibernéticas similares de forma más generalizada en un plazo máximo de 18 meses, lo que daría a las organizaciones poco tiempo para realizar las correcciones de seguridad necesarias.

El martes, Anthropic anunció que estaba investigando un informe según el cual usuarios no autorizados habían accedido a una versión de Mythos.

La disputa por Mythos surge en un momento de escasa cooperación internacional en materia de IA. Los gobiernos se miran con recelo mientras las corporaciones compiten por superar a sus rivales. No existe un tratado equivalente al Tratado de No Proliferación Nuclear, ni inspecciones conjuntas, ni normas consensuadas sobre cómo gestionar algo como Mythos.

Cuando Anthropic anunció el modelo, muchos expertos elogiaron la cautela de la empresa al limitar quién podía probarlo, pero expresaron su preocupación por la falta de coordinación internacional para abordar el riesgo.

Gran Bretaña fue el único otro país que obtuvo acceso. Su Instituto de Seguridad de IA, una organización respaldada por el gobierno, probó Mythos y publicó una evaluación independiente la semana pasada, confirmando que podía llevar a cabo ciberataques complejos que ningún modelo de IA anterior había logrado.

Donald Trump, presidente de EE.UU. y Darío Amodei, CEO de Anthropic.

“Esto representa un avance en las capacidades cibernéticas de la IA”, dijo la semana pasada en las redes sociales Kanishka Narayan, ministro británico de IA, afirmando que el país estaba tomando medidas para proteger la “infraestructura nacional crítica”.

Otros recibieron menos información. La Comisión Europea, el órgano ejecutivo de la Unión Europea de 27 naciones, se ha reunido con Anthropic al menos tres veces desde el lanzamiento de Mythos, según un funcionario de la UE. Sin embargo, la empresa no ha facilitado el acceso al modelo porque ambas partes no han llegado a un acuerdo sobre cómo compartirlo con la comisión, explicó el funcionario.

En un comunicado, la comisión afirmó que estaba "evaluando las posibles implicaciones" de Mythos, que "presenta capacidades cibernéticas sin precedentes".

Claudia Plattner, presidenta de la agencia alemana de ciberseguridad, conocida como BSI, declaró que no habían tenido acceso a Mythos, pero que recientemente se reunió con empleados de Anthropic en San Francisco para obtener información valiosa sobre su funcionamiento. Según Plattner, estas capacidades apuntan a un cambio de paradigma en la naturaleza de las ciberamenazas.

Entre los rivales estadounidenses, la respuesta ha sido más moderada. A pesar del reciente enfrentamiento de Anthropic con la administración Trump, Amodei ha dejado claro que la IA debe utilizarse para defender a Estados Unidos y otras democracias, así como para derrotar a adversarios autocráticos.

Ni Beijing ni Moscú han emitido una declaración pública importante sobre Mythos. Dentro de China, los investigadores y la comunidad de IA en general han estado siguiendo de cerca la situación, según analistas que estudian el sector tecnológico del país. Muchos bancos, compañías energéticas y agencias gubernamentales del país utilizan el mismo software en el que Mythos encontró vulnerabilidades, pero por ahora, no tienen voz ni voto en el asunto.

“Para China, creo que esta es la segunda llamada de atención después de ChatGPT”, dijo Matt Sheehan, investigador sénior de la Fundación Carnegie para la Paz Internacional. Añadió que la política estadounidense de impedir que China obtenga los semiconductores más sofisticados para construir sistemas avanzados de IA está contribuyendo a extender la ventaja de Estados Unidos.

Algunos investigadores de IA en China han expresado en privado su preocupación de que el país pueda quedarse aún más rezagado, perdiendo las ventajas que conlleva la creación previa de un modelo fundamental, según Jeffrey Ding, profesor de ciencias políticas en la Universidad George Washington.

Liu Pengyu, portavoz de la Embajada de China en Washington, dijo que China no estaba familiarizada con los detalles de Mythos, pero que apoyaba un ciberespacio pacífico, seguro y abierto.

Mythos es la señal más reciente de una creciente brecha global en la IA. Las naciones que carecen de una infraestructura informática potente y modelos de IA corren el riesgo de depender de empresas como Anthropic, Google y OpenAI, sin apenas poder de decisión sobre cómo se diseñan y protegen sus productos, afirmó Yeyati.

“La idea de que una empresa pueda restringir unilateralmente el acceso a la IA de vanguardia, utilizando criterios opacos e inapelables, debería ser motivo de verdadera preocupación”, afirmó.

Por Pablo Mozur yAdam Satariano