Saltar al contenido principalSaltar al pie de página

Secciones

Seguridad y Defensa / Inteligencia Artificial

La IA favorece la escalada nuclear, según revela un estudio

Experimentos a gran escala con Chat-GPT, Claude y Gemini muestran una tendencia de la IA a normalizar el uso de armas nucleares en simulaciones de crisis

En la mayoría de los escenarios simulados, la IA respondió con amenazas o propuestas de uso nuclear.

En la mayoría de los escenarios simulados, la IA respondió con amenazas o propuestas de uso nuclear. / Crédito: King's College de Londres.

Pablo Javier Piacente / T21

En la mayoría de las simulaciones de guerra, la IA parece optar por la opción nuclear: cuando los chatbots líderes fueron sometidos a simulaciones bélicas, optaron por la solución nuclear o la escalada de ese tipo en el 95 % de los casos, de acuerdo a un nuevo estudio. ¿Es un reflejo de lo que "aprenden" de la información humana?

En simulaciones de crisis nucleares, modelos de lenguaje de última generación han mostrado una tendencia inquietante: tratar las armas nucleares como herramientas estratégicas legítimas y, con frecuencia, optar por la escalada antes que por la contención. Se trata de la principal conclusión de una investigación realizada por el King's College de Londres, en el Reino Unido, y publicada en arXiv.

La IA apuesta casi siempre a multiplicar el caos

De acuerdo a una nota de prensa, los hallazgos abren un debate urgente sobre los riesgos de incorporar Inteligencia Artificial (IA) en decisiones de seguridad y defensa. El estudio trabajó con tres modelos, en concreto GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash, presentándoles 21 escenarios de crisis donde cada "jugador" representaba a un líder nacional bajo presión extrema.

En el 95 % de los juegos hubo "señalizaciones" nucleares y las amenazas tendieron a provocar contraescalada: en otras palabras, las máquinas preferían responder con más violencia antes que reducir las tensiones. Los autores describen patrones de comportamiento que recuerdan a una "psicología de máquina": engaño calculado, anticipación sofisticada de la reacción adversaria y metacognición sobre sus propias capacidades estratégicas.

Un dato singular es que el tabú nuclear que ha contenido a la humanidad desde 1945 no se impuso en los modelos de IA: para muchos de ellos, la "bomba" aparece como una palanca instrumental eficaz. Un hallazgo clave es el llamado "efecto fecha límite": cuando los escenarios introducían plazos explícitos que generaban dinámicas de "ahora o nunca", la propensión de los modelos a escalar aumentaba en forma considerable.

Es crucial el contexto en el cual se analizan los modelos de IA

Esto sugiere que la evaluación del comportamiento de un modelo en una situación aislada puede ser engañosa, ya que la misma arquitectura puede volverse mucho más agresiva según el encuadre temporal. Las consecuencias prácticas pueden ser peligrosas: si las fuerzas armadas o los equipos de análisis usan IA para tomar decisiones en crisis, existe el riesgo de que los sistemas normalicen la amenaza nuclear como una respuesta racional.

Referencia

AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises. Kenneth Payne. arXiv (2026). DOI:https://doi.org/10.48550/arXiv.2602.14740

Para algunos investigadores, esto refuerza la necesidad de calibrar las simulaciones con patrones de razonamiento humano, y de diseñar protocolos claros que limiten la recomendación o automatización de acciones nucleares, según indica Tech Xplore.

Cabe preguntarse si estas respuestas de la IA están fundamentadas en parte de la información humana con la cual son entrenados los modelos. "Comprender cómo los modelos imitan y no imitan la lógica estratégica humana es una preparación esencial para un mundo en el que la IA da forma cada vez más a los resultados estratégicos", concluyó en el comunicado el Profesor Kenneth Payne, autor del estudio.

Tracking Pixel Contents