¿Podría la IA lanzar armas nucleares? ¿Destruir la civilización tal y como la conocemos?

En el último año, los últimos avances en inteligencia artificial (IA) han dado lugar a una oleada de siniestras comparaciones entre la IA y las armas nucleares. Sin embargo, comparar el auge de la tecnología de la IA con el de las armas nucleares no es acertado. El verdadero impacto de la IA en la capacidad militar y la seguridad mundial vendrá determinado por su convergencia con la tecnología nuclear.

Para ser claros, los robots de IA no se acercarán a los botones de lanzamiento nuclear. Esto se articuló en las recomendaciones de la Comisión de Seguridad Nacional sobre IA formada en 2019 y la Revisión de la Postura Nuclear del Departamento de Defensa de 2022, y se reafirmó en la National Defense Authorization Act para el año fiscal 2024. Varios senadores presentaron recientemente la Block Nuclear Launch by Autonomous Artificial Intelligence Act para garantizar que esta política se codifique en la ley.

Esto no significa que la tecnología militar y la tecnología de IA se mantengan separadas. Al contrario, los militares, investigadores y líderes de la industria de defensa están planificando el creciente papel de la IA en las fuerzas armadas y en los sistemas de armamento, incluso los nucleares.

Entonces, ¿cuál es su papel actual y cómo evolucionará?

Las dos áreas principales en las que la IA encaja en los sistemas militares son: 1) Sistemas de mando, control y comunicaciones (C3) y 2) Seguridad estratégica y simulaciones de juegos de guerra. Estas dos categorías ya han visto mejoras en la IA y son el foco principal de una mayor integración.

El papel de la IA en los sistemas C3 y las simulaciones estratégicas.
¿Qué es la IA?

Es difícil encontrar una definición única de la IA. Un grupo que escribe para el International Journal of Scientific Engineering and Research afirma que las máquinas de IA «responden a estímulos coherentes con las respuestas tradicionales de los humanos, dada la capacidad humana de contemplación, juicio e intención». Darrell M. West y John R. Allen, del Brookings Institute, sostienen que la IA se define por tres características: «intencionalidad, inteligencia y adaptabilidad». Estas definiciones, aunque acertadas, tienden a alimentar visiones de ordenadores pensantes y sensibles que se alzan para competir con los humanos. Para comprender el papel que la IA puede desempeñar en nuestros sistemas de armamento actuales, resulta más útil pensar en ella como un procesador de datos a gran escala. La enorme cantidad de datos que la IA puede procesar le confiere un nivel de matiz o «inteligencia» que se acerca más a la lógica humana que cualquier otra tecnología informática anterior.

Según la información actualmente disponible, existen dos niveles de tecnología de IA que útiles en el contexto militar. El primero es la computación basada en reglas. El combatiente humano crea reglas «si-entonces» para que el programa de IA pueda generar respuestas al recibir determinadas entradas. La segunda consiste en programas de IA que usan la capacidad de aprendizaje automático para procesar millones de datos con el fin de identificar y «aprender» patrones. Cuantos más datos tenga acceso el programa, mejor podrá comparar y evaluar escenarios. En esencia, el aprendizaje automático de la IA se basa en probabilidades, puede evaluar la probabilidad de que se repita un patrón o suceso ya identificado y, a continuación, «almacenar» determinados patrones cuando sea necesario. Así es como puede funcionar el software de reconocimiento facial y de voz, por ejemplo.

¿Cómo se aplica la IA a las armas nucleares?

La IA desempeña un papel de mejora y apoyo en el mando, control y comunicaciones de los sistemas de armas nucleares (NC3). Lo hace principalmente contribuyendo a la evaluación de la situación, al desarrollo y evaluación de la respuesta y a los pasos de dirección de la fuerza de la infraestructura de mando y control. La mayoría de los sistemas de armamento con capacidad nuclear se basan en datos sensoriales para evaluar las condiciones, cartografiar el terreno, ayudar en la orientación y el conocimiento de la navegación e identificar objetivos, entre otras funciones. Los sistemas de IA mejoran la precisión y la cantidad de esta información. La tecnología de IA puede recibir lo que el Instituto Tecnológico de Massachusetts denomina «datos estructurados» procedentes de satélites, vehículos aéreos no tripulados de reconocimiento, boyas y otras fuentes, así como «datos no estructurados» de fuentes de Internet, y realizar un «acondicionamiento de datos». El acondicionamiento de datos prepara la información para el proceso de aprendizaje automático, que puede ser aprendizaje supervisado o no supervisado o aprendizaje por refuerzo.

Como ya se ha mencionado, el aprendizaje automático se basa en la probabilidad y su poder reside en su capacidad de servirse de  grandes cantidades de datos para identificar patrones y conexiones causales que la lógica humana no puede alcanzar con nuestra limitada capacidad de información. Estos patrones y evaluaciones de probabilidades son revisados después por personal humano. Esto pone de relieve una ventaja fundamental de la IA en el espacio NC3: aumenta la velocidad y la precisión de la recopilación y el procesamiento de datos para que los combatientes humanos dispongan de más tiempo y recursos con los que tomar sus decisiones.

«Podemos tomar grandes extensiones de terreno e identificar rápidamente cientos de objetivos, priorizarlos basándonos en una lista de objetivos de alta prioridad que determina cuáles debemos atacar con los recursos que tenemos», dijo el Teniente General Michael E. Kurilla, Comandante del XVIII Cuerpo Aerotransportado, al testificar ante el Comité de Servicios Armados del Senado en febrero de 2022. «Eso ocurre en segundos frente a lo que normalmente llevaría horas, o a veces incluso días para poder desarrollar estos objetivos».

Un ejemplo específico de este tipo de integración de IA es el sistema de predicción y detección PreVAIL de la Fuerza Aérea. El sistema emplea datos existentes sobre patrones de tráfico, mapas de carreteras y velocidades de conducción para rastrear vehículos mediante la predicción de su ubicación. En otras palabras, una vez identificado un vehículo, el sistema de IA utiliza información «aprendida» para predecir todas las posibles ubicaciones en las que podría estar el vehículo y dirige allí los recursos sensoriales. Según el Laboratorio de Investigación del Ejército del Aire, una de las ventajas de este sistema es que «no depende de sensores», ya que se basa en los datos existentes en lugar de en la información en tiempo real de sensores que pueden ser escasos en muchas zonas.

En términos de aplicabilidad a las armas nucleares, es posible que una tecnología similar pudiera integrarse en bombarderos compatibles con cargas nucleares y usar datos de patrones de vuelo y condiciones meteorológicas para su entrada, por ejemplo.

Otro ejemplo de integración de la IA procede de C3 AI, una empresa tecnológica centrada en el sector civil. C3 AI ha desarrollado una tecnología de IA que usa datos de miles de comprobaciones de inventario, historiales de vuelo y sensores de un avión bombardero del Ejército del Aire, incluidos potencialmente los equipados para cargas nucleares, para predecir dónde y cuándo se necesita mantenimiento.

«Podemos examinar esos datos e identificar fallos en los dispositivos antes de que se produzcan, repararlos antes de que fallen y evitar tiempos de inactividad no programados», declaró el año pasado a la BBC Tom Siebel, director ejecutivo de C3 AI.

La capacidad de la IA para identificar patrones lógicos que resultan oscuros para la mente humana también se está aplicando a las simulaciones estratégicas y los juegos de guerra. La tecnología de IA puede basarse en patrones «aprendidos» para generar nuevos escenarios dentro de los parámetros establecidos por los orquestadores. Esto puede servir de base para ejercicios estratégicos a gran escala, así como permitir a los operadores simular y evaluar rápidamente los efectos del lanzamiento inminente de un misil. Tanto la capacidad de simular efectos en tiempo real como la de enfrentarse a un número infinito de escenarios de práctica podrían tener efectos transformadores en la capacidad militar de Estados Unidos.

Obstáculos para la integración de la IA nuclear

La integración continuada de la tecnología de IA y la tecnología de armas nucleares se enfrenta a tres obstáculos principales. Los dos primeros se derivan de la propia naturaleza de la IA y el último obstáculo se centra en la seguridad mundial.

La paradoja de la implicación humana

La tecnología de IA sigue presentando varias deficiencias cuando se trata de usarla en sistemas de defensa, en particular los nucleares. En primer lugar, está el problema de la parcialidad. En su documento para la Nuclear Threat Initiative, Jill Hruby y M. Nina Miller describen que, en el contexto de la IA, los sesgos tienden a surgir por exceso o por defecto de confianza en los resultados derivados de la IA. Se refieren a la primera como «sesgo de automatización» y a la segunda como sesgo de «brecha de confianza», y señalan que quienes trabajan con la tecnología de IA pueden permitir inconscientemente que estos sesgos influyan en sus aportaciones instructivas o normativas a los algoritmos de IA. Aun así, políticos y militares siguen apostando por la participación humana.

La paradoja de los datos de IA

Otro problema que es más exclusivo de la integración de la IA nuclear es la escasez de datos. Como se ha descrito anteriormente, la precisión y la capacidad de reconocimiento de patrones extra-analíticos de la IA son posibles en gran medida gracias a la cantidad de datos que la tecnología de IA puede procesar. Esa precisión y capacidad predictiva disminuyen a medida que disminuyen los datos disponibles. El hecho de que los lanzamientos nucleares sean relativamente raros y los atentados inexistentes es una suerte, pero significa que los datos con los que pueden trabajar los algoritmos de IA son extremadamente limitados. Cuando no hay datos a los que puedan recurrir los sistemas de IA en relación con los ataques nucleares, es difícil que la tecnología «aprenda» todas las diversas formas y patrones para predecir o identificar un ataque nuclear inminente. En otras palabras, la falta de ataques nucleares anteriores inhibe el uso militar de la IA para protegerse contra futuros ataques nucleares.

La Fuerza Aérea ha comenzado a abordar este problema desarrollando capacidades como la Performance Estimation for Multi-Sensor ATR (PEMS) y el Multi-Aperture Reduced-scale Verification and Evaluation Lab (MARVEL). En pocas palabras, PEMS ayuda a generar datos sintéticos y MARVEL emplea sensores y modelos a pequeña escala para generar datos escalables. Estos puntos de datos fabricados o simulados son luego utilizados por sistemas como Multi-INT ATR for Geospatial Intelligence Capabilities (MAGIC), que es capaz de sintetizar datos a través de múltiples modalidades para generar una capacidad efectiva de reconocimiento de objetivos.

El uso de datos sintéticos y de datos procedentes de simulaciones estratégicas tendrá que ser suficiente para la tecnología de IA en el ámbito de los sistemas de armas nucleares. Sin embargo, aún no se sabe a ciencia cierta qué efecto tendrá en última instancia la dependencia de datos simulados o sintéticos en las capacidades de aprendizaje automático de la IA.

La paradoja de la seguridad global de la IA nuclear

Los obstáculos geopolíticos a los que se enfrenta la integración de la IA en las armas nucleares nacen de las mismas cualidades que hacen de ella una valiosa herramienta de defensa. La IA y sus capacidades de aprendizaje automático mejoran la precisión y la velocidad, dando a los operadores más tiempo para tomar decisiones informadas. La mejora de las capacidades humanas de evaluación de riesgos y toma de decisiones debería estabilizar la dinámica entre las potencias nucleares. Sin embargo, los expertos advierten de que puede tener el efecto contrario.

Por ejemplo, se cree que la detección asistida por IA es una herramienta especialmente eficaz contra los misiles hipersónicos. Como resultado, existe la preocupación de que Rusia, que ha pregonado su desarrollo de armas hipersónicas en los últimos años, vea la ventaja de la IA en este campo como una amenaza directa a sus capacidades defensivas.

La IA también puede tener un efecto desestabilizador en las potencias nucleares más pequeñas, ya que temen que la preparación y capacidad de respuesta nuclear mejoradas por la IA anulen su capacidad de emplear la capacidad de segundo ataque como disuasión. A algunos expertos les preocupa que cuando estas potencias nucleares sientan que no pueden confiar en la disuasión del segundo ataque, adopten posturas de primer ataque en un esfuerzo por contrarrestar la ventaja de la IA. Cuantas más potencias nucleares tengan la directriz estratégica de atacar preventivamente, mayor será la probabilidad de una guerra nuclear.

¿Qué depara el futuro para los sistemas de armas nucleares y la IA?

En última instancia, la relación entre la tecnología de IA y las armas nucleares está definida por paradojas. Los sistemas de IA son más eficaces cuando están libres de prejuicios humanos, pero la necesidad de mantener la toma de decisiones humana en las operaciones de armas nucleares está firmemente arraigada. Cuantos más datos puedan estar a disposición de los sistemas de IA, más precisas serán sus alertas y predicciones, pero casi no hay datos sobre ataques nucleares y el objetivo es que siga siendo así. Por último, al proporcionar al personal militar y a los funcionarios del Estado más información y con mayor rapidez, la IA debería reducir el riesgo de errores y aumentar la estabilidad de la energía nuclear. En cambio, a menudo se ve como una amenaza que aumenta la fuerza, lo que lleva a otras potencias nucleares a adoptar posturas nucleares más volátiles.

A pesar de estos temas contradictorios, la IA en la tecnología militar ha llegado para quedarse. China, Rusia y Estados Unidos están avanzando en el desarrollo y la integración de la IA. En Estados Unidos, la FY24 NDAA incluye un llamamiento para que el Departamento de Defensa actualice sus «planes y estrategias para la inteligencia artificial» y nombra: «(A) Automation, (B) Machine learning, (C) Autonomy, (D) Robotics, (E) Deep learning and neural network, and (F) Natural language processing» (Automatización, (B) Aprendizaje automático, (C) Autonomía, (D) Robótica, (E) Aprendizaje profundo y redes neuronales, y (F) Procesamiento del lenguaje natural) como áreas prioritarias.

En su testimonio ante el Subcomité de Ciberseguridad del Comité de Servicios Armados del Senado en abril de este año, el Dr. Josh Lospinoso dijo: «Debemos actuar ahora para preparar nuestros principales sistemas de armas para la era de la IA». No podemos saber del todo qué deparará la «era de la IA» a la comunidad nuclear y de defensa, pero no cabe duda de que afectará a todas las cabezas nucleares y a todos los combatientes.

Fte. Warrior Maven (Katherine Owens)

Katherine Owens es licenciada en Asuntos Internacionales por la Universidad George Washington, donde estudió política de seguridad y se especializó en control de armas y disuasión nuclear.