¿Veremos robots Terminator armados que maten de forma autónoma? ¿Armas con IA para uso «no letal»?

IAEl Pentágono estudia armas autónomas con IA «sin control humano» para uso defensivo no letal. Si un enjambre de minidrones explosivos se acerca para atacar o una salva de misiles hipersónicos se aproxima a una velocidad cinco veces superior a la del sonido, es posible que los responsables humanos no puedan responder con la suficiente rapidez. De hecho, es posible que los mandos militares no tengan ninguna oportunidad de contraatacar o determinar el mejor curso de acción defensiva.

No sólo no habría tiempo para que un responsable humano sopesara las variables de la amenaza, sino que los propios operadores de armas podrían sentirse abrumados para detectar, rastrear, atacar o disparar contra ataques simultáneos a alta velocidad en caso de recibir órdenes. Sencillamente, no hay tiempo. Por ello, se estudian la posibilidad de poseer armas autónomas con IA.

Humanos en el control

El advenimiento y la rápida madurez de la IA en la tecnología militar, las armas y la informática de alta velocidad ha hecho que muchos se planteen una pregunta apremiante y pertinente… ¿cuánto falta para que haya un robot armado del tipo «TERMINATOR» capaz de localizar, seguir, apuntar y destruir objetivos de forma autónoma sin intervención humana?

La respuesta es que, en ciertos aspectos, esa tecnología ya está aquí… pero hay que tener en cuenta complejas variables conceptuales, tecnológicas, filosóficas y políticas. Desde hace muchos años existen e incluso se envían al combate robots armados teleoperados, sistemas de armas controlados a distancia por humanos, en la que éstos no toman decisiones sobre la fuerza letal. Esto está totalmente en consonancia con la doctrina actual y de larga data del Pentágono, que dice que siempre debe haber un ser humano en al mando cuando se trata de decisiones relativas al uso de la fuerza letal. ¿Y la fuerza no letal? Esta cuestión de vanguardia está ahora muy presente en el radar del Pentágono, dada la rápida maduración de las capacidades de toma de decisiones, análisis y organización de datos potenciadas por la IA.

Básicamente, ¿debería un sistema basado en IA, que agrega y analiza conjuntos de datos de sensores que de otro modo serían dispares, ser capaz de discernir con precisión la diferencia entre fuerza letal y no letal? ¿Podrían usarse interceptores con IA para la defensa contra drones o como método para eliminar al instante cohetes, drones, artillería o morteros enemigos?

«Ahora no tenemos autoridad para prescindir de un humano fuera del bucle», dijo el Coronel Marc E. Pelini, Jefe de la División de Capacidades y Requisitos de la Oficina Conjunta de Sistemas Aéreos no Tripulados, durante una teleconferencia en 2021, según un informe del Pentágono del año pasado. «Según la política actual del DOD, en algún punto dentro del ciclo de decisión tiene que haber un humano para autorizar el ataque».

Sin embargo, ¿está empezando a influir en esta ecuación la combinación de la alta velocidad de los ordenadores con IA y la conectividad entre sensores y tiradores, junto con la velocidad y la esfera de las amenazas emergentes? Tal vez existan circunstancias tácticas en las que sea ético y extremadamente ventajoso desplegar sistemas autónomos capaces de rastrear e interceptar las amenazas que se aproximan en segundos, si no en milisegundos.

En su intervención en el informe del Pentágono, Pelini explicó que en la actualidad se está debatiendo hasta qué punto la IA puede permitir la toma de decisiones «con operador» o «sin operador», sobre todo ante amenazas como los enjambres de drones.

El nivel de precisión y fidelidad analítica que permite actualmente la IA está haciendo, al menos hasta cierto punto, al Pentágono a plantearse la cuestión. Los algoritmos avanzados, siempre que estén cargados con los datos necesarios y habilitados por el aprendizaje automático y la analítica necesaria para hacer discernimientos, son ahora capaces de procesar, interpretar y analizar con éxito cantidades masivas y variadas de datos.

Complejos algoritmos pueden analizar simultáneamente multitud de variables que de otro modo estarían desconectadas, como la forma, la velocidad y los contornos de un objeto enemigo, así como sus firmas térmicas y acústicas. Además, los algoritmos también pueden evaluar estas variables en relación con el entorno circundante, las condiciones geográficas, el clima, el terreno y los datos relativos a casos históricos en los que determinadas amenazas fueron atacadas por humanos, interceptores o contramedidas específicos. Las máquinas dotadas de IA son cada vez más capaces de analizar de forma colectiva qué respuesta podría ser la óptima o la más adecuada para una determinada amenaza.

¿Pueden las máquinas dotadas de IA tomar estas decisiones en milisegundos, de forma que puedan salvar vidas? Esa es la posibilidad que evalúa, en un sentido conceptual y tecnológico, un grupo de pensadores, desarrolladores de armas y futuristas que exploran lo que se denomina una posibilidad «fuera del bucle» para las armas y la autonomía. Se trata de algo muy interesante, ya que plantea la cuestión de si un sistema de armas autónomo o dotado de IA debería ser capaz de disparar, disparar o emplear la fuerza en una circunstancia «no letal».

Por supuesto, no se trata en estos momentos de «cambiar» la doctrina del Pentágono, sino más bien de una exploración, ya que el margen de tiempo para defender las fuerzas y desplegar contramedidas puede acortarse exponencialmente de forma que podría salvar vidas en la guerra en caso de que nuestras fuerzas sufrieran un ataque. Tecnológicamente hablando, la capacidad está, al menos hasta cierto punto, aquí, pero eso no resuelve ciertas cuestiones éticas, tácticas y doctrinales que acompañan a este tipo de contingencia.

Uno de los principales expertos del país en el tema de la IA y la ciberseguridad, antiguo alto cargo del Pentágono, afirma que se trata de cuestiones complejas, llenas de matices y extremadamente difíciles. «Creo que se trata tanto de una cuestión filosófica como tecnológica.

Desde el punto de vista tecnológico, podemos conseguirlo. Desde un punto de vista filosófico, y hasta qué punto confiamos en las máquinas subyacentes, creo que todavía puede ser un debate abierto.

Pues, un sistema defensivo interceptor de drones, si tiene un componente de misiles tierra-aire, sigue siendo una fuerza letal si falla el disparo o la identificación. Creo que tenemos que ser muy cautelosos a la hora de considerar que los sistemas defensivos no son letales si existe la posibilidad de que fallen, ya que un sistema defensivo podría provocar la muerte. En lo que se refiere a las aplicaciones defensivas, hay argumentos de peso……, pero creo que realmente tenemos que examinar qué medidas se están aplicando a esos sistemas defensivos antes de salirnos demasiado del bucle», declaró en una entrevista a Warrior Ross Rustici, ex responsable de ciberseguridad en Asia Oriental del Departamento de Defensa.

Rustici añadió que, en caso de «interferencia» o de algún tipo de contramedida no cinética, que no causaría lesiones ni daños a las personas en caso de fallo o mal funcionamiento, es mucho más eficaz emplear la IA y la automatización informática. Sin embargo, en el caso de la fuerza letal, sigue habiendo muchos interrogantes sobre la fiabilidad a la hora de «confiar» plenamente en las máquinas dotadas de IA para tomar decisiones.

«Lo que me gustaría ver en el futuro es una gestión de errores más integrada, de modo que cuando un sensor se degrada, cuando hay dudas sobre la fiabilidad de la información, se tenga esa visibilidad como humano para tomar la decisión. En la actualidad, existe el riesgo de que una persona acostumbrada a confiar demasiado en esos sistemas reciba datos corruptos, incompletos o incompletos. De este modo pueden introducirse errores en el sistema. Creo que es muy correcto intentar mantener separada la interfaz hombre-máquina y que el ser humano sea un poco escéptico con respecto a la tecnología para asegurarnos de que no se producen errores», explicó Rustici.

Esta ha sido y sigue siendo una cuestión doctrinal acuciante y a largo plazo, sobre todo teniendo en cuenta el ritmo de los avances tecnológicos en el ámbito de la autonomía y la IA. Ya en 2009, el Ejército estaba desarrollando un robot armado llamado MULE, Multi-Utility Logistics & Equipment vehicle. La plataforma era un robot rectangular de 3 metros armado con misiles antitanque Javelin, desarrollados años atrás para el anterior programa Future Combat Systems del Ejército.

El programa se canceló, pero los desarrolladores de armamento avanzado de la época se esforzaron en redactar una doctrina clara y reiterada sobre la aplicación de la fuerza letal. Incluso en aquel momento, el robot estaba siendo desarrollado para emplear Sistemas de Navegación Autónoma o ANS para rastrear ,encontrar, apuntar y destruir tanques enemigos sin «necesitar» la intervención humana para realizar la tarea. Por esta razón, el Ejército hizo un esfuerzo especial para reafirmar su requisito doctrinal crítico de «humano al control».

La tecnología ha evolucionado desde entonces, pero a pesar de lo prometedores que son los sistemas basados en IA y de la rápida mejora de sus prestaciones, parece que hay demasiados atributos y cualidades inefables o incalculables asociados a la cognición humana, como para que las máquinas orientadas por las matemáticas puedan captarlos con precisión. Hay fenómenos subjetivos exclusivos de la cognición humana que no parece que las máquinas puedan reproducir. ¿Qué hay de la emoción? ¿La intuición? ¿La imaginación? ¿Ciertos matices conceptuales o variaciones y ambigüedad de significado en el lenguaje?

Aunque los algoritmos avanzados están haciendo grandes progresos en su capacidad para evaluar múltiples variables en relación con otras y, por ejemplo, discernir la diferencia entre «fútbol» y «pelota de baile» basándose en el contexto y el lenguaje circundante, no significa que las máquinas puedan replicar realmente la «conciencia» humana. Parece haber muchos elementos en los fenómenos cognitivos humanos, que aún no se comprenden del todo y no son algo que las máquinas puedan simular, replicar o «capturar» con precisión.

«En este momento, no creo que nadie confíe en que las máquinas acierten el 100% de las veces. Creo que lo más adecuado es contar siempre con un elemento humano; aunque dependeremos en gran medida de los datos que recibamos», afirma Rustici.

Esta situación explica en parte por qué, a pesar de lo prometedor de la IA, también hay motivos para detenerse o dudar de la fiabilidad de los algoritmos avanzados. Por ejemplo, se dice que una máquina dotada de IA sólo es tan eficaz como su base de datos… así que, ¿qué ocurre si una máquina se encuentra ante algo totalmente desconocido o que simplemente «no está» en su base de datos? El término que usan los expertos militares y de la industria para describir esta situación se denomina «confianza cero», y se refiere a la medida en que las determinaciones algorítmicas pueden no tener el nivel de «fiabilidad» necesario para que se confíe plenamente en ellas, especialmente cuando se trata del uso de fuerza letal.

«Lo que quisiera para el futuro es mayor detección de errores, de modo que cuando un sensor se degrada, cuando hay dudas sobre la fiabilidad de la información, el ser humano tenga visibilidad para tomar la decisión. En la actualidad, existe el riesgo de que una persona acostumbrada a confiar demasiado en esos sistemas reciba datos corruptos, incompletos o con errores, de modo que se puedan introducir errores en el sistema. Creo que es muy acertado intentar mantener separada la interfaz hombre-máquina y que el ser humano sea algo escéptico con respecto a la tecnología para asegurarnos de que no se produzcan errores en la medida de nuestras posibilidades», afirma Rustici.

Estas cuestiones están muy presentes en las mentes de los informáticos del Laboratorio de Investigación de las Fuerzas Aéreas, que están explorando hasta qué punto los sistemas con capacidad de IA pueden empezar a analizar con precisión fenómenos más subjetivos.

«Hoy en día, la IA hace un uso intensivo de bases de datos. Pero, ¿qué puede y debe ser en el futuro? ¿Cómo podemos hacer que deje de ser sólo una base de datos y se convierta en algo capaz de aprovechar conceptos y relaciones, o emociones y análisis predictivos? ¿Hay tantas cosas que los humanos podemos hacer que la IA no puede? ¿Cómo podemos llegar a eso?», declaró a Warrior en una entrevista la General de División Heather Pringle, Comandante General del Laboratorio de Investigación del Ejército del Aire.

¿Pueden los sistemas capacitados para la IA, apoyados por el aprendizaje automático, realizar análisis casi en tiempo real de datos o información entrante que podrían no reconocer? Aquí es donde entra la cuestión de la IA «colectiva», algo de gran relevancia para cosas como las defensas contra drones o cualquier tipo de contramedida defensiva. Las máquinas pueden determinar cada vez más elementos de contexto y, por ejemplo, considerar de forma más holística una serie de factores en relación unos con otros.

Por ejemplo, los expertos del sector han planteado la interesante cuestión de si un sensor con IA o algún tipo de sistema de reconocimiento sería capaz de identificar positivamente un «tanque» enemigo si estuviera oculto por un gran cartel, árboles u otra técnica de engaño destinada a eludir la detección de los sensores.

El desarrollo avanzado de la IA va en esta dirección, como se describe en el caso de las defensas contra drones o el examen de múltiples variables en relación unas con otras. Si, por ejemplo, un tanque estuviera oculto u oculto, quizás un sistema con capacidad de IA podría integrar los datos de la firma térmica, las marcas de las orugas o las características del terreno para realizar la identificación basada en la evaluación holística o colectiva de una imagen completa compuesta por muchas variables. ¿Pueden «etiquetarse» y «entrenarse» los algoritmos y conjuntos de datos para realizar determinaciones más subjetivas mediante técnicas avanzadas de aprendizaje automático y análisis avanzados de alta velocidad?

Estratificación

Una posible solución o área de investigación relacionada con estas cuestiones puede abordarse mejor mediante lo que Rustici denomina «estratificación».

«En la mayoría de las aplicaciones militares, lo que se busca es la máxima información posible, pero los datos en sí suelen ser discretos y diferenciados. Por tanto, si se trata de un sistema anti-dron, se necesitará algún tipo de sensor que pueda reconocer ópticamente al propio dron, así como algún tipo de detección de firma térmica o de señal radio para tratar de identificar su funcionamiento», explica Rustici.

En lo que respecta a las defensas contra drones, por ejemplo, un sistema con IA podría recurrir a datos sobre amenazas, datos atmosféricos, datos geográficos y otros indicadores como la firma térmica o acústica de un objeto. Como parte de esto, una base de datos de IA podría cargarse con detalles históricos relativos a escenarios de combate anteriores en los que se emplearon determinadas defensas contra determinadas amenazas en escenarios concretos. Basándose en todo este tipo de datos, y analizando una serie de variables en relación unas con otras, un sistema potenciado por la IA podría identificar un curso de acción «óptimo» para que los responsables humanos de la toma de decisiones lo tuvieran en cuenta. ¿Tal vez la niebla impida que una contramedida láser funcione debido a la atenuación del haz? ¿Quizás una amenaza se aproxima a una zona urbana donde una explosión cinética podría herir a los civiles con escombros y fragmentación, por lo que se recomienda un método de defensa no cinético?

Este tipo de emparejamiento entre sensores y tiradores ya se ha demostrado en el ordenador del Ejército con capacidad de IA «Firestorm», que usa conjuntos agregados de datos de sensores que, de otro modo, serían dispares, para «emparejar» sensores y tiradores en cuestión de segundos y hacer recomendaciones a los responsables humanos de la toma de decisiones. Esto se ha demostrado en varias ocasiones durante el experimento del Project Convergence, diseñado para preparar al Ejército para combatir en la guerra a la mayor rapidez posible. A través de estos experimentos, que comenzaron en 2020, el Ejército ha acortado o truncado el tiempo entre el sensor y el tirador de 20 minutos… a 20 segundos, usando una combinación de algoritmos de alta velocidad con capacidad de IA y la toma de decisiones humana de forma conjunta.

Equipo tripulado-no tripulado

Todas estas variables son razones clave por las que los desarrolladores y científicos de armamento de alto nivel del Pentágono siguen insistiendo en la importancia del trabajo en equipo tripulado-no tripulado o «interfaz hombre-máquina». Una estrategia mixta de este tipo tiene sentido e incluso podría describirse como óptima en gran medida, ya que puede combinar o mezclar la capacidad de organización, análisis y procesamiento de datos a alta velocidad de las máquinas habilitadas para IA con aquellas variables, características y atributos exclusivos de la cognición humana.

Por eso, por ejemplo, las Fuerzas Aéreas están probando pilotos humanos que vuelan en misiones con un «copiloto» computerizado con capacidad de IA. Hay cosas que las máquinas harán mucho mejor y mucho más rápido, pero la toma de decisiones humana es necesaria para hacer muchas más determinaciones matizadas en medio de circunstancias de guerra dinámicas y rápidamente cambiantes y realizar verificaciones críticas en caso de que un algoritmo sea incapaz de hacer identificaciones y distinciones vitales de forma fiable o, lo que es quizás aún más grave, sea «suplantado, interferido» o simplemente alimentado con información falsa por un adversario.

Hace varios años, las Fuerzas Aéreas hicieron historia al pilotar por primera vez un avión espía U-2 con un copiloto informático dotado de inteligencia artificial. El algoritmo de IA, llamado ARTUu, voló junto con un piloto humano en un avión espía U-2 Dragon Lady, realizando tareas que «de otro modo haría un piloto», explicaba un informe de las Fuerzas Aéreas. «La principal responsabilidad de ARTUu era encontrar lanzadores enemigos y la del piloto aviones enemigos, compartiendo ambos el radar del U-2», decía el informe de la Fuerza Aérea.

Todo esto lleva finalmente a la última pregunta o la más consecuente, es decir, si un robot del tipo «terminator» puede emplearse en la guerra… «¿debería?». Ciertamente, el Pentágono ve estas cuestiones técnicas a través de una lente ética y moral, pero ciertamente no hay garantía de que un enemigo haga lo mismo. Por lo tanto, es posible que los soldados tengan que prepararse para combatir contra robots autónomos, una de las razones por las que se hace tanto hincapié en el alcance, la conexión en red y el uso de sistemas no tripulados cuando se trata de la moderna Maniobra de Armas Combinadas.

«Yo diría que, a medida que sigamos evolucionando desde el punto de vista de los sistemas, vamos a tener varias cuestiones morales sobre lo que debemos desplegar y cómo debemos desplegarlo. No se trata sólo de si podemos hacerlo, sino de cuál es la mejor manera de hacerlo, y creo que eso va a ser lo más difícil, tanto desde el punto de vista tecnológico como político», afirmó Rustici. «Como persona, ¿con qué conciencia me siento cómodo si una máquina nunca va a llegar al detalle? … y ese es realmente el punto en el que hay ambigüedad y es necesario mantener al ser humano en ese control concreto», dijo Rustici.

Fte. Warrior Maven (Kris Osborn)

Kris Osborn trabajó en el Pentágono como experto altamente cualificado en la Oficina del Subsecretario del Ejército para Adquisiciones, Logística y Tecnología. Osborn también ha trabajado como presentador y especialista militar en antena en cadenas de televisión nacionales.