Robots de ataque, Terminators, armas autónomas – El futuro de la IA

En una interesante entrevista reciente en la CNN, el ex presidente Barack Obama fue preguntado por el futuro de la IA y las diversas variables filosóficas, tecnológicas y éticas que dominan ahora el debate, a medida que la tecnología de la IA se dispara y muchos consideran sus implicaciones. Aunque fue claro al subrayar que la IA sigue aportando al mundo innovaciones que cambian paradigmas, usó un lenguaje sucinto para resumir lo que quizá sea la complicación o el reto más importante en lo que respecta a la aplicación de la IA …. «Las máquinas no pueden sentir alegría», dijo a la CNN.

Obama dijo esto en el contexto de la descripción de cómo el advenimiento y la rápida llegada de nuevas aplicaciones de la IA siguen cambiando las cosas rápidamente aportando nuevas promesas aparentemente ilimitadas y también introduciendo retos y complejidades. Se apresuró a elogiar los méritos de la IA en su conversación con la CNN, pero también mencionó sus retos o limitaciones, dado que atributos exclusivamente humanos como la emoción, la devoción y otros fenómenos más subjetivos no pueden ser sentidos por las máquinas. Es cierto, y aunque los innovadores de la industria de defensa y las instituciones fundamentales del Pentágono, como el Laboratorio de Investigación de las Fuerzas Aéreas, están avanzando en la exploración de formas en las que la IA pueda estimar, calcular o analizar de algún modo fenómenos más subjetivos, es evidente que existen muchas variables exclusivas de la cognición, la intuición, los matices psicológicos, la ética, la conciencia y la emoción humanas que, al parecer, los algoritmos generados matemáticamente simplemente no podrían reproducir ni siquiera empezar a aproximar con verdadera precisión. Esta es la razón por la que los principales desarrolladores de armas se apresuran a explicar que cualquier camino óptimo hacia adelante implica una mezcla o combinación que implica lo que podría llamarse el término favorito del Pentágono … «equipo tripulado-no tripulado».

Esto, sin embargo, no significa que los méritos y posibilidades de la IA deban subestimarse, ya que investigadores de alto nivel del Laboratorio de Investigación del Ejército han explicado que «estamos en la punta del iceberg» en términos de lo que la IA puede realmente lograr. Por ello, el Pentágono está midiendo el rápido éxito y la promesa de la IA en el contexto de la fuerza defensiva no letal. La combinación de las facultades humanas de toma de decisiones, unida a la velocidad y potencia analítica de la informática de alta velocidad generada por la IA, ya está creando innovaciones que cambian paradigmas. Imagínese cuántas vidas podría salvar un sistema de defensa con armas de IA. La IA también está acortando ya masivamente la “kill chain” (sensor-tirador) en experimentos clave de la guerra moderna como el Project Convergence del Ejército.

Estas complejidades son la razón principal por la que sigue habiendo tantos esfuerzos tecnológicos para mejorar la «fiabilidad» de los análisis generados por IA, de modo que, mediante el aprendizaje automático y el análisis en tiempo real, las máquinas puedan determinar el contexto y procesar con precisión nuevo material que podría no formar parte de su base de datos. Tal y como describió a Warrior la ex comandante del Laboratorio de Investigación de las Fuerzas Aéreas, la General de División Heather Pringle, ésta es la nueva frontera de la IA.

«Hoy en día, la IA hace un uso intensivo de las bases de datos. Pero, ¿qué puede y debe ser en el futuro? ¿Cómo podemos hacer que deje de ser una simple base de datos y se convierta en algo capaz de aprovechar conceptos y relaciones, o emociones y análisis predictivos? ¿Hay tantas cosas que los humanos podemos hacer que la IA no puede? ¿Cómo podemos llegar a eso?», declaró a Warrior la General de División Heather Pringle, ex Comandante General del Laboratorio de Investigación de las Fuerzas Aéreas, en una entrevista a principios de este año.

La inteligencia artificial puede salvar vidas

En caso de que un enjambre de mini drones explosivos se acerque para atacar o una salva de misiles hipersónicos se aproxime a velocidad cinco veces superior a la del sonido, es posible que los responsables humanos de la toma de decisiones no sean capaces de responder con la suficiente rapidez. De hecho, es posible que los mandos militares no tengan ninguna oportunidad de contraatacar o determinar el mejor curso de acción defensiva.

No sólo no habría tiempo para que un responsable humano de la toma de decisiones sopesara las variables de la amenaza, sino que los propios operadores de armas podrían simplemente estar demasiado abrumados para detectar, rastrear, atacar o disparar contra ataques simultáneos a alta velocidad en caso de recibir órdenes. Sencillamente, no hay tiempo.

Humanos en el control

El advenimiento y la rápida madurez de la Inteligencia Artificial para la tecnología militar, las armas y la informática de alta velocidad ha hecho que muchos se planteen una pregunta apremiante y pertinente… ¿cuánto falta para que haya un robot armado del tipo «TERMINATOR» capaz de encontrar, rastrear, apuntar y destruir objetivos de forma autónoma sin necesidad de intervención humana?

La respuesta es que, en ciertos aspectos, esa tecnología ya está aquí… pero hay que tener en cuenta una serie de complejas variables conceptuales, tecnológicas, filosóficas y políticas. Desde hace muchos años existen e incluso se envían a la guerra robots armados teleoperados, es decir, sistemas de armas controlados a distancia por un ser humano sin que las máquinas tomen ninguna decisión o determinación sobre la fuerza letal. Esto está totalmente en consonancia con la doctrina actual y de larga data del Pentágono, que dice que siempre debe haber un ser humano en el control, cuando se trata de decisiones relativas al uso de la fuerza letal. ¿Y la fuerza no letal? Esta cuestión de vanguardia está ahora muy presente en el radar del Pentágono, dada la rápida maduración de las capacidades de toma de decisiones, análisis y organización de datos potenciadas por la IA.

Básicamente, ¿debería un sistema basado en IA, que agrega y analiza conjuntos de datos de sensores que de otro modo serían dispares, ser capaz de discernir con precisión la diferencia entre fuerza letal y no letal? ¿Podrían emplearse interceptores con IA para la defensa contra aviones no tripulados o como método para eliminar al instante cohetes, aviones no tripulados, artillería o morteros enemigos?

«Ahora mismo no tenemos autoridad para no tener a un humano en el control», dijo el Coronel Marc E. Pelini, jefe de la división de capacidades y requisitos de la Joint Counter-Unmanned Aircraft Systems Office, durante una teleconferencia en 2021, según un informe del Pentágono publicado el año pasado. «Basándonos en la política actual del Departamento de Defensa, tienes que tener a un humano dentro del ciclo de decisión en algún momento para autorizar el ataque».

Sin embargo, ¿está empezando a influir en esta ecuación la combinación de la alta velocidad de los ordenadores con IA y la conectividad entre sensores y tiradores, junto con la velocidad y la esfera de las amenazas emergentes? Tal vez existan circunstancias tácticas en las que sea ético y extremadamente ventajoso desplegar sistemas autónomos capaces de rastrear e interceptar las amenazas que se aproximan en segundos, si no en milisegundos.

En su intervención en el informe del Pentágono, Pelini explicó que se está debatiendo hasta qué punto la IA puede permitir la toma de decisiones humanas «dentro del bucle» o «fuera del bucle», sobre todo ante amenazas como los enjambres de drones.

El nivel de precisión y fidelidad analítica que permite actualmente la IA está inspirando, al menos hasta cierto punto, al Pentágono a plantearse la cuestión. Los algoritmos avanzados, siempre que estén cargados con los datos necesarios y habilitados por el aprendizaje automático y la analítica necesaria para hacer discernimientos, son ahora capaces de procesar, interpretar y analizar con éxito cantidades masivas y variadas de datos.

Complejos algoritmos pueden analizar simultáneamente una serie de variables que de otro modo estarían desconectadas, como la forma, la velocidad y los contornos de un objeto enemigo, así como sus señales térmicas y acústicas. Además, ahora los algoritmos también pueden evaluar estas variables entrelazadas en relación con el entorno circundante, las condiciones geográficas, el clima, el terreno y los datos relativos a casos históricos en los que ciertas amenazas fueron atacadas con tiradores, interceptores o contramedidas específicos. Las máquinas dotadas de inteligencia artificial son cada vez más capaces de analizar de forma colectiva qué respuesta podría ser la óptima o la más adecuada para un determinado escenario de amenaza.

¿Pueden las máquinas dotadas de IA tomar estas decisiones en milisegundos de forma que puedan salvar vidas en la guerra? Esa es la posibilidad que está evaluando ahora en un sentido conceptual y tecnológico un grupo de pensadores, desarrolladores de armas y futuristas que exploran lo que se denomina una posibilidad «fuera del bucle» para las armas y la autonomía. Esto es bastante interesante, ya que plantea la cuestión de si un sistema de armas autónomo o con IA debería ser capaz de disparar, disparar o emplear la fuerza en una circunstancia «no letal».

Por supuesto, no se trata actualmente de «cambiar» la doctrina del Pentágono, sino más bien de explorarla, ya que el margen de tiempo para defender las fuerzas y desplegar contramedidas puede acortarse exponencialmente de forma que podría salvar vidas en la guerra si las fuerzas estadounidenses fueran atacadas. Tecnológicamente hablando, la capacidad está, al menos hasta cierto punto, aquí, pero eso no resuelve ciertas cuestiones éticas, tácticas y doctrinales que acompañan a este tipo de contingencia.

Uno de los principales expertos del país en el tema de la IA y la ciberseguridad, antiguo alto cargo del Pentágono, afirma que se trata de cuestiones complejas, llenas de matices y extremadamente difíciles.

«Creo que se trata tanto de una cuestión filosófica como tecnológica. Desde el punto de vista tecnológico, es absolutamente posible. Desde un punto de vista filosófico, y hasta qué punto confiamos en las máquinas subyacentes, creo que aún puede ser un debate abierto». Así que un sistema defensivo que intercepta drones, si tiene un componente de misiles tierra-aire, sigue siendo una fuerza letal si falla el disparo o la identificación. Creo que debemos ser muy cautelosos a la hora de considerar que los sistemas defensivos no son letales si existe la posibilidad de que fallen, ya que un sistema defensivo podría provocar la muerte. En lo que se refiere a las aplicaciones defensivas, hay argumentos de peso……, pero creo que realmente tenemos que examinar qué medidas se están aplicando a esos sistemas defensivos antes de salirnos demasiado del bucle», declaró en una entrevista a Warrior Ross Rustici, ex responsable de ciberseguridad en Asia Oriental del Departamento de Defensa.

Rustici explicó además que en el caso de «interferencias» o de algún tipo de contramedida no cinética que no dañaría a las personas en caso de fallo o mal funcionamiento, es mucho más eficaz utilizar la IA y la automatización informática. Sin embargo, en el caso de la fuerza letal, sigue habiendo muchos interrogantes sobre la fiabilidad a la hora de «confiar» plenamente en las máquinas dotadas de IA para tomar decisiones.

«Lo que me gustaría ver en el futuro es una gestión de errores más integrada, de modo que cuando un sensor se degrada, cuando hay dudas sobre la fiabilidad de la información, se tenga esa visibilidad como humano para tomar la decisión. En la actualidad, existe el riesgo de que una persona acostumbrada a confiar demasiado en esos sistemas reciba datos corruptos, incompletos o desvirtuados. De este modo pueden introducirse errores en el sistema. Creo que es muy correcto intentar mantener separada la interfaz hombre-máquina y que el ser humano sea un poco escéptico con respecto a la tecnología para asegurarnos de que no se producen errores», explicó Rustici.

Esta ha sido y sigue siendo una cuestión doctrinal acuciante y a largo plazo, sobre todo teniendo en cuenta el ritmo de los avances tecnológicos en el ámbito de la autonomía y la IA. Ya en 2009, el Ejército estaba desarrollando un robot armado llamado MULE, Multi-Utility Logistics & Equipment vehicle. La plataforma era un robot rectangular de 3 metros armado con misiles antitanque Javelin, desarrollados años atrás para el anterior programa Future Combat Systems del Ejército.

El programa se canceló, pero los desarrolladores de armamento avanzado de la época se esforzaron especialmente en redactar una doctrina clara y reiterada sobre la aplicación de la fuerza letal. Incluso en aquel momento, el robot estaba siendo desarrollado para usar Sistemas de Navegación Autónoma o ANS para rastrear, encontrar, apuntar y destruir tanques enemigos sin «necesitar» la intervención humana para realizar la tarea. Por esta razón, el Ejército hizo un esfuerzo especial para reafirmar su requisito doctrinal crítico de «humano en el control».

La tecnología ha evolucionado desde entonces, pero a pesar de la promesa y la rápida mejora del rendimiento de los sistemas basados en IA, parece que hay demasiados atributos y cualidades inefables o incalculables asociados a la cognición humana que las máquinas orientadas matemáticamente no pueden captar con precisión. Hay fenómenos subjetivos exclusivos de la cognición humana que no parece que las máquinas puedan reproducir. ¿Qué hay de la emoción? ¿La intuición? ¿La imaginación? ¿Ciertos matices conceptuales o variaciones y ambigüedades de significado en el lenguaje?

Aunque los algoritmos avanzados están haciendo grandes progresos en su capacidad para evaluar múltiples variables en relación con otras y, por ejemplo, discernir la diferencia entre «fútbol» y «pelota de baile» basándose en el contexto y el lenguaje circundante, eso no significa que las máquinas puedan replicar realmente la «conciencia» humana. Parece haber muchos elementos en los fenómenos cognitivos humanos, muchos de los cuales aún no se comprenden del todo y no son algo que las máquinas puedan simular, replicar o «capturar» con precisión en gran medida.

«En este momento, no creo que nadie confíe en que las máquinas acierten el 100% de las veces. Creo que lo correcto es contar siempre con un control humano, siempre vamos a depender en gran medida de los datos que nos suministren», afirma Rustici.

Esta situación explica en parte por qué, a pesar de lo prometedor de la IA, también hay motivos para detenerse o dudar de la fiabilidad de los algoritmos avanzados. Por ejemplo, se dice que una máquina dotada de IA sólo es tan eficaz como su base de datos… así que, ¿qué ocurre si una máquina encuentra algo totalmente desconocido o que simplemente «no está» en su base de datos? El término que emplean los expertos militares y de la industria para describir esta situación se denomina «confianza cero», y se refiere a la medida en que las determinaciones algorítmicas pueden no tener el nivel de «fiabilidad» necesario para que se confíe plenamente en ellas, especialmente cuando se trata del uso de fuerza letal.

«Lo que quiero ver en el futuro es mayor detección de errores, de modo que cuando un sensor se degrada, cuando hay dudas sobre la fiabilidad de la información, el ser humano tenga visibilidad para tomar la decisión. En la actualidad, existe el riesgo de que una persona acostumbrada a confiar demasiado en esos sistemas reciba datos corruptos, incompletos o con errores. De este modo pueden introducirse errores en el sistema. Creo que es muy acertado intentar mantener separada la interfaz hombre-máquina y que el ser humano sea un poco escéptico con respecto a la tecnología para asegurarnos de que no se producen errores en la medida de nuestras posibilidades», dijo Rustici.

Estas cuestiones están muy presentes en las mentes de los informáticos del Laboratorio de Investigación de las Fuerzas Aéreas, que están estudiando hasta qué punto los sistemas con capacidad de IA pueden empezar a analizar con precisión fenómenos más subjetivos.

«Hoy en día, la IA hace un uso intensivo de bases de datos. Pero, ¿qué puede y debe ser en el futuro? ¿Cómo podemos hacer que deje de ser sólo una base de datos y se convierta en algo capaz de aprovechar conceptos y relaciones, o emociones y análisis predictivos? ¿Hay tantas cosas que los humanos podemos hacer que la IA no puede? ¿Cómo podemos llegar a eso?», declaró a Warrior en una entrevista la General de División Heather Pringle, Comandante General del Laboratorio de Investigación del Ejército del Aire.

¿Pueden los sistemas con capacidad de IA, apoyados por el aprendizaje automático, realizar análisis casi en tiempo real de los datos o la información entrante que podrían no reconocer? Aquí es donde entra la cuestión de la IA «colectiva», algo de gran relevancia para cosas como las defensas contra drones o cualquier tipo de contramedida defensiva. Las máquinas pueden determinar cada vez más elementos de contexto y, por ejemplo, considerar de forma más holística una serie de factores en relación unos con otros.

Por ejemplo, los expertos del sector han planteado la interesante cuestión de si un sensor con IA o algún tipo de sistema de reconocimiento sería capaz de identificar positivamente un «tanque» enemigo si estuviera oculto por un gran cartel, árboles u otra técnica de engaño destinada a eludir la detección de los sensores.

El desarrollo avanzado de la IA va en esta dirección, como se describe en el caso de las defensas con drones o el examen de múltiples variables en relación unas con otras. Si, por ejemplo, un carro de combate estuviera oculto, tal vez un sistema con capacidad de IA podría integrar los datos de la firma térmica, las marcas de las orugas o las características del terreno para realizar una identificación basada en una evaluación holística o colectiva de una imagen completa compuesta por muchas variables. ¿Pueden «etiquetarse» y «entrenarse» los algoritmos y conjuntos de datos para realizar determinaciones más subjetivas utilizando técnicas avanzadas de aprendizaje automático y análisis avanzados de alta velocidad?

Estratificación

Una posible solución o área de investigación relacionada con estas cuestiones puede abordarse mejor mediante lo que Rustici denomina «estratificación».

«En la mayoría de estas aplicaciones militares, lo que se pretende es incorporar toda la información posible, pero los datos en sí suelen ser discretos y diferenciados. Por tanto, si se trata de un sistema antidrones, se necesitará algún tipo de sensor que pueda reconocer ópticamente el propio dron, así como algún tipo de detección de firmas térmicas o de señales de radio para tratar de identificar su funcionamiento», explica Rustici.

En lo que respecta a las defensas contra drones, por ejemplo, un sistema con IA podría recurrir a datos sobre amenazas, datos atmosféricos, datos geográficos y otros indicadores como la firma térmica o acústica de un objeto. Como parte de esto, una base de datos de IA podría cargarse con detalles históricos relativos a escenarios de combate anteriores en los que se usaron determinadas defensas contra determinadas amenazas en escenarios concretos. A partir de todo este tipo de datos, y analizando una serie de variables en relación unas con otras, un sistema potenciado por la IA podría identificar un curso de acción «óptimo» para que lo consideren los responsables humanos de la toma de decisiones. ¿Tal vez la niebla impida que una contramedida láser funcione debido a la atenuación del haz? ¿Quizás una amenaza se aproxima a una zona urbana donde una explosión cinética podría herir a los civiles con escombros y fragmentación, por lo que se recomienda un método de defensa no cinético?

Este tipo de emparejamiento entre sensores y tiradores ya ha sido demostrado por el ordenador del Ejército con capacidad de IA llamado «Firestorm», que usaba conjuntos agregados de datos de sensores entrantes, que de otro modo serían dispares, para «emparejar» sensores y tiradores en cuestión de segundos y hacer recomendaciones a los responsables humanos de la toma de decisiones. Esto se ha demostrado en varias ocasiones durante el experimento del Proyect Convergence, diseñado para preparar al Ejército para combatir en la guerra a la velocidad de relevancia. A través de estos experimentos, que comenzaron en 2020, el Ejército ha acortado o truncado el tiempo entre sensor y tirador de 20 minutos… a 20 segundos, mediante una combinación de algoritmos de alta velocidad con capacidad de IA y la toma de decisiones humana de forma conjunta.

Equipo tripulado-no tripulado

Todas estas variables son razones clave por las que los desarrolladores y científicos de armamento de alto nivel del Pentágono siguen insistiendo en la importancia del trabajo en equipo tripulado-no tripulado o «interfaz hombre-máquina». Una estrategia combinada de este tipo tiene sentido e incluso podría describirse como óptima en gran medida, ya que puede combinar o mezclar la capacidad de organización, análisis y procesamiento de datos a alta velocidad de las máquinas habilitadas para IA con aquellas variables, características y atributos exclusivos de la cognición humana.

Por eso, por ejemplo, las Fuerzas Aéreas están probando pilotos humanos que vuelan en misiones con un «copiloto» computerizado con capacidad de IA. Hay cosas que las máquinas harán mucho mejor y mucho más rápido, pero la toma de decisiones humana es necesaria para hacer muchas más determinaciones matizadas en medio de circunstancias de guerra dinámicas y rápidamente cambiantes y realizar verificaciones críticas en el caso de que un algoritmo sea incapaz de hacer identificaciones y distinciones vitales de forma fiable o, lo que quizás sea aún más grave, sea «suplantado, interferido» o simplemente alimentado con información falsa por un adversario.

Hace varios años, la Fuerza Aérea hizo historia al pilotar por primera vez un avión espía U-2 con un copiloto informático dotado de inteligencia artificial. El algoritmo de IA, llamado ARTUu, voló junto con un piloto humano en un avión espía U-2 Dragon Lady, realizando tareas que «de otro modo haría un piloto», explicaba un informe de las Fuerzas Aéreas. «La principal responsabilidad de ARTUu era encontrar lanzaderas enemigas mientras el piloto estaba atento a aviones enemigos, compartiendo ambos el radar del U-2».

Todo esto lleva finalmente a una última pregunta o la más consecuente, es decir, si un robot del tipo «terminator» puede emplearse en la guerra… «¿debería?». Ciertamente, el Pentágono ve estas cuestiones técnicas a través de una lente ética y moral, pero no hay garantía de que el enemigo haga lo mismo. Por lo tanto, es posible que los soldados tengan que prepararse para luchar contra robots autónomos, una de las razones por las que se hace tanto hincapié en el alcance, la conexión en red y el uso de sistemas no tripulados cuando se trata de la moderna Maniobra de Armas Combinadas.

«Yo diría que, a medida que sigamos evolucionando desde el punto de vista de los sistemas, vamos a tener varias cuestiones morales sobre lo que debemos desplegar y cómo debemos desplegarlo. No se trata sólo de si podemos hacerlo, sino de cuál es la mejor manera de hacerlo, y creo que eso va a ser lo más difícil de resolver, tanto desde el punto de vista tecnológico como político», afirmó Rustici. «Como persona, ¿con qué conciencia me siento cómodo si una máquina nunca va a llegar al detalle? ….. y ahí es donde realmente hay ambigüedad y es necesario mantener al ser humano en ese bucle particular», dijo Rustici.

Fte. Warrior Maven (Kris Osborn)

Kris Osborn Presidente de Warrior Maven – Centro para la Modernización Militar. Anteriormente, trabajó en el Pentágono como experto altamente cualificado en la Oficina del Subsecretario del Ejército para Adquisiciones, Logística y Tecnología. Osborn también ha trabajado como presentador y especialista militar en antena en cadenas de televisión nacionales. Ha aparecido como experto militar invitado en Fox News, MSNBC, The Military Channel y The History Channel. También posee un máster en Literatura Comparada por la Universidad de Columbia.