Project Quarterback, la guerra de tanques con inteligencia artificial

Se trata de nuevo proyecto, que tiene como objetivo hacer el campo de batalla más «transparente», al tiempo que apoyada en robots y software que «piensan» de manera impredecible.

La guerra de tanques, no es tan fácil de predecir como lo sugieren las enormes máquinas que se mueven a través de los espacios abiertos. En julio de 1943, por ejemplo, los militares alemanes creían que su avance sobre la ciudad rusa de Kursk terminaría en diez días. De hecho, ese intento duró casi dos meses y finalmente fracasó. Incluso la batalla de Bagdad de 2003, en la que las fuerzas estadounidenses tenían superioridad aérea, duró una semana. Para las guerras del futuro, eso es demasiado lento, por lo que el Ejército de EE.UU. ha lanzado un nuevo proyecto, denominado Project Quarterback, que tiene por objeto acelerar la guerra de tanques, mediante la sincronización de los datos del campo de batalla, gracias a la ayuda de la inteligencia artificial.

El proyecto, que tiene aproximadamente un mes de antigüedad, investiga un asistente de inteligencia artificial que pueda observar el campo de batalla, recoger todos los datos relevantes que obtienen los aviones no tripulados, radares, robots de tierra, satélites, cámaras montadas en gafas de los soldados, etc. y luego dar escoger la forma de actuar para derrotar al enemigo o enemigos con las armas disponibles. En otras palabras, el Quarterback ayudaría a los comandantes a hacer las dos cosas mejor y más rápidamente: entender exactamente lo que hay en el campo de batalla y luego a seleccionar la táctica o estrategia más apropiada basada en los activos disponibles y otros factores.

Ya solamente la primera parte de ese desafío es enorme. La cantidad de datos del campo de batalla potencialmente utilizables aumente rápidamente y lleva mucho tiempo sincronizarlos.

Por ejemplo, «las pantallas de mapas simples requieren 96 horas para sincronizar un ciclo de objetivos de brigada o división», dijo Kevin McEnery, subdirector del Army’s Next Generation Combat Vehicle Cross Functional Team, en un evento en el Centro Nacional de Ingeniería en Robótica. Uno de los objetivos es reducirlo a «96 segundos, con la ayuda de la IA», dijo.

«Toda la amplia gama de sensores militares actuales y futuros, medios de aviación, de guerra electrónica, cibernéticos, sistemas aéreos no tripulados, sistemas terrestres no tripulados, vehículos tripulados de última generación y soldados desmontados detectarán y geolocalizarán al enemigo en el campo de batalla. Por eso, necesitamos un sistema de IA que ayude a identificar esa amenaza, agregar sus datos con los de otros sensores y datos, distribuirlos a través de nuestros sistemas de mando y control y recomendar a nuestros comandantes en la mejor plataforma de tiro para obtener los mejores efectos, ya sea un F-35, un cañón de largo alcance o un vehículo de control remoto», dijo McEnery.

En última instancia, el Ejército está buscando mucho más que un visualizador de datos. Quiere que la AI colabore en la estrategia de la batalla, dijo el teniente coronel Jay Wisham, uno de los líderes del programa. «¿Cómo tomar decisiones basadas en los datos del campo de batalla? ¿Cómo seleccionar la forma mejor de atacar a un objetivo, basado en la probabilidad de impacto, probabilidad de muerte? ¿Hay activos que se puedan solicitar? ¿Puedo… enviar a mi compañero… o que la computadora nos recomiende, Red One, que nuestro compañero tome ese objetivo en vez de tú por razones X, ¿Y? Eso se remonta al concepto de cómo tomar una decisión más informada, de forma más rápida. ¿Y quién toma esa decisión un comandante de tanque o el de batallón”, dijo?

Los planes futuros del Ejército dependen mucho no sólo de la IA, sino también de robots terrestres cada vez más inteligentes. Ahora, un único operador puede controlar dos robots terrestres. Los planes del Ejército son conseguir esa proporción de un humano por docena de robots. Eso requerirá que esos futuros robots, no sólo recopilen datos visuales, sino que también perciban el mundo que los rodea, designando (aunque primitivamente) objetos en su campo de percepción. Esos robots también tendrán que tomar decisiones con un mínimo de supervisión humana, ya que la disponibilidad de redes de alto ancho de banda no es segura.

Durante el evento, que fue organizado por el Laboratorio de Investigación del Ejército, los investigadores de Carnegie Mellon revelaron experimentos robóticos, en los que robots terrestres demostraron que podían obtener inteligencia, maniobrar de forma autónoma e incluso descifrar lo que significaba moverse «a cubierto», con un mínimo de ordenes humanas. El robot aprende y aplica etiquetas a los objetos de su entorno después de observar a los seres humanos.

Confiar en este tipo de robots, requerirá una dependencia más profunda de los pequeños y grandes sistemas artificialmente inteligentes que llegan a conclusiones, a través de un razonamiento opaco, neural en red o de aprendizaje profundo. A ambos se les llama a veces procesos de aprendizaje de caja negra porque, a diferencia de los modelos estadísticos simples o sencillos, es difícil saber cómo las redes neuronales toman las decisiones que toman.  En otras palabras, los comandantes y soldados tendrán que sentirse más cómodos, con los robots y el software que producen resultados a través de procesos que no pueden explicarse fácilmente, incluso por los programadores que los produjeron.

La manera de desarrollar esa confianza, dijo Wisham, es la misma en que los humanos desarrollan la confianza unos en otros, lentamente y con mucha práctica. «La mayoría de los humanos no son tan explicables como nos gusta pensar… Si le demuestras a un soldado que la herramienta o el sistema con el que estás tratando de capacitarlos generalmente funciona relativamente bien y les agregas alguna capacidad… crecerá la confianza muy, muy rápidamente».

Pero, dijo, cuando se trata de ayudas para la toma de decisiones, «será mucho más difícil».

Anthony Stenz, director de ingeniería de software del Grupo de Tecnologías Avanzadas de Uber, dijo: «Confías en algo porque funciona, no porque lo entiendas. La forma en que demuestras que funciona es ejecutando muchas, muchas, muchas, muchas pruebas, construyendo un análisis estadístico y construyendo confianza de esa manera. Esto es cierto no sólo para los sistemas de aprendizaje profundo, sino también para otros sistemas que son suficientemente complejos. No vas a demostrar que están en lo cierto. Necesitarás someterlos a una batería de pruebas y luego convencerte de que cumplen con los requisitos del bar».

La creciente disponibilidad de big data, y la computación a gran escala a través de arquitecturas empresariales en nube, también está acelerando un nuevo estado de redes neuronales y soluciones de aprendizaje profundo, una que es potencialmente más transparente. «Dieter Fox, director senior de investigación en robótica de NVIDIA, afirma: «En el aprendizaje de la máquina se está trabajando mucho precisamente en esta dirección. «Se están desarrollando técnicas para inspeccionar estas redes y ver por qué estas redes pueden llegar a un cierto reconocimiento o solución o similar». También hay una importante investigación emergente en la delimitación de las redes neuronales y los sistemas de aprendizaje profundo mientras aprenden, incluyendo las redes neuronales en robots, » Como poner esta estructura física o las restricciones en estas redes para que aprendan dentro de los confines de lo que creemos que está físicamente bien «.

Fte. Defense One