El otoño pasado, tanto Rusia como Ucrania se jactaron de disponer de drones que rastreaban objetivos mediante algoritmos de IA.
Ahora, un nuevo análisis de expertos sugiere que ninguna de las partes consiguió que funcionaran lo suficientemente bien como para entrar en guerra, pero quizá Estados Unidos y China sí.
«La guerra de Ucrania está provocando una revolución en la guerra con drones que usan IA», decía un titular del Washington Post el pasado julio. Luego, en otoño, una avalancha de informes afirmó que tanto Rusia como Ucrania habían desplegado pequeños drones que aplicaban inteligencia artificial para identificar y localizar objetivos. Contar con IA a bordo significaba que los drones, versiones del Lancet ruso y del Saker Scout ucraniano, no necesitarían un operador humano para guiarlos hasta el impacto.
Si esta IA hubiera demostrado su eficacia en combate, habría supuesto una auténtica revolución. Los sistemas de guerra electrónica diseñados para interrumpir el enlace de control del operador, o peor aún, rastrear la transmisión hasta su fuente para un ataque de precisión, habrían sido en gran medida inútiles contra los drones autoguiados. Los expertos y escasos pilotos de drones podrían haber sido sustituidos por miles de reclutas entrenados rápidamente para apuntar y hacer clic en objetivos potenciales. Y en lugar de que cada avión no tripulado requiriera un operador que mirara su señal de vídeo a tiempo completo, un solo humano podría haber supervisado un enjambre de máquinas letales.
En conjunto, la IA militar habría dado un paso técnicamente impresionante y ligeramente aterrador hacia la independencia del control humano, como el Ultrón de Marvel cantando el «No tengo ataduras» de Pinocho. En cambio, tras más de cuatro meses de pruebas de campo en primera línea, los drones potenciados con IA de ninguno de los dos bandos parecen haber tenido un impacto mensurable.
A principios de febrero, un informe detallado del Center for a New American Security desestimó los drones de IA en unas pocas líneas. «El Lancet-3 se anunciaba como dotado de identificación de objetivos y combate autónomos, aunque estas afirmaciones no están verificadas», escribió la directora del programa de defensa del CNAS, Stacie Pettyjohn. «Ambas partes afirman que usan inteligencia artificial para mejorar la capacidad del dron de alcanzar su objetivo, pero es probable que su uso sea limitado».
Luego, el 14 de febrero, un análisis independiente sugirió que los rusos, al menos, habían desactivado la función de guía por inteligencia artificial de su Lancet. Los vídeos de las pantallas de los operadores del dron, publicados en Internet desde el otoño, incluían a menudo un recuadro alrededor del objetivo, capaz de moverse a medida que éste se movía, y una notificación que decía «objetivo fijado», según publicó el periodista independiente David Hambling en Forbes. Estas características requerirían algún tipo de algoritmo de reconocimiento de objetos, aunque es imposible saber, sólo por el vídeo, si se limitaba a resaltar el objetivo para el operador humano o guiaba activamente al dron para que lo alcanzara.
Sin embargo, «ninguno de los vídeos de Lancet de las dos últimas semanas, más o menos, parece tener el «Objetivo fijado» o el cuadro delimitador que lo acompaña», continuó Hambling. «La conclusión obvia es que el software de reconocimiento automático de objetivos se lanzó prematuramente y se ha producido una retirada del producto».
No creer el ruido (de la IA)
Es imposible confirmar el análisis de Hambling sin tener acceso a documentos militares rusos o al código del software del dron. Pero Pettyjohn y otros dos expertos en drones, ambos de habla rusa fluida y normalmente entusiastas de la tecnología, coincidieron en que la interpretación de Hambling no sólo era plausible, sino probable.
«Es un análisis bastante detallado, a mí me parece correcto», dijo Alexander Kott, antiguo científico jefe del Army Research Laboratory, en un correo electrónico en el que llamaba la atención de Breaking Defense sobre el artículo de Forbes. «Es difícil saberlo con seguridad… No he visto una confirmación independiente, y no creo que pueda existir».
«Creo que es exacta», dijo Sam Bendett, de CNA, un grupo de reflexión con estrechos vínculos con el Pentágono, en un intercambio de correos electrónicos con Breaking Defense. (Bendett también habló con Hambling para su artículo).
«Esta tecnología necesita muchas pruebas y evaluaciones, necesita mucha iteración, [y] muchas veces la tecnología no está lista», había dicho a Breaking Defense antes de que se publicara el artículo de Forbes. «Creo que es un proceso lento porque ambas partes quieren hacerlo bien. Una vez que lo hagan bien, lo ampliarán. «De hecho, esto es tecnológicamente posible», dijo Bendett. «Quien consiga un gran avance en la tecnología de los drones y lo amplíe rápidamente obtendrá una gran ventaja».
Pero está claro que ese avance no se ha producido aquí, dijo Pettyjohn a Breaking Defense. «La industria rusa suele hacer afirmaciones bastante extravagantes sobre las capacidades de sus armas, y en la práctica comprobamos que su rendimiento es mucho menor de lo prometido… Esto ha sido más destacado con los sistemas autónomos, como comprobaron Sam Bendett y Jeff Edmonds en su informe de la CNA sobre los sistemas sin tripulación en Ucrania.»
No parece que a los ucranianos les haya ido mejor, a pesar del bombo mediático similar.
«Hay muchos informes realmente emocionantes por ahí sobre el Saker Scout y el software de reconocimiento autónomo de objetivos que los ucranianos han estado desarrollando», dijo Pettyjohn. «Si el Saker Scout hace lo que se supone que debe hacer …. podría disparar, encontrar un objetivo y decidir matarlo él solo sin que intervenga un humano».
«Si realmente puede hacer esto… es difícil de cribar», continuó. «Definitivamente, estoy en el lado escéptico».
La verdadera revolución de la IA – Fecha por determinar
Entonces, ¿qué haría falta realmente para que Rusia y Ucrania o, para el caso, Estados Unidos o China- sustituyeran a un operador humano por la IA? Al fin y al cabo, el cerebro es una red neuronal biológica, perfeccionada a lo largo de millones de años de evolución para captar una deslumbrante variedad de datos sensoriales (visuales, auditivos, olfativos, vibratorios), actualizar un modelo interno en 3D del mundo exterior y, a continuación, formular y ejecutar complejos planes de acción en tiempo casi real.
Para que la IA iguale esa capacidad, necesita lo que los teóricos del combate denominan «conocimiento de la situación», dijo Kott a Breaking Defense. «[Igual que] cualquier soldado… necesita ver lo que ocurre a su alrededor». Eso requiere no sólo el reconocimiento de objetos, que a la IA ya le cuesta bastante, sino la capacidad de observar un objeto en movimiento y deducir qué acción está realizando, argumenta Kott.
Es una tarea que los humanos hacen desde la infancia. Piensa en un bebé que dice «mmmm» cuando lo ponen en su trona, incluso antes de que se vea ningún alimento: En realidad, se trata de un complejo proceso de observar, convertir esas entradas sensoriales en datos inteligibles sobre el mundo, emparejar esos datos nuevos con patrones antiguos en la memoria y hacer inferencias sobre el futuro. Una de las máximas más famosas de la IA, la Paradoja de Moravec, es que las tareas que los humanos dan por sentadas pueden resultar desconcertantemente difíciles para una máquina.
Incluso a los humanos les cuesta entender lo que ocurre cuando están estresados, en peligro y se enfrentan a un engaño deliberado. Los señuelos ucranianos, lanzacohetes HIMARS falsos, radares antiaéreos, etc.- habitualmente engañan a los operadores de drones y oficiales de artillería rusos para que malgasten munición en falsificaciones y dejen en paz a los señuelos bien camuflados, y los algoritmos de visión artificial han demostrado ser aún más fáciles de engañar. Los combatientes también deben estar atentos a los peligros, desde los obviamente visibles que el cerebro humano ha evolucionado para distinguir a alguien que se abalanza sobre ti gritando, hasta las amenazas de alta tecnología que los sentidos humanos no pueden percibir, como la guerra electrónica o los láseres de puntería. Una máquina bien equipada puede detectar ondas de radio y rayos láser, pero su IA aún tiene que dar sentido a esos datos entrantes, evaluar qué amenazas son más peligrosas y decidir cómo defenderse, en cuestión de segundos.
Pero la dificultad no acaba ahí: Los combatientes deben combatir en equipo, como lo han hecho los humanos desde que la primera tribu de la Edad de Piedra tendió una emboscada a otra. En comparación con la puntería del rifle y otras habilidades individuales, los «ejercicios de combate» colectivos, la formación de equipos y los protocolos para una comunicación clara bajo el fuego consumen muchísimo tiempo de entrenamiento. Por eso, los proyectos de gran potencia para la IA militar, del Joint All-Domain Command & Control estadounidense y de la «guerra informatizada» china, se centran no sólo en la potencia de fuego, sino también en la coordinación, mediante el uso de algoritmos para compartir datos de combate directamente de un sistema robótico a otro, sin necesidad de un intermediario humano.
Por tanto, el siguiente paso hacia una IA de combate eficaz, dijo Pettyjohn, «es realmente conectarla en red y pensar en cómo comparten esa información [y] quién está realmente autorizado a disparar. ¿Es el dron?»
Esta compleja toma de decisiones digital requiere un software sofisticado, que debe ejecutarse en chips de alta velocidad, que a su vez necesitan energía, refrigeración, protección contra las vibraciones y las interferencias electrónicas, y mucho más. Nada de eso es fácil de meter para los ingenieros en el tipo de pequeños drones que usan ampliamente ambos bandos en Ucrania. Incluso el Lancet-3 mejorado tiene una cabeza explosiva de menos de 3 kg, lo que deja poco espacio para un gran cerebro informático.
La ingeniería necesaria, y el coste, pueden resultar demasiado para Rusia o, especialmente, para Ucrania, muchos de cuyos drones se construyen a mano a partir de piezas pedidas por correo. «Dado el bajísimo coste de los actuales drones FPV [First-Person View], y el hecho de que muchos de ellos son montados por voluntarios literalmente en la mesa de su cocina… la relación coste-beneficio probablemente siga siendo incierta», dijo Kott a Breaking Defense.
«La razón por la que se ven tantos drones [es] que son baratos», coincidió Pettyjohn. «En ambos bandos… no están invirtiendo en mayores defensas contra las interferencias… porque eso los haría demasiado caros para comprarlos en la cantidad que se necesitan. Prefieren comprar muchos y contar con que algunos de ellos lo consigan».
Así que, aunque Rusia o Ucrania puedan implementar IA a bordo, dijo, «no tengo claro que vaya a escalar en este conflicto, porque depende mucho del coste».
Sin embargo, eso no significa que la IA no vaya a escalar en otros conflictos con otros combatientes, especialmente naciones de alta tecnología con grandes presupuestos de defensa como EEUU y China. Pero incluso para esas superpotencias miniaturizar la IA para que quepa en drones es desalentador: Hay una buena razón para que las IA que acaparan titulares, como ChatGPT, funcionen en enormes granjas de servidores.
Pero eso no significa que el problema sea imposible de resolver, o que tenga que resolverse al 100%. La IA sigue teniendo fallos y alucinaciones, pero los humanos cometen errores mortales todo el tiempo, dentro y fuera del combate. Una analogía civil son los coches autoconducidos: No necesitan evitar el 100% de los accidentes para ser una mejora respecto a los conductores humanos.
Por definición, en cualquier grupo de humanos que realice una tarea determinada, «el cincuenta por ciento de las personas estará por debajo de la media», señaló Kott. «Si puedes hacerlo mejor que ‘por debajo de la media’, ya estás duplicando la eficacia de tus operaciones».
Incluso las mejoras modestas pueden tener repercusiones importantes cuando estás librando una guerra a gran escala, como en Ucrania, o en cualquier futuro conflicto entre EEUU y China. «No tiene por qué ser del 100 por cien», dijo Kott. «En muchos casos el 20 por ciento es suficiente, mucho mejor que nada».
Las exigencias occidentales de alto rendimiento no encajan con las realidades de una gran guerra, advirtió. «Exigimos fiabilidad total, exigimos precisión total, [porque] no estamos en peligro existencial, como Ucrania», dijo Kott. «Los ucranianos no especifican la perfección. No pueden permitírselo».
Fte. Breaking Defense (Sydney J. Freedberg Jr.)
Sydney J. Freedberg Jr. escribe para Breaking Defense desde 2011 y fue editor adjunto durante la primera década del sitio, cubriendo temas de tecnología, estrategia y política, con especial atención a las Fuerzas Armadas de EEUU. Ahora es editor colaborador centrado en cibernética, robótica, IA y otras tecnologías y políticas críticas que darán forma al futuro de la guerra. Sydney empezó a cubrir la defensa en la revista National Journal en 1997 y es licenciado por Harvard, Cambridge y Georgetown.