Armas de precisión y prevención de daños colaterales

La espoleta inteligente de Northrop Grumman, Precision Guided Kit, controla la dirección de los proyectiles y contiene un dispositivo de seguridad que se desconecta si falla más de 150 metros. Crédito: Northrop Grumman.

A medida que avanza la proliferación de las tecnologías autónomas, los posibles efectos éticos de estos sistemas en el campo de batalla son objeto de acalorados debates. ¿Qué grado de control debe tener el ser humano y en qué punto debe intervenir la autonomía? Andrew Salerno-Garthwaite informa.

Una investigación de la Cámara de los Lores sobre los sistemas de armas autónomas (AWS, siglas de autonomous weapons systems) celebró su primera sesión pública en marzo, en la que tres expertos en Derecho Internacional Humanitario (DIH) respondieron a las preguntas de los miembros sobre una posible definición de AWS para su inclusión en la futura legislación.

No fue tan sencillo como esperaban los miembros de la Comisión. «Creo que al menos deberíamos decir a nuestros declarantes que hemos captado el mensaje de tener una visión más amplia de esto», dijo Lord Brown al final de dos horas de interrogatorio. Los declarantes habían expresado su descontento con los planteamientos para regular los sistemas de armas autónomos, si esa regulación no era lo suficientemente amplia como para abarcar otros ámbitos del ciclo de tiro que incorporan inteligencia artificial (IA).

Es competencia de la Comisión examinar también la IA AWS. Aunque gran parte del interés de la investigación se ha centrado en las lecciones que pueden extraerse de esta última, centrándose en lo que el Comité Internacional de la Cruz Roja (CICR) describe como «un sistema de armas que selecciona y aplica la fuerza a objetivos humanos sin intervención humana», el nombre completo del organismo que lleva a cabo la investigación es House of Lords Artificial Intelligence in Weapons Systems Committee (Comisión de Inteligencia Artificial en los Sistemas de Armas de la Cámara de los Lores).

«Por su propio título, supongo que tienen el mandato de plantearse las cosas de un modo un poco diferente… de examinar más ampliamente el uso de la inteligencia artificial en los sistemas de armamento y en el ciclo de selección de objetivos», declaró el profesor Noam Lubell, de la Facultad de Derecho de la Universidad de Essex.

La preocupación por el uso de sistemas de armas autónomas letales tiene diversos fundamentos jurídicos y técnicos. En el contexto en el que un ser humano ha decidido enfrentarse a un enemigo, y en el que ese ataque causa un daño civil excesivo e incidental, si el responsable de la toma de decisiones realizó una evaluación de proporcionalidad de buena fe usando la información disponible en ese momento, ese ataque podría seguir siendo lícito, incluso tras un cambio de circunstancias que afectara desastrosamente al resultado final.

En cambio, un sistema autónomo guiado por IA se enfrenta a límites en su capacidad para «facilitar el cumplimiento» de las obligaciones del DIH, según Georgia Hinds, asesora jurídica del CICR, ya que gran parte del proceso de toma de decisiones llevado a cabo por una inteligencia artificial es incapaz de expresarse. La principal preocupación jurídica que describe Hinds se refiere a «un proceso de razonamiento» que «no puede externalizarse».

Los algoritmos de aprendizaje automático de la IA para funcionar son una caja negra poco clara durante el proceso de adiestramiento y opaca en su aplicación.

Para Lubell, este desafío legal en torno al equilibrio de proporcionalidad es prematuro: «La tecnología no puede hacerlo. Así que claramente sería ilegal su uso».

Existe tecnología para calcular el coste en términos de daños civiles, afirma, y ya se está empleando activamente, pero de momento equilibrar los daños colaterales con la ventaja militar directa es «algo que no podemos imaginar que haga una máquina».

La IA en las armas de precisión y los daños colaterales

¿Qué ventajas puede aportar la IA a los objetivos humanitarios y a los militares? Este es uno de los principales ámbitos de interés de la investigación, y encontrar una respuesta a esta pregunta refuerza los argumentos a favor de un conjunto de políticas más integradoras en materia de IA para la defensa. Un ámbito en el que estos objetivos coinciden es el de los ataques de precisión, en los que la IA puede reducir los daños colaterales con armas de precisión guiadas, al tiempo que proporciona a los operadores claras ventajas militares.

Northrop Grumman ha fabricado un Kit de Guiado de Precisión (PGK), una espoleta inteligente con capacidades de dirección de precisión para proyectiles de artillería. Por lo general, los proyectiles de artillería se estabilizan mediante su giro, manteniéndolos en un rumbo singular. El PGK se coloca en el morro del proyectil y, basándose en la posición GPS introducida por el operador antes del lanzamiento, controla la dirección del proyectil en pleno vuelo influyendo en su giro. La precisión de los disparos que provoca este sistema puede reducir la posibilidad de daños colaterales.

Al girar, el PGK genera la energía necesaria para el funcionamiento del dispositivo a través de un alternador. Con este método de generación de energía, no hay necesidad de batería, dando al PGK vida útil más allá de las limitaciones de una fuente de energía degradable. Durante el vuelo, cuando llega el momento de corregir el rumbo del proyectil, el alternador se usa como motor para detener las aletas y controlar la dirección.

La innovación de Northrop Grumman consistió en encontrar un punto de equilibrio en el que la alteración del giro aplicara suficiente fuerza sobre el proyectil para cambiar su trayectoria sin añadir elementos de arrastre adicionales que degradaran su alcance o su rendimiento. El diseño es en parte un problema de optimización. Tiene que haber aletas lo bastante grandes para controlar el movimiento, pero lo bastante pequeñas para evitar el exceso de resistencia.

Mientras que un proyectil equipado con PGK impacta precisamente donde se quiere que caiga con sólo uno o dos proyectiles, destruir un objetivo específico sin el sistema de guiado de Northrop Grumman requiere múltiples proyectiles más pequeños, lo que aumenta los daños colaterales esperados por la dispersión natural.

Además de este beneficio humanitario, necesitar menos proyectiles puede suponer una reducción de costes y de la huella logística. Disparar menos proyectiles también supone ventaja táctica en el campo de batalla moderno. La contrabatería es muy eficaz, y la artillería equipada con PGK puede disparar, obtener efectos de primer disparo y moverse antes de que el adversario pueda replicar.

Además, la espoleta inteligente cuenta con una función de seguridad exclusiva incluida para el Ejército de Estados Unidos, para su uso en zonas de alta densidad donde el operador está especialmente preocupado por los daños colaterales. Cuando el operador programa las coordenadas GPS, la espoleta puede configurarse para que se desactive si falla el objetivo en más de 150 metros, de modo que el proyectil no detone si se desvía del lugar previsto.

Como ilustración del aumento de precisión que supone el uso de una PGK, Dave Belasco, ingeniero de diseño de Northrop Grumman describió un caso en el que se pretendía alcanzar la línea de gol de un campo de fútbol desde una distancia operativa común a los requisitos de una descarga de artillería en el campo, a 20 km del objetivo. Con la espoleta inteligente PGK, se alcanzaría el objetivo y además causaría un efecto cinético que destruiría toda el área de la portería. En cambio, una andanada convencional sin la PGK destruiría el objetivo, el campo de fútbol y las gradas de espectadores que rodean el campo.

Lubell señala que, aunque puede decirse que las armas de precisión son más exactas, esto puede llevar a un operador a llevar a cabo ataques en zonas pobladas con una munición guiada que quizá no se hubieran llevado a cabo con municiones normales. «Ahora, llevas a cabo un ataque porque crees que tienes un arma de precisión, y se producen algunos daños colaterales, aunque lícitos. Pero si no hubieras tenido esa arma, no habrías llevado a cabo el ataque en absoluto».

«Por lo tanto, las personas que sufrieron ese pequeño daño colateral: ahora sí han sufrido, cuando antes no habrían sido objeto de ningún ataque porque no teníamos nada lo bastante preciso».

Desgranando argumentos: leyes que necesitan sentido

Cuando las armas autónomas no tienen un objetivo específico, y en su lugar sólo tienen un perfil de objetivo generalizado o una categoría de objeto, las referencias a los beneficios de la precisión y la exactitud están, por definición, fuera de lugar, argumenta Hinds, ya que «el usuario en realidad no está eligiendo un objetivo específico… Creo que deberíamos tener cuidado, confundiendo ese tipo de sistemas de precisión [con] un sistema de armas autónomo, … podría incorporar una mina terrestre que definitivamente no es un arma más precisa».

«Pero en términos más generales, las evaluaciones del DIH, evaluaciones fundamentales como la distinción y la proporcionalidad, se basan en gran medida en juicios de valor y en el contexto.

«Así, cuando reconoces que alguien se está rindiendo, cuando tienes que calcular la proporcionalidad, no es un juego de números. Se trata de cuál es la ventaja militar prevista. Los algoritmos no son buenos evaluando el contexto. No son buenos en circunstancias que cambian rápidamente, y pueden ser bastante frágiles».

Daragh Murray, profesor titular de la Facultad de Derecho de la Universidad Queen Mary de Londres, afirma que, dado que se prevé que la IA esté omnipresente en todos los aspectos de las fuerzas armadas del futuro, su aplicación en el ciclo de selección de objetivos va más allá del uso de AWS.

En los casos en los que la IA se emplea con fines de inteligencia, vigilancia y reconocimiento para identificar y seleccionar un objetivo por las fuerzas regulares o por una persona infiltrada en fases posteriores, el nivel de confianza que un operador deposita en el curso de acción determinado algorítmicamente es un área de preocupación en la que es necesario encontrar respuestas reales y desarrollar un conjunto de normas y reglas.

«Eso no requiere necesariamente una nueva ley, pero sí mucho más trabajo en última instancia». Hace apenas unas semanas, una declaración del Reino Unido, Estados Unidos y otros países incluía un proyecto de artículos sobre este tema. Supongamos que eso se convirtiera en ley, porque, si tuviéramos un nuevo instrumento [jurídico], la redacción sería similar», dijo Lubell.

«Si queremos intentar avanzar, tenemos que desentrañar estas normas. Las normas son muy generales».

«Acaba recurriendo a frases como ‘implicación humana adecuada al contexto’… Creo que es la frase correcta, pero ¿qué significa eso? Puedo exponer veinte contextos diferentes y en cada uno de ellos la implicación humana adecuada puede significar otra cosa. Si queremos avanzar, tenemos que desentrañar estas reglas. Las reglas son muy generales».

Continuando, Lubell dijo que a medida que se prueban las aplicaciones de las normas, éstas se desmoronan, lo que conduce a la exigencia de un entendimiento legislativo diferente.

«Ahora bien, si tuviéramos un nuevo instrumento, no detallaría todo eso. Se quedaría en un nivel relativamente generalizado, de lo que es la ley en términos de si la intervención humana es necesaria o no. Pero seguiríamos necesitando, en última instancia, orientaciones sobre lo que eso significa».

«Creo que el tipo de cosas de alto nivel con las que concluyamos en la nueva ley, creo que podemos encontrarlas en el DIH existente. Lo que nos instaría a hacer es dedicar más tiempo a desgranar esto y cómo se usarían estas cosas en la práctica en el mundo real».

Fte. Army Technology