En una guerra de robots, matad a los humanos

iRobot El enfrentamiento desigual hace días entre un piloto humano de F-16 y uno artificialmente inteligente, en el que el robot ganó 5-0, fue la última señal de que tenemos que pensar más en los cambios que las máquinas inteligentes están trayendo al campo de batalla. Entre ellos: a medida que los robots relativamente baratos jueguen un papel más importante, el foco de la guerra se desplazará hacia el ataque y la defensa de los humanos que los operan, mantienen e incluso construyen.

Ahora y en un futuro previsible, los robots militares aún necesitarán a los humanos. Los robots no son (todavía) capaces del pensamiento complejo que se requiere para la guerra; los avances en la velocidad y la potencia de cálculo no traen automáticamente el sentido común básico. Un robot no puede diferenciar entre un granjero con un arma y un soldado, por lo que los militares se centran frecuentemente en el concepto de equipo hombre-máquina: la máquina hace lo que mejor sabe hacer, y los humanos hacen el resto.

A corto plazo, los humanos serán aún necesarios para tomar decisiones sobre el uso de la fuerza. Los sistemas autónomos pueden vencer al jinete de F-16 en un combate aéreo, pero no pueden decidir si un objetivo merece ser atacado. La política actual del Departamento de Defensa no permite que las armas autónomas tomen decisiones sobre el uso de la fuerza sin el apropiado juicio humano.

Sin embargo, a largo plazo está menos claro. A medida que los robots individuales se conviertan en enjambres masivos y se conviertan en verdaderas armas de destrucción masiva, los humanos carecerán de la capacidad cognitiva para manejar esa complejidad sin la ayuda de las computadoras. No obstante, los partidarios de la prohibición de las armas autónomas pueden tener éxito en la creación de políticas, leyes y tratados que ordenen que los humanos sigan controlando las decisiones de disparo.

Los humanos también serán necesarios para crear, mantener y gestionar el ejército de robots. Los programadores humanos escriben los algoritmos y el software que operan el robot. Tácticos, estrategas y políticos necesitan formular las mejores formas de probar, emplear, controlar y administrarlos. Cuando un robot regresa del combate, los mantenedores humanos inspeccionan, reparan y dan mantenimiento al robot. Cualquier base o puesto de avanzada donde los robots estén estacionados también necesitará personal para mantenerlo y operarlo.

Todo esto significa que matar al operador humano y a los mantenedores de los sistemas robóticos a menudo impondrá un costo mucho mayor que inutilizar los robots. Si el campo de batalla consiste en luchar contra los robots, su único costo es el del coste económico. La destrucción de un robot resulta en la pérdida del tiempo y del dinero invertido en su construcción. La guerra robótica parece favorecer a los robots pequeños y a la cantidad antes que a los grandes y costosos, por lo que la pérdida de unos pocos robots puede tener menor importancia.

Es mucho más costoso reclutar, entrenar y equipar a los humanos que los apoyan. Según un reciente estudio de la RAND, faltan pilotos de aviones no tripulados para los aviones americanos y los que están en servicio están sobrecargados. Mientras que mayores niveles de autonomía reducirán la necesidad y el estrés de los pilotos humanos, estos seguirán siendo necesarios. Matar a la mitad humana de un equipo humano-máquina impediría que la máquina fuera estratégicamente efectiva o incluso que disparara (si las limitaciones actuales continúan). Eliminar a los mantenedores y otro personal de apoyo también causaría daños en toda la flota robótica. Incluso si los robots fueran decisivos en el campo de batalla, no pueden mantenerse a sí mismos.

Una guerra robótica también incentiva el ataque a la gente y a las instalaciones de la base industrial de defensa. El sabotaje o la destrucción de una fábrica de robótica o la interrupción de la cadena de suministro de la fábrica tendría un impacto mucho mayor que la destrucción de unos pocos robots en el campo. Por supuesto, el adversario puede lanzar ataques de no violentos, particularmente contra instalaciones en el territorio nacional. Por ejemplo, manipular los algoritmos que permiten a los sistemas no tripulados ver, volar y tomar decisiones crearía problemas en cada robot que usara esos algoritmos.

Cuanto mayor sea la aparente seguridad de los soldados, mayor será el impacto psicológico de su muerte. Una gran ventaja de los sistemas no tripulados es la reducción del riesgo para los soldados. Pilotos remotos vuelan aviones teledirigidos Predator desde cientos de kilómetros de distancia en una base segura. La sensación de seguridad no es sólo para el soldado, sino también para sus padres en EE.UU. Violar esa sensación de seguridad podría crear efectos mucho más amplios en el apoyo público a un esfuerzo de guerra. Durante la intervención estadounidense en Somalia en 1992-93, las imágenes de soldados estadounidenses siendo arrastrados por las calles hicieron que la opinión pública y los encargados de formular políticas se opusieran al conflicto. Es poco probable que arrastrar un robot por las calles de Mogadiscio tenga el mismo efecto.

Tal vez la pérdida de los F-16 a manos de una IA fue una casualidad, pero incluso si no, los humanos no abandonarán la guerra en un futuro próximo. EE.UU. y otros ejércitos deberían centrarse en las vulnerabilidades y en el valor de atacar a los humanos. Los militares deberían llevar a cabo juegos de guerra y simulaciones para entender qué papeles son más críticos para mantener un ejército robótico. El análisis también debería centrarse en la mejor manera de proteger a las personas en esos roles.

Fte. Defense One (Zachary Kallenborn)

Todas las opiniones expresadas aquí son del autor y no reflejan necesariamente las de ningún empleador, financiador o afiliado actual o anterior.

Zachary Kallenborn es un consultor de seguridad nacional, especializado en sistemas no tripulados, enjambres de aviones no tripulados, seguridad nacional, armas de destrucción masiva (WMD) y terrorismo con WMD. Su investigación ha sido publicada en Studies in Conflict and Terrorism, the Nonproliferation Review, War on the Rocks, the Modern War Institute at West Point, y Defense One.

Sé el primero en comentar

Deja tu comentario