Aspectos éticos de la utilización de la inteligencia artificial por las fuerzas armadas

La inteligencia artificial se aplica a la Defensa y a los sistemas de armas desde el principio de la utilización práctica de estas tecnologías. La guerra tiene una finalidad política y es la idoneidad política del empleo de la inteligencia artificial uno de los primeros factores que hay que considerar. También se debe tener en cuenta la utilidad de estos medios desde el punto de vista de su empleo militar. Pero, siendo la guerra un fenómeno humano y social, nunca se debe dejar de lado el aspecto de conformidad ética del empleo de estos sistemas. El uso de armas letales dirigidas a distancia tiene una larga aplicación. Sin embargo, los retos éticos se plantean cuando se trata de armas dirigidas por inteligencia artificial que funcionan sin intervención humana.

Las fuerzas armadas y sus miembros continúan manteniendo la ética militar, que constituye el conjunto de principios, valores y reglas de conducta conservadas a lo largo del tiempo y que les permiten asumir la violencia letal de la guerra y la posibilidad realmente trascendente de arriesgar la vida en combate. La exigencia de encontrar acomodo a los principios éticos de la guerra justa también resulta aplicable al uso de las nuevas tecnologías representadas por la inteligencia artificial

Es cierto que las nuevas tecnologías, y concretamente la inteligencia artificial, están empezando a cambiar la faz de la guerra. Sin embargo, aunque el carácter de la guerra se vea modificado, aun profundamente, su naturaleza seguirá siendo por mucho tiempo la de un fenómeno humano y social.

Es indudable que la utilización de sistemas de armas basados en inteligencia artificial tiene beneficios desde el punto de vista de ahorro de vidas humanas, tanto de combatientes como de bajas civiles y no se encuentran sujetos a emociones o situaciones en las que las facultades morales o intelectuales se ven disminuidas. Sin embargo, no faltan voces que señalan el riesgo de que esos sistemas sean utilizados en el futuro con la capacidad de tomar la decisión de herir o matar, libres de cualquier control del ser humano.

Parece, por tanto, que las acciones llevadas a cabo por sistemas de armas basados en la inteligencia artificial exigen el control y la supervisión de humanos, únicos a los que se les puede exigir responsabilidad que modifique sus acciones futuras. Hay que introducir, por tanto, el concepto de «control humano significativo». En él se establecen tres categorías de control: «human in the loop», «human on the loop» y «human out of the loop», de mayor a menor grado de intervención humana.

Con ello se trata de que sea siempre el ser humano el último responsable de la actuación de un sistema de armas, especialmente cuando se trata de seleccionar y batir objetivos humanos.

Pulse aquí para leer artículo completo

Juan A. Moliner González
General de División (Reserva) del EA
Subdirector del Instituto Universitario General Gutiérrez Mellado
Academia de las Ciencias y las Artes Militares

 

Sé el primero en comentar

Deja tu comentario