¿Podrán la IA y los sistemas autónomos detectar intenciones hostiles?

urbanwarfareLa Agencia de Proyectos de Investigación Avanzada de Defensa está experimentando con sensores, inteligencia artificial, drones y psicología humana para proteger mejor a las tropas con tecnologías que pueden distinguir entre amenazas y no combatientes. El proyecto Urban Reconnaissance through Supervised Autonomy (URSA) tiene como objetivo usar sistemas autónomos para ayudar a detectar fuerzas hostiles en las ciudades e identificar positivamente a los combatientes antes de que las tropas entren en contacto con ellos.

FCW habló con el Teniente Coronel del Ejército Philip Root, subdirector interino de la Oficina de Tecnología Táctica de DARPA, para obtener una actualización sobre el URSA y cómo el Departamento de Defensa planea forjar relaciones entre humanos y máquinas. Esta entrevista fue editada y condensada para mayor claridad.

Entonces, ¿cuál es la propuesta de URSA?

URSA, que acaba de comenzar la Fase 1 este año con cuatro actores, analiza de manera diferente el problema de la discriminación de las personas hostiles y no hostiles en las operaciones urbanas. Queremos proporcionar más conciencia para que cuando un soldado o un Marine se encuentre con un individuo…. tengan más información sobre sus intenciones. Puede parecer una locura aspirar a tener ese nivel de discriminación, pero en los puntos de control de tráfico hacemos lo mismo. Por ejemplo, cuando una camioneta se dirige a un punto de control de tráfico a 55 millas por hora, los soldados tienen 15 segundos desde que la ven hasta el momento en que podría explotar. Así que, en 15 segundos, un soldado tiene que identificar si es una camioneta llena de explosivos o una camioneta llena de niños.

¿Cómo puedes hacer eso?

Es increíble, ¿verdad? Tenemos que entrar en la cabeza del conductor para entender la intención. Hacemos eso poniendo carteles, una señal de alto. Si aceleran por la señal de stop, eso es información. Así que estamos poniendo una señal, una sonda, para decirle al objetivo, a alguien que estamos vigilando, que se detenga. Y luego les damos otra señal, enviar una bengala o disparos de advertencia de fuego dependiendo de las reglas de enfrentamiento, para insertar un mensaje. Y cómo responden es más información.

Una camioneta llena de niños que atraviesa esa señal de stop no significa que sean un objetivo. Si son varios, no significa que sean un objetivo. Pero en algún momento decimos: «Ha fallado algo aquí».

Se puede ver a URSA como una empresa que busca objetivos, pero no me gusta esa visión. Prefiero el punto de vista de asegurar que los no combatientes puedan salir de esta escena, una camioneta llena de niños futbolistas se da la vuelta. ¡Fantástico! No te queremos cerca; queremos que te des cuenta de que este no es un buen día para estar por ahí.

Así que mientras una patrulla militar se desplaza por una ciudad, nos encantaría que todos lo supieran de antemano. Pero no pueden irse todos. Tenemos que operar con no combatientes alrededor y darles todas las oportunidades para que se retiren del medio ambiente. Cualquiera que quedara tendría intenciones hostiles.

Podríamos enviar un mensaje a través de un avión teledirigido, por ejemplo, y decir que hoy no es un buen día para estar ahí. Le recomendamos que se dirija al edificio más cercano.

¿Así que un avión teledirigido baja y empieza a hablar?

Podría ser. Acabamos de empezar, así que no pretendo saberlo. Podría bajar y decir: «Las fuerzas de Estados Unidos se acercan. No es un buen día para estar ahí». Cualquiera que se quede ahí debe tener una buena razón para estar ahí; eso no significa que sea hostil de ninguna manera.

Puede ser que no nos hayan escuchado, que estén sordos, que haya mucho ruido, así que tenemos que buscar un método diferente. Tal vez tengamos que apuntar con un láser al suelo a sus pies para confirmar que lo están viendo. Tal vez cuando hacemos un chasquido, combatientes y no combatientes respondan de manera diferente.

Pretendemos recopilar la mayor cantidad de información posible, para que si alguien con intenciones no hostiles se dirige a una patrulla estadounidense, podamos proporcionarle una carpeta de información antes de que un soldado saque el dedo del gatillo. Nadie quiere estar en una situación en la que un soldado y un no combatiente entran en contacto y ambos se sorprendan.

Hay un componente personal y emocional en esto. ¿Tienen un grupo de gente trabajando en esto… psicólogos, conductistas?

Tenemos un equipo de psicólogos del comportamiento y modelos de ciencias sociales de cómo responde la gente. Pero, desafortunadamente, no hay una gran cantidad de datos en este tipo de interacciones automáticas. Nadie ha intentado esto. Vamos a ver cómo se desarrollan las ciencias sociales al mismo tiempo que la IA y el aprendizaje automático. No estoy convencido de que vaya a funcionar. Pero sí creo que alguien debería intentarlo para que podamos aprovechar las lecciones aprendidas y aplicarlas a lo que venga después.

Tenemos que comprometernos con este problema. No podemos eludirlo, porque el resultado es mucho más peligroso con el problema actual, en el que los soldados y los no combatientes son puestos en peligro.

Una lección que hemos aprendido es que, bajo un interrogatorio real, los sospechosos que están enojados son a menudo los inocentes, porque están tan enojados que están atrapados en esto. En su opinión, si alguien está teniendo un mal día y un avión teledirigido se le acerca a la cara, es posible que le arroje una piedra. Tenemos que entenderlo y tenerlo en cuenta. Podría significar que estamos aterrorizando a la población. Podríamos empeorar la situación, somos muy sensibles al respecto.

¿Has empezado a diseñarlo? Estoy pensando que eso también tendría un impacto en la forma en que la gente interactúa con la tecnología.

Si alguna vez has tenido un dron zumbando en tu cara, no estoy seguro de que haya una forma de reaccionar que no sea con ira. Todo eso es real. Un robot de tierra que se arrastra hacia ti, hacia tu espacio personal, no va a provocar una respuesta positiva. Pero en algún momento, eso es apropiado para que la gente sepa que somos serios. Hay un espectro de exploraciones y peticiones, pero tenemos que empezar con alguna sospecha y no deberíamos aterrorizar a la gente que no es sospechosa.

Hemos comenzado las consideraciones legales, morales y éticas incluso antes de adjudicar los contratos para poder adelantarnos a esto. Un panel de abogados, especialistas en ética, filósofos y académicos se reúne trimestralmente para proporcionar orientación técnica por escrito.

El daño tiene muchas formas. Claramente, los disparos de advertencia tienen un mayor potencial de daño que un simple mensaje. Esperemos que los disparos de advertencia nunca sean necesarios, pero tenemos que entender este espectro de la posibilidad de daño. Nunca se ha hecho, sólo se ha teorizado. Tenemos que reducir esa teoría a la práctica. Porque los desarrolladores sólo quieren un número. Cuando diseñamos IA, serán solamente matemáticas.

¿Va a salir bien?

Absolutamente no, pero será mejor que la nada que tenemos ahora.

Fte. Defense Systems