¿Podrán algoritmos y sensores permitir a los soldados saber dónde están?

El sistema ADEPT de Leidos emplea imágenes aéreas para proporcionar datos de posicionamiento y navegación en entornos sin acceso a GPS. (Satellogic)

Los combatientes dependen de la señal del satélite GPS para saber dónde están y adónde van. Pero, ¿cómo hacerlo en un entorno sin acceso al GPS?

El interés del Departamento de Defensa de Estados Unidos en soluciones alternativas de posicionamiento, navegación y cronometraje (PNT), que puedan verificar o sustituir al GPS, ha ido en aumento en los últimos años.

«Ciertamente hay mucha gente investigando el problema de la PNT asegurada», dijo el Coronel Nickolas Kioutas, gerente de proyectos del Ejército, a C4ISRNET en la reunión de 2019 de la Asociación del Ejército, el 15 de octubre. Kioutas trabaja como Oficial Ejecutivo del Programa de Inteligencia, Guerra Electrónica y Sensores. «Me gustan mucho algunos de los enfoques de software que he visto, porque creo que actualmente nos hemos centrado en el hardware, pero ¿cuáles son algunos de los algoritmos que podemos ver para explotar realmente los sensores que ya tenemos?

Leidos es una compañía que trabaja en una solución, que ha bautizado como Assured Data Engine for Positioning and Timing (ADEPT), que el Departamento de Defensa está incorporando al RQ-7 Shadow y al MQ-1C Gray Eagle para el Ejército y al MQ-9 Reaper para la Fuerza Aérea.

En AUSA, los representantes de Leidos describieron cómo funciona el ADEPT en un avión no tripulado, así como cómo están tratando de hacer que el sistema funcione en tropas a pie.

«En pocas palabras, un sensor en la parte inferior de un avión, que puede ser la bola del sensor ISR, observa buscando enemigos o lo que sea, o puede ser una cámara que tome imágenes de la superficie», explicó Scott Sexton, un ingeniero de navegación robótica de Leidos.

«Analizamos las imágenes a través de un algoritmo de procesamiento específico, que extrae sus características de manera automatizada, de modo que el algoritmo sabe lo que es interesante y lo que no lo es», agregó. «Eso crea una huella digital única.»

El sistema entonces toma esa huella digital y escanea las imágenes satelitales etiquetadas geográficamente para encontrar una coincidencia. Si se encuentra una coincidencia, el sistema Leidos puede entonces usar la dirección en que se dirige la aeronave y el ángulo de los sensores para triangular su posición.

La compañía hace observar que la tecnología detecta el error en los datos de posición que proporciona, de modo que los operadores saben cuán exactos son los que están recibiendo, si la precisión se encuentra dentro de los 10 metros o 100 metros.

Los expertos prevén que el sistema permanezca encendido durante las operaciones de la aeronave, trabajando para verificar o mejorar los datos del GPS.

«Si se tiene GPS, se va a seguir usando […] porque es la mejor información que podemos tener», dijo Sexton. «Tan pronto como se desvíe 500 metros, se comenzaría a confiar en el ADEPT.»

Pero Leidos dice que el sistema también puede servir para verificar la información del GPS.

«Si estuviéramos sufriendo spoofing, por ejemplo, las dos soluciones comenzarían a divergir. Por lo tanto, si la solución que ofrece ADEPT está diciendo una cosa con un alto grado de certeza, se trataría de una buena pista de que su GPS es impreciso», dijo Scott Pollard, vicepresidente y gerente del área de negocios. «Es muy difícil falsificar esto. Tendrías que reordenar literalmente el paisaje para engañar o cegar el sensor».

ADEPT también puede geoetiquetar objetos en pleno vuelo, dando a la aeronave un marco de referencia para su uso en la navegación en lugares donde el GPS es denegado y no se encuentra ninguna coincidencia cartográfica.

«Para uso terrestre, estamos haciendo una comparación de imágenes a nivel de calle», dijo Troy Mitchell, gerente del programa de navegación de Leidos. «Estamos tomando imágenes de satélite, con las que hemos construido nubes de puntos en 3D de edificios y paisajes y cosas así, que tomamos como referencias.»

Esencialmente, el programa toma esa nube de puntos 3D para generar cómo sería una vista a nivel de calle. Luego, cuando un sensor a nivel de calle toma imágenes, por ejemplo, una cámara integrada en un casco o un uniforme, el sistema puede hacer coincidir las imágenes reales con lo que se espera que sea una vista a nivel de calle para encontrar su ubicación.

«El santo grial sería, ¿puedes dejarte caer en algún lugar del mundo en un lugar al azar y abrir los ojos, mirar el paisaje y decir: ‘¿Estoy aquí’”, dijo Pollard? «Ese es el problema.»

Fte. C4ISRNET