Tecnologías de detección, clasificación y seguimiento (3/4)

 

 

Existen varios fenómenos físicos asociados a la UAS que pueden utilizarse para detectarlos e identificarlos. Estos incluyen sus firmas en diferentes rangos del espectro óptico (UV / Visible / NIR / SWIR / MWIR / LWIR) su reflectancia radar, emisiones acústicas, emisiones electromagnéticas de radios a bordo, campos magnéticos inducidos, etc. Los siguientes subapartados describen brevemente las tecnologías basadas en estos fenómenos que se utilizan para la detección, seguimiento e identificación. Estas descripciones enfatizan aquellos aspectos (tales como coste, rango, fiabilidad, tipo de sensor, pasivo frente a activo, restricciones de línea de vista (LoS), etc.) que son claves para entender qué tecnologías se adaptan mejor a los diferentes escenarios que pueden darse. Por ejemplo, en un escenario militar el precio no suele ser un problema, pero por el contrario el uso de tecnologías indetectables (sensores pasivos) es a menudo una necesidad.

1. Sistemas basados en radar

Los radares son sensores activos basados en la transmisión de ondas electromagnéticas y en la medida de las ondas reflejadas sobre los objetos. Dado que cada modelo drone tiene su propia firma radar, esta tecnología puede utilizarse no sólo para la detección y seguimiento, sino también para la clasificación. Esta tecnología presenta un buen rendimiento y su madurez es alta, pese a su alto coste y ciertas limitaciones debido a la sección radar de los drones, que generalmente es pequeña debido a los materiales de construcción y su tamaño.

2. Sensores basados en acústica

Esta tecnología hace uso de micrófonos para la detección de drones. De hecho, cada drone tiene su propia firma acústica, por lo que esta tecnología también se puede utilizar potencialmente para la fase de clasificación. Utilizando una matriz de micrófonos, también es posible localizar la fuente de sonido (es decir, el drone objetivo). Estos sensores suelen ser baratos en comparación con los radares y pasivos, pero tienen limitaciones en entornos ruidosos, como los urbanos y por lo general presentan un rango de detección reducido.

3. Imagen visible pasiva (UV, visible, NIR)

Los sensores ópticos tienen una serie de propiedades que los han llevado a la vanguardia de los sistemas de vigilancia. Entre ellos, el hecho de que sean pasivos y, por tanto, indetectables, y su capacidad para proporcionar representaciones de fenómenos físicos complejos fácilmente interpretables por los operadores, son algunos de los más relevantes para el caso particular de detección, seguimiento y clasificación de UAS. Los sensores en el espectro óptico visible cuentan con una mayor capacidad de detección (típicamente asociadas a parámetros tales como la sensibilidad y resolución del sensor) comparados con los sensores térmicos, aunque éstos presentan limitaciones obvias en la oscuridad.

4. Imagen térmica pasivas (SWIR, MWIR, LWIR)

Los esfuerzos en la tecnología optrónica en los últimos años han llevado a que las cámaras termográficas estén ampliamente disponibles hoy en día. De hecho, la tendencia actual es integrar y alinear varios sensores en diferentes bandas del espectro (típicamente visibles y LWIR/MWIR) en aplicaciones donde el rendimiento es clave, ya que la combinación de estos sensores supera claramente a cada uno de ellos por separado y permite una mejor cobertura incluso en la oscuridad.

A pesar de esta tendencia en las imágenes visibles y térmicas, el potencial de los sensores ópticos y la integración de información de bandas espectrales diferentes y complementarias, estos sensores usualmente sólo son explotados manualmente como ayudas en el contexto de detección, seguimiento y clasificación de UAS. Esto se debe, en parte, a la falta de madurez de la tecnología en el ámbito del análisis de video inteligente y especialmente a la detección e identificación de UAS desde tierra. Sin embargo, hay un trabajo extenso en otras áreas, como la detección de blancos pequeños y oscuros, o la detección de obstáculos para “sense and avoid”, que puede ser utilizado como un sólido punto de partida hacia el nuevo desafío a la mano.

Todo esto considerado, el progreso en los años siguientes debe permitir que los sensores visibles e infrarrojos se combinen y exploten completamente para la detección, seguimiento y clasificación automática de UAS. Esto sólo será posible mediante el desarrollo de nuevas técnicas de análisis de vídeo inteligente que se adapten a los cambios en la tecnología de los sensores, maximizando así la ventaja obtenida de la información disponible de diferentes bandas espectrales y que abarquen nuevos paradigmas de procesamiento de imágenes; así como el procesamiento paralelo y “Deep Learning”.

5. Sistemas activos basados en tiempo de vuelo (LIDAR, Range Gate Imaging, etc.)

El principio de esta tecnología es similar al radar pero, en este caso, se emplea la reflectancia de la luz en vez de las ondas electromagnéticas (y por lo tanto, al igual que los radares estos sensores también están activos). La tecnología LIDAR tiene una gran precisión y un buen alcance tanto de día como de noche. Su principal inconveniente es su coste y la potencia óptica transmitida (que puede llegar a ser peligroso para los ojos).

6. Emisión de RF (radiofrecuencia)

Se trata de un sensor pasivo de coste reducido que se basa en el detectar las comunicaciones entre el drone y su controlador. La singularidad de los equipos de radio empleados provoca que sea posible emplear esta característica para su identificación. Aunque la mayoría de los drones emiten señales fácilmente detectables, estos sensores son completamente ineficaces contra las UAS que no transmitan ninguna información por radiofrecuencia. La detección de RF se puede combinar con la detección del ángulo de llegada de la señal o la trilateración para conseguir localizar el drone.

7. Inteligencia humana

Todas las tecnologías anteriores tienen que ser comparadas con un operador. En este sentido, el trabajo requerido para proporcionar cobertura 24×7 es costoso, y también se precisa de sensores operados manualmente (típicamente cámaras). Además, está bien documentado que mantener la concentración para el ser humano durante largos períodos de tiempo es difícil y, por lo tanto, el rendimiento suele ser pobre. El principal beneficio de este enfoque es la eficiencia en la toma de decisiones. De hecho, este último punto es el que justifica la necesidad de enfoques híbridos o semiautomáticos de la vigilancia que incluyan a un operador para la toma de decisiones.

En la tabla siguiente se comparan los sensores descritos anteriormente. Los colores verde, naranja y rojo significan un comportamiento bueno, medio o malo para cada criterio.

 

Estos son los artículos que completan la serie:

Escenario actual contra drones
Fases para combatir la amenaza dron
Tecnologías para la detección, clasificación y seguimiento
Estrategias anti dron de mitigación

 

 

3 Trackbacks / Pingbacks

  1. Fases para combatir la amenaza dron (2/4) - El Radar de la geoRealidad
  2. El escenario actual contra drones (1/4) - El Radar de la geoRealidad
  3. Estrategias anti dron de mitigación (4/4) - El Radar de la geoRealidad

Deja tu comentario

Tu dirección de correo no será publicada.