Enseñando a los robots a «seguir al líder»

Científicos del Laboratorio de Investigación del Ejército (ARL) y del Instituto de Robótica de la Universidad Carnegie Mellon, están enseñando a los robots para que sean los mejores socios de los soldados durante el cumplimiento de sus misiones, empezando por cómo encontrar su camino con una mínima intervención humana.

Como los vehículos autónomos han estado recorriendo las calles de muchas ciudades de Estados Unidos durante más de un año, puede parecer que no es tan difícil. Pero según Maggie Wigness, investigadora del ARL, los retos a los que se enfrentan los robots militares son mucho mayores.  Concretamente, a diferencia de los que están siendo desarrollados por Google, Uber y otros, los robots militares operarán en ambientes complejos, que no pueden aprovecharse de marcas estandarizadas, tales como carriles, señales de tráfico, bordillos ni semáforos.

«Los entornos en los que operamos son muy poco estructurados, en comparación con los de los coches autónomos», dijo Wigness. «No podemos asumir que haya marcas de, no podemos asumir que ni siquiera exista una carretera. Trabajamos en ámbitos diferentes».

Los desafíos van más allá del terreno variable y sin marcas.  La capacitación de los automóviles autónomos «requiere una enorme cantidad de datos catalogados para su capacitación», señaló Wigness. «Eso es algo que no podemos permitirnos el lujo de conseguir en un entorno relevante para el Ejército, así que nos centramos más en cómo aprender de pequeñas cantidades de datos almacenados.»

Específicamente, en el proyecto ARL, a los robots se les entrena para navegar en condiciones ambientales, siguiendo ejemplos proporcionados por humanos.

Luis Navarro-Serment, científico principal de proyectos del Instituto de Robótica de la Universidad Carnegie Mellon, ofreció un ejemplo.  «Digamos que hay un charco», dijo. Los humanos generalmente se mueven para evitar el charco.  Observando, el robot puede aprender a hacer lo mismo.  «Es una forma de emulación», dijo Navarro-Serment.

En el proyecto del ARL, los humanos ponderaron las distintas características del entorno para ayudar al robot a aprender a resolver comandos conflictivos. «Por ejemplo, entrenamos a un robot para que conduzca por el terreno evitando el césped, de modo que aprenda que el césped es malo para conducir y que la carretera es buena», dijo John Rogers, investigador de la ARL. Luego, el equipo le dio al robot un comando adicional para evitar el campo de visión de un francotirador. El robot, dijo, «necesita equilibrar estos dos objetivos simultáneamente. Necesita romper uno de los comportamientos.» Presumiblemente, con una ponderación adecuada de los factores, el robot optará por conducir sobre la hierba.

«En la idea final de esta investigación, el robot operará junto a los soldados durante sus misiones y realizará cualquier tarea específica que se le haya asignado», dijo Rogers.

El proyecto, que forma parte de la Alianza de Tecnología Colaborativa Robótica del Ejército, está programado para concluir, junto con otros proyectos de la RCTA, en el otoño de 2019.  Para entonces, dijo Wigness, el equipo habrá desarrollado una demostración de la tecnología de aprendizaje.

Fte. Defense Systems