Nueva estrategia de inteligencia artificial

El Departamento de Defensa presentará una nueva estrategia de inteligencia artificial. La estrategia -la primera de su género- hará hincapié en la creación y adaptación de herramientas para mandos y unidades específicas de las FFAA, lo que les permitirá iniciar las operaciones de IA pronto.

«El Departamento de Defensa ha pasado los últimos 50 años tratando a la inteligencia artificial como un asunto de ciencia y tecnología. Esta nueva estrategia refleja un imperativo adicional, que es traducir la tecnología en decisiones e impacto en las operaciones», dijo un funcionario con conocimiento directo de la estrategia.

Al igual que el nuevo Joint Artificial Intelligence Center, el futuro de la IA militar seguirá el ejemplo del Proyecto Maven, que aplicó la inteligencia artificial a la clasificación de las imágenes de inteligencia. Un funcionario describió a Maven como «un explorador», pero advirtió que «la estrategia es mucho más amplia que un proyecto».

Mientras que la defensa ha desempeñado durante mucho tiempo un papel clave en el desarrollo de la IA, al ayudar a financiar el diseño de programas como Siri de Apple, el Departamento se está preparando para su futuro tratando de aprender de la industria privada, en particular «del pequeño número de empresas que lo hacen bien», dijo el funcionario. «Hemos estudiado su camino al éxito y hemos sacado lecciones de…. aquellos en la industria que están en un viaje para transformarse a sí mismos.»

Una cosa que la nueva estrategia no hará, dijo el funcionario, es alterar la filosofía militar sobre el uso de sistemas autónomos en el combate. Según una directiva de 2012, un operador humano deberá estar siempre disponible para supervisar y anular las acciones de un arma autónoma.

De hecho, una de las razones por las que la nueva estrategia se centrará en aplicaciones operativas más inmediatas de la IA -en contraposición a las aplicaciones más teóricas en un futuro lejano- es para obligar a los operadores y comandantes a reflexionar sobre las implicaciones éticas y de seguridad a medida que descubren lo que quieren que la IA haga por ellos. «Cuando se traduce la tecnología en impacto en las operaciones, hay que pensar más seriamente en la ética y la seguridad», dijo el funcionario. La seguridad «es un foco importante y el vocabulario de la estrategia es muy claro en cuanto a la importancia de estos temas».

Las ambiciones en cuanto a IA del Pentágono sufrieron un revés, o al menos en apariencia en la primavera pasada, cuando cientos de empleados de Google solicitaron a la compañía que pusiera fin a su trabajo en el Proyecto Maven.

Desde entonces, el Pentágono ha tomado una serie de medidas para apaciguar a los empleados y ejecutivos de Silicon Valley escépticos u hostiles a la idea de colaborar con la defensa a aprovechar la inteligencia artificial. El Departamento está redactando un conjunto de principios éticos y se está acercando al mundo académico y a los especialistas en ética.

En diciembre, un grupo de especialistas en ética, afiliados al Instituto AI Now de la Universidad de Nueva York, publicó un libro blanco, en el que se explicaban las reservas que muchos programadores y tecnólogos tienen con el uso militar de la IA. «Los códigos éticos pueden ayudar a cerrar la brecha de responsabilidad de la IA, sólo si están verdaderamente incorporados en sus procesos de desarrollo y están respaldados por mecanismos de responsabilidad que se puedan hacer cumplir, y que rindan cuentas al interés público», dice el informe. Un empleado de Google involucrado en la protesta del Proyecto Maven de la compañía le dijo a Defense One que una lista de principios éticos probablemente no persuadiría al individuo de que asociarse con los militares sería una buena idea. En otras palabras, el Departamento todavía tiene mucho por hacer.

La estrategia también se centrará en la creación de lo que el oficial describió como una fuerza laboral de IA preparada para actuar. El oficial señaló el éxito de los cursos abiertos masivos en línea (aumentados por la instrucción en vivo en el aula) y los campamentos de entrenamiento de IA como el campamento Machine Learning Ninja de Google, como ejemplos del sector privado de cómo entrenar rápidamente a la gente para que trabaje en el aprendizaje automático. «Una vez más, nos dirigimos a las empresas que lograron transformar sistemáticamente su industria de mano de obra», dijo el funcionario.

Fte. Defense One