La CIA y la ética en el campo de la inteligencia artificial

A medida que la Agencia Central de Inteligencia (CIA) hace uso de la nueva tecnología, de inteligencia artificial (IA), las personas con información privilegiada están pensando de manera crítica sobre los temas relacionados con la privacidad y los prejuicios.

En unos momentos la CIA aprovecha el aprendizaje automático y la inteligencia artificial para cumplir mejor su misión, por lo que los informantes están abordando con decisión las cuestiones relativas a los prejuicios y la ética intrínseca a la tecnología emergente.

«En la Agencia tenemos más de 100 iniciativas de IA en las que estamos trabajando y las cosas van a seguir así», ha dicho Benjamin Huebner, funcionario de privacidad y libertades civiles de la CIA, en un evento organizado por la Brookings Institution en Washington. «Es un tema muy complicado en el que estamos pensando todo el tiempo.»

Huebner dijo que colaborar con los científicos de datos de la Agencia de Inteligencia es una de sus partes favoritas de su trabajo. Su equipo de privacidad trabaja directamente con sus colegas de cara a la tecnología en proyectos relacionados con estadísticas, codificación y representaciones gráficas.

«Y parte del trabajo] es utilizar la nueva analítica que tenemos, sobre todo para grandes conjuntos de datos, para analizar la información de formas que antes no podíamos y usar las mejoras en el aprendizaje automático para comprender lo que los seres humanos, sólo desde el punto de vista de la capacidad, no la podemos ver», dijo.

La PCLO equiparó el panorama actual y la incipiente tecnología con los años setenta y ochenta, cuando los empleados federales comenzaron a usar computadoras para el trabajo de la Agencia y a los «primeros días», cuando la Oficina Federal de Investigaciones comenzó a usar automóviles.

«En realidad no me gusta que la gente considere la IA como algo tan funcionalmente diferente», dijo. «Esta es una de las herramientas que se va a usar en muchos lugares diferentes.»

Pero el auge en torno a la tecnología innovadora no está exento de consecuencias, sobre todo en lo que respecta a la parcialidad y la explicabilidad, que Huebner dijo que la Agencia está abordando de frente.

«Una de las cosas interesantes sobre el aprendizaje de las máquinas, que es un aspecto de nuestra división de inteligencia, es lo que los expertos encontraron en muchos casos, la analítica obtiene los resultados más precisos, pero también menos capacidad de explicación, la menor capacidad para explicar cómo el algoritmo llegó realmente a la respuesta que obtuvo», dijo. «El algoritmo que está sacando los datos es una caja negra y eso es un problema si eres de la CIA.»

La Agencia no sólo tiene que ser precisa, sino que también tiene que ser capaz de demostrar cómo llegó al resultado final. Así que, si un análisis no es explicable, no está «listo para tomar la toma de decisiones».

Huebner también dijo que su equipo está trabajando directamente con los científicos de datos de la CIA para mitigar el sesgo en la IA que la Agencia está implementando.

«Cuando se piensa en cosas como el sesgo, los datos de la capacitación o cómo se entrena a una máquina de aprendizaje analítico, es donde realmente se puede filtrar parte del sesgo, así que realmente se necesita saber acerca de eso», apuntó.

A veces esos datos pueden ser útiles para entrenar a un algoritmo, pero también pueden incluir información privada sin relevancia para la inteligencia extranjera. Huebner y su equipo tienen la tarea de encontrar la forma de equilibrar el uso de los datos apropiados para entrenar las máquinas, al tiempo que se mantienen estrictas medidas de privacidad.

Dijo que, en este momento, su oficina está tratando de desarrollar un marco práctico para que las personas con información privilegiada lo utilicen en los nuevos proyectos, lo que les obliga a plantearse inicialmente preguntas reflexivas sobre la privacidad, la explicabilidad y los prejuicios, antes de ofrecer nuevos análisis para el uso de la misión.

Huebner y su equipo tienen la tarea de encontrar la forma de equilibrar el uso de los datos apropiados para entrenar las máquinas, al tiempo que se mantienen estrictas medidas de privacidad.

«Es muy bueno que la gente esté usando esa la tecnología en el campo comercial, pero aquí no estamos promocionando a una mejor marca de café, por lo que se necesita más precisión y saber cómo se llegó a eso», dijo.

Fte. www.nextgov.com