La inteligencia artificial supera a los analistas de inteligencia humana en áreas clave

toma de la película WarGames de 1983En la película WarGames de 1983, el mundo se encuentra al borde de la destrucción nuclear, cuando una computadora militar, por medio de inteligencia artificial, interpreta los datos falsos como un inminente ataque de misiles soviéticos. Sus supervisores humanos en el Departamento de Defensa, inseguros de que los datos sean reales, no pueden convencer a la IA de que puede estar equivocada. Un reciente hallazgo de la Defense Intelligence Agency (DIA) sugiere que en una situación real en la que los humanos y la IA estuvieran observando la actividad del enemigo, esas posiciones se invertirían.

En realidad, la inteligencia artificial puede ser más cautelosa que los humanos en cuanto a sus conclusiones, en situaciones en las que los datos son limitados. Si bien los resultados son preliminares, ofrecen un importante indicio de, cómo los humanos y la IA se complementarán mutuamente en campos críticos de la seguridad nacional.

La DIA analiza la actividad de los militares de todo el mundo. Terry Busch, el director técnico del Machine Assisted Analytic Rapid-Repository System (MARS) de la Agencia, se unió el lunes a un programa de Defense One para discutir los esfuerzos de la Agencia para incorporar la IA en el análisis y la toma de decisiones.

A principios de este año, el equipo de Busch realizó una prueba entre un humano y la IA. La primera parte fue bastante simple: usar los datos disponibles para determinar si un barco en particular estaba en aguas de EE.UU.

«Cuatro analistas idearon cuatro metodologías; mientras que la máquina ideó dos diferentes, lo que fue muy bueno. Todos estuvieron de acuerdo en que esta nave en particular estaba en Estados Unidos», dijo. Hasta ahora, todo bien. Los humanos y las máquinas con los datos disponibles pueden llegar a conclusiones similares.

La segunda fase del experimento probó algo diferente: la convicción. ¿Serían los humanos y las máquinas igualmente seguros en sus conclusiones si se dispusiera de menos datos? Los experimentadores cortaron la conexión con el Sistema de Identificación Automática (AIS) del barco, que rastrea las naves en todo el mundo.

«Es bastante fácil encontrar un barco si se dispone de los datos proporcionados por el AIS, porque eso te dirá exactamente dónde se encuentra cada barco en el mundo. Si se lo quitamos, ¿cómo cambia eso la confianza y hace que la máquina y los humanos lleguen al mismo resultado final?»

En teoría, con menos datos, el analista humano debería estar menos seguro de sus conclusiones, como los personajes de WarGames. Después de todo, los humanos entienden los matices y pueden conceptualizar una amplia variedad de resultados. Pero, los investigadores concluyeron lo contrario.

«Una vez que comenzamos a eliminar las fuentes, todo el mundo se quedó con el mismo material de origen, numerosos informes, generalmente de medios sociales, tipos de cosas de código abierto, o referencias a que el barco estaba en Estados Unidos, de modo que todo el mundo tenía acceso a los mismos datos. La diferencia fue que la máquina, y los encargados de hacer su aprendizaje, corrieron mucho menos riesgo, en relación con la confianza depositada en los datos, que los humanos», dijo. «La máquina realmente hace un mejor trabajo, al disminuir su confianza, que los humanos… Tiene gracia, porque la máquina considera que tiene razón».

El experimento proporciona una instantánea de cómo los humanos y la IA se unirán para importantes tareas analíticas. Pero también revela cómo el juicio humano tiene límites cuando está en juego el orgullo.

Los seres humanos, en particular los expertos en campos específicos, tienden a sobreestimar su capacidad para inferir correctamente los resultados, cuando se les dan datos limitados. El economista y psicólogo ganador del premio Nobel Daniel Kahneman ha escrito extensamente sobre el tema. Kahneman describe esta tendencia como la «visión interna». Cita la experiencia de un grupo de educadores israelíes asignados a escribir un nuevo libro de texto para el Ministerio de Educación. Anticiparon que les tomaría una fracción del tiempo que sabían que le tomaría a otro equipo similar. No podían explicar por qué estaban tan confiados; simplemente lo estaban. El exceso de confianza es humano y un rasgo particular entre los humanos expertos altamente funcionales, uno que las máquinas no necesariamente comparten.

El experimento de la DIA ofrece una importante perspectiva para los mandos militares, que esperan que la IA ayude a tomar decisiones más rápidas y mejores, desde deducir las posiciones del enemigo hasta predecir posibles tramas de terror. El Pentágono lleva años diciendo que, la creciente cantidad de datos de inteligencia que fluyen de un conjunto cada vez más amplio de sensores y fuentes, exige un apoyo algorítmico.

El objetivo final de DIA es que los analistas humanos y la inteligencia artificial se complementen entre sí, ya que cada uno tiene un enfoque muy diferente del análisis, o como Busch lo llama, «tradecraft» (competencia técnica). En el lado humano, eso significa «la introducción del experto en un flujo de trabajo cuantitativo», dice. Tomar eso como una ayuda a los analistas para producir ideas que nunca se consideran terminadas, y que pueden cambiar tan rápidamente como los datos empleados para elaborar esas ideas.

Eso también significa enseñar a los analistas a ser expertos en datos para entender cosas como los intervalos de confianza y otros términos estadísticos. Busch advirtió que el experimento no implica que el trabajo de inteligencia de defensa deba ser entregado al software. La advertencia de WarGames sigue vigente. » Por parte de la máquina, hemos experimentado un sesgo de confirmación en los grandes datos. [Hemos] hecho que la máquina se reconozca a sí misma en el error… Eso es una verdadera inquietud para nosotros».

Fte. Defense One (Patrick Tucker)

Patrick Tucker es el editor de tecnología de Defense One. También es el autor de The Naked Future: What happens in a world that anticipates your every move? Anteriormente, fue subeditor de The Futurist durante nueve años. Tucker ha escrito acerca de la tecnología emergente en Slate, The Sun, MIT Technology Review, Wilson Quarterly, The American Legion Magazine, BBC News Magazine, Utne Reader, y en otros sitios.

Sé el primero en comentar

Deja tu comentario