Un informe, de 70 páginas, evalúa cómo las redes neuronales y la inteligencia artificial podrían potenciar las campañas de desinformación y descredito, e influir en las opiniones de millones de personas.
El informe publicado recientemente describe el impacto que podrían tener la inteligencia artificial y las redes neuronales actuales si se programaran para automatizar las campañas de desinformación.
Realizado por el Georgetown´s Center for Security and Emerging Technology, estudia cómo el GPT-3 de OpenAI, un potente sistema de IA que genera texto basado en las indicaciones de los humanos, podría automatizar la futura generación de campañas de desinformación.
Los investigadores estudiaron las capacidades del GPT-3 después de que éste escribiera un artículo de opinión en septiembre en The Guardian, el primer artículo escrito íntegramente por la IA.
«Si el GPT-3 puede escribir noticias aparentemente creíbles, quizá pueda escribir noticias falsas convincentes; si puede redactar artículos de opinión, quizá pueda redactar tuits engañosos», afirma el informe. «A la luz de este avance, nos planteamos una pregunta sencilla pero importante: ¿puede la automatización generar contenidos para campañas de desinformación?»
Los investigadores evaluaron el rendimiento del GPT-3 en seis tareas comunes a la mayoría de las campañas de desinformación, incluida la operación llevada a cabo por la Agencia de Investigación de Internet de Rusia en 2016. Incluyen la reiteración narrativa, la elaboración, la manipulación y la persuasión, así como el desarrollo autónomo de nuevas narrativas y la focalización en miembros de nuevos grupos. En cada caso, los investigadores descubrieron que el GPT-3 destacaba, a veces «con poca participación humana», y descubrieron que los equipos humano-máquina eran «capaces de idear y elaborar mensajes dirigidos creíbles en cuestión de minutos.»
Los investigadores descubrieron que «imita fácilmente el estilo de escritura de QAnon y probablemente podría hacer lo mismo con otras teorías de la conspiración» y también podría ser extremadamente persuasivo. Cuando se le programó para idear mensajes sobre dos cuestiones internacionales, la retirada de las tropas de Afganistán y las sanciones a China, para una encuesta entre personas reales, la IA cambió de opinión.
«Después de ver cinco mensajes cortos escritos con GPT-3 y seleccionados por humanos, el porcentaje de encuestados que se oponía a las sanciones a China se duplicó», afirma el informe.
Los autores del informe indican que nada prohíbe a los adversarios extranjeros intentar emplear estas técnicas en la actualidad.
«En caso de que los adversarios opten por la automatización en sus campañas de desinformación, creemos que el despliegue de un algoritmo como el del GPT-3 está dentro de la capacidad de los gobiernos extranjeros, especialmente los que tienen conocimientos tecnológicos como China y Rusia», afirma el informe. «Será más difícil, pero casi ciertamente posible, que estos gobiernos aprovechen la potencia computacional necesaria para entrenar y ejecutar un sistema de este tipo, en caso de que lo deseen».
Fte. Nextgov