DARPA se enfrenta al problema de la falsificación profunda (deepfake)

La Agencia quiere enseñar a los ordenadores a detectar errores en los medios manipulados, usando la lógica y el sentido común.

El Departamento de Defensa está buscando herramientas que puedan detectar rápidamente las falsificaciones profundas y otros medios manipulados, en medio de la creciente amenaza de «ataques de desinformación automatizados a gran escala».

La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) anunció recientemente una próxima iniciativa, centrada en frenar la propagación de falsificaciones profundas maliciosas, imágenes, audio y vídeos sorprendentemente realistas pero falsificados, generados con inteligencia artificial.

Bajo el programa Semantic Forensics (SemaFOR), los investigadores buscan ayudar a los ordenadores a usar el sentido común y el razonamiento lógico para detectar medios manipulados.

A medida que los adversarios globales mejoran sus capacidades tecnológicas, las falsificaciones profundas y otras tácticas avanzadas de desinformación se están convirtiendo en una de las principales preocupaciones para la seguridad nacional. Rusia ya demostró el potencial de las noticias falsas para influir en la opinión pública durante las elecciones de 2016, y a medida que las herramientas de falsificación profunda se hacen más avanzadas y están más fácilmente disponibles, los expertos temen que se emplee la tecnología para alimentar campañas de influencia cada vez más poderosas.

La industria ha comenzado a desarrollar tecnologías que usan métodos estadísticos, para determinar si un vídeo o una imagen ha sido manipulado, pero las herramientas existentes «se están volviendo ineficaces muy deprisa» mientras que las técnicas de manipulación continúan avanzando, según DARPA.

«Las técnicas de detección que dependen de las huellas digitales estadísticas, a menudo pueden ser engañadas con recursos adicionales limitados», según un artículo publicado en FedBizOpps.

Sin embargo, agrega, los medios manipulados a menudo contienen «errores semánticos» que las herramientas de detección existentes a menudo pasan por alto. Al enseñar a las computadoras a detectar estos errores, como ocurrirían cuando una persona lleva unos pendientes inadecuados, puede dificultar que los falsificadores digitales pasen desapercibidos.

Más allá de la simple detección de errores, los responsables también quieren que las herramientas atribuyan los medios de comunicación a diferentes grupos y determinen si el contenido fue manipulado con fines espurios. Usando esa información, el técnico indicaría que temas tienen que revisar los humanos.

«Un conjunto completo de detectores de inconsistencias semánticas aumentaría drásticamente la carga de los falsificadores de medios de comunicación, lo que requeriría que los creadores de medios de comunicación falsificados corrigieran todos los detalles semánticos, mientras que los defensores sólo necesitan encontrar una o muy pocas inconsistencias», dijeron en DARPA.

Pero es más fácil decirlo que hacerlo. Hoy en día, incluso las plataformas de inteligencia de máquinas más avanzadas tienen dificultades para entender el mundo más allá de sus datos de entrenamiento. En los años venideros, DARPA planea invertir recursos significativos en la construcción de máquinas capaces de razonar con sentido común y lógica.

 

Nota: Deepfake o ultrafalso es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo. Se trata de una técnica de inteligencia artificial, que permite editar videos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGAs (Red generativa antagónica), y vídeos o imágenes ya existentes. El resultado final de dicha técnica es un video muy realista, aunque ficticio. (Wikipedia)

Fte. NextGov