El Big Data y la IA pueden defender la democracia o destruirla

datosEl análisis de datos es como cualquier otra herramienta; su impacto en nuestras vidas depende de las intenciones de sus propietarios.

El mundo actual está repleto de sensores, y cuanto más alto esté tu Estado-nación en la cadena alimentaria de la industria avanzada, más probable es que lleves un sensor encima cada minuto de cada día (y para muchos, incluso mientras duermen). Esto es importante: los datos recogidos por estos sensores pueden ser almacenados, analizados y convertidos en armas.

Pueden ser robados. Pueden ser citados. Y como la mayoría de los recolectores de datos de hoy en día son empresas con ánimo de lucro, coexisten riesgos terribles junto con el potencial de avances en áreas como la medicina y el calentamiento global. La recopilación, el análisis, el almacenamiento y el robo de información sobre usted tienen implicaciones letales; tanto para usted como individuo como para todos nosotros en términos de guerra interestatal.

En su libro de 2018 AI Superpowers, el autor y empresario Kai-Fu Lee comparó los grandes datos con el nuevo petróleo crudo y señaló que, en la medida en que la analogía se mantenga, eso convertiría a la República Popular China (RPC) en la Arabia Saudí de los datos del mundo. La analogía es útil porque, al igual que el petróleo, los datos pueden convertirse en muchas otras cosas valiosas. Pueden usarse para entrenar algoritmos que hagan funcionar máquinas o hagan predicciones, resolver problemas difíciles, curar enfermedades, hacer cultivos resistentes al agua, diseñar coches más seguros y eficientes en cuanto a combustible, etc.

Pero los datos recogidos sobre los seres humanos también pueden aprovecharse para oprimir, matar y torturar. En otras palabras, las implicaciones políticas, económicas y sociales del análisis de datos dependen directamente del objetivo de dicho análisis. Ese objetivo puede ser tratar de averiguar si necesito un nuevo par de zapatos o pantalones cortos para el verano, o si voy a votar a un candidato específico.

En los estados democráticos con economías de mercado relativamente no reguladas, como Estados Unidos, hemos entrado en una era de lo que la autora Shoshana Zuboff llama «capitalismo de la vigilancia». Esto comienza vendiendo la idea de que el análisis de datos puede utilizarse para predecir lo que compraremos y, por tanto, aumentar los beneficios eliminando la incertidumbre del diseño, la producción, la comercialización y la venta de los bienes de consumo. Pero Zuboff va más allá: esos análisis de datos ya han llegado a un punto en el que las empresas con ánimo de lucro son capaces de desplegar algoritmos no sólo para predecir lo que queremos, sino para moldear nuestros deseos de compra.

Y entiendan: mientras que podemos consentir vagamente lo primero, no se nos ha dado la opción de consentir lo segundo.

Y lo que es peor. En estados autoritarios como Rusia, la RPC, Irán, la República Popular Democrática de Corea (RPDC) y Venezuela, el análisis de datos se emplean principalmente para encontrar y destruir a la oposición política. He aquí un trozo de diálogo de Capitán América: El soldado de invierno (Anthony y Joe Russo, 2014) que capta brillantemente la idea. El escenario es una azotea en la que dos de nuestros héroes -Steve Rogers y Natasha Romanov- están interrogando a Jasper Sitwell, un alto cargo de la malvada y autoritaria conspiración HYDRA sobre cómo un arma orbital letal de alta tecnología, el helitransporte Insight, elegirá sus objetivos:

Rogers: ¿Qué objetivos?

Sitwell: ¡Tú! Un presentador de televisión en El Cairo, el Subsecretario de Defensa, el mejor alumno de un instituto en la ciudad de Iowa. Bruce Banner, Stephen Strange, cualquiera que sea una amenaza para HYDRA. Ahora, o en el futuro.

Rogers: ¿El futuro? ¿Cómo podría saberlo? [Sitwell ríe]

Sitwell: ¿Cómo no podría? El siglo XXI es un libro digital. Zola enseñó a HYDRA a leerlo. [Rogers y Romanov lo miran confundidos] Sus registros bancarios, historiales médicos, patrones de votación, correos electrónicos, llamadas telefónicas, sus malditas calificaciones del SAT. El algoritmo de Zola evalúa el pasado de la gente para predecir su futuro.

Rogers: ¿Y entonces qué?

Sitwell: Entonces los helitransportadores Insight tachan a la gente de la lista, unos cuantos millones a la vez.

Si los algoritmos pueden diseñarse y desplegarse para predecir si uno prefiere la Coca-Cola o la Pepsi, en otras palabras, ¿por qué no podrían diseñarse y desplegarse para predecir si uno se opondrá a un ataque a la Constitución de Estados Unidos? Poca gente sabe que la idea original de lo que podríamos llamar «policía predictiva» fue inventada por Reinhard Tristan Eugen Heydrich, que junto con Heinrich Himmler fundó efectivamente la policía secreta del Tercer Reich y la Orden de la Cabeza de la Muerte (SS). El ascenso de Heydrich dentro del partido nazi en la década de 1930, y más tarde en las SS, se debió de hecho a su eficacia a la hora de recopilar y analizar datos para identificar a la oposición presente y futura a Adolf Hitler y al partido nazi. La mayoría de los que Heydrich identificó de este modo acabaron ejecutados por un pelotón de fusilamiento o enviados a campos de concentración para morir más lentamente.

La implicación devastadora es ésta: el análisis de datos es como cualquier otra herramienta; su impacto en nuestras vidas depende de las intenciones de sus propietarios. Depende de las preguntas que se le hagan. Si las intenciones son en nuestro beneficio -y muchas de ellas lo son-, entonces queremos apoyar la recopilación y el análisis de datos y el perfeccionamiento y despliegue de los algoritmos que pueden hacer que vivir, amar y trabajar sea más seguro, justo, satisfactorio y productivo. Puede ser usado por las fuerzas del orden para encontrar y detener a los asesinos en serie, los traficantes de personas y la explotación sexual de los niños. Pero si las intenciones cambian hacia la opresión política, como ya lo han hecho en Rusia, Turquía, Irán, la República Popular Democrática de Corea, Venezuela y la República Popular China (en la República Popular China se dice que los algoritmos apoyados por la incomparable recopilación de datos del Partido se despliegan para aumentar la «estabilidad social»), los mismos datos recogidos para identificar su riesgo de cáncer de próstata o para venderle un par de gafas o pantalones vaqueros que le queden mejor pueden ser redistribuidos para encontrarle, arrestarle, encarcelarle o ejecutarle por nada más que oponerse a los políticos que pretenden abolir la democracia y el estado de derecho.

Y esto ya está ocurriendo, incluso en democracias como la de Estados Unidos. En 2016, Cambridge Analytica fue descubierta usando datos de Facebook para dirigirse a potenciales votantes demócratas identificados por sus algoritmos como susceptibles de no votar. En 2019, mientras consideraba unirme al equipo de políticas de ciberseguridad de la Casa Blanca en Washington DC, un colega que ya trabajaba en el equipo me llamó para advertirme: «Iván, ¿has tuiteado alguna vez algo crítico con el presidente?». Mi respuesta sincera, «sí» -aunque honestamente, he tuiteado críticas a varios presidentes de EE.UU.-, provocó una respuesta lamentable: independientemente de mis antecedentes y calificaciones, no debía presentar mi candidatura.

En junio de este año, el potencial de daño de la inteligencia artificial (IA) alimentada por los grandes datos se hizo mucho más grave, incluso mortal, porque esos mismos océanos de datos mantenidos en confianza por empresas como Alphabet, Amazon, Twitter y Meta ahora pueden ser citados por las fuerzas del orden en los estados que, desde el 24 de junio, han prohibido el aborto. ¿Esta persona viajó fuera del estado por trabajo, por placer, para visitar a la familia o para visitar un centro médico que proporciona abortos (entre otros servicios)? La IA apoyada en el análisis de datos es excelente para la comparación de patrones de este tipo (ya se utiliza para la detección temprana del cáncer de mama, por ejemplo).

¿Privacidad de datos, seguridad de datos y guerra interestatal?

Por eso la privacidad y la seguridad de los datos son tan importantes, aunque sigamos entregando alegremente información detallada -mucho más detallada que la que tenía Reinhard Heydrich- a empresas privadas que hacen todo lo posible, aunque no siempre con éxito, para mantener tu información privada a salvo de competidores o delincuentes.

Terminaré conectando los puntos entre la privacidad de los datos, la IA, la democracia y la guerra interestatal. Ya hemos visto que los gobiernos usan los big data que adquieren por su cuenta u obligando a las empresas con empleados dentro de sus fronteras a cederles datos. Cuanto más democrático sea el Estado, más probable será que estos datos se empleen para apoyar la seguridad y la prosperidad mediante la lucha contra la delincuencia, la erradicación de la corrupción, etc. Sin embargo, cuanto menos democrático sea el Estado, más probable será que esos mismos datos se desplieguen para acosar, oprimir, detener e incluso ejecutar a los opositores políticos. Desde 2016, Rusia usó eficazmente las redes sociales estadounidenses para seguir profundizando las divisiones políticas de los estadounidenses, hasta el punto de que parecemos estar al borde de la guerra civil.

Y aquí es donde entra la guerra interestatal. Es bien sabido que cuanto mayor sea el número de estados democráticos -definidos simplemente como estados con mecanismos que permiten a sus ciudadanos opinar sobre sus propias políticas nacionales y exteriores- en un sistema de estados, menor será la probabilidad de una guerra interestatal. Pero el uso indebido de datos personales detallados procedentes de múltiples fuentes no solo hace posible que los gobiernos autoritarios destruyan a la oposición -como ocurrió en Hong Kong entre 2019 y 2020-, sino que permite a las minorías conservadoras dentro de los Estados nominalmente democráticos tomar el control del Estado; convertir un Estado democrático en uno autoritario. Esto está sucediendo en todo el mundo, lo que resulta en un aumento constante del número de estados que pasan de ser democráticos, a débilmente democráticos, a débilmente autoritarios, a dictaduras completas (esta fue la trayectoria de Rusia después de 1991). Esto significa que la guerra interestatal -como el asalto de Rusia a Ucrania en febrero- está destinada a ser más común.

Hay una solución a este problema, y tiene que ver directamente sí, con la gobernanza. Cuando los mercados no pueden limitarse a sí mismos, los gobiernos tienen que intervenir y regular la recogida, el uso, el tránsito y el almacenamiento de datos. Europa está liderando el camino, y sus esfuerzos siguen enfrentándose a serios vientos en contra. Pero regular la recopilación y el uso de los grandes datos y los algoritmos en los que se apoyan es la única manera de permitir que las empresas que recopilan y controlan nuestros datos obtengan beneficios de las innovaciones beneficiosas para la humanidad, y al mismo tiempo evitar que los actuales Heydrichs y Himmlers -y están ahí fuera- hagan uso de nuestros datos para oprimir y perseguir a quienes sus gobiernos autoritarios consideran enemigos del Estado.

Fte. The National Interest (Ivan Arreguin-Toft)

El doctor Iván Arreguín-Toft es autor de How the Weak Win Wars: A Theory of Asymmetric Conflict. Es miembro fundador del Global Cyber Security Capacity Centre de la Martin School de la Universidad de Oxford. En la actualidad, es investigador asociado en el Senior Research Associate en el International Security Program en el Belfer Center for Science and International Affairs en la Harvard University’s Kennedy School of Government.