Un economista pide que se profundice en los riesgos de la IA

Daron Acemoglu cree que los luditas de finales del siglo XVIII y principios del XIX han sido calumniados por la historia. Son ampliamente conocidos por lanzar sus herramientas e incluso sus zapatos contra los equipos de las fábricas para dañar y romper la maquinaria, y se han convertido en sinónimo de quienes se oponen a todo progreso tecnológico.

«Los luditas entendían muy bien que la tecnología no era neutral», dijo el profesor del Instituto de Economía del MIT en una transmisión por Internet de la Brookings Institution el 13 de diciembre. Los luditas no se oponían a toda la industrialización: protestaban contra los propietarios de las fábricas que sustituían a los tejedores y trabajadores textiles cualificados por máquinas que los dejaban sin trabajo, mientras el gobierno británico de la época no hacía nada para paliar el impacto.

Acemoglu abrió la conversación con ese momento a principios de la Revolución Industrial porque ve paralelos inquietantes, a la vez que diferencias, en el impacto potencial de la inteligencia artificial en la sociedad humana.

Con el tiempo, el trabajo llegó a un nuevo nivel de coexistencia con la automatización, en parte debido a las significativas ganancias de productividad que bajaron los precios y ampliaron la disponibilidad de los productos, y en parte porque las empresas pudieron ampliar sus plantillas en áreas no manufactureras, dijo. «Pero a pesar de todas las promesas en nombre de la IA, eso no es lo que estamos viendo hoy. La IA no está generando una automatización de alta productividad, no se está usando para generar nuevas tareas para la mano de obra», dijo.

«Por supuesto que la IA está ampliando nuestra capacidad tecnológica, por lo que si la podemos aprovechar para conseguir enormes mejoras», dijo. «Pero la IA es muy poco neutral. [Podría crear miseria y enormes desequilibrios de poder».

Hay tres grandes áreas en las que la IA puede marcar una diferencia significativa, dijo Acemoglu:

«En primer lugar, se trata de más y mejores datos», dijo. «La investigación del cáncer, el seguimiento de la pandemia, los sistemas de recomendación, todo gira en torno a los datos». El uso de la IA puede hacer avanzar significativamente todo, desde los tratamientos médicos hasta la mejora de los resultados de los clientes.

«En segundo lugar, a medida que nos adentramos en el corazón del siglo XXI, necesitamos reducir nuestra huella en el medio ambiente, no sólo el carbono, sino muchas otros materiales y el consumo de recursos», por lo que puede ayudar a diseñar y aplicar un sistema económico posterior a los combustibles fósiles y recursos.

«En tercer lugar, la IA ha demostrado su mayor éxito, su único éxito hasta ahora, en la mejora de la toma de decisiones. La IA puede ayudar a las empresas a tomar mejores decisiones, a contratar mejor, a fijar mejor los precios», dijo. «Pero ninguna de esas promesas se está cumpliendo, y en cambio nos enfrentamos» a un peligro real.

A Acemoglu le preocupa que el capitalismo esté mal adaptado para garantizar que los beneficios de la IA se compartan y sus riesgos se mitiguen. «Creo firmemente que la innovación conlleva muchas repercusiones externas», dijo. «No se puede decir simplemente ‘que el mercado se encargue de ello'».

Señaló como ejemplo la industria de los combustibles fósiles. Las empresas petroleras y de gas saben desde hace décadas que sus productos provocan el cambio climático, una repercusión de proporciones gigantescas, pero siguen recibiendo subvenciones del gobierno y luchan por mantener marginadas a las fuentes de energía limpia.

También le preocupa que el sector privado desarrolle la IA en su propio beneficio. «Si se observa cómo se usa la IA, la supervisión no ayuda a los trabajadores, sino que los presiona. Amazon paga un salario mucho más alto… pero a muchos trabajadores no les gusta porque emplea la IA para vigilarlos y hacerlos trabajar más.» Las tasas de lesiones en las instalaciones de Amazon son más altas que las de otras empresas, y aumentan considerablemente durante los picos estacionales, como la Navidad, dice.

«Si eres un economista y observas el panorama digital actual, parece un monopolio, huele a monopolio, actúa como un monopolio», dijo. El gobierno no ha tomado medidas porque las normas legales actuales se redactaron para un mundo muy diferente. «Hoy no nos enfrentamos al problema del ‘monopolio’, sino a algo mucho más pernicioso».

Sugiere que hay que revisar las leyes y reglamentos para que reflejen las necesidades actuales. «Creo que tenemos que reforzar la exigencia de privacidad. Creo que tenemos que revivir la protección del consumidor, ¿qué entendemos por ‘protección del consumidor’ en esta época?», dijo. «Creo que tenemos que decidir qué usos son problemáticos para los individuos, pero no tienen la capacidad de abordarlos por sí mismos».

«También tenemos que encontrar formas de hacer que los datos estén más disponibles para las empresas competidoras», añadió Acemoglu. «Hay dos ideas contradictorias aquí: proteger la privacidad mientras se comparten los datos… Tenemos que resolver ambos problemas, y no podemos resolver uno sin el otro».

Señaló que la sociedad global ya está viendo el daño que la IA no regulada está teniendo en las democracias. «Es irónico: la primera oleada de pensamiento sobre los efectos de las tecnologías digitales en la democracia era completamente opuesta… a principios de la década de 2000, había optimismo de que la tecnología sería positiva», dijo. No es que «esa visión fuera fundamentalmente errónea, es que esa visión habría requerido una dirección muy diferente del desarrollo tecnológico y de la política».

Lo que está ocurriendo, en cambio, «es lo que yo llamo alterar el equilibrio existente. Las sociedades humanas, cuando funcionan incluso a un nivel moderado, se basan en el equilibrio», dijo. «El mayor problema de la economía de los datos es la alteración de este equilibrio. Está dando poder a las empresas contra sus clientes, a los países contra sus ciudadanos».

En su lugar, «un puñado de empresas de Estados Unidos y China están dando forma a nuestro futuro», dijo. «Esa es una situación inaceptable para cualquiera (…) Tenemos que intentar democratizar las decisiones sobre el futuro de la IA».

Fte. Nextgov