El jefe de tecnología de la Casa Blanca califica de torpes los principios de la IA en Europa comparado con EE.UU.

Comision_EuropeaLa publicó en febrero un libro blanco en el que se esbozan los principios para la regulación de la inteligencia artificial, de naturaleza similar a un conjunto de principios publicados por el Gobierno de Estados Unidos en enero. Sin embargo, al menos un aspecto del documento de la UE se queda corto, según el Director de Tecnología de EE.UU. Michael Kratsios.

El libro blanco de la UE refleja muchas de las principales áreas de enfoque esbozadas en los principios de EE.UU., incluyendo la necesidad de transparencia en el desarrollo y la confiabilidad de cualquier tecnología de IA que se use ampliamente. Pero, durante una entrevista, en un evento organizado por el Instituto Hudson, Kratsios dijo que el documento de la UE era demasiado contundente cuando se trata de hacer determinaciones de riesgo.

“Encontramos, que lo que en realidad publicaron ayer, realmente, creo, en cierto modo torpes intentos de poner en el tapete las tecnologías impulsadas por la IA, ya sea como ‘de alto riesgo’ o ‘no de alto riesgo'”, dijo.

El libro blanco, tal como lo explicó Kratsios, sugiere que Europa desarrollará una estructura regulatoria en la que un organismo designado determinará si una determinada tecnología es de alto riesgo o no, e impondrá regulaciones estrictas a la primera, mientras que permitirá que la segunda se desarrolle sin obstáculos.

“Creemos que este enfoque del todo o nada, no es necesariamente la mejor manera de enfocar la regulación de las tecnologías de IA. Creemos que las regulaciones de la IA sirven mejor en un espectro, de algún modo”, dijo Kratsios. “Hay ciertos tipos de tecnologías de IA que requerirán un fuerte escrutinio regulatorio, y nosotros en Estados Unidos estamos preparados para hacerlo. Pero hay bastantes que necesitan sólo un poco o nada en absoluto, y creo que la creación de este espectro es importante”.

“Tenemos mucho en común”, añadió. “Pero creo que este enfoque de bifurcar sin rodeos todo el ecosistema de tecnología de la IA en dos bloques es un poco duro.”

Kratsios dijo que el enfoque de EE.UU. tendrá más gradación en la evaluación de riesgos, lo que llevará a un toque regulador más ligero.

“La segunda clave [de los principios de Estados Unidos] está realmente en torno a un abuso regulatorio limitado, que creemos que necesitamos para crear un modelo que se base en el riesgo y en el uso, y que sea específico para cada sector”, dijo. “Los tipos de regulaciones que se pueden tener para un vehículo autónomo o para un avión no tripulado son muy diferentes al tipo de regulación que se tendrá para los diagnósticos médicos con IA. En lugar de poner las tecnologías en un cajón común: ‘Bueno, todas estas son de alto riesgo, así que tienes que hacer estas 12 cosas’, o ‘Estas no son de alto riesgo, no tienes que hacer nada’, tiene que haber una especie de espectro y flexibilidad en el modelo para que seas capaz de regular adecuadamente el riesgo que cada una de estas tecnologías proporciona”.

Esa evaluación podría estar siendo demasiado leída en un libro blanco que, si bien informará las futuras políticas regulatorias, no es en sí mismo un marco regulatorio, de acuerdo con Aaron Cooper, vicepresidente de política global de la BSA | La Alianza de Software.

“Es muy temprano en el desarrollo de la política de IA en la UE y EE.UU. como para saber con seguridad si realmente van a diverger”, dijo Cooper a Nextgov el jueves. “El libro blanco en sí mismo no crea un marco regulatorio. Está sentando las bases para más conversaciones sobre cuál sería el marco adecuado: donde hay un riesgo significativo, donde hay menos riesgo. Creo que también estamos haciendo eso en EE.UU.”.

Cooper señaló que tanto los documentos de la UE como los de EE.UU. se centran en un enfoque basado en el riesgo, y aunque el libro blanco europeo divide el riesgo en sólo dos bloques, “no se trata de bloques inusuales”, dijo.

“Creo que tenemos problemas similares en EE. UU., donde si se va a tener software, incluido software habilitado para IA, en un dispositivo médico, por ejemplo, la FDA tiene procedimientos específicos debido a los riesgos que conlleva”, dijo. “En el libro blanco de la UE, están comenzando a moverse por la vía de tratar de averiguar cuál es el estilo apropiado de regulación”.

Agustín Huerta, vicepresidente de tecnología, IA y estudios de automatización de procesos en Globant, estuvo de acuerdo y añadió más críticas a los esfuerzos reguladores de Estados Unidos.

“Lo que Europa está haciendo ahora con esta última versión de propuestas de estrategia digital es dar los siguientes pasos, después de que se publicaran sus directrices el año pasado”, dijo a Nextgov. “Creo que las directrices de la UE publicadas el año pasado están mucho más desarrolladas que las más recientes proporcionadas por EE.UU. y … la UE tiene regulaciones de datos mucho más desarrolladas que las de EE.UU., lo que es una gran base para lograr la regulación de la IA”. Desde el lado de EE.UU., parece estar demasiado enfocados a liderar la industria en comparación con la protección real de los ciudadanos de los prejuicios o usos poco éticos de la IA”.

Agustín sostuvo que la falta de reglamentación de los datos seguirá obstaculizando en realidad la capacidad de los Estados Unidos para regular adecuadamente la IA.

“Creo que lo que Kratsios está tratando de mostrar es que  EE.UU. sigue liderando en general lo que se refiere a la IA, desde el desarrollo hasta la regulación”, dijo. “Sin embargo… La regulación de los datos es la base de una fuerte regulación de la IA, y EE.UU. no han progresado más en este espacio, con la excepción de las regulaciones de datos relacionados con la salud. Es necesario que EE.UU. se pongan al día en lo que se refiere a la regulación de los datos, ya que se han producido algunos fallos importantes en EE.UU., donde se han detectado varios sesgos en los algoritmos de IA”.

Fte. Nextgov

1 Comment

Deja tu comentario

Tu dirección de correo no será publicada.