Nueva Ley de Inteligencia Artificial europea: en qué afectará a las fuerzas de seguridad

La nueva Ley sobre Inteligencia Artificial en la Unión Europea, que no entrará en vigor en su totalidad hasta 2027, contempla exenciones para las fuerzas de seguridad.

El Parlamento Europeo ha aprobado este miércoles, 13 de marzo, la Ley de Inteligencia Artificial, que no se aplicará en su totalidad hasta, al menos, 2027, pero que ha sido calificada de «histórica» por ser la primera normativa que regulará la IA en todos sus ámbitos de aplicación.

Uno de ellos es el relativo a las fuerzas de seguridad. En el nuevo texto legal se especifica que, aunque el uso de sistemas de identificación biométrica queda prohibido a priori, en el caso de las fuerzas de seguridad habrá exenciones cuando su uso se limite a «situaciones muy concretas y bien definidas».

Es decir, que los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas. Por ejemplo, que su uso se limite a un período y lugar específicos y cuente con una autorización judicial o administrativa previa.

Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. «Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal», especifica la nueva normativa.

Protección de los derechos fundamentales frente al «alto riesgo» que entraña la Inteligencia Artificial

El nuevo Reglamento, acordado en las negociaciones con los estados miembros en diciembre de 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.

Su objetivo, según informan desde el Parlamento Europeo, es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA, que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la Inteligencia Artificial en función de sus riesgos potenciales y su nivel de impacto.

Se prohibirá la actuación policial predictiva, también con excepciones

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la Inteligencia Artificial que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Obligaciones para los sistemas de las fuerzas de seguridad

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medioambiente, la democracia y el Estado de derecho).

Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones).

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

La hoja de ruta de la nueva Ley de IA europea

El Reglamento aún está sujeto a una última comprobación jurídico-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo Europeo.

Entrará en vigor veinte días después de su publicación en el Diario Oficial y será de plena aplicación veinticuatro meses después de su entrada en vigor, con excepción de: las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor); los códigos de buenas prácticas (nueve meses después); las normas sobre la IA de uso general, incluida la gobernanza (doce meses después), y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).