Cinco claves de la nueva ley de inteligencia artificial europea

De ‘histórico’, así han calificado las autoridades europeas el reglamento que regula el uso de la inteligencia artificial aprobado en Bruselas. La norma, pionera a nivel mundial, trata de guardar un equilibrio entre la fijación de restricciones a esta potente tecnología y evitar una sobrerregulación que pueda frenar su desarrollo y lastrar la competitividad de la industria. Repasamos algunas de sus claves.
HAZ11 diciembre 2023

No ha sido fácil consensuar la nueva ley, pero finalmente salió ‘fumata blanca’ en Bruselas. Tras varios días de intensas negociaciones, las instituciones europeas alcanzaban un acuerdo provisional sobre la regulación de la inteligencia artificial, que aún tendrán que ratificar el Parlamento Europeo y los Estados miembros.

El proyecto de reglamento tiene como objetivo garantizar que los sistemas de IA comercializados y utilizados en la UE sean seguros y respeten los derechos fundamentales, al tiempo que impulsan la innovación para convertir a Europa en líder en este campo frente a China y EE. UU.

“La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de esta tecnología en el que se puede confiar”, señaló la presidenta de la Comisión Europea, Ursula von der Leyen.

Estas son algunas claves de lo acordado:

A mayor riesgo, más restricciones

Las reglas permiten o prohíben el uso de la IA en función de sus riesgos potenciales y su nivel de impacto, es decir, según su capacidad de causar daño a la sociedad: cuanto mayor en el riesgo, más estrictas son las reglas.

Así, los sistemas de inteligencia artificial que presenten solo un riesgo limitado estarán sujetos a obligaciones de transparencia muy leves, por ejemplo, revelar que el contendido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior. Por el contrario, se identifican sistemas de algo riesgo que solo podrán utilizarse se demuestra que respetan los derechos fundamentales, como los utilizados para influir sobre los votantes en las elecciones.

Permitida la vigilancia biométrica solo en algunos casos

Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de reconocimiento facial en espacios públicos para garantizar la seguridad nacional. El acuerdo provisional incluye salvaguardias y excepciones para el uso de estos sistemas de identificación biométrica (RBI) sujetos a autorización judicial previa y para listas de delitos estrictamente definidas.

La vigilancia ‘post remota’ se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave. La vigilancia ‘en tiempo real’ cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación para los fines de: búsquedas selectivas de víctimas de secuestro, trata o explotación sexual; prevención de una amenaza terrorista específica y presente, o la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal o delitos medioambientales).

Quedan totalmente prohibidos

Para algunos usos de la IA, el riesgo se considera inaceptable por su amenaza potencial para los derechos de los ciudadanos y la democracia, y se ha acordado prohibir:

  • sistemas de categorización biométrica que utilizan datos sensibles, por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual o raza
  • extracción no dirigida de imágenes faciales de Internet o grabaciones audiovisuales para crear bases de datos de reconocimiento facial
  • reconocimiento de emociones en el lugar de trabajo y en instituciones educativas
  • puntuación social basada en comportamiento social o características personales
  • sistemas de IA que manipulan el comportamiento humano

La IA generativa: sí, pero con vigilancia

Los sistemas de inteligencia artificial generativa, como ChatGPT, tendrán que cumplir criterios adicionales de transparencia, como especificar si un texto, una canción o fotografía se han generado por IA para ayudar, entre otras cosas, a distinguir las falsificaciones de las auténticas, y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo para garantizar que se respetan esos derechos.

Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso el reglamento  en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.

Sanciones y multas

El incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa.

El texto acordado ahora tendrá que ser adoptado formalmente tanto por el Parlamento Europeo como por el Consejo de la UE para convertirse en ley y entrar en vigor (previsiblemente, a finales de 2026). Las comisiones de Mercado Interior y Libertades civiles del Parlamento votarán sobre el acuerdo en una próxima reunión.

Comentarios