La Unión Europea plantea un 'semáforo' de riesgo en su Ley de Inteligencia Artificial

EmailFacebookTwitterLinkedinPinterest
04/01/2024 - 14:17
La Inteligencia Artificial regulada

Lectura fácil

La Inteligencia Artificial ha sido la auténtica revolución del 2023, cuyos resultados continuarán viéndose a lo largo de este año y se espera que sea un punto de inflexión en la revolución tecnológica general de nuestra era. Tanta es su potencia, que enseguida han surgido detractores, pero también muchos entusiastas de las IAs. Sin embargo, poco ha tardado en mostrar los riesgos que trae consigo y desde la Unión Europea han buscando ponerles coto.

Así pues a principios del mes de diciembre de 2023, la Ley de Inteligencia Artificial fue aprobada para su debate y estructuración, convirtiéndose en la primera normativa de estas características en el mundo. El objetivo marcado es principalmente el de promover el desarrollo de esta tecnología, de tan forma que no ponga en riesgo los derechos fundamentales de las personas, así como los Estados de derecho o las democracias.

Un semáforo para regular la Inteligencia Artificial

Como no todos los programas que utilizan Inteligencia Artificial son iguales, ni tiene un potencial equiparable, desde la UE han propuesto utilizar un sistema de colores con el que se clasifiquen los niveles de riesgo de las IAs y así determinar si estas deben de estar prohibidas o contar con cualquier tipo de restricción para su uso. Para hacerlo han planteado un 'semáforo' de riesgo con cuatro colores en este caso.

El primero será el rojo, que indicará un nivel de riesgo inaceptable, por lo que la Inteligencia Artificial que entren dentro de esta categoría serán prohibidas. Como ejemplos, desde la Comisión Europea, han señalado algunas como la manipulación del aspecto o el comportamiento de una persona, así como falsos desnudos, lo que hoy se conoce como deepfakes.

Pero no serán los únicos. También se tomarán en cuento todos aquellos usos que sean para el rastreo indiscriminado de imágenes faciales, reconocimiento de emociones en lugares de trabajo o centros educativos, así como el acceso a datos sensibles de las personas, haciendo uso de clasificaciones biométricas.

Los otros tres colores también evaluarán el riesgo de la Inteligencia Artificial utilizada en función al nivel del peligro. En estas categorías se integrarán el respeto a los derechos de autor, la generación de contenidos que hayan utilizado información de forma no autorizada y la transparencia con la que se presenta un trabajo en la que ha intervenido una IAs.

Las multas por el incumplimiento de estas podría iniciar en los 35 millones de euros o el 7 % del volumen de negocios global de la empresa o particular responsable, hasta alcanzar un máximo de 7,5 millones de euros. La Eurocámara dará otro paso importante en la ratificación de esta ley el próximo mes de febrero y se espera que para 2026 entre en vigor.

Para las Fuerzas de Seguridad de los Estados

En cuanto a las restricciones de uso de tecnologías comprometidas, existirá una excepción que solo se aplicará a en los cuerpos y fueras de seguridad que necesiten hacen uso de algunas de estas herramientas de Inteligencia Artificial, siempre y cuando la seguridad de los individuos esté garantizada en las operaciones. Sin embargo, este punto continua siendo algo controvertido y se continuará debatiendo.

Añadir nuevo comentario