El Cermi pide que la Inteligencia Artificial tenga un enfoque de derechos humanos

EmailFacebookTwitterLinkedinPinterest
21/09/2020 - 18:44
El Cermi pide que la Inteligencia Artificial tenga un enfoque de derechos humanos

Lectura fácil

El Comité Español de Representantes de Personas con Discapacidad (Cermi) ha pedido al Ministerio de Educación y Formación Profesional que los estudiantes de Inteligencia Artificial y ‘big data’ asuman en su formación un enfoque de derechos humanos, sobre todo en torno a posibles discriminaciones a personas con discapacidad.

A la Inteligencia Artificial le falta un enfoque de derechos humanos

Así consta en su informe de alegaciones de mejora al proyecto de Real Decreto por el que se establece el curso de especialización en Inteligencia Artificial y Big Data, en el que se fijan los aspectos básicos del currículo promovido por Educación y que en estos momentos se encuentra sometido al dictamen del Consejo Escolar del Estado.

Para el Cermi, en el contenido básico de esta curso de especialización “ha de exigirse la aplicación a la Inteligencia Artificial de los principios legales y éticos y, entre ellos, con preferencia la visión de derechos humanos y la consiguiente protección de los grupos en especial situación de exposición y vulnerabilidad”.

Enfoques específicos basados en el principio de igualdad y no discriminación

Y es que “las personas con discapacidad, como grupo colocado en situación de fragilidad social, se encuentran ante un mayor riesgo de vulneración de sus derechos y libertades fundamentales, lo que justifica que se adopten enfoques específicos basados en el principio de igualdad y no discriminación, explicó el Cermi.

Además de tomar en consideración los principios de diseño para todas las personas y la accesibilidad universal, la entidad de personas con discapacidad señaló que “se hace preciso incorporar entre las competencias básicas el estudio y conocimiento de los derechos humanos”.

La IA corre el peligro de convertirse en barreras

El doctor en Informática y experto en Tecnología Accesible e I+D de Fundación ONCE, Joan Pahisa, ha advertido recientemente que “la tecnología y la inteligencia artificial pecan de los mismos prejuicios que sus creadores y de la sociedad en la que vivimos y, si no se actúa, se corre el peligro de que se conviertan en barreras.

En muchos ámbitos de la vida no se tiene en cuenta a las personas con discapacidad y, en ocasiones, los términos sobre discapacidad siguen teniendo una connotación peyorativa, lo que puede hacer que, por ejemplo, en un proceso de selección para un puesto de trabajo en el que entre en juego la inteligencia artificial, el algoritmo descarte automáticamente a personas con discapacidad.

Asimismo, Pahisa precisa que “es innegable que la tecnología, alentada por el creciente empuje de la inteligencia artificial, tiene un enorme potencial para ayudar a las personas con discapacidad: algoritmos que leen textos y reconocen imágenes por sí solos; dispositivos que transcriben conversaciones a personas con problemas de audición; casas domóticas que permiten controlar luces, persianas o termostatos a distancia, y robots asistenciales e innumerables soluciones más que ya facilitan la independencia de muchas personas”. Por ello, reclama que en el diseño de estas tecnologías se tenga en cuenta la diversidad para no “dejar de lado a colectivos vulnerables”.

Añadir nuevo comentario