Ni si quiera los expertos comprenden del todo cómo aprende una Inteligencia Artificial, ¿Debería preocuparnos?

EmailFacebookTwitterLinkedinPinterest
26/04/2023 - 14:17
El desarrollo de la Inteligencia Artificial

Lectura fácil

La Inteligencia Artificial se ha convertido en el tema del momento, y no es para menos. Las últimas aplicaciones lanzadas con esta tecnología han levantado un especial revuelo en todos los sectores por su capacidad para crear de forma "creativa", saltándose los límites de un código de programación. Precisamente aquí es donde ha surgido un término, es del "caja negra", la sorpresa y también la preocupación de lo que es capaz de llegar a conseguir una IA.

Hace pocos días, en el programa '60 Minutes' de la cadena CBS, el jefe de la división de Inteligencia Artificial de Google, James Maneka, comentaba que la IA en la que estaban trabajando adquirió la capacidad de aprender un nuevo idioma sin necesidad de código. "Descubrimos que con muy pocas indicaciones en bengalí, ahora puede traducir todo el bengalí", comentaba señalando de esta forma a esa "caja negra" de la IA.

La "caja negra" de la Inteligencia Artificial, o todo aquello que aun no comprendemos

En un artículo publicado por la BBC, se indaga sobre la existencia de una "caja negra" dentro de lo que es el desarrollo de la Inteligencia Artificial. Este término haría referencia a todos aquellos procesos que una IA es capaz de hacer de forma independiente y que va mucho más allá de sus sistema codificado. Sundar Pichai, director ejecutivo de Google, comentaba que los programas de IA son capaces de ofrecer respuestas de forma inesperada.

"No lo entiendes del todo. No puedes decir muy bien por qué [el robot] dijo esto o por qué se equivocó en esto otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos hasta ahora", explicó el experto. Este hecho aumenta más aún la creciente sensación de que la Inteligencia Artificial puede llegar a convertirse en una tecnología "incontrolable" por el ser humano.

Pero, ¿Cómo es posible que exista esta "caja negra"?, el autor del libro 'The Status of AI Reports' y cofundador de una empresa tecnológica, Ian Hogarth, explicaba en una entrevista para la BBC que el desarrollo "tradicional" de un software lleva una línea de código que refleja claramente los resultados que va a arrojar, "Pero en la IA, los sistemas son realmente muy diferentes. […] pues no entiendes realmente lo que sucede dentro", añade.

Pensada como una red neuronal

Esto se debe a que la programación de la Inteligencia Artificial no se presenta tan "plana" como un software tradicional, sino que pretende imitar la red neuronal humana, la inteligencia. "Me gusta pensar que las cultivamos (en referencia a las IAs). Esa es la mejor idea que he oído sobre cómo construimos estos sistemas hoy en día. Y lo difícil es que, a medida que las desarrollamos, se producen grandes saltos bruscos en sus capacidades", explica Hogarth.

Por su parte, David Stern, gerente de investigación cuantitativa en G-Research, una empresa de tecnología, explicaba también en la BBC que dentro de "el enfoque de red neuronal que es tendencia en la actualidad, este procedimiento de entrenamiento determina la configuración de millones de parámetros internos que interactúan de manera compleja y son muy difíciles de explicar y aplicar ingeniería inversa".

¿Un posible descontrol?

Los expertos consultados por la cadena inglesa señalaron la necesidad de que otros parámetros humanos como la ética, la reflexión y las ciencias sociales, intervinieran también en los procesos de desarrollo de la Inteligencia Artificial para poder delimitarla, ya que hasta el momento no hemos llegado a conocer sus límites y solo empezamos a vislumbrar la capacidad de cambiar el paradigma social mundial.

Añadir nuevo comentario