Vulnerabilidades de la Inteligencia Artificial que pone al mundo en serio peligro

EmailFacebookTwitterLinkedinPinterest
10/10/2023 - 08:44
La Inteligencia Artificial también se manipula

Lectura fácil

La Inteligencia Artificial nos trajo los modelos lingüísticos que, aunque son de lo mejor que ha dado la tecnología, son altamente vulnerables.

Los usos indebidos, la estafa y el robo de datos, siguen coronándose, y pueden contaminar cualquier cosa que nos podamos imaginar, y en este caso, no hay solución alguna, de momento.

Desde las empresas de tecnología están integrando los modelos lingüísticos a muchos productos para que los consumidores hagamos de todo, desde comprar viajes, organizar calendarios, etc.

Pero esto mismo entraña numerosos riesgos, y los delincuentes saben de la facilidad que presenta hacer usos nada éticos de estas tecnologías, por lo que los expertos ya están hablando de que nos encontramos de camino y sin frenos hacia un desastre para la seguridad y la privacidad en Internet.

Estas son algunas de las estafas que la Inteligencia Artificial está condenada a sufrir

  • Jailbreaking: Chatbots como ChatGPT, Bard y Bing emplean modelos lingüísticos de Inteligencia Artificial para producir textos que parecen creados por humanos. Siguiendo las instrucciones del usuario, generan frases y textos basados en sus datos de entrenamientos. El caso, es que al seguir órdenes, son altamente vulnerables a los abusos. Se han dado numerosos casos de liberación o jailbreak de los guardarraíles de seguridad de dichos sistemas y muchos han conseguido que el modelo de la IA apoye el racismo, teorías conspirativas o que sugiera a sus usuarios cometer actos delictivos e ilegales, como robar o construir explosivos. El caso es que OpenAI está trabajando para evitar que la IA se resista al jailbreak, pero se encuentran ante una batalla interminable, cuando lo arreglan, salta otro aviso.
  • Ayuda para estafas y phishing: En marzo Open AI anunció que permite integrar ChatGPT en productos que navegan e interactúan con Internet. Así, las startups utilizan esto para desarrollar asistentes virtuales que reserven vuelos o anoten reuniones en calendarios de los usuarios. Pero el dar permiso a este tipo de Inteligencia Artificial para que Internet sea 'ojos y oídos' de los chatbots, trae de nuevo la gran vulnerabilidad de dichos sistemas. Así, mediante un ataque conocido como 'inyección indirecta', un tercero altera un sitio web con texto oculto para alterar el comportamiento de estos chatbots. Así, los criminales utilizarían las redes sociales o el email para dirigir a los consumidores a sitios web, manipulando para poder, por ejemplo, robar datos de las tarjetas de crédito o cuentas bancarias.
  • Envenenamiento de datos: El entrenamiento de los grandes modelos de Inteligencia Artificial se da con grandes cantidades de datos extraído de Internet. El caso, es que antes de que se desplieguen, ya pueden sufrir ataques. Expertos investigadores de Google, Nvidia y la startup Robust Intelligence descubrieron como por 60 dólares pudieron comprar dominios y llenarlos de imágenes, así como editar y añadir entradas de Wikipedia que acabaron en el conjunto de datos de un modelo de IA.

No hay soluciones a este tipo de manipulación de los chatbots

A pesar de que las empresas desarrolladoras están al tanto de dichos problemas, no dan con soluciones válidas. Desde Google y OpenAI no sueltan prenda al respecto de cómo buscan remedio para los fallos de la seguridad en los modelos lingüísticos de la Inteligencia Artificial.

Por su parte, Microsoft si que está trabajando para mitigar los riesgos de uso de sus productos de forma indebida, así como seguimientos de cómo los ciberdelincuentes pueden abusar de estas herramientas de la Inteligencia Artificial.

Añadir nuevo comentario