Voice hacking: las estafas por clonación de voz que ponen en riesgo a las personas mayores

EmailFacebookTwitterLinkedinPinterest
13/07/2025 - 12:00
Estafas telefónicas con IA a personas mayores

Lectura fácil

La irrupción de la inteligencia artificial en la vida cotidiana ha traído grandes beneficios, pero también nuevos riesgos. Uno de los más inquietantes es el voice hacking, una técnica que permite a los ciberdelincuentes clonar la voz de una persona a partir de grabaciones previas. La Policía Nacional ha lanzado varias alertas en lo que va de año advirtiendo sobre este tipo de estafas, que afectan especialmente a personas mayores, por su vulnerabilidad emocional y tecnológica.

Desde las redes sociales, como TikTok, la Policía ha iniciado campañas para concienciar a la ciudadanía. En uno de sus vídeos, una portavoz explica que los delincuentes pueden usar audios reales para recrear la voz de una persona mediante inteligencia artificial. Con esta voz falsa, contactan con familiares o amigos y simulan una emergencia para obtener dinero.

El objetivo de las estafas telefónicas son personas mayores

Organizaciones como el Movimiento para Detener el Maltrato a las Personas Mayores han advertido que este tipo de delitos son una forma de abuso. Por ello, han reclamado una mayor coordinación entre bancos, servicios sociales, centros sanitarios y cuerpos policiales, para frenar este fenómeno y proteger a los mayores.

Uno de los casos recientes más destacados es el de Pilar Sánchez, una mujer de 80 años residente en Bilbao. Pilar fue víctima de una engaño telefónica en la que una supuesta operadora de su compañía le informaba de una subida en su tarifa. Poco después, una segunda llamada, esta vez de la supuesta competencia, le ofrecía una tarifa más económica. Al aceptar el cambio, perdió su número de teléfono fijo, el mismo que había tenido durante 45 años.

El 7 de junio de 2024 entró en vigor una nueva norma que prohíbe a las empresas y entidades públicas realizar llamadas comerciales desde teléfonos móviles. Esta medida, impulsada por el Ministerio de Transformación Digital y para la Función Pública, busca frenar estafas telefónicas como la que sufrió Pilar.

Los datos del Ministerio del Interior reflejan un crecimiento preocupante de los delitos informáticos. En 2023 se registraron 427.448 casos de estafas digitales en España, un aumento del 27 % respecto al año anterior. La mayoría de estos fraudes se concentraron en Madrid, Cataluña y Andalucía, y más del 90 % fueron estafas económicas.

Tres formas de voice hacking

El Instituto Nacional de Ciberseguridad (Incibe) clasifica las estafas por voz en tres modalidades:

  1. Vishing: llamadas falsas de bancos u organismos oficiales para robar datos personales.
  2. Clonación de voz: uso de IA para imitar la voz de personas cercanas y solicitar dinero u obtener información confidencial.
  3. Ataques a dispositivos IoT: manipulación de asistentes virtuales como Alexa o Google Home para realizar compras o espiar al usuario.

Casos reales que impactan

El Incibe ha publicado ejemplos internacionales para ilustrar los peligros. Uno de ellos es el de Ruth Card, una canadiense de 73 años, que recibió una llamada que imitaba la voz de su nieto pidiéndole dinero para salir de la cárcel. A punto de entregar el dinero, Ruth y su esposo descubrieron que todo era una estafa basada en una voz clonada.

Otro caso estremecedor es el de Jennifer DeStefano, en EEUU, quien recibió una llamada en la que una voz idéntica a la de su hija afirmaba haber sido secuestrada. La situación derivó en una demanda de rescate de 50.000 dólares, aunque finalmente se descubrió que la menor estaba a salvo y que la llamada era un fraude con tecnología de clonación vocal.

Prevención y coordinación

La amenaza del voice hacking no es ciencia ficción. Es real, actual y creciente. La concienciación ciudadana, junto con nuevas regulaciones y la colaboración entre instituciones, es fundamental para proteger a los más vulnerables frente a este nuevo tipo de estafas.

Añadir nuevo comentario