La Inteligencia Artificial ha llegado a nuestra vida y se ha instalado en la misma. Son muchos los aspectos positivos de la misma, pero también tiene efectos negativos. De las posibilidades que ofrece la misma también se aprovechan los amigos de lo ajeno, los delincuentes. Uno de los riesgos más frecuentes de la actualidad es el voice hacking, una técnica que permite a los malos clonar la voz de una persona a partir de grabaciones previas.
Desde la Policía Nacional se han lanzado varias alertas en lo que va de año, advirtiendo sobre este tipo de estafas, que afectan sobre todo a personas mayores por su vulnerabilidad emocional y tecnológica. En una de las publicaciones en los perfiles de redes oficiales de la Policía, un agente explica que los delincuentes pueden usar audios reales para recrear la voz de una persona mediante la Inteligencia Artificial. Con esta voz falsa, contactan con familiares o amigos y simulan una emergencia para obtener dinero.
Los malos tienen claro el objetivo
Desde organizaciones como el Movimiento para Detener el Maltrato a las Personas Mayores se ha advertido que este tipo de delitos son una forma de abuso. Por tanto, se ha reclamado una mayor coordinación entre diferentes actores: bancos, servicios sociales, centros sanitarios y cuerpos policiales. El objetivo, frenar este fenómeno y proteger a los mayores.
Uno de los últimos casos que se dio fue el de una bilbaína de 80 años, Pilar Sánchez. Esta mujer fue víctima de un engaño telefónico en el que una supuesta operadora de su compañía le informaba de una subida en la tarifa. Días después, una segunda llamada, supuestamente desde la competencia, que le ofrecía una tarifa mucho más económica. Al aceptar el cambio, perdió su número de teléfono fijo, el que había tenido durante 45 años.
Para evitar casos como esté entro en vigor, en junio del pasado 2024, la normativa que prohíbe a las empresas y entidades públicas realizar llamadas comerciales desde teléfonos móviles. Esta medida del Ministerio de Transformación Digital y para la Función Pública, busca frenar las estafas telefónicas como la que sufrió Pilar.
Las versiones del voice hacking
El Instituto Nacional de Ciberseguridad (INCIBE) clasifica las estafas por voz en tres modalidades:
- Vishing: llamadas falsas de bancos u organismos oficiales para robar datos personales.
- Clonación de voz: uso de la Inteligencia Artificial para imitar la voz de personas cercanas y solicitar dinero u obtener información confidencial.
- Ataques a dispositivos IoT: manipulación de asistentes virtuales como Alexa o Google Home para realizar compras o espiar al usuario.
Casos reales que causaron impacto
El INCIBE dio a conocer varios casos que ocurrieron a nivel internacional para que la sociedad conozca los peligros a los que se enfrenta. Uno de ellos es el de Ruth Card, una canadiense de 73 años que recibió una llamada que imitaba la voz de su nieto pidiéndole dinero para salir de la cárcel. A punto de entregar el dinero, Ruth y su esposo descubrieron que se trataba de una estafa mediante una voz clonada.
Otro caso estremecedor fue el de Jennifer DeStefano en Estados Unidos. Esta mujer recibió una llamada con una voz idéntica a la de su hija, que afirmaba haber sido secuestrada. La situación derivó en una demanda de rescate de 50.000 dólares, aunque finalmente se descubrió que la joven estaba a salvo y que la llamada era un fraude con tecnología de clonación.
Por tanto, la amenaza del voice hacking no es de ciencia ficción, es muy real, actual y creciente. La concienciación de la ciudadanía junto con nuevas regulaciones y la colaboración entre instituciones es fundamental para proteger a los más vulnerables frente a este nuevo tipo de estafas.
