Los avances en inteligencia artificial (IA) han abierto la puerta a nuevas y sofisticadas modalidades de fraude, y uno de los métodos más alarmantes es la imitación de voz. Pero, ¿cómo clonan la voz de tus familiares para extorsionarte en WhatsApp?
Este método de fraude, que se ha vuelto popular en plataformas de mensajería como WhatsApp, consiste en crear mensajes de audio que simulan ser de un familiar o amigo en situación de emergencia. Utilizando IA, los delincuentes logran replicar voces con una precisión inquietante, lo que aumenta el riesgo de caer en una extorsión.
¿Cómo funciona el fraude de clonación de voz en WhatsApp?
El fraude sigue un patrón específico. A través de un mensaje de audio falso, el delincuente crea una situación en la que la víctima cree escuchar a un familiar o amigo pidiendo ayuda económica de manera urgente. El mensaje está diseñado para sonar real y convincente, utilizando frases como “Estoy en un problema” o “Necesito que me mandes dinero ahora mismo”.
Uno de los casos más frecuentes es el de un joven que recibió un audio con la voz de quien aparentaba ser su madre, pidiéndole que le enviara una suma de dinero, prometiendo explicaciones más tarde. Este tipo de fraude crea un fuerte sentido de urgencia, lo que empuja a las personas a actuar sin verificar la autenticidad de la situación.
“Necesito que me mandes 3 mil pesos. No te preocupes. Llegando a la casa te explico”, se escucha en la voz de quien aparenta ser la madre de un joven, a quien intentaron hacer víctima de una modalidad de estafa en WhatsApp.
Elementos comunes de este tipo de extorsión
- Simulación de una emergencia: Los mensajes se diseñan para generar pánico y presión en la víctima, buscando que la persona actúe rápidamente sin cuestionar la veracidad del mensaje.
- Clonación de voz precisa: Cuanta más información tiene el sistema de IA sobre la voz de la persona a imitar, más creíble resulta la falsificación. Los delincuentes suelen obtener grabaciones de redes sociales o aplicaciones de mensajería para crear estos audios.
- Hackeo de cuentas de mensajería: En algunos casos, los estafadores hackean cuentas de WhatsApp o Telegram para enviar los mensajes desde el número real de la persona clonada, aumentando la credibilidad del fraude.
¿Cómo se realiza la clonación de voz con IA?
La clonación de voz con IA es una técnica que permite replicar la voz de una persona con gran precisión. Los delincuentes solo necesitan una breve muestra de audio, que puede ser obtenida de videos o mensajes de voz que las víctimas hayan compartido públicamente en redes sociales.
La IA generativa, utilizada para este tipo de clonaciones, analiza las características de la voz, como el timbre, el tono y el ritmo, para crear nuevos audios que suenan como si los hubiera grabado la persona original. Esta tecnología ha sido accesible en diversas plataformas en línea, lo que facilita su uso indebido por personas sin grandes conocimientos técnicos.
MUCHO OJO CON ESTA ESTAFA
— Diario de Morelos (@DiariodeMorelos) October 25, 2024
Nos muestran de esta manera cómo utilizan la Inteligencia Artificial para clonar la voz de tus familiares y querer sacarte dinero: pic.twitter.com/KwCHd6a39i
Dado el incremento de este tipo de extorsiones, existen medidas que pueden reducir el riesgo de caer en este tipo de engaños:
- Establece códigos de seguridad: Crea una palabra clave o frase especial entre tú y tus familiares para confirmar su identidad en caso de una emergencia.
- Verifica el contexto: Si recibes un mensaje sospechoso, trata de comunicarte directamente con la persona implicada a través de una llamada o mensaje independiente. Contacta a otros familiares si es necesario.
- Limita la privacidad de tus redes sociales: Ajusta la privacidad de tus publicaciones para que solo tus contactos más cercanos puedan acceder a videos, fotos o grabaciones que incluyan tu voz.
Si te enfrentas a una situación de extorsión en WhatsApp, las autoridades recomiendan los siguientes pasos:
1. Mantén la calma: Escucha el mensaje, pero evita comprometer información personal o realizar pagos.
2. Contacta a tu familiar: Intenta localizar a la persona involucrada para verificar su estado. En la mayoría de los casos, estas personas no tienen idea de que están siendo suplantadas.
3. Denuncia el intento de extorsión: Guarda el mensaje de voz y cualquier otro detalle relevante. En México, puedes llamar a Locatel (*0311) o acudir a la policía local para denunciar el intento.
4. Bloquea el número: Si confirmas que se trata de un fraude, bloquea el número del estafador para evitar futuros intentos de extorsión.
La clonación de voz mediante IA es una herramienta peligrosa que está siendo utilizada por delincuentes para extorsionar a través de plataformas como WhatsApp. La mejor defensa es la prevención y estar atentos a cualquier situación sospechosa. La verificación constante y el uso de códigos de seguridad con nuestros seres queridos son fundamentales para protegernos de este tipo de fraudes.