En la era de la inteligencia artificial, la línea entre la realidad y la ficción se vuelve cada vez más borrosa, y los delincuentes lo saben. Hoy, el arma más efectiva para el fraude no es un virus informático, sino algo tan personal como la voz de un ser querido. La clonación de voz con IA ha evolucionado hasta convertirse en un sofisticado método de estafa que te hará dudar incluso de la llamada de tu propia familia.

El proceso es alarmantemente accesible. Los estafadores obtienen muestras de voz de videos en redes sociales, notas de voz en aplicaciones de mensajería o grabaciones de llamadas a servicios de atención al cliente. Luego, usan software avanzado para «entrenar» un modelo de IA y crear un clon de voz. Este clon se utiliza para hacer una llamada con un guion predefinido, a menudo una historia de emergencia, como un accidente o un secuestro, para provocar pánico y exigir una transferencia de dinero urgente.
El caso de Jennifer DeStefano en Arizona es un ejemplo claro de este terror, donde la voz clonada de su hija, sollozando, intentó engañarla para pagar un rescate. En el ámbito corporativo, un directivo de una empresa del Reino Unido transfirió 220,000 euros a un estafador que se hizo pasar por su jefe utilizando una voz clonada.
El peligro real reside en que la voz es una forma de biometría que no podemos cambiar. A esto se suma un vacío legal en muchos países, lo que complica las denuncias y deja a las víctimas en una situación de indefensión.
Cómo detectar y evitar ser estafado con una llamada telefónica falsa que imita tu voz
Aunque la tecnología es sofisticada, no es infalible. Aquí tienes una guía para protegerte:
- Cuestiona la urgencia: Los estafadores buscan que entres en pánico para que no pienses con claridad. Si la llamada te exige actuar de inmediato, es la primera señal de alerta.
- Haz preguntas personales: La IA es mala improvisando. Haz preguntas que solo la persona real podría contestar, como «¿Recuerdas el apodo de mi primer perro?». Una respuesta evasiva es una señal de que no estás hablando con quien crees.
- Presta atención a la calidad del audio: A veces, los clones de IA tienen un sonido «plano» o carecen de los ruidos de fondo naturales que tendrían en una llamada real.
- No confíes en solicitudes inusuales: Desconfía si te piden transferir dinero a una cuenta desconocida o comprar tarjetas de regalo.
Además, la protección es una combinación de hábitos inteligentes y medidas de seguridad, por esto te recomendamos que crees un «código de confianza» o pregunta secreta con tu familia, si en una llamada de emergencia no puede responderla probablemente estes ante un modelo de estafa. Activa la autenticación de dos factores (2FA), esta es una capa de seguridad no negociable para todas tus cuentas importantes. Y por último si recibes una llamada sospechosa cuelga de innmediato, verifica la situación y llama a la persona nuevamente desde tu agenda de contactos ( no del registro de llamadas recientes)

Hemos entrado en una era donde «oír para creer» es un lema obsoleto. La mejor defensa contra el fraude con IA no es el miedo, sino la preparación. Habla de este tema con tu familia y amigos para que todos estén alerta.