Han intentado estafarme por teléfono suplantando a mi padre con inteligencia artificial: por suerte recordé un truco de Google que nunca falla

Han intentado estafarme por teléfono suplantando a mi padre con inteligencia artificial: por suerte recordé un truco de Google que nunca falla

Hoy he recibido una llamada de teléfono sospechosa, y eso que era mi padre quien me hablaba. Pero estaba inusualmente raro, se mostraba algo frío y había algo en la llamada que no terminaba de cuadrarme del todo. Menos mal que había activado hacía meses un truco que aprendí de los sistemas 2FA de Google, en una comida familiar, y pude descubrir que se trataba de una voz artificial que imitaba a mi padre y que buscaba estafarme.

Porque sí, se están usando sistema de imitación de voz en tiempo real para hacerse pasar por cualquier persona de la que tengan una muestra de voz. Y los sistemas de inteligencia artificial son tan avanzados que a no ser que uses una pregunta de seguridad, previamente acordada, te la pueden colar. Este sistema de estafas imitando voces se llama Vishing, y te cuento cómo funciona y cómo evitarlo.

Los Deepfake de audio usando una IA en una llamada de teléfono

Si algo evoluciona junto a una tecnología, eso son las formas de usarla al margen de la legalidad. En el caso de aplicaciones como WhatsApp, se ha puesto de moda entre los cibercriminales piratear cuentas de usuarios/as y contactar con sus seres queridos mediante mensajes haciéndose pasar por ellos, con la idea de hacerlos creer que están en una situación desesperada y les transfieran dinero.

Por otro lado, hemos empezado a ver estafas en las que recibes una llamada, suena una voz claramente grabada y te dice que la agregues a WhatsApp para hablar con esa persona. Si combinas estas dos estafas con las posibilidades que te da la Inteligencia Artificial en cuanto a crear ‘deepfakes’, tienes una situación explosiva.

Tal y como revela la web Maldita.es, algunos estafadores están usando ahora mismo la IA para generar voces clonadas. Y con ellas envían audios o llamadas directamente a personas que creen identificar la voz real de un familiar, de un compañero/a de trabajo, etc. La idea es siempre la misma: hacerse con sus datos personales y/o bancarios y su dinero.

Casos reales de personas que han recibido deepfakes de audio durante llamadas de teléfono

Honestamente, si escuchas la voz de tu madre o tu hermano pidiéndote ayuda, hay quien como esa mujer del caso del INCIBE se dio cuenta que era grabada y llamó a su marido. Pero también hay quien, azuzado/a por la situación, pica y traga el falso anzuelo. Según expertos como Carmen Torrijos, lingüista computacional, responsable de IA, es difícil distinguir una voz clonada en un audio:

“En uno corto de 4-5 segundos es muy poco probable que detectes que la voz es clonada. En cambio, en un audio más largo (30 segundos – 1 minuto) ya puedes detectar pequeñas inflexiones, muy leves, o un tono un poco más robótico en la pronunciación rara de algunos fonemas que pueden darte una pista”.

El método que he seguido con mi padre: la palabra clave

Para evitar que esto pasase en mi familia, decidimos adoptar un enfoque basado precisamente en los sistemas de verificación de gestores de email como Gmail u Outlook, y otros como los métodos 2FA o Autenticación en dos Fases.

Sistema de seguridad de Outlook

Google, por ejemplo, cuando te creas una cuenta te pide que incluyas una palabra o respuesta a cierta pregunta a modo de comprobación de seguridad, por si alguna vez la pierdes, te hackean la cuenta, etc. En casa hemos hecho lo mismo, sólo que en vez de tener que memorizar una palabra ‘random’, decidimos que, en caso de recibir una llamada de este tipo, preguntar a la otra persona algo personal suyo que conocemos, como el colegio al que fui de pequeño, el coche que conduce mi cuñado o el nombre del perro de mi hermana.

Supongo que habrá gente que en una situación de emergencia de un familiar pensará que es una tontería hacer esto. Pero, por desgracia, la maldita realidad actual está provocando que haya que protegerse de alguna forma, al menos hasta que regularicen lo de la IA, cosa que o va para largo, o no parece probable.

2FA, Sistema de Autenticación en 2 pasos

Por ello, si de repente te llama un familiar o un amigo pidiendo que envíes un mensaje a un número desconocido o pidiéndote dinero, y te extraña la llamada, el tono, el mensaje, el número, etc, si es un audio, llama a esa persona al número que conoces de él/ella. Si es una llamada, no dudes en preguntarle algo personal que sólo ambos conoceríais, a ver si es capaz de responderlo. Y si es posible, que la respuesta no tenga nada que ver con la pregunta, por si han tenido acceso a tu historial.

Así que si te llama tu padre, y la llamada es sospechosa, puedes preguntarle de qué color era tu mochila del colegio. Si tu padre responde ‘Segunda Guerra Mundial’, es que es tu padre. Si intenta adivinar el color, cuelga.

En Mundo Xiaomi | Si te fríen a llamadas de spam, aquí tienes la única frase que necesitas para que te dejen en paz


La noticia

Han intentado estafarme por teléfono suplantando a mi padre con inteligencia artificial: por suerte recordé un truco de Google que nunca falla

fue publicada originalmente en

Mundo Xiaomi

por
César Otero

.

Salir de la versión móvil