Cómo estafadores pueden suplantar la voz de nuestros conocidos con IA

Fecha:

Comparte:

  • A medida que la inteligencia artificial continúa avanzando, es crucial estar informado sobre las posibles amenazas que pueden surgir. La suplantación de voz basada en IA es solo una de las muchas formas en que los estafadores intentan acceder a información sensible.

Por Constanza Araya    

Estafadores están encontrando formas cada vez más sofisticadas para engañar a las personas. Uno de los últimos peligros es el uso de la inteligencia artificial (IA) para suplantar la voz de las personas que conocemos. En esta nota te contamos cómo lo hacen y las precauciones que debes tener.

Con la IA, el «cuento del pariente que necesita dinero» se ha sofisticado. Gracias a esta tecnología, ahora los estafadores pueden imitar la voz de un amigo, familiar o colega, con el objetivo de engañar a sus víctimas y obtener datos o dinero.

«Hay algoritmos que se están desarrollando, donde tú hablas unos minutos y capta tu voz. Después inventas un texto y lo reproduce como fueras «, señala Pedro Huichalaf, experto en nuevas tecnologías y ex Subsecretario de Telecomunicaciones de Chile.

voz inteligencia artificial estafas estafadores

Suplantar la voz con IA

La suplantación de voz basada en IA no es algo nuevo, en internet hay muchas páginas que permiten clonar la voz de un personaje, artista o famoso. 

Estas funciona mediante el entrenamiento de algoritmos avanzados con muestras de voz de la persona a suplantar.

Estos algoritmos pueden analizar y replicar las sutilezas del habla, el tono, la entonación y los patrones vocales únicos de cada individuo.

El resultado es una voz sintética que puede parecer indistinguible de la voz real de la persona a la que intentan suplantar.

¿Cómo funciona?

Las muestras de voz se pueden obtener a través de grabaciones públicas disponibles en redes sociales o a través la técnica de phishing con voz.

Luego, ingresan la muestra al algoritmo de IA para crear una réplica convincente de la voz. Posteriormente, utilizan esta voz sintética para hacer llamadas telefónicas engañosas o enviar mensajes de voz manipulados.

«Es una simulación que se obtiene por grabación o por descargar un video de redes sociales de la persona hablando. Luego reproducen un texto específico en base a esa voz», explica Huichalaf.

¿Cómo identificar una suplantación de voz? 

Según el experto, los métodos de suplantación de voz basados en IA son preocupantes debido a la confianza que tenemos en las voces de las personas que conocemos.

Cuando alguien nos llama o nos deja un mensaje de voz, a menudo asumimos que es genuino y confiamos en la información que nos proporciona.

«Es difícil para una persona reconocer cuando está interactuando con una IA, porque no tienes conciencia que una máquina contestó. Es complejo y muy difícil de identificar», comenta el ex subsecretario.

¿Qué debes hacer?

Para protegerse de esta amenaza, es importante ser consciente de la posibilidad de la suplantación de voz y mantener una actitud de cautela. Aquí hay algunas medidas que se pueden tomar:

Verificación adicional:

Siempre dudar si recibes un mensaje, audio, llamada de alguien supuestamente de un cercano que le está pidiendo auxilio, un favor, ayuda con una transacción o pidiendo dinero. «Casi el 90%  de la veces, que usan esa forma para llegar a la persona, es una estafa», asegura Huichalaf.

Por lo mismo, es importante verificar la identidad mediante una llamada o mensaje  a un número conocido.

Educación y conciencia:

Familiarícese con las técnicas de suplantación de voz basadas en IA. «Hay que entender que la tecnología está evolucionando de tal forma que está incluso en lo que escuchamos y vemos», menciona Huichalaf.

Mantenga su información personal segura:

Evite compartir datos personales sensibles a través de llamadas telefónicas o mensajes de voz, especialmente si la solicitud parece sospechosa o inusual.

Implemente medidas de seguridad adicionales:

Considere la posibilidad de utilizar autenticación de dos factores (2FA) o contraseñas seguras para proteger su información y cuentas.


Esta nota fue publicada originalmente por Mala Espina Check, medio de fact checking en Chile, integrante de la red de verificadores Latam Chequea, al igual que Verificado.

 

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

Es falso que mayoría de tiroteos masivos sean cometidos por personas LGBT+

Por Debanhi Escobar, Melina Barbosa, Geo GonzálezUsuarixs de redes sociales vienen replicando que la mayoría de atacantes en tiroteos masivos en escuelas de Estados...

Río Pesquería en riesgo por ampliación de operaciones de la acerera Ternium

La empresa Ternium, basada en Pesquería, llevará a cabo un plan de expansión que incluye liberar más contaminantes al medio ambiente, especialmente al...

Elecciones 2024: ¿Qué es la violencia política de género?

Por Leslie OrozcoPara el proceso electoral de 2024, la participación de mujeres candidatas a puestos de elección popular toma una especial importancia dado que...

Lo que es no querer vivir en el error

Entre PeriodistasPor Andrés A. Solis*Desde siempre en el antiguo régimen priista, los del poder no se cansaban de repetirse una y otra vez que...

La marcha de la oposición

Ladrando ClaroPor Pablo PérezUna de las particularidades de ser reportero es que el día de las elecciones siempre es uno de los días que...