Cómo estafadores pueden suplantar la voz de nuestros conocidos con IA

Fecha:

Comparte:

  • A medida que la inteligencia artificial continúa avanzando, es crucial estar informado sobre las posibles amenazas que pueden surgir. La suplantación de voz basada en IA es solo una de las muchas formas en que los estafadores intentan acceder a información sensible.

Por Constanza Araya    

Estafadores están encontrando formas cada vez más sofisticadas para engañar a las personas. Uno de los últimos peligros es el uso de la inteligencia artificial (IA) para suplantar la voz de las personas que conocemos. En esta nota te contamos cómo lo hacen y las precauciones que debes tener.

Con la IA, el «cuento del pariente que necesita dinero» se ha sofisticado. Gracias a esta tecnología, ahora los estafadores pueden imitar la voz de un amigo, familiar o colega, con el objetivo de engañar a sus víctimas y obtener datos o dinero.

«Hay algoritmos que se están desarrollando, donde tú hablas unos minutos y capta tu voz. Después inventas un texto y lo reproduce como fueras «, señala Pedro Huichalaf, experto en nuevas tecnologías y ex Subsecretario de Telecomunicaciones de Chile.

voz inteligencia artificial estafas estafadores

Suplantar la voz con IA

La suplantación de voz basada en IA no es algo nuevo, en internet hay muchas páginas que permiten clonar la voz de un personaje, artista o famoso. 

Estas funciona mediante el entrenamiento de algoritmos avanzados con muestras de voz de la persona a suplantar.

Estos algoritmos pueden analizar y replicar las sutilezas del habla, el tono, la entonación y los patrones vocales únicos de cada individuo.

El resultado es una voz sintética que puede parecer indistinguible de la voz real de la persona a la que intentan suplantar.

¿Cómo funciona?

Las muestras de voz se pueden obtener a través de grabaciones públicas disponibles en redes sociales o a través la técnica de phishing con voz.

Luego, ingresan la muestra al algoritmo de IA para crear una réplica convincente de la voz. Posteriormente, utilizan esta voz sintética para hacer llamadas telefónicas engañosas o enviar mensajes de voz manipulados.

«Es una simulación que se obtiene por grabación o por descargar un video de redes sociales de la persona hablando. Luego reproducen un texto específico en base a esa voz», explica Huichalaf.

¿Cómo identificar una suplantación de voz? 

Según el experto, los métodos de suplantación de voz basados en IA son preocupantes debido a la confianza que tenemos en las voces de las personas que conocemos.

Cuando alguien nos llama o nos deja un mensaje de voz, a menudo asumimos que es genuino y confiamos en la información que nos proporciona.

«Es difícil para una persona reconocer cuando está interactuando con una IA, porque no tienes conciencia que una máquina contestó. Es complejo y muy difícil de identificar», comenta el ex subsecretario.

¿Qué debes hacer?

Para protegerse de esta amenaza, es importante ser consciente de la posibilidad de la suplantación de voz y mantener una actitud de cautela. Aquí hay algunas medidas que se pueden tomar:

Verificación adicional:

Siempre dudar si recibes un mensaje, audio, llamada de alguien supuestamente de un cercano que le está pidiendo auxilio, un favor, ayuda con una transacción o pidiendo dinero. «Casi el 90%  de la veces, que usan esa forma para llegar a la persona, es una estafa», asegura Huichalaf.

Por lo mismo, es importante verificar la identidad mediante una llamada o mensaje  a un número conocido.

Educación y conciencia:

Familiarícese con las técnicas de suplantación de voz basadas en IA. «Hay que entender que la tecnología está evolucionando de tal forma que está incluso en lo que escuchamos y vemos», menciona Huichalaf.

Mantenga su información personal segura:

Evite compartir datos personales sensibles a través de llamadas telefónicas o mensajes de voz, especialmente si la solicitud parece sospechosa o inusual.

Implemente medidas de seguridad adicionales:

Considere la posibilidad de utilizar autenticación de dos factores (2FA) o contraseñas seguras para proteger su información y cuentas.


Esta nota fue publicada originalmente por Mala Espina Check, medio de fact checking en Chile, integrante de la red de verificadores Latam Chequea, al igual que Verificado.

 

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

¿María Corina Machado pidió un bombardeo a Venezuela? Desinforman sobre ganadora del Premio Nobel de la Paz

Por Diana Soto La activista venezolana María Corina Machado fue galardonada con el Premio Nobel de la Paz 2025 “por su incansable labor en favor...

¿Qué sigue para los clientes de CIBanco después de la revocación de licencia?

EN CORTO: La Comisión Nacional Bancaria y de Valores revocó la licencia de CIBanco e inició su proceso de liquidación, por lo que la...

Memes, fútbol y canciones: cómo el ‘pop fascismo’ allana el camino para desinformar

EN CORTO Las redes sociales están llenas de mensajes que idolatran a la figura de dictadores como Francisco Franco, Adolf Hitler o Benito Mussolini ...

Proponen impuesto progresivo ante especulación inmobiliaria

El Impuesto sobre la Adquisición de Inmuebles (ISAI) es un impuesto que, si se usa bien, puede ayudar a reducir desigualdades, frenar el...

Falso que México está a punto de aprobar una Ley Anti-Memes

EN CORTO Es falso que Claudia Sheinbaum presentó una Ley Anti Memes. La iniciativa fue presentada por Armando Corona Arvizu, diputado federal. Hasta el...