Cómo estafadores pueden suplantar la voz de nuestros conocidos con IA

Fecha:

Comparte:

  • A medida que la inteligencia artificial continúa avanzando, es crucial estar informado sobre las posibles amenazas que pueden surgir. La suplantación de voz basada en IA es solo una de las muchas formas en que los estafadores intentan acceder a información sensible.

Por Constanza Araya    

Estafadores están encontrando formas cada vez más sofisticadas para engañar a las personas. Uno de los últimos peligros es el uso de la inteligencia artificial (IA) para suplantar la voz de las personas que conocemos. En esta nota te contamos cómo lo hacen y las precauciones que debes tener.

Con la IA, el «cuento del pariente que necesita dinero» se ha sofisticado. Gracias a esta tecnología, ahora los estafadores pueden imitar la voz de un amigo, familiar o colega, con el objetivo de engañar a sus víctimas y obtener datos o dinero.

«Hay algoritmos que se están desarrollando, donde tú hablas unos minutos y capta tu voz. Después inventas un texto y lo reproduce como fueras «, señala Pedro Huichalaf, experto en nuevas tecnologías y ex Subsecretario de Telecomunicaciones de Chile.

voz inteligencia artificial estafas estafadores

Suplantar la voz con IA

La suplantación de voz basada en IA no es algo nuevo, en internet hay muchas páginas que permiten clonar la voz de un personaje, artista o famoso. 

Estas funciona mediante el entrenamiento de algoritmos avanzados con muestras de voz de la persona a suplantar.

Estos algoritmos pueden analizar y replicar las sutilezas del habla, el tono, la entonación y los patrones vocales únicos de cada individuo.

El resultado es una voz sintética que puede parecer indistinguible de la voz real de la persona a la que intentan suplantar.

¿Cómo funciona?

Las muestras de voz se pueden obtener a través de grabaciones públicas disponibles en redes sociales o a través la técnica de phishing con voz.

Luego, ingresan la muestra al algoritmo de IA para crear una réplica convincente de la voz. Posteriormente, utilizan esta voz sintética para hacer llamadas telefónicas engañosas o enviar mensajes de voz manipulados.

«Es una simulación que se obtiene por grabación o por descargar un video de redes sociales de la persona hablando. Luego reproducen un texto específico en base a esa voz», explica Huichalaf.

¿Cómo identificar una suplantación de voz? 

Según el experto, los métodos de suplantación de voz basados en IA son preocupantes debido a la confianza que tenemos en las voces de las personas que conocemos.

Cuando alguien nos llama o nos deja un mensaje de voz, a menudo asumimos que es genuino y confiamos en la información que nos proporciona.

«Es difícil para una persona reconocer cuando está interactuando con una IA, porque no tienes conciencia que una máquina contestó. Es complejo y muy difícil de identificar», comenta el ex subsecretario.

¿Qué debes hacer?

Para protegerse de esta amenaza, es importante ser consciente de la posibilidad de la suplantación de voz y mantener una actitud de cautela. Aquí hay algunas medidas que se pueden tomar:

Verificación adicional:

Siempre dudar si recibes un mensaje, audio, llamada de alguien supuestamente de un cercano que le está pidiendo auxilio, un favor, ayuda con una transacción o pidiendo dinero. «Casi el 90%  de la veces, que usan esa forma para llegar a la persona, es una estafa», asegura Huichalaf.

Por lo mismo, es importante verificar la identidad mediante una llamada o mensaje  a un número conocido.

Educación y conciencia:

Familiarícese con las técnicas de suplantación de voz basadas en IA. «Hay que entender que la tecnología está evolucionando de tal forma que está incluso en lo que escuchamos y vemos», menciona Huichalaf.

Mantenga su información personal segura:

Evite compartir datos personales sensibles a través de llamadas telefónicas o mensajes de voz, especialmente si la solicitud parece sospechosa o inusual.

Implemente medidas de seguridad adicionales:

Considere la posibilidad de utilizar autenticación de dos factores (2FA) o contraseñas seguras para proteger su información y cuentas.


Esta nota fue publicada originalmente por Mala Espina Check, medio de fact checking en Chile, integrante de la red de verificadores Latam Chequea, al igual que Verificado.

 

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

Noroña sí fue captado en un aeropuerto, pero usaron la foto para crear una deepfake

Por Diana Soto El expresidente del Senado de la República, Gerardo Fernández Noroña, sí fue captado en un aeropuerto en Dubai, pero la captura de...

Que Mamdani aparezca dos veces en la boleta electoral no es evidencia de “estafa” electoral, como afirma Musk

EN CORTO Elon Musk afirmó en su cuenta de X que la boleta electoral de Nueva York es una “estafa” porque el candidato demócrata,...

Asociaciones civiles de Nuevo León: sin fondos y en la incertidumbre

Por Debanhi Soto En marzo de 2025, el gobernador de Nuevo León, Samuel García indicó que se le otorgaría un “presupuesto histórico” de 230 millones...

Día de Muertos: videos con IA desinforman sobre esta tradición en México y otros países

Por Diana Soto El Día de Muertos es una de las fechas más importantes en México cada año, pero la celebración en 2025 ha estado...

Verificado se suma a la Semana AMI de la UNESCO

Por Debanhi Soto Entre el 24 y 31 de octubre, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO)...