Cómo estafadores pueden suplantar la voz de nuestros conocidos con IA

Fecha:

Comparte:

  • A medida que la inteligencia artificial continúa avanzando, es crucial estar informado sobre las posibles amenazas que pueden surgir. La suplantación de voz basada en IA es solo una de las muchas formas en que los estafadores intentan acceder a información sensible.

Por Constanza Araya    

Estafadores están encontrando formas cada vez más sofisticadas para engañar a las personas. Uno de los últimos peligros es el uso de la inteligencia artificial (IA) para suplantar la voz de las personas que conocemos. En esta nota te contamos cómo lo hacen y las precauciones que debes tener.

Con la IA, el «cuento del pariente que necesita dinero» se ha sofisticado. Gracias a esta tecnología, ahora los estafadores pueden imitar la voz de un amigo, familiar o colega, con el objetivo de engañar a sus víctimas y obtener datos o dinero.

«Hay algoritmos que se están desarrollando, donde tú hablas unos minutos y capta tu voz. Después inventas un texto y lo reproduce como fueras «, señala Pedro Huichalaf, experto en nuevas tecnologías y ex Subsecretario de Telecomunicaciones de Chile.

voz inteligencia artificial estafas estafadores

Suplantar la voz con IA

La suplantación de voz basada en IA no es algo nuevo, en internet hay muchas páginas que permiten clonar la voz de un personaje, artista o famoso. 

Estas funciona mediante el entrenamiento de algoritmos avanzados con muestras de voz de la persona a suplantar.

Estos algoritmos pueden analizar y replicar las sutilezas del habla, el tono, la entonación y los patrones vocales únicos de cada individuo.

El resultado es una voz sintética que puede parecer indistinguible de la voz real de la persona a la que intentan suplantar.

¿Cómo funciona?

Las muestras de voz se pueden obtener a través de grabaciones públicas disponibles en redes sociales o a través la técnica de phishing con voz.

Luego, ingresan la muestra al algoritmo de IA para crear una réplica convincente de la voz. Posteriormente, utilizan esta voz sintética para hacer llamadas telefónicas engañosas o enviar mensajes de voz manipulados.

«Es una simulación que se obtiene por grabación o por descargar un video de redes sociales de la persona hablando. Luego reproducen un texto específico en base a esa voz», explica Huichalaf.

¿Cómo identificar una suplantación de voz? 

Según el experto, los métodos de suplantación de voz basados en IA son preocupantes debido a la confianza que tenemos en las voces de las personas que conocemos.

Cuando alguien nos llama o nos deja un mensaje de voz, a menudo asumimos que es genuino y confiamos en la información que nos proporciona.

«Es difícil para una persona reconocer cuando está interactuando con una IA, porque no tienes conciencia que una máquina contestó. Es complejo y muy difícil de identificar», comenta el ex subsecretario.

¿Qué debes hacer?

Para protegerse de esta amenaza, es importante ser consciente de la posibilidad de la suplantación de voz y mantener una actitud de cautela. Aquí hay algunas medidas que se pueden tomar:

Verificación adicional:

Siempre dudar si recibes un mensaje, audio, llamada de alguien supuestamente de un cercano que le está pidiendo auxilio, un favor, ayuda con una transacción o pidiendo dinero. «Casi el 90%  de la veces, que usan esa forma para llegar a la persona, es una estafa», asegura Huichalaf.

Por lo mismo, es importante verificar la identidad mediante una llamada o mensaje  a un número conocido.

Educación y conciencia:

Familiarícese con las técnicas de suplantación de voz basadas en IA. «Hay que entender que la tecnología está evolucionando de tal forma que está incluso en lo que escuchamos y vemos», menciona Huichalaf.

Mantenga su información personal segura:

Evite compartir datos personales sensibles a través de llamadas telefónicas o mensajes de voz, especialmente si la solicitud parece sospechosa o inusual.

Implemente medidas de seguridad adicionales:

Considere la posibilidad de utilizar autenticación de dos factores (2FA) o contraseñas seguras para proteger su información y cuentas.


Esta nota fue publicada originalmente por Mala Espina Check, medio de fact checking en Chile, integrante de la red de verificadores Latam Chequea, al igual que Verificado.

 

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

Artemis II: Desinformación para negar el regreso a la Luna

Por Andrea Cruz Urista A pesar de ser una de las misiones más documentadas de la historia, el lanzamiento de la misión Artemis II a...

Falso que Macron publicó una foto de Jeffrey Epstein con Melania Trump

Por Diana Soto Una imagen donde aparece Jeffrey Epstein, el difunto empresario que lideró una red de tráfico sexual, con la primera dama de Estados...

Nuevo León aprueba Ley de Educación con enfoque inclusivo, pero colectivos temen que sea vetada por falta de presupuesto

Por Debanhi Soto El Congreso de Nuevo León aprobó una nueva Ley de Educación que, por primera vez en 25 años, establece protocolos claros para...

Gobierno Federal descalifica con argumentos falsos informe sobre desapariciones de la ONU

Por Debanhi Soto El Comité de las Naciones Unidas contra la Desaparición Forzada (CED-ONU) solicitó al Secretario General de la ONU que trate la crisis...

Qué hay detrás de la alerta sobre los más de 1000 “influenciadores” capacitados por Rusia en Latinoamérica

Una conferencia sobre la influencia informativa rusa en Latinoamérica fue simplificada y luego usada para atacar la credibilidad del evento y de quienes...