Por Leslie Orozco y Melina Barbosa
La inteligencia artificial (IA) se ha popularizado en la robótica, computación, finanzas, salud, educación, comunicaciones, entretenimiento y muchos otros campos más y a partir del 2020, el acceso a esta tecnología ha sido exponencial.
La IA engloba todo tipo de tecnologías con la capacidad de ejecutar tareas que suelen requerir intervención humana. Con su rápido desarrollo, se han vuelto herramientas cruciales para la creación de contenido para medios de comunicación y usuarios de redes sociales.
Los peligros de la Inteligencia Artificial
Si bien algunos de los contenidos fabricados suelen evidenciar que son artificiales, muchas de las herramientas basadas en IA que pueden fabricar texto, audio e imágenes se han vuelto rápidamente más sofisticadas, accesibles y fáciles de usar, lo cual ha propiciado una escalada de desinformación en medios digitales.
Casos de suplantación de identidad, vulneración de la privacidad, fabricación de material que vincula a las personas con declaraciones o situaciones falsas e incluso que se les atribuya contenido explícito o sexual, son solo algunas de las tácticas desinformadoras que han cobrado fuerza por los avances en la IA.
Te conviene leer: Al crear tu avatar con inteligencia artificial ¡cuidado con la recopilación de datos!
El reto de detectar contenido generado por IA
Empresas tecnológicas y universidades ya han comenzado a desarrollar departamentos especializados en la detección de este contenido como el Instituto Nacional de Estándares y Tecnología (NIST), las universidades de Stanford y Berkeley, MIT Media Lab, Deep Learning AI, entre otras.
También existen páginas y apps que prometen comprobar la veracidad o posible manipulación de material audiovisual, pero no todas son confiables, por lo que en Verificado te proporcionamos algunos elementos clave que pueden ser útiles a la hora de identificar contenido generado por IA.
Imágenes y videos:
- Observar con ojo crítico
Antes de compartir o interactuar con una publicación sospechosa, se deben de analizar factores como: el nombre de la cuenta, publicaciones anteriores, lee o traduce las descripciones del contenido, revisar posibles marcas de agua y la calidad de la imagen.
No tengas miedo de darle zoom al contenido de imágenes o videos para buscar algunas de las características que son difíciles de recrear para la inteligencia artificial: como las manos, rostros en una multitud, los bordes de la imagen.
En la caja de herramientas de Verificado, puedes encontrar aplicaciones que te ayudaran a analizar a fondo las imágenes.
- Uso de repeticiones
Al contar con algoritmos, este tipo de programas suelen repetir elementos como figuras, partes del cuerpo, rostros o piezas de la naturaleza. Algunos ejemplos son los dedos o dientes de más.
Incluso, se puede buscar a falta de elementos como incongruencias en la ropa, fondo distorsionado, ojos vagos, entre otros.
- Busca «parches» y errores
En el caso de los videos es frecuente que el diálogo no concuerde con la gesticulación de la boca, o incluso, al ser un clip y no solo una fotografía, que en ciertos fotogramas se observe que el rostro o la boca parece estar «copiado» y «pegado».
- Luces y sombras
Además, en los videos la calidad del contenido es de baja resolución para hacer difícil la detección del contenido manipulado. Otros elementos que son cambiados son la proporción de la cara, o el color de piel o del video.
- Movimientos o expresiones extraños
Busca movimientos corporales o expresiones faciales que no sean consistentes en las imágenes y videos, otra opción que puede ayudar, es descargar el contenido y compararlo con material similar del personaje o lugar.
En el caso de los videos, hay que prestar atención a los movimientos de la cámara o anatómicos, pues suelen ser muy lentos y estabilizados.
- Examina los metadatos
Al momento de tener el material guardado en un dispositivo o incluso desde la página web se pueden analizar los datos relacionados al archivo; desde la fecha de creación, ubicación, etc. Para este punto, se pueden utilizar diferentes herramientas.
Algunas de las páginas desarrolladas para identificar contenido realizado por algún tipo de inteligencia artificial son Fake Image Detection, o FaceSwap.
Audio
En los últimos años, los desarrollos de la IA se han extendido hacia el audio y en la actualidad, la síntesis y clonación de voz son algunos de los productos más vendidos dentro de la tecnología generativa.
Sin embargo, este avance en la clonación de voz ha complicado la verificación de audios, pues las herramientas disponibles hasta el momento se siguen optimizando para poder precisar si una voz fue generada con IA o si se trata de una voz natural.
Incluso algunos expertos en deepfakes (videos reales manipulados digitalmente) no recomiendan el uso de herramientas en línea dirigidas al público general para detectar imágenes, vídeos y audios generados por IA, ya que son aplicaciones que muchas veces no funcionan bien y que están enfocados a determinados contenidos.
Los detectores fiables suelen serlo específicamente cuando analizan el material con el que fueron entrenados, pero no con otros, y por ende pueden crear falsos positivos y negativos, explicó a Newtral, Sam Gregory, director de WITNESS, organización que ha puesto un grupo de expertos en deepfakes a disposición de verificadores a nivel internacional.
El especialista asegura que es plausible que ahora los políticos “vayan a decir que un audio real es falso y le meterán presión a los periodistas para desmentirlo, cuando en realidad no existen las herramientas ni la capacidad de rapidez para hacerlo”.
Este podría ser el caso de la herramienta, AI Voice Detector, la cual fue utilizada por usuarios de redes sociales y medios de comunicación tanto para comprobar la veracidad y/o falsedad del audio presuntamente filtrado del jefe de gobierno de la CDMX, Martí Batres.
En el audio viralizado se escucha a la voz atribuida al funcionario, decir que se debe apoyar a Clara Brugada y no soltar una campaña en redes contra Omar Harfuch, ambos aspirantes a la candidatura por la jefatura de la CDMX.
Ante esto, Batres respondió que el audio es totalmente falso y que fue producido con inteligencia artificial.
En primera instancia, el periodista Alberto Escorcia mostró con el software Play HT la facilidad con la que estos programas copian la voz de una persona y recordó que la página Chilango Noticias MX también difundió un audio atribuido a Clara Brugada, que de igual manera fue desmentido por la aspirante.
La voz de @martibatres fue clonada con IA, parte de una campaña de pago en Facebook, con 18 anuncios difundiendo una columna de @MarioMal. Y un audio falso de Clara Brugada pic.twitter.com/b63gVwGKji
— Alberto Escorcia (@AlbertoEscorcia) November 1, 2023
Contrario a lo señalado por Escorcia, varios usuarios de redes sociales y el doctor en ciencias computacionales y analista de datos, Carlos Piña respondieron que dicho audio tiene 95% de probabilidad de ser voz natural según un análisis de la herramienta AI Voice Detector.
En Verificado utilizamos dicha herramienta pero los resultados no fueron contundentes, pues por cada fragmento de audio analizado, AI Voice Detector arrojó diferentes porcentajes.
Para comprender mejor cómo funcionan las aplicaciones de clonación de voz y su capacidad pusimos a prueba la herramienta de AI llamada iMyFone VoxBox.
La aplicación de paga incluye la clonación de voz, la cual requiere el texto que la AI va a leer y muestras de 3 a 5 minutos de la voz que se busca copiar.
A modo de ejemplo se utilizó dicha herramienta para clonar la voz de Batres, y el resultado deja en evidencia que la AI puede generar audios bastante creíbles y suplantar la voz de una persona fácilmente.
No obstante, la mala pronunciación de muletillas, el tono monótono que predomina en el audio, el silencio absoluto, y sobre todo, la falta de respiraciones entre frases son algunas de las cuestiones que la AI no pudo resolver.
Si bien es cierto que con otros audios la herramienta AI Voice Detector ha demostrado ser funcional, al analizar el audio que generamos 100% con inteligencia artificial esta no fue capaz de identificarlo como tal, de hecho arrojó un 91.65% de probabilidad de voz natural y 8.35% de voz artificial, por lo que es una herramienta que carece de precisión.
Lo que sí es verdad es que la IA aún tiene problemas para replicar tonos, los cambios en el volumen de la voz, la respiración y la pronunciación de ciertas letras, tal como explicó el analista de datos, Carlos Piña a Animal Político y vía X (antes Twitter).
Por otro lado, la herramienta AI-SPY sí pudo identificar que el audio de iMyFone VoxBox fue 100% generado por inteligencia artificial y en cuanto al supuesto audio filtrado de Batres, la misma aplicación determinó que se trata de una mezcla de voz natural (22%) con voz artificial (66%).
La clave para detectar si un audio fue creado con inteligencia artificial está en los detalles
Generar de manera sintética el habla que pueda incluir inflexiones emocionales sigue siendo un reto importante para la comunidad tecnológica.
Clonar frases largas con signos de puntuación, interrogativas o exclamativas es una dificultad para la mayoría de los programas de inteligencia artificial, y dependiendo del contexto, los humanos no entonamos las preguntas de la misma manera o en frases largas hacemos pausas para respirar.
Además de las pausas extendidas y las respiraciones, Batres por ejemplo, alarga la pronunciación de la s y usa muletillas como ‘entonces’, ‘eh’ y ‘este’ al hablar, particularidades que si bien no son sencillas de imitar, es posible su ajuste con otras herramientas que requieren una mayor inversión de tiempo y conocimiento tecnológico.
LINKS / FUENTES:
- How to Identify an AI-Generated Image: 4 Ways | MUO
- Detecta imágenes y datos generados por IA. Falsificaciones profundas (Parte 1 y 2) | Medium
- Artificial Intelligence Index Report 2023 | Stanford University
- IA vs. IA: Puede detectar la IA imágenes generadas por IA? | MDPI
- Cómo detectar imágenes, vídeos o audios generados con IA | Newtral