Deepfakes: La fina línea entre la sátira y el sabotaje 

Fecha:

Comparte:

Este artículo deriva de la conversación que sostuvimos con en el Episodio 6 “Cuando la IA miente: El auge de los deepfakes y la manipulación de imágenes y videos” de la segunda temporada del Podcast “Del dicho al hecho”.

Por Daniela Mendoza Luna

La era de la posverdad ha encontrado su herramienta definitiva en los deepfakes, esa sofisticada alquimia digital donde la inteligencia artificial generativa transmuta la ficción en una realidad “incuestionable”. 

Lo que comenzó como una curiosidad técnica, poblada por simpáticos canguros a los que se les denegaba el abordaje en un avión, ha mutado en un arma de precisión quirúrgica para el sabotaje electoral. 

Hoy, la frontera entre la sátira y la manipulación deliberada es tan tenue que el ecosistema democrático se encuentra ante un desafío existencial: ¿cómo proteger la voluntad popular cuando los sentidos ya no son una fuente fiable de verdad?

La gravedad del problema reside en una percepción pública polarizada. Mientras unas personas califican estas creaciones como simples memes, otros ven en ellas el fin de la confianza institucional. Esta brecha de comprensión es precisamente el terreno donde florece la desinformación. 

Los peligros de los Deepfakes

Como bien señala el investigador Adrián González, de Cazadores de Fake News, medio venezolano de fact checking, el deepfake no es una simple edición de video; es un engaño nacido del aprendizaje profundo que genera contenido original con una verosimilitud alarmante. 

El peligro se intensifica debido a la fragmentación de nuestras comunidades digitales. Lo que para un nativo digital de dieciséis años es una obviedad tecnológica, para un ciudadano de otra generación puede ser una revelación fáctica. 

Daniela Mendoza y Adrián González en el podcast Del Dicho al Hecho
Daniela Mendoza y Adrián González en el podcast Del Dicho al Hecho

No todos consumimos la información con los mismos códigos ni bajo la misma dieta informativa. En un contexto donde la urgencia de TikTok desplaza al rigor del periodismo verificado, los deepfakes encuentran un campo de cultivo ideal. 

La vulnerabilidad no es una cuestión de edad, sino de discernimiento; es la falta de herramientas para distinguir entre un creador de contenido que busca clics y una fuente que busca informar lo que deja la puerta abierta al caos.

En América Latina, esta tecnología no es una amenaza teórica, es una táctica de guerra. Hemos visto en países como Ecuador cómo se utilizan cuentas anónimas para difundir videos «satíricos» que sitúan a líderes en situaciones bochornosas, deteriorando su prestigio bajo el disfraz del humor. 

Pero si el video es preocupante, el audio es aterrador. Los deepfakes de voz son extraordinariamente difíciles de detectar porque replican con precisión milimétrica la textura, el tono y las inflexiones de una persona. Una nota de voz falsa filtrada horas antes de una elección puede alterar el rumbo de una nación sin que haya tiempo material para una rectificación efectiva.

Las motivaciones detrás de estos ataques son diversas y no siempre provienen de rivales directos. Desde redes de estafa en Brasil que usan la imagen de médicos prestigiosos hasta ciudadanos que, por simple afán de notoriedad, contaminan el debate público

Ante este panorama, la respuesta tradicional de confiar en la detección de errores visuales, los famosos «seis dedos » o “parpadeos extraños”,  es una estrategia condenada al fracaso. La tecnología evoluciona más rápido que nuestra capacidad biológica para notar sus fallos, y lo que hoy es una señal de falsedad, mañana será una imperfección corregida por un algoritmo más eficiente.

La verdadera defensa, por tanto, no es tecnológica, sino humana. Debemos transitar hacia una resiliencia proactiva que consista en «pensar como el atacante». Un caso ejemplar ocurrió en Venezuela con el equipo de Cazadores de Fake News, quienes, al anticipar el uso de audios falsos, inocularon a la audiencia mediante campañas de advertencia. 

El resultado fue pedagógico: el primer ataque causó impacto, el segundo fue cuestionado y el tercero fue simplemente ignorado. La sociedad aprendió a esperar el engaño, despojándolo de su poder destructivo. Esta conciencia pública es el único escudo real en una era de manipulación total.

Incluso la cultura popular ha empezado a generar sus propios anticuerpos. En Caracas, la sátira ha dado un giro fascinante: actores que imitan los errores de la inteligencia artificial para burlarse de la tecnología. 

untitled design 2023 11 09t103355 sixteen nine 0

Este acto de parodia no solo es humorístico, sino que educa al ciudadano sobre las limitaciones de lo sintético. La familiaridad con la herramienta es el antídoto contra el miedo y la manipulación. 

Si enseñamos a nuestros mayores a generar sus propias imágenes con inteligencia artificial, les estamos otorgando el conocimiento práctico necesario para que, la próxima vez que vean algo inverosímil, su primera reacción sea el escepticismo y no la indignación ciega.

El desafío de los deepfakes es, en última instancia, un llamado a la responsabilidad cívica. Los profesionales de la comunicación y los estrategas políticos tienen el deber moral de establecer estándares éticos que prohíban el uso de contenido sintético para el engaño. 

No se trata de prohibir la herramienta, sino de elevar el nivel de nuestra alfabetización mediática. En un mundo donde la realidad puede fabricarse a la carta, la pausa para verificar y el pensamiento crítico han dejado de ser virtudes opcionales para convertirse en requisitos indispensables de la ciudadanía moderna.

Para navegar este nuevo ecosistema digital con seguridad y proteger nuestra integridad informativa, propongo los siguientes cuatro consejos prácticos que cualquier ciudadano puede implementar de inmediato.

1. Es necesario romper la dependencia exclusiva de las redes sociales como única vía de noticias. Ante cualquier contenido que resulte escandaloso, sorprendente, la regla de oro debe ser buscar la misma información en al menos dos medios de comunicación tradicionales. Si una noticia de alto impacto solo circula en grupos de mensajería privada o cuentas de redes sociales sin respaldo institucional, existen altísimas probabilidades de que estemos ante un contenido manipulado o directamente falso.

2. Debemos desarrollar un ojo crítico hacia las inconsistencias técnicas, pero sin confiar ciegamente en ellas. Aunque la inteligencia artificial es cada vez más perfecta, todavía deja rastros sutiles en los bordes de la cara, en el movimiento poco natural de los labios respecto al audio, o en detalles de fondo que parecen desenfocados de manera artificial. Sin embargo, más allá de lo visual, la mayor señal de alerta es la falta de contexto. Debemos preguntarnos siempre si la situación presentada tiene coherencia.

3. Es vital interactuar con las herramientas de creación. Una de las mejores formas de entender cómo se fabrica un engaño es experimentando con la propia tecnología de manera segura. Utilizar aplicaciones sencillas de generación de imagen o voz nos permite comprender la facilidad con la que se pueden alterar los hechos y nos otorga una capa de escepticismo saludable. Al conocer las costuras del proceso creativo dejamos de percibir el contenido sintético como una magia infalible y empezamos a verlo como lo que realmente es: un código programado que puede ser auditado y cuestionado.

4. Debemos asumir una responsabilidad ética en la difusión de contenidos, actuando como un filtro y no como un megáfono de la desinformación. Antes de compartir un video o un audio que nos parezca relevante, debemos aplicar una pausa reflexiva de al menos un minuto para evaluar su veracidad y el impacto potencial que podría tener en nuestro entorno. 

La próxima vez que se encuentren frente a un video impactante en su pantalla, recuerden que en la era de la inteligencia artificial, ver no es necesariamente creer. 

Sería un error sucumbir al miedo tecnológico, pero sería una negligencia aún mayor ignorar que el campo de batalla de las ideas ahora se libra en el terreno de los píxeles fabricados. 

Nuestra mejor defensa sigue siendo la más antigua de todas: una mente curiosa, bien informada y crítica.

Daniela Mendoza
Daniela Mendoza
Es una periodista feminista, docente y experta en verificación con más de 20 años de trayectoria en México. Fundadora y directora de Verificado MX, combina su labor informativa con la academia en instituciones como el Tec de Monterrey y la UANL, además de desempeñarse como consultora para medios independientes en América Latina. Cuenta con una sólida formación en Comunicación y Género, respaldada por prestigiosas becas internacionales (IWMF, ICFJ) y certificaciones de la DW Akademie, consolidándose como una figura clave en la alfabetización mediática y el periodismo con perspectiva social.

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

Gobierno Federal descalifica con argumentos falsos informe sobre desapariciones de la ONU

Por Debanhi Soto El Comité de las Naciones Unidas contra la Desaparición Forzada (CED-ONU) solicitó al Secretario General de la ONU que trate la crisis...

Qué hay detrás de la alerta sobre los más de 1000 “influenciadores” capacitados por Rusia en Latinoamérica

Una conferencia sobre la influencia informativa rusa en Latinoamérica fue simplificada y luego usada para atacar la credibilidad del evento y de quienes...

Sin orden judicial: cuándo la UIF puede congelar cuentas y los riesgos que implica

Por Diana Soto La Suprema Corte de Justicia de la Nación (SCJN) validó que la Unidad de Inteligencia Financiera (UIF) pueda congelar las cuentas de...

La importancia de la autonomía de un Consejo Consultivo

Entre Periodistas Por Andrés A. Solis* El 1 de marzo de 2026 Leonardo Cruz Núñez asumió la presidencia del Consejo Consultivo del Mecanismo de Protección de...

Qué es la Enmienda 25 y por qué congresistas piden su invocación para remover a Trump

EN CORTO Congresistas demócratas y algunos antiguos aliados del presidente Donald Trump –como Alex Jones y Marjorie Taylor Greene– han pedido la invocación de...