Este artículo deriva de la conversación que sostuvimos con en el Episodio 6 “Cuando la IA miente: El auge de los deepfakes y la manipulación de imágenes y videos” de la segunda temporada del Podcast “Del dicho al hecho”.
Por Daniela Mendoza Luna
La era de la posverdad ha encontrado su herramienta definitiva en los deepfakes, esa sofisticada alquimia digital donde la inteligencia artificial generativa transmuta la ficción en una realidad “incuestionable”.
Lo que comenzó como una curiosidad técnica, poblada por simpáticos canguros a los que se les denegaba el abordaje en un avión, ha mutado en un arma de precisión quirúrgica para el sabotaje electoral.
Hoy, la frontera entre la sátira y la manipulación deliberada es tan tenue que el ecosistema democrático se encuentra ante un desafío existencial: ¿cómo proteger la voluntad popular cuando los sentidos ya no son una fuente fiable de verdad?
La gravedad del problema reside en una percepción pública polarizada. Mientras unas personas califican estas creaciones como simples memes, otros ven en ellas el fin de la confianza institucional. Esta brecha de comprensión es precisamente el terreno donde florece la desinformación.
Los peligros de los Deepfakes
Como bien señala el investigador Adrián González, de Cazadores de Fake News, medio venezolano de fact checking, el deepfake no es una simple edición de video; es un engaño nacido del aprendizaje profundo que genera contenido original con una verosimilitud alarmante.
El peligro se intensifica debido a la fragmentación de nuestras comunidades digitales. Lo que para un nativo digital de dieciséis años es una obviedad tecnológica, para un ciudadano de otra generación puede ser una revelación fáctica.

No todos consumimos la información con los mismos códigos ni bajo la misma dieta informativa. En un contexto donde la urgencia de TikTok desplaza al rigor del periodismo verificado, los deepfakes encuentran un campo de cultivo ideal.
La vulnerabilidad no es una cuestión de edad, sino de discernimiento; es la falta de herramientas para distinguir entre un creador de contenido que busca clics y una fuente que busca informar lo que deja la puerta abierta al caos.
En América Latina, esta tecnología no es una amenaza teórica, es una táctica de guerra. Hemos visto en países como Ecuador cómo se utilizan cuentas anónimas para difundir videos «satíricos» que sitúan a líderes en situaciones bochornosas, deteriorando su prestigio bajo el disfraz del humor.
Pero si el video es preocupante, el audio es aterrador. Los deepfakes de voz son extraordinariamente difíciles de detectar porque replican con precisión milimétrica la textura, el tono y las inflexiones de una persona. Una nota de voz falsa filtrada horas antes de una elección puede alterar el rumbo de una nación sin que haya tiempo material para una rectificación efectiva.
Las motivaciones detrás de estos ataques son diversas y no siempre provienen de rivales directos. Desde redes de estafa en Brasil que usan la imagen de médicos prestigiosos hasta ciudadanos que, por simple afán de notoriedad, contaminan el debate público.
Ante este panorama, la respuesta tradicional de confiar en la detección de errores visuales, los famosos «seis dedos » o “parpadeos extraños”, es una estrategia condenada al fracaso. La tecnología evoluciona más rápido que nuestra capacidad biológica para notar sus fallos, y lo que hoy es una señal de falsedad, mañana será una imperfección corregida por un algoritmo más eficiente.
La verdadera defensa, por tanto, no es tecnológica, sino humana. Debemos transitar hacia una resiliencia proactiva que consista en «pensar como el atacante». Un caso ejemplar ocurrió en Venezuela con el equipo de Cazadores de Fake News, quienes, al anticipar el uso de audios falsos, inocularon a la audiencia mediante campañas de advertencia.
El resultado fue pedagógico: el primer ataque causó impacto, el segundo fue cuestionado y el tercero fue simplemente ignorado. La sociedad aprendió a esperar el engaño, despojándolo de su poder destructivo. Esta conciencia pública es el único escudo real en una era de manipulación total.
Incluso la cultura popular ha empezado a generar sus propios anticuerpos. En Caracas, la sátira ha dado un giro fascinante: actores que imitan los errores de la inteligencia artificial para burlarse de la tecnología.

Este acto de parodia no solo es humorístico, sino que educa al ciudadano sobre las limitaciones de lo sintético. La familiaridad con la herramienta es el antídoto contra el miedo y la manipulación.
Si enseñamos a nuestros mayores a generar sus propias imágenes con inteligencia artificial, les estamos otorgando el conocimiento práctico necesario para que, la próxima vez que vean algo inverosímil, su primera reacción sea el escepticismo y no la indignación ciega.
El desafío de los deepfakes es, en última instancia, un llamado a la responsabilidad cívica. Los profesionales de la comunicación y los estrategas políticos tienen el deber moral de establecer estándares éticos que prohíban el uso de contenido sintético para el engaño.
No se trata de prohibir la herramienta, sino de elevar el nivel de nuestra alfabetización mediática. En un mundo donde la realidad puede fabricarse a la carta, la pausa para verificar y el pensamiento crítico han dejado de ser virtudes opcionales para convertirse en requisitos indispensables de la ciudadanía moderna.
Para navegar este nuevo ecosistema digital con seguridad y proteger nuestra integridad informativa, propongo los siguientes cuatro consejos prácticos que cualquier ciudadano puede implementar de inmediato.
1. Es necesario romper la dependencia exclusiva de las redes sociales como única vía de noticias. Ante cualquier contenido que resulte escandaloso, sorprendente, la regla de oro debe ser buscar la misma información en al menos dos medios de comunicación tradicionales. Si una noticia de alto impacto solo circula en grupos de mensajería privada o cuentas de redes sociales sin respaldo institucional, existen altísimas probabilidades de que estemos ante un contenido manipulado o directamente falso.
2. Debemos desarrollar un ojo crítico hacia las inconsistencias técnicas, pero sin confiar ciegamente en ellas. Aunque la inteligencia artificial es cada vez más perfecta, todavía deja rastros sutiles en los bordes de la cara, en el movimiento poco natural de los labios respecto al audio, o en detalles de fondo que parecen desenfocados de manera artificial. Sin embargo, más allá de lo visual, la mayor señal de alerta es la falta de contexto. Debemos preguntarnos siempre si la situación presentada tiene coherencia.
3. Es vital interactuar con las herramientas de creación. Una de las mejores formas de entender cómo se fabrica un engaño es experimentando con la propia tecnología de manera segura. Utilizar aplicaciones sencillas de generación de imagen o voz nos permite comprender la facilidad con la que se pueden alterar los hechos y nos otorga una capa de escepticismo saludable. Al conocer las costuras del proceso creativo dejamos de percibir el contenido sintético como una magia infalible y empezamos a verlo como lo que realmente es: un código programado que puede ser auditado y cuestionado.
4. Debemos asumir una responsabilidad ética en la difusión de contenidos, actuando como un filtro y no como un megáfono de la desinformación. Antes de compartir un video o un audio que nos parezca relevante, debemos aplicar una pausa reflexiva de al menos un minuto para evaluar su veracidad y el impacto potencial que podría tener en nuestro entorno.
La próxima vez que se encuentren frente a un video impactante en su pantalla, recuerden que en la era de la inteligencia artificial, ver no es necesariamente creer.
Sería un error sucumbir al miedo tecnológico, pero sería una negligencia aún mayor ignorar que el campo de batalla de las ideas ahora se libra en el terreno de los píxeles fabricados.
Nuestra mejor defensa sigue siendo la más antigua de todas: una mente curiosa, bien informada y crítica.

