Guerras y huracanes que no existen: cómo se usa IA para crear «periodistas» y relatos que desinforman

Fecha:

Comparte:

EN CORTO

  • Circulan videos creados con inteligencia artificial de supuestas periodistas que relatan situaciones que no han sucedido.
  • Especialistas advierten de que esta práctica puede desinformar, erosionar la confianza en los medios y aumentar la polarización

Especial

En redes sociales circulan videos en los que supuestas periodistas informan sobre guerras, catástrofes o delitos que nunca ocurrieron. En realidad, son contenidos creados con inteligencia artificial. 

Según especialistas consultados por Maldita.es, esta técnica aprovecha el papel social del periodismo para dar verosimilitud a estos relatos falsos y puede erosionar la confianza en los medios y las instituciones.

México ha declarado la guerra a Estados Unidos”, dice una supuesta periodista en un telediario que nunca existió. Ni la mujer ni la noticia son reales: el video fue generado con inteligencia artificial, como indica su etiqueta en TikTok.

Es sólo uno de los muchos ejemplos de videos creados con IA que muestran a supuestos periodistas (en su mayoría mujeres) narrando situaciones inventadas.

Un ejemplo de ello son los diversos videos creados con IA que muestran escenas similares de periodistas transmitiendo en directo desde socavones por los que caen personas y coches, contenidos que ya ha desmentido Maldita.es.

periodistas creadas con ia desinforman sobre guerras y desastres naturales

Periodistas creados con IA relatan conflictos armados o desastres naturales que no sucedieron

También están los que alertan de situaciones más graves, como guerras, fenómenos naturales o supuestos homicidios. Aunque cuentan con etiquetas en TikTok que indican su origen sintético, es fácil que circulen fuera de su contexto original y que esa etiqueta ya no sea visible.

Todo esto puede provocar desinformación, generar falsos relatos y alterar la percepción sobre personajes y hechos de actualidad o históricos

¿Por qué crear periodistas con IA? Expertos consultados por Maldita.es explican que estos contenidos aprovechan el rol de los periodistas y medios de comunicación en la sociedad para simular credibilidad y difundir estos mensajes de manera convincente. 

Ha sucedido en Venezuela para compartir desinformación y propaganda a favor del régimen de Maduro, y en China para “influenciar las elecciones taiwanesas”, según un análisis de The Guardian. 

También lo ha hecho el Daesh (organización terrorista que se autodenomina “Estado Islámico”) con videos creados con IA de reporteros que comparten propaganda y simulan ser “un noticiario de Al Jazeera”, según The Washington Post, para “crear propaganda disfrazada de manera inocua, como una transmisión de noticias, lo que hace que sea más difícil para las empresas tecnológicas moderarla”.

68f76c94cabdfchina venezuela isis ia periodistas webp

“A diferencia de otras figuras, los periodistas tienen un peso considerable porque son vistos como aliados y voces del público y, en cierto sentido, se convierten en las marionetas perfectas en manos de esos actores”, señala a Maldita.es Viola Keta, periodista experta en desinformación.

En conversación con Maldita.es, Raúl Magallón, profesor del Departamento de Comunicación de la Universidad Carlos III, sostiene que “su función es generar confusión en escenarios donde la información internacional hace que no conozcamos las fuentes de las que provienen este tipo de contenidos”. 

Como explica Keta, la consecuencia es una erosión de la confianza en el periodismo, también en general: “Esta erosión de la confianza crea un clima de sospecha y marca una regresión social, ya que intensifica la polarización y la desconfianza general hacia las instituciones, no sólo hacia los medios de comunicación”.

Al igual que con las granjas de contenidos (sitios web que simulan ser medios de comunicación, pero con artículos de baja calidad), al disfrazarse de periodistas y medios reales, estos contenidos pueden engañar más fácilmente a los usuarios.

“Con el lanzamiento público de poderosas herramientas de IA, hemos visto proliferar sitios de noticias de baja calidad difíciles de distinguir de una fuente confiable para el consumidor promedio, lo que reduce aún más la confianza en los medios”, sostuvo a Maldita.es McKenzie Sadeghi, editora de IA e influencia extranjera en NewsGuard, servicio de herramientas para combatir la desinformación. 

Otros usos de la IA generativa para representar a periodistas 

Estos videos creados con IA de periodistas se pueden usar para desinformar, pero también para concienciar sobre problemas reales.

Es lo que hace un proyecto llamado AI Witness TV, que busca denunciar la dificultad que tienen los periodistas para entrar en Gaza y reportar sobre los ataques de Israel en la zona.

«Israel prohíbe a los periodistas occidentales informar como testigos presenciales en Gaza. Imaginemos por un momento que un equipo logra entrar. Un experimento de IA que muestra cómo podría ser uno de sus reportajes. 

Los acontecimientos descritos son reales, pero nuestro reportero es generado con IA», señala la descripción del video

68f76c7705b5aai witness gaza inteligencia artificial periodistas webp


Esta nota fue publicada originalmente en la Agencia de Contenidos de Maldita.es, integrante de la red de verificadores Latam Chequea, al igual que Verificado.
¿Te ha llegado un bulo? Verifica en el WhatsApp de Maldita.es en el +34 644229319

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

SAT no anunció impuestos al aguinaldo en 2025; ese cobro está en la ley hace más de 60 años

Por Diana Soto El Servicio de Administración Tributaria (SAT) sí cobra impuestos a las personas trabajadoras en México por su aguinaldo. Sin embargo, esta institución...

Notas de comunidad: cuáles son las últimas evidencias sobre su efectividad contra la desinformación?

Por Leticia Smal / Chequeado Una reciente investigación publicada en la revista científica PNAS volvió a colocar bajo la lupa a las Notas de Comunidad (Community Notes),...

¿Sheinbaum difundió estas imágenes manipuladas en zonas afectadas por las inundaciones? No hay evidencia

Por Diana Soto La presidenta de México, Claudia Sheinbaum sí compartió fotografías en las zonas afectadas por las recientes inundaciones en cinco estados. Sin embargo,...

No hay evidencias científicas de que los números de Grabovoi sirvan para curar enfermedades

EN CORTO Circulan en TikTok múltiples videos virales sobre los números de Grabovoi, unas secuencias de cifras con supuestas propiedades curativas. No hay evidencias...

Falso que eliminaron la visa de EU para personas latinoamericanas

Por Diana Soto El gobierno de Estados Unidos no ha anunciado modificaciones en la expedición de la visa para ciertos grupos de personas, contrario a...