EN CORTO
- Circulan videos creados con inteligencia artificial de supuestas periodistas que relatan situaciones que no han sucedido.
- Especialistas advierten de que esta práctica puede desinformar, erosionar la confianza en los medios y aumentar la polarización
Especial
En redes sociales circulan videos en los que supuestas periodistas informan sobre guerras, catástrofes o delitos que nunca ocurrieron. En realidad, son contenidos creados con inteligencia artificial.
Según especialistas consultados por Maldita.es, esta técnica aprovecha el papel social del periodismo para dar verosimilitud a estos relatos falsos y puede erosionar la confianza en los medios y las instituciones.
“México ha declarado la guerra a Estados Unidos”, dice una supuesta periodista en un telediario que nunca existió. Ni la mujer ni la noticia son reales: el video fue generado con inteligencia artificial, como indica su etiqueta en TikTok.
Es sólo uno de los muchos ejemplos de videos creados con IA que muestran a supuestos periodistas (en su mayoría mujeres) narrando situaciones inventadas.
Un ejemplo de ello son los diversos videos creados con IA que muestran escenas similares de periodistas transmitiendo en directo desde socavones por los que caen personas y coches, contenidos que ya ha desmentido Maldita.es.
Periodistas creados con IA relatan conflictos armados o desastres naturales que no sucedieron
También están los que alertan de situaciones más graves, como guerras, fenómenos naturales o supuestos homicidios. Aunque cuentan con etiquetas en TikTok que indican su origen sintético, es fácil que circulen fuera de su contexto original y que esa etiqueta ya no sea visible.
Todo esto puede provocar desinformación, generar falsos relatos y alterar la percepción sobre personajes y hechos de actualidad o históricos.
¿Por qué crear periodistas con IA? Expertos consultados por Maldita.es explican que estos contenidos aprovechan el rol de los periodistas y medios de comunicación en la sociedad para simular credibilidad y difundir estos mensajes de manera convincente.
Ha sucedido en Venezuela para compartir desinformación y propaganda a favor del régimen de Maduro, y en China para “influenciar las elecciones taiwanesas”, según un análisis de The Guardian.
También lo ha hecho el Daesh (organización terrorista que se autodenomina “Estado Islámico”) con videos creados con IA de reporteros que comparten propaganda y simulan ser “un noticiario de Al Jazeera”, según The Washington Post, para “crear propaganda disfrazada de manera inocua, como una transmisión de noticias, lo que hace que sea más difícil para las empresas tecnológicas moderarla”.
“A diferencia de otras figuras, los periodistas tienen un peso considerable porque son vistos como aliados y voces del público y, en cierto sentido, se convierten en las marionetas perfectas en manos de esos actores”, señala a Maldita.es Viola Keta, periodista experta en desinformación.
En conversación con Maldita.es, Raúl Magallón, profesor del Departamento de Comunicación de la Universidad Carlos III, sostiene que “su función es generar confusión en escenarios donde la información internacional hace que no conozcamos las fuentes de las que provienen este tipo de contenidos”.
Como explica Keta, la consecuencia es una erosión de la confianza en el periodismo, también en general: “Esta erosión de la confianza crea un clima de sospecha y marca una regresión social, ya que intensifica la polarización y la desconfianza general hacia las instituciones, no sólo hacia los medios de comunicación”.
Al igual que con las granjas de contenidos (sitios web que simulan ser medios de comunicación, pero con artículos de baja calidad), al disfrazarse de periodistas y medios reales, estos contenidos pueden engañar más fácilmente a los usuarios.
“Con el lanzamiento público de poderosas herramientas de IA, hemos visto proliferar sitios de noticias de baja calidad difíciles de distinguir de una fuente confiable para el consumidor promedio, lo que reduce aún más la confianza en los medios”, sostuvo a Maldita.es McKenzie Sadeghi, editora de IA e influencia extranjera en NewsGuard, servicio de herramientas para combatir la desinformación.
Otros usos de la IA generativa para representar a periodistas
Estos videos creados con IA de periodistas se pueden usar para desinformar, pero también para concienciar sobre problemas reales.
Es lo que hace un proyecto llamado AI Witness TV, que busca denunciar la dificultad que tienen los periodistas para entrar en Gaza y reportar sobre los ataques de Israel en la zona.
«Israel prohíbe a los periodistas occidentales informar como testigos presenciales en Gaza. Imaginemos por un momento que un equipo logra entrar. Un experimento de IA que muestra cómo podría ser uno de sus reportajes.
Los acontecimientos descritos son reales, pero nuestro reportero es generado con IA», señala la descripción del video.