Videos generados con IA usan imagen de periodistas para desinformar

Fecha:

Comparte:

Por Melina Barbosa (con información de Jeanfreddy Gutiérrez / Efecto Cocuyo)

La Inteligencia Artificial (IA) está siendo instrumentalizada para suplantar a periodistas y noticieros en redes sociales.

La imagen de comunicadores como Carlos Loret de Mola, Damià S. Bonmatí, Jorge Ramos, Pati Chapoy, María Celeste Arrarás y hasta de la vicepresidenta de Venezuela, Delcy Rodríguez ha sido utilizada para difundir información falsa sobre la muerte de políticos.

Con apenas seis videos y sin una biografía, el perfil de boomprensatv ya acumula 8 mil 948 seguidores y 42.8 mil me gusta en TikTok, superando las 1.7 millones de visualizaciones en un solo video.

Imagen1

«El presidente de Venezuela, Nicolás Maduro, acaba de fallecer», anuncia el periodista mexicano Carlos Loret de Mola en un video publicado por @boomprensatv.

En otro video de la misma cuenta aparece el periodista Damià S. Bonmatí  diciendo “con el corazón en la mano, tenemos que informar la noticia del fallecimiento del ministro de defensa de nuestra querida Venezuela, Vladimir Padrino López”.

Otros TikToks donde figuran los periodistas Jorge Ramos Ávalos, Pati Chapoy y María Celeste Arrarás dan a conocer el fallecimiento de Leopoldo López y Edmundo González Urrutia, opositores al gobierno venezolano de Nicolás Maduro.

Incluso en otro video se ve a la Vicepresidenta de la República Bolivariana de Venezuela, Delcy Rodríguez, anunciando la supuesta muerte del político y excandidato presidencial, Edmundo González.

Pero todo es un engaño, se trata de una cuenta que emplea la Inteligencia Artificial (IA) para suplantar la identidad de periodistas y comunicadores reconocidos para ganar credibilidad y viralizar sus videos desinformantes.

Hasta el momento, no se ha reportado la muerte de Nicolás Maduro, Vladimir Padrino López ni Edmundo González.

Imagen2

El modus operandi de este tipo de cuentas desinformantes

El primer video de esta cuenta desinformante en TikTok fue publicado el 10 de julio de 2025. Desde entonces, muchos usuarios comentaron las publicaciones enviando mensajes de condolencias y/o tachando de desinformadores a los comunicadores, cuya imagen y voz fue creada con Inteligencia Artificial.

Las publicaciones aparentan ser clips o extractos de noticieros televisivos reales para generar confianza entre las personas que lo ven, usando para esto la imagen de periodistas reconocidos para hacer ver más creíble este contenido.

Anteriormente, Cocuyo Chequea, equipo de fact checking venezolano e integrante de LATAM Chequea, identificó esta técnica desinformativa en otras redes sociales, como por ejemplo en YouTube, específicamente con supuestos canales deportivos como @playsportperu y @futboltotal.

Estas cuentas, difundieron desinformación en torno al supuesto paradero del presidente del Consejo Nacional Electoral (CNE), Elvis Amoroso, y la presunta intercepción de un carguero venezolano por parte de Estados Unidos, y para ello, usan imágenes de noticieros descontextualizados con falsas transmisiones en vivo por varias horas.  

Así mismo, el medio venezolano detectó una red de cuentas con nombres irónicos que, tras publicar falsas declaraciones de Delcy Rodríguez, borraban los videos para ser sustituidos por desinformación de farándula mexicana. 

Un ejemplo de esta práctica es Chacarrón TV en la que inicialmente, la vicepresidenta del gobierno de Nicolás Maduro falsamente anunciaba la prohibición del uso del dólar en Venezuela, lo que también hicieron con El Chisme Te Llama y Soy Mulatto, con el falso anuncio de prohibición de “tener más de dos hijos”. 

En algunas de estas cuentas también se incluyó la falsa muerte de Nicolás Maduro, así como la de otros políticos venezolanos. En otras ocasiones, usaron nombres de cuentas como ZanahoriaTV y RemolachaTV para distribuir desinformación económica sobre Venezuela y luego borrar los vídeos para ser sustituidos por vídeos de IA con más farándula mexicana.

La cuenta «El Chisme Te Llama» aún está disponible, y tras borrar los videos sobre las muertes de políticos venezolanos, ahora incluye un video en que Nayib Bukele anuncia el encarcelamiento de Juan Gabriel en el CECOT por haber «simulado» su muerte.

Estos canales y cuentas desinformativas emplean titulares llamativos para generar clickbait, una estrategia que garantiza que haya muchas interacciones y visualizaciones en sus contenidos para generar ganancias monetarias.

Por otro lado, este tipo de desorden informativo podría ser un indicio de una amenaza de la manipulación de información e interferencia extranjera denominada Foreign Information Manipulation and Interference (FIMI).

Imagen5

FIMI desplaza el enfoque del contenido a los patrones de comportamiento destinados a interferir con la integridad política de los Estados e influir en las decisiones políticas de la región.

Es decir, FIMI es un comportamiento no orgánico que busca manipular la opinión pública a través de diversos canales. Estos actores (estatales o no) suelen explotar más los sentimientos locales.

En todos los casos anteriores, las cuentas de TikTok son de reciente creación, pero sus videos de IA alcanzaron millones de reproducciones y me gusta en horas o pocos días.

Algunas de las cuentas como @lasignaltv, @chacaarroon, @yasurigillette, @soymulatto @elchismetellama1, @iamtukuntazo, @zanahoriateve, @tomateteve, @remolachateve, @lechugateve, @delaguardatv y @boomprensatv, constantemente borran el contenido con desinformación política y lo sustituyen por videos de farándula mexicana, lo que refleja una intención de disimulo y/o aprovechamiento.

Imagen4

Características de las «fake media»

Estas cuentas pueden configurarse también como «fake media«, de acuerdo con el fundador y coordinador del Observatorio Mexicano de Medios, Luis Alberto Martínez, algunas de las características que estos perfiles suelen compartir y que pueden revisarse son:

  1. Concentran todo su contenido en redes sociales.
  2. No tienen dominio: El hecho de que tenga un dominio es como tener una dirección postal; esto no significa que no se pueda falsear el domicilio, pero esto indica que una persona por lo menos compró un dominio.
  3. La naturaleza de las notas es repetitiva en cuanto a temas, personajes, ubicación.
  4. Tienen alta frecuencia de publicaciones, pero plagian o republican noticias de otros medios o carecen de contenido original.
  5. No tienen directorio o «caras visibles» de quiénes integran el supuesto medio.
  6. Las notas, videos o textos no están firmados o no tienen autor.
  7. Las redes sociales y el portal no tienen conexión directa, es decir, publican diferentes contenidos con diferentes formatos y sin una identidad gráfica definida.
  8. Las notas no tienen una estructura o estilo similar y el contenido parece o está generado con Inteligencia Artificial.

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

La CoIDH reconoce el derecho al cuidado, ¿qué significa?

EN CORTO El 7 de agosto de 2025, la Corte Interamericana de Derechos Humanos reconoció el cuidado como un derecho humano autónomo, con tres...

El crimen violento no aumentó en Washington D.C. como dijo Trump

EN CORTO El presidente Donald Trump declaró “emergencia de criminalidad” en Washington D.C. y anunció que el Gobierno Federal tomará el control de la...

Los chatbots de IA no son una herramienta fiable para verificar una imagen

Los chatbots pueden cometer errores, "alucinar" si tienen que contestar pero no tienen información suficiente, querer darle la razón a los usuarios, o...

Nueva Fiscalía Ambiental de NL olvida a grandes emisores y va contra ciudadanos

La nueva Fiscalía Ambiental de Nuevo León ha dejado de lado los grandes casos, como el de Zinc Nacional o Ternium para enfocarse...

Río Santa Catarina: ¿Por qué sí al Corredor Biológico Ripario?

Este texto se realizó en el Taller de escritura de Columna de Opinión Ambiental, una iniciativa de Verificado para explorar el poder de la...