Los chatbots de IA no son una herramienta fiable para verificar una imagen

Fecha:

Comparte:

  • Los chatbots pueden cometer errores, «alucinar» si tienen que contestar pero no tienen información suficiente, querer darle la razón a los usuarios, o evitar posicionarse, incluso cuando hay evidencia suficiente

Especial

Usar un chatbot de inteligencia artificial como ChatGPT, Grok, Claude o Gemini para saber si una imagen es real o no (o si ha sido generada con IA) no es una buena idea.

Estas herramientas pueden cometer errores, «alucinar» y dar respuestas incorrectas, o presentar sesgos como el de adulación, que hace que quieran dar la razón a los usuarios. También pueden evitar posicionarse, aunque existan pruebas suficientes.

Un ejemplo de los errores que pueden cometer es como Grokla IA de Twitter (ahora X), afirmó que una fotografía de una niña buscando comida en Gaza era en realidad de una niña yazidí en Siria en 2014.

Imagen falsamente verificada por grok

La imagen, sin embargo, fue tomada por el fotógrafo de AP, Abdel Kareem Hana el 26 de julio de 2025 en un comedor comunitario de Gaza.

Días después, Grok volvió a equivocarse al afirmar que imágenes de niños desnutridos en Gaza habían sido tomadas en Yemen en 2016, cuando en realidad fueron captadas por el fotógrafo Jehad Alshrafi el 23 de julio de 2025 en el campamento de Shati (Gaza).

ChatGPT, Gemini o Claude tampoco son fuentes fiables para verificar imágenes. Los chatbots de IA funcionan a través de modelos de lenguaje de gran tamaño que predicen la siguiente palabra plausible en función del prompt sus datos de entrenamiento, lo que puede llevarlos a cometer errores.

Los chatbots pueden tener sesgos para complacer al usuario

Iris Domínguez, que investiga sobre IA, justicia algorítmica y sesgos, explica que los chatbots actuales únicamente pueden analizar el contenido de la imagen y buscar elementos incoherentes: “Probablemente acierten en imágenes antiguas, pero en las modernas el contenido suele ser coherente y difícil de distinguir”.

En una prueba realizada por Maldita.es, se le pidió a ChatGPT que verificara una imagen falsa que supuestamente mostraba un avión F-35 derribado por Irán. Aunque la imagen había sido creada con IA, el chatbot respondió que “parece auténtica”.

Los chatbots también pueden tener un sesgo de adulación que haga que siempre quieran dar la razón al usuario. “Si preguntamos sobre cualquier tema en el que haya dos posturas enfrentadas, y revelamos que tenemos una opinión previa favorable a una de las dos, el bot tenderá a darnos más información confirmando nuestra opinión”, señala Domínguez.

En una prueba con Gemini, la IA de Google, se consultó si una imagen falsa que mostraba una selfie entre Kamala Harris y Jeffrey Epstein era real o había sido creada con IA. Inicialmente, Gemini indicó que tenía indicios de haber sido generadacon IA, pero al decirle que la imagen era real, el chatbot cambió su respuesta para apoyar esa afirmación, aunque fuera incorrecta.

66aa19e04390e20240730 campan a kamala y epstein menchu png
Imagen falsa puesta a prueba en un chatbot de Gemini

También pueden verse afectados por el sesgo de equidistancia artificial: pueden evitar dar una respuesta clara para no posicionarse, incluso si existe suficiente evidencia.

Por ejemplo, Claude fue consultado sobre si una imagen falsa y con indicios de haber sido creada con IA de Donald Trump durante el huracán Helene era real. Claude respondió que “no podía afirmar con certeza si es real y manipulada”, pero después ofreció argumentos a favor de su autenticidad.

Tampoco existen herramientas 100% fiables para detectar si una imagen ha sido generada con inteligencia artificial, aunque Domínguez señala que suelen ser más precisas que los chatbots.

Aunque algunas compañías incorporan marcas de agua a sus imágenes y otras incluyen marcas imperceptibles para el ojo humano (como SynthID de Google), Domínguez advierte de que “la mayor parte de los modelos no tienen marcas de agua”.

Para identificar si una imagen ha sido creada con IA, es clave contrastar siempre con fuentes oficialesbuscar etiquetas de que el contenido ha sido creado con IA, rastrear el origen del contenido,estar atentos a indicios visualescomo sombras incoherentes, textos ininteligibles o figuras deformadas, aunque estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.


Esta nota fue publicada originalmente en la Agencia de Contenidos de Maldita.es, integrante de la red de verificadores Latam Chequea, al igual que Verificado.
¿Te ha llegado un bulo? Verifica en el WhatsApp de Maldita.es en el +34 644229319.

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

La CoIDH reconoce el derecho al cuidado, ¿qué significa?

EN CORTO El 7 de agosto de 2025, la Corte Interamericana de Derechos Humanos reconoció el cuidado como un derecho humano autónomo, con tres...

El crimen violento no aumentó en Washington D.C. como dijo Trump

EN CORTO El presidente Donald Trump declaró “emergencia de criminalidad” en Washington D.C. y anunció que el Gobierno Federal tomará el control de la...

Nueva Fiscalía Ambiental de NL olvida a grandes emisores y va contra ciudadanos

La nueva Fiscalía Ambiental de Nuevo León ha dejado de lado los grandes casos, como el de Zinc Nacional o Ternium para enfocarse...

Río Santa Catarina: ¿Por qué sí al Corredor Biológico Ripario?

Este texto se realizó en el Taller de escritura de Columna de Opinión Ambiental, una iniciativa de Verificado para explorar el poder de la...

Falso que la CURP Biométrica no será obligatoria

En Corto: Claudia Sheinbaum señaló que la CURP Biométrica es un trámite importante pero que no es obligatorio. Esto es falso. La CURP Biométrica...