- Los chatbots pueden cometer errores, «alucinar» si tienen que contestar pero no tienen información suficiente, querer darle la razón a los usuarios, o evitar posicionarse, incluso cuando hay evidencia suficiente
Especial
Usar un chatbot de inteligencia artificial como ChatGPT, Grok, Claude o Gemini para saber si una imagen es real o no (o si ha sido generada con IA) no es una buena idea.
Estas herramientas pueden cometer errores, «alucinar» y dar respuestas incorrectas, o presentar sesgos como el de adulación, que hace que quieran dar la razón a los usuarios. También pueden evitar posicionarse, aunque existan pruebas suficientes.
Un ejemplo de los errores que pueden cometer es como Grok, la IA de Twitter (ahora X), afirmó que una fotografía de una niña buscando comida en Gaza era en realidad de una niña yazidí en Siria en 2014.
La imagen, sin embargo, fue tomada por el fotógrafo de AP, Abdel Kareem Hana el 26 de julio de 2025 en un comedor comunitario de Gaza.
Días después, Grok volvió a equivocarse al afirmar que imágenes de niños desnutridos en Gaza habían sido tomadas en Yemen en 2016, cuando en realidad fueron captadas por el fotógrafo Jehad Alshrafi el 23 de julio de 2025 en el campamento de Shati (Gaza).
ChatGPT, Gemini o Claude tampoco son fuentes fiables para verificar imágenes. Los chatbots de IA funcionan a través de modelos de lenguaje de gran tamaño que predicen la siguiente palabra plausible en función del prompt y sus datos de entrenamiento, lo que puede llevarlos a cometer errores.
Los chatbots pueden tener sesgos para complacer al usuario
Iris Domínguez, que investiga sobre IA, justicia algorítmica y sesgos, explica que los chatbots actuales únicamente pueden analizar el contenido de la imagen y buscar elementos incoherentes: “Probablemente acierten en imágenes antiguas, pero en las modernas el contenido suele ser coherente y difícil de distinguir”.
En una prueba realizada por Maldita.es, se le pidió a ChatGPT que verificara una imagen falsa que supuestamente mostraba un avión F-35 derribado por Irán. Aunque la imagen había sido creada con IA, el chatbot respondió que “parece auténtica”.
Los chatbots también pueden tener un sesgo de adulación que haga que siempre quieran dar la razón al usuario. “Si preguntamos sobre cualquier tema en el que haya dos posturas enfrentadas, y revelamos que tenemos una opinión previa favorable a una de las dos, el bot tenderá a darnos más información confirmando nuestra opinión”, señala Domínguez.
En una prueba con Gemini, la IA de Google, se consultó si una imagen falsa que mostraba una selfie entre Kamala Harris y Jeffrey Epstein era real o había sido creada con IA. Inicialmente, Gemini indicó que tenía indicios de haber sido generadacon IA, pero al decirle que la imagen era real, el chatbot cambió su respuesta para apoyar esa afirmación, aunque fuera incorrecta.
También pueden verse afectados por el sesgo de equidistancia artificial: pueden evitar dar una respuesta clara para no posicionarse, incluso si existe suficiente evidencia.
Por ejemplo, Claude fue consultado sobre si una imagen falsa y con indicios de haber sido creada con IA de Donald Trump durante el huracán Helene era real. Claude respondió que “no podía afirmar con certeza si es real y manipulada”, pero después ofreció argumentos a favor de su autenticidad.
Tampoco existen herramientas 100% fiables para detectar si una imagen ha sido generada con inteligencia artificial, aunque Domínguez señala que suelen ser más precisas que los chatbots.
Aunque algunas compañías incorporan marcas de agua a sus imágenes y otras incluyen marcas imperceptibles para el ojo humano (como SynthID de Google), Domínguez advierte de que “la mayor parte de los modelos no tienen marcas de agua”.
Para identificar si una imagen ha sido creada con IA, es clave contrastar siempre con fuentes oficiales, buscar etiquetas de que el contenido ha sido creado con IA, rastrear el origen del contenido, y estar atentos a indicios visualescomo sombras incoherentes, textos ininteligibles o figuras deformadas, aunque estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.