- Una IA puede heredar sesgos de sus desarrolladores y datos de entrenamiento y reflejar ideas sexistas y racistas, evitar posicionarse o dar siempre la razón. Los usuarios también pueden tener un sesgo de automatización y fiarse en exceso de las respuestas de una IA
Especial
Los modelos deinteligencia artificial pueden heredar sesgos de sus desarrolladores y de los datos con los que se entrenan, lo que puede llevar a respuestas sexistas o racistas, generar desinformación y poner en riesgo a quienes confían a ciegas en ellas.
Expertas en IA aseguran que combatir estos sesgos pasa por fomentar la diversidad en los equipos, los datos y auditorías, reforzar el pensamiento crítico de las personas usuarias y la legislación.
Los modelos deIA no piensan ni tienen conciencia, pero pueden heredar los sesgos de quienes los desarrollan o de los datos con los que se entrenan. “Principalmente se cuelan por los datos de entrenamiento, que reflejan y amplifican las desigualdades, estereotipos y discriminaciones existentes en la sociedad”, explica a Maldita.esLorena Fernández, experta en perspectiva de género en tecnología.
El diseño del algoritmo y las interacciones de los usuarios también pueden jugar un papel en el desarrollo de sesgos.

Los tipos de sesgos presentes en la IA
Uno de los sesgos más comunes es el de género, que se pueden ver en las respuestas diferentes que generan algunos chatbots de IA dependiendo de si identifica que somos una mujer o un hombre.
También en traducciones con IA del inglés al español: DeepL traduce “nurse” a “enfermera”, mientras que “doctor” a “médico”. Las herramientas de generación de imágenes por IA también reproducen estereotipos: al pedir una imagen de una persona exitosa con cargo de CEO, suele mostrarse un hombre blanco.
Los sesgos racistas también se evidencian en las respuestas de los modelos de IA.
Las personas negras se ven más afectadas por los errores y las predicciones inexactas de una IA, por ejemplo, algunas tecnologías de reconocimiento facial etiquetan a más personas negras como criminales y a mujeres negras como hombres.
Los distintos sesgos pueden cruzarse y afectar más a ciertos grupos, como a las mujeres racializadas.
Una IA también puede tener un sesgo de adulación y dar siempre la razón al usuario, lo que puede generar burbujas informativas y reforzar creencias. Esto puede ser peligroso si se usan chatbots para terapia, uno de los principales usos actuales, ya que junto a otros factores, puede retrasar la mejora.
El sesgo de equidistancia es otro riesgo: algunos chatbots evitan posicionarse en debates con evidencia sólida, lo que puede resultar en respuestas sesgadas.
“Puede ser peligroso cuando hay evidencia científica sobre ciertos temas no aceptados popularmente”, indica a Maldita.es Iris Domínguez, que investiga sobre justicia algorítmica e IA.
También está el sesgo de automatización: confiar ciegamente en respuestas de IA, sean acertadas o no, lo que puede provocar desinformación.
Las personas que se fían a ciegas del diagnóstico médico de un chatbot de IA pueden estar sufriendo este sesgo. No considerar que estos sistemas cometen errores, no son fuentes fiables de información y pueden equivocarse en sus “diagnósticos”, puede suponer riesgos para la salud de las y los usuarios.
Expertas en IA coinciden en que evitar estos sesgos requiere diversidad en los equipos de desarrollo, mejorar la representatividad en los datos y auditar los sistemas teniendo en cuenta los distintos tipos de sesgos que pueden cruzarse entre sí.
También recuerdan la importancia del pensamiento crítico: las respuestas de una IA nunca deben tomarse como neutrales o infalibles y recomiendan contrastarlas siempre.
La Ley Europea de Inteligencia Artificial regulará los sistemas de alto riesgo desde agosto de 2026. Estos deberán examinar sus datos de entrenamiento para detectar posibles sesgos y aplicar medidas para corregirlos.
El incumplimiento puede acarrear multas de hasta 15 millones de euros o el 3% de la facturación anual de la empresa.
Esta nota fue publicada originalmente en la Agencia de Contenidos de Maldita.es, integrante de la red de verificadores Latam Chequea, al igual que Verificado.
¿Te ha llegado un bulo? Verifica en el WhatsApp de Maldita.es en el +34 644229319.