- Los sesgos tecnológicos surgen de datos desbalanceados, decisiones algorítmicas opacas y prejuicios humanos que se filtran en todo el ciclo de vida de la IA.
- El NIST distingue entre sesgos computacionales, humanos y sistémicos, que interactúan y se refuerzan en contextos sociales desiguales.
- Los ejemplos reales en sanidad, justicia, empleo o crédito muestran daños concretos y refuerzan la necesidad de auditorías, explicabilidad y supervisión humana.
- Regulación, educación y equipos diversos son pilares esenciales para diseñar y desplegar tecnologías más justas y responsables.
Vivimos rodeados de algoritmos: nos recomiendan series, conceden créditos, filtran currículums y priorizan noticias en redes sociales. Muchas veces damos por hecho que, al venir de un ordenador, esas decisiones son más objetivas y justas que las de una persona. Pero la realidad es bastante más incómoda: la tecnología tampoco es neutral.
Cuando un sistema informático o de inteligencia artificial incorpora sesgos, esos errores no se quedan en el mundo digital: se traducen en oportunidades negadas, diagnósticos menos precisos, vigilancia desigual o decisiones económicas injustas. Entender de dónde vienen esos sesgos de la tecnología, cómo se clasifican y qué daños producen es clave para desarrollar y usar una IA realmente responsable.
Qué son los sesgos de la tecnología y por qué no son “fallos técnicos” sin más
En el ámbito digital, hablamos de sesgo cuando un sistema computacional procesa información de manera desigual, sistemática y predecible, favoreciendo a unos grupos frente a otros sin una justificación legítima. No se trata solo de errores puntuales, sino de patrones que se repiten en los resultados.
Estos sesgos tecnológicos pueden aparecer en muchas capas: en los datos con los que se entrena un modelo, en el diseño del algoritmo, en cómo se etiquetan los ejemplos, en las métricas que se eligen para optimizar o incluso en cómo interpretan los humanos las salidas del sistema. En el fondo, los sesgos de la tecnología reflejan y amplifican prejuicios humanos, desigualdades históricas y decisiones de diseño.
Un error muy frecuente es asumir que los ordenadores “no se equivocan” porque siguen reglas matemáticas. Detrás de cualquier solución de IA hay equipos que deciden qué datos usar, qué variables son importantes, cómo medir el éxito y qué errores se consideran aceptables. Si esos equipos comparten puntos ciegos o trabajan con información incompleta, los sistemas resultantes pueden ser profundamente injustos aunque funcionen “técnicamente” bien.
Sesgo en los datos de entrenamiento: cuando el problema nace en la base
Los sistemas de IA y machine learning aprenden a partir de ejemplos. Si el conjunto de datos con el que se entrenan está desbalanceado, mal etiquetado o arrastra prejuicios históricos, el modelo aprenderá esos patrones sesgados como si fueran la “normalidad” del mundo. Aquí es donde se origina buena parte del problema.
Una fuente clásica es el sesgo de representación: ciertos grupos aparecen en exceso y otros apenas existen en los datos. Un algoritmo de reconocimiento facial entrenado sobre todo con fotos de personas blancas tenderá a funcionar muy bien con ese grupo y a cometer muchos más errores con personas negras, asiáticas o de otras minorías. Lo mismo ocurre si los datos policiales proceden sobre todo de barrios racializados: la IA asumirá que allí hay más criminalidad, cuando lo que hay es más presencia policial histórica.
También influye de forma crítica cómo se etiquetan los datos. Cuando personas humanas asignan categorías, descripciones o puntuaciones, pueden introducir sus propios prejuicios. Herramientas de selección de personal que marcan ciertos perfiles como más “válidos” pueden haber sido entrenadas con etiquetas donde se descartaban, sin una razón objetiva, a mujeres, personas mayores o candidatos de determinadas universidades o países.
En el terreno estadístico, hablamos de sesgo cuando la muestra no representa realmente a la población que se quiere modelar. El resultado es un modelo que parece funcionar bien en los datos de entrenamiento, pero que en el mundo real favorece de forma sistemática a ciertos perfiles y penaliza a otros que estaban infrarrepresentados o mal descritos en la base de datos original.
Sesgo algorítmico: decisiones de diseño que amplifican la desigualdad
Incluso con buenos datos, el diseño del algoritmo puede introducir sesgo. Hablamos de sesgo algorítmico cuando, debido a la forma en que está construido el modelo o a las reglas que aplica, se generan de manera reiterada resultados injustos, errores sesgados o impactos desproporcionados sobre ciertos grupos.
Un ejemplo claro aparece en los modelos que utilizan variables aparentemente neutras, como el código postal, el nivel de ingresos o determinados patrones de consumo. Aunque el algoritmo no “vea” directamente la raza o el género, esas variables pueden actuar como proxies de categorías sensibles, reproduciendo sesgos raciales, de clase o de género que no estaban explícitamente codificados.
En la programación también pueden colarse los prejuicios de los desarrolladores. Si quien diseña el sistema decide, de forma consciente o inconsciente, que ciertos factores deben ponderarse más que otros, puede estar trasladando su propia visión sesgada de lo que es “mérito”, “riesgo” o “normalidad”. El resultado: algoritmos de crédito que penalizan de manera automática a personas de bajos ingresos, o sistemas de recomendación que silencian sistemáticamente ciertos contenidos o colectivos.
El National Institute of Standards and Technology (NIST) subraya que limitarse a corregir lo que se ve en la superficie (los resultados del modelo ya entrenado) es quedarse en la punta del iceberg. Para abordar el sesgo algorítmico con rigor hay que revisar todo el ciclo de diseño, desde qué problema se formula hasta qué métricas se usan para evaluar si el sistema es aceptable.
Sesgos humanos y cognitivos: cómo pensamos se cuela en la tecnología
Los sesgos no nacen en la máquina: nacen en nuestra cabeza. Las personas utilizamos atajos mentales, heurísticos y creencias previas para tomar decisiones rápidas en un mundo complejo. Esos atajos producen sesgos cognitivos que, cuando participamos en el diseño, entrenamiento o supervisión de sistemas de IA, acaban trasladándose al código y a los datos.
Uno de los más conocidos es el sesgo de confirmación. Tendemos a buscar, interpretar y recordar la información que encaja con lo que ya pensábamos, ignorando o minimizando lo que nos contradice. Si un equipo de desarrollo cree que cierto patrón es “lo normal”, puede elegir datos y métricas que refuercen su hipótesis, descartando casos que la cuestionan. Esto afecta tanto a la selección de variables como a la validación del modelo.
Otro clásico es el sesgo de anclaje: damos un peso excesivo a la primera información que recibimos. En contextos digitales, un precio inicial muy alto puede convertir cualquier rebaja posterior en una “oferta irresistible”, aunque no lo sea. Algo parecido ocurre cuando un sistema de IA muestra una primera recomendación o predicción: esa salida inicial funciona como ancla para las decisiones posteriores de usuarios, analistas o responsables de negocio.
También opera el efecto halo: valoramos a una persona, producto o idea en función de una característica llamativa. En procesos de selección automatizados, un título de una universidad prestigiosa puede hacer que un algoritmo, entrenado con datos históricos, sobrevalore sistemáticamente a quienes proceden de esos centros y subestime a candidatos igual o más válidos de instituciones menos conocidas.
El sesgo de negatividad implica que prestamos más atención y damos más peso a la información negativa. En modelos de detección de fraude o de riesgos, esto puede traducirse en algoritmos que priorizan tanto evitar ciertos errores que acaban generando muchos falsos positivos, penalizando a personas inocentes por el simple hecho de parecerse estadísticamente a casos problemáticos del pasado.
Todos estos sesgos cognitivos se introducen en el sistema en múltiples momentos: al decidir qué problema resolver, al diseñar la arquitectura, al hacer el etiquetado manual de datos, al elegir las funciones de pérdida (que pueden penalizar más unos fallos que otros) o al interpretar los resultados. Por eso el NIST insiste en que los factores humanos, sociales e institucionales son una fuente de sesgo tan importante como los datos o los algoritmos, y que a menudo se pasan por alto.
Más allá de los errores estadísticos o cognitivos, existen sesgos incrustados en la propia estructura de la sociedad: el racismo, el sexismo, la desigualdad de clase, la discriminación hacia ciertas edades o identidades. Estos sesgos sistémicos no siempre derivan de prejuicios conscientes de individuos concretos, sino de normas, prácticas e instituciones que han funcionado durante décadas o siglos.
Cuando recopilamos datos históricos para entrenar sistemas de IA, lo que estamos haciendo es encapsular en forma de números y registros digitales esa historia desigual. Los algoritmos que aprenden de esos datos acaban reproduciendo lo que “siempre ha pasado”: menos mujeres en puestos directivos, más detenciones en ciertos barrios, menos acceso al crédito para determinadas comunidades. La IA, en lugar de corregir la injusticia, la refuerza con apariencia de objetividad.
Algunos marcos distinguen aquí entre sesgo social y sesgo estadístico. El sesgo social tiene que ver con los prejuicios, estereotipos e inclinaciones arraigados en una cultura. El sesgo estadístico aparece cuando hay una diferencia sistemática entre lo que estiman los datos y la realidad que supuestamente representan. Ambos se entremezclan: los datos desbalanceados suelen ser el reflejo numérico de una desigualdad social previa.
Las normas, procesos y prácticas institucionales a lo largo del ciclo de vida de la IA también contribuyen. Desde qué proyectos se financian y qué sectores reciben más atención, hasta cómo se implementan los sistemas en empresas y administraciones públicas. El resultado es que los sesgos sistémicos se cuelan en los datasets, en los modelos y en la manera de usarlos sobre el terreno.
La tipología del NIST: sesgos computacionales, humanos y sistémicos
La publicación especial 1270 del NIST, “Towards a Standard for Identifying and Managing Bias in Artificial Intelligence”, se ha convertido en una referencia a la hora de ordenar este tema. Este documento identifica tres grandes categorías de sesgos en IA: sesgos computacionales o estadísticos, sesgos humanos y sesgos sistémicos.
Los sesgos computacionales son los que se pueden medir directamente en el rendimiento de un modelo de IA ya entrenado: diferencias en las tasas de error, en las puntuaciones o en los resultados según grupo poblacional. Incluyen cosas como el sesgo de selección de datos (cuando el conjunto de entrenamiento no representa bien la realidad) o el sesgo algorítmico en sentido estricto (cuando la forma de cálculo favorece ciertos resultados).
Los sesgos humanos abarcan todos los prejuicios y errores sistemáticos en el pensamiento de las personas que intervienen en el ciclo de vida de la IA. Aquí entran los sesgos cognitivos ya comentados (confirmación, anclaje, efecto halo, negatividad…), que afectan a la recogida de datos, su etiquetado, la definición de objetivos, la elección de métricas o la interpretación de los informes que genera un sistema.
Por último, los sesgos sistémicos se refieren a las desigualdades estructurales arraigadas en la sociedad y sus instituciones. Estos sesgos se plasman en los datos históricos, en las regulaciones existentes, en las prácticas organizativas y en los incentivos económicos. Un ejemplo evidente es que, si durante décadas se ha detenido más a personas de una minoría concreta por prácticas policiales discriminatorias, los datos resultantes harán que un sistema de predicción delictiva señale una y otra vez esas mismas comunidades.
El NIST también destaca tres grandes retos para mitigar estos sesgos: mejorar la calidad y diversidad de los conjuntos de datos, desarrollar marcos robustos de pruebas y evaluación que incluyan criterios de equidad, y abordar de frente los factores humanos y organizativos, integrando la ética y la supervisión a lo largo de todo el proceso.
Sesgo de automatización: confiar demasiado en la máquina
Además de los sesgos ya mencionados, las regulaciones europeas han puesto el foco en un fenómeno cada vez más frecuente: el sesgo de automatización. El Reglamento de IA de la UE, en su artículo 14.4.b), señala el riesgo de que las personas tiendan a confiar automáticamente o en exceso en los resultados generados por un sistema de IA, aunque estos sean erróneos o estén sesgados.
Este sesgo de automatización está muy relacionado con el sesgo de confirmación y el de anclaje. Si confiamos ciegamente en la salida de un sistema, es más probable que busquemos información que refuerce lo que ha dicho la máquina, y que tomemos esa respuesta como referencia inicial para todo lo demás. Las sugerencias de la IA se convierten en una “verdad por defecto” que condiciona el juicio humano.
Por eso la normativa europea insiste en la necesidad de que, en sistemas de alto riesgo (por ejemplo, los que afectan a derechos fundamentales), haya siempre una persona supervisando. No se trata de tener a un humano pulsando un botón al final, sino de que pueda aportar contexto, cuestionar la decisión automática y revertirla cuando detecte que no encaja con la realidad del caso concreto.
Ejemplos reales de sesgos tecnológicos y sus consecuencias
Cuando los sesgos de la tecnología se materializan en sistemas reales, los daños son muy concretos. Organizaciones de todo tipo han sufrido golpes reputacionales y legales por no anticipar estas situaciones, mientras que las personas afectadas pueden ni siquiera saber que una decisión injusta ha sido tomada por un algoritmo.
En sanidad, la infrarrepresentación de mujeres o minorías en los datos clínicos ha hecho que algunos algoritmos diagnósticos ofrezcan resultados menos precisos para ciertos grupos. Se han observado sistemas de apoyo al diagnóstico asistido por ordenador que funcionan peor con pacientes afroamericanos que con pacientes blancos, perpetuando desigualdades ya existentes en la atención médica.
En el ámbito laboral, una gran empresa tecnológica tuvo que desechar un sistema de selección de personal basado en IA cuando descubrió que penalizaba sistemáticamente a las mujeres. El algoritmo había aprendido de un histórico de contratación mayoritariamente masculino, lo que le llevó a favorecer currículos similares a los de los hombres que ya estaban en la plantilla y a filtrar negativamente indicios de género femenino.
Otro caso son los sistemas de clasificación de riesgo en justicia penal, como COMPAS en Estados Unidos, que fueron acusados de asignar tasas de riesgo de reincidencia más altas a personas negras que a personas blancas en situaciones comparables. Aunque los proveedores defendieron su tecnología, diversos análisis independientes pusieron de relieve patrones de disparidad raciales.
En el mundo de la visión artificial, herramientas de etiquetado automático de imágenes han llegado a clasificar fotos de personas negras con términos gravemente ofensivos, lo que evidenció tanto la falta de diversidad en los datos como la ausencia de controles de calidad y sensibilidad cultural. Estudios con generadores de imágenes como Stable Diffusion o herramientas similares mostraron que, cuando se pedían fotografías de determinadas profesiones, aparecían sobre todo hombres blancos como directivos, mientras que a las mujeres y a personas de piel oscura se las asociaba con empleos peor valorados o incluso con roles delictivos.
En el crédito y las finanzas, los modelos que utilizan el historial bancario, el código postal o determinados patrones de gasto como variables clave pueden desembocar en una discriminación indirecta. Personas perfectamente solventes pueden ver denegadas sus solicitudes de préstamo porque el sistema, basándose en datos históricos, considera que quienes viven en determinados barrios o tienen cierto perfil socioeconómico suponen “más riesgo”, aunque el análisis individual cuente otra historia.
En la vigilancia y la seguridad, las herramientas de policía predictiva que utilizan datos de detenciones históricas han sido criticadas por reforzar la sobre-vigilancia en comunidades concretas. Si durante años se ha patrullado más en una zona por motivos raciales o de clase, los datos mostrarán más incidentes allí, y el algoritmo recomendará
volver una y otra vez, produciendo un bucle de retroalimentación que legitima prácticas discriminatorias.
Dónde se originan los sesgos informáticos en el ciclo tecnológico
Si miramos el ciclo completo de desarrollo tecnológico, los sesgos pueden aparecer prácticamente en cualquier fase. En la recogida de datos, si se usan fuentes históricas desbalanceadas o se excluyen sistemáticamente ciertas poblaciones, ya se está sembrando el problema. En el diseño del algoritmo, la elección de variables, arquitecturas y objetivos de optimización condiciona qué tipo de errores se van a tolerar más.
En la fase de entrenamiento, el famoso principio GIGO (Garbage In, Garbage Out) cobra todo su sentido: si alimentas un modelo con datos basura, por muy sofisticado que sea el algoritmo, el resultado seguirá siendo basura… pero envuelta en lenguaje técnico y métricas brillantes. El desequilibrio en los datos (data skew) puede hacer que el modelo memorice patrones de la mayoría y falle estrepitosamente en la minoría.
Durante la validación, si solo se miden métricas globales de precisión sin desglosar por subgrupos (género, edad, etnia, región…), un modelo muy injusto puede pasar los controles porque “en media” parece funcionar de maravilla. Esto se agrava si el equipo de desarrollo es demasiado homogéneo y no se plantea ciertas preguntas porque no forman parte de su experiencia vital.
En la fase de despliegue, aparecen además los efectos de bucle de retroalimentación: un sistema sesgado puede influir en el comportamiento de los usuarios y generar nuevos datos que refuerzan los mismos patrones. Por ejemplo, si un motor de recomendaciones solo muestra ciertos tipos de contenidos a determinados perfiles, con el tiempo parecerá que esos usuarios solo consumen ese tipo de contenido porque no han tenido acceso al resto.
Finalmente, en la interpretación de los resultados, el sesgo de automatización y la falta de explicabilidad pueden provocar que responsables de negocio, médicos, jueces o reclutadores acepten sin cuestionar lo que dice la máquina, incluso cuando contradice la evidencia cualitativa que tienen delante.
Cómo reducir los sesgos en la tecnología y la IA
No existe una receta mágica para eliminar por completo los sesgos, pero sí un conjunto de prácticas que pueden reducirlos significativamente. La primera es diversificar los datos: asegurarse de que los conjuntos de entrenamiento incluyen representación suficiente de todos los grupos relevantes, revisar periódicamente los desbalances y corregirlos con técnicas estadísticas y de muestreo.
En paralelo, es crucial contar con equipos de desarrollo diversos. La variedad de género, origen cultural, disciplina y experiencia vital ayuda a detectar problemas que un grupo homogéneo probablemente pasaría por alto. La equidad algorítmica no es solo un asunto de matemáticas; es un tema de diseño social y organizativo.
También se están imponiendo las auditorías de algoritmos y las pruebas de equidad (fairness tests). Antes de poner un sistema en producción, conviene evaluar cómo se comporta con distintos subgrupos, qué tipo de errores comete y a quién afectan más. Estas auditorías deberían ser periódicas y transparentes, no un mero trámite al inicio del proyecto.
La explicabilidad (Explainable AI, XAI) y la transparencia juegan otro papel clave. Cuanto más entendible sea para los usuarios y reguladores cómo y por qué un sistema toma sus decisiones, más fácil será detectar sesgos ocultos y corregirlos. Esto incluye documentar de manera clara el origen de los datos, las limitaciones del modelo y las situaciones en las que no debería usarse.
Finalmente, las normativas y la ética son el marco que obliga a tomarse todo esto en serio. Iniciativas como FATML (Fairness, Accountability, Transparency in Machine Learning), los principios de datos FAIR (Findable, Accessible, Interoperable, Reusable) y las regulaciones de la UE y de EE. UU. apuntan hacia un modelo en el que la IA debe ser justa, responsable y verificable, especialmente cuando impacta en derechos fundamentales.
Educación y regulación: los otros pilares para combatir los sesgos
El desarrollo de tecnologías responsables no depende solo de técnicos y empresas; también requiere marcos legales y una ciudadanía formada. En Estados Unidos, por ejemplo, se ha aprobado una orden ejecutiva que establece líneas maestras para la IA, incluyendo directrices sobre transparencia, seguridad y lucha contra la discriminación algorítmica. Entre otras cosas, pone el foco en la formación técnica y en la coordinación institucional para detectar y perseguir posibles violaciones de derechos.
En la Unión Europea, el Reglamento de Inteligencia Artificial persigue garantizar que los sistemas sean seguros, transparentes, no discriminatorios y respetuosos con los derechos fundamentales. La norma distingue entre distintos niveles de riesgo y establece que los algoritmos de alto riesgo no pueden tomar decisiones de forma totalmente autónoma: debe haber siempre una persona capaz de intervenir, supervisar y corregir el sistema.
Además, el Reglamento europeo exige que los modelos sean comprensibles: debe poder identificarse qué características influyen en las decisiones, con qué peso y en qué contexto. Esto abre la puerta a que personas afectadas y autoridades puedan cuestionar decisiones algorítmicas que consideren injustas, algo que con sistemas opacos era prácticamente imposible.
La educación, sin embargo, es el tercer pilar indispensable. No basta con formar a los desarrolladores en técnicas de machine learning; hace falta que entiendan el impacto social de sus creaciones, que sean conscientes de que los sesgos existen desde el minuto uno y que diseñen con esa idea en mente. De lo contrario, por muy bien intencionados que sean, acabarán replicando las mismas injusticias que ya vemos fuera de la pantalla.
También es importante que usuarios, directivos, profesionales sanitarios, jueces, periodistas y la población general tengan nociones básicas de cómo funcionan estas tecnologías y de qué riesgos implican. Solo así podrán exigir transparencia, cuestionar resultados y participar de forma informada en el debate sobre qué tipo de inteligencia artificial queremos.
Los sesgos de la tecnología no son un fallo aislado de algunos algoritmos mal diseñados, sino la manifestación digital de nuestras propias limitaciones, prejuicios y desigualdades históricas; por eso, afrontarlos exige una combinación de mejores datos, modelos más justos, supervisión humana real, marcos legales sólidos y una educación amplia que nos permita usar la IA como una herramienta al servicio de la equidad y no como un espejo que amplifica lo peor de nuestra sociedad.
Tabla de Contenidos
- Qué son los sesgos de la tecnología y por qué no son “fallos técnicos” sin más
- Sesgo en los datos de entrenamiento: cuando el problema nace en la base
- Sesgo algorítmico: decisiones de diseño que amplifican la desigualdad
- Sesgos humanos y cognitivos: cómo pensamos se cuela en la tecnología
- Sesgos sistémicos y sociales: cuando la IA hereda la historia
- La tipología del NIST: sesgos computacionales, humanos y sistémicos
- Sesgo de automatización: confiar demasiado en la máquina
- Ejemplos reales de sesgos tecnológicos y sus consecuencias
- Dónde se originan los sesgos informáticos en el ciclo tecnológico
- Cómo reducir los sesgos en la tecnología y la IA
- Educación y regulación: los otros pilares para combatir los sesgos