Sesgo

Un sesgo en inteligencia artificial (IA) se refiere a la tendencia de un algoritmo a producir resultados o decisiones sesgados, favoreciendo o desfavoreciendo a determinados grupos o individuos.

Refleja sesgos humanos o fallos estructurales en los datos, los métodos de aprendizaje o el diseño de los modelos de IA. Estos sesgos pueden dar lugar a decisiones injustas, discriminatorias o inexactas, que afecten de forma desproporcionada a grupos o individuos concretos.

Una imagen que ilustra un sesgo de inteligencia artificial con directivos que en la imagen sólo están representados por hombres.

Ejemplo de sesgo de la IA:
Cuando le pides a una IA que genere una imagen con directivos, la IA crea una imagen en la que sólo aparecen hombres blancos, jóvenes, guapos, barbudos, con pelo y sin gafas...
©Alexandre SALQUE / ORSYS le mag

 


Orígenes de la parcialidad en la IA

  1. Datos de formación no representativos
    • Por ejemplo: los conjuntos de datos dominados por hombres blancos hacen que los sistemas de reconocimiento facial identifiquen peor a las mujeres o a las personas de piel oscura.
    • Un ejemplo: la herramienta de contratación de Amazon, basada en currículos históricamente masculinos, penalizaba sistemáticamente a las candidatas.
  2. Sesgos algorítmicos
    • Elección inadecuada de variables o métricas (por ejemplo, optimizar la precisión global a expensas de la equidad entre grupos demográficos).
    • Ejemplo: algoritmos de préstamo bancario que utilizan criterios indirectos (vecindad) para discriminar por motivos raciales.
  3. Sesgos cognitivos de los desarrolladores
    • Los prejuicios inconscientes de los científicos de datos (por ejemplo, asociar determinados trabajos a un género concreto) se reflejan en los modelos.
  4. Sesgo de confirmación
    • La IA refuerza los estereotipos existentes al basarse en datos históricamente sesgados (por ejemplo, la traducción sexista en Google Translate).

 


👉 Tipos comunes de sesgo

  • Sesgo de selección Datos no representativos. (por ejemplo, minorías infrarrepresentadas, datos geográficos limitados). Datos de formación que no reflejan la realidad general.

  • Sesgo de medición datos incorrectos/incompletos. (por ejemplo, errores de etiquetado, datos médicos parciales). Problemas con la recogida de datos o el etiquetado.

  • Sesgo de exclusión Omisión de variables clave. (Por ejemplo, ignorar el historial escolar para el éxito). Factores importantes desatendidos en el modelo.

  • Prejuicios estereotipados Refuerzo de los clichés. (por ejemplo, "director general" = hombre blanco). Reproducción de estereotipos sociales por la IA.

  • Sesgo de agregación : enmascarar las diferencias. (Por ejemplo: la renta media enmascara las desigualdades). Combinación de datos que borra las variaciones significativas.

  • Sesgo de confirmación confirmar los prejuicios. (por ejemplo, la investigación web favorece las teorías de los desarrolladores). La IA valida ideas preexistentes.

  • Sesgo de anclaje sobreestimación de la primera información recibida. (por ejemplo, el precio de la propiedad está excesivamente influido por el precio inicial). Insistencia excesiva en el primer dato.

  • Sesgo de atribución causa y efecto erróneos. (por ejemplo, fraude vinculado a una región y no al individuo, diagnóstico médico incorrecto basado en una correlación superficial entre dos síntomas). Relación causal incorrecta.

  • Sesgo de presentación Influencia a través de la visualización. (por ejemplo, "recomendaciones" sesgadas en el comercio electrónico). Resultados presentados de forma sesgada.

  • Sesgo histórico Reproducción del pasado sesgado (por ejemplo, el reclutamiento reproduce la infrarrepresentación de las mujeres). Aprendizaje y perpetuación de prejuicios históricos.

  • Sesgo de interacción sesgo de interacción del usuario. (por ejemplo: chatbot sesgada por las quejas de determinados grupos). La interacción del usuario modifica el comportamiento de la IA.

  • Sesgo de valoración Evaluación sesgada del rendimiento. (por ejemplo, prueba de reconocimiento facial injusta). Medición no objetiva del rendimiento del modelo.

 


💥 Consecuencias

Las consecuencias de la parcialidad en la IA pueden ser graves y afectar a muchos ámbitos:

  • Discriminación e injusticia : Los sistemas de IA sesgados pueden perpetuar e incluso amplificar la discriminación existente contra determinados grupos (por ejemplo, en el empleo, el crédito, la justicia penal, la sanidad, etc.).
  • Decisiones incorrectas o ineficaces : un sistema de IA sesgado puede tomar decisiones incorrectas o menos eficaces, porque se basa en una representación distorsionada de la realidad.
  • Pérdida de confianza : Los prejuicios pueden erosionar la confianza pública en la IA y en las tecnologías que se derivan de ella.
  • Cuestiones éticas : El sesgo plantea importantes cuestiones éticas sobre la imparcialidad, equidad, responsabilidad y transparencia de los sistemas de IA.

 


💉 Soluciones para reducir el sesgo

  1. Diversificación de datos
    • Enriquecer los juegos de entrenamiento con una variedad de muestras (por ejemplo, añadir caras de todas las etnias para el reconocimiento facial).
  2. Auditorías y pruebas A/B
    • Comparar el rendimiento de la IA en diferentes grupos demográficos antes de su implantación.
  3. Transparencia algorítmica
    • Utilice herramientas como AI Equidad 360 (IBM) o Herramienta Y si... (Google) para detectar sesgos.
  4. Equipos multidisciplinares
    • Implicar a expertos en ética, sociología y derecho para contrarrestar los prejuicios técnicos.