
Equidad en la IA: ¿Cómo abordar los prejuicios para construir sistemas equitativos?
Lo dijo D.H. Lawrence: la ética, la equidad y la justicia no cambian con el calendario. Son cuestiones atemporales, aunque el contexto social y cultural influye en la definición de lo que consideramos ético, equitativo y justo.
Sin embargo, cuando trasladamos estos conceptos a los sistemas de inteligencia artificial (IA), debemos asumirlos como principios universales. Bajo esta premisa surge el concepto de IA responsable, que establece principios fundamentales para un diseño, desarrollo e implementación éticos. Uno de estos principios es la equidad (fairness), que se refiere a la necesidad de garantizar que los sistemas de IA no favorezcan ni discriminen sistemáticamente a individuos o grupos.

La equidad se preserva a través de los siguientes pilares fundamentales:
- La igualdad de oportunidades, que implica construir sistemas que no introduzcan sesgos injustificados en el acceso o la participación de distintos colectivos.
- La igualdad de desempeño, que busca evitar que los sistemas funcionen de manera desigual según los atributos protegidos de las personas.
- El control de sesgos, que incluye medidas para detectarlos y mitigarlos a lo largo de todo el ciclo de vida del sistema, mediante técnicas específicas, entre ellas herramientas como los guardarraíles.
La IA también tiene prejuicios
El sesgo es parte de la experiencia humana. Se forma a partir de nuestras vivencias, nuestro entorno y las normas sociales que nos moldean. Estos sesgos influyen en nuestras decisiones; concretamente, cuando diseñamos y entrenamos sistemas de inteligencia artificial, los sesgos pueden filtrarse en la tecnología.
Tomemos un ejemplo: un sistema de reconocimiento facial entrenado en su mayoría con imágenes de personas blancas. Esto llevará a tener más errores para identificar personas de otros grupos étnicos. Lo mismo sucede con los algoritmos de contratación: si el historial de empleados está dominado por hombres, la IA puede aprender a favorecer candidatos con características similares perpetuando disparidades de género sin que nadie lo programe explícitamente para hacerlo.
El sesgo en la IA es tanto un problema técnico como un problema social. Puede colarse en los datos, pero también en las decisiones que se toman en cada etapa del ciclo de desarrollo: desde la definición del problema hasta el diseño del modelo, la selección de variables o la forma en que se evalúan los resultados. Sus consecuencias pueden ser graves, ya que pueden reforzar estereotipos existentes y afectar negativamente la vida de personas que quedan atrapadas en un sistema que no las reconoce de manera justa.

Por eso, es fundamental que los desarrolladores de IA vayan más allá de crear modelos eficientes: deben cuestionar activamente qué sesgos pueden estar incorporando, incluso de forma inconsciente. Para ello, contar con equipos diversos es clave, ya que aportan distintas perspectivas y ayudan a identificar puntos ciegos que podrían pasar desapercibidos en entornos homogéneos.
¿Cómo garantizar la equidad en los datos?
La equidad en los datos es el primer paso para garantizar que los sistemas de IA sean justos. Si los datos con los que se entrena un modelo están sesgados o desbalanceados, el modelo reflejará y amplificará estos sesgos,independientemente de los esfuerzos que se hagan en las etapas posteriores de desarrollo.
El primer paso para evaluar posibles sesgos en los datos es cuantificar la paridad estadística, lo que implica comprobar que las tasas de resultado positivo sean similares entre los distintos grupos protegidos y garantizar que ninguno esté sistemáticamente favorecido o desfavorecido..
A su vez, deben realizarse auditorías de representación, verificando que los datos de grupos minoritarios no estén infrarrepresentados o mal representados. Esto puede requerir ampliar los datos para incluir más ejemplos de estos grupos o revisar las características del modelo para asegurarse de que no favorezcan inadvertidamente a un grupo sobre otro.
Otro enfoque importante es el análisis de correlación, que permite identificar si existen relaciones no deseadas entre atributos sensibles (como género, etnia o edad) y otras características del conjunto de datos.
Una vez identificado un sesgo en los datos, el siguiente paso es mitigarlo. Esto puede incluir técnicas como la re-escalación de datos para equilibrar grupos subrepresentados, la eliminación de variables sesgadas o el aumento de datos, generando ejemplos adicionales sin distorsionar la naturaleza de los datos. Sin embargo, es importante recordar que, si bien las correcciones en los datos pueden reducir el sesgo, no son suficientes por sí solas; las prácticas de entrenamiento y la supervisión constante son igual de cruciales.
¿Y en los modelos?
Los modelos de IA en sí mismos también pueden ser una fuente de sesgo. Incluso si los datos son imparciales y representativos, el modelo puede introducir sesgos durante su entrenamiento, particularmente si las técnicas y los algoritmos utilizados no están diseñados para mitigar las disparidades entre los grupos. A menudo, esto se debe a cómo los algoritmos ponderan las características durante el proceso de aprendizaje o a cómo interpretan los patrones que se encuentran en los datos.
Una forma de evaluar la equidad de un modelo es a través de la auditoría de desempeño. Esto implica medir el rendimiento del modelo en escenarios diversos y en diferentes grupos demográficos para asegurarse de que no favorezca injustamente a uno sobre otro. Además, es crucial aplicar métricas de equidad, como la paridad predictiva o la igualdad de oportunidades.
Para abordar los sesgos en los modelos, se pueden aplicar técnicas como la reponderación de características, en la que se ajustan los pesos de las características del modelo para evitar que los atributos sensibles (como género o etnia) tengan un impacto desproporcionado en las decisiones. Otra opción es ajustar los umbrales de decisión, de manera que el modelo no favorezca a un grupo frente a otro en base a una variable, sino que permita decisiones más equitativas entre los grupos.
Equidad en la IA generativa
A diferencia de la IA tradicional, que a menudo se enfoca en casos de uso específicos, los sistemas de IA generativa, como los grandes modelos de lenguaje, se implementan en contextos muy diversos, lo que magnifica el riesgo de generar salidas sesgadas.
Por ejemplo, un modelo generativo que crea descripciones de empleo podría, sin intención, reflejar sesgos históricos, como asociar el liderazgo con los hombres y el cuidado con las mujeres, perpetuando así estereotipos y desigualdades.
El problema principal no es solo el sesgo en los datos, sino cómo estos modelos, al maximizar su utilidad (por ejemplo, buscando mayor interacción, clics o satisfacción del usuario), pueden generar contenidos que, aunque aparentemente neutrales, refuerzan normas sociales dañinas o benefician de manera desproporcionada a ciertos grupos.
Esto resalta la necesidad de ir más allá de la detección de sesgos en los datos y de guiar de manera activa los “valores emergentes” del modelo, para evitar que se propaguen narrativas nocivas, privilegien ciertos puntos de vista o marginalicen voces subrepresentadas.
Para garantizar la equidad en la IA generativa, es necesario realizar auditorías continuas de los datos y los resultados. Esto implica ajustar los objetivos del modelo para incluir restricciones de equidad, probarlo en diversos contextos reales para identificar disparidades ocultas y, lo más importante, involucrar a eticistas, legisladores y comunidades impactadas en el proceso de diseño y evaluación..
Midiendo la equidad: resumen de métricas
Las métricas de equidad ayudan a identificar sesgos en los resultados, además de guiar el proceso de mejora y ajuste de los modelos. Algunas métricas son:
- Paridad estadística. Asegura que las tasas de aceptación sean iguales entre los diferentes grupos demográficos. Si un grupo obtiene resultados desproporcionadamente distintos a los del otro grupo, esta métrica indica la posible existencia de sesgos.
- Tasa de igualdad de oportunidades. Mide si las personas calificadas de diferentes grupos tienen las mismas probabilidades de recibir una predicción positiva. Es particularmente útil en contextos como contratación o crédito, donde las oportunidades deben distribuirse de manera equitativa.
- Paridad predictiva. Asegura que las predicciones sean igualmente precisas entre los grupos. Por ejemplo, si un modelo predice tasas de reembolso de préstamos, la paridad predictiva asegura que la precisión sea consistente a través de categorías demográficas.
- Análisis de impacto dispar. Evalúa si las salidas de un sistema de IA afectan de manera desproporcionada a un grupo sobre otro, utilizando una comparación de umbrales de impacto.
Aunque estas métricas proporcionan una manera de hacer frente a los sesgos, es común que entren en conflicto. Por ejemplo, optimizar la igualdad de oportunidades podría comprometer la paridad predictiva. Lograr una verdadera equidad requiere encontrar un balance entre estas métricas, teniendo en cuenta el contexto específico y los valores sociales que guían el uso de la IA.
Además, las métricas por sí solas no son suficientes. Es vital realizar auditorías para detectar sesgos o patrones no deseados en los resultados del modelo, e incorporar la supervisión humana durante el proceso de evaluación y ajuste para identificar problemas que no podrían ser detectados por las métricas cuantitativas.
Conclusión: ¡análisis sociotécnico!
Los sistemas de IA no existen en un vacío; interactúan con los contextos sociales, culturales y económicos en los que operan. Por ello, es necesario aplicar un enfoque integral para identificar dinámicas de poder ocultas y consecuencias no deseadas que podrían pasar desapercibidas en una evaluación puramente técnica.
Aquí es donde entra el análisis sociotécnico, que enfatiza la necesidad de compromiso con la comunidad, evaluaciones contextuales y una colaboración interdisciplinaria que combine la experiencia técnica, ética y científica social.
La integración de estos enfoques en cada etapa del desarrollo de IA asegura que los sistemas, más allá de su eficiencia, sean justos y estén alineados con las necesidades sociales. El reto técnico se traduce en un reto socio-técnico, donde nuestra consciencia sobre la existencia de sesgos puede llevarnos a construir modelos mucho más justos e inclusivos.