EN
Visión y valores

La Interpretabilidad, Clave en un Mundo Controlado por Algoritmos

12/07/2018
Una declaración sobre la equidad y la responsabilidad de los modelos de inteligencia artificial y Machine Learning

Con la cada vez más rápida adopción de la Inteligencia Artificial y el aprendizaje autónomo (Machine Learning) en importantes ámbitos de la sociedad, la falta de transparencia en torno a estos procesos se ha convertido en una preocupación perceptible entre la comunidad científica, las autoridades públicas y la sociedad en su conjunto. Desde el mundo financiero al sector de la medicina, pasando por el sistema judicial, la tendencia en los últimos años ha sido delegar la toma de algunas decisiones en modelos de procesamiento automatizado, tanto en el ámbito público como en el privado. Sin embargo, mientras éstos son capaces de superar a los humanos en muchas tareas -operan como eficaces cajas negras- no proporcionan una justificación comprensible sobre el cómo y, quizás lo más preocupante, el por qué toman las decisiones. Esta situación exige una acción inmediata de todos los actores implicados con el fin de hacer cumplir un uso responsable del aprendizaje autónomo y la AI.

Descifrar el intrincado misterio de cómo obtiene un resultado una red neuronal es, en la mayoría de los casos, una hazaña imposible de resolver por su complejidad, opacidad y la falta de normas y estándares generales. La gran cantidad de cálculos y el sistema distribuido de entradas y salidas en varias capas hace que los mecanismos internos del aprendizaje profundo (deep learning) sean difíciles de comprender, cuando no resultan directamente inaccesibles para la comprensión humana.

Esta opacidad aleja a compañías, instituciones y profesionales de una plena comprensión de los modelos que despliegan. Además, también impide la identificación y corrección de prejuicios y prácticas injustas. Como señala Kate Crawford, investigadora líder de Microsoft Research y fundadora de AI Now, “los algoritmos son tan buenos como los datos con los que han sido entrenados, y los datos a menudo son imperfectos”. Los que se entrenan con datos etiquetados son susceptibles de reproducir los prejuicios que incorporan. No en vano, los casos en los que los modelos de aprendizaje autónomo han reproducido discriminaciones existentes son muchos y muy variados, y podrían traer graves consecuencias.

En la medida en que las decisiones automatizadas tienen cada vez mayores implicaciones en el sistema judicial, sanitario y político, muchas voces están demandando un nuevo abordaje para hacer estos procesos transparentes, comprensibles y desligados de los prejuicios sociales. Los algoritmos son utilizados en la actualidad, por ejemplo, para identificar potenciales peligros para las personas, decidir quién debe ingresar en prisión provisional -porque existe alta probabilidad de fuga- o detectar noticias falsas en las redes sociales. El riesgo de tomar tales decisiones incorporando sesgos en contra de atributos sensibles como el género, la raza o la orientación sexual es demasiado grande como para ser pasado por alto. Por esto, la necesidad de entender los datos con los que se entrenan los algoritmos y la lógica que siguen para distinguir entre posibles resultados es aún más evidente en la medida en que la responsabilidad es hoy, más que nunca, un deber ético.

Pese a que muchas estrategias pueden ser viables, entender cómo trabajan los modelos es una condición necesaria hacia una automatización segura y justa. Debido a la importancia de la interpretabilidad en el aprendizaje autónomo, la disciplina científica trata de explicar los procesos que llevan los sistemas de IA a tomar una decisión determinada. Estos procesos se pueden comparar con una “caja negra”, en la que ingresan las entradas y las salidas salen sin una comprensión clara de lo que sucede entre los dos extremos. La interpretabilidad pretende iluminar lo que ocurre dentro de estas “cajas negras”.

Una línea de investigación de BBVA Data & Analytics está trabajando precisamente en una forma de interpretar modelos que no fueron creados en su origen para ser transparentes, como las redes neuronales antes mencionadas. Los beneficios de la interpretabilidad son claros: la habilidad de corregir resultados engañosos y proporcionar a los interesados información útil que les permita reivindicar sus derechos. De hecho, vale la pena recordar que quizás no sea tan importante hacer las predicciones correctas sino más bien asegurarse de que “las predicciones correctas estén fundadas sobre las razones correctas”.