XAI: rebautizando la “tortilla de patatas”

lunes,4 marzo, 2024

Por Alfonso Ortega de la Puente

¿Cómo habría llamado Gurb1  a la tortilla de patatas?

Discúlpeme el lector por resumir en los siguientes párrafos conceptos que seguramente ya conozca y que en este mismo blog posiblemente ya se hayan presentado.

Si salimos a la calle y preguntamos qué es la inteligencia artificial (IA) es posible que acabemos concluyendo que el éxito de las arquitecturas de aprendizaje profundo ha conseguido que de forma popular la IA se reduzca a aprendizaje automático y éste al aprendizaje profundo.

Y es que el tiempo es oro y además se escapa entre los dedos como la arena seca de la playa: vamos moviéndonos cada vez más deprisa en casi todos los ámbitos.

En 1988 Michie2 propuso una clasificación de los algoritmos de aprendizaje automático en función de la comprensibilidad de lo aprendido. Los más potentes generarían nuevo conocimiento, los potentes generaría una versión legible por el humano de lo aprendido y los de menor potencia simplemente aprenderían a imitar con precisión los patrones ocultos en los datos procesados.

Aproximadamente a mitad de la década de los 50 del siglo pasado, se agruparon las iniciativas de IA basadas en manipulaciones simbólicas (no numérico – estadísticas) en lo que se conoció como IA simbólica. El objetivo de su diseño era capturar y modelizar los procesos de la inteligencia humana para reproducirla. Desde la perspectiva de Michie, por diseño, estos modelos evidenciaban la máxima potencia desde el punto de vista de la comprensibilidad.

En la década de los 40, pero especialmente a mitad de la siguiente del siglo pasado, también nacieron y comenzaron a ser utilizadas las arquitecturas neuronales basadas en modelos de aprendizaje numérico-estadístico.

Es cierto que el “estándar de hecho” en aprendizaje automático se centra en la actualidad en las arquitecturas neuronales de aprendizaje profundo, cuya naturaleza numérico-estadística es capaz de imitar muy eficazmente los patrones presentes en los enormes conjuntos de datos a los que se enfrentan. En general su propio diseño se enfoca en eso: garantizar que ante nuevos datos se genere la respuesta que más probablemente la sociedad, que es en esencia quien genera estos conjuntos de datos, produciría. Y eso es así, precisamente, porque es lo más probable que ocurra.

Por su propio diseño, estos modelos “imitan” las decisiones que aprenden pero no “las explican”

Inicialmente la conveniencia, actualmente la necesidad, de explicar por qué se toman las decisiones en función del propio proceso de razonamiento y no sólo en términos de “la respuesta más probable”, ha llevado al nacimiento de lo que se conoce como IA explicable (XAI). Como área emergente ha tenido la necesidad de acuñar su terminología: explicabilidad, interpretabilidad, opacidad, transparencia, entre otros.

En el año 2021, durante la celebración de la IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) se desarrolló el XAI4Biometrics – Workshop on Explainable & Interpretable Artificial Intelligence for Biometrics en el que algunos colegas y yo mismo presentamos una propuesta de aplicación de modelos de IA simbólica como alternativa a la XAI. Gran parte de la sesión se dedicó, como reflejo del estado del arte de la disciplina en aquel momento, a discutir cómo se debía llamar a esos modelos capaces por diseño de producir versiones comprensibles por el humano de lo aprendido.

Tal vez Gurb, con el paladar aún reconfortado por el sabor de esa masa amarilla untuosa y con suaves tropezones, simplemente volviera su cabeza al cocinero y le preguntara “¿cómo se llama esto que estoy comiendo?” para aprender que se llama “tortilla de patatas”.

—-

1 Sin noticias de Gurb. Eduardo Mendoza.  Seix Barral – 9788432207822, Barcelona 2001

2 Michie, D. (1988). Machine learning in the next five years. In Proceedings of the third European working session on learning (pp. 107–122). Pitman.