XAI, ¿aprendizaje automático strong clásico al rescate?
Es bien sabido que el estado actual de la inteligencia artificial y del aprendizaje automático está dominado por las arquitecturas neuronales del aprendizaje profundo.
Es también bien sabido que su popularización la ha llevado a dominios en los que las decisiones requieren, por decirlo de una manera simplificada, transparencia.
Es cada vez menos recordado que “en un principio” el término “aprendizaje automático” contenía, entre otras, las aproximaciones neuronales y que durante muchos años el uso de las mismas quedó muy restringido debido a las implicaciones de rendimiento asociadas con la gran cantidad de parámetros inherentes a su escalado.
Es muy poco citada la clasificación que en aquel comienzo se estableció entre algoritmos de aprendizaje automático capaces de generar versiones comprensibles por el ser humano de lo aprendido (ultra fuertes -ultra strong– y fuertes –strong-) y aquellos que simplemente mejoran su rendimiento a medida que se enfrentan a más datos.
Desde el punto de vista de esta clasificación, en general las técnicas de aprendizaje profundo no serían ni strong ni ultra-strong. Mientras que técnicas con unas cuantas décadas más de existencia, como la computación automática evolutiva que genera automáticamente programas que resuelven problemas a partir de los datos mediante aproximaciones genéticas, caería dentro del grupo de los modelos strong o ultra-strong.
Es en ese contexto en el que se acuña el término inteligencia artificial explicable (XAI) para recoger las iniciativas que incrementen la capacidad de justificar las decisiones de los modelos
Pongamos un ejemplo concreto. En astronomía, en astrometría, más en concreto, uno de los problemas a los que los investigadores se enfrentan es a la necesidad de obtener modelos que describan con precisión los fenómenos que miden, como por ejemplo, en qué posición exacta dentro del correspondiente píxel de los sensores de los telescopios se encuentra una estrella.
La inteligencia artificial ofrece diferentes alternativas para ayudar a los investigadores:
- El aprendizaje profundo también ha llegado a este área, por lo que se puede entrenar diferentes arquitecturas sobre datasets tanto sintéticos como reales de manera que el modelo entrenado sea capaz de obtener con suficiente procesión la posición de las estrellas.
- La regresión simbólica evolutiva (una subárea de la computación automática evolutiva que genera automáticamente expresiones simbólicas que se ajustan a los datos observados) tiene como objetivo generar expresiones analíticas explícitas para resolver el mismo problema que las aproximaciones de aprendizaje profundo.
La primera aproximación proporciona una solución eficaz cuando sólo se necesitan respuestas. La segunda además permite al investigador comprender el significado físico de la solución aprendida. Sería, por lo tanto, una aproximación “explicable”.
Esta necesidad se está produciendo con relativa frecuencia en diferentes escenarios en astronomía. Es el punto central de interés de una colaboración que en los últimos meses estamos realizando algunos investigadores de DDS en UNIR (Roberto Baena, Alejandro Cervantes, Alfonso Ortega y Marina de la Cruz, con algunos estudiantes como Ricardo Sarmiento) junto con otros grupos internacionales (como el Southern Connecticut State University) y que ha dado como fruto la reciente aceptación de una contribución para la sesión sobre “Genetic Improvement” en la International Conference on Software Engineering de este año (ICSE 2024).
Tal vez la XAI posibilite que el aprendizaje automático strong “clásico” llegue “al rescate”.