¿Puede la IA predecir la calificación de un estudiante? ¿Debería hacerlo?

lunes,27 diciembre, 2021

En el ámbito de la formación presencial existe una idea muy arraigada, con el que cualquier profesor se puede sentir identificado: un buen docente, impartiendo clase a un grupo pequeño, es capaz de saber la calificación que obtendrá cada estudiante en el examen incluso antes de celebrarlo.

Este conocimiento se basa en las interacciones entre docentes y estudiantes en el aula, las preguntas formuladas, los resultados de trabajos y, muy especialmente, las actuaciones de los estudiantes a la hora de recibir y aplicar la realimentación aportada por los docentes.

Pero este conocimiento no se basa en reglas fijas, sino que está fuertemente influido por la intuición y la experiencia del docente, que registra muchas de estas ideas a un nivel casi inconsciente, sin necesidad de una observación activa. Y esto resulta una complicación cuando la docencia se mueve al ámbito online y perdemos la interacción personal, las sutiles pistas del lenguaje corporal y, sobre todo, la comunicación más informal que se puede producir alrededor de una clase más que durante la misma.

Por otro lado, la docencia online compensa esa falta de pistas sutiles al generar una huella digital de toda la interacción: a falta de intuición, hace que dispongamos de muchísima más información digital sobre la interacción de cada estudiante con todas las facetas del proceso educativo: su asistencia a clase, su interacción con los materiales, la interacción en los foros, las sesiones de chat en directo o incluso los momentos en los que trabaja activamente (o no) en las actividades que deba entregar durante el curso.

La combinación de estas dos ideas es la que da lugar a uno de los santos griales de la investigación en ciencia de datos aplicada a la educación: la posibilidad de replicar y mejorar esta intuición del docente a partir de la huella digital dejada por el estudiante durante el proceso educativo, resultando en una predicción correcta de la calificación final que obtendría el estudiante al realizar el examen.

¿Obtendría u obtendrá? El matiz de tiempos verbales nos permite asomarnos a la profundidad de las posibles implicaciones de un sistema de Inteligencia Artificial capaz de predecir con exactitud la nota del examen:

Si tuviésemos una IA capaz de predecir la nota del examen con un 95% de precisión… ¿tiene sentido realizar el examen o podríamos quedarnos con la calificación propuesta por la IA?

Las ramificaciones de esta pregunta son muy importantes. Por un lado, existe un miedo legítimo a dejar la responsabilidad de la evaluación en manos de una IA que no sabemos cómo funciona internamente o los sesgos inherentes que podría tener. Por otro lado, lo mismo podría decirse del docente, también sesgable por naturaleza. ¿Damos credibilidad al argumento de “es que el profesor me tiene manía”? Porque la IA no tiene manías y evalúa con objetividad.

Otra ramificación interesante es qué pasa con ese 5% que no predecimos correctamente. ¿Nos atrevemos a dejar ese margen de duda? A primera vista todo el mundo respondería que NO, pero en cambio aceptamos a ciegas los resultados de los exámenes, aunque todos sabemos que tampoco son una herramienta infalible para medir el desarrollo de competencias de los estudiantes. ¿Cuántos estudiantes sacan peor calificación de la merecida por tener un mal día, haber dormido mal la noche anterior o la mera mala suerte de no haber entendido bien el significado de una pregunta?

Y posiblemente una de mis favoritas: ¿y si los estudiantes aprenden a hacer justamente lo que quiere la IA en lugar de centrarse en adquirir conocimientos? Es mi favorita porque, en mi opinión, esto es exactamente lo que sucede en la formación tradicional: la prioridad del estudiante se centra en conseguir adivinar cómo quiere el docente que responda en el examen, y la principal competencia que adquieren dichos estudiantes en el sistema educativo es la de superar las pruebas planteadas por los docentes.

Y muchas más ramificaciones: Puestos a que el sistema de evaluación sea falible, ¿preferimos el fallo humano o el fallo de una IA? Si una IA toma la decisión de suspender, ¿ante quién podemos presentar recurso? Si la IA certifica unas competencias no adquiridas, ¿quién se hace responsable de estas carencias en la formación? Y, por cierto, si un profesor enseña mal, ¿quién se hace responsable de esas carencias generadas por el profesor?

Vistas todas estas ramificaciones, es evidente que la pregunta no tiene una respuesta definitiva, y sus implicaciones éticas, docentes y profesionales son elevadas. Pero tenemos que ir acercándonos a la respuesta, dado que los sistemas de Inteligencia Artificial ya superaron hace tiempo esa hipotética capacidad de predicción con el 95% de precisión… y todavía no estamos muy seguros de qué hacer con estas capacidades.