jueves, 9 de mayo de 2019

Evaluacionismo

Acabamos de publicar un nuevo número de nuestra revista de formación del profesorado eCO con un monográfico sobre evaluación en el que participo además, con dos artículos, uno de ellos dedicado precisamente al evaluacionismo que da título a esta entrada.
Me refiero con esta denominación a la introducción de la mecanización de la evaluación con verdadera reverencia y cuyo máximo exponente sería la encomienda de la evaluación a la inteligencia artificial y por supuesto, una parte más de la mecanización de la función educativa.
Obsérvese que al hablar de funciones y no de trabajadores ya estamos abriendo el camino a que estos desempeños no tengan que hacerlos humanos sino también máquinas, cuando no otros seres vivos o vivientes (lo que daría incluso para una serie de educación con zombies).
Todo tiene su origen en la importancia del dato y de lo científico-técnico que nuestra sociedad considera indispensable para el progreso y a la que se confiere cada vez más la toma de decisiones que como humanos tememos adoptar por nosotros mismos con confiabilidad. De esta forma la cantidad de datos y la calidad de su extracción (léase por ejemplo, estándares de evaluación) ha ido aumentando hasta hacerse no imposible sino insoportable e insufrible un manejo somero por parte del profesorado.
La cuestión es que la máquina que sería una ayuda inicial se acaba convirtiendo en un protagonista indispensable ya que es la única que da fiabilidad al proceso, pero de la necesidad de la máquina se puede pasar fácilmente a su dominio.
Ni en el caso de la inteligencia artificial veo yo por ahora un peligro de que la máquina domine al profesorado. La idea básica de la inteligencia artificial es dotar al mecanismo de operaciones eficaces que puedan mejorarse en sí mismas pero no que la máquina pueda contar con una conciencia propia que, por ejemplo, la capacite para tener deseos (supuestamente) espontáneos. Eso que daría realmente independencia a la máquina que podría incluso decidir hacer huelga o sublevarse contra la evaluación no es que esté lejos, es que no parece que pueda o se quiera que suceda ni siquiera en el caso de sus propios creadores.
El problema -o los problemas- son otros. Además de todos los malos usos que pudieran darse-, los problemas vendrían más bien de dos posibles hechos: del azar de un conflicto interno o del oscuro poder de una caja negra. Lo primero es siempre posible cuando se ejecutan algoritmos cuyas decisiones a veces pueden entrar en conflicto o resultar imprevisibles (de ahí que en realidad no sean azarosas sino para nuestro conocimiento). Esto ocurriría en ciertos casos y una vez detectados, se subsanaría. Lo segundo es más preocupante porque lo que ocurre en esa caja es desconocido para nosotros y quien tiene su orden en la mano puede construirla a su antojo haciéndonos creer que su funcionamiento responde a lo que queremos en lugar de responder a lo que realmente desea quien detenta el poder.
Estas ideas pueden parecer evaluación ficción en otros lugares del mundo, pero en realidad son fácilmente comprensibles para quienes trabajan en un sistema de gestión educativa tan altamente automatizado como es el de Andalucía.
Disponer de módulos o aplicaciones que realicen los cálculos de la calificación de una evaluación es importante porque ayuda al refinamiento de las dimensiones evaluadas. Otra cosa es que esta calificación suplante a la evaluación completa y la máquina no solo imponga sus conclusiones sino que designe sus consecuencias y comunicación. Cuanto más se extienda la mecanización del proceso de evaluación, no tendrá más poder la máquina, sino su propietario, de forma que el peligro mayor no es la desaparición del profesorado como poder educativo, sino la concentración de ese poder en menos manos (¿en una mano quizá?) y menos sometidas a control.

1 comentario:

Related Posts Plugin for WordPress, Blogger...