aialgorithmartificial intelligenceChatGPTcompetitioneducationGeneralgenerativegradesIE Universitymachine learning

El verdadero reto de la integración de la algoritmia generativa en la educación

IMAGE: Alexandra Koch - Pixabay

La incorporación de la tecnología a los procesos educativos ha sido y es siempre un reto muy complejo. Este artículo, que me temo va a ser largo, intenta reflexionar sobre ese proceso en el momento actual y en mi contexto personal, el de la educación superior.

A lo largo de los años, podemos recordar perfectamente las discusiones que generaron las calculadoras de bolsillo, Google o la Wikipedia en las clases, y cómo de injustificadas y absurdas las vemos ahora con un mínimo de perspectiva: a pesar de llevar varias generaciones utilizando calculadoras de bolsillo a partir de cierta edad, nadie se ha olvidado realmente de las matemáticas básicas, y los profesores que prohibían a sus alumnos recurrir a Wikipedia o citarla porque «cualquiera podía editarla» se ven ahora, cuando Wikipedia es ya de largo la mejor y la más completa enciclopedia de la historia de la humanidad, como auténticos cavernícolas.

Con ChatGPT, y a nivel de la educación superior, se repiten patrones similares. La primera oleada de universidades que, tras la aparición de ChatGPT en noviembre del año pasado decidieron prohibir su uso, bloquearlo en sus proxies y dotarse de herramientas de detección empiezan ya a darse cuenta de que esa actitud es absurda: ni resulta técnicamente sencilla (un alumno puede fácilmente conectarse con su smartphone y no usar la red de la institución, salvo que te conviertas en una insufrible versión del KGB), ni las supuestas herramientas de detección funcionan bien: ni ofrecen un diagnóstico infalible, ni permiten acusar a nadie salvo en casos estúpidamente evidentes como dejar un «como algoritmo generativo no puedo opinar sobre…» o el último párrafo que empieza con «En resumen…»

Cada vez es más evidente que tratar de prohibir ese tipo de herramientas generaría mucho más daño que beneficio: ante un recurso que los estudiantes utilizarán sin ninguna duda con total normalidad en su vida profesional, que las instituciones encargadas de prepararlos se dediquen a ignorarlo y esconderlo es a todas luces un absurdo total, y por supuesto, en IE University siempre tuvimos claro de qué lado estábamos en ese sentido. Cada vez más, la aproximación es no prohibirlo, sino introducirlo en las metodologías educativas para generar habilidades en su uso. Incluso Harvard recomienda cada vez más su introducción en el método del caso, aunque por el momento se limite a explicar a los profesores cómo usarlo para preparar mejor sus sesiones.

Cambiar la forma de educar para introducir los algoritmos generativos como especie de «asistentes de trabajo de lujo» parece tener cada vez más sentido: no en vano, Wikipedia supuso una forma de disponer de una enciclopedia cuasi-ilimitada y que devolvía resultados a golpe de clic, o Google evitó decenas de viajes a la biblioteca. Curiosamente, educar en su uso se convirtió en una de las formas de evitar los problemas derivados de esas herramientas: un alumno que use regularmente Wikipedia o Google en su educación, será sin duda menos susceptible de tomarlas como fuente única (y de hecho, tienden a profundizar más en las fuentes que Wikipedia cita) o de quedarse ciegamente con el primer resultado de una búsqueda en Google. En el uso de las herramientas, por supuesto, hay grados, y las universidades tenemos que asegurar que nuestros graduados son capaces de usarlas en «God mode», porque así es el compromiso de una educación superior capaz de generar ventajas a quienes optan por ella.

Sin embargo, hay un problema: a nadie se le escapa que hay dos formas de usar la tecnología, y que una de ellas ofrece un rendimiento de aprendizaje muy inferior a la otra. En teoría, los alumnos deberían recurrir a la algoritmia generativa como forma de mejorar su aprendizaje, de disponer de ese asistente fantástico capaz de extraer la información que precisan de manera más rápida, mejor o más completa. Pero nos encontramos un problema: en muchos casos, la función objetivo del alumno no es la de maximizar su aprendizaje, sino la de maximizar su calificación.

La competencia obsesiva por las notas, reforzada desde el propio sistema que ofrece mejores posibilidades a quienes terminan, por ejemplo, en la Dean’s list, en Phi Beta Kappa o entre los primeros de la promoción, hace que muchos alumnos, sobre todo los provenientes de países con sistemas ultracompetitivos como Corea del Sur o India, tiendan a utilizar herramientas como ChatGPT no tanto para aprender mejor, sino para lo que denominamos copiar, o cheating en los países anglosajones. Copiar consiste, como me temo que sabemos todos, en obtener una ventaja irregular de una herramienta o del sistema.

En el caso de la algoritmia generativa, los criterios sobre qué es copiar y que es utilizar razonablemente las herramientas no están suficientemente claros: en función de mi propio uso, tendería a pensar que recurrir puntualmente al algoritmo en busca de determinada información, de una forma de decir algo, de una explicación de un concepto o de una comprobación – es decir, como solemos definir la idea de «asistente» – es legítimo, pero solicitar, por ejemplo, un artículo completo y atribuírselo no lo es. Además, todas esas funciones, de la primera a la última, requieren un muy necesario paso adicional: la comprobación, que evita que los algoritmos generativos nos pasen por información los productos de sus no tan infrecuentes «alucinaciones».

¿Qué debe hacer un profesor? En primer lugar, no restringir el uso de las herramientas. Que las usen para lo que quieran, incluyendo cosas que no son para objetivos académicos, porque es la única manera de obtener una ventaja de la práctica. Pero en segundo, tratar de poner en valor la honestidad y, sobre todo, una cultura del esfuerzo: verificar que se usan adecuadamente para maximizar el aprendizaje, y no para tratar de engañarlo haciendo pasar como producto del intelecto del alumno lo que es simplemente una respuesta obtenida sin esfuerzo alguno. Fomentar que el algoritmo te ayude a mejorar tu razonamiento crítico, sin que se lo subcontrates completa e irresponsablemente.

En ese sentido, el enseñar a preguntar (no simplemente el llamado prompt engineering, sino algo bastante más conceptual, del tipo «qué diablos pretendo hacer») es importante y se aprende con la práctica. Pero lamentablemente, mi impresión tras muchos años es que es prácticamente imposible desligar la parte «materialista» de la función objetivo, la del alumno que pretende optimizar sus notas sin preocuparse – o despreciando – el aprendizaje como tal, mientras sigamos fomentando una enseñanza ultracompetitiva que, además, tiende a provennir de la presión social que genera el propio sistema e incluso a remunerar bien a quien la practica.

La solución no es sencilla, porque en muchos casos es la propia sociedad la que requiere que los alumnos de una institución estén ordenados en rankings, los que quieren fichar a quienes han logrado terminar en lo alto de una lista, aunque no necesariamente implique que hayan aprendido más o mejor. Las asociaciones normativas, por ejemplo, también pueden impedir a una universidad que experimente con las metodologías de calificación, y ser una fuerza difícil de contrarrestar que promueve un isomorfismo que nos perjudica a todos.

Desde mi propia metodología, el recurso a más evaluaciones grupales, por ejemplo, contribuye claramente a que se alineen la idea de aprender con la de obtener buenas notas, como también lo hacen las metodologías provenientes del desarrollo de software, como el sandboxing colaborativo o el redteaming. Pedir a los grupos, por ejemplo, que consigan que otros grupos vean – e intenten mejorar – sus trabajos antes de presentarlos, o pedirles que critiquen ferozmente los trabajos presentados (sin ser calificados por ello como «malos compañeros» por el grupo) son metodologías que tiendo a intuir mejoran ese proceso.

Pero en el fondo, mi duda sigue siendo si no deberíamos, en realidad, optar por otros sistemas de evaluación que no primen la simple obtención de una nota aislada que supuestamente «lo refleja todo», sino la consecución comprobable de unos objetivos de aprendizaje. Algo más complejo, que requeriría seguramente conocer bien a los alumnos como personas, entendiendo su origen, sus intereses, sus intenciones y su forma de pensar. Grupos posiblemente más pequeños, más tutorizados, con más relación personal con quienes intentamos provocar la dinámica de aprendizaje. Nada imposible, pero sí diferente de lo que actualmente hacemos. Hay que cambiar cómo enseñamos, y no creo que con unos pocos parches: es necesario un cambio de filosofía, de fondo.

¿Puede la incorporación de la algoritmia generativa, una herramienta potente que puede utilizarse muy bien o muy mal, ser el detonante de una reflexión en ese sentido? Francamente, me encantaría ser parte de ella.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button