Desafíos de utilizar la inteligencia artificial para dar retroalimentación y calificar a los estudiantes (opinión)

El año pasado, mis alumnos lucharon por identificar los contraargumentos a sus ideas. A menudo les falta la facilidad para pensar en nuevos temas desde otras perspectivas, porque no han desarrollado completamente la experiencia en la materia. Así que ahora enseño a los estudiantes a utilizar la inteligencia artificial para hacer preguntas desde otras perspectivas. Por ejemplo, les hago elegir párrafos de sus trabajos y les pregunto: “¿Qué preguntaría un lector escéptico sobre el siguiente párrafo?” o “¿Qué preguntas tendría un experto en X sobre este párrafo?” Después de un semestre utilizando estas preguntas con la inteligencia artificial, escuché a mis estudiantes repetirlas en sus sesiones finales de revisión entre compañeros, asumiendo el papel de un lector escéptico y planteando sus propias preguntas escépticas. ¡Y ese es el tipo de aprendizaje que quiero!

Sin embargo, esto es completamente diferente al tipo de retroalimentación evaluativa que se presenta en forma de calificación. En los últimos dos años de disponibilidad de inteligencia artificial, ha quedado claro que las herramientas de IA reflejan de vuelta a los usuarios los sesgos de sus conjuntos de datos, programadores y los propios usuarios. Incluso cuando establecemos “reglas” para protegernos contra sesgos conocidos, puede salir mal fácilmente cuando se mueve ligeramente fuera de un contexto asumido, como cuando Gemini de Google produjo un grupo “diverso” de cuatro soldados alemanes de 1943, incluyendo a un hombre negro y una mujer asiática.

Utilizar la IA para calificar trabajos no solo reflejará una falta de pensamiento crítico genuino sobre el trabajo de los estudiantes, sino también años de sesgos sobre la escritura y la instrucción de la escritura que han dado lugar a una escritura mecanizada, sesgos que profesores como yo hemos dedicado mucho tiempo y energía en intentar desmantelar. Esos sesgos, o los problemas con las nuevas reglas para prevenir resultados sesgados, simplemente no serán tan visibles como una imagen generada por IA mirándonos directamente a la cara.

LEAR  Una lista de reproducción para recordar - The New York Times

Patricia Taylor es profesora asociada de enseñanza en el Programa de Escritura Dornsife de la Universidad del Sur de California.