¿Realmente ayuda la inteligencia artificial a los estudiantes a aprender? Un experimento reciente en una escuela secundaria proporciona una historia de advertencia.
Investigadores de la Universidad de Pensilvania descubrieron que los estudiantes de secundaria turcos que tenían acceso a ChatGPT mientras hacían problemas de matemáticas de práctica obtuvieron peores resultados en una prueba de matemáticas en comparación con los estudiantes que no tenían acceso a ChatGPT. Aquellos con ChatGPT resolvieron un 48 por ciento más de los problemas de práctica correctamente, pero en última instancia obtuvieron un 17 por ciento menos en una prueba del tema que los estudiantes estaban aprendiendo.
Un tercer grupo de estudiantes tuvo acceso a una versión revisada de ChatGPT que funcionaba más como un tutor. Este chatbot estaba programado para proporcionar pistas sin revelar directamente la respuesta. Los estudiantes que lo utilizaron obtuvieron resultados espectacularmente mejores en los problemas de práctica, resolviendo un 127 por ciento más de ellos correctamente en comparación con los estudiantes que hicieron su trabajo de práctica sin ningún tipo de ayuda de alta tecnología. Pero en una prueba posterior, estos estudiantes tutorizados por IA no mejoraron. Los estudiantes que simplemente hicieron sus problemas de práctica de la manera tradicional, por su cuenta, igualaron sus puntajes en la prueba.
Los investigadores titularon su artículo “La IA generativa puede perjudicar el aprendizaje” para dejar claro a padres y educadores que la actual generación de chatbots de IA de libre acceso puede “inhibir sustancialmente el aprendizaje”. Incluso una versión ajustada de ChatGPT diseñada para imitar a un tutor no necesariamente ayuda.
Los investigadores creen que el problema es que los estudiantes están utilizando el chatbot como una “muleta”. Cuando analizaron las preguntas que los estudiantes escribieron en ChatGPT, a menudo simplemente pedían la respuesta. Los estudiantes no estaban desarrollando las habilidades que provienen de resolver los problemas por sí mismos.
Los errores de ChatGPT también pueden haber sido un factor contribuyente. El chatbot solo respondía correctamente a los problemas de matemáticas la mitad del tiempo. Sus cálculos aritméticos estaban equivocados el 8 por ciento del tiempo, pero el problema principal era que su enfoque paso a paso para resolver un problema estaba equivocado el 42 por ciento del tiempo. La versión de tutoría de ChatGPT recibió directamente las soluciones correctas y estos errores se minimizaron.
Un borrador del artículo sobre el experimento fue publicado en el sitio web de SSRN, anteriormente conocido como la Red de Investigación en Ciencias Sociales, en julio de 2024. El artículo aún no ha sido publicado en una revista revisada por pares y aún podría ser revisado.
Este es solo un experimento en otro país, y se necesitarán más estudios para confirmar sus hallazgos. Pero este experimento fue grande, involucrando a casi mil estudiantes en los grados nueve a once durante el otoño de 2023. Los maestros primero revisaron una lección previamente enseñada con toda la clase, y luego sus aulas fueron asignadas aleatoriamente a practicar las matemáticas de una de tres formas: con acceso a ChatGPT, con acceso a un tutor de IA alimentado por ChatGPT o sin ninguna ayuda de alta tecnología en absoluto. Los estudiantes de cada grado recibieron los mismos problemas de práctica con o sin IA. Posteriormente, tomaron una prueba para ver qué tan bien aprendieron el concepto. Los investigadores realizaron cuatro ciclos de esto, dando a los estudiantes cuatro sesiones de práctica de 90 minutos en cuatro temas matemáticos diferentes para entender si la IA tiende a ayudar, perjudicar o no hacer nada.
ChatGPT también parece producir confianza excesiva. En encuestas que acompañaron al experimento, los estudiantes dijeron que no creían que ChatGPT les hubiera hecho aprender menos a pesar de que lo habían hecho. Los estudiantes con el tutor de IA pensaron que les había ido significativamente mejor en la prueba a pesar de que no fue así. (También es otro buen recordatorio para todos nosotros de que nuestras percepciones sobre cuánto hemos aprendido a menudo están equivocadas.)
Los autores compararon el problema de aprender con ChatGPT con el piloto automático. Relataron cómo una dependencia excesiva en el piloto automático llevó a que la Administración Federal de Aviación recomendara que los pilotos minimizaran su uso de esta tecnología. Los reguladores querían asegurarse de que los pilotos aún supieran volar cuando el piloto automático no funcionara correctamente.
ChatGPT no es la primera tecnología que presenta un dilema en la educación. Las máquinas de escribir y las computadoras reducen la necesidad de la escritura a mano. Las calculadoras reducen la necesidad de aritmética. Cuando los estudiantes tienen acceso a ChatGPT, podrían responder más problemas correctamente, pero aprender menos. Obtener el resultado correcto en un problema no les ayudará con el siguiente.
Esta historia sobre el uso de ChatGPT para practicar matemáticas fue escrita por Jill Barshay y producida por The Hechinger Report, una organización de noticias independiente y sin fines de lucro centrada en la desigualdad y la innovación en la educación. Regístrese en Proof Points y otros boletines informativos de Hechinger.
Artículos relacionados
El Hechinger Report ofrece informes detallados, basados en hechos y objetivos sobre educación que son gratuitos para todos los lectores. Pero eso no significa que sea gratuito producirlo. Nuestro trabajo mantiene informados a los educadores y al público sobre temas urgentes en escuelas y campus en todo el país. Contamos la historia completa, incluso cuando los detalles son inconvenientes. Ayúdenos a seguir haciéndolo.
Únase hoy.