Estudiantes universitarios inseguros acerca de las políticas de inteligencia artificial en las aulas.

A medida que las herramientas de inteligencia artificial generativa se vuelven más comunes en escuelas, lugares de trabajo y otros entornos, las universidades están lidiando con la forma de prevenir el uso indebido de la IA en el aula mientras equipan a los estudiantes para los próximos capítulos de sus vidas después de la educación superior.

Una encuesta de mayo de 2024 de Student Voice de Inside Higher Ed y Generation Lab encontró que, cuando se les preguntó si sabían cuándo o cómo usar la IA generativa para ayudar con los cursos, un gran número de estudiantes de pregrado no saben o no están seguros (31 por ciento). Entre los estudiantes que sí sabían cuándo usar la IA de manera apropiada, esa orientación provenía de los profesores (31 por ciento).

Metodología

La encuesta anual de Student Voice de Inside Higher Ed se realizó en mayo en colaboración con Generation Lab y tuvo un total de 5,025 estudiantes encuestados.

Las fechas de campo podrían poner los datos “un poco desactualizados en cómo las escuelas han adaptado e instituido políticas”, dice Chuck Lewis, profesor de inglés en Beloit College y director de su programa de escritura. “Creo que, incluso tan rápido como este otoño, apuesto a que esos números cambiarían de manera significativa a nivel nacional”.

La muestra incluye más de 3,500 estudiantes de cuatro años y 1,400 estudiantes de dos años. Más de un tercio de los encuestados eran post-tradicionales (asistiendo a una institución de dos años o de 25 años o más de edad), el 16 por ciento son estudiantes exclusivamente en línea y el 40 por ciento son estudiantes de primera generación.

El conjunto de datos completo, con visualizaciones interactivas, está disponible aquí. Además de preguntas sobre su vida académica, la encuesta preguntó a los estudiantes sobre su salud y bienestar, experiencia universitaria y preparación para la vida después de la universidad.

Los expertos dicen que proporcionar comunicación clara y transparente sobre cuándo se puede o se debe usar la IA en el aula es fundamental y requiere la aceptación y comprensión de herramientas relacionadas por parte del profesorado.

De temerosos a orientados al futuro

Solo el 16 por ciento de los encuestados de Student Voice (n=817) dijeron que sabían cuándo usar la IA porque su universidad había publicado una política sobre los casos de uso apropiado de la IA generativa para los cursos.

Los estudiantes no están desorientados sin razón; el 81 por ciento de los presidentes de universidades, a principios de 2024, informaron que aún no habían publicado una política que regule el uso de la IA, incluido en la enseñanza e investigación, según la encuesta de presidentes de Inside Higher Ed de 2024.

De manera similar, una minoría de provosts dijo, también a principios de este año, que su institución había publicado una política que rige el uso de la IA (20 por ciento), según el informe de oficiales académicos en jefe de Inside Higher Ed de 2024.

Cuando ChatGPT se lanzó por primera vez en noviembre de 2022, los administradores y otras personas que trabajan en la educación superior inicialmente entraron en pánico por cómo los estudiantes podrían usar la herramienta para el plagio.

Poco a poco, a medida que han surgido nuevas herramientas de IA generativa y un número creciente de empleadores han indicado que las habilidades de IA pueden ser necesarias en la fuerza laboral, los líderes de universidades y colegios han dado un giro, considerando la IA como una habilidad de desarrollo profesional o retrocediendo en el uso de detectores de plagio de IA, comparte Afia Tasneem, directora principal de investigación estratégica en la consultora EAB.

LEAR  Faltan firmas para otoño, organizadores apuntan a la boleta electoral de California en 2026 para restringir los derechos de las personas transgénero.

“Solo unos meses después, se notó un reconocimiento de que esta no era una tecnología que se pudiera simplemente prohibir y declarar la victoria y regresar a casa”, dice Dylan Ruediger, gerente de programa senior de la empresa de investigación Ithaka S+R. “Y desde entonces, he visto que la mayoría de las instituciones intentan encontrar marcos para pensar en la IA generativa como útil pedagógicamente”.

En el aula

Los datos de Student Voice encontraron que si los estudiantes sabían cuándo usar la IA generativa, era porque al menos algunos de sus profesores habían abordado el tema en clase (31 por ciento) o habían incluido una política en su programa (29 por ciento).

El mayor desafío para preparar a los estudiantes para la IA es lograr que el profesorado participe, dice Tasneem. Una encuesta de junio de Ithaka encontró que dos de cada cinco miembros del profesorado estaban familiarizados con la IA, pero solo el 14 por ciento se sentía seguro de poder usar la IA en su enseñanza.

“Si revisas las políticas universitarias sobre el uso de la IA generativa por parte de los estudiantes, a menudo delegarán esa decisión a los instructores individuales y aconsejarán a los estudiantes que sigan las reglas que les da cada instructor”, dice Ruediger.

Los miembros del profesorado generalmente se dividen en tres grupos: aquellos que requieren que los estudiantes usen IA, aquellos que prohíben absolutamente el uso de IA y aquellos que permiten un uso limitado de IA cuando sea apropiado, dice Tasneem.

En Beloit College en Wisconsin, la política es no tener una política a nivel institucional, dice Chuck Lewis, director del programa de escritura. “El profesorado necesita desarrollar una política informada, transparente y clara con respecto a sus propias clases y sus propias pedagogías”.

Al igual que muchos de sus colegas en programas de escritura, Lewis se enfrentó temprano al potencial de la IA en la escritura y cómo podría usarse para evitar el esfuerzo de los estudiantes. Pero Lewis se dio cuenta rápidamente de que esta tecnología era más grande que reproducir muestras de escritura y también podía servir como una herramienta para pensar más profundamente.

“La IA es una oportunidad para que revisitemos y quizás repensemos o refuerce, pero al menos para reelaborar, todo tipo de cosas que pensamos que sabemos o creemos sobre, por ejemplo, el aprendizaje y la escritura”, dice Lewis. “Nos desacostumbra, en cierto sentido, con nuestras expectativas y nuestras normas. Es una oportunidad para volver atrás y pensar, ‘Bueno, ¿qué pasa con las relaciones?’ En términos de audiencia y propósito y demás”.

Un ejemplo: En un curso de escritura creativa, Lewis y sus estudiantes debatieron cuándo está bien dejar que la tecnología produzca tu escritura, como usar respuestas sugeridas para un mensaje de texto o email o enviar un mensaje a alguien en un sitio de citas en línea.

“Si podemos alejarnos de este sobre determinado, lo que pensamos que estamos haciendo en el aula, y pensar en estos otros lugares donde estamos produciendo consumiendo contenido, nuevamente, nos desacostumbra con lo que queremos y por qué”.

En la encuesta de Student Voice, los estudiantes de instituciones privadas eran más propensos a decir que sus profesores tenían una política en el programa (37 por ciento), en comparación con sus compañeros de universidades públicas de cuatro años (31 por ciento) o de dos años (24 por ciento), lo que Lewis dice que puede deberse a la naturaleza de los colegios de artes liberales privados. “Es muy consistente con nuestra misión y nuestra marca estar muy comprometidos con los procesos de los estudiantes”.

LEAR  Millones de niños todavía faltan a la escuela. ¿Podría ser la respuesta el recreo y un poco de dinero?

A medida que las universidades y colegios elevan las habilidades de IA generativa como una competencia laboral o un factor central en la experiencia estudiantil en la educación superior, las políticas siguen siendo un desafío.

“Mientras los instructores individuales tengan la última palabra sobre cómo se usa en su aula, es probable que haya instructores que prefieran no permitir el uso de la IA generativa”, dice Ruediger de Ithaka. “El giro general hacia pensar en cómo aprovechar la IA generativa, eso ya ha sucedido, y lo que suceda a continuación dependerá en gran medida de si las personas logran encontrar formas efectivas de usarla para realmente fomentar la enseñanza y el aprendizaje”.

Brechas de equidad

Los datos de Student Voice resaltaron las brechas de conciencia entre grupos de estudiantes históricamente desfavorecidos.

El cuarenta por ciento de los estudiantes de instituciones públicas de dos años dijeron que no estaban seguros sobre el uso apropiado, en comparación con el 28 por ciento de los estudiantes públicos de cuatro años y el 21 por ciento de los estudiantes privados de cuatro años.

Los aprendices adultos (de 25 años en adelante) eran más propensos a decir que no estaban al tanto del uso apropiado (43 por ciento) en comparación con sus pares de edad tradicional (18-24 años) (28 por ciento). Los estudiantes de primera generación (34 por ciento) también eran menos propensos a estar seguros en los casos de uso apropiado de la IA en comparación con sus compañeros de generaciones anteriores (28 por ciento).

“Creo que un mal resultado sería que el conocimiento sobre cómo aprovechar esta herramienta se convierta en parte del currículo oculto”, dice Ruediger. “Realmente subraya la necesidad de ser transparente y claro, para asegurarse de que esté fomentando un uso y acceso equitativos”.

Esta tendencia podría estar relacionada con el tipo de institución a la que asisten los estudiantes, dice Lewis, con estudiantes de orígenes menos privilegiados históricamente más propensos a asistir a instituciones de dos o cuatro años que aún no han abordado la IA a nivel del profesorado.

También insinúa disparidades sistémicas más amplias de quién está usando o no la IA, dice Tasneem de EAB.

Las mujeres, por ejemplo, son menos propensas a decir que se sienten cómodas usando la IA, y las personas de grupos marginados son más propensas a decir que evitan usar herramientas como ChatGPT que regurgitan puntos de vista racistas, sexistas, edadistas y discriminatorios, agregó Tasneem.

Los líderes institucionales deben ser conscientes de estas brechas de conciencia y comprender que no usar la IA puede desplazar a grupos en el lugar de trabajo y resultar en desigualdades más adelante, dice Tasneem.

Aproximadamente una cuarta parte de los encuestados de Student Voice dijeron que han investigado cuándo deberían usar la IA generativa para comprender el uso apropiado en el aula. Los hombres eran los más propensos a decir que habían investigado por sí mismos el uso apropiado de ChatGPT (26 por ciento), mientras que los estudiantes de primera generación, los aprendices adultos (20 por ciento) y los estudiantes de dos años (19 por ciento) eran los menos propensos a decir que eso era cierto.

Los estudiantes no tradicionales y los aprendices de primera generación son más propensos a estar inseguros sobre cómo tomar decisiones en sus experiencias de educación superior, dice Tasneem. “Sienten que no saben lo que está pasando, lo que hace que sea aún más importante que los miembros del profesorado sean transparentes y claros sobre las políticas para nivelar el campo de juego sobre lo que se espera y está prohibido. Nadie debería tener que investigar por sí mismo o dudar sobre el uso de la IA”.

LEAR  Carolina del Norte: El Partido Republicano planea aprobar una escuela charter con conexiones políticas sin la revisión estatal habitual.

Puesta en práctica

A medida que las universidades y colegios consideran cómo entregar políticas e informar a los estudiantes sobre el uso apropiado de la IA, los expertos recomiendan a los líderes del campus:

Encuesta dice

La mayoría de los provosts dijeron que el profesorado o el personal han solicitado capacitación adicional relacionada con los avances en la IA generativa (92 por ciento), y alrededor de tres cuartas partes de las instituciones han ofrecido capacitación para abordar las preocupaciones o preguntas del profesorado sobre la IA en los últimos 18 meses, hasta mayo, según la encuesta de provosts de Inside Higher Ed de 2024.

Ofrecer desarrollo profesional y educación. Para preparar a los miembros de la comunidad para trabajar junto con la IA, las instituciones deben ofrecer talleres y capacitación educativa, y estas deben estar dirigidas a estudiantes y miembros del profesorado, dice Tasneem. Solo el 8 por ciento de los encuestados de Student Voice (n=413) dijeron que sabían del uso apropiado de la IA en sus cursos porque su institución había proporcionado sesiones informativas, capacitaciones o talleres sobre el tema. “A medida que aprendemos más y las instituciones comienzan a usarla más para fines académicos y operativos, comenzaremos a ver más capacitaciones adaptadas, capacitaciones específicas por disciplina”, predice.Proporcionar lenguaje de muestra. Algunos colegios han creado plantillas de programas para que los profesores las adapten y apliquen a sus cursos. El centro de enseñanza y aprendizaje de la Universidad de Washington tiene tres ejemplos para profesores que alientan, prohíben o permiten condicionalmente a los estudiantes usar la IA.Identificar campeones. Para alentar a los profesores reacios a participar con herramientas de inteligencia artificial, los administradores pueden elevar a profesores o miembros del personal que estén entusiasmados con la tecnología para que convenzan a sus colegas, dice Ruediger.Comunicarse regularmente con los estudiantes. El uso apropiado de la IA no es un tema que se pueda cubrir una vez y luego nunca más, dice Lewis. “No puede ser simplemente un texto estándar en el programa, debe estar vinculado una y otra vez a contextos específicos”. Los profesores deben investigar diferentes elementos del aprendizaje, como la investigación, la lluvia de ideas y la edición, y hablar sobre formas específicas en que la IA puede aplicarse a diversas etapas del proceso.Establecer principios rectores. La aplicación de cómo se usa la IA en el currículo debe permanecer a discreción del profesor, coinciden los expertos. Pero una política a nivel de toda la universidad puede reafirmar los valores y la misión de la institución sobre cómo abordar la IA con ética, dice Tasneem.Considerar políticas de deshonestidad académica. Permitir que el uso de la IA sea una decisión a nivel de profesor, aunque beneficioso para la enseñanza y el aprendizaje, puede crear algunos desafíos para abordar la integridad académica a medida que los estudiantes navegan por políticas diferentes en diversos cursos, dice Lewis. “Esto está a punto de complicarse mucho más en términos de los tipos de infracciones que surgirán, porque serán mucho más variables”.

¿Debería el uso de la IA generativa ser parte del plan de estudios básico de un estudiante o una competencia laboral? Cuéntanos tus pensamientos.