Tu política de IA ya está obsoleta (opinión)

Durante los últimos dos años, muchos de nosotros hemos escrito políticas de cursos, programas y universidades sobre inteligencia artificial generativa. Tal vez prohibiste la IA en tu curso de composición de primer año. O quizás tu programa de informática tiene una disposición amigable. Y las oficinas de seguridad de la información académica e integridad académica de tu campus pueden tener sus propias pautas.
Nuestro argumento es que la integración de la tecnología de IA en plataformas existentes ha vuelto obsoletos estos marcos.
Todos sabíamos que este panorama iba a cambiar. Algunos de nosotros hemos estado escribiendo y hablando sobre “el cambio”, en el que Gemini y Copilot están integrados en todas las versiones de las suites de Google y Microsoft. Un mundo en el que cuando abres cualquier documento nuevo, se te preguntará “¿En qué estamos trabajando hoy?”

Este mundo está aquí, en cierto modo, pero por el momento estamos en un momento de integración irregular. Hace un año, Ethan Mollick comenzó a referirse a los modelos actuales de IA como una “frontera irregular”, con modelos más adecuados para algunas tareas, mientras que otras capacidades permanecían fuera de alcance. Estamos tomando intencionalmente ese lenguaje para referirnos a este momento de integración irregular donde el interruptor no se ha activado, pero la integración nos rodea de formas difíciles de anticipar e imposibles de construir orientación tradicional para.
Casi todas las políticas que hemos visto, revisado o escuchado imaginan un mundo donde un estudiante abre una ventana del navegador, navega a ChatGPT o Gemini, e inicia un chat. Nuestras propias políticas de programa sugeridas en la Universidad Estatal de California, Chico, políticas que ayudamos a redactar, conceptualizan este mundo con orientaciones como “Se le informará cuándo, dónde y cómo se les permite utilizar estas herramientas, junto con orientación para la atribución”. Incluso las pautas de la Universidad de Pensilvania, que han sido algunas de nuestras favoritas desde el principio, tienen un lenguaje como “Las contribuciones generadas por IA deben ser citadas adecuadamente como cualquier otro material de referencia”, un lenguaje que asume que las herramientas son algo que se utiliza intencionalmente. Así es como funcionaba la IA durante aproximadamente un año, pero no en una era de integración irregular. Considera, por ejemplo, la creciente integración de la IA en los siguientes ámbitos:
Investigación. Cuando abrimos algunas versiones de Adobe, hay un “asistente de IA” incrustado en la esquina superior derecha, listo para ayudarte a entender y trabajar con el documento. Abre una aplicación de citas y referencias en PDF, como Papers, y ahora te recibirá un asistente de IA listo para ayudarte a entender y resumir tus trabajos académicos. Un estudiante que lee un artículo que subiste, pero que no recuerda un punto clave, usa el asistente de IA para resumir o recordar dónde leyó algo. ¿Ha usado esta persona IA cuando había una prohibición en la clase? Incluso cuando estamos evaluando a nuestros colegas en expedientes de permanencia y promoción, ¿necesitas prometer no presionar el botón cuando estás leyendo cientos de páginas de evaluaciones de enseñanza de estudiantes? Desde una perspectiva de seguridad de la información, entendemos los problemas con el uso de datos sensibles dentro de estos sistemas, pero ¿cómo evitamos la IA cuando está integrada en los sistemas que ya estamos utilizando?

LEAR  Keir Starmer critica la 'montaña de desorden' dejada por el último gobierno | Noticias de Política

El primer resultado en muchas búsquedas de Google es ahora un resumen de Gemini. ¿Cómo debemos decir a los estudiantes que eviten los resultados de búsqueda generados por IA? Google al menos tiene la cortesía de identificar los suyos (probablemente como una promoción de Gemini), pero no tenemos idea de cómo estos sistemas están suministrando resultados o resúmenes a menos que los motores de búsqueda nos lo digan. La característica común aquí y a lo largo de este artículo es que estas tecnologías están integradas en los sistemas que ya estábamos utilizando, nosotros y nuestros estudiantes.
Desarrollo. El nuevo iPhone fue diseñado a propósito para la nueva Inteligencia de Apple, que impregnará todos los aspectos del sistema operativo de Apple y el campo de entrada de texto y a menudo funcionará de maneras que no son visibles para el usuario. Apple Intelligence ayudará a ordenar notas e ideas. Según CNET, “La idea es que Apple Intelligence está integrada en tu iPhone, iPad y Mac para ayudarte a escribir, hacer las cosas y expresarte”. Muchos estudiantes utilizan teléfonos para completar trabajos académicos. Si utilizan un iPhone compatible, podrán generar y editar texto directamente en el dispositivo como parte del software del sistema. Además, Apple se ha asociado con OpenAI para incluir ChatGPT como una capa gratuita sobre la Inteligencia de Apple integrada en el sistema operativo, con rumores sobre la adición de Google Gemini más adelante. Si un estudiante utiliza la Inteligencia de Apple para ayudar a organizar ideas o reescribir su publicación de discusión, ¿ha utilizado la IA como parte de su proyecto?
Una tecnología que está ganando tracción es NotebookLM de Google. Esta es la única tecnología no integrada de la que estamos hablando, pero eso se debe a que está diseñada para ser la tecnología para escritores, investigadores y estudiantes. Esta es una plataforma notable que permite al usuario cargar una gran cantidad de datos, como una década de notas o PDF, y luego el sistema genera resúmenes en múltiples formatos y responde preguntas. El autor y desarrollador Steven Johnson es claro en que este sistema es un posible obstáculo en entornos educativos, pero no está diseñado para producir ensayos completos; en su lugar, genera lo que pensaríamos como materiales de estudio. Aun así, ¿es la decisión de involucrarse con esta plataforma para hacer trabajo organizativo y conceptual lo mismo que copiar y pegar de ChatGPT?

LEAR  Nueva batalla por la privacidad está en marcha mientras los dispositivos tecnológicos capturan nuestras ondas cerebrales.

Producción. ¿Has notado que las funciones de autocompletar en Google Docs y Word han mejorado en los últimos 18 meses? Es porque están impulsadas por un aprendizaje automático mejorado que es adyacente a la IA. Cualquier producción de contenido que hagamos incluye funciones de autocompletar. Google Docs ha tenido esto activo desde 2019. Puedes usar Gemini en Google Docs en Workspace Labs ahora mismo. ¿Necesitamos incluir instrucciones para desactivar el autocompletar para estudiantes o personas que trabajan con datos sensibles?
Cuando inicias sesión en Instagram o LinkedIn para publicar una actualización, un asistente de IA ofrece ayuda. Si estamos enseñando a los estudiantes producción de contenido para marketing, relaciones públicas o desarrollo de habilidades profesionales, ¿necesitan divulgar si la IA integrada en las plataformas de contenido les ayudó a generar ideas?
Más allá de la política
No queremos ser frívolos; estas son preguntas increíblemente difíciles que socavan los cimientos de las políticas que acabábamos de empezar a construir. En lugar de reformular políticas, que probablemente tendrán que ser reescritas una y otra vez, instamos a instituciones y profesores a adoptar un enfoque diferente.
Proponemos reemplazar las políticas de IA, especialmente las políticas de los programas, con un marco o una disposición. El enfoque más fluido sería reconocer que la IA está omnipresente en nuestras vidas en la producción de conocimiento y que a menudo estamos interactuando con estos sistemas quieras o no. Se reconocería que la IA es tanto esperada en la fuerza laboral como inevitable. Los profesores también podrían indicar que el uso de la IA será parte de un diálogo continuo con los estudiantes y que damos la bienvenida a nuevos casos de uso y herramientas. Puede haber momentos en los que animemos a los estudiantes a trabajar sin utilizar estas herramientas, pero esto es una cuestión de conversación, no de política.

LEAR  Milwaukee vuelve a un antiguo manual de instrucciones para enseñar matemáticas en los primeros grados.

Alternativamente, los profesores pueden identificar estas integraciones como una amenaza para el aprendizaje de los estudiantes en algunos campos de estudio. En estos casos, debemos utilizar el plan de estudios como un lugar para articular por qué los estudiantes deberían trabajar independientemente de la IA y cómo pretendemos prepararlos para hacerlo. Nuevamente, enmarcar esto como una conversación continua sobre la integración de tecnología en lugar de una política trata a los estudiantes adultos como adultos al tiempo que reconoce la complejidad de la situación.
Sigue habiendo una discrepancia entre el ritmo del cambio tecnológico y la tasa relativamente lenta de adaptación universitaria. La creación temprana de políticas siguió los mismos marcos y procesos que hemos utilizado durante siglos, procesos que nos han servido bien. Pero lo que estamos viviendo en este momento no se puede resolver con resoluciones del Senado Académico o incluso con el trabajo de instituciones relativamente ágiles. Habrá un momento en un futuro próximo en el que la integración irregular se suavizará en una integración completa, donde la IA estará en el núcleo de cada sistema operativo y software. Hasta ese momento, en el aula, en la evaluación entre pares y en la estructura institucional, tenemos que pensar en esta tecnología de manera diferente y avanzar más allá de la política.

Zach Justus es director de desarrollo docente y Nik Janos es profesor de sociología, ambos en la Universidad Estatal de California, Chico.

Deja un comentario