Creación de IEPs con GenAI garantizando la privacidad de datos.

Esta historia sobre la privacidad de los datos en educación especial apareció originalmente en el blog de CoSN y se vuelve a publicar aquí con permiso.

Puntos clave:

Adam Garry es el ex Director Senior de Estrategia Educativa de Dell Technologies y actual Presidente de StrategicEDU Consulting. A través de su experiencia como estratega de desarrollo profesional, ha apoyado a los distritos en la implementación de la Inteligencia Artificial Generativa en sus escuelas. CoSN se acercó a él para discutir la importancia de la privacidad de los datos y los diferentes enfoques hacia la creación de IEP con GenAI mientras se garantiza la privacidad de los datos de los estudiantes.

Proteger los datos de los estudiantes con discapacidades es crucial por varias razones. En primer lugar, todos los estudiantes tienen derecho a la privacidad, y su información personal y sensible debe mantenerse confidencial para protegerlos de una exposición no deseada de su Información de Identificación Personal (PII) y su posible mal uso. Garantizar la protección de esta información ayuda a prevenir la discriminación y la estigmatización, y en casos más críticos, el robo de identidad. Para garantizar la privacidad de los datos, se han diseñado estándares legales como FERPA e IDEA, que requieren que las escuelas limiten el acceso a la PII de los estudiantes. Cuando se trata del uso de herramientas de IA Generativa, los educadores deben ser conscientes de los riesgos de privacidad de datos que implica su implementación.

Los profesionales de la educación especial han comenzado a notar el potencial de la IA Generativa para crear Programas de Educación Individualizados (IEP), ya que podría ayudar a proporcionar recomendaciones de experiencias de aprendizaje personalizadas al analizar grandes cantidades de datos, y adaptar los caminos educativos a las necesidades únicas de cada estudiante. Sin embargo, hay una preocupación crítica: los IEP requieren información detallada sobre las discapacidades de los estudiantes, necesidades de aprendizaje, historial médico y rendimiento académico. Debido a que muchas herramientas y plataformas de IA utilizadas en educación son desarrolladas por proveedores externos, compartir datos de estudiantes a través de estas herramientas requiere confiar en que los proveedores manejarán los datos de manera responsable y segura. Cualquier fallo en sus prácticas de protección de datos puede resultar en acceso no autorizado o exposición.

LEAR  El Equalizer 4 y 5 en desarrollo con Denzel Washington listo para regresar - ¡Cultura OutLoud!

Adam sugiere una solución de tres niveles para la implementación segura de la IA Generativa en los distritos escolares. Los niveles están organizados en términos de cuánta personalización de la herramienta es posible. Para cada nivel, menciona que es necesario reflexionar sobre sus riesgos y recompensas.

Nivel general: Utilizando un Modelo de Lenguaje Grande (LLM) como Gemini de Google o Copilot de Microsoft

Google y Microsoft han creado sus propias herramientas de GenAI específicamente dirigidas a educadores. En un nivel más general, estas herramientas podrían ser valiosas para crear contenido personalizado para los estudiantes.

Recompensa: Microsoft y Google garantizan que sus herramientas cumplan con las regulaciones de protección de datos de los estudiantes. Estas herramientas protegen los datos de usuarios y organizaciones mientras que las interacciones de chat no se guardan. Además, estas empresas aseguran que la información de los estudiantes no se retiene ni se utiliza para entrenar los modelos de IA (Equipo de Educación de Microsoft, 2024; Google for Education, s.f.).

Riesgo: El riesgo es muy bajo en términos de seguridad, pero existe. Además, puede haber alguna pérdida de funcionalidad en comparación con otras herramientas, ya que no puede aprender a partir de una interacción previa. En otras palabras, la interacción no se guarda en el modelo.

Modelos de Lenguaje Pequeños

Los educadores podrían utilizar la tecnología de Microsoft o Google para construir un Modelo de Lenguaje Pequeño. Los Modelos de Lenguaje Pequeños son procesadores de texto más simples y eficientes en recursos que manejan tareas básicas de lenguaje y pueden ser fácilmente implementados en dispositivos cotidianos como teléfonos inteligentes. Los distritos pueden eliminar las funciones de LLM que no necesitan y enfocar la herramienta en tareas específicas, como la creación de IEP.

LEAR  HMH presenta Coachly para capacitar a educadores con coaching instructivo bajo demanda para el regreso a clases

Recompensa: Un SLM mantiene las protecciones de privacidad establecidas por Google o Microsoft mientras personaliza la herramienta para una necesidad específica. Al dirigirse a una tarea específica, también es más fácil establecer límites específicos y capacitar a los maestros.

Riesgo: Además de los riesgos mencionados con los LLM, pueden tener una base de conocimientos más limitada en comparación con un LLM.

El Modelo de Código Abierto

El distrito podría crear su propia aplicación de GenAI a través del uso de un modelo de código abierto. Este modelo es un tipo de inteligencia artificial (IA) donde el código subyacente y los datos se ponen a disposición del público para que cualquiera los use, modifique y distribuya.

Recompensa: Los modelos son altamente personalizables, lo que permite a los distritos adaptarlos a sus necesidades específicas e integrarlos con sistemas existentes. Esto les permite mantener el control sobre sus datos, asegurando que se utilicen de acuerdo con las regulaciones de privacidad y las políticas locales.

Riesgo: Configurar y mantener un modelo de código abierto requiere una experiencia técnica significativa y recursos computacionales sustanciales, lo que puede requerir inversiones adicionales en infraestructura y capacitación de personal. Hay riesgos de seguridad involucrados en el manejo de datos sensibles de los estudiantes, y es esencial garantizar una protección sólida. A diferencia del software propietario, los proyectos de código abierto pueden carecer de soporte al cliente formal, y garantizar el cumplimiento legal y regulatorio puede ser complejo y desafiante.

Sea cual sea la opción seleccionada, Adam destaca la importancia de fusionar el marco que el distrito ya tiene en su lugar para proteger la privacidad de los datos y llevar a cabo tareas específicas (como la creación de IEP) mientras detalla las herramientas, pautas y recursos necesarios en la implementación de herramientas GenAI.

LEAR  El Baluarte: Una Gran Noche para Harris, una Mala Noche para Trump

Integrar herramientas de IA Generativa en los distritos escolares ofrece beneficios significativos, especialmente en la creación de experiencias de aprendizaje personalizadas y Programas de Educación Individualizados (IEP). Sin embargo, es crucial equilibrar estas innovaciones con sólidas medidas de privacidad de datos. Al elegir el modelo de IA adecuado, ya sea un Modelo de Lenguaje Grande general, un Modelo de Lenguaje Pequeño personalizado o un modelo de código abierto personalizable, los distritos pueden mejorar la educación mientras protegen la información sensible de los estudiantes. Con una planificación cuidadosa, los distritos escolares pueden utilizar la IA para apoyar las diversas necesidades de los estudiantes en un entorno seguro e inclusivo.

Referencias:

Equipo de Educación de Microsoft. (2024, 23 de enero). Conoce a tu asistente de IA para educación: Microsoft Copilot. https://www.microsoft.com/en-us/education/blog/2024/01/meet-your-ai-assistant-for-education-microsoft-copilot/

Google for Education. (s.f.). Guía del Guardián para la IA. https://services.google.com/fh/files/misc/guardians_guide_to_ai_in_education.pdf