En una era en la que la inteligencia artificial cada vez más influye en las decisiones en educación, es fundamental examinar cómo estas tecnologías impactan a las comunidades históricamente marginadas.
La IA ofrece tanto promesas como peligros, y los padres tienen el poder de impulsar este cambio. Al involucrarse con las escuelas, colaborar con sus comunidades y abogar por transparencia e inclusividad, pueden asegurar que la IA sirva como una herramienta de empoderamiento en lugar de exclusión.
Como herramienta de capital social —las redes y recursos que ayudan a los individuos a alcanzar sus metas— la IA podría ser transformadora en la lucha contra las desigualdades sistémicas. Sin embargo, si no se diseña y utiliza cuidadosamente, corre el riesgo de amplificar inadvertidamente las disparidades existentes en lugar de abordarlas, y por eso los padres deben prestar atención.
Los modelos de IA se basan en datos, muchos de los cuales reflejan desigualdades históricas. Por ejemplo, un algoritmo que prioriza las puntuaciones en pruebas podría favorecer inadvertidamente a escuelas en vecindarios adinerados, históricamente menos diversos, al margen de las escuelas menos adineradas que sobresalen en la capacidad de respuesta cultural, la inclusividad y el fomento de entornos de aprendizaje equitativos.
Para las familias negras de bajos ingresos, especialmente aquellas que crían hijos negros, los algoritmos que favorecen a escuelas adineradas pueden reforzar las barreras sistémicas ya presentes en la educación —desde acciones disciplinarias desproporcionadas, la subrepresentación en los planes de estudios y prácticas excluyentes que pasan por alto las necesidades de los estudiantes marginados.
Pero si los algoritmos pueden tener en cuenta las diversas necesidades de los padres, los sistemas de recomendación de escuelas impulsados por IA tienen un inmenso potencial.
Imagina una herramienta de IA que actúe como un asistente útil para encontrar el jardín de infantes perfecto. Podrías decirle qué es importante para ti (como la ubicación, el aprendizaje basado en el juego o un enfoque en las artes) y podría sugerirte escuelas que podrían ser adecuadas. Sería como tener un amigo superinteligente que sabe mucho sobre escuelas y puede darte muchas ideas.
Al igual que los estudiantes de secundaria utilizan plataformas como Common App y Naviance para investigar sobre universidades, los padres podrían utilizar herramientas de IA como ChatGPT para recopilar información, comparar jardines de infantes según sus criterios y explorar opciones potenciales, utilizando efectivamente la IA como un sistema de recomendación de escuelas personalizado.
Para los padres que tienen múltiples prioridades, como la calidad académica, la representación cultural y la seguridad, la IA —al simplificar un proceso a menudo lleno de complejidades— podría ofrecer ideas valiosas.
Sin embargo, como ha destacado la investigación, los sistemas actuales de asistentes para encontrar escuelas no están libres de sesgos. En nuestra investigación, estamos explorando cómo las madres negras navegan por estos desafíos en comparación con las madres blancas, descubriendo disparidades marcadas en cómo se alinean las recomendaciones generadas por IA con las preferencias parentales.
Mientras que las madres blancas a menudo se benefician de herramientas de IA que priorizan métricas vinculadas al privilegio, las madres negras encuentran frecuentemente una discrepancia entre sus prioridades —como la seguridad y la representación cultural— y los resultados del algoritmo.
Esta discrepancia subraya la importancia de cómo los enfoques de desarrollo de IA liderados por la comunidad podrían cerrar esta brecha. Al involucrar a voces marginadas en el proceso de diseño, los desarrolladores de IA pueden crear herramientas que prioricen la equidad y la inclusividad junto con métricas tradicionales. Al formar equipos de desarrollo diversos y realizar investigaciones de usuarios con comunidades objetivo y recopilar comentarios directos de las personas que utilizarán la IA, los desarrolladores pueden obtener información crucial sobre las necesidades y preocupaciones de más usuarios.
Pero la monitorización y evaluación continua también será esencial para identificar y abordar posibles sesgos dentro de estos sistemas.
Los padres pueden y deben desempeñar un papel crucial. Para aprovechar el potencial de la IA como una herramienta para la equidad, debemos abordar sus limitaciones. Este trabajo incluye mitigar los sesgos en los datos de entrenamiento, diseñar algoritmos adaptativos que evolucionen para satisfacer diversas necesidades y garantizar la accesibilidad para todas las familias. Los padres pueden ayudar:
Participando en investigaciones y ofreciéndose como voluntarios para estudios que exploran el impacto de la IA en la educación.
Impulsando cambios en las políticas. Las políticas que requieren un diseño enfocado en la equidad en los sistemas de IA podrían incluir mandatos para datos de entrenamiento diversos, supervisión comunitaria en el desarrollo de algoritmos y auditorías regulares para garantizar que los sistemas de IA sean justos e inclusivos.
A medida que la IA continúa influyendo en la educación, es vital que abordemos estas tecnologías con optimismo y precaución. Para las madres negras y otros padres históricamente marginados, el atractivo de la IA de prometer hacer lo correcto por los usuarios no debería cegarnos al riesgo de perpetuar la desigualdad.
Al ver la IA como una forma de capital y aprovecharla para abordar las barreras sistémicas, podemos crear un futuro más equitativo para todos los niños. Juntos, las escuelas y los padres pueden reimaginar la educación —no solo como un sistema, sino como una responsabilidad compartida para brindar a cada niño la oportunidad de prosperar.
Anastasia Proctor es una estudiante de doctorado en la Universidad de Carolina del Norte en Charlotte, especializada en educación multilingüe, equidad en políticas e influencias cronopolíticas en educación. Charlitta Hatch es una estudiante de doctorado en la Universidad de Carolina del Norte en Charlotte, especializada en elección de escuelas, estrategias de participación familiar y la intersección de raza, género y dinámicas de poder en la toma de decisiones educativas.
Contacta al editor de opiniones en [email protected].
Esta historia sobre la IA y la desigualdad fue producida por The Hechinger Report, una organización de noticias independiente y sin fines de lucro centrada en la desigualdad y la innovación en la educación. Regístrate para recibir el boletín semanal de Hechinger.
El Hechinger Report ofrece informes en profundidad, basados en hechos y objetivos sobre educación que son gratuitos para todos los lectores. Pero eso no significa que sea gratuito de producir. Nuestro trabajo mantiene informados a educadores y al público sobre temas apremiantes en escuelas y campus en todo el país. Contamos la historia completa, incluso cuando los detalles son inconvenientes. Ayúdanos a seguir haciéndolo.
Únete hoy.