Por qué la inteligencia artificial en el aula necesita su propio ‘test de muñecas’ 70 años después de Brown

Puntos clave:

Al conmemorar el 70 aniversario de la histórica decisión de Brown v. Board of Education, vale la pena reflexionar sobre el papel de un simple experimento en desmantelar la doctrina de “separados pero iguales”. En la década de 1940, los psicólogos Kenneth y Mamie Clark realizaron el ahora famoso “test de la muñeca”, que reveló el impacto negativo de la segregación en la autoestima e identidad racial de los niños negros. Los hallazgos de los Clark ayudaron a revocar la doctrina de “separados pero iguales” y ganar el caso contra la segregación escolar.

Siete décadas después, a medida que los chatbots de inteligencia artificial ingresan cada vez más en las aulas, enfrentamos un nuevo desafío: asegurar que estas herramientas aparentemente útiles no perpetúen las desigualdades que Brown v. Board of Education buscaba erradicar. Así como el “test de la muñeca” expuso los efectos insidiosos de Jim Crow, necesitamos un nuevo “test de la muñeca” metafórico para descubrir los prejuicios ocultos que pueden acechar dentro de los sistemas de inteligencia artificial y moldear las mentes de nuestros estudiantes.

A primera vista, los chatbots de inteligencia artificial ofrecen un mundo de promesas. Pueden brindar apoyo personalizado a estudiantes con dificultades, involucrar a los aprendices con contenido interactivo y ayudar a los maestros a gestionar su carga de trabajo. Sin embargo, estas herramientas no son inofensivas, solo son tan imparciales como los datos en los que se entrenan y los humanos que los diseñan.

Si no tenemos cuidado, los chatbots de inteligencia artificial podrían convertirse en la nueva cara de la discriminación en la educación. Tienen el potencial de tanto exacerbar las desigualdades existentes como crear nuevas. Por ejemplo, los chatbots de inteligencia artificial podrían favorecer ciertas formas de hablar o escribir, llevando a los estudiantes a creer que algunos dialectos o patrones de lenguaje son más “correctos” o “inteligentes” que otros. Los chatbots de inteligencia artificial también perpetúan prejuicios a través del contenido que generan al producir imágenes y textos racialmente homogéneos o incluso estereotipados. Además, los chatbots de inteligencia artificial podrían responder de manera diferente a los estudiantes según su raza, género o situación socioeconómica. Debido a que estos prejuicios son a menudo sutiles y difíciles de detectar, pueden ser aún más insidiosos que las formas abiertas de discriminación.

LEAR  La alta valoración de las acciones de SOFI no puede ser justificada por su emocionante crecimiento.

La realidad es que los chatbots de inteligencia artificial ya están aquí, y su presencia en la vida de nuestros estudiantes solo crecerá. No podemos esperar a tener una comprensión perfecta de su impacto antes de interactuar con ellos de manera responsable. En cambio, necesitamos un compromiso más amplio con la integración responsable de la inteligencia artificial en la educación, que incluya investigación continua, monitoreo y adaptación.

Para abordar este desafío, necesitamos una evaluación exhaustiva, un “test de la muñeca” metafórico, que pueda revelar cómo la inteligencia artificial moldea las percepciones, actitudes y resultados de aprendizaje de los estudiantes, especialmente cuando se utiliza de manera extensiva y a edades tempranas.

Debemos desarrollar marcos sólidos para evaluar los efectos de los chatbots de inteligencia artificial en los resultados de aprendizaje, el desarrollo socioemocional y la equidad. También debemos proporcionar a los maestros la formación y los recursos necesarios para utilizar estas herramientas de manera efectiva y ética, fomentar una cultura de pensamiento crítico y alfabetización mediática entre los estudiantes, y capacitarlos para navegar por las complejidades de un mundo impulsado por la inteligencia artificial. Además, debemos promover el diálogo público y la transparencia sobre los riesgos y beneficios de la inteligencia artificial y asegurar que las comunidades más afectadas por estas tecnologías tengan voz en la toma de decisiones.

Al enfrentar los desafíos y oportunidades de la inteligencia artificial en la educación, debemos reconocer que el surgimiento de los chatbots de inteligencia artificial presenta una nueva frontera en la lucha por la equidad educativa. No podemos ignorar el potencial de estas herramientas para introducir nuevas formas de prejuicio y discriminación en nuestras aulas, reforzando las injusticias que Brown v. Board of Education buscaba abordar hace 70 años.

LEAR  Seis jueces haciendo su mejor esfuerzo para acabar con la democracia estadounidense.

Debemos asegurarnos de que los chatbots de inteligencia artificial no se conviertan en la nueva cara de la desigualdad educativa al moldear las mentes y futuros de nuestros niños de maneras que perpetúen injusticias históricas. Al abordar este momento con cuidado, pensamiento crítico y un compromiso con el aprendizaje y adaptación continuos, podemos trabajar hacia un futuro donde la inteligencia artificial sea una herramienta para el empoderamiento educativo en lugar de una fuerza dañina.

Sin embargo, si no somos proactivos, podemos encontrarnos necesitando realizar verdaderos tests de muñecas para descubrir el daño causado por los chatbots de inteligencia artificial sesgados. Depende de nosotros asegurar que la integración de la inteligencia artificial en la educación no socave el progreso que hemos logrado hacia la equidad y la justicia educativa.

Priten Shah, Escritor Colaborador

Priten Shah es el autor de la publicación de Wiley’s Jossey-Bass, “AI & The Future of Education: Teaching in the Age of Artificial Intelligence.” Tiene una licenciatura en filosofía y una maestría en políticas educativas de la Universidad de Harvard.

Latest posts by eSchool Media Contributors (see all)