Las universidades están empleando cada vez más tecnología digital que puede rastrear los movimientos de los estudiantes por el campus, monitorear cuánto tiempo pasan en los sistemas de gestión del aprendizaje, identificar a aquellos que necesitan asesoramiento y orientar a algunos hacia ciertos cursos, entre otros usos.
“La educación superior se está volviendo cada vez más sinónimo de vigilancia digital en los Estados Unidos”, escribe Lindsay Weinberg en la introducción de su nuevo libro, Smart University (Johns Hopkins University Press, 2024).
Publicado este mes, el libro documenta el surgimiento de esta tecnología en el campus, cómo las universidades dependen de sus herramientas y los problemas que podrían presentar. La tecnología, si bien se presenta como una forma de reducir costos y mejorar la sostenibilidad del campus, puede en realidad perpetuar las desigualdades raciales y económicas en el sistema de educación superior, argumenta Weinberg, profesora asociada clínica en la Universidad de Purdue.
“La vigilancia del comportamiento de los estudiantes forma la base de la universidad inteligente, a menudo de formas que resultan perjudiciales para los estudiantes, especialmente aquellos que ya están marginados dentro de la academia”, escribe.
Weinberg utiliza el término “universidad inteligente” para describir las transformaciones digitales en el sector, pero va más allá de la tecnología implementada en los campus. “Estas iniciativas surgen de y promulgan visiones de lo que es más necesario para el futuro de la educación superior”, escribe.
Weinberg habló con Inside Higher Ed sobre su nuevo libro. La entrevista ha sido editada por razones de longitud y claridad.
P: En el libro, eres bastante escéptico sobre cómo las universidades están utilizando la tecnología de vigilancia y el uso de big data como personalización y análisis predictivo. ¿Por qué es eso y qué les dirías a aquellos que argumentan que solo están tratando de ayudar a los estudiantes a graduarse?
R: Incluso en teoría, hay momentos en los que estas herramientas funcionan. Un ejemplo del que hablo en el libro es la Universidad Estatal de Georgia, donde el uso de análisis predictivos aumentó la persistencia de los estudiantes en el grado. Pero también terminó enviando a muchos estudiantes de color a caminos de grado menos lucrativos debido a prejuicios históricos en estos conjuntos de datos. Realmente depende de quién define qué aspecto debe tener una herramienta exitosa.
También estoy realmente interesado en el libro en pensar en qué otros tipos de soluciones se plantean fuera de lo que es posible abordar en la educación superior. Por lo tanto, estas tecnologías están muy orientadas a tratar de influir y moldear la conducta y el comportamiento individual de los estudiantes. Pero cuando se trata de la responsabilidad institucional, de cuestiones de política pública, de desafíos de discriminación de larga data en la educación superior, estos se plantean como fuera de lo posible de abordar.
Realmente es esa idea la que intento problematizar en el libro. A veces estamos utilizando la tecnología en lugar de abordar algunos de estos problemas estructurales más arraigados que están relacionados con cuestiones de austeridad y discriminación.
Q: A lo largo del libro, hablas sobre cómo la tecnología puede profundizar las desigualdades raciales y económicas ya existentes en el sistema. ¿Cómo funciona exactamente eso?
R: Depende de la herramienta. Con el análisis predictivo, es debido a los patrones pasados de discriminación que vemos en esos conjuntos de datos que se amplifican y reproducen cuando se introducen en este tipo de herramientas.
Otro ejemplo es el uso de Amazon Echo Dots en los dormitorios del campus, y tratar de preguntarle a Alexa por qué la matrícula es tan alta, y no poder obtener una respuesta a esa pregunta, pero los horarios de la biblioteca se comparten fácilmente. Por lo tanto, también es el poder discrecional de lo que parece posible preguntar a través de algunas de estas herramientas.
Otro ejemplo que surge en el libro es WellTrack. En términos de cómo incluso piensa sobre la salud mental de los estudiantes, se trata mucho de la autorregulación individual, de abordar los patrones de pensamiento de uno. Pero no necesariamente de cuestiones de discriminación en el campus o de no recibir un apoyo adecuado de un mentor, de estas fallas más institucionales y estructurales. Por lo tanto, nuevamente, realmente depende de la herramienta.
Hay una vigilancia cada vez más extendida relacionada con la seguridad del campus, y gran parte de eso también sirve como una forma de intentar obstaculizar las protestas en el campus. Estamos en un momento particularmente poderoso en el que estamos viendo la libertad de expresión bajo ataque en las universidades. Parte del marketing de estas herramientas es realmente una forma de intentar mitigar el riesgo de un aumento de la agitación en el campus, y muchas de ellas se refieren a la agitación relacionada con causas de justicia racial.
Q: ¿Hubo una herramienta en particular donde viste este problema más en términos de reforzar las desigualdades raciales y económicas?
R: Creo que realmente está en todas partes. Al final del día, la educación superior no está realmente diseñada para apoyar a todos los estudiantes. Históricamente, la educación superior está diseñada para apoyar a estudiantes que ya tienen ventajas estructurales en muchos aspectos. Por lo tanto, ya sea por omisión, por borrado, por no interrogar los datos que se utilizan para construir estos sistemas, o quién incluso está en la mesa para tomar decisiones sobre cómo se plantean los problemas en la educación superior, estos problemas realmente están en todos los niveles. Simplemente adoptan formas particulares, dependiendo de la herramienta.
Q: ¿Cuál está en juego en general?
R: A veces lo que está en juego es la privacidad de los estudiantes. A veces es simplemente que son intereses privados los que están dando forma a la dirección de la investigación y las prioridades institucionales. Por lo tanto, no son neutrales u objetivos. Tienen un interés particular en el juego, y en ese sentido, creo que socava la idea de que la investigación debe ser un proceso académico, crítico o al menos algo objetivo, o al menos arraigado en un compromiso con el bien público, especialmente en una universidad pública. Eso es realmente peligroso.
Mientras la educación superior siga desfinanciada, mientras veamos resistencia a los esfuerzos por desegregar la educación superior, creo que la derogación de la acción afirmativa es un ejemplo de esto, la universidad seguirá siendo un motor de una sociedad basada en clases y desigual, en lugar de una forma de abordar esos problemas. Pero no estoy sin esperanza, y creo que otra cosa que intento emparejar en el libro es que la vigilancia siempre se acompaña de resistencia.
Si el poder fuera tan efectivo como para crear un sistema de dominación o control perfecto, no habría necesidad de vigilancia. La vigilancia es precisamente porque hay ansiedad en torno a la posibilidad de que las personas se resistan y se nieguen. Y creo que vemos a estudiantes y profesores comprometiéndose en la resistencia de formas grandes y pequeñas, individuales y colectivas.
Q: ¿Cuál es un ejemplo de la resistencia que has visto?
R: Ha habido movimientos de larga data para la cancelación completa de préstamos estudiantiles que creo que es realmente una gran parte de la historia. Hemos visto resistencia contra la brutalidad policial anti-negra, y eso se acompañó de un impulso para que los investigadores dejaran de colaborar con las ciudades en herramientas de policía predictiva. Por lo tanto, vemos formas en las que la investigación y el desarrollo tecnológico se emparejan con estas luchas más largas que están ocurriendo en los campus universitarios.
Q: ¿Cómo entra en juego la privacidad de los estudiantes en esta conversación?
R: Mucha gente tiene la idea de que una universidad es benevolente. Es como, está bien, mi universidad puede tener mucha información sobre mí, pero confío en que la están utilizando para apoyar mi educación, o confío en que van a ser buenos administradores de esa información. Por lo tanto, también se trata de ayudar a las personas a pensar de manera más crítica sobre las universidades, tanto histórica como actualmente. Y luego, los riesgos de qué significa que una institución esté recopilando sus datos se vuelven un poco más poderosos.
Q: Has mencionado la austeridad y la disminución del apoyo estatal a la educación superior a lo largo del libro. ¿Cuál es la conexión con el surgimiento de las universidades inteligentes?
R: Esto se desarrolla de muchas maneras, pero solo para darte un ejemplo: El énfasis que se pone en hacer que los estudiantes se gradúen lo más rápido posible, gran parte de eso es impulsado por una mentalidad de austeridad. Los costos de matrícula están aumentando. Los estudiantes no tienen los medios o la capacidad para poder ir a la universidad durante cuatro años o más. Hacer que pasen por un camino de grado lo más rápido posible, y usar datos sobre ellos y conjuntos de datos históricos para guiar y dar forma a su trayectoria, es una forma de pensar en el éxito estudiantil dentro de ese tipo de lógica de austeridad. Ese es solo un ejemplo.
Pero incluso el énfasis que se pone en las asociaciones público-privadas y en traer a las partes interesadas corporativas a la universidad, también se debe en parte a que hay menos fondos para apoyar a los estudiantes. Por lo tanto, estos acuerdos se vuelven cada vez más atractivos, pero sucede en todos los niveles. Y luego, para las universidades que no están muy bien clasificadas, están cada vez más en un mercado de educación superior más competitivo también, y eso les pone presión para usar este tipo de herramientas para competir entre sí por los estudiantes.
Q: ¿Cómo ves que el uso de la tecnología de gran tamaño está en conflicto con la misión de la educación superior y el trabajo de educar a los estudiantes?
R: Para mí, muchas de estas herramientas realmente no están en interés de la universidad como un bien público. Es la lógica de un estudiante haciendo una inversión individual en su educación, y estas herramientas están diseñadas para guiar esa inversión para obtener la mayor ganancia posible. Por lo tanto, creo que eso es parte de eso.
También es simplemente un símbolo de cómo los intereses privados están dando forma a las prioridades y discursos dominantes. Por lo tanto, incluso cuando pensamos en la afluencia de ChatGPT y muchas de estas herramientas de IA producidas por grandes empresas tecnológicas, la educación superior ha estado demasiado dispuesta a adoptar esto como la forma más innovadora de pedagogía posible. Eso es solo un ejemplo de las formas en que se ve a las grandes tecnológicas como modelos de aprendizaje y enseñanza que deben ser emulados para poder mantener el ritmo del desarrollo tecnológico. Eso es muy peligroso. Las comunidades universitarias deben establecer sus propias prioridades a través de procesos democráticos, y creo que deben estar dispuestas a mirar estos problemas más arraigados y de larga data, porque son esos problemas los que hacen que la educación superior sea persistente e igualitaria y justa.