Walt Whitman escribió: “Soy grande, contengo multitudes”. En ciencias sociales cualitativas, esto se aplica tanto como una celebración de lo que nos hace humanos como como una advertencia sobre las limitaciones de usar inteligencia artificial para analizar datos.
Aunque la IA puede emular la búsqueda de patrones de la investigación cualitativa en ciencias sociales, carece de una perspectiva humana identificable. Esto importa porque en el trabajo cualitativo es importante articular la posición del investigador, cómo se conecta el investigador con la investigación, para promover la confianza en los hallazgos.
Entrenadas en un vasto cuerpo de conocimiento humano, tecnologías como ChatGPT no son un yo que contiene multitudes, sino multitudes ausentes de un yo. Por diseño, estas herramientas no pueden tener el único punto de vista describible, y por lo tanto, la posición necesaria para promover la confianza.
Para profesores y estudiantes sobrecargados, usar ChatGPT como asistente de investigación es una alternativa tentadora a la laboriosa tarea de analizar montañas de texto a mano. Aunque hay muchos métodos de investigación cualitativa, un enfoque común implica múltiples ciclos de creación de significado dentro de los datos. Los investigadores etiquetan porciones de datos con “códigos” que describen frases explícitas o significados implícitos y luego los agrupan en patrones a través de ciclos adicionales. Por ejemplo, al analizar transcripciones de entrevistas en un estudio sobre la deserción universitaria, primero se pueden encontrar códigos como “necesidades financieras”, “estudiante de primera generación” y “apoyo parental”. En otro ciclo de codificación, estos pueden agruparse en un tema más amplio sobre factores familiares.
Aunque esto es una simplificación, queda claro que este tipo de búsqueda de patrones es una fortaleza clave de las herramientas de IA abiertas actuales. Pero usar la IA de esta manera pasa por alto el impacto de la identidad y el contexto del investigador en la investigación cualitativa.
Hay cuatro razones clave por las que subirse al tren de la IA demasiado pronto podría ser problemático para el futuro del trabajo cualitativo.
El investigador es tan importante como la investigación.
Los buenos estudios de investigación cualitativa tienen algo en común: rechazan la noción de objetividad y abrazan la naturaleza del trabajo interpretativo como subjetivo. Reconocen que sus estudios son influenciados por el contexto y el trasfondo del investigador. Esta idea de considerar cuidadosamente la posición, aunque no sea completamente la norma en la amplia diversidad de campos de ciencias sociales, está ganando más impulso. Con la rápida adopción de herramientas de IA para la investigación, se vuelve especialmente crítico resaltar las complejidades de cómo los investigadores se relacionan con el trabajo que hacen.
La IA no es neutral.
Sabemos que la IA puede tener alucinaciones y producir información falsa. Pero incluso si no fuera el caso, hay otro problema: la tecnología nunca es neutral. Siempre está impregnada de los sesgos y experiencias de sus creadores. A esto se suma que las herramientas de IA se nutren de la gran variedad de perspectivas en internet sobre cualquier tema dado. Si podemos estar de acuerdo en que articular la posición es clave para respaldar la confiabilidad de la investigación cualitativa, entonces deberíamos pausar seriamente antes de adoptar la IA para el análisis completo en estudios interpretativos. Los expertos admiten que no sabemos cómo toma las decisiones la IA (el problema de la caja negra).
La adopción de herramientas de IA puede tener un impacto negativo en la formación de nuevos investigadores.
De la misma manera en que los educadores pueden estar preocupados de que depender demasiado pronto de la IA en el proceso de aprendizaje pueda negar la comprensión de los fundamentos, hay implicaciones para la formación de nuevos investigadores cualitativos. Esto es una consideración más grande que la confiabilidad de los resultados. La codificación cualitativa manual desarrolla un conjunto de habilidades y una comprensión más profunda de la naturaleza de la investigación interpretativa. Además, poder articular y actuar sobre cómo usted como investigador impacta el análisis no es tarea fácil, incluso para investigadores experimentados, requiriendo un nivel de autorreflexión y paciencia que muchas personas pueden sentir que no vale la pena el esfuerzo. Es casi imposible pedir a un nuevo investigador que aprecie la posición sin pasar por el proceso de codificación manual de datos ellos mismos.
A diferencia de un investigador humano, la IA no puede proteger nuestros datos.
No es solo la posición del investigador lo que falta cuando usamos herramientas de IA de acceso abierto para el análisis de datos. Las instituciones requieren salvaguardias para la información proporcionada por los participantes en los estudios de investigación. Si bien incluir divulgaciones en los formularios de consentimiento para el uso de datos dentro de una plataforma de IA es ciertamente posible, el factor de caja negra significa que no podemos brindar un consentimiento informado a los participantes sobre qué está sucediendo con sus datos. Pueden existir opciones fuera de línea, pero requerirían recursos informáticos y conocimientos que están fuera del alcance de la mayoría de las personas que se beneficiarían.
Entonces, ¿podemos confiar en el uso de la IA en la investigación cualitativa?
Aunque la IA puede servir como un pseudoasistente de investigación o potencialmente agregar confiabilidad adicional al proceso de investigación cualitativa cuando se utiliza para auditar los hallazgos, debe aplicarse con precaución en su forma actual. De particular importancia es el reconocimiento de que la IA no puede, en este momento, proporcionar el contexto y la posición necesarios que requiere la investigación cualitativa. En su lugar, aplicaciones potencialmente útiles de la IA en la investigación cualitativa incluyen cosas como proporcionar información general resumida o ayudar a organizar pensamientos. Estas tareas suplementarias y otras como ellas pueden ayudar a agilizar el proceso de investigación, sin negar la importancia de la conexión entre el investigador y el estudio.
Incluso si pudiéramos confiar en la IA, ¿deberíamos usarla para el análisis cualitativo?
Por último, hay un argumento filosófico que hacer. Si tenemos una IA capaz de análisis cualitativo de una manera que encontramos aceptable, ¿deberíamos usarla? Al igual que el arte, la investigación cualitativa puede ser una celebración de la humanidad. Cuando la autoconciencia del investigador, las preguntas importantes y los métodos sólidos se unen, el resultado es un vistazo a un subconjunto rico y detallado de nuestro mundo. Es el contexto y la humanidad que aporta el investigador lo que hace que estos estudios valgan la pena escribir y leer. Si reducimos el papel del académico cualitativo a generador de indicaciones de IA, la pasión por investigar la experiencia humana puede desvanecerse junto con ella. Estudiar a los humanos, particularmente de una manera abierta e interpretativa, requiere un toque humano.
Andrew Gillen es profesor adjunto en la Facultad de Ingeniería de la Universidad Northeastern. Su investigación se centra en la educación en ingeniería.