Mientras trabajaba en el manuscrito de Más que palabras: Cómo pensar en la escritura en la era de la IA, realicé una cantidad significativa de experimentos con grandes modelos de lenguaje, pasando la mayor parte del tiempo con ChatGPT (y sus varios sucesores) y Claude (en sus diferentes variantes).
Anticipé que con el tiempo estos experimentos revelarían alguna aplicación genuinamente útil de esta tecnología para mi trabajo como escritor.
En verdad, ha sido lo contrario, y creo que es interesante explorar por qué.
Un factor es que me he vuelto más preocupado por lo que veo como una aceptación en gran medida acrítica de la IA generativa en contextos educativos. No me refiero simplemente a movimientos extremadamente equivocados como la introducción de un emulador de Anne Frank impulsado por IA que solo tiene pensamientos amables hacia los nazis, sino a otros ejemplos de instructores e instituciones que asumen que debido a que la tecnología es algo maravilloso, debe tener un efecto positivo en la enseñanza y el aprendizaje.
Esto me ha acercado más a una mentalidad de resistencia, si no es más que para proporcionar un contrapeso a aquellos que ven la IA como una inevitabilidad sin considerar lo que hay al otro lado. En verdad, sin embargo, en lugar de ser un opositor total, estoy más en línea con Marc Watkins, quien cree que deberíamos ver la IA como “inevitable” pero no “inevitable”. Si bien creo que abrazar con entusiasmo la IA generativa es completamente insensato, tampoco descarto la utilidad potencial de la tecnología para ayudar a los estudiantes a aprender.
(Aunque una gran pregunta abierta es qué y cómo queremos que aprendan estas cosas.)
Otro factor ha sido que cuanto más trabajaba con los LLM, menos confiaba en ellos. Parte de esto se debió a que estaba tratando de utilizar sus capacidades para ayudarme en la escritura en áreas donde tengo un conocimiento de fondo significativo y descubrí que consistentemente me llevaban por un mal camino de manera sutil pero significativa. Esto, a su vez, me hizo temer usarlos en áreas donde no tengo el conocimiento necesario para supervisar sus alucinaciones.
Sin embargo, casi todas las veces que intenté usarlos con el objetivo de darme un atajo hacia un resultado más rápido, me di cuenta de que al tomar el atajo me perdía alguna experiencia importante en el camino.
Como ejemplo, en una sección donde argumento sobre la importancia de cultivar su propio gusto y sentido de calidad estética, pretendía usar algo de material del libro del escritor del New Yorker Kyle Chayka, Filterworld: How Algorithms Flattened Culture. Había leído e incluso revisado el libro varios meses antes, así que pensé que tenía una buena idea al respecto, pero aún así, necesitaba un repaso sobre lo que Chayka llama “ansiedad algorítmica” y pedí a ChatGPT que me recordara qué quería decir Chayka con esto.
El resumen entregado por ChatGPT fue perfectamente aceptable, preciso y no alucinatorio, pero no logré pasar de la idea que tenía en mi cabeza sobre la idea de Chayka a algo útil en la página a través de ese resumen de la idea de Chayka. Al final, tuve que volver atrás y volver a leer el material del libro que rodeaba el concepto para activar mi cerebro de una manera que me permitiera articular un pensamiento propio.
Algo similar sucedió varias veces más, y comencé a preguntarme exactamente qué sucedía. Es posible que mi proceso de escritura sea idiosincrático, pero descubrí que para seguir trabajando en el problema de decir cosas (esperemos) interesantes e perspicaces en el libro, no era una cuestión de resumir las ideas de otros, sino la expresión original de otros como combustible para mis pensamientos.
Este fenómeno puede estar relacionado con la forma en que veo la escritura, que es un proceso continuo de descubrimiento donde tengo pensamientos iniciales que me llevan a la página, pero el acto de llevar la idea a la página altera esos pensamientos iniciales.
Tiendo a pensar que toda la escritura, o al menos toda buena escritura, opera de esta manera porque es la forma en que sabrás que estás obteniendo la producción de una inteligencia única en la página. El objetivo es descubrir algo que no sabía por mí mismo, operando bajo la teoría de que esto también entregará algo fresco para la audiencia. Si el escritor no ha descubierto algo para sí mismo en el proceso, ¿cuál es el punto de todo el ejercicio?
Cuando recurrí a un LLM para un resumen y no pude encontrarle utilidad, me di cuenta de que no estaba interactuando con una inteligencia, sino con una probabilidad. Sin una característica humana interesante a la que aferrarme, no podía encontrar una manera de involucrar mi propia humanidad.
Acepto que otros están teniendo experiencias diferentes al trabajar junto a grandes modelos de lenguaje, que los encuentran verdaderamente generativos (perdón por el juego de palabras). Aún así, me pregunto qué significa encontrar una chispa en probabilidades generalizadas, en lugar de en la inteligencia singular.
Creo que digo muchas cosas interesantes e perspicaces en Más que palabras. También estoy seguro de que puedo estar equivocado en algunas cosas y, con el tiempo, mis creencias cambiarán al exponerme a las respuestas de los demás. Este es el proceso de comunicación y conversación, procesos que no son una capacidad de los grandes modelos de lenguaje dado que no tienen la intención de trabajar bajo el capó de su algoritmo.
Creo que pensar lo contrario es indulgir en una ilusión. Tal vez sea una ilusión útil, pero sigue siendo una ilusión.
Las capacidades de esta tecnología son asombrosas y están aumentando todo el tiempo, pero para mí, para mi trabajo, no ofrecen mucho significado.