Nunca he querido hacer paracaidismo o saltar en bungee, pero cuando leo algunos comentarios de la industria, parece que esto es lo que se les pide a los directores financieros que hagan cuando se trata de invertir en herramientas de IA. Por ejemplo, Ashu Garg y Jaya Gupta en Foundation VC afirman: “Esto no es solo una nueva categoría de software; es el desmantelamiento del software empresarial tal como lo conocemos”.
Conociendo a los directores financieros como los conozco, son un grupo pragmático que no se deja influir fácilmente por el lenguaje publicitario y solo invertirá cuando se pueda demostrar un valor tangible. También es poco probable que inviertan en IA si hay algún indicio de que podrían perder el control de los procesos de toma de decisiones críticas. Entonces, si los proveedores quieren animar a los directores financieros a adoptar la IA, los líderes financieros deben estar seguros de que pueden confiar en la tecnología para ofrecer resultados precisos.
Dejando de lado el bombo publicitario, es poco probable que los modelos de lenguaje grandes (LLMs) y las herramientas de IA conversacional existentes desmantelen todos los elementos de los flujos de trabajo financieros en el corto plazo. Sin embargo, el cambio se acerca y los directores financieros deben estar preparados. En este momento, deberían estar pensando en establecer las bases correctas para que, cuando llegue el momento de adoptar herramientas de IA, tengan la máxima flexibilidad para hacerlo de manera pragmática; en lugar de tener la inquietante sensación de saltar al vacío atados a una cuerda elástica.
Claus Jepsen
Enlaces de navegación en redes sociales
Director de Producto y Tecnología, Unidad 4.
IA y la aleatoriedad de la vida
Una vez que se establezcan los cimientos organizativos y de TI, los directores financieros tendrán más confianza en que las herramientas de IA basarán sus decisiones en información precisa. También estarán mejor ubicados para supervisar la herramienta de IA para evitar decisiones incorrectas. Por ejemplo, la imprevisibilidad en la planificación y pronóstico es un desafío principal.
Los eventos cisne negro pueden tener efectos dramáticos e imprevistos en el rendimiento, pero esto no es algo simple de abordar para los LLMs. Tradicionalmente, requieren entrenamiento en todas las eventualidades para tomar decisiones, pero con los cimientos correctos en su lugar, los equipos financieros pueden decidir cómo abordar mejor escenarios únicos con herramientas de IA.
Una forma en que los Agentes de IA podrán abordar estas situaciones más complejas es colaborando entre ellos para completar tareas de forma autónoma, como ha destacado el analista y comentarista de la industria, Phil Wainewright. Potencialmente, este enfoque verá a estas herramientas encontrar nuevas soluciones y crear oportunidades para impulsar la productividad, así como el rendimiento empresarial.
Tres prioridades para construir confianza en la IA
En tal ejemplo, los directores financieros deben estar preparados para permitir que los sistemas financieros críticos funcionen de manera autónoma sin supervisión. Esto requerirá una gran confianza en la IA, pero los líderes financieros pueden tener más confianza en ceder el control a las herramientas de IA si han abordado tres prioridades:
1. Integridad de los datos de entrada: es obvio, pero los datos deben ser precisos y su integridad protegida si las herramientas de IA van a tomar decisiones confiables. Los agentes de IA deben poder compartir datos si van a colaborar, por lo que las organizaciones deben tener una única fuente de verdad para toda la información dentro de sus sistemas, así como poder integrar fácilmente información de fuentes externas. Esto también significa poder leer todos los datos, en todos los formatos, estructurados y no estructurados. Además de eso está la seguridad de los datos y saber que los datos provienen de fuentes confiables: si los Agentes de IA están hablando entre sí sin restricciones, ¿cómo garantizas que todos son confiables?
2. Complejidad del problema: la herramienta de IA que adoptes debe ajustarse al problema. Los modelos de IA generalistas, como las herramientas de IA conversacional, pueden no ser adecuados para tomar decisiones en desafíos especializados. Cómo entrenas a la IA es crítico: ¿tiene la fuente de datos correcta relevante para el problema que estás tratando de resolver? Pero la pregunta aún mayor es cómo lidiar con la aleatoriedad. Phil Wainewright habla sobre la “ingeniosidad de los humanos” que los sistemas de IA de hoy no pueden replicar. En el mundo de las finanzas, si estás mirando el pronóstico, hay una multiplicidad de factores conocidos que afectan el rendimiento empresarial, pero también hay cisnes negros que son muy difíciles de entrenar a una IA para adaptarse. ¿Cómo se las arreglará tu modelo de IA con la aleatoriedad?
3. Transparencia en la toma de decisiones: si vamos a dejar ir y confiar en que los Agentes de IA tomen más decisiones en entornos financieros, entonces debemos poder confiar en las respuestas que proporcionan. El aprendizaje no supervisado es un paso clave en el camino hacia “dejar ir”, pero esto requiere confianza tanto en el modelo utilizado como en los datos de entrenamiento. Con los LLMs, este proceso también puede volverse ineficiente. Cuantos más datos requieran para entrenar a la IA, más grande se vuelve la caja negra, más difícil y complicado es entender la toma de decisiones. También presenta el riesgo de introducir fuentes de datos no confiables en el modelo. Las empresas no pueden permitirse depender de tecnologías y datos que no se pueden decodificar, por lo que es fundamental encontrar formas más elegantes y simplificadas de demostrar qué datos se están utilizando y cómo el modelo utiliza los datos para tomar decisiones.
Abordar estas prioridades desde el principio dará a los directores financieros la confianza de que la IA se está adoptando como parte de un enfoque estructurado, rodeado de políticas y pautas definidas. Tener estos controles en su lugar garantizará que adoptar la IA no sea un salto de fe. Ciertamente, hay un elemento de adentrarse en lo desconocido, porque aún no sabemos la extensión completa de lo que las tecnologías de IA maduras serán capaces de hacer, pero si lo abordas de la manera correcta, no sentirás que estás atado a una cuerda elástica, rizando los dedos de los pies sobre el borde del precipicio mientras te psicologizas para saltar.