“
El emprendedor en serie Wayne Chang está presentando un motor de razonamiento de inteligencia artificial llamado Reasoner, que él afirma puede producir resultados mucho más precisos y explicables que los grandes modelos de lenguaje como la serie o1 de OpenAI, y a un costo mucho más bajo.
La industria de la inteligencia artificial está trabajando arduamente para incorporar capacidades de razonamiento en la tecnología, en parte para acercarse al Santo Grial de la inteligencia artificial a nivel humano o sobrehumano, y en parte simplemente para superar las inexactitudes que afectan a los LLMs actuales. Las “alucinaciones” de la inteligencia artificial generativa son un factor importante que frena las implementaciones empresariales, al igual que la imposibilidad de explicar cómo llega a sus conclusiones un LLM.
Reasoner tiene como objetivo resolver estos problemas a través del uso de inteligencia artificial neurosimbólica, una fusión de redes neuronales (la tecnología que subyace a la inteligencia artificial generativa) y la inteligencia artificial simbólica más tradicional, que se basa en reglas fijas, lógica y mapeos derivados de humanos sobre las relaciones entre las cosas.
Chang tiene una larga historia en tecnología, comenzando con la creación del servicio de intercambio de archivos i2hub en 2004. En 2011 cofundó Crashlytics, una herramienta ubicua de informes de fallos en aplicaciones móviles que fue comprada por Twitter, donde se convirtió en director de estrategia de productos de consumo. Luego cofundó la firma de contabilidad impulsada por inteligencia artificial Digits (que Google compró junto con Crashlytics en 2017) y luego el año pasado fundó Patented.ai, una herramienta de inteligencia artificial centrada en propiedad intelectual que, ahora resulta, también ha servido como implementación piloto del motor Reasoner.
Inteligencia artificial de alto riesgo
Patented.ai ofrece la capacidad de realizar búsquedas automatizadas en la documentación de patentes y el código fuente, para detectar posibles casos de infracción de patentes e identificar innovaciones que podrían ser patentables. Dadas las altas apuestas financieras de los casos de patentes y la naturaleza extremadamente laboriosa de determinar si ha tenido lugar una infracción, hay claras oportunidades para cualquiera que pueda automatizar el proceso, pero también enormes riesgos si el sistema se equivoca.
En una entrevista exclusiva con Fortune, Chang dijo que la dependencia inicial de Patented.ai en los LLMs por sí solos resultó infructuosa: los abogados que probaron el sistema inmediatamente detectaron los defectos en sus resultados y lo rechazaron. La empresa también probó otras técnicas comunes como la generación aumentada por recuperación, que se basa en fuentes de datos externas para mejorar la salida de los LLMs (Google utiliza RAG para sus resultados de búsqueda de inteligencia artificial), pero eso tampoco proporcionó el nivel necesario de confiabilidad.
Esto llevó al cambio de rumbo que resultó en el desarrollo de Reasoner. “Realmente no empezamos a construir un motor de razonamiento”, dice Chang. “Esa no era nuestra misión en absoluto.”
Reasoner utiliza LLMs para ayudar a interpretar el lenguaje en los textos: Chang dice que es agnóstico en cuanto al modelo que utiliza, pero el concepto central en Reasoner es el de los grafos de conocimiento dinámico adaptativo.
Los grafos de conocimiento se utilizan ampliamente en tecnología. Durante más de una década, el grafo de conocimiento de Facebook ha proporcionado el marco para establecer las relaciones entre las personas, mientras que el de Google ha dado a Search la capacidad de responder preguntas básicas de hechos. Estos repositorios de conocimiento establecido son claramente útiles para dar respuestas correctas a las consultas: la inteligencia artificial Watson de IBM, que ganó en el programa de televisión Jeopardy, se basó en un grafo de conocimiento, pero generalmente necesitan ser actualizados manualmente para agregar nuevos hechos o editar relaciones que han cambiado. Cuanto más complejo sea el grafo de conocimiento, más trabajo conlleva.
Chang afirma que Reasoner elimina la necesidad de actualización manual, en lugar de ofrecer la capacidad de construir automáticamente grafos de conocimiento precisos basados en el texto no estructurado introducido en el sistema, y para que esos grafos de conocimiento se reconfiguren automáticamente a medida que se agregue o cambie la información. (Cabe destacar que Microsoft reveló este año GraphRAG, un intento de utilizar grafos de conocimiento generados por LLM para mejorar los resultados de RAG).
En otras palabras, puedes introducir un montón de documentos legales y Reasoner los interpretará para construir un grafo de conocimiento que contenga los conceptos en los documentos y las relaciones entre ellos, con “trazabilidad completa” para que sea fácil para un humano verificar si esos hechos son de hecho una representación precisa de lo que hay en los documentos. Aquí es donde el concepto se vuelve útil mucho más allá de los ámbitos de la litigación de patentes.
En una demostración a Fortune, Chang mostró cómo Reasoner podía ingerir docenas de varios documentos legales de OpenAI (desde sus acuerdos de usuario y desarrollador hasta sus pautas de marca y avisos de cookies) y mapear sus interdependencias. En la demostración, esto hizo posible proporcionar respuestas concisas y detalladas a una pregunta sobre cómo un usuario podría aprovechar las diferencias entre los términos de servicio de OpenAI en los EE. UU. y Europa para “evitar la responsabilidad por resultados dañinos de la inteligencia artificial”. Cada paso en el razonamiento fue explicado: los pasos lógicos eran comprensibles incluso para un ojo no técnico, y Reasoner luego sugirió preguntas de seguimiento sobre los impactos del problema y cómo podría mitigarse.
Chang dijo que Reasoner también podría utilizarse en una variedad de otras aplicaciones, desde farmacéuticos y materiales avanzados hasta seguridad e inteligencia. Como tal, afirma que puede superar las ofertas de varias otras startups de inteligencia artificial, como Hebbia (una empresa de búsqueda de documentos que recaudó una Serie B de $130 millones en julio) y Sakana (una empresa respaldada por Nvidia enfocada en el descubrimiento científico que recaudó $214 millones en una ronda Serie A en septiembre).
El costo del razonamiento
Pero en términos de capacidades de razonamiento, la gran bestia en este momento es OpenAI y sus modelos de la serie o1, que abordan el problema de manera muy diferente. En lugar de alejarse del paradigma puro de LLM, los modelos o1 utilizan un razonamiento de “cadena de pensamiento” combinado con búsqueda, trabajando metódicamente a través de una serie de pasos para llegar a una respuesta más considerada de lo que los modelos GPT de OpenAI podían manejar anteriormente.
Los modelos o1 generalmente proporcionan respuestas más precisas que sus predecesores, pero Chang afirma que la salida de Reasoner es aún más precisa. No hay muchos puntos de referencia de razonamiento disponibles: Reasoner puede publicar los suyos a principios del próximo año, pero, según DocBench y el conjunto de datos de referencia de marcos recientemente publicado por Google, Chang dijo que Reasoner logró más del 90% de precisión donde o1 no pudo superar el 80%. Este resultado no pudo ser verificado de forma independiente en el momento de la publicación.
También dijo que el enfoque de Reasoner permitía costos mucho más bajos. OpenAI cobra $15 por millón de tokens de entrada (la unidad base de datos de inteligencia artificial, equivalente a unas 1.5 palabras) y $60 por millón de tokens de salida, mientras que un millón de tokens de entrada cuesta a Reasoner 8 centavos y un millón de tokens de salida solo 30 centavos. “Todavía no hemos finalizado cómo queremos fijar el precio”, dijo Chang, agregando que la “ventaja estructural de costos” de Reasoner le permitiría cobrar a los usuarios por resultado o por descubrimiento verificado.
Las afirmaciones de Chang son ciertamente grandes, pero el equipo de Reasoner es pequeño: hay alrededor de una docena de empleados, en su mayoría en los EE. UU. Hasta ahora, la empresa solo ha tenido una ronda de pre-semilla de $4.5 millones, que tuvo lugar el año pasado con inversores que incluyen a nombres como el fundador de Baseline Ventures, Steve Anderson, el director gerente de Y Combinator, Ali Rowghani, y la fundadora y CEO de Operator Collective, Mallun Yen. “He tenido mucha suerte de tener algunos éxitos en mi historia, así que no he estado demasiado preocupado por el financiamiento”, dijo Chang. Pero el emprendedor espera contratar más empleados pronto, a medida que Reasoner se expande.
Chang dijo que Reasoner, que obtuvo $1.8 millones en reservas en el tercer trimestre de este año, publicará públicamente sus puntos de referencia y demostración en el primer trimestre de 2025, lo que permitirá a las personas cargar sus propios conjuntos de datos y probar las afirmaciones de la empresa. La firma también lanzará un kit de desarrollo de software, para permitir a otros incrustar el motor Reasoner en sus aplicaciones y agentes de inteligencia artificial. (Chang dice que el motor es lo suficientemente ligero como para funcionar incluso en los últimos iPhones y dispositivos Android, sin necesidad de conectividad a internet).
“Queremos asegurarnos de lanzarlo de una manera en la que inmediatamente comencemos a construir esa confianza y credibilidad”, dijo Chang.
¿A cuántos grados de separación estás de los líderes empresariales más poderosos del mundo? Descubre quiénes forman parte de nuestra nueva lista de las 100 personas más poderosas en los negocios. Además, conoce las métricas que utilizamos para crearla.” – reescribir en un total de 500-750 palabras. Luego, traducir al español B1 y recuperar solo el texto en español. Mantener las etiquetas HTML. No devolver la versión en inglés, No me devuelvas. No devuelvas el texto enviado. Proporcionar solo el texto en español.