“
Hola y bienvenidos a Eye on AI! En este boletín informativo…la decepción de Intel con Gaudi…Prime Video incorpora AI…noticias de contratación de OpenAI y Anthropic…El sueño paga…y contratiempos nucleares.
Meta quiere que el gobierno de EE. UU. utilice su AI—incluso el militar.
La compañía anunció ayer que había reunido a una serie de socios para este esfuerzo, incluyendo consultoras como Accenture y Deloitte, proveedores de nube como Microsoft y Oracle, y contratistas de defensa como Lockheed Martin y Palantir.
El jefe de política Nick Clegg escribió en una publicación de blog que Oracle estaba ajustando el modelo de AI Llama de Meta para “sintetizar documentos de mantenimiento de aeronaves para que los técnicos puedan diagnosticar problemas de manera más rápida y precisa,” mientras que Lockheed Martin lo está utilizando para generación de código y análisis de datos. Scale AI, un contratista de defensa que casualmente cuenta con Meta entre sus inversores, está “ajustando Llama para apoyar misiones específicas del equipo de seguridad nacional, como la planificación de operaciones y la identificación de vulnerabilidades de los adversarios.”
“Como una compañía estadounidense, y una que debe su éxito en gran parte al espíritu empresarial y a los valores democráticos que Estados Unidos defiende, Meta quiere desempeñar su papel para apoyar la seguridad, la prosperidad económica y la seguridad de América—y también de sus aliados más cercanos,” cantó el ex viceprimer ministro británico.
Pero la publicación de Clegg no se trataba solo de posicionar la AI de Meta como la opción patriota. Más que nada, fue un intento de enmarcar la versión de Meta de AI de código abierto como la correcta y deseable.
Meta siempre ha presentado a Llama como “de código abierto,” en el sentido de que regala no solo el modelo sino también sus pesos—los parámetros que facilitan su modificación—junto con varias otras herramientas de seguridad y recursos.
Muchos en la comunidad tradicional de software de código abierto han discrepado con el enfoque de “código abierto” de Meta, principalmente porque la compañía no revela los datos de entrenamiento que utiliza para crear sus modelos Llama, y porque impone restricciones sobre el uso de Llama—especialmente en el contexto del anuncio del lunes, la licencia de Llama dice que no se supone que se utilice en aplicaciones militares.
La Iniciativa de Código Abierto, que acuñó el término “código abierto” y sigue actuando como su administrador, emitió recientemente una definición de AI de código abierto que claramente no se aplica a Llama por estas razones. Lo mismo la Fundación Linux, cuya definición igualmente fresca no es exactamente la misma que la de la OSI, pero todavía claramente exige información sobre los datos de entrenamiento y la capacidad para que cualquier persona los reutilice y mejore el modelo.
Probablemente por eso la publicación de Clegg (que invoca “código abierto” 13 veces en su cuerpo) propone que los despliegues de seguridad nacional de Llama en EE. UU. “no solo apoyarán la prosperidad y la seguridad de Estados Unidos, sino que también ayudarán a establecer estándares de código abierto de EE. UU. en la carrera mundial por el liderazgo en AI.” Según Clegg, un “estándar mundial de código abierto para modelos de AI” está llegando—piensa en Android pero para AI—y “será la base del desarrollo de AI en todo el mundo y se integrará en la tecnología, la infraestructura y la manufactura, y las finanzas y el comercio global.”
Si EE. UU. falla, sugiere Clegg, la visión de China sobre AI de código abierto se convertirá en ese estándar global.
Sin embargo, el momento de esta extravagancia de lobby es un poco incómodo, ya que llega justo unos días después de que Reuters informara que investigadores chinos vinculados al ejército han utilizado una versión de Llama de hace un año como base para ChatBIT, una herramienta para procesar inteligencia y ayudar en la toma de decisiones operativas. Esto es más o menos lo que Meta está permitiendo ahora a los contratistas militares hacer con Llama en EE. UU., pero sin su permiso.
Hay muchas razones para ser escéptico sobre cuán grande será el impacto de la sinicización de Llama. Dada la frenética velocidad del desarrollo de AI, la versión de Llama en cuestión (13B) está lejos de ser de vanguardia. Reuters dice que ChatBIT “demostró ser superior a algunos otros modelos de AI que eran aproximadamente un 90% tan capaces como el poderoso ChatGPT-4 de OpenAI,” pero no está claro lo que significa “capaz” aquí. Ni siquiera está claro si ChatBIT se está utilizando realmente.
“En la competencia global sobre AI, el presunto papel de una sola, y obsoleta, versión de un modelo de código abierto estadounidense es irrelevante cuando sabemos que China ya está invirtiendo más de $1 billón para superar a EE. UU. tecnológicamente, y las compañías tecnológicas chinas están lanzando sus propios modelos de AI de código abierto tan rápido—o más rápido—que las compañías en EE. UU.,” dijo Meta en un comunicado en respuesta al artículo de Reuters.
No todos están convencidos de que la conexión Llama-ChatBIT sea irrelevante. El Comité Selecto de la Cámara de Representantes sobre el Partido Comunista Chino dejó claro en X que ha tomado nota de la historia. El presidente del Comité de Asuntos Exteriores de la Cámara, el representante Michael McCaul (R-TX), también tuiteó que el PCC “está explotando aplicaciones de AI de EE. UU. como Llama de Meta para uso militar,” lo que demostró la necesidad de controles de exportación (en forma de la ley ENFORCE Act) para “mantener la AI estadounidense fuera de las manos de China.”
El anuncio del lunes de Meta probablemente no fue una reacción a este episodio—sería un montón de asociaciones para reunir en un par de días—pero también está claramente motivado en parte por el tipo de reacción que siguió a la historia de Reuters.
Hay batallas en curso no solo por la definición de “AI de código abierto”, sino también por la supervivencia del concepto frente a la lucha geopolítica entre EE. UU. y China. Y estas dos batallas están conectadas. Como explicó la Fundación Linux en un documento técnico de 2021, el software de cifrado de código abierto puede verse afectado por las restricciones a la exportación de EE. UU.—a menos que se haga “públicamente disponible sin restricciones sobre su posterior difusión.”
Ciertamente a Meta no le encantaría ver la misma lógica aplicada a la AI—pero, en este caso, puede ser mucho más difícil convencer a EE. UU. de que un estándar de AI de “código abierto” verdaderamente abierto es de su interés en materia de seguridad nacional.
Más noticias a continuación.
David Meyer
[email protected]
@superglaze
Solicita tu invitación para el Fortune Global Forum en la ciudad de Nueva York el 11 y 12 de noviembre. Los oradores incluyen al CEO de Honeywell, Vimal Kapur, y a la CEO de Lumen, Kate Johnson, quienes discutirán sobre el impacto de la AI en el trabajo y la fuerza laboral. El CEO de Qualtrics, Zig Serafin, y Eric Kutcher, socio sénior de McKinsey y presidente de América del Norte, discutirán cómo las empresas pueden construir las tuberías de datos y la infraestructura que necesitan para competir en la era de la AI.
AI EN LAS NOTICIAS
La decepción de Intel con Gaudi. El CEO de Intel, Pat Gelsinger, admitió la semana pasada que la compañía no alcanzará su objetivo de ingresos de $500 millones para sus chips de AI Gaudi este año. Gelsinger: “La adopción general de Gaudi ha sido más lenta de lo que anticipamos, ya que las tasas de adopción se vieron afectadas por la transición del producto de Gaudi 2 a Gaudi 3 y la facilidad de uso del software.” Considerando que Intel estaba informando a Wall Street sobre un pipeline de negocios de $2 mil millones para Gaudi a principios de este año, antes de reducir sus expectativas a esa cifra de $500 millones, esto no refleja bien en la compañía en apuros.
Prime Video incorpora AI. Amazon está agregando una función impulsada por AI llamada Resúmenes X-Ray a su servicio de streaming Prime Video. La idea es ayudar a los espectadores a recordar lo que sucedió en temporadas anteriores de los programas que están viendo—o episodios específicos, o incluso fragmentos de episodios—con protecciones supuestamente contra spoilers.
Noticias de contratación de OpenAI y Anthropic. Caitlin Kalinowski, que anteriormente lideró el proyecto de gafas de realidad aumentada de Meta, se une a OpenAI para liderar sus esfuerzos en robótica y hardware de consumo, informa TechCrunch. OpenAI también ha contratado al emprendedor serial Gabor Cselle, uno de los cofundadores del extinto rival de Twitter/X, Pebble, para trabajar en algún tipo de proyecto secreto. Mientras tanto, Alex Rodrigues, ex cofundador y CEO del desarrollador de camiones autónomos Embark, se está uniendo a Anthropic. Rodrigues publicó en X que trabajará como investigador de alineación de AI junto a los recientes refugiados de OpenAI Jan Leike y John Schulman.
FORTUNE SOBRE AI
ChatGPT lanza un motor de búsqueda, un primer salvo en una guerra en ciernes con Google por el dominio del internet impulsado por AI —por Paolo Confino
Los principales LLMs tienen puntos ciegos de accesibilidad, según datos de la startup Evinced—por Allie Garfinkle
El CEO de Amazon dejó una gran pista sobre cómo una nueva versión de AI de Alexa va a competir con chatbots como ChatGPT—por Jason Del Rey
Los países que buscan obtener una ventaja en AI deberían prestar atención a la aproximación de toda la sociedad de India—por Arun Subramaniyan (Comentario)
CALENDARIO DE AI
28-30 de octubre: Voz & AI, Arlington, Va.
19-22 de noviembre: Microsoft Ignite, Chicago
2-6 de diciembre: AWS re:Invent, Las Vegas
8-12 de diciembre: Neural Information Processing Systems (Neurips) 2024, Vancouver, Columbia Británica
9-10 de diciembre: Fortune Brainstorm AI, San Francisco (regístrate aquí)
EYE ON AI RESEARCH
El sueño paga. Un equipo de analistas de ciberseguridad de Google ha estado coordinando con DeepMind en un agente impulsado por LLM llamado Big Sleep, que dicen ha encontrado su primera vulnerabilidad en el mundo real: un error explotable en el motor de base de datos SQLite ubicuo.
Afortunadamente, la falla solo estaba presente en una rama de desarrollo del motor de base de datos de código abierto, por lo que los usuarios no se vieron afectados—los desarrolladores de SQLite lo corrigieron tan pronto como Google los puso al tanto. “Encontrar vulnerabilidades en el software antes de que se lance, significa que no hay margen para que los atacantes compitan: las vulnerabilidades se corrigen antes de que los atacantes tengan la oportunidad de usarlas,” escribieron los investigadores de Google.
Ellos enfatizaron que estos eran resultados experimentales y que Big Sleep probablemente no podría superar a una herramienta de pruebas de software automatizada bien dirigida aún. Sin embargo, sugirieron que su enfoque podría resultar algún día en “una ventaja asimétrica para los defensores.”
INFORMACIÓN DE INTERÉS
Contratiempos nucleares. Financial Times informa que Meta tuvo que cancelar los planes de construir un centro de datos de AI junto a una planta de energía nuclear en algún lugar de EE. UU.—los detalles siguen siendo escasos—porque se descubrieron abejas raras en el sitio.
Actualmente hay un gran impulso para alimentar los centros de datos de AI con energía nuclear, debido a su confiabilidad las 24 horas del día, los 7 días de la semana, y porque las grandes tecnológicas deben cuadrar el círculo de satisfacer los enormes requisitos de energía de la AI sin incumplir sus compromisos de descarbonización. Sin embargo, los contratiempos abundan.
En planes que parecen similares a los de Meta, Amazon a principios de este año compró un centro de datos que está colocado junto a la planta nuclear Susquehanna en Pennsylvania. Pero los reguladores rechazaron el viernes el plan del propietario de la planta de darle a Amazon toda la energía que desea de los reactores de la central—hasta 960 megavatios, frente a los 300MW ya permitidos—porque hacerlo podría llevar a aumentos de precios para otros clientes y tal vez afectar la fiabilidad de la red.
“