OpenAI se une a la oposición al proyecto de ley de seguridad de la IA de California.

Mantente informado con actualizaciones gratuitas

OpenAI ha criticado un proyecto de ley de California que busca garantizar que la inteligencia artificial poderosa se despliegue de manera segura y sugirió que nuevos controles amenazarían su crecimiento en el estado, uniéndose a una frenética campaña de lobby de último momento por parte de inversores y grupos de IA para bloquear la legislación.

El proyecto de ley, SB 1047, amenaza el “estatus único de California como líder mundial en IA”, escribió el director de estrategia de la compañía, Jason Kwon, en una carta a Scott Wiener, el senador estatal de California que lidera el proyecto de ley.

Podría “ralentizar el ritmo de la innovación y llevar a ingenieros y emprendedores de clase mundial de California a buscar mayores oportunidades en otro lugar”, agregó.

SB 1047 ha dividido a Silicon Valley. Si bien hay una aceptación generalizada de la necesidad de frenar los riesgos de los nuevos modelos de IA súper potentes, los críticos han argumentado que las propuestas de Wiener sofocarían a las startups, beneficiarían a los rivales de América y socavarían la posición de California en el epicentro de un auge en IA.

OpenAI es la última startup en oponerse a elementos del proyecto de ley, y la más prominente, gracias en gran parte a la popularidad de su chatbot ChatGPT y a un compromiso de $13 mil millones de su socio Microsoft.

OpenAI apoya disposiciones para garantizar que los sistemas de IA se desarrollen y desplieguen de manera segura, pero argumenta en la carta, que fue reportada primero por Bloomberg, que la legislación debería provenir del gobierno federal, no de los estados individuales.

LEAR  ¿Quién es el responsable del exceso de gasto del gobierno del Reino Unido?

En una respuesta el miércoles, Wiener dijo que estaba de acuerdo en que el gobierno federal debería liderar, pero estaba “escéptico” de que el Congreso actuara. También criticó el “argumento gastado” de que las startups tecnológicas se trasladarían si se aprobaba el proyecto de ley y dijo que las empresas con sede fuera del estado aún tendrían que cumplir con el proyecto de ley para hacer negocios localmente.

La Asamblea Estatal de California está programada para votar sobre el proyecto de ley a fin de mes. Si se aprueba, el gobernador Gavin Newsom decidirá si lo convierte en ley o lo veta.

Grupos tecnológicos y inversores de Silicon Valley, incluidos Anthropic, Andreessen Horowitz y YCombinator, han intensificado una campaña de lobby en contra de las propuestas de Wiener para un estricto marco de seguridad. Nancy Pelosi, ex presidenta de la Cámara de Representantes y representante de California, también publicó una declaración en oposición al proyecto de ley la semana pasada, calificándolo de “bien intencionado pero mal informado”.

Entre los elementos más controvertidos de las propuestas originales del senador estaban las demandas de que las empresas de IA garanticen a un nuevo cuerpo estatal que no desarrollarán modelos con “una capacidad peligrosa” y crear un “interruptor de apagado” para apagar sus potentes modelos.

Los opositores afirmaron que el proyecto de ley se centraba en riesgos hipotéticos y agregaba un riesgo de responsabilidad “extremo” a los fundadores.

El proyecto de ley fue modificado para suavizar algunos de esos requisitos la semana pasada, por ejemplo, limitando las responsabilidades civiles que originalmente había impuesto a los desarrolladores de IA y estrechando el alcance de aquellos que tendrían que cumplir con las reglas.

LEAR  Joe Biden revierte política sobre ventas de armas a Arabia Saudita.

Sin embargo, los críticos argumentan que el proyecto de ley sigue cargando a las startups con requisitos onerosos y a veces poco realistas. El lunes, los miembros de la Cámara de Representantes de EE. UU., Anna Eshoo y Zoe Lofgren, escribieron en una carta a Robert Rivas, presidente de la asamblea de California, que aún había “problemas sustanciales con la estructura subyacente del proyecto de ley”, abogando en su lugar por “enfocarse en reglas federales para controlar las herramientas físicas necesarias para crear estas amenazas físicas”.

A pesar de las críticas de destacados académicos de IA como Fei-Fei Li de Stanford y Andrew Ng, que lideraron proyectos de IA en Google de Alphabet y Baidu de China, el proyecto de ley ha encontrado apoyo entre algunos de los “padrinos de la IA”, como Geoffrey Hinton de la Universidad de Toronto y Yoshua Bengio, profesor de ciencias de la computación de la Universidad de Montreal.

“En resumen: el SB 1047 es un proyecto de ley muy razonable que pide a los grandes laboratorios de IA que hagan lo que ya se han comprometido a hacer, es decir, probar sus grandes modelos en busca de riesgos de seguridad catastróficos”, escribió Wiener el miércoles.