Está seguro de que ese rasgo podría ser integrado en los sistemas de IA, pero no está seguro.
“Creo que sí,” dijo Altman cuando le preguntaron durante una entrevista con la decana asociada senior de Harvard Business School, Debora Spar.
La cuestión de un levantamiento de IA solía ser reservada exclusivamente para la ciencia ficción de Isaac Asimov o las películas de acción de James Cameron. Pero desde el surgimiento de la IA, se ha convertido, si no en un tema candente, al menos en un tema de debate que merece consideración genuina. Lo que antes hubiera sido considerado divagaciones de un excéntrico, ahora es una cuestión reguladora genuina.
La relación de OpenAI con el gobierno ha sido “bastante constructiva,” dijo Altman. Agregó que un proyecto tan amplio y vasto como el desarrollo de la IA debería haber sido un proyecto gubernamental.
“En una sociedad bien funcionante esto sería un proyecto gubernamental,” dijo Altman. “Dado que no está sucediendo, creo que es mejor que esté sucediendo de esta manera como un proyecto estadounidense.”
El gobierno federal aún no ha logrado avances significativos en la legislación de seguridad de la IA. Hubo un esfuerzo en California para aprobar una ley que habría responsabilizado a los desarrolladores de IA por eventos catastróficos como ser utilizada para desarrollar armas de destrucción masiva o para atacar infraestructura crítica. Esa ley fue aprobada en la legislatura pero fue vetada por el gobernador de California, Gavin Newsom.
Algunas de las figuras preeminentes en IA han advertido que asegurar que esté completamente alineada con el bienestar de la humanidad es una cuestión crítica. El laureado con el Premio Nobel Geoffrey Hinton, conocido como el Padrino de la IA, dijo que no podía “ver un camino que garantice la seguridad.” El CEO de Tesla, Elon Musk, ha advertido regularmente que la IA podría llevar a la extinción de la humanidad. Musk fue fundamental para la fundación de OpenAI, proporcionando a la organización sin ánimo de lucro un financiamiento significativo en sus inicios. Financiamiento del cual Altman sigue “agradecido,” a pesar de que Musk lo está demandando.
Ha habido múltiples organizaciones, como el Centro de Investigación de Alineación y la startup Safe Superinteligencia fundada por el ex director científico de OpenAI, que han surgido en los últimos años dedicadas únicamente a esta cuestión.
OpenAI no respondió a una solicitud de comentario.
La IA tal como está diseñada actualmente es adecuada para la alineación, dijo Altman. Debido a eso, argumenta, sería más fácil de lo que parece garantizar que la IA no dañe a la humanidad.
“Una de las cosas que ha funcionado sorprendentemente bien ha sido la capacidad de alinear un sistema de IA para comportarse de una manera particular,” dijo. “Así que si podemos articular lo que eso significa en varios casos diferentes, entonces, sí, creo que podemos hacer que el sistema actúe de esa manera.”
Altman también tiene una idea típicamente única sobre cómo exactamente OpenAI y otros desarrolladores podrían “articular” esos principios e ideales necesarios para asegurar que la IA permanezca de nuestro lado: usar la IA para encuestar al público en general. Sugirió preguntar a los usuarios de chatbots de IA sobre sus valores y luego usar esas respuestas para determinar cómo alinear una IA para proteger a la humanidad.
“Me interesa el experimento mental [en el que] una IA charla contigo durante un par de horas sobre tu sistema de valores,” dijo. “Lo hace conmigo, con todos los demás. Y luego dice ‘bien, no puedo hacer feliz a todo el mundo todo el tiempo.’”
Altman espera que al comunicarse y comprender a miles de millones de personas “a un nivel profundo,” la IA pueda identificar desafíos que enfrenta la sociedad de manera más amplia. A partir de ahí, la IA podría llegar a un consenso sobre lo que tendría que hacer para lograr el bienestar general del público.
La IA tiene un equipo interno dedicado a la superalineación, encargado de garantizar que la futura superinteligencia digital no se descontrole y cause un daño incalculable. En diciembre de 2023, el grupo publicó un documento de investigación temprana que mostraba que estaban trabajando en un proceso mediante el cual un gran modelo de lenguaje supervisaría a otro. Esta primavera, los líderes de ese equipo, Sutskever y Jan Leike, dejaron OpenAI. Su equipo fue desbandado, según reportó CNBC en ese momento.
Leike dijo que se fue debido a desacuerdos crecientes con el liderazgo de OpenAI sobre su compromiso con la seguridad mientras la empresa trabajaba hacia la inteligencia artificial general, un término que se refiere a una IA tan inteligente como un humano.
“Construir máquinas más inteligentes que los humanos es un esfuerzo inherentemente peligroso,” escribió Leike en X. “OpenAI está asumiendo una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura de seguridad y los procesos han pasado a un segundo plano frente a productos relucientes.”
Cuando Leike se fue, Altman escribió en X que estaba “muy agradecido por las contribuciones de [él] a la investigación de alineación y la cultura de seguridad de OpenAI.”
¿A cuántos grados de separación estás de los líderes empresariales más poderosos del mundo? Explora quiénes conforman nuestra nueva lista de las 100 Personas más Poderosas en los Negocios. Además, conoce las métricas que utilizamos para crearla.