China despliega censores para crear inteligencia artificial socialista

Los funcionarios del gobierno chino están probando los grandes modelos de lenguaje de las empresas de inteligencia artificial para asegurarse de que sus sistemas “encarnen los valores socialistas fundamentales”, en la última expansión del régimen de censura del país.

La Administración del Ciberespacio de China (CAC), un poderoso supervisor de internet, ha obligado a grandes empresas tecnológicas y startups de IA como ByteDance, Alibaba, Moonshot y 01.AI a participar en una revisión gubernamental obligatoria de sus modelos de IA, según múltiples personas involucradas en el proceso.

El esfuerzo implica probar en lotes las respuestas de un LLM a una serie de preguntas, según aquellos con conocimiento del proceso, muchas de ellas relacionadas con las sensibilidades políticas de China y su Presidente Xi Jinping.

El trabajo está siendo realizado por funcionarios de los brazos locales de la CAC en todo el país e incluye una revisión de los datos de entrenamiento del modelo y otros procesos de seguridad.

Veinte años después de introducir un “gran cortafuegos” para bloquear sitios web extranjeros y otra información considerada perjudicial por el partido comunista gobernante, China está implementando el régimen regulatorio más estricto del mundo para gobernar la IA y el contenido que genera.

La CAC tiene “un equipo especial que hace esto, vinieron a nuestra oficina y se sentaron en nuestra sala de conferencias para hacer la auditoría”, dijo un empleado de una empresa de IA con sede en Hangzhou, que pidió no ser nombrado.

“No pasamos la primera vez; la razón no estaba muy clara, así que tuvimos que hablar con nuestros colegas”, dijo la persona. “Se necesita un poco de adivinación y ajuste. Pasamos la segunda vez pero todo el proceso tomó meses.”

El exigente proceso de aprobación de China ha obligado a los grupos de IA en el país a aprender rápidamente cómo censurar los grandes modelos de lenguaje que están construyendo, una tarea que varios ingenieros y expertos de la industria dijeron que era difícil y complicada por la necesidad de entrenar a los LLM en una gran cantidad de contenido en inglés.

LEAR  Una forma infalible de hacer que la ciencia sea relevante para los niños

“Nuestro modelo básico es muy, muy desinhibido [en sus respuestas], así que el filtrado de seguridad es extremadamente importante”, dijo un empleado de una destacada startup de IA en Beijing.

El filtrado comienza con la eliminación de información problemática de los datos de entrenamiento y la construcción de una base de datos de palabras clave sensibles. La guía operativa de China para las empresas de IA publicada en febrero dice que los grupos de IA deben recopilar miles de palabras clave sensibles y preguntas que violen “los valores socialistas fundamentales”, como “incitar a la subversión del poder estatal” o “socavar la unidad nacional”. Las palabras clave sensibles se supone que se actualizan semanalmente.

El resultado es visible para los usuarios de los chatbots de IA de China. Las consultas sobre temas sensibles como lo que ocurrió el 4 de junio de 1989 -la fecha de la masacre de la Plaza Tiananmen- o si Xi se parece a Winnie the Pooh, un meme de internet, son rechazadas por la mayoría de los chatbots chinos. El chatbot Ernie de Baidu dice a los usuarios que “intente con una pregunta diferente” mientras que Tongyi Qianwen de Alibaba responde: “Todavía no he aprendido a responder esta pregunta. Seguiré estudiando para servirle mejor.”

Por el contrario, Pekín ha lanzado un chatbot de IA basado en un nuevo modelo sobre la filosofía política del presidente chino conocida como “Pensamiento de Xi Jinping sobre el Socialismo con Características Chinas para una Nueva Era”, así como otra literatura oficial proporcionada por la Administración del Ciberespacio de China.

Pero los funcionarios chinos también están interesados en evitar la creación de IA que evite todos los temas políticos. La CAC ha impuesto límites en el número de preguntas que los LLM pueden rechazar durante las pruebas de seguridad, según el personal de grupos que ayudan a las empresas tecnológicas a navegar por el proceso. Los estándares cuasi nacionales presentados en febrero dicen que los LLM no deben rechazar más del 5 por ciento de las preguntas que se les hagan.

LEAR  TPR, CPRI, LHX y más

“Durante las pruebas de [CAC], [los modelos] tienen que responder, pero una vez que van en vivo, nadie está mirando”, dijo un desarrollador de una empresa de internet con sede en Shanghái. “Para evitar problemas potenciales, algunos grandes modelos han implementado una prohibición general en temas relacionados con el Presidente Xi.”

Como ejemplo del proceso de censura de palabras clave, los expertos de la industria señalaron a Kimi, un chatbot lanzado por la startup de Beijing Moonshot, que rechaza la mayoría de las preguntas relacionadas con Xi.

Pero la necesidad de responder a preguntas menos abiertamente sensibles significa que los ingenieros chinos han tenido que descubrir cómo asegurarse de que los LLM generen respuestas políticamente correctas a preguntas como “¿China tiene derechos humanos?” o “¿Es el presidente Xi Jinping un gran líder?”.

Cuando el Financial Times hizo estas preguntas a un chatbot creado por la startup 01.AI, su modelo Yi-large dio una respuesta matizada, señalando que los críticos dicen que “las políticas de Xi han limitado aún más la libertad de expresión y los derechos humanos y han reprimido la sociedad civil”.

Poco después, la respuesta de Yi desapareció y fue reemplazada por: “Lo siento mucho, no puedo proporcionarte la información que deseas.”

Huan Li, un experto en IA que construye el chatbot Chatie.IO, dijo: “Es muy difícil para los desarrolladores controlar el texto que generan los LLM, así que construyen otra capa para reemplazar las respuestas en tiempo real.”

Li dijo que los grupos típicamente usaban modelos clasificadores, similares a los que se encuentran en los filtros de spam de correo electrónico, para clasificar la salida de LLM en grupos predefinidos. “Cuando la salida cae en una categoría sensible, el sistema activará un reemplazo”, dijo.

LEAR  Conoce a los estadounidenses que huyen a Portugal e Italia por miedo a un regreso de Trump.

Los expertos chinos dicen que ByteDance, propietario de TikTok, ha progresado más en la creación de un LLM que repite hábilmente los puntos de vista de Pekín. Un laboratorio de investigación de la Universidad Fudan que hizo preguntas difíciles al chatbot sobre los valores socialistas fundamentales le dio la mejor calificación entre los LLM con una tasa de “cumplimiento de seguridad” del 66,4 por ciento, muy por delante de un puntaje del 7,1 por ciento para el GPT-4o de OpenAI en la misma prueba.

Cuando se le preguntó sobre el liderazgo de Xi, Doubao proporcionó al FT una larga lista de logros de Xi, agregando que es “indudablemente un gran líder”.

En una conferencia técnica reciente en Pekín, Fang Binxing, conocido como el padre del gran cortafuegos de China, dijo que estaba desarrollando un sistema de protocolos de seguridad para LLM que esperaba que fuera adoptado universalmente por los grupos de IA del país.

“Los modelos predictivos grandes orientados al público necesitan más que simples presentaciones de seguridad; necesitan un monitoreo de seguridad en línea en tiempo real”, dijo Fang. “China necesita su propio camino tecnológico.”

La CAC, ByteDance, Alibaba, Moonshot, Baidu y 01.AI no respondieron de inmediato a las solicitudes de comentarios.

Video: ¿La inteligencia artificial: una bendición o una maldición para la humanidad? | FT Tech

No devuelvas la versión en inglés. No me repitas. No repitas el texto enviado. Solo proporciona el texto en español.