La censura en China vuelve a ocupar portadas en una ocasión más debido a una información revelada por Financial Times: según el medio internacional, el Gobierno chino revisa los grandes modelos lingüísticos —LLM, por sus siglas en inglés— de las empresas de inteligencia artificial del país para cerciorarse de que “encarnen valores socialistas fundamentales”. Esta nación ya había bloqueado tecnologías de este tipo, como ChatGPT.
La noticia llega tras un aviso previo, ya que en abril del año pasado China ya había advertido que pretendía llevar a cabo esta medida mediante un borrador de un decreto oficial. Sin embargo, tal y como informaron tres meses después desde Reuters, las reglas de IA generativa se iban a aplicar solo a productos para el público, suavizando así el tono en la normativa con respecto al borrador anterior, detalla 20 Minutos.
Ahora, fuentes del Financial Times afirman que estas revisiones se están llevando a cabo por la Administración del Ciberespacio de China (CAC), el principal regulador de Internet del Gobierno, a compañías de todo tipo, desde gigantes tecnológicos como ByteDance y Alibaba a pequeñas empresas emergentes.
Cómo es la censura que China está aplicando a la IA
El proceso de evaluación, como lo describen múltiples fuentes familiarizadas con el tema, implica evaluaciones exhaustivas de cómo estos LLM responden a una amplia gama de cuestiones.
Muchas de estas consultas ahondan en temas políticos delicados, incluidas referencias al liderazgo de China bajo el presidente Xi Jinping.
Así, los funcionarios de la CAC ponen a prueba los modelos de IA para comprobar sus respuestas a diferentes preguntas y, asimismo, se revisan los datos de entrenamiento y los procesos de seguridad del modelo.
Una fuente anónima de una empresa de inteligencia artificial con sede en Hangzhou que habló con Financial Times dijo que su modelo no pasó la primera ronda de pruebas por razones poco claras. Solo la pasaron la segunda vez después de meses de “adivinar y ajustar”, señala el informe.
Ley china de inteligencia artificial
Recordemos que China fue uno de los primeros países del mundo en aprobar una regulación gubernamental de la inteligencia artificial, en un intento de permitir a las empresas locales mantenerse a la vanguardia de esta nueva tecnología y alcanzar a Estados Unidos en su desarrollo y liderazgo en GenAI, pero sin perder el control de los contenidos que pudiera generar la IA.
Cumplir con las políticas de censura requiere un “filtrado de seguridad”, y se ha vuelto complicado porque los LLM chinos todavía reciben capacitación en una cantidad significativa de contenido en idioma inglés, dijeron al Financial Times varios ingenieros y personas con información privilegiada de la industria.
Según el informe, el filtrado se realiza eliminando “información problemática” de los datos de entrenamiento del modelo de IA y luego creando una base de datos de palabras y frases que son sensibles.
De esta forma, los chatbots más populares del país a menudo se nieguen a responder preguntas sobre temas delicados, como las protestas de la Plaza Tiananmen de 1989. No obstante, parece que hay límites en la cantidad de preguntas que los LLM pueden rechazar directamente, por lo que los modelos deben ser capaces de generar “respuestas políticamente correctas” cuando les consulten sobre estos temas.
Por: Agencias / Foto: Cortesía