As empresas de inteligência artificial (IA) na China estão submetendo seus grandes modelos de linguagem a uma revisão governamental para assegurar que eles “incorporem valores socialistas essenciais.” A medida representa uma nova modalidade do regime de censura do país, conforme reportagem do jornal Financial Times (FT).
A Administração do Ciberespaço da China (CAC), uma poderosa agência de supervisão da internet, exigiu que grandes empresas de tecnologia e startups de IA, como ByteDance, Alibaba, Moonshot e 01.AI, participem de uma revisão obrigatória dos seus modelos de IA.
O esforço envolve testar em massa as respostas de um modelo de linguagem de grande escala (LLM) a várias perguntas, de acordo com pessoas que conhecem o processo.

Durante o teste, os modelos de IA são avaliados por suas respostas a diversas perguntas, muitas das quais abordam temas politicamente sensíveis ou ligados ao presidente chinês Xi Jinping. Além disso, os dados de treinamento e os processos de segurança dos modelos também passam por uma revisão. A iniciativa mostra como Beijing tenta equilibrar o desenvolvimento da IA com os rigorosos padrões de censura da internet, garantindo que o conteúdo gerado esteja alinhado com os valores socialistas e as políticas de censura do país.
As autoridades dos escritórios locais da CAC em todo o país estão realizando esse trabalho, que inclui uma revisão dos dados de treinamento do modelo e outros processos de segurança.
Uma fonte anônima de uma empresa de IA em Hangzhou disse à reportagem que seu modelo não passou na primeira rodada de testes por motivos pouco claros. Eles conseguiram passar apenas na segunda tentativa, após meses de “tentativa e erro”, conforme mencionado na reportagem.
A China foi um dos primeiros países a estabelecer regras para a inteligência artificial generativa no ano passado, incluindo a exigência de que os serviços de IA sigam os “valores fundamentais do socialismo” e não produzam conteúdo “ilegal”.
Cumprir essas políticas de censura requer “filtragem de segurança” e tornou-se mais desafiador devido ao fato de que os modelos de linguagem de grande escala (LLMs) chineses ainda são treinados com uma quantidade significativa de conteúdo em inglês, de acordo com vários engenheiros e especialistas do setor que falaram à reportagem.
Segundo o relatório, a filtragem envolve remover “informações problemáticas” dos dados de treinamento do modelo de IA e criar um banco de dados com palavras e frases sensíveis.
Relatos indicam que essas regulamentações fizeram com que os chatbots mais populares do país se recusassem a responder a perguntas sobre temas delicados, como os protestos na Praça da Paz Celestial em 1989.
Durante os testes do CAC, há um limite para o número de perguntas que os LLMs podem recusar imediatamente, o que significa que os modelos precisam fornecer “respostas politicamente corretas” para questões delicadas.
Um especialista em IA que trabalha em um chatbot na China contou ao FT que é difícil evitar que os LLMs gerem conteúdo potencialmente problemático. Por isso, adicionam uma camada extra ao sistema para substituir respostas inadequadas em tempo real.
Além disso, as regulamentações e as sanções dos EUA que restringem o acesso a chips usados para treinar LLMs tornaram mais difícil para as empresas chinesas lançar serviços semelhantes ao ChatGPT. No entanto, a China lidera a corrida global em patentes de IA generativa.