DeepSeek: nova versão mostra maior alinhamento com censura chinesa

A mais recente atualização do DeepSeek, modelo de inteligência artificial desenvolvido na China, tem gerado discussões acaloradas no setor de tecnologia. Enquanto a versão R1-0528 apresenta avanços significativos em capacidade computacional e raciocínio lógico, testes independentes revelaram um aumento preocupante na censura de conteúdos considerados sensíveis pelo governo chinês.

O que mudou na nova versão?

De acordo com análises realizadas pela plataforma SpeechMap, especializada em comparar respostas de diferentes modelos de IA, a atualização R1-0528 do DeepSeek se mostrou "substancialmente menos permissiva" quando questionada sobre temas considerados delicados pelo regime de Pequim. A ferramenta agora evita sistematicamente responder a perguntas que possam contrariar as narrativas oficiais do governo chinês.

Essa mudança não chega a ser surpreendente, considerando a rigorosa legislação chinesa sobre inteligência artificial. Desde 2023, uma lei proíbe explicitamente a geração de conteúdo que possa "prejudicar a unidade do país e a harmonia social". Na prática, isso significa que os modelos de IA desenvolvidos na China precisam incorporar mecanismos sofisticados de autocensura.

Capacidades técnicas vs. restrições políticas

Paradoxalmente, enquanto as limitações políticas se intensificam, as capacidades técnicas do DeepSeek continuam impressionando. A própria empresa afirma que o modelo R1-0528 possui capacidade de raciocínio comparável aos modelos o4 mini e o3 da OpenAI, superando concorrentes como o Grok 3 mini da xAI e o Qwen 3 da Alibaba.

O que torna o caso do DeepSeek particularmente interessante é o contraste entre sua sofisticação técnica e seu baixo custo de desenvolvimento. Enquanto modelos ocidentais similares demandam investimentos de dezenas de milhões de dólares, o DeepSeek foi treinado por aproximadamente US$ 6 milhões - uma fração do custo de alternativas como o Llama 3.1 da Meta.

  • Adoção de aprendizado por reforço para eficiência no treinamento

  • Ativação seletiva de parâmetros para economizar recursos

  • Modelo parcialmente aberto para colaboração acadêmica

  • Técnicas avançadas de identificação de padrões

O dilema da IA chinesa

O caso do DeepSeek ilustra claramente o dilema enfrentado pelas empresas de tecnologia chinesas. Por um lado, elas desenvolvem soluções tecnicamente competitivas em termos globais. Por outro, precisam navegar cuidadosamente pelas exigências do regime político, que impõe limites claros à liberdade de expressão e acesso à informação.

Essa tensão fica evidente quando comparamos as respostas do DeepSeek com as de modelos ocidentais em temas como direitos humanos, liberdade de imprensa ou eventos históricos controversos. Enquanto ferramentas como o ChatGPT tendem a fornecer respostas mais abrangentes (ainda que com ressalvas), o DeepSeek frequentemente se recusa a abordar tais assuntos.

Impacto no mercado global de IA

Especialistas apontam que o DeepSeek pode representar um divisor de águas na geopolítica da inteligência artificial. Com custos de desenvolvimento significativamente menores que os concorrentes ocidentais, o modelo chinês se torna uma opção atraente para países em desenvolvimento que buscam alternativas acessíveis. No entanto, essa vantagem econômica vem com um preço político - a adoção do DeepSeek significa implicitamente aceitar as limitações impostas pela censura chinesa.

Um relatório recente do CSIS sugere que a China está usando sua tecnologia de IA como ferramenta de soft power, especialmente na África e no Sudeste Asiático. O DeepSeek já está disponível em 15 idiomas além do mandarim, incluindo swahili e hindi, demonstrando claras ambições de expansão global.

Como a censura é implementada tecnicamente?

Engenheiros de machine learning que estudaram o DeepSeek identificaram pelo menos três camadas de filtragem de conteúdo:

  • Pré-processamento de prompts para identificar temas sensíveis antes mesmo do processamento pelo modelo principal

  • Modificação dinâmica de pesos durante a geração de respostas para reduzir probabilidade de saídas indesejadas

  • Pós-processamento agressivo que revisa e edita respostas antes da exibição ao usuário

O que surpreende muitos observadores é a sofisticação desses mecanismos. Em vez de simplesmente bloquear palavras-chave, o DeepSeek utiliza técnicas avançadas de NLP para entender o contexto e a intenção por trás das perguntas. Testes mostram que o modelo consegue identificar e censurar até mesmo perguntas indiretas sobre temas proibidos.

Reações da comunidade acadêmica

A decisão da DeepSeek AI de liberar parcialmente o código-fonte do modelo para pesquisas acadêmicas gerou debates éticos intensos. Enquanto alguns pesquisadores defendem que qualquer avanço no campo da IA merece ser estudado, outros argumentam que colaborar com um sistema intrinsecamente censurado pode legitimar práticas antidemocráticas.

"Estamos diante de um paradoxo científico", comenta Dra. Li Wei, professora de ética tecnológica na Universidade de Hong Kong. "Por um lado, o DeepSeek representa avanços técnicos genuínos que poderiam beneficiar a humanidade. Por outro, seu desenvolvimento está inextricavelmente ligado a um sistema de controle de informação que muitos consideram opressivo."

Esse dilema ético se reflete nas publicações científicas recentes. Uma busca no arXiv mostra que o número de papers citando o DeepSeek triplicou nos últimos seis meses, mas muitos incluem longas seções de "limitações éticas" discutindo justamente as questões de censura.

Pesquisadores analisando códigos do DeepSeek em uma universidade

O futuro da IA na China

Analistas do setor acreditam que o DeepSeek é apenas o primeiro de uma nova geração de modelos chineses que buscarão equilibrar excelência técnica com conformidade política. Fontes próximas ao Ministério da Ciência e Tecnologia da China sugerem que Pequim planeja investir pesadamente em IA "com características chinesas" - um eufemismo para sistemas que combinam capacidades avançadas com censura robusta.

Rumores indicam que a próxima versão do DeepSeek, prevista para o quarto trimestre de 2025, incorporará mecanismos ainda mais sofisticados de moderação de conteúdo, incluindo detecção automática de "notícias falsas" baseada nas definições do Partido Comunista Chinês. Ao mesmo tempo, promete melhorias de 40% na velocidade de inferência e suporte a mais 12 idiomas.

Enquanto isso, startups ocidentais de IA observam atentamente o fenômeno DeepSeek. Algumas já começaram a desenvolver suas próprias técnicas de treinamento eficiente inspiradas no modelo chinês, embora insistam que não replicarão seus mecanismos de censura. "Podemos aprender com sua eficiência computacional sem abraçar suas restrições à liberdade de expressão", afirmou o CEO de uma concorrente do Vale do Silício que preferiu não ser identificado.

Com informações do: Olhar Digital