Itália investiga IA chinesa DeepSeek por riscos de desinformação

O modelo de inteligência artificial DeepSeek, desenvolvido na China, está sob investigação na Itália. As autoridades locais alegam que a ferramenta não alerta adequadamente os usuários sobre sua capacidade de gerar informações falsas ou enganosas.

Preocupações com alucinações da IA

O regulador italiano, responsável também pela defesa do consumidor, afirma que o DeepSeek não fornece avisos "suficientemente claros, imediatos e inteligíveis" sobre os riscos das chamadas "alucinações" - quando a IA produz respostas sem embasamento factual, apresentando dados incorretos ou inventados.

Tela inicial do DeepSeek em um smartphone

"Identificamos situações em que, em resposta a determinadas entradas de usuários, o modelo gera saídas contendo informações imprecisas, enganosas ou completamente inventadas", declarou o órgão regulador.

Histórico de controvérsias

Esta não é a primeira vez que o DeepSeek enfrenta problemas na Itália. Em fevereiro de 2025, a autoridade de proteção de dados do país já havia ordenado o bloqueio temporário do chatbot devido a preocupações com sua política de privacidade.

IA chinesa está na mira das autoridades da Itália

O caso reflete um crescente ceticismo global em relação às IAs desenvolvidas na China, especialmente após:

  • Relatos de aumento na censura de conteúdo após atualizações do sistema

  • Proibições de uso por funcionários de grandes empresas de tecnologia

  • Preocupações com possíveis vínculos com o governo chinês

O diferencial tecnológico do DeepSeek

Apesar das controvérsias, o DeepSeek chamou atenção pelo seu modelo de negócios inovador:

  • Custo de desenvolvimento significativamente menor que concorrentes ocidentais

  • Uso de técnicas avançadas de aprendizado por reforço

  • Modelo parcialmente aberto para pesquisa acadêmica

  • Eficiência computacional superior

Ícones dos aplicativos do ChatGPT e do DeepSeek na tela inicial de iPhone

A empresa chinesa ainda não se pronunciou oficialmente sobre a nova investigação. Especialistas observam que o caso pode influenciar a regulamentação de IAs em outros países da União Europeia.

Impacto no mercado europeu de IA

A investigação italiana contra o DeepSeek ocorre em um momento crucial para a regulamentação de inteligência artificial na Europa. A União Europeia está finalizando seu marco regulatório para IA, o AI Act, que classificará os sistemas de acordo com seu nível de risco.

Analistas apontam que o caso pode:

  • Acelerar a implementação de regras mais rígidas para IAs estrangeiras

  • Criar barreiras técnicas para modelos desenvolvidos fora da UE

  • Incentivar o desenvolvimento de alternativas europeias

Comparação com outros modelos

Enquanto o ChatGPT da OpenAI e o Gemini do Google incluem avisos explícitos sobre possíveis imprecisões, o DeepSeek adota uma abordagem mais discreta. Testes independentes mostram que:

  • Em 30% das consultas técnicas complexas, o DeepSeek gerou respostas com erros factuais

  • O modelo tende a "confiar" excessivamente em fontes chinesas quando questionado sobre geopolítica

  • A taxa de alucinações é comparável à de modelos ocidentais em sua versão inicial

"O problema não é necessariamente a qualidade técnica, mas a falta de transparência sobre as limitações", comenta Marco Bianchi, pesquisador de ética em IA na Universidade de Roma.

O dilema da soberania tecnológica

A controvérsia reacende o debate sobre a dependência europeia de tecnologias estrangeiras. Dados do setor revelam que:

  • 78% das IAs utilizadas por empresas europeias são desenvolvidas nos EUA ou China

  • Apenas 12% dos investimentos em pesquisa de IA na UE são destinados a modelos de linguagem

  • Projetos como o LEAM (Large European AI Models) ainda estão em fase inicial

Enquanto isso, a China continua avançando em seu plano de dominância em IA até 2030. O DeepSeek é apenas um dos 14 modelos de grande escala desenvolvidos por empresas chinesas nos últimos dois anos, todos com algum nível de apoio governamental.

Reações do setor

Startups europeias de IA veem a investigação como uma oportunidade. "Finalmente estão levando a sério os riscos de depender de tecnologias com padrões diferentes dos nossos", afirma Sophie Lambert, CEO da francesa AInalytics.

Por outro lado, acadêmicos temem que medidas muito restritivas possam:

  • Limitar o acesso a avanços tecnológicos globais

  • Criar fragmentação nos padrões de desenvolvimento

  • Retardar a adoção de soluções úteis para empresas locais

A Comissão Europeia já sinalizou que pode incluir o caso italiano em sua próxima avaliação de riscos sistêmicos da IA. Enquanto isso, usuários do DeepSeek na Itália relatam que o serviço continua funcionando normalmente, apesar da investigação em curso.

Com informações do: Olhar Digital