Um caso recente nos tribunais trabalhistas brasileiros serve como alerta sobre os limites da inteligência artificial no campo jurídico. Um homem, após ser demitido, decidiu entrar com um processo contra sua ex-empresa usando o ChatGPT como consultor legal. O resultado foi desastroso e acabou prejudicando ainda mais sua situação perante a justiça.

O erro que comprometeu o caso

O homem, cuja identidade não foi revelada, utilizou o chatbot da OpenAI para elaborar sua petição inicial e buscar fundamentos jurídicos para seu processo. No entanto, ele cometeu um erro crucial: apresentou ao juiz que havia usado a IA como fonte de sua argumentação. Essa admissão transformou completamente o andamento do caso.

O juiz, ao perceber que as argumentações eram baseadas em consultas ao ChatGPT e não em assessoria jurídica profissional, considerou que o autor estava usando o sistema judicial de má-fé. A situação piorou quando se descobriu que algumas citações jurídicas e precedentes mencionados na petição simplesmente não existiam - haviam sido inventados pela inteligência artificial.

Os perigos de confiar cegamente em IAs

Esse caso ilustra perfeitamente um problema crescente: a tendência das pessoas de tratarem ferramentas como o ChatGPT como especialistas confiáveis em áreas que requerem conhecimento técnico específico. As IAs generativas são excelentes para muitas tarefas, mas ainda cometem erros factuais graves, especialmente em campos complexos como o direito.

No Brasil, o exercício da advocacia é atividade privativa de profissionais formados em direito e devidamente inscritos na OAB. Embora qualquer cidadão possa representar a si mesmo judicialmente (o chamado "jus postulandi"), casos complexos como ações trabalhistas geralmente exigem conhecimento técnico que vai além da capacidade atual das inteligências artificiais.

O que isso significa para o futuro

Esse episódio levanta questões importantes sobre como as cortes brasileiras lidarão com o aumento no uso de IAs em processos judiciais. Alguns tribunais já começaram a estabelecer regras claras sobre o uso de ferramentas de IA por advogados, exigindo transparência sobre seu uso e verificações humanas rigorosas de todo conteúdo gerado artificialmente.

Para cidadãos comuns, a lição é clara: ferramentas como ChatGPT podem ser úteis para entender conceitos básicos ou organizar ideias, mas nunca devem substituir profissionais qualificados em áreas onde erros podem ter consequências graves. O barato que saiu caro, como diz o ditado popular.

O caso continua servindo como estudo em faculdades de direito sobre os perigos da automedicação jurídica com auxílio de inteligência artificial. E deixa uma pergunta no ar: quantos outros casos similares estão ocorrendo sem que cheguem ao conhecimento público?

O fenômeno da "hallucination" jurídica

O que aconteceu neste caso específico foi um exemplo clássico do que especialistas em IA chamam de "alucinação" - quando modelos de linguagem inventam informações que parecem plausíveis, mas são completamente fictícias. No direito, isso é particularmente perigoso porque citações jurídicas, números de processos e precedentes precisam ser absolutamente precisos.

Imagine a frustração do juiz ao tentar localizar os supostos "ARE 1.231.456 do STF" ou "TST-RR-987.654/2020" que simplesmente não existiam nos sistemas do tribunal. E pior: o autor insistia que estavam corretos porque "o ChatGPT disse". Essa confiança cega em tecnologia sem verificação cruzada é o que transformou um caso trabalhista potencialmente válido em uma situação de descrédito completo.

As consequências práticas para o reclamante

Além do óbvio prejuízo processual - seu caso foi extinto sem análise do mérito -, o homem agora enfrenta possíveis consequências mais graves. O juiz mencionou na decisão a possibilidade de aplicar multa por litigância de má-fé, o que poderia significar ter que pagar as custas processuais e honorários advocatícios da parte contrária.

Mas o dano vai além do financeiro. Há um estigma profissional que pode surgir quando alguém tenta usar métodos não convencionais e falha espectacularmente. Em futuras ações trabalhistas, esse histórico poderá ser usado contra ele, sugerindo um padrão de comportamento processual inadequado.

E aqui está um ponto que muitos não consideram: mesmo que ele decidisse contratar um advogado posteriormente, o processo já estava contaminado pela primeira petição. Às vezes, uma primeira impressão judicial negativa é difícil de superar, não importa quão bons sejam seus argumentos subsequentes.

O que as empresas de tecnologia dizem?

Curiosamente, se você consultar os termos de uso do ChatGPT, encontrará avisos explícitos sobre não usar o sistema para "assuntos jurídicos, médicos ou financeiros" sem supervisão profissional. A OpenAI é bastante clara sobre as limitações de sua tecnologia, mas quantos usuários realmente leem esses avisos?

Em comunicado recente, a empresa reforçou que "o ChatGPT não é um substituto para aconselhamento profissional especializado e pode produzir informações imprecisas ou incompletas". Mas será que esses avisos são suficientemente destacados para usuários leigos que estão em situações de vulnerabilidade?

Alguns especialistas em ética tecnológica argumentam que as empresas de IA deveriam implementar sistemas mais robustos de verificação de fatos ou, pelo menos, alertas mais proeminentes quando usuários fazem consultas sobre temas sensíveis como direito. Mas onde termina a responsabilidade da empresa e começa a do usuário?

Casos similares ao redor do mundo

Este não é um fenômeno exclusivamente brasileiro. Nos Estados Unidos, um advogado foi multado em US$ 5.000 por usar o ChatGPT para preparar um caso e apresentar precedentes judiciais inventados. Na Inglaterra, um tribunal advertiu que advogados que usam IA sem verificação adequada podem enfrentar sanctions profissionais.

O que diferencia o caso brasileiro é que aqui o usuário era um leigo completo, não um advogado que deveria saber melhor. Isso levanta questões interessantes sobre acesso à justiça: se alguém não pode pagar por um advogado e a IA é acessível, é natural que tente usá-la. O problema é que a "economia" inicial pode resultar em custos muito maiores depois.

Em países com sistemas jurídicos menos acessíveis financeiramente, como o Brasil, o apelo de ferramentas gratuitas de IA para assuntos legais só tende a crescer. Isso cria uma tensão entre democratização do conhecimento jurídico e os riscos de desinformação em escala.

O papel das defensoriais públicas

Este caso particular me faz pensar: onde estavam as defensoriais públicas quando esse homem precisou recorrer ao ChatGPT? Em muitas comarcas do Brasil, os serviços de defensoria estão sobrecarregados, com waitlists que podem levar meses. Essa lacuna no acesso à justiça está criando um mercado informal de "consultoria jurídica" via IA.

Algumas defensoriais já começaram a implementar chatbots próprios para triagem inicial de casos, mas estes são desenvolvidos especificamente para o contexto jurídico brasileiro e com supervisão de profissionais. A diferença crucial é que esses sistemas não inventam precedentes ou citações - apenas direcionam usuários para informações verificadas.

Talvez a lição aqui seja que, em vez de simplesmente proibir ou criticar o uso de IA no direito, precisamos pensar em como integrá-la de forma responsável nos sistemas de acesso à justiça. Mas como fazer isso sem comprometer a qualidade do aconselhamento jurídico?

O Conselho Nacional de Justiça recentemente formou comissões para estudar o uso de IA no judiciário, mas o foco tem sido mais em eficiência processual do que em orientar cidadãos leigos. Há uma oportunidade aqui para criar diretrizes claras sobre o uso responsável de ferramentas de IA por não-advogados.

Com informações do: IGN Brasil