Precisão Fabricada: O Problema das Alucinações de IA no Direito Brasileiro
Análise técnica e jurídica das alucinações de IA — com casos reais do STF, TJSC e TRTs, dados do Stanford HAI, marco regulatório brasileiro (CNJ 615/2025, OAB 001/2024) e estratégias de mitigação.
Escrito por
Co-Piloto Jurídico
O Que São Alucinações de IA e Por Que o Direito É o Setor Mais Vulnerável
"Alucinação" é o termo técnico para quando um modelo de linguagem grande (LLM) gera informações factualmente incorretas com aparência de veracidade. No contexto jurídico, isso significa citações de jurisprudência inexistente, artigos de lei fabricados, súmulas com conteúdo inventado e interpretações doutrinárias sem fundamento — tudo apresentado com a mesma confiança linguística de uma resposta correta.
Segundo dados do AI Hallucination Report 2026 (AllAboutAI/Vectara Leaderboard), o domínio jurídico apresenta taxa de alucinação de 6,4% em consultas factuais gerais — a pior entre todas as categorias analisadas, superando até medicina (4,3%) e pesquisa científica (3,7%). Quando se trata de ferramentas genéricas respondendo perguntas jurídicas específicas, os números são ainda mais alarmantes: o estudo de Stanford de 2024 encontrou taxas entre 69% e 88% em LLMs de propósito geral.
Anatomia Técnica: Por Que LLMs Alucinam
Arquitetura Transformer e Geração Autoregressiva
LLMs são baseados na arquitetura Transformer, que gera texto token por token de forma autoregressiva — cada palavra é prevista com base nas anteriores. Não existe mecanismo interno para suspender, recusar ou expressar incerteza. O modelo é otimizado para produzir texto que parece correto, não para verificar se é correto.
Quando o contexto de entrada não fornece informação suficiente, as probabilidades estimadas tornam-se quase uniformes entre vários tokens possíveis. A diferença entre a opção mais provável e as seguintes diminui, aumentando a chance de seleção incorreta. Uma vez que um erro entra na sequência, ele se propaga em cascata — tokens subsequentes constroem sobre o equívoco.
Viés de Exposição (Exposure Bias)
Durante o treinamento, o modelo aprende com sequências corretas (teacher forcing). Na inferência, gera com base em suas próprias saídas anteriores. Essa discrepância — chamada viés de exposição — faz com que a qualidade da geração degrade à medida que a sequência cresce, especialmente em textos longos como petições jurídicas.
Ausência de Fundamentação Factual
O modelo armazena padrões estatísticos, não fatos verificados. Não possui mecanismo para distinguir entre uma citação real do STJ e uma fabricação plausível — ambas são sequências de tokens igualmente "prováveis". É por isso que alucinações jurídicas são particularmente perigosas: o formato de uma citação (tribunal, número, relator, ementa) é altamente padronizado, facilitando a geração de falsificações convincentes.
Corte Temporal dos Dados de Treinamento
Modelos são treinados com snapshots de dados congelados em datas específicas. Nova legislação, jurisprudência recente e alterações regulatórias posteriores ao corte são desconhecidas. Para o direito brasileiro, isso é crítico: a Resolução CNJ 615/2025, a Recomendação OAB 001/2024 e o andamento do PL 2338/2023 são exemplos de marcos recentes que podem não estar nos dados de treinamento.
Casos Reais: Quando a IA Inventa Direito
O Caso Mata v. Avianca — O Marco Zero (EUA, 2023)
Em Mata v. Avianca, Inc. (678 F.Supp.3d 443, S.D.N.Y. 2023), os advogados Peter LoDuca e Steven Schwartz utilizaram ChatGPT para elaborar uma petição que continha múltiplas citações de casos completamente fabricados. Quando questionados, consultaram o ChatGPT novamente, que "assegurou" que os casos "existem e podem ser encontrados em bases como LexisNexis e Westlaw". Em 22 de junho de 2023, o tribunal aplicou multa de US$ 5.000. O caso tornou-se referência mundial.
STF — Min. Cristiano Zanin (Maio/2025)
O Ministro Zanin rejeitou Reclamação Constitucional cuja petição, elaborada com auxílio de IA, continha: acórdãos inexistentes (ARE 1.218.084 AgR, REs 464.867/SP e 328.111/DF — "não localizados"), atribuição incorreta de conteúdo à Súmula Vinculante 6 e marca d'água "Created with MobiOffice" em todas as páginas. Zanin concluiu que o advogado "possivelmente utilizou ferramenta de inteligência artificial na elaboração da petição inicial e, sem qualquer revisão posterior, temerariamente a protocolou no Supremo Tribunal Federal". Aplicou multa por litigância de má-fé e oficiou o Conselho Federal da OAB e OAB/BA.
TJSC — 6ª Câmara de Direito Civil (Fevereiro/2025)
O Des. Marcos Fey Probst aplicou multa de 10% sobre o valor da causa por litigância de má-fé após identificar jurisprudência e doutrina fabricadas em recurso. O advogado alegou "uso inadvertido" do ChatGPT. O tribunal rejeitou a defesa: "O surgimento de novas tecnologias de inteligência artificial exige que os operadores a utilizem com cautela e parcimônia". Caso encaminhado à OAB/SC.
TRT-2 — 6ª Turma, São Paulo (Fevereiro/2026)
A 6ª Turma do TRT da 2ª Região condenou empresa ao pagamento de multa de 5% sobre o valor da causa após seu advogado citar precedentes trabalhistas inexistentes gerados por IA. O advogado admitiu uso de "inteligência artificial generativa" e tentou responsabilizar estagiários. O juiz Fernando Cesar Teixeira França rejeitou: "litigar é função exclusiva do advogado", referenciando a Recomendação OAB 001/2024 sobre supervisão de IA.
TRT-12 — Santa Catarina
Trabalhadora foi multada em R$ 3.700 após sua advogada protocolar petição inicial repleta de decisões judiciais inexistentes, citações doutrinárias fabricadas e até o nome de um desembargador que não existe — tudo aparentemente gerado por inteligência artificial.
TJSC — 5ª Câmara Criminal
Em caso de violência doméstica, a 5ª Câmara Criminal indeferiu pedido de habeas corpus que continha citações de jurisprudência inexistente, com indícios claros de elaboração por IA. O advogado foi advertido.
Escala Global do Problema
O banco de dados de Damien Charlotin documenta mais de 300 instâncias de alucinações de IA em peças processuais mundialmente. O crescimento é exponencial: de ~2 casos por semana para 2-3 casos por dia em meados de 2025. Foram documentados 156 casos de advogados sancionados por citações fabricadas por IA até agosto de 2025.
O Que Dizem os Estudos de Stanford
Estudo 1: "Large Legal Fictions" (Dahl et al., 2024)
Publicado no Journal of Legal Analysis (Vol. 16, No. 1, pp. 64-93), pesquisadores do Stanford RegLab testaram GPT 3.5, Llama 2 e PaLM 2 em consultas jurídicas:
- Taxa de alucinação geral: 69% a 88%
- Consultas sobre holdings de tribunais: 75%+ de alucinação
- Relações de precedente: desempenho equivalente a adivinhação aleatória
- Casos de tribunais inferiores sofrem mais alucinações que do Supremo
- Modelos exibem excesso de confiança — não conseguem prever quando estão alucinando
Estudo 2: "Hallucination-Free?" (Magesh et al., 2025)
Publicado no Journal of Empirical Legal Studies, testou ferramentas RAG especializadas:
| Ferramenta | Taxa de Alucinação |
|---|---|
| Lexis+ AI | ~17% |
| Ask Practical Law AI | ~23% |
| Westlaw AI-Assisted Research | ~33% |
| GPT-4 (standalone) | ~43% |
| Chatbots genéricos (legal) | 58-80% |
Mesmo ferramentas com RAG que fornecem citações às vezes referenciam casos que não sustentam o que a ferramenta afirma.
Marco Regulatório Brasileiro
Resolução CNJ 615/2025 — O Novo Marco da IA no Judiciário
Publicada em 11 de março de 2025, esta resolução revoga e moderniza a Resolução 332/2020. É o primeiro marco regulatório específico para IA generativa no Judiciário brasileiro:
- Supervisão humana obrigatória: ferramentas de IA são "auxiliares e complementares" — proibidas como instrumentos autônomos para decisões judiciais sem "devida orientação, interpretação, verificação e revisão pelo magistrado"
- Classificação de risco: sistema estruturado de categorização para ferramentas de IA
- Avaliações de impacto: obrigatórias antes da implantação
- Privacy by design/default: incorporação expressa
- Capacitação obrigatória: tribunais e escolas judiciais devem oferecer formação sobre limitações, riscos e uso ético de IA antes que magistrados e servidores possam utilizá-las
- Transparência: avaliações de sistemas de IA devem ser publicadas e acessíveis ao público
- Comitê Nacional de IA: 14 membros titulares e 13 suplentes, incluindo representantes do CNJ, magistrados, especialistas em tecnologia, OAB, Ministério Público e sociedade civil
Recomendação OAB 001/2024 — Uso de IA na Advocacia
Aprovada em 14 de novembro de 2024 pelo Conselho Federal da OAB, estabelece quatro pilares:
- Conformidade Legal: uso deve respeitar Estatuto da Advocacia, Código de Ética da OAB, LGPD e CPC
- Sigilo e Privacidade: advogados devem garantir sigilo profissional ao inserir dados em sistemas de IA; avaliar segurança de fornecedores; dados não devem ser usados para treinamento de modelos
- Exercício Ético: IA não pode realizar atividades privativas da advocacia nem substituir o julgamento profissional; supervisão humana obrigatória
- Comunicação ao Cliente: formalização escrita da intenção de uso de IA, explicando finalidade, benefícios, limitações e riscos; consentimento expresso do cliente
PL 2338/2023 — Marco Legal da IA
Aprovado pelo Senado em dezembro de 2024, em análise por comissão especial na Câmara dos Deputados com votação final prevista para 2026. Principais disposições:
- Classificação de sistemas de IA baseada em risco (inspirado no EU AI Act)
- Criação do Sistema Nacional de Regulação e Governança de IA (SIA), vinculado à ANPD
- Princípios: dignidade humana, privacidade, igualdade, transparência, inovação responsável
- Direitos para pessoas afetadas por decisões de IA: explicação, revisão, contestação
LGPD e Inteligência Artificial
A LGPD (Lei 13.709/2018) aplica-se a todos os sistemas de IA que processam dados pessoais. Um estudo da FGV destacou que nenhum dos sistemas de IA em uso no Brasil estava em plena conformidade com a LGPD. O direito ao apagamento (Art. 18) é particularmente complexo — dados incorporados ao treinamento de modelos podem exigir retreinamento completo para remoção. Penalidades: até 2% do faturamento bruto, limitado a R$ 50 milhões por infração.
Estratégias de Mitigação: O Estado da Arte
RAG (Retrieval-Augmented Generation)
Atualmente a técnica mais eficaz, reduzindo alucinações em aproximadamente 71% quando implementada adequadamente. O RAG fornece fundamentação factual de uma base de conhecimento externa enquanto o modelo gera texto fluente. Permite atualizações modulares sem retreinamento. Entretanto, o estudo de Stanford de 2025 mostrou que ferramentas jurídicas baseadas em RAG ainda alucinam entre 17% e 33% do tempo.
RLHF e Constitutional AI
RLHF (Reinforcement Learning from Human Feedback) refina respostas com base em avaliações humanas. Constitutional AI (Anthropic) utiliza um conjunto de princípios para guiar autocrítica e revisão, reduzindo alucinações prejudiciais em 85%. A combinação RAG + RLHF + guardrails alcançou redução de 96% em relação a modelos baseline em estudo de Stanford de 2024.
Evolução das Taxas de Alucinação
Os dados do Vectara Hallucination Leaderboard mostram evolução significativa entre 2021 e 2025:
| Modelo | Taxa de Alucinação |
|---|---|
| Gemini 2.0 Flash (2025) | 0,7% |
| OpenAI o3-mini-high (2025) | 0,8% |
| GPT-4.5 Preview (2025) | 1,2% |
| GPT-4o (2024) | 1,5% |
| GPT-4 (2023) | 1,8% |
| Llama-2-70B (2023) | 5,9% |
| Modelos de 2021 | 21,8% |
Uma melhoria de 96% em 4 anos — mas mesmo 0,7% em milhões de consultas jurídicas significa milhares de erros potenciais.
Verificação de Citações e Fundamentação
A verificação de citações é crucial mas insuficiente isoladamente — o estudo de Stanford mostrou que mesmo quando ferramentas de IA fornecem citações, estas às vezes não sustentam efetivamente as alegações feitas. Técnicas complementares incluem: ancoragem em base de conhecimento, verificação multi-fonte, chain-of-thought prompting para transparência de raciocínio.
Recomendações Práticas para Advogados
- Nunca confie cegamente: verifique TODA citação em fontes primárias (planalto.gov.br, tribunais oficiais, bases como JusBrasil)
- Use ferramentas especializadas: ferramentas jurídicas com RAG (17-33% de alucinação) são significativamente mais confiáveis que chatbots genéricos (58-80%)
- Documente o uso de IA: conforme Recomendação OAB 001/2024, formalize por escrito e obtenha consentimento do cliente
- Conheça os limites temporais: verifique a data de corte do modelo e busque legislação/jurisprudência posterior separadamente
- Revise o raciocínio, não apenas o resultado: analise se a cadeia lógica faz sentido, não apenas se o texto "soa bem"
- Mantenha-se atualizado: a CNJ 615/2025 exige capacitação; a OAB pode responsabilizar advogados que não supervisionem adequadamente
- Considere a responsabilidade profissional: os casos do STF, TJSC e TRTs demonstram que "uso inadvertido de IA" não é defesa aceita — o advogado responde pela peça que assina
Conclusão: A IA É Ferramenta, Não Substituta
As alucinações de IA não são bugs que serão corrigidos na próxima versão — são consequência estrutural da arquitetura de modelos de linguagem. A geração autoregressiva, por design, não possui mecanismo de verificação factual intrínseco. Mesmo com os avanços impressionantes (de 21,8% para 0,7% de alucinação geral em 4 anos), o domínio jurídico permanece o mais vulnerável, e as consequências de um erro são graves: multas, sanções da OAB, prejuízo ao cliente.
O marco regulatório brasileiro está se consolidando rapidamente — a Resolução CNJ 615/2025, a Recomendação OAB 001/2024 e o PL 2338/2023 convergem em um ponto: supervisão humana obrigatória. A IA é uma ferramenta poderosa de produtividade jurídica, mas a responsabilidade pela peça processual permanece — e deve permanecer — do advogado que a subscreve.
Referências e Fontes
- Dahl, M. et al. "Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models." Journal of Legal Analysis, Vol. 16, No. 1, pp. 64-93, 2024.
- Magesh, V. et al. "Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools." Journal of Empirical Legal Studies, 2025.
- CNJ. Resolução 615/2025 — Normas para desenvolvimento, governança, auditoria, monitoramento e uso responsável de IA no Judiciário.
- CNJ. Resolução 332/2020 — Ética, transparência e governança na produção e no uso de IA no Poder Judiciário.
- OAB. Recomendação N. 001/2024 — Uso de IA na prática jurídica.
- PL 2338/2023 — Marco Legal da Inteligência Artificial (Senado Federal).
- Mata v. Avianca, Inc., 678 F.Supp.3d 443 (S.D.N.Y. 2023).
- STF — Min. Zanin, Reclamação com petição elaborada por IA (Maio/2025).
- TJSC — 6ª Câmara Cível, multa por jurisprudência falsa gerada por IA (Fev/2025).
- TRT-2 — 6ª Turma, multa por precedentes inexistentes gerados por IA (Fev/2026).
- TRT-12 — Multa por petição com decisões e desembargador inexistentes.
- Vectara Hallucination Leaderboard (HuggingFace), 2025.
- AllAboutAI, AI Hallucination Report 2026.
- Charlotin, D. AI Hallucination Cases Database (300+ instâncias documentadas).