Artigos Conjur – IA generativa no Judiciário brasileiro: realidade e alguns desafios

Artigos Conjur
Artigos Conjur || IA generativa no Judiciário…Início / Conteúdos / Artigos / Conjur
Artigo || Artigos dos experts no Conjur

IA generativa no Judiciário brasileiro: realidade e alguns desafios

O artigo aborda a implementação e os desafios da inteligência artificial generativa no Judiciário brasileiro, destacando sua evolução e os riscos associados, como a alucinação de dados e o viés de automação. Discute a necessidade de supervisão humana para garantir decisões judiciais eficazes e a preservação do pensamento crítico dos profissionais do Direito. Além disso, propõe a capacitação contínua dos operadores do Direito para um uso responsável e ético dessas tecnologias.

Artigo no Conjur

O uso da inteligência artificial no campo do Direito ainda é recente, mas o estranhamento que existia há poucos anos, quando predominavam apenas as IAs preditivas (analíticas), antes do surgimento dos grandes modelos de linguagem, que embasam o ChatGPT, diminuiu significativamente.

Isso não significa que o avanço exponencial dessa tecnologia de propósito geral, que oferta respostas probabilísticas com bastante eficiência em inúmeros campos, não continue surpreendendo. Em especial, pelo investimento brutal que as grandes empresas de tecnologia promovem para novas descobertas e novos usos.

A cada semana, vemos novas “ferramentas” e vem se expandindo a percepção de que o conhecimento desse campo se tornou essencial a todos os profissionais de qualquer área, até mesmo porque o somatório humano + máquina auxilia enormemente na eficiência e qualidade em inúmeros campos.

A popularização se deu inicialmente pelo uso direto das ferramentas (como ChatGPT, Gemini e Claude) mediante uma sequência de simples comandos (prompts) para obtenção de respostas com alto grau de verossimilhança. A própria OPEN Ai desenvolveu instruções simples para uma boa engenharia de prompts [1].

De lá para cá, passamos para a era dos assistentes, com as customizações de IAs generativas para ofertar soluções especificas para questões individualizadas, com prompts pré-programados: assistente de pesquisa [2], elaborador de ementas de julgados [3] etc.

Os tribunais pátrios estão investindo significativamente na personalização de ferramentas tecnológicas para otimizar suas atividades. Como exemplo, desde fevereiro de 2025, o STJ implementou o projeto Logos [4], que utiliza o GPT-4o para auxiliar assessores na análise de recursos especiais, HCs etc. A ferramenta oferece um “Painel de Controle” que acessa automaticamente os autos e os organiza em suas principais peças. Com comandos simples (prompts), o modelo pode gerar relatórios sobre o recurso, fornecer resumos das peças processuais e identificar trechos específicos relevantes para o juízo de admissibilidade, destacando-os diretamente nas peças indicadas.

Em sentido análogo, a Justiça do trabalho estruturou o projeto ChatJT [5], ferramenta de inteligência artificial desenvolvida com base no GEMINI para otimizar consultas, automatizar fluxos de trabalho e auxiliar na tomada de decisões estratégicas. Adaptado às necessidades do Judiciário, o sistema permite acesso facilitado a leis e jurisprudência por meio do Sistema Falcão, entre outros usos.

No entanto, o projeto mais ousado é o ASSIS que promete a personalização de decisões em conformidade com o banco de dados de cada magistrado [6]. Se trata de um assistente jurídico de IA Gen desenvolvido pelo TJRJ, com o objetivo de auxiliar magistrados na elaboração de decisões e minutas de sentenças para processos judiciais de primeira instância. Utilizando o GPT-4o, o sistema pode gerar automaticamente textos jurídicos com base nos documentos armazenados no PJe, permitindo a análise detalhada das peças e a extração de informações. Além disso, o Assis conta com acesso a um acervo de sentenças previamente proferidas, garantindo maior precisão e alinhamento com a jurisprudência e as práticas judiciais do tribunal.

Ainda não podemos esquecer que especialmente a partir do ano corrente se inicia para acesso geral a era dos agentes. A OPEN AI, fabricante do ChatGPT, divulgou a disponibilização de alguns novos agentes de Inteligência Artificial, como o Operator [7].

Um recente relatório da Mckinsey indica que 2025 será um ano propenso ao uso destes agentes para executar tarefas complexas e multietapas, indo além da geração de conteúdo. Eles planejam, colaboram e atuam em ecossistemas digitais [8].

Como explica Noam Kolt [9] os agentes se diferenciam dos usos já conhecidos das IAs generativas, pois “enquanto os modelos de linguagem são ‘copilotos’ que podem produzir conteúdo útil mediante solicitação, os agentes de IA são ‘pilotos automáticos’ que podem tomar ações de forma independente para atingir objetivos complexos em nome dos usuários”.

Estes novos colaboradores podem resolver desde problemas domésticos (v.g. compras de supermercado), até problemas sofisticados em áreas especializadas, mas seu uso ainda é embrionário na área jurídica.

Todos os exemplos de usos acima indicados demonstram que a IA Gen já se tornou onipresente na nossa área, de modo que além da preocupação óbvia com a essencialidade do letramento digital para evitar riscos já diagnosticados [10], precisamos explorar outros dilemas, tais como: a) o uso recorrente de IA por profissionais em nossa área compromete sua capacidade crítica? b) qualquer supervisão humana das respostas da IA é suficiente para garantir qualidade e respeito aos direitos fundamentais processuais?. O texto visa analisar essas preocupações.

Armadilhas

Já tive oportunidade de falar anteriormente sobre os riscos do viés de automação [11], que ocorre pela propensão de favorecer sugestões de sistemas automatizados de tomada de decisão. Isso ocorre quando o humano sobrevaloriza a resposta da máquina e passa a não refletir acerca da correção de seus resultados. Tal viés conduz as pessoas a não reconhecerem quando os sistemas automatizados erram.

Isso conduz à reflexão imediata de riscos que os projetos acima indicados, já em uso pelo Poder Judiciário pátrio, podem promover.

O problema se agrava nos modelos de IA Gen que possuem uma característica intrínseca: a alucinação. A alucinação da IA refere-se ao fenômeno em que um modelo gera informações imprecisas, irreais ou fabricadas, apresentando-as como se fossem verdadeiras. Esse problema ocorre porque os modelos generativos, como o GPT e o Gemini, não acessam diretamente fontes de dados em tempo real, mas baseiam suas respostas em padrões estatísticos extraídos de seus treinamentos.

Como resultado, podem criar textos convincentes, porém incorretos, incluindo fatos inexistentes, citações fictícias ou interpretações distorcidas. No contexto jurídico e científico, as alucinações representam um risco significativo, pois podem comprometer a confiabilidade das decisões automatizadas.

Já se tornaram notórios no campo do Direito casos de advogados [12] e magistrados [13] que caíram nas armadilhas das alucinações, sendo que os casos mais recorrentes foram de utilização de julgados inventados pela máquina. Com um devido treinamento IA tais riscos podem ser facilmente mitigados.

Do mesmo modo, a adoção de um conjunto de dados limpos e estruturados para treinar modelos customizados pelas instituições, por equipes internas multidisciplinares, reduz as chances das alucinações, mas não podem induzir a ausência de preocupação com sua ocorrência, tornando o monitoramento contínuo essencial.

Percebido este aspecto e constatando que tendemos a acreditar nas respostas das IAs, especialmente por apresentarem conteúdos com alto índice de verossimilhança, remanesce a preocupação com a preservação de nossa capacidade reflexiva, mesmo após o treinamento de uso. Percebam que a manutenção da capacidade crítica para o exercício de atividades interpretativas na área jurídica é essencial para a mantença dos direitos inerentes ao devido processo e à própria perquirição da resposta jurídica correta.

Infelizmente, os estudos já empreendidos demonstram que a dependência excessiva da IA na prática jurídica pode comprometer a capacidade reflexiva dos profissionais, resultando em uma diminuição da autonomia cognitiva e na substituição da análise crítica pela aceitação irrefletida das respostas geradas por IA.

Han adverte que a IA trabalha essencialmente com dados do passado, sendo incapaz de compreender eventos e gerar pensamento genuinamente novo, o que pode limitar a criatividade e a adaptação diante de cenários inéditos [14]. No contexto jurídico, essa limitação é especialmente crítica, pois a interpretação jurídica exige não apenas a aplicação de leis e julgados, mas também a capacidade de adaptação às mudanças sociais, econômicas e culturais.

O estudo conduzido por Lee et al. [15] analisou como a IA Gen afeta o pensamento crítico dos trabalhadores do conhecimento, revelando que o uso dessas ferramentas reduz o esforço cognitivo percebido, e, por conseguinte, pode gerar uma dependência excessiva da tecnologia. Os pesquisadores identificaram que, à medida que os profissionais confiam mais na IA, tendem a aplicar menos pensamento crítico e a verificar menos as informações, o que pode comprometer a qualidade das decisões jurídicas. Além disso, o estudo evidencia que a IA não elimina o pensamento crítico, mas altera sua natureza, tornando-o mais focado na verificação e integração de informações, em vez da formulação independente de argumentos e interpretações.

Outro achado relevante da pesquisa indica que a confiança na IA tem uma relação inversa com o nível de pensamento crítico: quanto maior a confiança na IA, menor a tendência dos profissionais em revisar e questionar suas respostas. Esse fenômeno pode levar à “convergência mecanizada”, onde diferentes operadores jurídicos passam a depender das mesmas respostas geradas pela IA, reduzindo a diversidade de interpretações e a inovação no pensamento jurídico. Como implicação prática, os pesquisadores sugerem que as ferramentas de IA sejam projetadas para incentivar o pensamento crítico, garantindo que os usuários tenham incentivos para revisar e interpretar as respostas geradas.

Supervisão

Por fim, o estudo destaca a necessidade de treinamento contínuo para profissionais que utilizam IA em suas atividades, a fim de manter e aprimorar sua capacidade de análise crítica.

Portanto, embora a IA possa ser uma ferramenta poderosa para otimizar processos, seu uso irrefletido pode comprometer a integridade do raciocínio jurídico, tornando indispensável a supervisão humana e a educação contínua dos profissionais que interagem com essas tecnologias [16].

E aí se apresenta a segunda preocupação deste texto: a supervisão humana efetiva [17].

A supervisão humana é concebida como uma salvaguarda para prevenir julgamentos automatizados inapropriados e proteger os afetados por decisões algorítmicas, especialmente na prática jurídica. No desenvolvimento de projetos de IA, a supervisão ocorre em três níveis principais: planejamento e treinamento, monitoramento contínuo e auditoria pós-implementação.

No planejamento, humanos selecionam e refinam os dados de treinamento, evitando vieses e garantindo que o modelo aprenda de forma alinhada aos objetivos éticos e regulatórios. Durante o monitoramento, especialistas avaliam continuamente as respostas da IA, ajustando parâmetros e corrigindo falhas antes que afetem processos críticos. Já na auditoria, revisões periódicas garantem transparência e corrigem possíveis impactos negativos não detectados no uso cotidiano [18].

No contexto jurídico, a utilização da IA, como exemplificado acima, é ilimitada, mas necessitaria de uma efetiva supervisão humana, de modo a garantir que a participação dos atingidos das decisões, de um lado, e o exercício decisório pelo julgador, do outro, não se limite a uma análise da máquina que esvazie o contraditório e o devido processo.

A decisão final sempre deveria ser humana, pois a IA não possui discernimento ético nem a capacidade de interpretar nuances do direito e esteja em conformidade com normas jurídicas vigentes, com destaque para a nova redação da resolução 332 do CNJ (v.g. art. 34).

Supervisionar a IA não deve se limitar a uma leitura passiva e acrítica de suas respostas, mas sim envolver uma análise reflexiva e criteriosa, garantindo que a interação com a máquina resulte em um aprimoramento qualitativo da atividade, sem desprezar a análise de peças para conferência, ampliando a precisão e a confiabilidade dos resultados.

Casos de uso recentes mostram que falhas nesse controle podem levar a erros jurídicos graves, como a já indicada citação de julgados inexistentes, a desconsideração de trechos importantes dos autos (v.g. argumentos ou provas) e a inadmissão equivocada de recursos, que podem comprometer a credibilidade de um profissional ou até impactar injustamente processos judiciais, pela máquina desprezar em sua “janela de contexto” [19] aspectos essenciais.

Para tornar a supervisão mais eficiente, recomenda-se adotar um modelo híbrido de supervisão. Isso significa equilibrar o uso da IA para tarefas operacionais repetitivas e para tarefas menos relevantes, restringindo-se seu uso para a atividade fim (v.g. julgar). Profissionais humanos devem intervir genuinamente em momentos críticos e análises mais complexas.

O futuro da interação humano-IA (HCI) na prática jurídica depende de dois pilares: capacitação contínua e monitoramento genuíno. Profissionais do direito precisam ser treinados para interagir de forma eficaz com a IA entendendo suas limitações e verificando seus resultados e devem ser criadas equipes especificas de monitoramento, diversas das que o projetaram, para garantir real accountability.

Uma estratégia regulatória poderia ser um caminho relevante, mas a aplicação das normas existentes tem se mostrado limitada e não impede que instituições de justiça implementem modelos de IA sem oferecer treinamento adequado aos usuários.

Ademais, causa preocupação a ausência de diálogo com a OAB na implementação de projetos no Judiciário, na medida que seguramente ocorrerão impactos essenciais na participação dos cidadãos nos processos judiciais.

Há anos insisto na necessidade de compreender a virada tecnológica no Direito [20], permitindo uma visão adequada das interações entre as tecnologias digitais e o sistema jurídico para seu aprimoramento. Os benefícios da IA devem ser assimilados de forma a promover uma colaboração eficiente entre humanos e máquinas, garantindo que essa integração resulte em melhorias, e não em uma dependência acrítica.

[1] https://platform.openai.com/docs/guides/prompt-engineering

[2] https://chatgpt.com/g/g-UfFxTDMxq-askyourpdf-research-assistant

[3] https://chatgpt.com/g/g-WCcPZ176I-ementa-cnj

[4] https://encurtador.com.br/v3qd6

[5] https://encurtador.com.br/vzUKw

[6]https://encurtador.com.br/ogxkZ

[7] https://openai.com/index/introducing-operator/

[8] https://encurtador.com.br/iPMIt

[9] KOLT, Noam. Governing AI Agents. Notre Dame Law Review, Vol. 101, Apr./ 2024.

[10] Como vieses e alucinações

[11] https://encurtador.com.br/BDsIC

[12][12] https://www.uol.com.br/tilt/noticias/redacao/2023/05/28/advogado-chatgpt.htm

[13] https://shre.ink/MPjK

[14] HAN. Não coisas: reviravoltas do mundo da vida. 2022. p. 81.

[15] LEE, Hao-Ping et al. The impact of generative ai on critical thinking: self-reported reductions in cognitive effort and confidence effects from a survey of knowledgeworkers. 2025.

[16] Cit.

[17] https://www.conjur.com.br/2021-jun-25/nunes-supervisao-humana-decisoes-ia-reduz-riscos/

[18] https://shre.ink/MPjS

[19] https://shre.ink/MPu9

[20] NUNES, Dierle. Virada Tecnológica no Direito Processual e etapas do emprego da tecnologia no direito processual: seria possível adaptar o procedimento pela tecnologia? Inteligência Artificial e Direito Processual. 2020.

Referências

Relacionados || Outros conteúdos desse assunto
    Mais artigos || Outros conteúdos desse tipo
      Dierle Nunes || Mais conteúdos do expert
        Acesso Completo! || Tenha acesso aos conteúdos e ferramentas exclusivas

        Comunidade Criminal Player

        Elabore sua melhor defesa com apoio dos maiores nomes do Direito Criminal!

        Junte-se aos mais de 1.000 membros da maior comunidade digital de advocacia criminal no Brasil. Experimente o ecossistema que já transforma a prática de advogados em todo o país, com mais de 5.000 conteúdos estratégicos e ferramentas avançadas de IA.

        Converse com IAs treinadas nos acervos de Aury Lopes Jr, Alexandre Morais da Rosa, Rodrigo Faucz, Gabriel Bulhões, Cristiano Maronna e outros gigantes da área. Explore jurisprudência do STJ com busca inteligente, análise de ANPP, depoimentos e muito mais. Tudo com base em fontes reais e verificadas.

        Ferramentas Criminal Player

        Ferramentas de IA para estratégias defensivas avançadas

        • IAs dos Experts: Consulte as estratégias de Aury Lopes Jr, Alexandre Morais da Rosa, Rodrigo Faucz, Gabriel Bulhões e outros grandes nomes por meio de IAs treinadas em seus acervos
        • IAs de Jurisprudência: Busque precedentes com IAs semânticas em uma base exclusiva com mais de 200 mil acórdãos do STJ, filtrados por ministro relator ou tema
        • Ferramentas para criminalistas: Use IA para aplicar IRAC em decisões, interpretar depoimentos com CBCA e avaliar ANPP com precisão e rapidez
        Ferramentas Criminal Player

        Por que essas ferramentas da Criminal Player são diferentes?

        • GPT-4 com curadoria jurídica: Utilizamos IA de última geração, ajustada para respostas precisas, estratégicas e alinhadas à prática penal
        • Fontes verificadas e linkadas: Sempre que um precedente é citado, mostramos o link direto para a decisão original no site do tribunal. Transparência total, sem risco de alucinações
        • Base de conhecimento fechada: A IA responde apenas com conteúdos selecionados da Criminal Player, garantindo fidelidade à metodologia dos nossos especialistas
        • Respostas com visão estratégica: As interações são treinadas para seguir o raciocínio dos experts e adaptar-se à realidade do caso
        • Fácil de usar, rápido de aplicar: Acesso prático, linguagem clara e sem necessidade de dominar técnicas complexas de IA
        Comunidade Criminal Player

        Mais de 5.000 conteúdos para transformar sua atuação!

        • Curso Teoria dos Jogos e Processo Penal Estratégico: Com Alexandre Morais da Rosa e essencial para quem busca estratégia aplicada no processo penal
        • Curso Defesa em Alta Performance: Conteúdo do projeto Defesa Solidária, agora exclusivo na Criminal Player
        • Aulas ao vivo e gravadas toda semana: Com os maiores nomes do Direito Criminal e Processo Penal
        • Acervo com 130+ Experts: Aulas, artigos, vídeos, indicações de livros e materiais para todas as fases da defesa
        • IA de Conteúdos: Acesso a todo o acervo e sugestão de conteúdos relevantes para a sua necessidade
        Comunidade Criminal Player

        A força da maior comunidade digital para criminalistas

        • Ambiente de apoio real: Conecte-se com colegas em fóruns e grupos no WhatsApp para discutir casos, compartilhar estratégias e trocar experiências em tempo real
        • Eventos presenciais exclusivos: Participe de imersões, congressos e experiências ao lado de Aury Lopes Jr, Alexandre Morais da Rosa e outros grandes nomes do Direito
        • Benefícios para membros: Assinantes têm acesso antecipado, descontos e vantagens exclusivas nos eventos da comunidade

        Assine e tenha acesso completo!

        • 75+ ferramentas de IA para estratégias jurídicas com base em experts e jurisprudência real
        • Busca inteligente em precedentes e legislações, com links diretos para as fontes oficiais
        • Curso de Alexandre Morais da Rosa sobre Teoria dos Jogos e Processo Penal Estratégico
        • Curso Defesa em Alta Performance com Jader Marques, Kakay, Min. Rogério Schietti, Faucz e outros
        • 5.000+ conteúdos exclusivos com aulas ao vivo, aulas gravadas, grupos de estudo e muito mais
        • Fóruns e grupos no WhatsApp para discutir casos e trocar experiências com outros criminalistas
        • Condições especiais em eventos presenciais, imersões e congressos com grandes nomes do Direito
        Assinatura Criminal Player MensalAssinatura Criminal Player SemestralAssinatura Criminal Player Anual

        Para mais detalhes sobre os planos, fale com nosso atendimento.

        Quero testar antes

        Faça seu cadastro como visitante e teste GRÁTIS por 7 dias

        • Ferramentas de IA com experts e jurisprudência do STJ
        • Aulas ao vivo com grandes nomes do Direito Criminal
        • Acesso aos conteúdos abertos da comunidade

        Já sou visitante

        Se você já é visitante e quer experimentar GRÁTIS por 7 dias as ferramentas, solicite seu acesso.