Hipóteses Recursais às Decisões Assistidas por IA Generativa

  • Hipóteses Recursais às Decisões Assistidas por IA Generativa

    Publicado por Vianney Gonçalves Júnior on 01/02/2026 a 17:56

    Análise das Hipóteses Recursais às Decisões Assistidas por Inteligência Artificial Generativa

    Introdução

    A incorporação da inteligência artificial generativa (IA generativa) no processo decisório judicial representa um avanço tecnológico que pode contribuir para a celeridade e eficiência da Justiça. Contudo, a utilização dessa tecnologia suscita importantes questões jurídicas relacionadas à legitimidade, transparência, contraditório e fundamentação das decisões judiciais. Esta análise, fundamentada nos estudos do professor Vianney Gonçalves Júnior e enriquecida com os conteúdos da Comunidade Criminal Player, especialmente as reflexões dos professores Alexandre Morais da Rosa e Aury Lopes Jr, visa apresentar um panorama aprofundado das hipóteses recursais possíveis contra decisões assistidas por IA generativa.

    1. Contextualização do Uso da IA Generativa no Processo Decisório

    O uso da IA generativa no Judiciário visa otimizar atividades repetitivas e volumosas, como triagem processual, organização probatória e apoio à elaboração de minutas. Todavia, conforme destacado por Vianney Gonçalves Júnior, a adoção da IA deve respeitar valores constitucionais fundamentais, tais como:

    – A garantia do contraditório efetivo, inclusive no âmbito das influências algorítmicas;

    – A preservação da prudência (phronesis) do juiz, que é insubstituível na decisão;

    – A dignidade da linguagem jurídica, essencial para a justa comunicação e motivação das decisões.

    Assim, a IA deve ser instrumento assistencial e subsidiário, jamais substitutivo da deliberação humana.

    2. Desafios Jurídicos e Fundamentação para as Hipóteses Recursais

    2.1. Fragilização do Contraditório e da Legitimidade

    Decisões baseadas em análises automatizadas podem apresentar:

    – Erros e “alucinações” na produção textual e citacional;

    – Vieses e opacidade dos algoritmos, dificultando a compreensão e contestação;

    – Redução do contraditório, pois as partes não têm acesso aos parâmetros e dados que influenciaram a decisão.

    Diante disso, impõe-se o reconhecimento do “contraditório algorítmico”, que assegura às partes o direito de conhecer e questionar os elementos algorítmicos que influenciam a decisão.

    2.2. Dever de Fundamentação Própria e Explicação Auditável

    O juiz deve:

    – Recompôr a controvérsia e fundamentar a decisão com razões próprias;

    – Explicitar os critérios e dados utilizados pela IA, garantindo transparência;

    – Recusar-se a homologar automaticamente sugestões sem análise crítica.

    A ausência dessa fundamentação compromete o devido processo legal.

    2.3. Proporcionalidade e Governança da IA

    O uso da IA deve observar os princípios da proporcionalidade, adequação e necessidade, com mecanismos claros de governança que assegurem:

    – Transparência sobre quem desenvolve e supervisiona os sistemas;

    – Relatórios públicos sobre impactos e riscos;

    – Garantias de equidade e proteção aos vulneráveis.

    3. Hipóteses Recursais Contra Decisões Assistidas por IA Generativa

    Com base nos fundamentos acima, destacam-se as seguintes hipóteses recursais:

    3.1. Violação do Contraditório e da Ampla Defesa

    – Decisão baseada em análise algorítmica sem disponibilização dos parâmetros e dados às partes;

    – Impedimento do exercício do contraditório algorítmico.

    3.2. Falta de Fundamentação Própria e Explicação Auditável

    – Homologação automática da sugestão da IA sem fundamentação do juiz;

    – Ausência de explicitação dos critérios e dados algorítmicos na decisão.

    3.3. Falta de Transparência e Governança

    – Ausência de clareza sobre a cadeia de desenvolvimento, supervisão e validação da IA;

    – Falta de documentação e relatórios de impacto do uso da IA.

    3.4. Desproporcionalidade e Risco de Desumanização

    – Uso da IA que substitui a deliberação humana em decisões que exigem prudência;

    – Automação que inviabiliza a escuta qualificada das partes e o processo justo.

    4. Contribuições dos Professores Alexandre Morais da Rosa e Aury Lopes Jr

    Os professores reforçam que a supervisão humana é imprescindível para:

    – Evitar a “caixa-preta” dos algoritmos;

    – Garantir a responsabilidade do juiz pela decisão final;

    – Assegurar a transparência e auditabilidade;

    – Combater o “Manto da Invisibilidade Digital”, que ameaça o devido processo legal.

    A atuação recursal deve exigir o respeito à transparência, fundamentação adequada, contraditório algorítmico e integridade institucional.

    5. Considerações Finais

    A análise das hipóteses recursais frente às decisões assistidas por IA generativa evidencia a necessidade de um equilíbrio entre eficiência tecnológica e garantia dos direitos fundamentais. É imprescindível que o quadro normativo e operacional preserve:

    – A deliberação prudencial humana;

    – O contraditório ampliado para abarcar elementos algorítmicos;

    – A fundamentação clara e auditável;

    – A transparência e governança da IA.

    Essa abordagem contribui para a construção de uma jurisdição que aproveite os benefícios da IA sem abdicar da legitimidade e da dignidade do processo penal.

    Referências

    – Gonçalves Júnior, Vianney. Rascunhos do Livro “Direito Artificial”.

    – Rosa, Alexandre Morais da; Lopes Jr, Aury. Conteúdos da Comunidade Criminal Player sobre IA e processo penal.

    – Artigo: “O Manto de Invisibilidade do uso da I.A. no Processo Penal”.

    Lourival Tenório de Albuquerque respondeu 3 semanas , 2 dias atrás 3 Players · 3 Respostas
  • 3 Respostas
  • Gabriela Menezes Mendes De Lima

    Participante
    02/02/2026 a 09:14

    Bom dia, muito interessante e para contribuir com a discussão, vou deixar em anexo a resolução 615 do CNJ que estabelece diretrizes desenvolvimento, para utilização o ehttps://atos.cnj.jus.br/atos/detalhar/3429 governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário.

  • Vianney Gonçalves Júnior

    Participante
    02/02/2026 a 11:21

    Olá, Dra. Gabriela. Exatamente a Resolução 615 do CNJ impulsiona essa minha pesquisa. Observe que a informação de uso da IA é facultativa. Nossa discussão aponta exatamente o questionamento das razões e meios da livre formação de convicção. O termo explicabilidade é aplicado à análise de como a IA chegou ao resultado. Ficarei feliz em aprofundar o tema, contando com a contribuição dos qualificados Players de nossa comunidade.

  • Lourival Tenório de Albuquerque

    Participante
    02/02/2026 a 16:40

    Essa discussão é bem interessante. Dois pontos me chamam a atenção.

    1) Quanto a discussão do questionamento das razões e meios da livre formação de convicção, apesar de haver a explicabilidade da análise até o resultado

    2) O uso da IA é facultativo

    Partindo da premissa do art. 155 do CPP, em que o magistrado formará sua livre convicção pela livre apreciação da prova produzida em contraditório judicial, quando delegado a uma Inteligência Artificial, interrompe-se a lógica do ‘magistrado formar sua livre convicção’.

    Apesar de ser livre para formar a convicção, o dispositivo é claro: a sua/a própria. Então, a partir do momento em que é transferida a responsabilidade para uma Inteligência Artificial, o dever e obrigação para formar o requisito está sendo violado.

    Mas, para além disso, apesar de sabermos que a Inteligência Artificial é uma mera ferramenta de auxílio e não substitui o trabalho do ser humano, profissionais têm utilizado desse mecanismo de forma automática, e se distanciando cada vez mais do raciocínio lógico.

    Ainda que seja uma grande ferramenta, nada substitui o olhar humano sobre os detalhes de um processo. Principalmente, no que diz respeito em como formar a convicção.

    Parabéns pela análise e estudo!

Faça login para responder.

Start of Discussion
0 de 0 respostas Junho de 2018
Agora