Artigos Migalhas – Racismo algoritmo: A nova face da injustiça penal

Artigos Migalhas
Artigos Migalhas || Racismo algoritmo: A nova f…Início / Conteúdos / Artigos / Migalhas
Artigo || Artigos dos experts no Migalhas

Racismo algoritmo: A nova face da injustiça penal

O artigo aborda a crescente introdução de algoritmos e inteligência artificial no sistema judiciário brasileiro, destacando o risco do racismo algorítmico, que perpetua desigualdades históricas ao automatizar decisões baseadas em dados contaminados por preconceitos. Os autores alertam que, apesar da promessa de eficiência e celeridade, essas tecnologias podem reforçar a seletividade penal, criminalizando especialmente a população negra e periférica, sem garantir a devida responsabilidade e transparência nas decisões automatizadas. A discussão se torna urgente, uma vez que o futuro do Judiciário depende de um cuidadoso equilíbrio entre inovação e justiça social.

Artigo no Migalhas

Introdução

O discurso da modernização do Judiciário brasileiro tem apostado suas fichas na incorporação de ferramentas tecnológicas capazes de acelerar a prestação jurisdicional. Inteligência artificial, automação de rotinas processuais e sistemas de apoio à decisão judicial passaram a ocupar lugar privilegiado nas pautas institucionais.

No discurso institucional, o uso de inteligência artificial no Judiciário promete decisões mais rápidas, padronizadas e “objetivas”. A resolução 332/20 do CNJ, por exemplo, orienta os tribunais a desenvolverem sistemas baseados em IA para auxiliar a prestação jurisdicional. No Supremo Tribunal Federal, ocorreu o lançamento da “Maria”, ferramenta de IA com o objetivo de remodelar a produção de conteúdo no Tribunal, conforme afirmou o presidente da Corte, ministro Luís Roberto Barroso, durante a cerimônia de lançamento no STF1. E, de fato, há ganhos inegáveis quando se trata de tarefas repetitivas, triagens ou organização processual.

Mas, nem toda inovação vem para corrigir os erros do passado. Sob o discurso da eficiência, da celeridade e da impessoalidade, um novo ator emerge silenciosamente nos tribunais: o algoritmo. Porém, como esperar neutralidade da máquina se ela é alimentada com dados de um sistema que historicamente criminaliza corpos negros e pobres?

De acordo com os dados do Anuário Brasileiro de Segurança Pública do ano de 2023, cerca de 70% da população carcerária é negra. Os números escancaram o racismo estrutural do sistema carcerário. É nesse contexto que ganha corpo a discussão sobre o racismo algorítmico: uma forma de discriminação produzida não mais por ações humanas diretas, mas por sistemas automatizados que aprendem, decidem e influenciam com base em dados históricos contaminados por desigualdades estruturais. O risco, no Brasil, é ainda mais grave. Se o Judiciário já opera em um ambiente permeado por seletividade penal e vulnerabilidade racial, a introdução acrítica de algoritmos no processo decisório pode não apenas reforçar esse cenário, mas legitimá-lo sob o pretexto de eficiência técnica.

E o que está em jogo não é apenas a forma como julgamos. É quem continuará sendo julgado com mais rigor – ou melhor, com mais desumanidade – pela suposta racionalidade das máquinas.

O que é o racismo algorítmico e por que ele importa no processo penal

Racismo algorítmico é o nome dado ao fenômeno em que sistemas de inteligência artificial, ao serem alimentados com dados históricos, reproduzem padrões discriminatórios que afetam, sobretudo, populações negras e periféricas. O mecanismo é simples: algoritmos são instruídos a identificar padrões e prever comportamentos com base em exemplos do passado. Conforme adverte Caithy O’Neil, os modelos, apesar de sua reputação de imparcialidade, refletem objetivos e ideologia2. Se esses exemplos estão carregados de racismo estrutural – como ocorre no sistema penal brasileiro -, o resultado é a automação estatística do preconceito.

Assim, a lógica que condena um jovem negro com base apenas na palavra de um policial, ou que mantém prisões provisórias com fundamentações genéricas, é a mesma que forma os algoritmos dos bancos de dados judiciais e policiais. E são esses mesmos registros que alimentariam, amanhã, um modelo de risco de reincidência, de propensão ao crime ou de periculosidade.

Em outras palavras: o algoritmo não inventa o racismo. Ele aprende com ele – e o aplica com eficiência matemática.

O Judiciário como espelho da desigualdade

Se, num primeiro momento se imagina que a IA poderá criar as soluções contra a lentidão do judiciário, num segundo momento é ilusório pensar que a adoção de ferramentas tecnológicas por si só será capaz de romper com os vícios do nosso sistema de justiça criminal. O processo penal brasileiro, longe de ser neutro, funciona como um filtro seletivo que escolhe seus alvos de forma racializada e socialmente orientada. E isso não é uma tese acadêmica, é um fato estatístico: mais de dois terços das pessoas presas no Brasil são negras. São elas, também, as principais vítimas de abordagens violentas3, de investigações frágeis, de provas precárias e de julgamentos marcados pela generalização.

Nesse cenário, o algoritmo, quando incorporado como “ferramenta de apoio à decisão judicial”, tende a operar de forma enviesada. A diferença é que, enquanto o juiz pode ser contestado, o algoritmo é opaco; enquanto o magistrado pode justificar sua escolha, o sistema automatizado apenas entrega um score, uma predição, uma pontuação de risco.

A grande armadilha da inteligência artificial aplicada ao processo penal reside na ideia de que o passado pode ser usado como métrica para prever o comportamento futuro, sem considerar que esse passado foi construído com alicerces de desigualdade racial, social e institucional. O que se vende como imparcialidade é, muitas vezes, apenas uma forma mais disfarçada de seletividade.

A confiança cega na objetividade da máquina pode inaugurar um novo tipo de violência judicial: a desumanização legitimada por um código. Quando um juiz se ampara em um algoritmo para justificar um reconhecimento facial, uma prisão preventiva ou uma sentença mais dura, ele desloca sua responsabilidade para um artefato tecnológico. Mas o algoritmo não responde à Constituição. Não conhece o princípio da presunção de inocência. Não compreende a complexidade da prova nem a singularidade do drama humano.

Mais grave: ao apresentar decisões já inclinadas por determinado algoritmo como se fossem neutras, o sistema automatizado reduz os espaços de crítica, revisão e resistência. O preconceito deixa de ser percebido como tal e passa a ser interpretado como dado científico. A cor da pele, o bairro de origem ou o extrato bancário tornam-se, por vias indiretas, indicativos de risco.

É preciso reconhecer que o processo penal brasileiro já funciona como uma engrenagem racializada. Desde a seleção do suspeito até a condenação, tudo opera segundo um viés seletivo que recorta o réu padrão: negro, pobre, periférico. As estatísticas são irrefutáveis: os negros são maioria entre os presos provisórios, entre os que não têm acesso à defesa técnica efetiva, entre os alvos de operações policiais em comunidades e, não raramente, entre os mortos no curso da investigação.

Essa seletividade é reforçada por práticas processuais como a) o uso acrítico de reconhecimento fotográfico; b) a valorização da palavra policial como única prova; c) a negligência com a cadeia de custódia; d) a desconsideração da vulnerabilidade social na dosimetria da pena.

Tudo isso compõe um caldo histórico que forma os dados judiciais e criminais com os quais um futuro algoritmo aprenderia. E, convenhamos: se o que a máquina aprende é o passado, o que ela entrega é a estatística do preconceito.

Trata-se de uma nova roupagem para uma antiga prática: julgar o réu pelo seu perfil e não pelos fatos do processo. E, dessa vez, com a chancela fria da estatística.

O direito de resistir à automação da injustiça

É papel da advocacia criminal, da academia e da sociedade civil resistir à implantação irrefletida dessas tecnologias no sistema penal. Não se trata de negar os avanços da ciência de dados ou de condenar a inovação. Trata-se de exigir que toda inovação passe primeiro pelo crivo da legalidade, da equidade e da dignidade humana.

A introdução de algoritmos no Judiciário só pode ser admissível se acompanhada de auditoria constante de sistemas utilizados pela Justiça, transparência nos critérios e nos dados usados para treinar algoritmos, participação de especialistas em direitos humanos e raça nas fases de desenvolvimento tecnológico e revisão das decisões que envolvam inteligência artificial, garantindo contraditório efetivo sobre as “evidências” algorítmicas.

Sem isso, estaremos apenas automatizando a seletividade que já destrói vidas todos os dias nas audiências, nos reconhecimentos precários e nas sentenças baseadas em estereótipos.

Conclusão

O Brasil vive hoje uma encruzilhada entre a promessa de um Judiciário mais eficiente e o risco de uma justiça ainda mais desigual. A inteligência artificial, se mal implementada, pode se tornar o mais sofisticado instrumento de perpetuação do racismo institucional.

É preciso lembrar que não existe dado “limpo” em um país onde o sistema penal foi moldado para punir seletivamente a pobreza e racializar a criminalização. Se alimentarmos algoritmos com essa herança, o que eles devolverão não será justiça – será uma reprodução mecanizada das mesmas iniquidades.

Não podemos permitir que o futuro da justiça seja programado com os erros do passado. O algoritmo que “decide” precisa estar subordinado à Constituição que protege. Porque a justiça, antes de ser célere, precisa ser justa. E ser justo, neste país, exige romper com o racismo – inclusive o que se disfarça de inteligência.

______

1 Disponível em https://noticias.stf.jus.br/postsnoticias/stf-lanca-maria-ferramenta-de-inteligencia-artificial-que-dara-mais-agilidade-aos-servicos-do-tribunal/

2 O’NEIL, Caithy. Weapons Of Math Destruction. New York: Crown Publishers, 2016. p. 27

3 Estudo publicado pela Rede de Observatórios da Segurança mostra que 4.025 pessoas foram mortas por policiais no Brasil em 2023. Em 3.169 desses casos foram disponibilizados os dados de raça e cor: 2.782 das vítimas eram pessoas negras, o que representa 87,8%.Disponível em: https://agenciabrasil.ebc.com.br/direitos-humanos/noticia/2024-11/quase-90-dos-mortos-por-policiais-em-2023-eram-negros-diz-estudo

Referências

Relacionados || Outros conteúdos desse assunto
    Mais artigos || Outros conteúdos desse tipo
      Philipe Benoni || Mais conteúdos do expert
        Acesso Completo! || Tenha acesso aos conteúdos e ferramentas exclusivas

        Comunidade Criminal Player

        Elabore sua melhor defesa com apoio dos maiores nomes do Direito Criminal!

        Junte-se aos mais de 1.000 membros da maior comunidade digital de advocacia criminal no Brasil. Experimente o ecossistema que já transforma a prática de advogados em todo o país, com mais de 5.000 conteúdos estratégicos e ferramentas avançadas de IA.

        Converse com IAs treinadas nos acervos de Aury Lopes Jr, Alexandre Morais da Rosa, Rodrigo Faucz, Gabriel Bulhões, Cristiano Maronna e outros gigantes da área. Explore jurisprudência do STJ com busca inteligente, análise de ANPP, depoimentos e muito mais. Tudo com base em fontes reais e verificadas.

        Ferramentas Criminal Player

        Ferramentas de IA para estratégias defensivas avançadas

        • IAs dos Experts: Consulte as estratégias de Aury Lopes Jr, Alexandre Morais da Rosa, Rodrigo Faucz, Gabriel Bulhões e outros grandes nomes por meio de IAs treinadas em seus acervos
        • IAs de Jurisprudência: Busque precedentes com IAs semânticas em uma base exclusiva com mais de 200 mil acórdãos do STJ, filtrados por ministro relator ou tema
        • Ferramentas para criminalistas: Use IA para aplicar IRAC em decisões, interpretar depoimentos com CBCA e avaliar ANPP com precisão e rapidez
        Ferramentas Criminal Player

        Por que essas ferramentas da Criminal Player são diferentes?

        • GPT-4 com curadoria jurídica: Utilizamos IA de última geração, ajustada para respostas precisas, estratégicas e alinhadas à prática penal
        • Fontes verificadas e linkadas: Sempre que um precedente é citado, mostramos o link direto para a decisão original no site do tribunal. Transparência total, sem risco de alucinações
        • Base de conhecimento fechada: A IA responde apenas com conteúdos selecionados da Criminal Player, garantindo fidelidade à metodologia dos nossos especialistas
        • Respostas com visão estratégica: As interações são treinadas para seguir o raciocínio dos experts e adaptar-se à realidade do caso
        • Fácil de usar, rápido de aplicar: Acesso prático, linguagem clara e sem necessidade de dominar técnicas complexas de IA
        Comunidade Criminal Player

        Mais de 5.000 conteúdos para transformar sua atuação!

        • Curso Teoria dos Jogos e Processo Penal Estratégico: Com Alexandre Morais da Rosa e essencial para quem busca estratégia aplicada no processo penal
        • Curso Defesa em Alta Performance: Conteúdo do projeto Defesa Solidária, agora exclusivo na Criminal Player
        • Aulas ao vivo e gravadas toda semana: Com os maiores nomes do Direito Criminal e Processo Penal
        • Acervo com 130+ Experts: Aulas, artigos, vídeos, indicações de livros e materiais para todas as fases da defesa
        • IA de Conteúdos: Acesso a todo o acervo e sugestão de conteúdos relevantes para a sua necessidade
        Comunidade Criminal Player

        A força da maior comunidade digital para criminalistas

        • Ambiente de apoio real: Conecte-se com colegas em fóruns e grupos no WhatsApp para discutir casos, compartilhar estratégias e trocar experiências em tempo real
        • Eventos presenciais exclusivos: Participe de imersões, congressos e experiências ao lado de Aury Lopes Jr, Alexandre Morais da Rosa e outros grandes nomes do Direito
        • Benefícios para membros: Assinantes têm acesso antecipado, descontos e vantagens exclusivas nos eventos da comunidade

        Assine e tenha acesso completo!

        • 75+ ferramentas de IA para estratégias jurídicas com base em experts e jurisprudência real
        • Busca inteligente em precedentes e legislações, com links diretos para as fontes oficiais
        • Curso de Alexandre Morais da Rosa sobre Teoria dos Jogos e Processo Penal Estratégico
        • Curso Defesa em Alta Performance com Jader Marques, Kakay, Min. Rogério Schietti, Faucz e outros
        • 5.000+ conteúdos exclusivos com aulas ao vivo, aulas gravadas, grupos de estudo e muito mais
        • Fóruns e grupos no WhatsApp para discutir casos e trocar experiências com outros criminalistas
        • Condições especiais em eventos presenciais, imersões e congressos com grandes nomes do Direito
        Assinatura Criminal Player MensalAssinatura Criminal Player SemestralAssinatura Criminal Player Anual

        Para mais detalhes sobre os planos, fale com nosso atendimento.

        Quero testar antes

        Faça seu cadastro como visitante e teste GRÁTIS por 7 dias

        • Ferramentas de IA com experts e jurisprudência do STJ
        • Aulas ao vivo com grandes nomes do Direito Criminal
        • Acesso aos conteúdos abertos da comunidade

        Já sou visitante

        Se você já é visitante e quer experimentar GRÁTIS por 7 dias as ferramentas, solicite seu acesso.