A inteligência artificial no processo judicial e o papel do operador humano: entre eficiência e risco de discriminação algorítmica

Por Jefferson Freire

O processo judicial brasileiro atravessa uma transformação silenciosa, mas profunda. A incorporação da inteligência artificial (IA) ao sistema de Justiça promete celeridade, racionalização de decisões e economia de recursos, mas também impõe um desafio ético e jurídico de proporções inéditas: como garantir que as decisões automatizadas respeitem os princípios constitucionais da imparcialidade, da igualdade e do devido processo legal?

O tema não é apenas técnico, é essencialmente humano, porque, ainda que a decisão seja produzida por uma máquina, quem define o seu modo de pensar é o operador que a programa ou o opera.

A crença na neutralidade das tecnologias revelou-se ilusória. A chamada discriminação algorítmica, fenômeno que ocorre quando os sistemas de IA reproduzem ou ampliam preconceitos e desigualdades históricas, expõe que a imparcialidade das máquinas é uma ficção conveniente.

Como lembra Cormen (2022), um algoritmo é uma sequência precisa de instruções que transforma uma entrada em uma saída esperada. Essa definição clássica sugere previsibilidade e objetividade, mas no campo da IA o algoritmo deixa de seguir regras fixas e passa a aprender com os dados.

O aprendizado de máquina (machine learning), segundo Russell e Norvig (2021), consiste em ajustar automaticamente parâmetros a partir de padrões identificados em grandes volumes de informação. Esse processo de aprendizado, entretanto, depende dos dados que o alimentam, e dados, no mundo real, são produtos de contextos sociais marcados por desigualdade, exclusão e preconceitos.

Quando se transporta esse raciocínio para o processo judicial, o risco torna-se evidente. Um sistema de IA treinado com dados de sentenças passadas pode replicar vieses de gênero, raça ou classe presentes na jurisprudência. Se o histórico de decisões mostra maior severidade penal contra determinados grupos, o algoritmo “aprende” que esse padrão é o mais provável, e o reproduz.

A decisão automatizada, sob a aparência de objetividade estatística, reforça práticas discriminatórias já naturalizadas. É o que O’Neil (2016) denominou “armas de destruição matemática”: decisões travestidas de neutralidade técnica, mas carregadas de injustiça.

O perigo aumenta quando o operador humano, ou seja, juiz, servidor, analista ou programador, atribui à IA um papel de autoridade epistêmica, tratando o resultado algorítmico como verdade inquestionável. A influência do operador é determinante, pois os parâmetros iniciais, os critérios de treinamento e as bases de dados selecionadas refletem escolhas subjetivas.

A IA não decide sozinha: ela automatiza o olhar humano. Se o olhar é enviesado, a máquina apenas o amplifica. A decisão automatizada, portanto, não elimina a parcialidade; apenas a desloca do juiz visível para o código invisível.

A literatura comparada mostra como esse problema se manifesta de forma concreta. Em experiências internacionais de predição de reincidência criminal (como o software COMPAS, nos Estados Unidos), verificou-se que indivíduos negros tinham probabilidade significativamente maior de serem classificados como “de alto risco”, ainda que com histórico similar ao de réus brancos.

A mesma lógica pode se reproduzir no Brasil, especialmente se o Judiciário incorporar ferramentas de análise preditiva sem mecanismos de auditoria e explicabilidade.

No campo da IA aplicada ao processo, a ausência de transparência cria a chamada “caixa-preta algorítmica”: decisões que ninguém sabe exatamente como são produzidas.

Essa opacidade é incompatível com o princípio da publicidade processual e com o dever de fundamentação das decisões judiciais. No direito europeu, o artigo 22 do Regulamento Geral de Proteção de Dados (GDPR) assegura ao cidadão o direito de não se submeter exclusivamente a decisões automatizadas que afetem sua esfera jurídica.

O Brasil segue caminho semelhante: o artigo 20 da Lei Geral de Proteção de Dados (LGPD) garante ao titular o direito de solicitar revisão humana de decisões automatizadas. No ambiente judicial, esse comando é ainda mais crucial, não se pode admitir que uma sentença, uma pena ou uma classificação de risco seja proferida sem a compreensão de seus fundamentos.

O problema não está na tecnologia em si, mas na ausência de governança e controle ético. Como adverte Mendes (2019), a proteção de dados pessoais e a explicabilidade das decisões automatizadas são instrumentos indispensáveis de autodeterminação informativa.

A IA pode ser uma aliada da Justiça, desde que subordinada a critérios claros de responsabilidade, auditabilidade e revisão humana. Isso exige transparência não apenas no resultado, mas em todo o processo de concepção e treinamento dos modelos.

No contexto brasileiro, a adoção crescente de sistemas de triagem processual, análise de precedentes e classificação de risco processual, como o “Victor”, do Supremo Tribunal Federal, demanda vigilância constante.

Esses sistemas auxiliam o trabalho dos ministros, mas é fundamental que o operador humano compreenda que a IA é um instrumento de apoio, não de substituição da racionalidade jurídica. Quando o operador abdica de seu papel crítico, o sistema deixa de ser ferramenta e passa a ser árbitro, instaurando uma nova forma de automatismo burocrático.

Portanto, a discussão sobre a aplicação da inteligência artificial no processo judicial brasileiro não pode limitar-se à eficiência ou à redução de custos. Ela deve centrar-se na responsabilidade humana pelas decisões automatizadas.

A IA jurídica é, em última instância, um espelho do sistema de Justiça: se os dados refletem desigualdade, o espelho a reproduz. O desafio não é apenas técnico, mas civilizatório, assegurar que o uso da tecnologia no Judiciário não consolide os mesmos padrões de exclusão que ela promete corrigir.

A era dos algoritmos exige do direito não apenas novas normas, mas uma nova ética da decisão. Em vez de delegar à máquina o poder de julgar, cabe ao jurista reafirmar o princípio de que justiça é sempre um ato humano, mediado por razão, prudência e responsabilidade.

A tecnologia pode ser auxiliar valiosa, mas jamais substituta da consciência crítica. A neutralidade algorítmica é um mito; a imparcialidade, um dever humano.