top of page

O uso da inteligência artificial no Poder Judiciário: limites, desafios e responsabilidade jurídica

A inteligência artificial (IA) tem sido um instrumento de apoio à atividade jurisdicional, mas até o momento não é capaz de substituir o trabalho humano, especialmente em razão de sua limitação frente às complexidades fático-normativas da vida em sociedade. Com sua popularização, verifica-se uma crescente taxa de implementação tanto no setor público quanto no setor privado, embora com evidente defasagem na regulação jurídica que discipline adequadamente sua utilização. No âmbito do Poder Judiciário brasileiro, a IA vem sendo aplicada a diversas funções de natureza técnico-administrativa, tais como a triagem de processos, a classificação temática, a verificação de petições, a identificação de similaridade processual, a geração de textos jurídicos e a sumarização de conteúdo, entre outras atribuições que otimizam o fluxo de trabalho sem comprometer, a priori, a função judicante.

Dentre os marcos regulatórios mais relevantes para a normatização do uso da inteligência artificial no Judiciário, destaca-se a Resolução nº 332/2020 do Conselho Nacional de Justiça, que dispõe sobre a ética, a transparência e a governança na produção e no uso da inteligência artificial no Poder Judiciário. Essa norma estabelece que as soluções de IA deverão ser desenvolvidas de acordo com os princípios da dignidade da pessoa humana, da não discriminação, da transparência, da rastreabilidade, da prestação de contas e da segurança, atribuindo à autoridade judiciária a responsabilidade pela supervisão do uso da tecnologia. 

Diversos tribunais vêm desenvolvendo e utilizando modelos próprios de sistemas baseados em IA, com destaque para o sistema Victor, do Supremo Tribunal Federal, voltado à triagem e à identificação de temas com repercussão geral; o sistema Sócrates, do Superior Tribunal de Justiça, direcionado à sugestão de minutas de acórdãos e organização processual; o sistema Alei, do Tribunal Regional Federal da 1ª Região, com ênfase na automação de decisões de baixa complexidade; o Sinara, do TRF da 3ª Região, que integra informações de partes e processos; e os sistemas Clara e Poti, do Tribunal de Justiça do Rio Grande do Norte, com funcionalidades de triagem e classificação processual. Esses modelos exemplificam o avanço do Judiciário brasileiro no desenvolvimento de soluções digitais, mas revelam, ao mesmo tempo, a necessidade de acompanhamento normativo e técnico especializado.

Apesar dos avanços tecnológicos, as inteligências artificiais não são capazes de decidir casos complexos que envolvam elementos subjetivos, princípios jurídicos em colisão, situações de vulnerabilidade e ponderações éticas, exigindo do julgador um juízo contextual e fundado em valoração humana. A IA opera por regras e padrões extraídos de bancos de dados, mas não é capaz de apreender a densidade normativa de conceitos indeterminados, tampouco de formular juízos de proporcionalidade ou razoabilidade que são típicos da hermenêutica jurídica. Dessa forma, permanece evidente a necessidade de preservação do protagonismo humano na atividade jurisdicional, sobretudo em matérias de direito constitucional, penal, de família e outras que envolvam direitos indisponíveis.

O uso da inteligência artificial no Judiciário enfrenta diversos desafios de ordem técnica, entre os quais se destacam a qualidade dos dados utilizados no treinamento dos algoritmos, a necessidade de bases atualizadas, completas e representativas e a dificuldade de compatibilizar informações oriundas de diferentes sistemas e tribunais. A má qualidade ou a incompletude dos dados pode comprometer diretamente os resultados gerados pela IA, gerando distorções, omissões ou equívocos que afetam a regularidade processual e a confiabilidade do sistema judicial. Além disso, a ausência de padronização nacional na estruturação das bases de dados acarreta um cenário de assimetria informacional que dificulta a interoperabilidade dos sistemas de IA.

Outro ponto sensível está na mitigação de vieses algorítmicos e no controle humano das decisões automatizadas, de modo a evitar discriminações, injustiças e reprodução de padrões históricos de desigualdade presentes nos dados de treinamento. O viés pode se manifestar de modo sutil ou estrutural, exigindo mecanismos de auditoria, supervisão e avaliação contínua da atuação da IA por equipe multidisciplinar, composta por magistrados, cientistas de dados, servidores públicos e especialistas em direito digital. A rastreabilidade das decisões geradas por IA e a transparência quanto à lógica de funcionamento dos algoritmos são requisitos imprescindíveis para a legitimidade do seu uso na jurisdição.

Quanto à titularidade das criações geradas por inteligência artificial, a legislação brasileira em vigor não reconhece a IA como sujeito de direito, o que impede seu enquadramento como autora jurídica de qualquer obra intelectual. A Lei nº 9.609/1998, que trata dos programas de computador, e a Lei nº 9.610/1998, que regula os direitos autorais, partem da premissa de que a autoria é sempre atribuída a uma pessoa física ou, em alguns casos específicos, à pessoa jurídica nos limites legais. Assim, o conteúdo produzido autonomamente por sistemas de IA não pode ser considerado obra protegida, salvo se atribuído a seu programador, operador ou proprietário, a depender do grau de intervenção e da configuração contratual ou legal correspondente.

Em relação à responsabilidade pelas decisões produzidas com auxílio da IA, entende-se que o magistrado permanece sendo o agente competente e responsável pelo conteúdo e pelos efeitos jurídicos da decisão proferida. Ainda que a IA forneça elementos analíticos, sugestões de minutas ou indicações processuais, a decisão final é sempre de competência humana, e sua validade depende do juízo de convencimento motivado do juiz. Não se admite, portanto, a invocação da IA como excludente de responsabilidade, devendo o magistrado exercer o controle e a revisão de todas as etapas do processo decisório, assegurando a observância dos princípios constitucionais do contraditório, da ampla defesa e da fundamentação.

A regulação atual, composta principalmente pelo Marco Civil da Internet (Lei nº 12.965/2014) e pela Lei Geral de Proteção de Dados (Lei nº 13.709/2018), mostra-se insuficiente para lidar com as peculiaridades do uso da IA na produção de conteúdo e na atividade jurisdicional. A ausência de normas específicas acerca da autoria, responsabilidade e governança algorítmica fragiliza o sistema jurídico, sendo recomendável a adoção de parâmetros semelhantes aos utilizados em ordenamentos europeus, como o da Diretiva (UE) 2019/790, que regula direitos autorais no mercado digital, e a proposta de Regulamento de Inteligência Artificial da Comissão Europeia, que classifica os sistemas de IA conforme seu grau de risco e impõe requisitos rigorosos aos de alto risco, como aqueles utilizados no sistema de justiça.

A governança de dados e a proteção de informações sensíveis são elementos essenciais para a confiabilidade do uso da IA no setor público, especialmente no âmbito do Poder Judiciário, onde circulam dados pessoais, financeiros, médicos e outras informações sigilosas. A ausência de uma política clara e integrada de governança de dados compromete a integridade dos sistemas judiciais, além de gerar riscos de vazamento, acesso não autorizado e uso indevido das informações processuais. A proteção de dados deve ser tratada como condição estruturante para o desenvolvimento tecnológico institucional, exigindo investimentos, capacitação técnica e uma cultura organizacional voltada à segurança da informação.

No tocante à soberania de dados, é fundamental que o Estado brasileiro assegure que os sistemas de inteligência artificial utilizados no Judiciário operem com base em infraestrutura nacional, com armazenagem de dados em servidores seguros, localizados no território nacional ou sujeitos a regras de equivalência jurídica em caso de transferência internacional. A soberania informacional é requisito indispensável para garantir a autonomia tecnológica do Poder Judiciário, preservar os direitos fundamentais dos cidadãos e evitar a dependência de empresas privadas ou plataformas estrangeiras que não estejam submetidas às leis e decisões das autoridades brasileiras.

O uso ético da inteligência artificial no setor público, particularmente no Judiciário, exige mecanismos de transparência ativa, entre os quais se inclui a necessidade de explicitação formal do uso da tecnologia nas decisões proferidas, a fim de garantir o conhecimento pleno pelas partes e o controle democrático da atividade estatal. A dificuldade de reconhecimento de textos gerados por IA e a opacidade dos algoritmos tornam imprescindível a afirmação expressa, nos autos, de que determinada minuta, análise ou sugestão foi elaborada com o auxílio de inteligência artificial, cabendo ao juiz verificar sua conformidade jurídica e adequação ao caso concreto.

Portanto, conclui-se que os tribunais podem e devem utilizar a inteligência artificial como ferramenta de modernização, a fim de tornar o Poder Judiciário mais célere, menos burocrático e mais eficiente, sem, contudo, abdicar da transparência, da responsabilidade e da ética em sua aplicação. A função jurisdicional não pode ser delegada a máquinas, ainda que sofisticadas, sendo indeclinável o dever do juiz de zelar pela legalidade, pela justiça e pela proteção dos direitos fundamentais em todas as etapas do processo.


REFERÊNCIAS


BRASIL. Constituição da República Federativa do Brasil de 1988. Diário Oficial da União, Brasília, DF, 5 out. 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 25 maio 2025.

BRASIL. Lei nº 9.609, de 19 de fevereiro de 1998. Dispõe sobre a proteção da propriedade intelectual de programa de computador. Diário Oficial da União, Brasília, DF, 20 fev. 1998. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l9609.htm. Acesso em: 25 maio 2025.

BRASIL. Lei nº 9.610, de 19 de fevereiro de 1998. Altera, atualiza e consolida a legislação sobre direitos autorais e dá outras providências. Diário Oficial da União, Brasília, DF, 20 fev. 1998. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l9610.htm. Acesso em: 25 maio 2025.

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Diário Oficial da União, Brasília, DF, 24 abr. 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 25 maio 2025.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 25 maio 2025.

BRASIL. CONSELHO NACIONAL DE JUSTIÇA. Resolução nº 332, de 21 de agosto de 2020. Estabelece diretrizes éticas para o uso de inteligência artificial no Poder Judiciário. Disponível em: https://atos.cnj.jus.br/files/resolucao_332_21082020_17082022161512.pdf. Acesso em: 25 maio 2025.

COMISSÃO EUROPEIA. Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act). Brussels: COM(2021) 206 final, 21 abr. 2021. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206. Acesso em: 25 maio 2025.

UNIÃO EUROPEIA. Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market. Official Journal of the European Union, L 130, 17 abr. 2019. Disponível em: https://eur-lex.europa.eu/eli/dir/2019/790/oj. Acesso em: 25 maio 2025.

DIVINO, Sthéfano Bruno Santos; MAGALHÃES, Rodrigo Almeida. Propriedade intelectual e direito autoral de produção autônoma da inteligência artificial. Revista de Direitos e Garantias Fundamentais, Vitória, v. 21, n. 1, p. 167-192, jan./abr. 2020. Acesso em: 25 maio 2025.

MARQUES, Bartolomeu das Neves et al. Reflexos da inteligência artificial na propriedade intelectual. Revista Scientia, Salvador, v. 5, n. 2, p. 69-83, maio/ago. 2020. Acesso em: 25 maio 2025.

MACHADO, Fernanda de Vargas; COLOMBO, Cristiano. Inteligência artificial aplicada à atividade jurisdicional: desafios e limites jurídicos. In: VARGAS, Fernanda de; COLOMBO, Cristiano (org.). Tecnologia e Jurisdição: o futuro da justiça digital. Porto Alegre: Ed. Fórum, 2022. p. 101-120.

CRUZ, Fabricio Bittencourt da et al. Robôs substituem juízes? O estado da arte da inteligência artificial no Judiciário brasileiro. Revista Antinomias, v. 3, n. 1, p. 8-26, jan./jun. 2022. Acesso em: 25 maio 2025.

CONSELHO NACIONAL DE JUSTIÇA. Inteligência artificial e a aplicabilidade prática no direito. CNJ, mar. 2022. Disponível em: Acesso em: 25 maio 2025. 


Posts recentes

Ver tudo
A Dança Oculta dos Algoritmos

Nos bastidores reluzentes da internet, onde o deslizar de dedos dita o consumo e a viralização é medida em curtidas por segundo, uma...

 
 
 

Commentaires


Instagram: @Jornal.Tres

E-mail: Jornal.tr3s@gmail.com

Brasília-DF​

Fique informado, junte-se à nossa newsletter

Obrigado pela inscrição!

bottom of page