1. Introdução
A análise de dois relatórios sucessivos produzidos pelo Conselho Nacional de Justiça (CNJ), o órgão responsável pela administração e coordenação do Judiciário brasileiro, fornece dados relevantes para a compreensão do uso da Inteligência Artificial (IA) no campo jurídico. O Brasil é um país de vasta extensão territorial e com uma grande população, possuindo um sistema de justiça que figura entre os mais movimentados do mundo em termos de volume de casos e decisões.
Além disso, o país exerce uma influência geopolítica e comercial significativa na América Latina, o que torna esses dados particularmente relevantes para identificar tendências que podem oferecer percepções mais amplas sobre a evolução do uso de IA pelos tribunais em toda a região.
Embora esses relatórios tratem precipuamente do uso da IA pelo poder judiciário, as tendências que eles capturam são extremamente úteis para examinar desenvolvimentos semelhantes na arbitragem. Em geral, na maioria dos países, o judiciário tende a ser mais conservador do que os profissionais de arbitragem na adoção de novas tecnologias.
No entanto, a experiência dos tribunais brasileiros com a IA inverteu essa tendência. O papel pioneiro do Judiciário brasileiro na experimentação com ferramentas de IA pode fornecer orientações valiosas para a prática arbitral. Deve-se considerar que é razoável esperar que o judiciário tenha recorrido às ferramentas de IA, ao menos em parte, como um meio essencial de lidar com o volume colossal de processos judiciais em tramitação.
2. O Relatório do CNJ de 2024 sobre o Uso da IA Generativa
Em 2024, o CNJ publicou um relatório focado no uso de ferramentas e sistemas de IA Generativa (IAG) por tribunais e juízes (confira). A pesquisa empírica revelou que o uso da IA generativa já é significativo, com aproximadamente metade dos juízes e servidores relatando experiência prévia com tais ferramentas. Contudo, o uso profissional dentro das estritas funções judiciais ainda é infrequente, sendo descrito pela maioria como raro ou ocasional.
Um achado crucial é que a grande maioria daqueles pesquisados depende de ferramentas abertas ou disponíveis gratuitamente na internet para o trabalho no tribunal. Em contraste, o uso de ferramentas de IA generativa fornecidas oficialmente pelas cortes permanece muito limitado. A maior parte dos usos relatados, especialmente a pesquisa geral e a busca por jurisprudência e precedentes, é considerada apropriada.
Não obstante, o relatório enfatiza a necessidade de orientação rigorosa para a verificação de resultados, dadas as limitações conhecidas da IAG, como imprecisões e as chamadas “alucinações”. Os principais desafios relatados pelos usuários incluem a falta de familiaridade com a tecnologia, incertezas sobre a legalidade de seu uso e imprecisões no conteúdo gerado. O relatório vê positivamente a consciência dessas limitações, pois sugere uma maior propensão à revisão do conteúdo, mitigando o viés de automação.
A transparência, no entanto, surgiu como uma questão extremamente crítica. Uma maioria preocupante de respondentes não divulga o uso de IA generativa para seus pares ou superiores hierárquicos. Essa falta de transparência sistêmica prejudica os processos de revisão interna de documentos e pode aumentar drasticamente o risco de erros na prestação de serviços judiciais.
3. O Relatório de 2025: Consolidação e Desafios Institucionais
O estudo subsequente, conduzido pelo CNJ em parceria com o PNUD em 2025, confirmou a consolidação inequívoca das soluções baseadas em IA no Judiciário brasileiro, registrando 178 iniciativas de IA ativas em tribunais e conselhos (confira). A principal motivação para o desenvolvimento desses projetos continua sendo a busca imperativa por maior eficiência e celeridade processual.
O estudo revelou que 45,8% dos tribunais e conselhos já relataram o uso de ferramentas de IA generativa em suas operações rotineiras, principalmente para tarefas baseadas em texto, como geração, melhoria e resumo de documentos jurídicos. No entanto, uma preocupação significativa identificada é a profunda falta de coordenação institucional: 57,6% dos profissionais que usam essas ferramentas o fazem por meio de contas de e-mail pessoais, levantando sérias preocupações sobre a privacidade dos dados processuais e a segurança da informação. Além disso, metade dos tribunais relatou não possuir diretrizes internas específicas regulando o uso da IA generativa.
A falta de pessoal qualificado e a infraestrutura insuficiente foram apontadas como desafios primários, juntamente com a dificuldade de obter dados de qualidade para treinamento. A integração com a plataforma nacional de IA, denominada Sinapses, também permaneceu muito limitada, com 80,6% dos projetos operando à margem do sistema unificado. O objetivo do CNJ com a plataforma Sinapses é justamente unificar a compreensão e o uso da IA, garantindo o emprego apropriado dessas ferramentas por todo o judiciário brasileiro.
4. O Marco Regulatório: A Resolução nº 615 de 2025
O CNJ editou, em março de 2025, a Resolução nº 615. Este marco regulatório abrangente estabeleceu regras rígidas para a governança, desenvolvimento e auditoria da IA, com o fito de lidar com a rápida emergência da IA generativa e dos grandes modelos de linguagem (LLMs).
A resolução adota um rigoroso sistema de classificação baseado em risco. Aplicações de alto risco exigem avaliações de impacto profundas, enquanto usos de baixo risco são reservados puramente para tarefas de eficiência administrativa, desde que jamais substituam a avaliação intelectual humana. Crucialmente, a resolução estabelece que as ferramentas de IA generativa são estritamente auxiliares, proibindo terminantemente seu uso como tomadores de decisão autônomos.
Para resguardar a responsabilização ética e legal, o texto consagra o princípio fundamental da supremacia humana, afirmando que os juízes permanecem inteiramente responsáveis por todos os atos judiciais e devem examinar e confirmar quaisquer insumos gerados por IA, que ostentam caráter expressamente não vinculativo. Magistrados e servidores também são proibidos de inserir dados sensíveis ou registros judiciais sigilosos em LLMs externos sem anonimização prévia na fonte.
5. Lições do Judiciário Brasileiro para a Arbitragem Internacional
A experiência descentralizada, e em certa medida orgânica e não planejada, da implementação de ferramentas de IA no Judiciário brasileiro oferece diversas lições relevantes para o campo da arbitragem.
- Planejamento e Supervisão: A introdução de novas tecnologias em estruturas processuais não é um processo trivial. Transposta para a arbitragem, essa experiência sugere que o uso da IA deve ser introduzido com extrema cautela e regulado por regras processuais explícitas. Deixar a definição do uso da IA exclusivamente a cargo de cada árbitro, ou mesmo das partes, acarreta o risco de reproduzir as exatas falhas estruturais e a falta de transparência identificadas nos relatórios do CNJ. Tais medidas de regulação e governança são significativamente mais fáceis de implementar na arbitragem institucional (como no caso da AAA-ICDR) do que na arbitragem ad hoc, onde a adoção de salvaguardas comparáveis é um desafio considerável.
- Plataforma Comum e Interoperabilidade: A necessidade de uma arquitetura comum, um dos focos do CNJ com o projeto Sinapses, traduz-se na arbitragem na necessidade de padronização. A adoção institucionalizada de uma plataforma dedicada e habilitada por IA para a administração de procedimentos arbitrais permite um grau muito maior de controle e transparência. Um modelo excessivamente aberto, onde cada árbitro e parte usa qualquer ferramenta tecnológica de sua livre escolha, cria complexidades adicionais que podem, em última análise, minar a transparência do procedimento e dificultar a avaliação dos efeitos reais da IA sobre a decisão arbitral.
- Letramento (conhecimento) em IA: A falta de treinamento técnico entre os operadores judiciais foi um problema nevrálgico identificado e é igualmente aplicável à prática arbitral. A literacia em IA é um fator essencial para garantir que a tecnologia não produza efeitos prejudiciais e não afete a própria noção de um processo justo. Como destaca Sophie Nappert, os árbitros modernos não podem mais se dar ao luxo de afirmar: “eu não sou uma pessoa de tecnologia” (The impact of artificial intelligence on the duties, qualifications, and selection of international arbitrators. Dec./2025. Confira aqui). A delegação dessas funções para secretários de tribunais arbitrais não exime o árbitro de entender, em termos gerais, como os sistemas operam e como podem introduzir vieses nocivos, pois essas são questões que afetam diretamente o cerne da tomada de decisão, que é a função primordial e inalienável do árbitro.
