1. Introdução
1.1. Tipos de Inteligência Artificial
À medida que os sistemas de inteligência artificial evoluem e passam a integrar nossas rotinas, seu potencial e utilidade também se tornam evidentes no contexto jurídico. Seu emprego como assistente na resolução de disputas manifesta-se, sobretudo, na rapidez e na eficiência com que suas ferramentas podem executar e aprimorar tarefas como a gestão, revisão e tradução de documentos, a pesquisa jurídica (Jus Mundi, LexisNexis, CoCounsel, Harvey), bem como a análise e a apresentação de provas. Atualmente, muitos profissionais do direito começaram a utilizar a IA para avaliar a força das provas, estimar a probabilidade de êxito em demandas, liberando tempo para uma atuação mais estratégica dos advogados.
1.2. IA na Arbitragem
Apesar de seu uso predominantemente individual e externo ao procedimento, as ferramentas de IA suscitam preocupações relevantes quanto à confidencialidade e à segurança da informação. A arbitragem envolve dados sensíveis, documentos, estratégias processuais, identidade de partes e terceiros, que podem ser inadvertidamente expostos quando inseridos em plataformas operadas por terceiros ou por modelos que funcionam em servidores externos.
A depender da arquitetura da ferramenta e do volume de dados compartilhados, o emprego de sistemas como modelos generativos pode, inclusive, demandar anuência prévia das partes, já que certas informações podem deixar o domínio exclusivo do usuário e passar a integrar bases externas. Como ainda não há regulamentação clara sobre os limites desse compartilhamento, persistem zonas de incerteza que podem gerar incidentes processuais, disputas sobre validade de atos e questionamentos sobre a integridade do procedimento.
Em contraste, tecnologias utilizadas no processo, isto é, incorporadas formalmente às regras procedimentais e executadas como parte do rito, apresentam desafios de natureza distinta. Ao assumirem funções tipicamente desempenhadas por sujeitos no processo, como a condução de audiência ou análise técnica de documentos, tais ferramentas podem impactar princípios estruturantes da arbitragem, especialmente contraditório, isonomia, imparcialidade e liberdade de convencimento.
Embora possam racionalizar etapas específicas, não alteram a lógica central do procedimento, que continua a depender de escolhas humanas, validações metodológicas e do próprio diálogo processual entre as partes e tribunal. Na prática, sistemas mais sofisticados tendem a introduzir novas camadas de debate (sobre opacidade algorítmica, vieses, admissibilidade e força probante de resultados automatizados, além da segurança dos dados tratados), o que pode ampliar a duração ou os custos da arbitragem, e não necessariamente reduzi-los.
Por outro lado, soluções já consolidadas de digitalização e virtualização (como protocolos eletrônicos, plataformas de gestão processual e audiências remotas), demonstram impactos mensuráveis de redução de tempo e de custos. O mesmo não ocorre com ferramentas avançadas de IA: apesar de promissoras, permanecem de uso restrito, economicamente variável e dependentes de forte supervisão humana.
Assim, a verdadeira eficiência na arbitragem continua condicionada a uma avaliação realista da relação custo-benefício das tecnologias disponíveis e à manutenção do controle humano sobre atos que influenciam o convencimento dos julgadores (SCHERER, 2019).
2. Impactos da IA na produção de prova na Arbitragem
2.1. Da necessidade de regulamentação
Apesar de a inteligência artificial se revelar uma ferramenta poderosa para a produção e gestão de provas na arbitragem, não se podem ignorar os impactos que seu uso pode acarretar nos casos concretos. Por isso, mostra-se imprescindível a construção de parâmetros normativos e orientativos específicos, de modo a evitar que a adoção indiscriminada dessas tecnologias comprometa a autenticidade da prova, o contraditório e, em última análise, a própria confiança no procedimento arbitral.
Esse risco é particularmente sensível quando se consideram os chamados deepfakes, capazes de criar provas falsas ou de manipular provas existentes, tornando extremamente difícil diferenciar o que é autêntico do que foi gerado ou adulterado por IA. A confiança em provas falsificadas pode distorcer o resultado de arbitragens e, em situações extremas, conduzir a verdadeiros erros judiciários (miscarriages of justice), além de repercutir em tempo e custos adicionais quando o tribunal precisa recorrer a peritos para verificar a legitimidade de provas digitais.
Por isso, recentemente, diversos textos normativos de instituições arbitrais ou outras organizações vêm sendo publicados, como a CIArb Guideline on the Use of AI in Arbitration, segundo a qual a Parte que pretenda utilizar uma Ferramenta de IA Permitida (“Permitted AI Tool”) deverá empregar esforços razoáveis para conferir, de forma independente, as fontes e a exatidão dos resultados obtidos, corrigindo eventuais erros antes de juntar documentos ou outras provas e, se necessário, também ao longo de todo o procedimento (CIArb, 2024). Por outro lado, veda-se expressamente o uso de IA para produzir conteúdo capaz de induzir o tribunal ou a parte contrária em erro, seja por meio da fabricação ou adulteração de provas, seja pela formulação de comandos (“prompts”) pensados para gerar deliberadamente um resultado inverídico ou enviesado (CIArb, 2024).
Sob perspectiva semelhante, as SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration estabelecem, em caráter orientativo, na cláusula 5, que as partes devem respeitar a integridade dos procedimentos, não sendo permitido o uso da IA para falsificar provas, para que não se comprometa a autenticidade da prova e do procedimento arbitral (SVAMC, 2024).
Na mesma direção, a VIAC Note on the Use of Artificial Intelligence in Arbitration Proceedings reconhece que cabe aos árbitros, no exercício de sua discricionariedade, decidir se é necessário exigir a divulgação de provas produzidas com o apoio de IA, bem como determinar a admissibilidade, relevância, materialidade e o peso probatório de tais elementos (VIAC, 2024).
Já a SCC Guide to the Use of AI in Cases Administered under the SCC Rules indica que essas ferramentas devem ser equipadas com soluções para evidenciar e detectar conteúdos que foram gerados pela IA ou manipulados por ela, usando métodos confiáveis para tal (SCC, 2024). Na mesma direção, Leonardo F. Souza-McMurtrie destaca que a própria inteligência artificial é uma das soluções mais promissoras para o problema da falsificação de provas, na medida em que pode ser treinada para identificá-las (Souza-McMurtrie, 2023).
Além do uso de IA pelas partes, discute-se a necessidade de regulamentar também do seu emprego pelos próprios árbitros, indicando parâmetros claros de atuação. Em geral, as condições impostas para o uso da IA enfatizam uma combinação de transparência e de responsabilidade pessoal do operador humano, que permanece incumbido de supervisionar o resultado gerado pela ferramenta e de responder por seu conteúdo.
Nesse contexto, talvez as regras mais sensíveis sejam aquelas relacionadas ao tratamento de informações confidenciais ou de segredos comerciais. Alguns tribunais têm tomado cuidado especial para evitar que a simples apresentação de peças e documentos não resulte na divulgação de dados sensíveis, sobretudo quando se utilizam programas de uso generalizado, como ChatGPT. Exige-se, por exemplo, que memoriais contendo informações confidenciais ou exclusivas identifiquem expressamente esses trechos (por exemplo, entre parênteses ou em destaque), que seja apresentada uma versão não confidencial do documento com as informações sensíveis suprimidas, e que os destinatários dos memoriais confidenciais se abstenham de divulgar seu conteúdo a quaisquer sujeitos não autorizados a recebê-lo. Ainda que as empresas responsáveis afirmem que não há risco de acesso indevido, teme-se que tais sistemas possam reter dados sensíveis inseridos por usuários e que, em determinadas circunstâncias, essas informações possam se tornar acessíveis a terceiros não autorizados, em afronta ao dever de confidencialidade comumente existente na arbitragem.
Essas cautelas, porém, em linha com a CIArb Guideline on the Use of AI in Arbitration (2024, item 4.5), não devem impedir o uso privado de ferramentas de IA pelas partes e suas equipes em atividades internas que não interfiram no andamento nem na integridade do procedimento, uma vez que os árbitros não devem regular esse tipo de utilização.
Portanto, nota-se que, com as devidas regulamentações, o emprego da inteligência artificial em procedimentos arbitrais pode constituir importante instrumento de aperfeiçoamento e evolução da arbitragem, desde que observado um conjunto de diretrizes que preservem a boa-fé e a credibilidade do procedimento. Não obstante os avanços regulatórios, ainda subsistem lacunas em cada um desses instrumentos, razão pela qual tais marcos normativos têm muito a evoluir – como destaca Leonardo F. Souza-McMurtrie, ao sustentar que as atuais guidelines ainda são prematuras, podendo desorganizar um processo em construção e, com isso, dificultar o surgimento de soluções melhores, motivo pelo qual devem ser continuamente revisitadas à luz da experiência prática (Souza-McMurtrie, 2025).
2.2. Autenticidade da prova
Superada a análise sobre a necessidade de regulamentar o uso da inteligência artificial na arbitragem, impõe-se um segundo eixo de preocupação: a autenticidade da prova digital produzida ou tratada por essas ferramentas. Em um contexto em que a decisão do tribunal arbitral depende, em larga medida, da confiança nas provas apresentadas, eventuais incertezas quanto à integridade desse material afetam diretamente a legitimidade do resultado.
Nesse cenário, a criação de falsas provas desponta como uma das principais ameaças associadas ao uso de IA na arbitragem, sobretudo na produção de prova destinada ao tribunal arbitral: a mesma tecnologia que permite organizar, buscar e analisar grandes volumes de dados pode também ser empregada para criar provas falsas ou adulterar conteúdos autênticos, como nos deepfakes.
Por outro lado, a própria desconfiança em relação a determinados tipos de prova abre espaço para o que Rebecca Delfino denominou “defesa deepfake”, estratégia pela qual advogados se valem do ceticismo quanto à integridade das provas digitais para lançar dúvidas sobre a sua legitimidade, ainda que elas sejam, de fato, autênticas (Delfino, 2023). Cria-se, assim, um ambiente em que a apreensão dos árbitros diante da possibilidade de manipulação tecnológica é explorada para desafiar a credibilidade de praticamente qualquer prova, a qualquer momento.
Diretrizes como o CIArb Guideline on the Use of AI in Arbitration, embora já reconheçam riscos associados à IA na produção de prova, ainda não enfrentam diretamente estratégias específicas como a chamada “defesa deepfake”, situada na interseção entre tecnologia, direito e ética, o que agrava a dificuldade dos tribunais em lidar com esse novo tipo de alegação (CIArb, 2024).
Por esses motivos, sugere-se (Limond; Calthrop, 2025) que as evidências digitais sejam acompanhadas de declaração de autenticidade subscrita pelo advogado ou de parecer técnico especializado que ateste terem sido examinadas e consideradas autênticas e confiáveis, sem afastar a responsabilidade das partes, à luz do princípio da boa-fé, de zelar pela autenticidade e pela legalidade das provas e documentos de arbitragem que apresentam.
2.3. Ônus probatório
A utilização de inteligência artificial na produção, organização e análise de provas modifica de maneira relevante a distribuição do ônus probatório na arbitragem. A prova digital mediada por algoritmos deixa de ser um simples documento apresentado ao tribunal e passa a envolver processos técnicos que exigem supervisão humana, transparência metodológica e, quando necessário, explicações sobre sua origem, rastreabilidade e integridade.
Esse ônus adicional decorre de fatores como a opacidade algorítmica, característica de modelos cujo funcionamento interno não é verificável, o potencial de reconstrução automática de conteúdos por ferramentas generativas e a desigualdade técnica entre as partes, que pode comprometer o exercício do contraditório. Nesse ambiente, aplica-se a noção de responsabilidade humana contínua: embora a IA participe da cadeia de produção da prova, a responsabilidade pela verificação, revisão e validação do conteúdo permanece integralmente humana.
As diretrizes mais recentes de instituições arbitrais reforçam essa compreensão. A CIArb Guideline on the Use of AI in Arbitration exige que as partes indiquem quando utilizam IA para produzir ou tratar provas e que verifiquem de forma independente a exatidão dos resultados (CIArb, 2024). As SVAMC Guidelines reiteram que a tecnologia não pode comprometer a autenticidade da prova (SVAMC, 2024). A VIAC Note reconhece o poder dos árbitros para solicitar informações suplementares sobre os métodos empregados (VIAC, 2024), enquanto a SCC Guide recomenda o uso de ferramentas capazes de detectar conteúdos gerados ou manipulados artificialmente (SCC, 2024). Em conjunto, essas diretrizes estabelecem que a parte que introduz tecnologia no procedimento é responsável por demonstrar que ela não comprometeu a integridade da prova.
A IA também gera hipóteses de deslocamento do ônus probatório. Esse fenômeno ocorre quando a parte contrária apresenta dúvida plausível sobre a autenticidade do material, sobretudo em um contexto marcado por deepfakes e sofisticadas ferramentas de manipulação digital. Nessas situações, cabe à parte que apresentou a prova explicar seu processo de obtenção e demonstrar a cadeia de custódia digital.
Esse conjunto de fatores reforça a importância da preservação da cadeia de custódia digital. Provas produzidas ou tratadas por IA devem ser acompanhadas de informações sobre a ferramenta utilizada, parâmetros aplicados, versões do modelo e fases de modificação.
Em síntese, a inteligência artificial não diminui o ônus probatório na arbitragem, mas o transforma. A parte que faz uso de IA assume responsabilidade ampliada pela demonstração da autenticidade, integridade e confiabilidade das provas apresentadas, devendo assegurar supervisão humana adequada, transparência metodológica e rastreabilidade completa do material. Em um cenário caracterizado por sofisticadas possibilidades de manipulação digital, riscos de erro algorítmico e assimetrias técnicas relevantes, o ônus probatório acompanha o risco tecnológico introduzido no procedimento, reafirmando que a tecnologia expande, e não substitui, a responsabilidade probatória das partes.
2.4. Limites da cooperação judicial na busca da verdade
A complexidade da prova digital e o risco de manipulações por inteligência artificial podem levar as partes, em situações excepcionais, a buscar o apoio do Poder Judiciário para preservar ou viabilizar a produção de provas em auxílio à arbitragem – por exemplo, por meio de tutelas de urgência, produção antecipada de provas ou atos que dependam de poderes coercitivos estatais, especialmente em face de terceiros não submetidos à jurisdição do tribunal arbitral (Lew; Mistelis; Kröll, 2003).
Contudo, essa cooperação possui limites bem definidos, pois a arbitragem permanece um procedimento autônomo, fundado na competência-competência e na responsabilidade dos árbitros pela condução da instrução. A intervenção estatal não pode substituir a apreciação probatória do tribunal arbitral nem servir como via indireta para rediscutir questões de mérito (Lew; Mistelis; Kröll, 2003).
Como destaca a doutrina clássica, a intervenção judicial na arbitragem deve permanecer restrita a medidas de apoio destinadas a suprir poderes coercitivos que os árbitros não possuem, como ordenar a preservação de provas ou a entrega de documentos mantidos por terceiros. Nessas situações, os tribunais estatais atuam apenas para tornar o processo arbitral efetivo, sem substituir o juízo probatório do tribunal arbitral nem interferir na condução do mérito (Lew; Mistelis; Kröll, 2003).
Outro limite relevante é a confidencialidade. A submissão de documentos sensíveis, metadados técnicos ou informações empresariais estratégicas a um processo judicial, que é em regra público, pode comprometer deveres de sigilo assumidos pelas partes na arbitragem. Por isso, o acionamento do Judiciário deve ser excepcional e, quando inevitável, acompanhado de medidas que reduzam o risco de exposição indevida.
Não se admite, em regra, que a cooperação judicial seja usada de forma estratégica para transferir ao Poder Judiciário o encargo de verificar a autenticidade de provas digitais ou chancelar alegações genéricas de manipulação por inteligência artificial. Nessas situações, a discussão deve ser submetida ao próprio tribunal arbitral, que é o responsável pela condução da instrução e pela apreciação da prova. Somente em hipóteses extremas, em que se sustente que a sentença foi proferida com base em prova falsa, é que se abre espaço para o controle judicial do laudo, nos estreitos limites do art. 32 da Lei de Arbitragem, como ilustram decisões recentes envolvendo arbitragens com participação da Administração Pública (AGU, 2023).
O espaço legítimo da cooperação judicial restringe-se, portanto, a hipóteses em que a eficácia do procedimento arbitral depende de atos que exigem poderes coercitivos externos, como ordens dirigidas a terceiros, preservação urgente de dados voláteis ou medidas preventivas para evitar a destruição de provas. Mesmo nesses casos, a atuação estatal deve ser instrumental, sempre subordinada às decisões do tribunal arbitral e sem invadir sua esfera decisória.
3. Conclusão
Muitos sustentam que a regulamentação é necessária justamente para preservar as características humanas do processo de resolução de disputas, sem, contudo, sufocar a inovação. As principais instituições arbitrais já vêm estabelecendo regras importantes para o uso da inteligência artificial, mas a regulação deve ser pensada em doses adequadas e progressivas, tal como ocorreu com outras tecnologias ao longo da história (CIArb, 2024; SVAMC, 2024; VIAC, 2024; SCC, 2024).
A corrida tecnológica das grandes empresas é irreversível, e aqueles preocupados com o devido processo na arbitragem precisam reconhecer, simultaneamente, os benefícios e os riscos da integração da inteligência artificial. Em diversas jurisdições, como no Tribunal Federal suíço e na High Court inglesa, a analogia com o secretário do tribunal oferece um caminho promissor: embora útil, ele continua a ser um assistente, limitado pelas diretrizes do árbitro e pelos princípios fundamentais da arbitragem (Swiss Federal Tribunal, Case 4A_709/2014, 2015; P v Q [2017] EWHC 194 (Comm)). Da mesma forma, a inteligência artificial pode e deve ser compreendida como uma ferramenta poderosa, apta a agilizar procedimentos, oferecer insights e até auxiliar na redação de decisões, mas sempre mantida na posição de coadjuvante técnico, subordinada à discricionariedade final e ao juízo crítico do árbitro humano (Lew; Mistelis; Kröll, 2003; Scherer, 2024).
Em última análise, a credibilidade da arbitragem em um ambiente marcado por desinformação e crescente sofisticação das manipulações digitais dependerá menos da velocidade da tecnologia e mais da capacidade das partes e dos árbitros de controlá-la, auditá-la e utilizá-la sem abdicar do rigor probatório. A inteligência artificial pode fortalecer o procedimento arbitral, desde que incorporada de forma responsável, transparente e proporcional (Souza-McMurtrie, 2023; Delfino, 2023).


