
A Suprema Corte da Índia. Licença CC BY-SA 4.0, via Wikimedia Commons
A Inteligência Artificial (IA) entrou sorrateiramente no sistema judiciário da Índia de uma forma sem precedentes. A IA pode gerar transcrições em tempo real nas sessões constitucionais da Suprema Corte: o software automatizado registra o depoimento de testemunhas em tribunais de primeira instância. Juízes estão até testando ferramentas de IA para pesquisa jurídica e tradução, a fim de navegar por processos que contenham vários idiomas. No entanto, esses testes estão acontecendo em um espaço judiciário tenso, levantando uma questão central: os algoritmos podem acelerar a justiça e ainda preservar a equidade, a transparência e a discrição humana?
Milhões de casos estão pendentes na Índia; na verdade, o acúmulo chega a dezenas de milhões. Para enfrentar essa questão, o governo, sob a direção da Suprema Corte e do Ministério da Lei e Justiça, está implementando a Fase III do projeto e-Courts, que busca modernizar os peticionamentos, a gestão de casos e os processos de fluxo de trabalho com tecnologias de aprendizado de máquina e idiomas. Uma parte considerável do orçamento é destinada a tecnologias futuras, como IA e blockchain, representando uma aposta política de que essas ferramentas digitais mitigarão os atrasos atuais enquanto ainda cumprem o princípio de que apenas os juízes decidem os casos. À medida que os tribunais começam a adotar a IA aleatoriamente, eles também precisam estabelecer limites para a responsabilidade, a privacidade e os limites da automação.
A promessa: rapidez em vez de acúmulo
A adoção da IA se baseia na digitalização prévia. Desde a implementação dos Tribunais eletrônicos (e-Courts) em 2007, o programa introduziu o peticionamento eletrônico (e-filing), as pautas de julgamento e a publicação de sentenças online, com o objetivo de viabilizar solicitações via internet. A Fase III gira em torno do uso de informações judiciais agora digitalizadas para interpretação por meio de processamento de linguagem natural e de aprendizado de máquina.
Uma inovação fundamental é o Portal de Assistência para Eficiência Judicial da Suprema Corte (SUPACE), uma plataforma com IA que facilita a tomada de decisões fundamentadas por juízes e assessores de pesquisa, auxiliando na gestão de volumes massivos de processos. O SUPACE não toma decisões. Ele identifica fatos, propõe precedentes e elabora esboços, reduzindo o tempo de pesquisa manual e permitindo que os juízes se concentrem no raciocínio jurídico.
O acesso ao idioma também é uma preocupação primordial. A Suprema Corte desenvolveu o software Vidhik Anuvaad (SUVAS), que traduz sentenças do inglês para outros idiomas indianos, enquanto algumas cortes superiores testam ferramentas para converter sentenças proferidas em línguas locais para o inglês. A transcrição alimentada por IA também está mudando a forma de manter registros. A Suprema Corte iniciou a transcrição automatizada em questões constitucionais e vem produzindo texto pesquisável em tempo quase real para o registro desde 2023.
A orientação mais importante foi dada pelo Tribunal Superior de Kerala em 2025, instruindo que todos os tribunais subordinados deveriam usar a ferramenta de conversão de fala em texto com inteligência artificial Adalat.AI para registrar depoimentos de testemunhas a partir de 1º de novembro de 2025. Desenvolvida por uma startup ligada a centros de pesquisa de universidades como Harvard e MIT, a Adalat.AI substitui anotações manuscritas lentas por transcrições digitais imediatas capturadas no sistema de tribunais distritais. Conforme a orientação, caso o sistema falhe, os juízes podem usar apenas plataformas alternativas aprovadas pelo diretório de TI do Tribunal Superior. Dessa forma, garante-se o controle do processamento de áudio sensível.
As autoridades descrevem essas reformas como passos rumo a um judiciário mais eficiente e transparente. Os documentos de diretrizes enfatizam o potencial da IA para reduzir o erro humano na transcrição, detectar automaticamente erros básicos durante o processo de peticionamento eletrônico e ajudar os juízes sobrecarregados a priorizar casos urgentes. Os comentaristas sobre a reforma judicial argumentam que, se implementados com cuidado, esses sistemas poderiam encurtar as audiências, melhorar a precisão das transcrições e traduções e dar aos litigantes, especialmente aqueles em distritos remotos com recursos jurídicos escassos, maior visibilidade sobre o andamento de seus casos.
As preocupações: quando os algoritmos obscurecem o pensamento judicial
Apesar do otimismo, juízes e estudiosos expressaram preocupações. Um aviso notável veio do Tribunal Superior de Nova Delhi em 2023, quando se recusou a considerar argumentos em um caso de marca registrada baseado no ChatGPT. O tribunal afirmou que grandes modelos de linguagem poderiam fabricar citações e fatos, e que seus resultados exigiam verificação independente.
Em outro caso, o mesmo Tribunal Superior de Nova Delhi permitiu que os compradores de imóveis retirassem uma petição após descobrirem que algumas partes de suas alegações, incluindo citações de casos, haviam sido geradas pelo ChatGPT. As queixas registradas no documento assim elaborado incluíam casos inexistentes e declarações citadas incorretamente. O juiz repreendeu o uso de IA generativa não verificada, afirmando que tais práticas poderiam enganar o tribunal. O episódio evidenciou os riscos profissionais inerentes à escolha entre rapidez e exatidão proporcionada pela inteligência artificial ao sistema judiciário.
O problema da caixa-preta vai muito mais além. As ferramentas de IA usadas para pesquisar, resumir ou transcrever podem ser construídas com base em modelos não claros. Quando o SUPACE chama a atenção para certos precedentes, juízes e litigantes não sabem exatamente como esses casos foram priorizados. Estudiosos alertam que esse nível de opacidade torna os erros mais difíceis de serem descobertos e pode influenciar sutilmente o pensamento judicial se as sugestões algorítmicas forem, de alguma forma, “vistas como neutras”.
Outro perigo é a parcialidade. A jurisprudência indiana, assim como a sociedade, é desigual e, portanto, os conjuntos de dados de treinamento de IA também podem ter sido impactados por padrões discriminatórios baseados em casta, gênero, classe ou religião. Analistas alertam que a IA reforça esses preconceitos em nome de maior eficiência. Juízes de alta instância, incluindo o presidente da Suprema Corte da Índia, reconheceram que a IA pode “intensificar a discriminação” em cenários em que sua falta de transparência continua a vigorar ou quando é treinada com dados não representativos.
As preocupações com privacidade e segurança também aumentaram. Os registros judiciais contêm um grande volume de dados pessoais sensíveis, como alegações criminais, dados financeiros e detalhes médicos. Todas as diretrizes dos tribunais, como a do Tribunal Superior de Kerala, desencorajam o upload desses dados para serviços de nuvem públicos. A Lei de Proteção de Dados Pessoais Digitais de 2023 aplica-se ao processamento automatizado, que abrange muitas ferramentas de IA utilizadas nos tribunais. Na ausência de uma lei de IA específica, os tribunais e os desenvolvedores precisam navegar em uma colcha de retalhos de normas de confidencialidade e proteção de dados.
Outra preocupação que representa um desafio para a melhoria a longo prazo é o “viés de automação“, no qual os humanos, inconscientemente, confiam demais nos resultados dos computadores. Estudiosos argumentam, por exemplo, que, quando a IA apresenta ao juiz um precedente aplicável ou uma prioridade de caso, sob a pressão da carga de trabalho, o juiz pode tender, muitas vezes sem sequer perceber, a reconsiderar alguma questão. Como os sistemas estão se tornando mais integrados, o único aspecto que impedirá que a IA, como ferramenta, se transforme em uma coautora silenciosa nas decisões judiciais serão as rigorosas intromissões por parte da disciplina judicial.
Traçando um caminho intermediário: Supervisão sem rendição
O judiciário está tentando encontrar um equilíbrio entre as demandas decorrentes do número de processos e as salvaguardas éticas em seu funcionamento. Com relação a isso, Kerala assumiu a liderança não apenas ao exigir o Adalat.AI, mas também ao emitir uma diretriz abrangente sobre inteligência artificial para os tribunais subordinados. A diretriz considera a IA como uma ferramenta administrativa para transcrição e tradução, proíbe a IA generativa de redigir sentenças ou de fazer previsões de resultados, aconselha os juízes a avaliarem rigorosamente os seus resultados e proíbe as plataformas externas de exigirem o upload de informações confidenciais.
Em âmbito nacional, a Suprema Corte criou um Comitê de IA para avaliar suas ferramentas e a integração em todos os sistemas de tecnologia da informação dos tribunais, especialmente por meio de parcerias com instituições como o IIT Madras. As declarações do governo sugerem que está em andamento uma regra uniforme para o uso de IA nos tribunais, alinhada às diretrizes éticas e de privacidade. As autoridades enfatizam que a IA será aceita somente com “supervisão humana, ética e proteção da privacidade”, e que apenas juízes estão autorizados a assinar ordens.
No entanto, não existe uma lei geral sobre IA na Índia. Atualmente, algumas regras estão presentes em circulares de tribunais, estatutos de proteção de dados e políticas gerais de tecnologia. Estudos sobre integridade judicial sugerem a realização de auditorias periódicas para detectar parcialidade, exigir a divulgação obrigatória sempre que a IA influenciar petições ou decisões e oferecer aos litigantes uma forma de contestar as ferramentas de IA que afetam seus casos. Especialistas enfatizam a necessidade de uma infraestrutura tecnológica mais robusta nos tribunais de primeira instância, de treinamento judicial para questionar os resultados da IA e de educação pública sobre o que essas ferramentas podem ou não fazer.
O maior desafio de hoje não é mais a adoção da inteligência artificial, e sim a capacidade de coexistir com ela. Problemas reais, como atrasos, barreiras linguísticas e desigualdade no acesso a informações jurídicas, podem ser aliviados por meio de ferramentas de IA. No entanto, não se pode negar que o uso de algoritmos opacos nos processos judiciais cotidianos pode reduzir a transparência e a responsabilidade do sistema. Por enquanto, os juízes da Índia parecem determinados a manter os humanos no comando, tratando a IA como assistente e não como um oráculo. A duração desse equilíbrio determinará não apenas a velocidade com que a justiça é feita, mas também o grau de confiança que a sociedade tem nesse processo.







