O relatório Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal, elaborado pelo Centro de Estudos de Segurança e Cidadania (Cesec) e ligado ao projeto O Panóptico, revela que ferramentas de inteligência artificial, reconhecimento facial e câmeras corporais estão ganhando espaço na rotina de investigações e processos criminais, sem critérios sólidos de governança e com riscos aos direitos fundamentais.
O estudo analisa como essas tecnologias vêm sendo incorporadas por polícias, Ministérios Públicos e tribunais no Brasil, muitas vezes sem registro formal, sem protocolos de governança e sem auditoria independente. Entre os alertas estão fragilidades técnicas e processuais que aumentam a probabilidade de erros e vieses nos algoritmos, especialmente em conjuntos de treinamento com menor representatividade.
Dados de transparência permanecem limitados: apenas 28,5% das Secretarias de Segurança Pública responderam a pedidos via Lei de Acesso à Informação sobre o uso dessas tecnologias; entre as Polícias Civis, dois terços não forneceram dados. Nos Ministérios Públicos, apenas três unidades admitiram o uso do reconhecimento facial, sem detalhar como os resultados são empregados nos procedimentos investigativos, e pouco se documenta nos autos mesmo quando há indícios de uso frequente, como a comparação de imagens de câmeras de segurança com bases policiais.
O relatório detalha que 13 Secretarias de Segurança Pública afirmam usar reconhecimento facial, 4 negam e 12 não informaram; entre as Polícias Civis, 14 declararam empregar a tecnologia, mas apenas 3 detalham custos ou contratos e quase nenhuma descreve o vínculo entre o sistema e os procedimentos operacionais. No Ministério Público, o cenário é ainda mais opaco: apenas 3 unidades reconhecem o uso da tecnologia, enquanto 15 negam e 10 não informam, o que sugere presença difusa e pouco institucionalizada da IA na atuação investigativa e processual.
Quanto à Justiça, o levantamento aponta que tribunais brasileiros utilizam ao menos 63 sistemas de IA, que vão desde triagem de processos até apoio à redação de decisões. Contudo, 76% dos magistrados e servidores usam plataformas privadas, como ChatGPT e Copilot, para elaborar documentos judiciais, muitas vezes sem informar o responsável pela decisão e transferindo dados sensíveis a empresas estrangeiras. Embora o Conselho Nacional de Justiça tenha publicado, em 2025, uma resolução para regular o uso de IA, o Cesec aponta a carência de mecanismos de auditoria independente, critérios de responsabilização e padronização mínima entre tribunais.
No que se refere às câmeras corporais, o relatório sustenta que sua eficácia como ferramenta de transparência e accountability depende mais do ecossistema institucional do que da própria tecnologia. “Quando acompanhadas de protocolos de acionamento automático, preservação da cadeia de custódia e acesso isonômico às imagens, essas ferramentas podem fortalecer o controle externo da atuação policial. Em contextos de baixa governança, com controle interno das gravações pelas próprias corporações, tornam-se frágeis para a responsabilização e pouco úteis como prova, devendo a defesa ser protegida frente a interpretações enviesadas e falhas de custódia”, afirma o estudo.
O documento conclui que a adoção dessas tecnologias exige salvaguardas para o devido processo legal, com direito a contraditório e acompanhamento independente. O relatório aponta ainda a necessidade de padrões mínimos e auditorias para evitar que vieses e erros comprometam direitos fundamentais durante investigações e decisões judiciais.