O relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal” mostra que reconhecimento facial, sistemas de IA e câmeras corporais já estão amplamente presentes na polícia, no Ministério Público e no Judiciário brasileiros, mas em geral sem transparência, sem governança mínima e com forte risco a direitos fundamentais, especialmente de pessoas negras e grupos sub-representados.
A pesquisa indica que essas tecnologias vêm influenciando silenciosamente suspeitas, pedidos de prisão e decisões judiciais, muitas vezes sem registro formal nos autos e sem possibilidade efetiva de contraditório pelas defesas.
Expansão do uso de IA e reconhecimento facial
O levantamento do CESeC, no âmbito do projeto O Panóptico, mapeou nacionalmente órgãos de segurança e justiça e identificou pelo menos 30 instituições usando reconhecimento facial para fins investigativos, entre elas 14 Polícias Civis, 13 Secretarias de Segurança Pública e três Ministérios Públicos estaduais.
O relatório destaca que a empresa mais presente é a Clearview AI, conhecida por construir gigantescos bancos de imagens coletadas sem consentimento e já alvo de decisões restritivas em vários países, o que agrava preocupações com privacidade e proteção de dados.
Apesar da capilaridade da tecnologia, apenas 28,5% das Secretarias de Segurança Pública responderam integralmente a pedidos via Lei de Acesso à Informação sobre uso de reconhecimento facial e IA, e a maior parte das Polícias Civis se negou a fornecer dados básicos de contratos, custos ou critérios de uso. Entre Ministérios Públicos, só três unidades admitiram utilizar sistemas de reconhecimento facial e nenhuma detalhou de forma robusta como esses resultados influenciam investigações, denúncias ou pedidos de medidas cautelares.
Erros, vieses e impacto sobre suspeitos
O relatório recupera estudos nacionais e internacionais de 2018 a 2025 que apontam taxas de erro sistematicamente maiores em rostos negros, indígenas, femininos e de grupos pouco representados nas bases de treinamento, reforçando o caráter estrutural do viés algorítmico.
Casos documentados em diferentes estados mostram prisões injustas decorrentes de falsas correspondências, com pessoas negras detidas em via pública ou em casa com base quase exclusiva em “hits” de sistemas de reconhecimento facial.
O CESeC interpreta esses dados como evidência de que resultados algorítmicos passaram a integrar, de forma invisível, a cadeia de formação de suspeitos, hipóteses de autoria e pedidos de prisão, sem que a origem automatizada da “pista” conste claramente dos autos.
Na prática, isso cria uma situação em que a defesa não consegue contestar o algoritmo, nem requerer auditoria independente ou acesso a parâmetros técnicos, o que aprofunda a assimetria entre acusação e defesa e fragiliza o devido processo legal.
Falta de governança, transparência e regulação
Segundo o relatório, a incorporação dessas tecnologias ocorre em um cenário de governança fragmentada: contratos são pouco detalhados, critérios de seleção de fornecedores raramente são divulgados e quase não há estudos de eficácia ou custo-benefício tornados públicos.
Em muitos casos, órgãos públicos firmam acordos com empresas estrangeiras ou plataformas em nuvem sem estabelecer claramente obrigações de proteção de dados, de não reutilização de bases para fins comerciais e de auditoria periódica de desempenho e viés.
No plano normativo, a Lei Geral de Proteção de Dados traz exceções amplas para segurança pública e persecução penal, enquanto o Projeto de Lei 2.338/2023 (Marco Legal da IA) classifica o reconhecimento facial como tecnologia de “risco excessivo”, mas ainda admite seu uso em segurança pública sem desenhar mecanismos robustos de supervisão, sanção e controle social.
A Portaria 961/2025 do Ministério da Justiça estabelece diretrizes gerais para uso de IA em investigações, porém o CESeC aponta que faltam instrumentos concretos de fiscalização, requisitos de transparência ativa e padrão mínimo de documentação do uso de algoritmos em peças investigativas.
IA no Judiciário e riscos à confidencialidade
No Judiciário, o relatório identificou pelo menos 63 sistemas de inteligência artificial em funcionamento em tribunais brasileiros, usados para triagem de processos, classificação temática, priorização de filas e até apoio à redação de decisões.
Em paralelo, pesquisa citada pelo CESeC demonstra que 76% de magistrados e servidores utilizam plataformas privadas de IA generativa, como ChatGPT e Copilot, para elaborar minutos, pareceres e peças, muitas vezes inserindo dados sensíveis de processos em serviços com governança incompatível com os padrões da administração pública.
Mais preocupante, 85% dos assessores entrevistados não informam aos magistrados quando recorrem a essas ferramentas, o que torna quase impossível rastrear em que medida decisões judiciais foram influenciadas por conteúdos gerados por IA privada.
Isso não só coloca em risco o sigilo processual e a proteção de dados de vítimas, testemunhas e réus, como também dificulta qualquer controle posterior de vieses, erros factuais ou uso indevido de argumentos automatizados na fundamentação de decisões.
Câmeras corporais: potencial e limitações
No capítulo dedicado às câmeras corporais, o relatório ressalta que a eficácia desses dispositivos como instrumentos de transparência, controle e responsabilização depende menos da tecnologia e mais do ecossistema político, jurídico e institucional em que são inseridos. Quando há protocolos de acionamento automático, preservação rigorosa da cadeia de custódia, armazenamento seguro e acesso isonômico às imagens por acusação e defesa, o uso das câmeras tende a fortalecer o controle externo da atividade policial e a reduzir letalidade e denúncias de abuso.
Por outro lado, programas em que o acionamento fica a critério exclusivo do agente, sem monitoramento independente, frequentemente resultam em altas taxas de ocorrências sem gravação, como registrado em experiências estaduais nas quais mais da metade das abordagens ocorreu com câmeras desligadas. Nesses contextos, o controle das gravações pelas próprias corporações, aliado à ausência ou má custódia de imagens, converte as câmeras em mecanismos frágeis de accountability e de baixa força probatória em juízo, especialmente quando falhas são tratadas como meras contingências técnicas e não como violações processuais.
Cadeia de custódia e devido processo legal
O relatório enfatiza que a ausência de gravação, a perda de arquivos ou a interpretação seletiva de imagens produzidas por câmeras corporais não podem ser vistas como simples problemas operacionais. Em consonância com decisões recentes de tribunais superiores, o estudo sustenta que falhas graves na cadeia de custódia audiovisuais devem ser interpretadas em favor da defesa, à luz dos princípios da presunção de inocência e do devido processo legal.
Da mesma forma, resultados algorítmicos utilizados em reconhecimento facial ou em sistemas de pontuação de risco, quando não são adequadamente documentados, auditáveis e passíveis de contraditório, geram uma “continuidade ampliada da fragilidade probatória”, na expressão do relatório. Isso significa que métodos tradicionais já problemáticos – como reconhecimentos fotográficos informais em delegacias – são somados a ferramentas de IA opacas, produzindo um efeito cumulativo de insegurança na prova, com impactos desproporcionais sobre populações historicamente vulnerabilizadas.
Desafios e recomendações apontados
O CESeC conclui que a expansão de IA, reconhecimento facial e câmeras corporais na justiça criminal brasileira vem sendo guiada muito mais por promessas de eficiência do que por evidências, sem demonstração consistente de redução de criminalidade ou aumento mensurável de resolução de casos. O relatório defende que nenhuma suposta eficiência pode servir de justificativa isolada para a adoção de tecnologias que ampliam capacidades de vigilância e controle social, sobretudo quando seu funcionamento interno é opaco para sociedade, defesa técnica e órgãos de controle.
Entre as recomendações, o estudo destaca:
- Necessidade de transparência ativa sobre todos os sistemas de IA e reconhecimento facial usados por órgãos de segurança, MP e Judiciário, com divulgação de contratos, fornecedores, métricas de desempenho e taxas de erro.
- Criação de mecanismos de auditoria independente, com participação de universidades, organizações da sociedade civil e órgãos de controle externos, voltados a monitorar viés, acurácia e impactos discriminatórios.
- Estabelecimento de regras claras de documentação do uso de algoritmos em investigações e decisões, garantindo que defesas possam conhecer, contestar e requerer perícias sobre essas ferramentas.
- Padronização nacional de protocolos de câmeras corporais, com acionamento automático em situações críticas, preservação rígida da cadeia de custódia e garantia de acesso equilibrado às imagens por todas as partes processuais.
Para o CESeC, o desafio central é converter princípios abstratos de proteção de direitos em mecanismos concretos de controle, responsabilização e transparência sobre o uso de tecnologias digitais na justiça criminal, rompendo com o atual modelo em que algoritmos decidem sem que fique claro quem responde por seus erros.
