Olhodigital
Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na Avenida Paulista, uma celebração silenciosa ocorria nos centros de comando das polícias militares: a consolidação do reconhecimento facial como ferramenta onipresente da segurança pública nacional.
O Réveillon de 2026 marcou não apenas a virada do ano, mas uma virada tecnológica. Nunca antes tantos rostos foram escaneados em tempo real no país. Contudo, essa eficiência algorítmica expõe uma ferida jurídica aberta: o Brasil vive sob vigilância de “Primeiro Mundo” operando em um vácuo legislativo que deixa a privacidade do cidadão em zona cinzenta perigosa.
Para entender o problema, é preciso olhar para a letra fria da lei. A Lei Geral de Proteção de Dados (Lei 13.709/2018) é festejada como marco da privacidade no Brasil. No entanto, possui um “calcanhar de Aquiles” deliberado:
Lei 13.709/2018 (LGPD), Art. 4º: “Esta Lei não se aplica ao tratamento de dados pessoais realizado para fins exclusivos de: […] III – segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais.”
O parágrafo 1º do mesmo artigo determina que esses dados deveriam ser regidos por legislação específica (a chamada “LGPD Penal”). O problema? Em 2026, essa lei específica ainda caminha a passos lentos no Congresso Nacional.
“Estamos operando em um limbo jurídico”, afirma Dra. Helena Bastos, especialista em Direito Digital. “A polícia coleta biometria com base no Código de Processo Penal de 1941 — uma lei da era do papel aplicada a algoritmos de Inteligência Artificial de última geração. Sem a LGPD Penal, não sabemos por quanto tempo a foto do cidadão inocente permanece em bancos de dados policiais, nem quem tem acesso a ela.”
A Bahia segue como pioneira e maior vitrine da tecnologia no país. Até o final de 2025, o sistema baiano foi responsável pela captura de milhares de foragidos. A tecnologia, vendida como “infalível” pelos governos estaduais, enfrenta críticas severas da sociedade civil.
Relatórios de organizações como a Rede de Observatórios da Segurança apontam para o fenômeno do racismo algorítmico. Como muitos softwares são treinados com bases de dados majoritariamente brancas (frequentemente dos EUA ou Europa) ou demograficamente desbalanceadas, a taxa de erro ao identificar rostos negros é estatisticamente superior.
No Brasil, isso já gerou casos notórios de cidadãos abordados ou detidos porque o sistema os confundiu com foragidos, baseando-se em taxas de similaridade questionáveis — muitas vezes abaixo de 90%.
Diante da inércia do Legislativo, o Judiciário assumiu o papel de regulador de fato. A jurisprudência do Superior Tribunal de Justiça (STJ) endureceu consideravelmente nos últimos dois anos.
A corte consolidou o entendimento de que o reconhecimento — seja fotográfico presencial na delegacia ou via software — não pode servir como prova única para condenação.
Entendimento Consolidado do STJ (Ref. HC 598.886/SC e teses de 2025): O reconhecimento deve ser apenas uma etapa da investigação. Sem provas corroborativas (testemunhas, DNA, apreensão de objetos, registros de geolocalização), a identificação visual é insuficiente para manter prisão preventiva ou gerar condenação, visando evitar falhas da memória humana e vieses algorítmicos.
Esta posição tem gerado efeito cascata: investigações inteiras construídas primariamente sobre reconhecimento facial têm sido desconstruídas em tribunais superiores, resultando em absolvições de réus e questionamentos sobre a validade probatória da tecnologia.
A situação brasileira contrasta agudamente com o cenário internacional, onde o “vale tudo” na vigilância tem encontrado barreiras robustas.
A União Europeia implementou o AI Act, primeira legislação abrangente do mundo sobre IA. A abordagem europeia baseia-se em categorização de risco:
Proibição Geral: O uso de identificação biométrica remota em tempo real em espaços públicos por forças policiais é, em regra, proibido.
Exceções Rígidas: Só é permitido mediante autorização judicial prévia e para crimes gravíssimos (terrorismo, busca de crianças desaparecidas, ameaça iminente à vida).
Isso coloca a Europa na contramão do modelo brasileiro atual, onde o monitoramento é contínuo e preventivo, sem necessidade de mandado judicial específico para ativar os sistemas.
Nos EUA, não há lei federal única equivalente à LGPD, mas existe forte reação local baseada na Quarta Emenda (proteção contra buscas e apreensões arbitrárias).
Cidades como San Francisco, Boston e Portland proibiram completamente o uso de reconhecimento facial por agências governamentais.
Por outro lado, agências federais (FBI, ICE, TSA) utilizam vastos bancos de dados biométricos, criando um cenário de disputa constante nos tribunais americanos sobre os limites constitucionais da vigilância.
Além das questões jurídicas, há o impacto direto na vida de cidadãos. Casos documentados incluem:
Sem regulamentação clara sobre taxas mínimas de confiabilidade, procedimentos de verificação humana obrigatória e direito de contestação imediata, esses incidentes tendem a aumentar proporcionalmente à expansão dos sistemas.
O ano começa com pressão inédita sobre o Congresso Nacional. A Comissão de Juristas responsável pelo anteprojeto da “LGPD Penal” alerta que a segurança jurídica das próprias investigações está em risco.
Se uma lei clara não for aprovada, advogados criminalistas continuarão derrubando prisões baseadas em reconhecimento facial nos tribunais superiores, argumentando nulidade da prova por ausência de base legal adequada.
O anteprojeto em tramitação prevê:
Para o cidadão comum, a mensagem de 1º de janeiro de 2026 é clara: a tecnologia de segurança chegou para ficar, mas o direito à privacidade no espaço público nunca esteve tão ameaçado.
A questão central não é se devemos usar reconhecimento facial — a tecnologia oferece benefícios reais na captura de criminosos perigosos. A questão é sob quais regras, com quais salvaguardas e com qual nível de transparência.
A pergunta que fica para este ano é: aceitaremos viver em uma sociedade de vigilância perpétua em troca da sensação de segurança, ou construiremos um modelo que equilibre eficiência policial com proteção das liberdades individuais?
O relógio está correndo. E os algoritmos, observando.
Menos da metade dos provedores de internet no Brasil estruturou de forma adequada a governança…
O relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal” mostra que reconhecimento facial, sistemas…
A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…
Sabe aquela regulamentação europeia de proteção de dados que virou pesadelo para pequenas empresas? Pois…
Dario Amodei, CEO da empresa de inteligência artificial Anthropic, emitiu alertas severos sobre os perigos…
A Anthropic divulgou uma estrutura de código aberto em 13 de novembro para medir o…