Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na Avenida Paulista, uma celebração silenciosa ocorria nos centros de comando das polícias militares: a consolidação do reconhecimento facial como ferramenta onipresente da segurança pública nacional.
O Réveillon de 2026 marcou não apenas a virada do ano, mas uma virada tecnológica. Nunca antes tantos rostos foram escaneados em tempo real no país. Contudo, essa eficiência algorítmica expõe uma ferida jurídica aberta: o Brasil vive sob vigilância de “Primeiro Mundo” operando em um vácuo legislativo que deixa a privacidade do cidadão em zona cinzenta perigosa.
O Paradoxal Artigo 4º: Onde a LGPD Termina
Para entender o problema, é preciso olhar para a letra fria da lei. A Lei Geral de Proteção de Dados (Lei 13.709/2018) é festejada como marco da privacidade no Brasil. No entanto, possui um “calcanhar de Aquiles” deliberado:
Lei 13.709/2018 (LGPD), Art. 4º: “Esta Lei não se aplica ao tratamento de dados pessoais realizado para fins exclusivos de: […] III – segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais.”
O parágrafo 1º do mesmo artigo determina que esses dados deveriam ser regidos por legislação específica (a chamada “LGPD Penal”). O problema? Em 2026, essa lei específica ainda caminha a passos lentos no Congresso Nacional.
“Estamos operando em um limbo jurídico”, afirma Dra. Helena Bastos, especialista em Direito Digital. “A polícia coleta biometria com base no Código de Processo Penal de 1941 — uma lei da era do papel aplicada a algoritmos de Inteligência Artificial de última geração. Sem a LGPD Penal, não sabemos por quanto tempo a foto do cidadão inocente permanece em bancos de dados policiais, nem quem tem acesso a ela.”
O “Laboratório” Brasileiro: Bahia e Rio na Vanguarda
A Bahia segue como pioneira e maior vitrine da tecnologia no país. Até o final de 2025, o sistema baiano foi responsável pela captura de milhares de foragidos. A tecnologia, vendida como “infalível” pelos governos estaduais, enfrenta críticas severas da sociedade civil.
Relatórios de organizações como a Rede de Observatórios da Segurança apontam para o fenômeno do racismo algorítmico. Como muitos softwares são treinados com bases de dados majoritariamente brancas (frequentemente dos EUA ou Europa) ou demograficamente desbalanceadas, a taxa de erro ao identificar rostos negros é estatisticamente superior.
No Brasil, isso já gerou casos notórios de cidadãos abordados ou detidos porque o sistema os confundiu com foragidos, baseando-se em taxas de similaridade questionáveis — muitas vezes abaixo de 90%.
O Judiciário como “Freio de Mão”
Diante da inércia do Legislativo, o Judiciário assumiu o papel de regulador de fato. A jurisprudência do Superior Tribunal de Justiça (STJ) endureceu consideravelmente nos últimos dois anos.
A corte consolidou o entendimento de que o reconhecimento — seja fotográfico presencial na delegacia ou via software — não pode servir como prova única para condenação.
Entendimento Consolidado do STJ (Ref. HC 598.886/SC e teses de 2025): O reconhecimento deve ser apenas uma etapa da investigação. Sem provas corroborativas (testemunhas, DNA, apreensão de objetos, registros de geolocalização), a identificação visual é insuficiente para manter prisão preventiva ou gerar condenação, visando evitar falhas da memória humana e vieses algorítmicos.
Esta posição tem gerado efeito cascata: investigações inteiras construídas primariamente sobre reconhecimento facial têm sido desconstruídas em tribunais superiores, resultando em absolvições de réus e questionamentos sobre a validade probatória da tecnologia.
O Espelho Internacional: Europa e EUA
A situação brasileira contrasta agudamente com o cenário internacional, onde o “vale tudo” na vigilância tem encontrado barreiras robustas.
1. Europa: O “AI Act” (Lei de Inteligência Artificial)
A União Europeia implementou o AI Act, primeira legislação abrangente do mundo sobre IA. A abordagem europeia baseia-se em categorização de risco:
Proibição Geral: O uso de identificação biométrica remota em tempo real em espaços públicos por forças policiais é, em regra, proibido.
Exceções Rígidas: Só é permitido mediante autorização judicial prévia e para crimes gravíssimos (terrorismo, busca de crianças desaparecidas, ameaça iminente à vida).
Isso coloca a Europa na contramão do modelo brasileiro atual, onde o monitoramento é contínuo e preventivo, sem necessidade de mandado judicial específico para ativar os sistemas.
2. Estados Unidos: Fragmentação Regulatória
Nos EUA, não há lei federal única equivalente à LGPD, mas existe forte reação local baseada na Quarta Emenda (proteção contra buscas e apreensões arbitrárias).
Cidades como San Francisco, Boston e Portland proibiram completamente o uso de reconhecimento facial por agências governamentais.
Por outro lado, agências federais (FBI, ICE, TSA) utilizam vastos bancos de dados biométricos, criando um cenário de disputa constante nos tribunais americanos sobre os limites constitucionais da vigilância.
O Custo Humano da Inércia Legislativa
Além das questões jurídicas, há o impacto direto na vida de cidadãos. Casos documentados incluem:
- Trabalhadores detidos a caminho do emprego por “similaridade facial” com foragidos
- Mães impedidas de entrar em eventos públicos com seus filhos após alarmes de reconhecimento
- Jovens negros abordados repetidamente pelo mesmo sistema em diferentes locais
Sem regulamentação clara sobre taxas mínimas de confiabilidade, procedimentos de verificação humana obrigatória e direito de contestação imediata, esses incidentes tendem a aumentar proporcionalmente à expansão dos sistemas.
O Que Esperar de 2026?
O ano começa com pressão inédita sobre o Congresso Nacional. A Comissão de Juristas responsável pelo anteprojeto da “LGPD Penal” alerta que a segurança jurídica das próprias investigações está em risco.
Se uma lei clara não for aprovada, advogados criminalistas continuarão derrubando prisões baseadas em reconhecimento facial nos tribunais superiores, argumentando nulidade da prova por ausência de base legal adequada.
Propostas em Discussão
O anteprojeto em tramitação prevê:
- Tempo máximo de retenção de dados biométricos de não condenados
- Auditoria independente de algoritmos usados por forças de segurança
- Notificação ao cidadão quando sua biometria for consultada (exceto em investigações sigilosas)
- Taxas mínimas de confiabilidade para uso como indício investigativo
- Proibição de bases de dados alimentadas por redes sociais sem consentimento
Conclusão: Segurança Versus Liberdade
Para o cidadão comum, a mensagem de 1º de janeiro de 2026 é clara: a tecnologia de segurança chegou para ficar, mas o direito à privacidade no espaço público nunca esteve tão ameaçado.
A questão central não é se devemos usar reconhecimento facial — a tecnologia oferece benefícios reais na captura de criminosos perigosos. A questão é sob quais regras, com quais salvaguardas e com qual nível de transparência.
A pergunta que fica para este ano é: aceitaremos viver em uma sociedade de vigilância perpétua em troca da sensação de segurança, ou construiremos um modelo que equilibre eficiência policial com proteção das liberdades individuais?
O relógio está correndo. E os algoritmos, observando.

