Os brasileiros estão cada vez mais expostos à lógica automatizada das plataformas, mas ainda entendem pouco como ela funciona. Dados do Painel TIC – Integridade da Informação, do Cetic.br, mostram que 41% dos usuários de internet com 16 anos ou mais afirmam ter contato diário com deepfakes — imagens, vídeos ou áudios criados ou manipulados por IA generativa para parecerem autênticos. O uso de ferramentas de IA generativa também já ganhou escala: 47% desse público dizem ter utilizado recursos como o ChatGPT, e, entre quem acessa a rede apenas pelo celular, a IA integrada ao WhatsApp aparece como a ferramenta mais mencionada. A pesquisa foi realizada entre agosto e setembro de 2025.
O levantamento indica que a percepção sobre deepfakes é mais forte entre jovens de 16 a 24 anos, faixa em que o índice chega a 44%. Ao mesmo tempo, o estudo expõe desigualdades de letramento digital: o desconhecimento sobre o tema ou sobre o próprio contato com esse tipo de conteúdo é maior entre pessoas das classes DE e entre entrevistados com menor escolaridade. Em outras palavras, a circulação de material sintético já é ampla, mas a capacidade de reconhecê-lo segue distribuída de forma desigual.
A pesquisa também revela uma compreensão limitada sobre o funcionamento dos algoritmos de recomendação e busca. Metade dos respondentes associa maior circulação de conteúdo à ideia de que ele seria mais confiável, e 45% acreditam que todas as pessoas recebem as mesmas informações quando pesquisam algo na internet. Na prática, isso não ocorre dessa forma: sistemas de recomendação e ranqueamento trabalham com múltiplos sinais, como histórico de navegação, buscas anteriores, inscrições, curtidas, rejeições, tempo de exibição, relevância contextual e atualidade do conteúdo. Plataformas como o YouTube e mecanismos de busca como o Google descrevem esses sistemas como modelos automatizados baseados em muitos fatores e sinais, e não em um único critério de “verdade” ou “qualidade” percebida pelo usuário.
Por outro lado, os entrevistados demonstram maior familiaridade com a lógica econômica do ambiente digital. A maioria percebe que a polêmica pode ser convertida em visibilidade para influenciadores e que a gratuidade das redes sociais está ligada ao modelo de publicidade. O estudo também aponta que o desempenho na identificação de conteúdos falsos e enganosos tende a ser melhor entre usuários com maior escolaridade, renda mais alta, acesso mais robusto à internet e maior hábito de checagem. Entre os grupos com melhor desempenho aparecem ainda os usuários que compreendem melhor o funcionamento de plataformas, mecanismos de busca e dinâmicas de circulação de informação.
Do ponto de vista técnico, o problema é mais amplo do que aparenta. Deepfakes não se limitam à troca de rostos em vídeo: incluem clonagem de voz, geração de imagens sintéticas, manipulação parcial de fotos e vídeos e até montagens híbridas combinando texto, áudio e vídeo. Segundo documento conjunto da NSA, FBI e CISA, esse tipo de mídia sintética tornou-se mais barato, mais rápido e mais acessível com o avanço de técnicas como redes adversariais generativas, modelos de difusão e grandes modelos de linguagem. O mesmo documento destaca que o risco mais relevante não é apenas a desinformação pública, mas também o uso de conteúdo sintético para fraude, engenharia social, falsificação de identidade e acesso indevido a redes e informações sensíveis.
Na Europa, a resposta regulatória já entrou em fase operacional. O AI Act da União Europeia entrou em vigor em 1º de agosto de 2024 e será plenamente aplicável em 2 de agosto de 2026, com exceções e etapas antecipadas. Dentro desse arcabouço, o artigo 50 trata da transparência para sistemas generativos, com obrigações voltadas à marcação e detecção de conteúdo gerado por IA e à rotulagem de deepfakes. A Comissão Europeia já conduz a elaboração de um código de práticas para apoiar esse cumprimento, prevendo, entre outros pontos, marcação em formato legível por máquina, detectabilidade do conteúdo artificial e obrigação de informar quando imagem, áudio ou vídeo constituírem deepfake. Em paralelo, o Digital Services Act reforçou exigências de transparência sobre sistemas de recomendação, incluindo a divulgação de parâmetros principais e a oferta de ao menos uma opção não baseada em perfilamento em certos contextos regulados.
Nos Estados Unidos, a resposta tem avançado de forma mais distribuída entre agências, guias técnicos e ações de defesa do consumidor. O FBI alertou em 2025 para campanhas em que criminosos usaram mensagens de texto e áudio gerado por IA para se passar por autoridades de alto escalão e induzir vítimas a migrar para canais secundários de comunicação, onde golpes e coleta de credenciais se tornam mais prováveis. A FTC, por sua vez, vem apoiando o desenvolvimento de soluções contra clonagem de voz, incluindo sistemas de detecção em tempo real, pontuação de “liveness” e técnicas de marcação de áudio para dificultar a clonagem indevida. O NIST tem reforçado a agenda de integridade de conteúdo, destacando abordagens como rastreamento de procedência, metadados, marca d’água, rotulagem, detecção automatizada e auditoria contínua; em 2025, o instituto afirmou que certos detectores de morphing facial já atingiram utilidade operacional em cenários específicos.
O quadro que emerge é claro: o acesso à informação digital se tornou mais intenso, mais personalizado e mais vulnerável a manipulações sofisticadas. No Brasil, os dados do Cetic.br sugerem que a exposição a conteúdos sintéticos e a ferramentas generativas já é massiva, enquanto a compreensão sobre os mecanismos que selecionam, impulsionam e validam informações ainda é insuficiente. Europa e Estados Unidos caminham para combinar transparência regulatória, rotulagem técnica, procedência do conteúdo e mecanismos de detecção, mas o desafio central continua sendo o mesmo: elevar o letramento digital da população no mesmo ritmo em que a IA reduz o custo de produzir falsificações convincentes.

