Deepfakes
A linha que separa o real do artificial está se tornando perigosamente tênue. Se antes os golpes corporativos dependiam de e-mails mal escritos ou ligações apressadas, a nova era do cibercrime tem um rosto – ou melhor, qualquer rosto que queira forjar. Um estudo recente da consultoria Gartner acendeu um alerta devastador: 62% das empresas já sofreram ataques envolvendo vídeos ou áudios gerados por Inteligência Artificial, os infames deepfakes. Como especialista em privacidade digital, afirmo que este número não é apenas uma estatística, mas o prenúncio de uma era de desconfiança digital institucionalizada.
O artigo original da Convergência Digital já apontava para o problema, mas a realidade se tornou ainda mais alarmante. A questão não é mais “se”, mas “com que frequência” uma organização será alvo. Dados recentes mostram que o uso de deepfakes para fins maliciosos cresceu 830% no Brasil, e o uso de marcas de empresas em fraudes do tipo aumentou 335% apenas no segundo semestre de 2024. A IA generativa, que promete revolucionar indústrias, também democratizou a fraude em uma escala sem precedentes.
O que impulsiona essa explosão? A resposta está na profissionalização do cibercrime através de um modelo de negócio assustadoramente familiar: “as-a-Service”. O Deepfake-as-a-Service (DaaS) já é uma realidade em fóruns da dark web. Criminosos agora podem encomendar vídeos ou áudios falsos com alta qualidade, sem a necessidade de conhecimento técnico avançado.
Isso significa que um golpista não precisa mais ser um expert em IA para simular uma chamada de vídeo do seu CFO autorizando uma transferência de emergência. Ele simplesmente “aluga” a tecnologia e a expertise. Essa acessibilidade transforma uma ameaça sofisticada em um ataque comoditizado, disponível para qualquer um com a motivação e os recursos financeiros – que são cada vez menores.
A tecnologia por trás dos deepfakes é complexa, mas seu método de ataque é primitivo: a engenharia social. O alvo final não é o firewall ou o antivírus, mas a confiança e a percepção da sua equipe. Uma pesquisa da Forbes revelou que mais de 50% dos ataques recentes contra empresas brasileiras utilizaram IA, sobrecarregando as equipes de TI com golpes cada vez mais personalizados e convincentes.
Imagine receber uma mensagem de áudio no WhatsApp do seu gestor, com a voz idêntica à dele, pedindo o envio de dados sensíveis de um cliente. Ou, em um cenário mais elaborado, participar de uma videoconferência onde o rosto de um diretor é usado para legitimar uma operação fraudulenta. Esses ataques exploram nosso instinto de confiar no que vemos e ouvimos, contornando as defesas lógicas que construímos contra e-mails de phishing, por exemplo.
Combater uma ameaça tão dinâmica exige mais do que apenas tecnologia; exige uma mudança cultural e estratégica. As empresas precisam adotar uma postura de “confiança zero” e investir em uma defesa multifacetada:
A era da inocência digital acabou. A capacidade de criar realidades sintéticas não é mais ficção científica, mas uma arma potente no arsenal do cibercrime. Proteger nossos ativos digitais e nossa privacidade exige uma vigilância constante, uma desconfiança saudável e a compreensão de que, hoje, ver (ou ouvir) já não é, necessariamente, crer.
A Procuradoria Geral do Estado de São Paulo (PGE-SP) já colhe frutos da migração para…
O Conselho Superior da Justiça do Trabalho (CSJT) informou a ocorrência de um incidente de…
No último dia 17 de setembro, foi assinado um pacote legislativo que redefine o papel…
A Comissão Europeia, em 5 de setembro de 2025, iniciou formalmente o processo para reconhecer…
A internet abriu um universo de possibilidades para todas as gerações. Para a população idosa,…
Com com grande entusiasmo vemos a entrega dos subsídios para a elaboração da Política Nacional…