Deepfakes
A linha que separa o real do artificial está se tornando perigosamente tênue. Se antes os golpes corporativos dependiam de e-mails mal escritos ou ligações apressadas, a nova era do cibercrime tem um rosto – ou melhor, qualquer rosto que queira forjar. Um estudo recente da consultoria Gartner acendeu um alerta devastador: 62% das empresas já sofreram ataques envolvendo vídeos ou áudios gerados por Inteligência Artificial, os infames deepfakes. Como especialista em privacidade digital, afirmo que este número não é apenas uma estatística, mas o prenúncio de uma era de desconfiança digital institucionalizada.
O artigo original da Convergência Digital já apontava para o problema, mas a realidade se tornou ainda mais alarmante. A questão não é mais “se”, mas “com que frequência” uma organização será alvo. Dados recentes mostram que o uso de deepfakes para fins maliciosos cresceu 830% no Brasil, e o uso de marcas de empresas em fraudes do tipo aumentou 335% apenas no segundo semestre de 2024. A IA generativa, que promete revolucionar indústrias, também democratizou a fraude em uma escala sem precedentes.
O que impulsiona essa explosão? A resposta está na profissionalização do cibercrime através de um modelo de negócio assustadoramente familiar: “as-a-Service”. O Deepfake-as-a-Service (DaaS) já é uma realidade em fóruns da dark web. Criminosos agora podem encomendar vídeos ou áudios falsos com alta qualidade, sem a necessidade de conhecimento técnico avançado.
Isso significa que um golpista não precisa mais ser um expert em IA para simular uma chamada de vídeo do seu CFO autorizando uma transferência de emergência. Ele simplesmente “aluga” a tecnologia e a expertise. Essa acessibilidade transforma uma ameaça sofisticada em um ataque comoditizado, disponível para qualquer um com a motivação e os recursos financeiros – que são cada vez menores.
A tecnologia por trás dos deepfakes é complexa, mas seu método de ataque é primitivo: a engenharia social. O alvo final não é o firewall ou o antivírus, mas a confiança e a percepção da sua equipe. Uma pesquisa da Forbes revelou que mais de 50% dos ataques recentes contra empresas brasileiras utilizaram IA, sobrecarregando as equipes de TI com golpes cada vez mais personalizados e convincentes.
Imagine receber uma mensagem de áudio no WhatsApp do seu gestor, com a voz idêntica à dele, pedindo o envio de dados sensíveis de um cliente. Ou, em um cenário mais elaborado, participar de uma videoconferência onde o rosto de um diretor é usado para legitimar uma operação fraudulenta. Esses ataques exploram nosso instinto de confiar no que vemos e ouvimos, contornando as defesas lógicas que construímos contra e-mails de phishing, por exemplo.
Combater uma ameaça tão dinâmica exige mais do que apenas tecnologia; exige uma mudança cultural e estratégica. As empresas precisam adotar uma postura de “confiança zero” e investir em uma defesa multifacetada:
A era da inocência digital acabou. A capacidade de criar realidades sintéticas não é mais ficção científica, mas uma arma potente no arsenal do cibercrime. Proteger nossos ativos digitais e nossa privacidade exige uma vigilância constante, uma desconfiança saudável e a compreensão de que, hoje, ver (ou ouvir) já não é, necessariamente, crer.
A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…
Sabe aquela regulamentação europeia de proteção de dados que virou pesadelo para pequenas empresas? Pois…
Dario Amodei, CEO da empresa de inteligência artificial Anthropic, emitiu alertas severos sobre os perigos…
A Anthropic divulgou uma estrutura de código aberto em 13 de novembro para medir o…
A fabricante chinesa de brinquedos FoloToy suspendeu as vendas de seu ursinho de pelúcia com…
A Apple revisou suas políticas da App Store na quinta-feira para exigir explicitamente que os…