Pesquisadores do Google mostram como inteligência artificial turbina fake news

Uma nova análise de coautoria de pesquisadores do Google, da Duke University e de diversas organizações de mídia e verificação de fatos, aponta que a inteligência artificial já é a principal responsável pela criação e disseminação de fake news.

Segundo o estudo, as imagens geradas por IA ganharam rapidamente destaque, tornando-se quase tão populares como as formas mais tradicionais de manipulação.

A IA tem sido usada para gerar imagens falsas de pessoas reais, com efeitos preocupantes. Desde celebridades, como Taylor Swift nua, ao papa Francisco com casaco de moda, chegando ao Brasil, em imagens falsas que simularam empresários ajudando vítimas da chuva no Rio Grande do Sul, o problema está por toda a parte. 

Segundo o levamento, “as imagens geradas por IA representavam uma proporção mínima das manipulações de conteúdo em geral até o início do ano passado”. Mas isso mudou.

A partir de 2023, com o lançamento de novas ferramentas de geração de imagens de IA por grandes players da tecnologia, incluindo OpenAI, Microsoft e o próprio Google, a desinformação gerada pela IA é “quase tão comum quanto as manipulações de texto e conteúdo geral”.

Os pesquisadores observam que o aumento na verificação de imagens de IA coincidiu com uma onda geral de entusiasmo pela IA, o que pode ter levado os sites a se concentrarem na tecnologia. O conjunto de dados mostra que a IA de verificação de factos abrandou nos últimos meses, com a manipulação tradicional de texto e imagens a registar um aumento.

O estudo também analisou outras formas de mídia e descobriu que os boatos em vídeo representam agora cerca de 60% de todas as alegações verificadas que incluem mídia.

Isso não significa que a desinformação gerada pela IA diminuiu, disse Sasha Luccioni, pesquisadora líder de ética em IA na plataforma de aprendizado de máquina Hugging Face.

“Pessoalmente, sinto que isso ocorre porque há tantos [exemplos de desinformação sobre IA] que é difícil acompanhar!” Luccioni disse por e-mail. “Eu mesmo os vejo regularmente, mesmo fora das redes sociais, em publicidade, por exemplo.”

Hermann Santos de Almirante

Recent Posts

OpenAI implementa verificação de URLs para bloquear roubo de dados por agentes de IA

A OpenAI publicou um post técnico em seu blog em 28 de janeiro de 2026,…

5 dias ago

Quase 200 apps de IA para iOS encontrados vazando dados de usuários, dizem pesquisadores

A descoberta levanta questionamentos desconfortáveis para a Apple, que frequentemente cita seu rigoroso processo de…

1 semana ago

O Olho Digital que Tudo Vê: A Expansão do Reconhecimento Facial no Brasil e o Perigoso Vácuo da “LGPD Penal”

Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na…

1 mês ago

Ataques disparam, mas proteção de dados retrocede em pequenos provedores

Menos da metade dos provedores de internet no Brasil estruturou de forma adequada a governança…

1 mês ago

Reconhecimento facial, IA e câmeras corporais avançam sem critério ou transparência?

O relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal” mostra que reconhecimento facial, sistemas…

1 mês ago

IA impulsiona boom da Black Friday, mas alimenta surto de phishing

A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…

2 meses ago