Microsoft vaza 38TB de dados confidenciais da nuvem Azure

A divisão de pesquisa de inteligência artificial (IA) da Microsoft vazou acidentalmente dezenas de terabytes de dados confidenciais a partir de julho de 2020, enquanto contribuía com modelos de aprendizado de IA de código aberto para um repositório público do GitHub.

O vazamento foi descoberto quase três anos depois pela empresa de segurança em nuvem Wiz. Os pesquisadores da empresa suspeitam que um funcionário da Microsoft compartilhou inadvertidamente a URL de um bucket (contêiner) de armazenamento de Blob do Azure, configurado incorretamente, contendo as informações vazadas.

A Microsoft vinculou a exposição de dados ao uso de um token SAS (de assinatura de acesso compartilhado) excessivamente permissivo, que permitia controle total sobre os arquivos compartilhados. Esse recurso do Azure permite o compartilhamento de dados de uma maneira descrita pelos pesquisadores da Wiz como desafiadora para monitorar e revogar. 

Quando usados corretamente, os tokens SAS oferecem um meio seguro de conceder acesso a recursos em sua conta de armazenamento. Isso inclui controle preciso sobre o acesso aos dados do cliente, especificando os recursos com os quais eles podem interagir, definindo suas permissões em relação a esses recursos e determinando a duração da validade do token SAS.

“Devido à falta de monitoramento e governança, os tokens SAS representam um risco à segurança e seu uso deve ser o mais limitado possível. Esses tokens são muito difíceis de rastrear, pois a Microsoft não fornece uma maneira centralizada de gerenciá-los no portal do Azure”, alertou a Wiz nesta segunda-feira, 18. “Além disso, esses tokens podem ser configurados para durar efetivamente para sempre, sem limite máximo em seu tempo de expiração. Portanto, usar tokens SAS de conta para compartilhamento externo não é seguro e deve ser evitado.”

A equipe de pesquisadores da Wiz descobriu que, além dos modelos de código aberto, a conta de armazenamento interno também permitia inadvertidamente o acesso a 38 terabytes (TB) de dados privados adicionais.

Os dados expostos incluíam backups de informações pessoais pertencentes a funcionários da Microsoft, incluindo senhas para serviços da Microsoft, chaves secretas e um arquivo de mais de 30 mil mensagens internas do Microsoft Teams originadas de 359 funcionários da empresa.

Em um comunicado nesta segunda-feira da equipe do Microsoft Security Response Center (MSRC), a empresa disse que nenhum dado de cliente foi exposto e nenhum outro serviço interno enfrentou risco devido a esse incidente.De acordo com a Wiz, a equipe de resposta de segurança da Microsoft invalidou o token SAS dois dias após a divulgação inicial, em junho deste ano. O token foi substituído no GitHub um mês depois.

* Com informações do CISO Advisor

Hermann Santos de Almirante

Recent Posts

OpenAI implementa verificação de URLs para bloquear roubo de dados por agentes de IA

A OpenAI publicou um post técnico em seu blog em 28 de janeiro de 2026,…

5 dias ago

Quase 200 apps de IA para iOS encontrados vazando dados de usuários, dizem pesquisadores

A descoberta levanta questionamentos desconfortáveis para a Apple, que frequentemente cita seu rigoroso processo de…

1 semana ago

O Olho Digital que Tudo Vê: A Expansão do Reconhecimento Facial no Brasil e o Perigoso Vácuo da “LGPD Penal”

Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na…

1 mês ago

Ataques disparam, mas proteção de dados retrocede em pequenos provedores

Menos da metade dos provedores de internet no Brasil estruturou de forma adequada a governança…

1 mês ago

Reconhecimento facial, IA e câmeras corporais avançam sem critério ou transparência?

O relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal” mostra que reconhecimento facial, sistemas…

1 mês ago

IA impulsiona boom da Black Friday, mas alimenta surto de phishing

A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…

2 meses ago