Azure
A divisão de pesquisa de inteligência artificial (IA) da Microsoft vazou acidentalmente dezenas de terabytes de dados confidenciais a partir de julho de 2020, enquanto contribuía com modelos de aprendizado de IA de código aberto para um repositório público do GitHub.
O vazamento foi descoberto quase três anos depois pela empresa de segurança em nuvem Wiz. Os pesquisadores da empresa suspeitam que um funcionário da Microsoft compartilhou inadvertidamente a URL de um bucket (contêiner) de armazenamento de Blob do Azure, configurado incorretamente, contendo as informações vazadas.
A Microsoft vinculou a exposição de dados ao uso de um token SAS (de assinatura de acesso compartilhado) excessivamente permissivo, que permitia controle total sobre os arquivos compartilhados. Esse recurso do Azure permite o compartilhamento de dados de uma maneira descrita pelos pesquisadores da Wiz como desafiadora para monitorar e revogar.
Quando usados corretamente, os tokens SAS oferecem um meio seguro de conceder acesso a recursos em sua conta de armazenamento. Isso inclui controle preciso sobre o acesso aos dados do cliente, especificando os recursos com os quais eles podem interagir, definindo suas permissões em relação a esses recursos e determinando a duração da validade do token SAS.
“Devido à falta de monitoramento e governança, os tokens SAS representam um risco à segurança e seu uso deve ser o mais limitado possível. Esses tokens são muito difíceis de rastrear, pois a Microsoft não fornece uma maneira centralizada de gerenciá-los no portal do Azure”, alertou a Wiz nesta segunda-feira, 18. “Além disso, esses tokens podem ser configurados para durar efetivamente para sempre, sem limite máximo em seu tempo de expiração. Portanto, usar tokens SAS de conta para compartilhamento externo não é seguro e deve ser evitado.”
A equipe de pesquisadores da Wiz descobriu que, além dos modelos de código aberto, a conta de armazenamento interno também permitia inadvertidamente o acesso a 38 terabytes (TB) de dados privados adicionais.
Os dados expostos incluíam backups de informações pessoais pertencentes a funcionários da Microsoft, incluindo senhas para serviços da Microsoft, chaves secretas e um arquivo de mais de 30 mil mensagens internas do Microsoft Teams originadas de 359 funcionários da empresa.
Em um comunicado nesta segunda-feira da equipe do Microsoft Security Response Center (MSRC), a empresa disse que nenhum dado de cliente foi exposto e nenhum outro serviço interno enfrentou risco devido a esse incidente.De acordo com a Wiz, a equipe de resposta de segurança da Microsoft invalidou o token SAS dois dias após a divulgação inicial, em junho deste ano. O token foi substituído no GitHub um mês depois.
* Com informações do CISO Advisor
A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…
Sabe aquela regulamentação europeia de proteção de dados que virou pesadelo para pequenas empresas? Pois…
Dario Amodei, CEO da empresa de inteligência artificial Anthropic, emitiu alertas severos sobre os perigos…
A Anthropic divulgou uma estrutura de código aberto em 13 de novembro para medir o…
A fabricante chinesa de brinquedos FoloToy suspendeu as vendas de seu ursinho de pelúcia com…
A Apple revisou suas políticas da App Store na quinta-feira para exigir explicitamente que os…