Um erro levou à exposição de 38 terabytes de dados, incluindo troves de chaves privadas, senhas e mensagens internas do Microsoft Teams de centenas de funcionários, confirmou a Microsoft na segunda-feira.
Os dados vazados foram descobertos por pesquisadores da empresa de segurança Wiz, que notificaram a empresa em 22 de junho. “Este problema foi relatado de forma responsável sob uma divulgação coordenada de vulnerabilidade e já foi resolvido”, disse o porta-voz. “Confirmamos que nenhum dado de cliente foi exposto e nenhum outro serviço interno foi colocado em risco.”
O porta-voz direcionou a Recorded Future News para uma postagem de blog sobre o problema que explicava como um funcionário da Microsoft compartilhou um URL em um repositório público do GitHub enquanto contribuía para modelos de aprendizado de IA de código aberto.
“Este URL incluiu um token de assinatura de acesso compartilhado (SAS) excessivamente permissivo para uma conta de armazenamento interna. Os pesquisadores de segurança da Wiz foram então capazes de usar este token para acessar informações na conta de armazenamento”, disseram funcionários da Microsoft.
“Os dados expostos nesta conta de armazenamento incluíam backups dos perfis de estação de trabalho de dois ex-funcionários e mensagens internas do Microsoft Teams desses dois funcionários com seus colegas.” Tanto a Microsoft quanto a Wiz atribuíram o problema aos tokens SAS, um recurso do Azure que permite aos usuários compartilhar dados de contas do Azure Storage.
A Microsoft disse que os tokens fornecem um mecanismo para restringir o acesso a dados, permitindo que certos clientes se conectem a recursos específicos do Azure Storage. De acordo com a Microsoft, um pesquisador “incluiu inadvertidamente este token SAS” ao contribuir para os modelos de aprendizado de IA de código aberto. Os tokens SAS devem ser criados e gerenciados adequadamente, disse a Microsoft, acrescentando que está “fazendo melhorias contínuas para fortalecer ainda mais o recurso de token SAS e continuar a avaliar o serviço para reforçar nossa postura segura por padrão”.
Depois que a Microsoft foi informada do problema pela Wiz em junho, revogou o token SAS e impediu todo o acesso externo à conta de armazenamento em 24 de junho. Uma investigação subsequente revelou que não havia risco para os clientes e que não havia vulnerabilidade explorada.
O co-fundador da Wiz, Ami Luttwak, disse à Recorded Future News que o incidente é um exemplo da cautela que precisa ser tomada à medida que as empresas correm para implantar sistemas de IA.
“À medida que cientistas e engenheiros de dados correm para trazer novas soluções de IA para a produção, as enormes quantidades de dados que eles lidam exigem verificações e salvaguardas de segurança adicionais. A descoberta de pesquisa Wiz mais recente, que faz parte de uma iniciativa empresarial mais ampla focada na segurança de IA, exemplifica os desafios da IA: esta tecnologia emergente requer grandes conjuntos de dados para treinar”, disse Luttwak.
“Com muitas equipes de desenvolvimento precisando manipular grandes quantidades de dados, compartilhá-los com seus pares ou colaborar em projetos de código aberto públicos, casos como o da Microsoft estão cada vez mais difíceis de monitorar e evitar.”
A postagem no blog da Wiz sobre o problema disse que os pesquisadores foram capazes de usar o token SAS exposto para acessar o backup em disco das estações de trabalho de dois funcionários – que incluía “segredos, chaves privadas, senhas e mais de 30.000 mensagens internas do Microsoft Teams” de 359 funcionários da Microsoft.
O problema foi relatado à Microsoft em 22 de junho e a Microsoft concluiu sua investigação em 16 de agosto.
O blog se concentra em duas questões: o compartilhamento excessivo de dados necessários para treinar modelos de IA e as complicações do uso de tokens SAS.
A empresa descobriu inicialmente o problema ao escanear a internet em busca de contêineres de armazenamento mal configurados. Eles encontraram um repositório do GitHub sob a organização da Microsoft chamado “robust-models-transfer”.
O repositório pertence à divisão de pesquisa de IA da Microsoft e seu propósito é fornecer código de código aberto e modelos de IA para reconhecimento de imagens, explicaram os pesquisadores. Aqueles com acesso ao repositório foram instruídos a baixar os modelos de um URL do Azure Storage, mas ele foi configurado para conceder permissões em toda a conta de armazenamento, expondo dados privados adicionais por engano.
O token, na opinião da Wiz, foi mal configurado para permitir que qualquer pessoa não apenas visualize os arquivos.
Comments