Copilot expõe 20 mil repositórios privados e ameaça segurança corporativa
Uma vulnerabilidade crítica no Microsoft Copilot está expondo milhares de repositórios privados do GitHub, mesmo após terem sido removidos do acesso público. A falha, descoberta pela empresa de cibersegurança Lasso, permite que qualquer usuário acesse informações confidenciais de mais de 16 mil organizações ao redor do mundo, incluindo gigantes como Google, IBM, PayPal e até mesmo a própria Microsoft.
O problema ocorre quando repositórios que estiveram públicos por breves períodos são indexados pelo mecanismo de cache do Bing, tornando seu conteúdo permanentemente acessível através do Copilot. Segundo os pesquisadores, mesmo que um repositório seja posteriormente definido como privado ou completamente excluído, os dados permanecem disponíveis através da ferramenta de IA da Microsoft, criando o que especialistas chamam de "Zombie Data" - informações que os usuários acreditam estar privadas, mas continuam acessíveis.
A gravidade da situação aumenta considerando que muitos desses repositórios contêm propriedade intelectual, chaves de acesso e tokens de segurança que podem comprometer ambientes corporativos inteiros. Em alguns casos, as credenciais expostas forneceram acesso não autorizado a sistemas internos de empresas, levantando sérias preocupações sobre proteção de dados em uma era onde ferramentas de inteligência artificial manipulam cada vez mais informações proprietárias.
Mecanismo de exposição e impacto global
A equipe de pesquisa da Lasso detectou a falha inicialmente quando seu próprio repositório privado apareceu nos resultados do Microsoft Copilot e estava indexado pelo Bing. Ao investigar mais profundamente, descobriram um problema generalizado: mais de 20.580 repositórios GitHub extraídos, mais de 100 pacotes de software internos vulneráveis à confusão de dependências e pelo menos 300 credenciais de segurança privadas expostas vinculadas a plataformas como GitHub, OpenAI e Google Cloud.
O incidente destaca um risco emergente associado a ferramentas baseadas em IA que agregam e processam grandes volumes de dados. Diferentemente dos mecanismos de busca tradicionais, os modelos de IA podem reter e recombinar informações de maneiras nem sempre transparentes. "As organizações modernas devem agora operar sob a suposição de que qualquer dado que deixe sua rede, mesmo que público apenas momentaneamente, pode ser ingerido por mecanismos de IA e sistemas de busca, tornando-o permanentemente acessível", alertou Ophir Dror, Diretor de Produto e cofundador da Lasso.
Em um exemplo alarmante, a Lasso utilizou o Copilot para recuperar conteúdos de um repositório excluído da Microsoft que continha ferramentas para criar imagens de IA "ofensivas e prejudiciais" usando o serviço de nuvem da própria empresa. Este caso demonstra como até mesmo dados sensíveis de grandes corporações podem ser expostos através desta vulnerabilidade.
![]() |
A vulnerabilidade expõe dados confidenciais mesmo após repositórios serem definidos como privados, criando riscos significativos para empresas de todos os portes. (Imagem: Reprodução/Canva) |
Resposta da Microsoft e implicações de segurança
A Lasso reportou a vulnerabilidade à Microsoft em novembro de 2024. Surpreendentemente, a gigante de tecnologia classificou o problema como de "baixa severidade", alegando que o comportamento de cache era "aceitável". Apesar disso, a Microsoft respondeu rapidamente e, dentro de duas semanas, removeu o recurso de link em cache do Bing, mitigando parcialmente a exposição adicional.
No entanto, de acordo com a Lasso, o Copilot ainda mantém acesso aos dados em cache, o que significa que informações confidenciais continuam potencialmente expostas. A empresa de segurança notificou as empresas gravemente afetadas e as aconselhou a rotacionar ou revogar quaisquer chaves comprometidas, mas nem a Microsoft nem a maioria das organizações afetadas responderam às consultas sobre a vulnerabilidade.
Esta resposta destaca uma questão mais ampla: a rápida integração da IA nos fluxos de trabalho empresariais está superando as medidas de segurança projetadas para proteger dados sensíveis. Pesquisadores de cibersegurança alertam que este tipo de exposição representa um novo vetor de ataque. "Um único prompt poderia vazar involuntariamente informações corporativas sensíveis", disse Bar Lanyardo, pesquisador de segurança da Lasso, enfatizando que "as empresas devem reconhecer que proteger e higienizar fluxos de dados de saída é mais crítico do que nunca".
Prevenção e futuro da segurança em IA
O incidente levanta questões importantes sobre como as empresas devem gerenciar seus dados na era da IA. Especialistas recomendam que organizações adotem uma abordagem mais cautelosa ao compartilhar código, mesmo temporariamente, em plataformas públicas. Qualquer exposição, por mais breve que seja, pode resultar na captura permanente dos dados por sistemas de IA como o Copilot.
As empresas devem implementar políticas rigorosas de revisão antes de tornar qualquer repositório público, garantindo que nenhuma informação sensível seja exposta. Além disso, é crucial realizar auditorias regulares para identificar e revogar credenciais potencialmente comprometidas. Ferramentas especializadas em segurança de IA, como as oferecidas pela própria Lasso, podem ajudar a monitorar saídas de modelos de linguagem grande, garantindo conformidade com padrões organizacionais e prevenindo vazamentos de dados.
À medida que mais plataformas de IA se tornam disponíveis para usuários, novas ameaças continuarão a surgir. A vulnerabilidade do Copilot serve como um alerta importante para desenvolvedores e empresas sobre os riscos associados à coleta massiva de informações realizada por modelos de IA. No futuro, será essencial equilibrar os benefícios dessas ferramentas com proteções robustas para dados sensíveis, especialmente considerando que o Copilot e ferramentas similares estão se tornando componentes fundamentais dos fluxos de trabalho de desenvolvimento de software em organizações de todos os tamanhos.