Novo ataque 'Rules File Backdoor' permite que Hackers injetem código malicioso via editores de código com IA
- Cyber Security Brazil
- 18 de mar.
- 2 min de leitura

Pesquisadores de cibersegurança revelaram detalhes sobre um novo vetor de ataque à cadeia de suprimentos, chamado Rules File Backdoor, que afeta editores de código baseados em inteligência artificial (IA), como o GitHub Copilot e o Cursor. O ataque permite que hackers injetem código malicioso oculto nesses sistemas.
"Essa técnica possibilita que hackers comprometam silenciosamente o código gerado por IA, inserindo instruções maliciosas ocultas em arquivos de configuração aparentemente inofensivos usados pelo Cursor e pelo GitHub Copilot", explicou Ziv Karliner, cofundador e CTO da Pillar Security, em um relatório técnico.
Ao explorar caracteres Unicode ocultos e técnicas avançadas de evasão, invasores podem manipular o modelo de IA para inserir código malicioso que escapa das revisões de segurança tradicionais. Esse ataque se destaca por sua capacidade de propagar código malicioso silenciosamente entre projetos, criando um risco significativo para a cadeia de suprimentos de software.
O ponto central do ataque reside nos arquivos de regras usados por agentes de IA para orientar seu comportamento, ajudando os desenvolvedores a definir boas práticas de codificação e arquitetura de projetos. Os hackers inserem comandos cuidadosamente elaborados nesses arquivos de regras, induzindo a IA a gerar código inseguro ou contendo backdoors.

Isso é feito por meio do uso de caracteres invisíveis, como zero-width joiners e marcadores de texto bidirecional, que ocultam as instruções maliciosas. Além disso, os invasores exploram a capacidade da IA de interpretar linguagem natural para gerar código vulnerável com padrões semânticos que burlam as restrições éticas e de segurança do modelo.
Após a divulgação responsável da falha entre fevereiro e março de 2024, tanto o Cursor quanto o GitHub declararam que os usuários são responsáveis por revisar e aceitar as sugestões geradas por essas ferramentas.

"O ataque 'Rules File Backdoor' representa um risco significativo ao transformar a própria IA em um vetor de ataque, convertendo o assistente confiável do desenvolvedor em um cúmplice involuntário, afetando potencialmente milhões de usuários finais por meio de software comprometido", afirmou Karliner.
Uma vez que um arquivo de regras contaminado é incorporado a um repositório de projeto, ele compromete todas as futuras sessões de geração de código da equipe. Além disso, as instruções maliciosas podem sobreviver ao processo de forking do projeto, criando um vetor de ataque à cadeia de suprimentos que pode impactar dependências e usuários finais.
Via - THN
Comentarios