A Microsoft e a OpenAI revelam hoje que os hackers já estão usando grandes modelos de linguagem como ChatGPT para refinar e melhorar seus ataques cibernéticos existentes. Em pesquisas recentemente publicadas, a Microsoft e a OpenAI detectaram tentativas de grupos apoiados pela Rússia, pela Coreia do Norte, pelo Irã e pela China, usando ferramentas como o ChatGPT para pesquisar alvos, melhorar scripts e ajudar a construir técnicas de engenharia social.
“Grupos de crimes cibernéticos, agentes de ameaças estatais e outros adversários estão explorando e testando diferentes tecnologias de IA à medida que surgem, na tentativa de compreender o valor potencial para suas operações e os controles de segurança que podem precisar contornar”, afirma a Microsoft em um comunicado. postagem no blog hoje.
Descobriu-se que o grupo Strontium, ligado à inteligência militar russa, utiliza LLMs “para compreender protocolos de comunicação por satélite, tecnologias de imagem de radar e parâmetros técnicos específicos”. O grupo de hackers, também conhecido como APT28 ou Fancy Bear, esteve ativo durante a guerra da Rússia na Ucrânia e esteve anteriormente envolvido no ataque à campanha presidencial de Hillary Clinton em 2016.
O grupo também tem usado LLMs para ajudar em “tarefas básicas de script, incluindo manipulação de arquivos, seleção de dados, expressões regulares e multiprocessamento, para potencialmente automatizar ou otimizar operações técnicas”, de acordo com a Microsoft.
Um grupo de hackers norte-coreano, conhecido como Thallium, tem usado LLMs para pesquisar vulnerabilidades relatadas publicamente e atingir organizações, para ajudar em tarefas básicas de script e para redigir conteúdo para campanhas de phishing. A Microsoft afirma que o grupo iraniano conhecido como Curium também tem usado LLMs para gerar e-mails de phishing e até mesmo códigos para evitar a detecção por aplicativos antivírus. Hackers afiliados ao Estado chinês também estão usando LLMs para pesquisa, scripts, traduções e para refinar suas ferramentas existentes.
Tem havido temores em torno do uso de IA em ataques cibernéticos, especialmente porque ferramentas de IA como WormGPT e FraudGPT tem emergido para auxiliar na criação de e-mails maliciosos e ferramentas de cracking. Um alto funcionário da Agência de Segurança Nacional também avisado no mês passado que os hackers estão usando IA para fazer com que seus e-mails de phishing pareçam mais convincentes.
A Microsoft e a OpenAI ainda não detectaram nenhum “ataque significativo” usando LLMs, mas as empresas têm fechado todas as contas e ativos associados a esses grupos de hackers. “Ao mesmo tempo, sentimos que esta é uma pesquisa importante a ser publicada para expor movimentos incrementais em estágio inicial que observamos tentativas de agentes de ameaças conhecidos e compartilhar informações sobre como estamos bloqueando e combatendo-os com a comunidade de defensores”, diz Microsoft.
Embora o uso de IA em ataques cibernéticos pareça limitado no momento, a Microsoft alerta sobre casos de uso futuros, como representação de voz. “A fraude impulsionada pela IA é outra preocupação crítica. A síntese de voz é um exemplo disso, onde uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Mesmo algo tão inócuo como a saudação do correio de voz pode ser usado para obter uma amostragem suficiente.”
Naturalmente, a solução da Microsoft utiliza IA para responder a ataques de IA. “A IA pode ajudar os invasores a trazer mais sofisticação aos seus ataques, e eles têm recursos para aproveitá-los”, diz Homa Hayatyfar, principal gerente de análise de detecção da Microsoft. “Vimos isso com mais de 300 atores de ameaças que a Microsoft rastreia e usamos IA para proteger, detectar e responder.”
A Microsoft está construindo um Security Copilot, um novo assistente de IA projetado para que profissionais de segurança cibernética identifiquem violações e entendam melhor as enormes quantidades de sinais e dados gerados diariamente por ferramentas de segurança cibernética. A gigante do software também está reformulando a segurança de seu software após grandes ataques à nuvem Azure e até mesmo hackers russos espionando executivos da Microsoft.