Há uma nova tendência surgindo no espaço de IA generativa – IA generativa para segurança cibernética – e o Google está entre os que procuram entrar no térreo.
Na RSA Conference 2023 de hoje, o Google anunciou o Cloud Security AI Workbench, um pacote de segurança cibernética alimentado por um modelo de linguagem AI de “segurança” especializado chamado Sec-PaLM. Uma ramificação do modelo PaLM do Google, o Sec-PaLM é “ajustado para casos de uso de segurança”, diz o Google – incorporando inteligência de segurança, como pesquisa sobre vulnerabilidades de software, malware, indicadores de ameaças e perfis comportamentais de agentes de ameaças.
O Cloud Security AI Workbench abrange uma variedade de novas ferramentas baseadas em IA, como o Threat Intelligence AI da Mandiant, que aproveitará o Sec-PaLM para encontrar, resumir e agir sobre ameaças à segurança. (Lembre-se de que o Google comprou a Mandiant em 2022 por US$ 5,4 bilhões.) O VirusTotal, outra propriedade do Google, usará o Sec-PaLM para ajudar os assinantes a analisar e explicar o comportamento de scripts maliciosos.
Em outros lugares, o Sec-PaLM ajudará os clientes do Chronicle, o serviço de segurança cibernética em nuvem do Google, na busca de eventos de segurança e na interação “conservadora” com os resultados. Enquanto isso, os usuários do Security Command Center AI do Google receberão explicações “legíveis por humanos” sobre a exposição a ataques, cortesia do Sec-PaLM, incluindo ativos afetados, mitigações recomendadas e resumos de riscos para descobertas de segurança, conformidade e privacidade.
“Embora a IA generativa tenha capturado recentemente a imaginação, o Sec-PaLM é baseado em anos de pesquisa fundamental de IA do Google e DeepMind e na profunda experiência de nossas equipes de segurança”, escreveu o Google em um post de blog esta manhã. “Apenas começamos a perceber o poder de aplicar IA generativa à segurança e esperamos continuar a alavancar essa experiência para nossos clientes e impulsionar os avanços em toda a comunidade de segurança.”
Essas são ambições bastante ousadas, especialmente considerando que o VirusTotal Code Insight, a primeira ferramenta no Cloud Security AI Workbench, está disponível apenas em uma visualização limitada no momento. (O Google diz que planeja lançar o restante das ofertas para “testadores confiáveis” nos próximos meses.) Francamente, não está claro se o Sec-PaLM funciona – ou não – na prática. Claro, “mitigações recomendadas e resumos de riscos” parecem úteis, mas as sugestões são muito melhores ou mais precisas porque um modelo de IA as produziu?
Afinal, os modelos de linguagem de IA – não importa o quão avançados sejam – cometem erros. E eles são suscetíveis a ataques como injeção imediata, que pode fazer com que eles se comportem de maneiras que seus criadores não pretendiam.
Isso não está impedindo os gigantes da tecnologia, é claro. Em março, a Microsoft lançou o Security Copilot, uma nova ferramenta que visa “resumir” e “dar sentido” à inteligência de ameaças usando modelos generativos de IA da OpenAI, incluindo GPT-4. Nos materiais de imprensa, a Microsoft – semelhante ao Google – afirmou que a IA generativa equiparia melhor os profissionais de segurança para combater novas ameaças.
O júri está muito de fora sobre isso. Na verdade, a IA generativa para segurança cibernética pode se tornar mais um exagero do que qualquer coisa – há uma escassez de estudos sobre sua eficácia. Veremos os resultados em breve com alguma sorte, mas enquanto isso, aceite as reivindicações do Google e da Microsoft com um grão de sal saudável.