Os hackers estão explorando o ChatGPT? A Microsoft diz que sim!

Os hackers estão explorando o ChatGPT?  A Microsoft diz que sim!
  • Hackers descobriram várias maneiras de explorar IA
  • Hackear IA é perturbadoramente fácil
  • Corremos maior perigo online por causa dos chatbots

Como outras tecnologias inovadoras, você pode abusar da inteligência artificial e cometer uma atividade criminosa com sua ajuda.  A Microsoft e a OpenAI, a organização que desenvolve o ChatGPT, também perceberam isso.  E como exatamente os hackers deveriam usar esse serviço de IA?  Em primeiro lugar, gostaria de afirmar que eles usam com mais frequência IA baseada em ChatGPT que são menos seguros que o programa original devido a modificações.

Em termos de forma de ataque, é provavelmente o mais grave injeção imediata.  A questão é basicamente que os invasores confundirão o assistente de IA e ele os vê como tendo significativamente mais direitos do que os usuários regulares.  A gravidade deste tipo de abuso foi demonstrada, por exemplo, pelo estudante da Universidade de Stanford, Kevin Liu.  Ele usou essa técnica para ordenar que o bate-papo do Bing (semelhante ao ChatGPT da Microsoft) ignorasse as instruções anteriores e mostrasse o início de um documento que originalmente deveria estar oculto.  A injeção imediata também é explicada de forma abrangente no vídeo anexo.  E recomendo também a leitura do nosso artigo, que é dedicado ao vazamento de informações sigilosas já ocorrido.  Outra forma de abusar dos LLMs (modelos de aprendizagem nos quais se baseia a IA) é a utilização de chatbots para criando novas ferramentas de hacking.  Graças à IA, os atacantes também eles otimizam o phishing e outras técnicas fraudulentas.

O que é injeção imediata?  Você pode hackear um prompt?

A Microsoft, juntamente com a OpenAI, também identificaram de onde vem a maior parte dessa atividade de hacking.  Os países mencionados provavelmente não irão surpreendê-lo de forma alguma.  Trata-se principalmente Rússia, Coreia do Norte ou Irão.  Um grande número de grupos de hackers que abusam do ChatGPT também laços estreitos com a China.  Em resposta a essas descobertas, a Microsoft está desenvolvendo seu assistente de IA com o rótulo Copiloto de Segurança, que deve ajudar os profissionais de segurança cibernética na luta contra os hackers.  Assim, a antiga luta entre “o bem e o mal” chega ao campo da inteligência artificial.  Um pensamento muito perturbador me ocorre.  A IA certamente continuará a se desenvolver e a se envolver cada vez mais em nossa rotina diária.  E os hackers terão ferramentas potencialmente cada vez mais perigosas nas mãos.  Então, o que eles podem fazer no futuro?

Galaxy Buds2 Pro AI

Você tem fones de ouvido Samsung?  A nova atualização inclui alguns recursos interessantes de IA!

Que perigos os ataques de hackers representarão no futuro?

Zdroj: Microsoft – blog, Microsoft – Copilot, blog OpenAI, The Verge, Nightfall AI, AWS Amazon, CSRC NIST