TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
  • Melhores Compras
Nenhum resultado
Exibir todos os resultados
TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
  • Melhores Compras
Nenhum resultado
Exibir todos os resultados
TEG6
Nenhum resultado
Exibir todos os resultados

OpenAI oferece recompensa de bug para ChatGPT – mas nenhuma recompensa por jailbreak de seu chatbot

por Eliza Sanches
12 de abril de 2023
em Notícias
OpenAI oferece recompensa de bug para ChatGPT - mas nenhuma recompensa por jailbreak de seu chatbot
1
Visualizações
CompartilharCompartilharCompartilhar

A OpenAI lançou uma recompensa por bugs, incentivando o público a encontrar e divulgar vulnerabilidades em seus serviços de IA, incluindo o ChatGPT. As recompensas variam de US$ 200 para “descobertas de baixa gravidade” a US$ 20.000 para “descobertas excepcionais”, e os relatórios podem ser enviados por meio da plataforma de segurança cibernética Bugcrowd.

Notavelmente, a recompensa exclui recompensas por jailbreak do ChatGPT ou por fazer com que ele gere código ou texto malicioso. “Problemas relacionados ao conteúdo dos prompts e respostas do modelo estão estritamente fora do escopo e não serão recompensados”, diz a página Bugcrowd da OpenAI.

O jailbreak do ChatGPT geralmente envolve a inserção de cenários elaborados no sistema que permitem contornar seus próprios filtros de segurança. Isso pode incluir encorajar o chatbot a interpretar como seu “gêmeo do mal”, permitindo que o usuário obtenha respostas proibidas, como discurso de ódio ou instruções para fazer armas.

A OpenAI diz que tais “problemas de segurança do modelo não se encaixam bem em um programa de recompensas de bugs, pois não são bugs individuais e discretos que podem ser corrigidos diretamente”. A empresa observa que “resolver essas questões geralmente envolve pesquisas substanciais e uma abordagem mais ampla” e relatórios para tais problemas devem ser enviados por meio da página de feedback do modelo da empresa.

Embora tais jailbreaks demonstrem as vulnerabilidades mais amplas dos sistemas de IA, eles provavelmente são menos problemáticos diretamente para o OpenAI em comparação com as falhas de segurança tradicionais. Por exemplo, no mês passado, um hacker conhecido como rez0 conseguiu revelar 80 “plugins secretos” para a API do ChatGPT — complementos ainda não lançados ou experimentais para o chatbot da empresa. (Rez0 observou que a vulnerabilidade foi corrigida um dia depois de divulgada no Twitter.)

como um usuário respondeu para o tópico do tweet: “Se eles tivessem apenas um programa #BugBounty pago – tenho certeza de que a multidão poderia ajudá-los a capturar esses casos extremos no futuro:)”

Tags: bugchatbotChatGPTjailbreakmasnenhumaofereceOpenAIparaporrecompensaseu

Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.

Você está inscrito.
  • Aviso Legal
  • Contato
  • Início
  • Política de privacidade e Cookies
  • Rede de Anúncios Nativos do Teg6
  • Sobre

© 2021 - 2023 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Nenhum resultado
Exibir todos os resultados
  • Início
  • Notícias
  • Review
  • Como fazer
  • Melhores Compras

© 2021 - 2023 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Usamos cookies. Ao continuar a usar o Teg6, você concorda com o uso de cookies. Visite nosso Política de Privacidade e Cookies.