ChatGPT parece ter vazado conversas privadas (Atualização: explicação OpenAI)

ChatGPT parece ter vazado conversas privadas (Atualização: explicação OpenAI)
    </picture>
</div>

DR

  • Um relatório sugere que o ChatGPT tem vazado conversas privadas para indivíduos não relacionados.
  • Essas conversas incluem muitos detalhes confidenciais, como nomes de usuário e senhas, trabalhos não publicados e muito mais.
  • A investigação da OpenAI sugere que não se trata de um “vazamento” de dados.

Atualização, 30 de janeiro de 2024 (14h20 horário do leste dos EUA): Depois de publicar este artigo, a OpenAI entrou em contato com Autoridade Android com uma declaração explicando a situação.  A declaração completa está postada aqui, sem edição:

ArsTechnica publicados antes que nossas equipes de fraude e segurança pudessem concluir a investigação e, infelizmente, seus relatórios são imprecisos. Com base em nossas descobertas, as credenciais de login da conta dos usuários foram comprometidas e um malfeitor usou a conta. O histórico de bate-papo e os arquivos exibidos são conversas decorrentes do uso indevido desta conta, e não foi o caso do ChatGPT mostrar o histórico de outro usuário.

Embora esta pareça uma explicação adequada da situação, deixamos o artigo original sem edição abaixo para fins de contexto.  Teremos certeza de atualizar isso novamente se Ars retrata ou edita seus próprios artigos.


Artigo original, 30 de janeiro de 2024 (07h56 ET): O ChatGPT se tornou uma parte importante do nosso fluxo de trabalho, muitas vezes substituindo até mesmo a Pesquisa Google para muitas consultas.  Muitos de nós o usamos para consultas mais simples, mas com a ajuda dos plug-ins e extensões ChatGPT, você pode usar IA para tarefas mais complexas.  Mas recomendamos ter cuidado com a finalidade do uso do ChatGPT e quais dados você compartilha com ele, pois os usuários relataram que o ChatGPT vazou algumas conversas privadas.

De acordo com um relatório de ArsTechnica, citando capturas de tela enviadas por um de seus leitores, o ChatGPT está vazando conversas privadas, incluindo detalhes como nomes de usuário e senhas.  O leitor usou o ChatGPT para uma consulta não relacionada e curiosamente localizou conversas adicionais presentes em seu histórico de bate-papo que não pertenciam a ele.

Essas conversas externas incluíram vários detalhes.  Um conjunto de conversas foi feito por alguém que tentava solucionar problemas por meio de um sistema de suporte usado por funcionários de um portal de medicamentos prescritos por uma farmácia e incluía o nome do aplicativo que a pessoa de fora estava tentando solucionar, o número da loja onde ocorreu o problema e credenciais de login adicionais.

Outra conversa que vazou incluía o nome da apresentação em que alguém estava trabalhando junto com detalhes de uma proposta de pesquisa não publicada.

Esta não é a primeira vez que o ChatGPT vaza informações. ArsTechnica observa que o ChatGPT teve um bug em março de 2023 que vazou títulos de bate-papo, enquanto em novembro de 2023, os pesquisadores puderam usar consultas para fazer com que o bot de IA divulgasse muitos dados privados usados ​​no treinamento do LLM.

OpenAI mencionado para ArsTechnica que a empresa estava investigando o relatório.  Independentemente dos resultados das investigações, desaconselhamos a partilha de informações sensíveis com um bot de IA, especialmente um que não tenha sido criado por si.        Tem uma dica?  Fale Conosco! Envie um e-mail para nossa equipe em [email protected].  Você pode permanecer anônimo ou obter crédito pelas informações;  é a sua escolha.   Comentários