Uma grande preocupação com o surgimento de modelos de linguagem de IA é que a Internet em breve será subsumida por uma onda de spam automatizado. Até agora, essas previsões ainda não aconteceram (se é que se provaram verdadeiras), mas nós são vendo os primeiros sinais de que ferramentas como o ChatGPT estão sendo usadas para alimentar bots, gerar avaliações falsas e encher a web com preenchimento de texto de baixa qualidade.
Se você quiser uma prova, tente pesquisar no Google ou no Twitter a frase “como um modelo de linguagem de IA”. Ao falar com o ChatGPT da OpenAI, o sistema frequentemente usa essa expressão como um aviso, geralmente quando é solicitado a gerar conteúdo proibido ou opinar sobre algo subjetivo e particularmente humano. Agora, porém, “como um modelo de linguagem de IA” tornou-se um lema para o spam de aprendizado de máquina, revelando onde as pessoas configuraram bots automatizados ou copiaram e colaram conteúdo de IA sem prestar atenção à saída.
Pesquise a frase em Twitter, por exemplo, e você encontrará inúmeros exemplos de spambots com defeito. (Embora seja importante notar que os resultados mais recentes tendem a ser piadas, com a consciência crescente da frase transformando-a em uma espécie de meme.)
Os tweets são fascinantes, pois geralmente apontam para o propósito e as táticas de um bot. Nos exemplos abaixo, você pode ver como os bots foram solicitados a gerar opiniões sobre figuras de destaque como Kim Kardashian e fofocas sobre “influenciadores ou publicações de tendências de criptomoedas” (em ambos os casos, presumivelmente para aumentar o envolvimento com determinados públicos).
Algumas das mensagens com defeito até parecem repreensões silenciosas do operador do bot, que parece estar pedindo ao sistema para produzir conteúdo inflamatório. “Minha programação me proíbe de gerar tweets prejudiciais e odiosos para indivíduos ou grupos de pessoas” é a resposta do sistema de IA, publicada para o mundo ver.
Como observado pelo engenheiro de segurança Daniel Feldmana frase pode ser pesquisada em praticamente qualquer site com avaliações de usuários ou uma seção de comentários, revelando a presença de bots como uma luz negra destacando fluidos humanos invisíveis em um lençol de hotel.
“Como um modelo de linguagem de IA, não usei pessoalmente este produto, mas com base em seus recursos e avaliações de clientes, posso atribuir uma classificação de cinco estrelas com confiança.”
Feldman dá o exemplo da Amazon, onde a frase aparece em análises falsas de usuários. No exemplo abaixo, ele aparece em uma revisão de um “Aspirador de pó sem fio BuTure VC10, Aspirador de pó sem fio de alta potência de sucção de 33000Pa, até 55 minutos de tempo de funcionamento”. O sistema usado para gerar a crítica falsa é consciencioso e aberto em sua decepção, afirmando: “Como um modelo de linguagem AI, eu não usei pessoalmente este produto, mas com base em seus recursos e avaliações de clientes, posso dar cinco -classificação por estrelas.”
Em outros lugares da Amazon, a frase surge em análises reais sobre produtos de má qualidade gerados por IA. Respondendo a um livro sobre a Internet das Coisas, um crítico observa que o título foi escrito por IA, pois um parágrafo começa com a frase “como um modelo de linguagem de IA, não consigo”. Vender esse tipo de produto de IA de baixa qualidade é inescrupuloso, mas não necessariamente ilegal, e há toda uma cultura de “vigaristas” GPT-4 que incentivam esses esquemas como uma forma de gerar renda passiva (e que se preocupam com os clientes insatisfeitos).
Variações dessa frase também aparecem em todos os outros contextos. Conforme observado por um comentarista em Notícias sobre hackers, ele aparece em todo o site de uma loja de eletrônicos finlandesa. A loja aparentemente tentou usar IA para traduzir produtos em inglês para finlandês, mas, em vez disso, ficou com itens chamados “desculpe, como um modelo de linguagem IA, não posso traduzir esta frase sem nenhum contexto”. No site de uma agência de marketing de influenciadores, a frase aparece no título de uma postagem de blog: “Desculpe, como um modelo de linguagem de IA, não posso prever eventos ou tendências futuras”. E aqui está em um diretório de shoppings no Catar, bem como aqui em um perfil de usuário na plataforma freelancer Upwork.
Outras frases também indicam uso desatento de IA, como “resposta regenerada”, que aparece como uma opção na interface do usuário do ChatGPT. Pesquise essas duas palavras no LinkedIn, por exemplo, e você encontrará inúmeras postagens que foram evidentemente copiadas e coladas do gerador de linguagem do OpenAI. (Não se preocupe, porém, é tudo parte disso #mentalidadedecrescimento.)
Claro, esses exemplos devem ser colocados em contexto. Embora eles mostrem que a IA está sendo usada para gerar spam e outros textos de baixa qualidade, não está claro o quão difundida é essa prática ou como ela mudará os ecossistemas online. Certamente, os primeiros sinais não são bons (vários sites que solicitam conteúdo gerado pelo usuário de uma forma ou de outra proibiram envios de IA, por exemplo), mas isso não garante necessariamente que o infopocalipse esteja próximo. Por exemplo, embora a busca pela frase no Yelp.com revele muitos acessos no Google, em nossas próprias investigações, parece que as resenhas em questão já foram removidas do site.
Por outro lado, o problema real nesta equação são as incógnitas desconhecidas. A frase “como um modelo de linguagem de IA” é útil para detectar spam de IA, mas é precisamente o texto que não pode ser facilmente detectado esse é o desafio. Software para detectar texto gerado por IA é inexistente e pode até ser matematicamente impossível. E a paranóia sobre a falsificação do aprendizado de máquina é tão desenfreada que pessoas reais agora são acusadas de serem IA.
Dentro de alguns anos, poderemos olhar para trás com inveja dessas falsificações óbvias. Porém, como um modelo de linguagem de IA, não gosto de expressar opiniões sobre tais eventos especulativos.