Google brinca com visões desastrosas de IA viralizando nos EUA

Google brinca com visões desastrosas de IA viralizando nos EUA

O Google decidiu lançar amplamente seu recurso AI Overviews nos EUA no início deste mês, oferecendo resumos gerados por IA para várias consultas. Infelizmente, muitas respostas foram imprecisas, estranhas ou totalmente perigosas.

Agora, o Google confirmou em uma resposta a Autoridade Android que está tomando “ações rápidas” em consultas ofensivas:

A grande maioria das visões gerais de IA fornece informações de alta qualidade, com links para se aprofundar na web. Muitos dos exemplos que vimos foram consultas incomuns e também vimos exemplos que foram adulterados ou que não conseguimos reproduzir. Realizamos testes extensivos antes de lançar esta nova experiência e, assim como acontece com outros recursos que lançamos na Pesquisa, agradecemos o feedback. Estamos tomando medidas rápidas quando apropriado de acordo com nossas políticas de conteúdo e usando esses exemplos para desenvolver melhorias mais amplas em nossos sistemas, algumas das quais já começaram a ser implementadas.

Algumas das visões gerais de IA mais notáveis que se tornaram virais incluem uma recomendação para comer uma pequena pedra por dia, dizendo às pessoas para usarem cola não tóxica para garantir que o queijo grude na pizza e uma sugestão para beber pelo menos dois litros de urina por dia para passar uma pedra nos rins. Uma das gafes aparentes mais profundamente preocupantes foi a recomendação de pular de uma ponte se os usuários percebessem que estavam deprimidos. Parece que pelo menos algumas dessas respostas vieram dessas visões gerais de IA que fazem referência a artigos satíricos ou trolls em fóruns (por exemplo, Reddit).

Esta é apenas a mais recente de uma série de gafes de IA que vimos no Google, que aparentemente corre para trazer IA para tudo. Mais recentemente, o recurso de geração de imagens do Gemini foi criticado por criar imagens de nazistas racialmente diversos da era da Segunda Guerra Mundial, em vez de imagens historicamente precisas. Versões anteriores de Bard (agora Gêmeos) também ganharam manchetes por alucinações e respostas incorretas.

O Google decidiu lançar seu recurso AI Overviews nos EUA no início do mês, oferecendo resenhas de IA para várias consultas. Infelizmente, muitas das respostas foram imprecisas, estranhas ou até perigosas.

Agora, o Google confirmou em uma resposta à Autoridade Android que está tomando "ações rápidas" em consultas ofensivas:

A grande maioria dos resumos de IA fornece informações de alta qualidade, com links para mais detalhes na web. Muitos dos exemplos que vimos eram consultas incomuns e também encontramos exemplos adulterados ou impossíveis de reproduzir. Realizamos extensos testes antes de lançar essa nova experiência e, assim como com outros recursos que introduzimos na Pesquisa, valorizamos o feedback. Estamos agindo rapidamente quando apropriado de acordo com nossas políticas de conteúdo e usando esses exemplos para desenvolver melhorias mais abrangentes em nossos sistemas, algumas das quais já estão sendo implementadas.

Algumas das resenhas de IA mais notáveis que se tornaram virais incluíram recomendações para comer uma pequena pedra por dia, usar cola não tóxica para que o queijo grude na pizza e beber pelo menos dois litros de urina por dia para passar uma pedra nos rins. Uma das recomendações mais preocupantes foi sugerir que as pessoas pulassem de uma ponte se estivessem deprimidas. Parece que pelo menos algumas dessas respostas foram originadas de resenhas de IA que fazem referência a artigos satíricos ou trolls em fóruns, como o Reddit.

Essa é apenas a mais recente de uma série de falhas de IA que vimos no Google, que parece estar correndo para implementar a IA em tudo. Recentemente, o recurso Gemini foi criticado por criar imagens de nazistas racialmente diversos da Segunda Guerra Mundial, em vez de imagens historicamente precisas. Versões anteriores do Bard (agora Gemini) também foram destaque por criar alucinações e respostas incorretas.

Leia mais