Kaitlyn Cimino / Autoridade Android
DR
- O Google agora forneceu uma explicação sobre o que deu errado com o Gemini depois que ele gerou imagens imprecisas e ofensivas de pessoas.
- A gigante da tecnologia afirma que duas coisas deram errado e fizeram com que a IA compensasse excessivamente.
- A geração de imagens de pessoas por IA não será reativada até que seja significativamente melhorada.
O Google se viu em apuros depois que o Gemini foi pego gerando imagens de pessoas imprecisas e ofensivas. Desde então, a empresa desativou a capacidade do LLM de produzir imagens de pessoas. Agora a empresa divulgou um pedido de desculpas, bem como uma explicação sobre o ocorrido.
Em uma postagem no blog, a empresa sediada em Mountain View pediu desculpas pelo erro do Gemini, afirmando que estava “claro que esse recurso errou o alvo” e “lamento que o recurso não tenha funcionado bem”. Segundo o Google, duas coisas levaram à criação dessas imagens.
Como relatamos anteriormente, acreditávamos que era possível que o Gemini estivesse corrigindo demais algo que tem sido um problema com as imagens geradas por IA, que refletem nosso mundo racialmente diverso. Parece que foi exatamente isso que aconteceu.
A empresa explica que o primeiro problema está relacionado à forma como o Gemini é ajustado para garantir que uma variedade de pessoas seja retratada nas imagens. O Google admite que não conseguiu “considerar casos que claramente não deveriam mostrar um intervalo”.
A segunda questão decorre de como o Gemini escolhe quais solicitações são consideradas confidenciais. O Google afirma que a IA se tornou mais cautelosa do que esperava e se recusou a responder a certas solicitações.
No momento, o Google planeja manter a geração de imagens de pessoas congelada até que melhorias significativas sejam feitas no modelo.