O CEO do Google, Sundar Pichai, respondeu às críticas ao chatbot AI experimental da empresa, Bard, prometendo que o Google atualizará o Bard em breve.
“Claramente temos modelos mais capazes”, disse Pichai em entrevista ao O jornal New York Times’ Podcast Hard Fork. “Muito em breve, talvez como este [podcast] for lançado, atualizaremos o Bard para alguns de nossos modelos PaLM mais capazes, que trarão mais recursos; seja no raciocínio, na codificação, pode responder melhor às questões de matemática. Então você verá o progresso ao longo da próxima semana.”
“De certa forma, sinto que pegamos um Civic aprimorado e o colocamos em uma corrida com carros mais potentes.”
Pichai observou que o Bard está sendo executado em uma “versão leve e eficiente do LaMDA”, um modelo de linguagem de IA que se concentra na entrega de diálogos. “De certa forma, sinto que pegamos um Civic aprimorado e o colocamos em uma corrida com carros mais potentes”, disse Pichai. PaLM, em comparação, é um modelo de linguagem mais recente; é maior em escala e o Google afirma que é mais capaz ao lidar com tarefas como raciocínio de bom senso e problemas de codificação.
O Bard foi lançado pela primeira vez para usuários públicos em 21 de março, mas não conseguiu atrair a atenção ou aclamação conquistada pelo ChatGPT da OpenAI e pelo chatbot do Bing da Microsoft. Em The VergeEm nossos próprios testes desses sistemas, descobrimos que o Bard era consistentemente menos útil do que seus rivais. Como todos os chatbots de uso geral, ele é capaz de responder a uma ampla gama de perguntas, mas suas respostas geralmente são menos fluentes e imaginativas e não se baseiam em fontes de dados confiáveis.
Pichai sugeriu que parte do motivo das capacidades limitadas de Bard era um senso de cautela dentro do Google. “Para mim, era importante não colocar [out] um modelo mais capaz antes que possamos ter certeza de que podemos lidar bem com isso ”, disse ele.
Pichai também confirmou que estava conversando com os cofundadores do Google, Larry Page e Sergey Brin, sobre o trabalho (“Sergey está saindo com nossos engenheiros há algum tempo”) e que, embora ele próprio nunca tenha emitido o infame “código vermelho” para scramble, provavelmente havia pessoas na empresa que “enviaram e-mails dizendo que havia um código vermelho”.
Pichai também discutiu as preocupações de que o desenvolvimento da IA esteja avançando muito rápido e talvez represente uma ameaça para a sociedade. Muitos nas comunidades de IA e tecnologia têm alertado sobre a perigosa dinâmica de corrida atualmente em jogo entre empresas como OpenAI, Microsoft e Google. No início desta semana, uma carta aberta assinada por Elon Musk e os principais pesquisadores de IA pedia uma pausa de seis meses no desenvolvimento desses sistemas de IA.
“Isso vai precisar de muito debate, ninguém sabe todas as respostas.”
“Nessa área, acho importante ouvir as preocupações”, disse Pichai sobre a carta aberta pedindo uma pausa. “E acho que há mérito em se preocupar com isso… Isso vai exigir muito debate, ninguém sabe todas as respostas, nenhuma empresa pode acertar.” Ele também disse que “a IA é uma área muito importante para não ser regulamentada”, mas sugeriu que era melhor simplesmente aplicar os regulamentos nos setores existentes – como regulamentos de privacidade e regulamentos na área da saúde – do que criar novas leis para lidar especificamente com a IA.
Alguns especialistas se preocupam com riscos imediatos, como a tendência dos chatbots de espalhar informações falsas e falsas, enquanto outros alertam sobre ameaças mais existenciais; sugerindo que esses sistemas são tão difíceis de controlar que, uma vez conectados à rede mais ampla, podem ser usados de forma destrutiva. Alguns sugerem que os programas atuais também estão se aproximando do que é conhecido como inteligência artificial em geral, ou AGI: sistemas que são pelo menos tão capazes quanto um ser humano em uma ampla gama de tarefas.
“Está tão claro para mim que esses sistemas serão muito, muito capazes e, portanto, quase não importa se você atingiu a AGI ou não”, disse Pichai. “Podemos ter um sistema de IA que pode causar desinformação em grande escala? Sim. É AGI? Realmente não importa. Por que precisamos nos preocupar com a segurança da IA? Porque você tem que antecipar isso e evoluir para enfrentar esse momento.”
Você pode ouvir a entrevista na íntegra e ler uma transcrição aqui.