Que diferença quatro meses podem fazer.
Se você tivesse perguntado em novembro como eu achava que os sistemas de IA estavam progredindo, eu poderia ter dado de ombros. Claro, a OpenAI já havia lançado o DALL-E, e fiquei encantado com as possibilidades criativas que ele apresentava. No geral, porém, depois de anos assistindo as grandes plataformas promoverem a inteligência artificial, poucos produtos no mercado pareciam estar à altura das visões mais grandiosas que nos foram descritas ao longo dos anos.
Então a OpenAI lançou o ChatGPT, o chatbot que cativou o mundo com suas possibilidades generativas. O navegador Bing da Microsoft, movido a GPT, o Claude da Anthropic e o Bard do Google seguiram em rápida sucessão. As ferramentas com tecnologia de IA estão rapidamente trabalhando em outros produtos da Microsoft e mais estão chegando ao Google.
Ao mesmo tempo, à medida que nos aproximamos de um mundo de mídia sintética onipresente, alguns sinais de perigo estão aparecendo. No fim de semana, uma imagem do Papa Francisco que o mostrava em um requintado casaco branco se tornou viral – e eu estava entre aqueles que foram levados a acreditar que era real. O fundador do site de inteligência de código aberto Bellingcat foi banido do Midjourney depois de usá-lo para criar e distribuir algumas imagens estranhamente plausíveis de Donald Trump sendo preso. (Desde então, a empresa desativou os testes gratuitos após um influxo de novas inscrições.)
Um grupo de tecnólogos proeminentes agora está pedindo aos fabricantes dessas ferramentas que desacelerem
O texto sintético está entrando rapidamente nos fluxos de trabalho de estudantes, redatores e qualquer outra pessoa envolvida no trabalho do conhecimento; essa semana BuzzFeed tornou-se o mais recente editor a começar a experimentar postagens escritas por IA.
Ao mesmo tempo, as plataformas de tecnologia estão cortando membros de suas equipes de ética de IA. Um grande modelo de linguagem criado pela Meta vazou e foi postado no 4chan, e logo alguém descobriu como executá-lo em um laptop.
Em outros lugares, a OpenAI lançou plug-ins para GPT-4, permitindo que o modelo de linguagem acesse APIs e interaja mais diretamente com a Internet, gerando temores de que isso criaria novos caminhos imprevisíveis para danos. (Perguntei diretamente à OpenAI; a empresa não me respondeu.)
É no contexto desse turbilhão que um grupo de tecnólogos proeminentes agora pede aos fabricantes dessas ferramentas que desacelerem. Aqui estão Cade Metz e Gregory Schmidt no New York Times:
Mais de 1.000 líderes e pesquisadores de tecnologia, incluindo Elon Musk, instaram os laboratórios de inteligência artificial a interromper o desenvolvimento dos sistemas mais avançados, alertando em uma carta aberta que as ferramentas de IA apresentam “riscos profundos para a sociedade e a humanidade”.
Os desenvolvedores de IA estão “presos em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”, de acordo com a carta, que a organização sem fins lucrativos Future of Life Institute lançado na quarta-feira.
Outros que assinaram a carta incluem Steve Wozniak, co-fundador da Apple; Andrew Yang, empresário e candidato presidencial de 2020; e Rachel Bronson, presidente do Bulletin of the Atomic Scientists, que define o Relógio do Juízo Final.
Se nada mais, a carta me parece um marco na marcha do medo existencial da IA em direção à consciência dominante. Críticos e acadêmicos vêm alertando sobre os perigos dessas tecnologias há anos. Mas, até o outono passado, poucas pessoas brincando com DALL-E ou Midjourney se preocupavam com “uma corrida fora de controle para desenvolver e implantar cada vez mais mentes digitais”. E, no entanto, aqui estamos nós.
Existem algumas críticas valiosas à carta dos tecnólogos. Emily M. Bender, professora de lingüística na Universidade de Washington e crítica de IA, chamou isso de “bagunça quente”, argumentando em parte que o doomerismo como esse acaba beneficiando as empresas de IA, fazendo-as parecer muito mais poderosas do que realmente são. . (Veja também Max Read sobre esse assunto.)
Em um embaraço para um grupo nominalmente preocupado com o engano da IA, várias das pessoas inicialmente apresentadas como signatárias da carta acabaram por não tê-la assinado. E Forbes observou que o instituto que organizou a campanha da carta é financiado principalmente por Musk, que tem suas próprias ambições de IA.
O ritmo da mudança na IA parece que em breve poderá ultrapassar nossa capacidade coletiva de processá-la
Também há argumentos de que a velocidade não deve ser nossa principal preocupação aqui. No mês passado, Ezra Klein argumentou que nosso foco real deveria estar nos modelos de negócios desses sistemas. O medo é que os sistemas de IA apoiados por anúncios se mostrem mais poderosos em manipular nosso comportamento do que estamos contemplando atualmente – e isso será perigoso, não importa o quão rápido ou lento escolhamos ir aqui. “A sociedade terá que descobrir o que é confortável ter a IA fazendo e o que a IA não deve tentar, antes que seja tarde demais para tomar essas decisões”, escreveu Klein.
São críticas boas e necessárias. E, no entanto, sejam quais forem as falhas que possamos identificar na carta aberta – eu aplico um desconto bastante acentuado a qualquer coisa que Musk em particular tenha a dizer hoje em dia – no final, sou persuadido de seu argumento coletivo. O ritmo da mudança na IA parece que em breve poderá ultrapassar nossa capacidade coletiva de processá-la. E a mudança que os signatários estão pedindo – uma breve pausa no desenvolvimento de modelos de linguagem maiores do que os que já foram lançados – parece um pedido menor no grande esquema das coisas.
A cobertura de tecnologia tende a se concentrar na inovação e nas interrupções imediatas que dela decorrem. Normalmente, é menos hábil em pensar em como as novas tecnologias podem causar mudanças no nível da sociedade. E, no entanto, o potencial da IA afetar drasticamente o mercado de trabalho, o ambiente de informações, a segurança cibernética e a geopolítica – para citar apenas quatro preocupações – deve nos dar motivos para pensar maior.
Aviv Ovadya, que estuda o ambiente da informação e cujo trabalho já abordei aqui anteriormente, atuou em uma equipe vermelha da OpenAI antes do lançamento do GPT-4. Red-teaming é essencialmente um exercício de role-playing no qual os participantes agem como adversários de um sistema para identificar seus pontos fracos. A equipe vermelha do GPT-4 descobriu que, se não fosse verificado, o modelo de linguagem faria todo tipo de coisas que gostaríamos que não fizesse, como contratar um TaskRabbit involuntário para resolver um CAPTCHA. A OpenAI conseguiu corrigir esse e outros problemas antes de lançar o modelo.
Em uma nova peça em Com fio, porém, Ovadya argumenta que o red-teaming por si só não é suficiente. Não basta saber que material o modelo cospe, ele escreve. Também precisamos saber que efeito o lançamento do modelo pode ter na sociedade em geral. Como isso afetará as escolas, o jornalismo ou as operações militares? Ovadya propõe que especialistas nessas áreas sejam trazidos antes do lançamento de um modelo para ajudar a criar resiliência em bens e instituições públicas e para ver se a própria ferramenta pode ser modificada para se defender contra o uso indevido.
Ovadya chama esse processo de “equipe violeta”:
Você pode pensar nisso como uma espécie de judô. Os sistemas de IA de uso geral são uma nova e vasta forma de poder sendo liberada no mundo, e esse poder pode prejudicar nossos bens públicos. Assim como o judô redireciona o poder de um atacante para neutralizá-lo, o time violeta visa redirecionar o poder liberado pelos sistemas de IA para defender esses bens públicos.
Na prática, a execução da equipe violeta pode envolver uma espécie de “incubadora de resiliência”: emparelhar especialistas em instituições e bens públicos com pessoas e organizações que podem desenvolver rapidamente novos produtos usando os modelos de IA (pré-lançamento) para ajudar a mitigar esses riscos
Se adotada por empresas como OpenAI e Google, voluntariamente ou por insistência de uma nova agência federal, a equipe violeta poderia nos preparar melhor para como modelos mais poderosos afetarão o mundo ao nosso redor.
Na melhor das hipóteses, porém, as equipes violetas seriam apenas parte do regulamento de que precisamos aqui. Há tantas questões básicas com as quais temos que trabalhar. Modelos tão grandes como GPT-4 devem ser executados em laptops? Devemos limitar o grau em que esses modelos podem acessar a Internet mais ampla, como os plug-ins da OpenAI fazem agora? Uma agência governamental atual regulará essas tecnologias ou precisamos criar uma nova? Em caso afirmativo, com que rapidez podemos fazer isso?
A velocidade da internet geralmente funciona contra nós
Não acho que você precise ter caído no hype da IA para acreditar que precisaremos de uma resposta para essas perguntas – se não agora, em breve. Levará tempo para que nosso governo esclerosado apresente respostas. E se a tecnologia continuar avançando mais rápido do que a capacidade do governo de entendê-la, provavelmente nos arrependeremos de deixá-la acelerar.
De qualquer forma, os próximos meses nos permitirão observar os efeitos reais do GPT-4 e seus rivais e nos ajudarão a entender como e onde devemos agir. Mas o conhecimento de que nenhum modelo maior será lançado durante esse período, penso eu, confortaria aqueles que acreditam que a IA pode ser tão prejudicial quanto alguns acreditam.
Se tirei uma lição de cobrir a reação às mídias sociais, é que a velocidade da internet muitas vezes funciona contra nós. As mentiras viajam mais rápido do que qualquer um pode moderá-las; o discurso de ódio inspira violência mais rapidamente do que os ânimos podem ser acalmados. Colocar freios nas postagens de mídia social à medida que se tornam virais ou anotá-las com contexto extra tornou essas redes mais resistentes a atores mal-intencionados que, de outra forma, as usariam para causar danos.
Não sei se a IA acabará causando a destruição que alguns alarmistas estão prevendo. Mas acredito que é mais provável que esses danos aconteçam se a indústria continuar se movendo a toda velocidade.
Desacelerar o lançamento de modelos de linguagem maiores não é uma resposta completa para os problemas futuros. Mas poderia nos dar uma chance de desenvolver um.