Um grupo de conhecidos especialistas em ética da IA escreveu um contraponto à controversa carta desta semana pedindo uma “pausa” de 6 meses no desenvolvimento da IA, criticando-a por focar em ameaças futuras hipotéticas quando danos reais são atribuíveis ao uso indevido da tecnologia hoje. .
Milhares de pessoas, incluindo nomes conhecidos como Steve Wozniak e Elon Musk, assinaram a carta aberta do instituto Future of Life no início desta semana, propondo que o desenvolvimento de modelos de IA como o GPT-4 seja suspenso para evitar “perdas de controle de nossa civilização”, entre outras ameaças.
Timnit Gebru, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell são figuras importantes nos domínios da IA e da ética, conhecidas (além de seu trabalho) por terem sido expulsas do Google por causa de um artigo que criticava as capacidades da IA. . Atualmente, eles estão trabalhando juntos no DAIR Institute, um novo grupo de pesquisa destinado a estudar, expor e prevenir danos associados à IA.
Mas eles não foram encontrados na lista de signatários e agora publicaram uma repreensão chamando a atenção para o fracasso da carta em lidar com os problemas existentes causados pela tecnologia.
“Esses riscos hipotéticos são o foco de uma ideologia perigosa chamada de longo prazo, que ignora os danos reais resultantes da implantação de sistemas de IA hoje”, escreveram eles, citando exploração de trabalhadores, roubo de dados, mídia sintética que sustenta estruturas de poder existentes e outras concentração dessas estruturas de poder em menos mãos.
A escolha de se preocupar com um apocalipse de robôs no estilo Terminator ou Matrix é uma pista falsa quando temos, no mesmo momento, relatos de empresas como a Clearview AI sendo usadas pela polícia para incriminar essencialmente um homem inocente. Não há necessidade de um T-1000 quando você tem câmeras Ring em todas as portas da frente acessíveis por meio de fábricas de garantia de carimbo on-line.
Embora a equipe do DAIR concorde com alguns dos objetivos da carta, como identificar a mídia sintética, eles enfatizam que ações devem ser tomadas agora, nos problemas de hoje, com os remédios que temos disponíveis:
O que precisamos é de regulamentação que imponha transparência. Não só deve ser sempre claro quando estamos encontrando mídia sintética, mas as organizações que constroem esses sistemas também devem ser obrigadas a documentar e divulgar os dados de treinamento e arquiteturas de modelo. O ônus de criar ferramentas que sejam seguras de usar deve recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas devem ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual em direção a “experimentos de IA” cada vez maiores não é um caminho predeterminado onde nossa única escolha é o quão rápido correr, mas sim um conjunto de decisões impulsionadas pelo lucro. As ações e escolhas das corporações devem ser moldadas pela regulamentação que protege os direitos e interesses das pessoas.
É realmente hora de agir: mas o foco de nossa preocupação não deve ser “mentes digitais poderosas” imaginárias. Em vez disso, devemos nos concentrar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las, que estão rapidamente centralizando o poder e aumentando as desigualdades sociais.
Aliás, esta carta ecoa um sentimento que ouvi da fundadora da Uncharted Power, Jessica Matthews, no evento AfroTech de ontem em Seattle: “Você não deve ter medo da IA. Você deveria ter medo das pessoas que o constroem.” (Sua solução: tornar-se as pessoas que o constroem.)
Embora seja extremamente improvável que qualquer grande empresa concorde em interromper seus esforços de pesquisa de acordo com a carta aberta, é claro, a julgar pelo compromisso que recebeu, que os riscos – reais e hipotéticos – da IA são uma grande preocupação em muitos segmentos da sociedade. Mas se eles não o fizerem, talvez alguém tenha que fazer por eles.