A Meta anunciou na quarta-feira a criação de um Conselho Consultivo de IA composto apenas por homens brancos. O que mais poderíamos esperar? Mulheres e pessoas de cor têm falado há décadas sobre serem ignoradas e excluídas do mundo da inteligência artificial, apesar de serem qualificadas e desempenharem um papel fundamental na evolução desse espaço.
A Meta não respondeu imediatamente ao nosso pedido de comentário sobre a diversidade do conselho consultivo.
Este novo conselho consultivo difere do atual conselho de administração e do Conselho de Supervisão da Meta, que são mais diversos em termos de representação de gênero e raça. Os acionistas não elegeram este conselho de IA, que também não tem dever fiduciário. A Meta disse à Bloomberg que o conselho forneceria “ideias e recomendações sobre avanços tecnológicos, inovação e oportunidades estratégicas de crescimento”. As reuniões seriam “periódicas”.
É revelador que o conselho consultivo de IA seja composto inteiramente por empresários e empreendedores, e não por especialistas em ética ou por qualquer pessoa com formação acadêmica ou de pesquisa aprofundada. Embora se possa argumentar que os atuais e ex-executivos do Stripe, Shopify e Microsoft estão bem posicionados para supervisionar o roadmap de produtos de IA da Meta, dado o grande número de produtos que eles lançaram no mercado, foi provado repetidamente que a IA não é como outros produtos. É um negócio arriscado e as consequências de errar podem ser de longo alcance, especialmente para grupos marginalizados.
Em uma recente entrevista ao TechCrunch, Sarah Myers West, diretora executiva do AI Now Institute, uma organização sem fins lucrativos que estuda as implicações sociais da IA, disse que é crucial “examinar criticamente” as instituições que produzem IA para “garantir que as necessidades do público sejam atendidas.”
“Esta é uma tecnologia propensa a erros e sabemos, por meio de pesquisas independentes, que esses erros não são distribuídos igualmente e prejudicam desproporcionalmente as comunidades que há muito suportam o peso da discriminação”, disse ela. “Devemos estabelecer um padrão muito, muito mais alto.”
As mulheres têm muito mais probabilidade do que os homens de experimentar o lado negro da IA. A Sensity AI descobriu em 2019 que 96% dos vídeos deepfake online de IA eram vídeos não consensuais e sexualmente explícitos. A IA generativa tornou-se muito mais prevalente desde então, e as mulheres ainda são alvos desse comportamento invasivo.
Em um incidente amplamente divulgado em janeiro, deepfakes pornográficos e não consensuais de Taylor Swift se tornaram virais no X, com uma das postagens mais difundidas recebendo centenas de milhares de curtidas e 45 milhões de visualizações. Plataformas sociais como X falharam historicamente em proteger as mulheres dessas circunstâncias – mas como Taylor Swift é uma das mulheres mais poderosas do mundo, X interveio proibindo termos de pesquisa como “taylor swift ai” e “taylor swift deepfake”.
Mas se isso acontecer com você e você não for uma sensação pop global, então você pode estar sem sorte. Há inúmeros relatos de alunos do ensino fundamental e médio fazendo deepfakes explícitos de seus colegas de classe. Embora essa tecnologia exista há algum tempo, nunca foi tão fácil acessá-la – você não precisa ser tecnicamente experiente para baixar aplicativos que são anunciados especificamente para “despir” fotos de mulheres ou trocar seus rostos por pornografia. De fato, de acordo com um relatório de Kat Tenbarge da NBC, Anúncios hospedados no Facebook e Instagram para um aplicativo chamado Perky AI, que se descreve como uma ferramenta para criar imagens explícitas.
Dois dos anúncios, que supostamente escaparam da detecção da Meta até que Tenbarge alertou a empresa sobre o problema, mostravam fotos das celebridades Sabrina Carpenter e Jenna Ortega com seus corpos desfocados, pedindo aos clientes que solicitassem que o aplicativo tirasse suas roupas. Os anúncios usavam uma imagem de Ortega quando ela tinha apenas dezesseis anos.
O erro de permitir que o Perky AI anunciasse não foi um incidente isolado. O Conselho de Supervisão da Meta abriu recentemente investigações sobre a falha da empresa em lidar com denúncias de conteúdo sexualmente explícito gerado por IA.
É imperativo que as vozes das mulheres e das pessoas de cor sejam incluídas na inovação dos produtos de inteligência artificial. Durante muito tempo, esses grupos marginalizados foram excluídos do desenvolvimento de tecnologias e pesquisas que mudam o mundo, e os resultados foram desastrosos.
Um exemplo fácil é o fato de que, até a década de 1970, as mulheres foram excluídas de ensaios clínicos, o que significa que campos inteiros de pesquisa foram desenvolvidos sem a compreensão de como isso impactaria as mulheres. Os negros, em particular, veem os impactos da tecnologia construída sem eles em mente – por exemplo, os carros autônomos têm maior probabilidade de atingi-los porque seus sensores podem ter mais dificuldade em detectar pele negra, de acordo com um estudo de 2019 realizado pelo Instituto de Tecnologia da Geórgia.
Algoritmos treinados com base em dados já discriminatórios simplesmente reproduzem os mesmos preconceitos que os humanos os treinaram para adotar. Em termos gerais, já vemos sistemas de IA perpetuando e ampliando a discriminação racial no emprego, habitação e justiça criminal. Os assistentes de voz lutam para entender diversos sotaques e frequentemente sinalizam o trabalho de falantes não nativos de inglês como sendo gerado por IA, visto que, como observado pelo Axios, o inglês é a língua nativa da IA. Sistemas de reconhecimento facial sinalizam negros como possíveis correspondências para suspeitos de crimes com mais frequência do que brancos.
O atual desenvolvimento da IA incorpora as mesmas estruturas de poder existentes em relação a classe, raça, gênero e eurocentrismo que vemos em outros lugares, e parece que não há líderes suficientes abordando essa questão. Em vez disso, eles estão reforçando isso. Investidores, fundadores e líderes tecnológicos estão tão focados em avançar rapidamente e quebrar coisas que parecem não conseguir compreender que a IA generativa – a tecnologia de IA em destaque no momento – pode agravar os problemas, e não melhorá-los. De acordo com um relatório da McKinsey, a IA poderia automatizar cerca de metade de todos os empregos que não exigem um diploma universitário de quatro anos e pagam mais de 42 mil dólares anuais, empregos em que os trabalhadores minoritários estão sobre-representados.
Há motivos para se preocupar sobre como uma equipe de homens brancos em uma das empresas de tecnologia mais proeminentes do mundo, engajada nesta corrida para salvar o mundo usando IA, poderia aconselhar sobre produtos para todas as pessoas quando apenas um grupo demográfico restrito é representado. Será necessário um esforço enorme para construir tecnologia que todos – realmente todos – possam usar. Na verdade, as camadas necessárias para construir uma IA segura e inclusiva – desde a pesquisa até a compreensão em nível social – são tão complexas que é quase óbvio que este conselho consultivo não ajudará a Meta a acertar. Pelo menos onde o Meta falhar, outra startup poderá surgir.