Um relatório anual sobre o progresso da IA destacou o crescente domínio dos participantes do setor sobre a academia e o governo na implantação e proteção de aplicativos de IA.
O Índice de IA de 2023 – compilado por pesquisadores da Universidade de Stanford, bem como por empresas de IA, incluindo Google, Anthropic e Hugging Face – sugere que o mundo da IA está entrando em uma nova fase de desenvolvimento. No ano passado, um grande número de ferramentas de IA se tornou popular, de chatbots como o ChatGPT a softwares de geração de imagens como o Midjourney. Mas as decisões sobre como implantar essa tecnologia e como equilibrar risco e oportunidade estão firmemente nas mãos dos players corporativos.
IA de ponta requer recursos enormes, colocando a pesquisa fora do alcance da academia
O AI Index afirma que, por muitos anos, a academia liderou o desenvolvimento de sistemas de IA de última geração, mas a indústria agora assumiu firmemente o controle. “Em 2022, havia 32 modelos significativos de aprendizado de máquina produzidos pela indústria, em comparação com apenas três produzidos pela academia”, diz. Isso se deve principalmente às demandas de recursos cada vez maiores — em termos de dados, equipe e poder de computação — necessários para criar tais aplicativos.
Em 2019, por exemplo, a OpenAI criou o GPT-2, um primeiro modo de linguagem grande, ou LLM – a mesma classe de aplicativo usada para alimentar o ChatGPT e o chatbot Bing da Microsoft. O GPT-2 custou cerca de US$ 50.000 para treinar e contém 1,5 bilhão de parâmetros (uma métrica que rastreia o tamanho e a sofisticação relativa de um modelo). Avance para 2022 e o Google criou seu próprio LLM de última geração, chamado PaLM. Isso custou cerca de US$ 8 milhões para treinar e contém 540 bilhões de parâmetros, tornando-o 360 vezes maior que o GPT-2 e 160 vezes mais caro.
Os crescentes requisitos de recursos do desenvolvimento de IA mudam firmemente o equilíbrio de poder em direção aos players corporativos. Muitos especialistas no mundo da IA temem que os incentivos do mundo dos negócios também levem a resultados perigosos, à medida que as empresas lançam produtos e deixam de lado as preocupações com a segurança em um esforço para superar os rivais. Esta é uma das razões pelas quais muitos especialistas estão pedindo uma desaceleração ou mesmo uma pausa no desenvolvimento da IA, como na carta aberta assinada na semana passada por figuras como Elon Musk.
À medida que os sistemas de IA são mais amplamente implantados, os incidentes de uso indevido aumentaram maciçamente
À medida que as ferramentas de IA se tornam mais difundidas, não é surpresa que o número de erros e casos de uso malicioso também aumente; por si só, não é indicativo de falta de proteção adequada. Mas outras evidências sugerem uma conexão, como a tendência de empresas como Microsoft e Google de cortar suas equipes de segurança e ética de IA.
O relatório observa que o interesse na regulamentação da IA por parte de legisladores e formuladores de políticas está aumentando. Uma análise dos registros legislativos em 127 países observou que o número de projetos de lei contendo a frase “inteligência artificial” aumentou de apenas um aprovado em 2016 para 37 aprovados em 2022. Nos EUA, o escrutínio também está aumentando em nível estadual, com cinco desses projetos de lei propostos em 2015 para 60 projetos de lei relacionados à IA propostos em 2022. Esse aumento de interesse poderia fornecer um contrapeso à autorregulação corporativa.
O relatório do AI Index cobre muito mais terreno do que isso, no entanto. Você pode lê-lo na íntegra aqui ou ver alguns destaques selecionados abaixo: