Os legisladores da União Europeia aprovaram oficialmente o marco regulatório de IA do bloco, abrindo caminho para que a UE proíba certos usos da tecnologia e exija transparência dos fornecedores. Em um votação majoritária na quarta-feira 523 deputados do Parlamento Europeu foram eleitos para adotar formalmente a Lei da Inteligência Artificial (Lei da IA), e trabalharão agora para a sua aplicação e implementação.
A Lei de IA tem sido calorosamente debatida desde que foi proposta pela primeira vez em 2021, com algumas de suas regulamentações mais rígidas – como uma proposta proibição total de sistemas biométricos para vigilância pública em massa – sendo suavizado por compromissos de última hora. Embora o anúncio de quarta-feira signifique que a lei quase ultrapassou o obstáculo final, ainda será necessário anos para que algumas regras sejam aplicadas.
A linguagem jurídica do texto ainda aguarda aprovação final, seja através de um anúncio separado ou de uma votação em sessão plenária em 10/11 de abril, com a Lei da IA entrando oficialmente em vigor 20 dias após sua publicação no Diário Oficial – o que é antecipado acontecer em maio ou junho deste ano. As disposições entrarão em vigor em etapas: os países terão seis meses para proibir sistemas de IA proibidos, 12 meses para aplicar regras contra “sistemas de IA de uso geral”, como chatbots, e até 36 meses para sistemas de IA que a lei designou como “alta risco.”
Os sistemas proibidos incluem coisas como pontuação social, reconhecimento de emoções no trabalho ou nas escolas, ou sistemas projetados para influenciar o comportamento ou explorar as vulnerabilidades dos usuários. Exemplos de sistemas de IA de “alto risco” incluem aqueles aplicados a infraestruturas críticas, educação e formação profissional, certos sistemas de aplicação da lei e aqueles que podem ser utilizados para influenciar processos democráticos como eleições.
“No muito curto prazo, o compromisso sobre a Lei de IA da UE não terá muito efeito direto sobre os designers de IA estabelecidos baseados nos EUA, porque, pelos seus termos, provavelmente não entrará em vigor até 2025”, disse Paul Barrett. de volta, vice-diretor do Centro Stern para Negócios e Direitos Humanos da NYU, em dezembro de 2023, quando a UE concordou provisoriamente com o regulamento histórico de IA. Portanto, por enquanto, Barrett diz que os principais players de IA como OpenAI, Microsoft, Google e Meta provavelmente continuarão a lutar pelo domínio, especialmente enquanto navegam pela incerteza regulatória nos EUA.
A Lei de IA começou antes da explosão de ferramentas de IA de uso geral (GPAI), como o modelo de linguagem grande GPT-4 da OpenAI, e regulá-las tornou-se um obstáculo extremamente complicado nas discussões de última hora. A lei divide suas regras sobre o nível de risco que um sistema de IA representa para a sociedade, ou como a UE disse em um declaração“quanto maior o risco, mais rigorosas são as regras”.
Mas alguns Estados-Membros ficaram preocupados com o facto de este rigor poder tornar a UE um mercado pouco atraente para a IA. França, Alemanha e Itália fizeram lobby para atenuar as restrições ao GPAI durante as negociações. Conseguiram compromissos, incluindo a limitação do que podem ser considerados sistemas de “alto risco”, que ficariam então sujeitos a algumas das regras mais rigorosas. Em vez de classificar todos os GPAI como de alto risco, haverá um sistema de dois níveis e exceções de aplicação da lei para usos totalmente proibidos de IA, como a identificação biométrica remota.
Isso ainda não satisfez todos os críticos. Presidente francês Emmanuel Macron atacou as regras, dizendo que a Lei da IA cria um ambiente regulatório difícil que dificulta a inovação. Barrett disse que algumas novas empresas europeias de IA podem achar difícil levantar capital com as regras atuais, o que dá uma vantagem às empresas americanas. As empresas fora da Europa podem até optar por evitar estabelecer-se na região ou bloquear o acesso às plataformas para não serem multadas por violarem as regras – um risco potencial que a Europa também enfrentou na indústria tecnológica não-IA, seguindo regulamentos como a Lei dos Mercados Digitais e a Lei dos Serviços Digitais.
Mas as regras também evitam algumas das questões mais controversas em torno da IA generativa.
Modelos de IA treinados em dados publicamente disponíveis – mas sensíveis e potencialmente protegidos por direitos autorais – tornaram-se um grande ponto de discórdia para organizações, por exemplo. As regras aprovadas, no entanto, não criam novas leis em torno da recolha de dados. Embora a UE tenha sido pioneira em leis de proteção de dados através do GDPR, as suas regras de IA não proíbem as empresas de recolher informações, além de exigir que sigam as diretrizes do GDPR.
“De acordo com as regras, as empresas podem ter que fornecer um resumo de transparência ou rótulos nutricionais de dados”, disse Susan Ariel Aaronson, diretora do Centro de Comércio Digital e Governança de Dados e professora pesquisadora de assuntos internacionais na Universidade George Washington, quando a UE aprovou provisoriamente o regras. “Mas isso não vai realmente mudar o comportamento das empresas em relação aos dados.”
Aaronson aponta que a Lei de IA ainda não esclareceu como as empresas devem tratar o material protegido por direitos autorais que faz parte dos dados de treinamento de modelos, além de afirmar que os desenvolvedores devem seguir as leis de direitos autorais existentes (que deixam muitas áreas cinzentas em torno da IA). Portanto, não oferece nenhum incentivo para que os desenvolvedores de modelos de IA evitem o uso de dados protegidos por direitos autorais.
A Lei de IA também não aplicará multas potencialmente severas a desenvolvedores de código aberto, pesquisadores e empresas menores que trabalham mais abaixo na cadeia de valor – uma decisão que foi elogiada por desenvolvedores de código aberto na área. A diretora jurídica do GitHub, Shelley McKinley, disse que é “um desenvolvimento positivo para a inovação aberta e para os desenvolvedores que trabalham para ajudar a resolver alguns dos problemas mais urgentes da sociedade”. (GitHub, um popular centro de desenvolvimento de código aberto, é uma subsidiária da Microsoft.)
Os observadores pensam que o impacto mais concreto poderia ser pressionar outras figuras políticas, especialmente os decisores políticos americanos, a agirem mais rapidamente. Não é o primeiro grande quadro regulamentar para a IA – em julho, a China aprovou diretrizes para empresas que queiram vender serviços de IA ao público. Mas o processo de desenvolvimento relativamente transparente e fortemente debatido da UE deu à indústria da IA uma noção do que esperar. Aaronson disse que o texto provisório (que já foi aprovado) mostra pelo menos que a UE ouviu e respondeu às preocupações públicas em torno da tecnologia.
Lothar Determann, parceiro de privacidade de dados e tecnologia da informação do escritório de advocacia Baker McKenzie, diz que o facto de se basear nas regras de dados existentes também poderia encorajar os governos a fazerem um balanço das regulamentações que têm em vigor. E Blake Brannon, diretor de estratégia da plataforma de privacidade de dados OneTrust, disse que empresas de IA mais maduras estabelecem diretrizes de proteção de privacidade em conformidade com leis como o GDPR e em antecipação a políticas mais rígidas. Ele disse que dependendo da empresa, a Lei de IA é “um toque adicional” às estratégias já em
Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.