A Microsoft alterou sua política para proibir os departamentos de polícia dos EUA de utilizarem IA generativa para reconhecimento facial por meio do Azure OpenAI Service, a plataforma totalmente gerenciada e focada em negócios da empresa em torno das tecnologias OpenAI.
O texto adicionado na quarta-feira aos termos de serviço do Azure OpenAI Service proíbe as integrações com o serviço de serem utilizadas “por ou para” departamentos de polícia para reconhecimento facial nos EUA, incluindo integrações com os modelos de análise de texto e fala da OpenAI.
Um novo item separado abrange “qualquer aplicação da lei em todo o mundo” e proíbe explicitamente o uso de “tecnologia de reconhecimento facial em tempo real” em câmeras móveis, como câmeras corporais e câmeras de painel, para tentar identificar uma pessoa em situações “não controladas, não domesticadas”.
As mudanças nos termos ocorrem uma semana depois que a Axon, fabricante de produtos de tecnologia e armas para militares e policiais, anunciou um novo produto que usa o modelo de texto generativo GPT-4 da OpenAI para resumir o áudio das câmeras corporais. Críticos destacaram possíveis armadilhas, como alucinações (mesmo os melhores modelos generativos de IA hoje inventam informações) e preconceitos raciais introduzidos a partir dos dados de treinamento (algo preocupante, já que pessoas de cor têm muito mais chances de serem paradas pela polícia do que seus colegas brancos).
Não está claro se a Axon estava usando o GPT-4 por meio do Azure OpenAI Service e, em caso afirmativo, se a política atualizada foi em resposta ao lançamento do produto da Axon. A OpenAI havia anteriormente restringido o uso de seus modelos para reconhecimento facial por meio de suas APIs. Entramos em contato com Axon, Microsoft e OpenAI e atualizaremos esta postagem se recebermos uma resposta.
Os novos termos deixam espaço para interpretação pela Microsoft.
A proibição total do uso do serviço Azure OpenAI se refere apenas aos departamentos de polícia dos EUA, não internacionais. E não abrange o reconhecimento facial realizado com câmeras estacionárias em ambientes controlados, como um escritório (embora os termos proíbam qualquer uso de reconhecimento facial pela polícia dos EUA).
Isso segue a recente abordagem da Microsoft e do parceiro próximo OpenAI em contratos relacionados à aplicação da lei e defesa no contexto da IA.
Em janeiro, um relatório da Bloomberg revelou que a OpenAI está colaborando com o Pentágono em uma série de projetos, incluindo capacidades de segurança cibernética – uma mudança da proibição anterior da startup de fornecer sua IA aos militares. Além disso, a Microsoft passou a utilizar a ferramenta de geração de imagens da OpenAI, DALL-E, para ajudar o Departamento de Defesa (DoD) a desenvolver software para operações militares, segundo o The Intercept.
O serviço Azure OpenAI foi disponibilizado no produto Azure Government da Microsoft em fevereiro, com recursos adicionais de conformidade e gerenciamento direcionados para agências governamentais, incluindo autoridades policiais. Em uma postagem no blog, Candice Ling, vice-presidente sênior da divisão governamental da Microsoft, Microsoft Federal, garantiu que o Azure OpenAI Service passaria por “autorização adicional” do DoD para cargas de trabalho que apoiam as missões do DoD.
Atualização: Após a publicação, a Microsoft afirmou que sua alteração original nos termos de serviço continha um erro de digitação e, na verdade, a proibição se aplica apenas ao reconhecimento facial nos EUA. Não é uma proibição geral para os departamentos de polícia usarem o serviço.