Microsoft proíbe uso de ferramenta de IA para reconhecimento facial por departamentos de polícia nos EUA

Microsoft proíbe uso de ferramenta de IA para reconhecimento facial por departamentos de polícia nos EUA

A Microsoft alterou sua política para proibir os departamentos de polícia dos EUA de utilizarem IA generativa para reconhecimento facial por meio do Azure OpenAI Service, a plataforma totalmente gerenciada e focada em negócios da empresa em torno das tecnologias OpenAI.

O texto adicionado na quarta-feira aos termos de serviço do Azure OpenAI Service proíbe as integrações com o serviço de serem utilizadas “por ou para” departamentos de polícia para reconhecimento facial nos EUA, incluindo integrações com os modelos de análise de texto e fala da OpenAI.

Um novo item separado abrange “qualquer aplicação da lei em todo o mundo” e proíbe explicitamente o uso de “tecnologia de reconhecimento facial em tempo real” em câmeras móveis, como câmeras corporais e câmeras de painel, para tentar identificar uma pessoa em situações “não controladas, não domesticadas”.

As mudanças nos termos ocorrem uma semana depois que a Axon, fabricante de produtos de tecnologia e armas para militares e policiais, anunciou um novo produto que usa o modelo de texto generativo GPT-4 da OpenAI para resumir o áudio das câmeras corporais. Críticos destacaram possíveis armadilhas, como alucinações (mesmo os melhores modelos generativos de IA hoje inventam informações) e preconceitos raciais introduzidos a partir dos dados de treinamento (algo preocupante, já que pessoas de cor têm muito mais chances de serem paradas pela polícia do que seus colegas brancos).

Não está claro se a Axon estava usando o GPT-4 por meio do Azure OpenAI Service e, em caso afirmativo, se a política atualizada foi em resposta ao lançamento do produto da Axon. A OpenAI havia anteriormente restringido o uso de seus modelos para reconhecimento facial por meio de suas APIs. Entramos em contato com Axon, Microsoft e OpenAI e atualizaremos esta postagem se recebermos uma resposta.

Os novos termos deixam espaço para interpretação pela Microsoft.

A proibição total do uso do serviço Azure OpenAI se refere apenas aos departamentos de polícia dos EUA, não internacionais. E não abrange o reconhecimento facial realizado com câmeras estacionárias em ambientes controlados, como um escritório (embora os termos proíbam qualquer uso de reconhecimento facial pela polícia dos EUA).

Isso segue a recente abordagem da Microsoft e do parceiro próximo OpenAI em contratos relacionados à aplicação da lei e defesa no contexto da IA.

Em janeiro, um relatório da Bloomberg revelou que a OpenAI está colaborando com o Pentágono em uma série de projetos, incluindo capacidades de segurança cibernética - uma mudança da proibição anterior da startup de fornecer sua IA aos militares. Além disso, a Microsoft passou a utilizar a ferramenta de geração de imagens da OpenAI, DALL-E, para ajudar o Departamento de Defesa (DoD) a desenvolver software para operações militares, segundo o The Intercept.

O serviço Azure OpenAI foi disponibilizado no produto Azure Government da Microsoft em fevereiro, com recursos adicionais de conformidade e gerenciamento direcionados para agências governamentais, incluindo autoridades policiais. Em uma postagem no blog, Candice Ling, vice-presidente sênior da divisão governamental da Microsoft, Microsoft Federal, garantiu que o Azure OpenAI Service passaria por “autorização adicional” do DoD para cargas de trabalho que apoiam as missões do DoD.

Atualização: Após a publicação, a Microsoft afirmou que sua alteração original nos termos de serviço continha um erro de digitação e, na verdade, a proibição se aplica apenas ao reconhecimento facial nos EUA. Não é uma proibição geral para os departamentos de polícia usarem o serviço.