As ferramentas de IA para o processo de contratação tornaram-se uma categoria quente, mas o Departamento de Justiça alerta que o uso descuidado desses processos pode levar a violações das leis dos EUA que protegem a igualdade de acesso para pessoas com deficiência. Se sua empresa usa classificação algorítmica, rastreamento facial ou outros métodos de alta tecnologia para classificar e classificar os candidatos, convém dar uma olhada mais de perto no que eles estão fazendo.
A Comissão de Oportunidades Iguais de Emprego do departamento, que observa e aconselha sobre tendências e ações do setor relacionadas a assuntos de mesmo nome, emitiu orientações sobre como a empresa pode usar com segurança ferramentas baseadas em algoritmos sem arriscar a exclusão sistemática de pessoas com deficiência.
“As novas tecnologias não devem se tornar novas formas de discriminação. Se os empregadores estiverem cientes das maneiras pelas quais a IA e outras tecnologias podem discriminar pessoas com deficiência, eles podem tomar medidas para evitá-lo”, disse a presidente da EEOC, Charlotte A. Burrows, no comunicado de imprensa anunciando a orientação.
O sentido geral da orientação é pensar muito (e solicitar as opiniões dos grupos afetados) sobre se esses filtros, testes, métricas e assim por diante medem qualidades ou quantidades relevantes para fazer o trabalho. Eles oferecem alguns exemplos:
- Um candidato com deficiência visual deve concluir um teste ou tarefa com um componente visual para se qualificar para uma entrevista, como um jogo. A menos que o trabalho tenha um componente visual, isso exclui injustamente os candidatos cegos.
- Um rastreador de chatbot faz perguntas que foram mal formuladas ou projetadas, como se uma pessoa pode ficar de pé por várias horas seguidas, com respostas “não” desqualificando o candidato. Uma pessoa em uma cadeira de rodas certamente poderia fazer muitos trabalhos que alguns podem representar, apenas na posição sentada.
- Um serviço de análise de currículo baseado em IA rebaixa um aplicativo devido a uma lacuna no emprego, mas essa lacuna pode ser por motivos relacionados a uma deficiência ou condição pela qual é impróprio penalizar.
- Um rastreador automatizado baseado em voz exige que os candidatos respondam a perguntas ou testem problemas vocalmente. Naturalmente, isso exclui os surdos e deficientes auditivos, bem como qualquer pessoa com distúrbios da fala. A menos que o trabalho envolva muita fala, isso é impróprio.
- Um algoritmo de reconhecimento facial avalia as emoções de alguém durante uma entrevista em vídeo. Mas a pessoa é neurodivergente, ou sofre de paralisia facial devido a um derrame; suas pontuações serão discrepantes.
Isso não quer dizer que nenhuma dessas ferramentas ou métodos esteja errado ou fundamentalmente discriminatório de uma forma que viole a lei. Mas as empresas que os utilizam devem reconhecer suas limitações e oferecer acomodações razoáveis caso um algoritmo, modelo de aprendizado de máquina ou algum outro processo automatizado seja inadequado para uso com um determinado candidato.
Ter alternativas acessíveis faz parte, mas também ser transparente sobre o processo de contratação e declarar antecipadamente qual habilidade será testada e como. As pessoas com deficiência são os melhores juízes de quais são suas necessidades e quais adaptações, se houver, solicitar.
Se uma empresa não fornecer ou não puder fornecer acomodações razoáveis para esses processos – e sim, isso inclui processos criados e operados por terceiros – ela pode ser processada ou responsabilizada por essa falha.
Como de costume, quanto mais cedo esse tipo de coisa for levado em consideração, melhor; se sua empresa não consultou um especialista em acessibilidade sobre assuntos como recrutamento, acesso a sites e aplicativos e ferramentas e políticas internas, vá em frente.
Enquanto isso, você pode ler a orientação completa do DOJ aqui, com uma breve versão destinada aos trabalhadores que sentem que podem ser discriminados aqui e, por algum motivo, outra versão truncada da orientação aqui.