Você está demitido! Amazon abandona robô recrutador que virou machista

Jeffrey Dastin

  • Deu ruim para o robô da Amazon

    Deu ruim para o robô da Amazon

Os especialistas em tecnologia de aprendizado de máquinas da Amazon descobriram um grande problema: seu novo mecanismo de recrutamento de pessoal não gosta de mulheres.

A equipe vinha criando programas de computador desde 2014 para revisar os currículos dos candidatos a emprego, com o objetivo de automatizar a busca por talentos, disseram à Reuters cinco pessoas familiarizadas com o esforço.

A ferramenta experimental de contratação da empresa utilizou inteligência artificial para dar aos candidatos a emprego na companhia pontuações que variam de uma a cinco estrelas - da mesma forma que os compradores avaliam produtos na Amazon, disseram algumas pessoas.

VEJA TAMBÉM:

"Todo mundo queria esse santo graal", disse uma das fontes. "Eles literalmente queriam que fosse um motor onde eu lhe daria 100 currículos e ele cuspiria os cinco primeiros e nós os contrataríamos."

Mas, em 2015, a empresa percebeu que seu novo sistema não classificava candidatos para empregos de desenvolvedores de software e outros cargos técnicos de maneira neutra em termos de gênero.

Isso porque os modelos de computador da Amazon foram treinados para examinar os candidatos observando padrões em currículos enviados à empresa durante um período de 10 anos. A maioria veio de homens, um reflexo do domínio masculino em toda a indústria de tecnologia.

Penalizando mulheres

Como consequência, o sistema da Amazon ensinou para si mesmo que candidatos do sexo masculino eram preferíveis. O sistema penalizou currículos que incluíam a palavra "mulheres", como em "capitã do clube de xadrez de mulheres". E rebaixou os formados em duas instituições de ensino apenas para mulheres, de acordo com pessoas familiarizadas com o assunto.

A Amazon modificou os programas para torná-los neutros para esses termos específicos. Mas isso não impediu as máquinas de criarem outras maneiras discriminatórias de classificar candidatos, disseram as fontes.

A empresa de Seattle acabou com a equipe no início do ano passado porque os executivos perderam a esperança no projeto, segundo as pessoas, que falaram sob condição de anonimato. Os recrutadores da Amazon analisaram as recomendações geradas pela ferramenta ao procurar novas contratações, mas nunca confiaram apenas nesses rankings, disseram eles.

A automação tem sido fundamental para o domínio do comércio eletrônico pela Amazon, seja dentro de armazéns de mercadorias ou direcionando decisões de preços. A empresa se recusou a comentar sobre o mecanismo de recrutamento ou seus problemas, mas a empresa afirma estar comprometida com a diversidade e a igualdade no local de trabalho.

Algoritmos são justos?

Há muito tempo que os empregadores sonham em aproveitar a tecnologia para ampliar a rede de contratação e reduzir a dependência nas opiniões subjetivas dos recrutadores humanos. Mas cientistas da computação, como Nihar Shah, que ensina aprendizado de máquina na Universidade Carnegie Mellon, dizem que ainda há muito trabalho a fazer.

Como garantir que o algoritmo é justo, como ter certeza de que o algoritmo é realmente interpretável e explicável - isso ainda está muito longe

Nihar Shah

O experimento da Amazon aconteceu em um momento crítico para a companhia: desde junho de 2015, o número de funcionários da empresa mais que triplicou, para 575,7 mil pessoas. Por conta disso, a empresa criou em seu centro de engenharia em Edinburgo uma equipe com objetivo de desenvolver uma tecnologia de inteligência artificial capaz de identificar rapidamente bons candidatos a empregos na gigante de varejo, disseram as fontes.

VEJA TAMBÉM:

A equipe criou 500 modelos de computador focados em empregos e localizações específicas. Eles ensinaram cada modelo a reconhecer cerca de 50 mil termos nos currículos dos candidatos. Os algoritmos aprenderam a dar pouca importância para habilidades comuns entre os candidatos a vagas na área de tecnologia da informação, como a capacidade de programar usando múltiplas linguagens, disseram as fontes.

Em vez disso, os algoritmos favoreceram candidatos que se descreveram usando verbos mais comumente encontrados em currículos de homens, como "executado" e "capturado", disse uma das fontes.

A questão de gênero não foi o único problema. Os julgamentos da máquina implicaram que candidatos não qualificados foram recomendados com frequência para todos os tipos de vagas, disseram as fontes. Com o sistema entregando resultados praticamente aleatórios, a Amazon encerrou o projeto, disseram as fontes.

A companhia agora usa uma versão muito mais reduzida do sistema de recrutamento em funções como as que ajudam a identificar perfis duplicados de candidatos, disse uma das fontes. Já outra pessoa com conhecimento do assunto afirmou que uma nova equipe em Edinburgo foi criada para dar uma nova chance à ideia de recrutamento automatizado. Desta vez, o foco é em diversidade.

UOL

A robótica não para de avançar. Quer saber quais sobre os robôs mais úteis e curiosos?

Confira o Roblog

Últimas notícias Ver mais notícias