exameinformatica

Uma parceria VISÃO

Siga-nos nas redes

Perfil

Ciência

O algoritmo de Inteligência Artificial da Amazon que não gosta de mulheres

A Amazon tem tentado automatizar a caça ao talento com soluções de IA. Descobriu-se agora que um dos motores usados discriminava as candidaturas de mulhers

  • 333

Exame Informática

Pelos menos cinco fontes confirmaram que a Amazon está a desenvolver uma solução de IA para recrutamento e que em 2015 teve de a deixar de usar por ter descoberto que discriminava as candidaturas de mulheres. «Todos querem este Santo Graal. Querem literalmente que seja um motor onde coloquemos 100 currículos e de onde saem os cinco melhores, que acabamos por contratar», disse uma das fontes à Reuters.

O sistema da Amazon analisava os CV e atribuía-lhes uma pontuação de 0 a 5. Neste caso, uma vez que foi alimentado com os currículos recebidos nos dez anos anteriores, predominantemente de homens, passou a considerar que as candidaturas masculinas eram melhores do que as femininas. Assim, expressões como “mulher” ou “feminino” no currículo fazia com que estes CV tivessem classificações inferiores.

Apesar de a Amazon ter calibrado o programa para ser neutro em relação a estas expressões, não havia garantia de que as máquinas não tivessem outras formas de discriminação. A equipa que estava a fazer este desenvolvimento foi desmantelada no início deste ano e os recrutadores nunca se guiaram apenas no feedback do algoritmo, embora tenham aceite as suas indicações.

A Amazon defende que desenvolveu este software, que agora já não o está a fazer e que os «recrutadores nunca o usaram para avaliar candidatos».

Goldman Sachs e Hilton estão entre alguns dos grandes grupos que pretendem automatizar a caça ao talento. No entanto, o professor de Carnegie Mellon Nihar Shah defende que ainda há muito a fazer: «como garantir que o algoritmo é justo, como garantir que o algoritmo consegue ser interpretado e explicado – ainda estamos bastante longe».

  • 333