16/12/2020

Inteligência Artificial e Viés: Os perigos da falta de dados interpretativos

Inteligência Artificial e Viés: Os perigos da falta de dados interpretativos

Escolher séries nas plataformas digitais, ouvir música pelos apps mais conhecidos ou começar uma amizade nova numa rede social podem ter uma coisa em comum: A Inteligência Artificial. Mas qual o seu impacto no R&S das empresas e qual a relação entre inteligência artificial e viés?

Vivemos em um mundo cada vez mais tecnológico e às vezes não fazemos ideia de que a I.A é uma constante nas nossas vidas. É ela que ajuda a gente a escolher determinado conteúdo na Netflix, no Disney + ou na Amazon Prime. 

Também é ela que sugere aquela pizza quentinha, ou um hambúrguer, na noite de sábado pelos aplicativos de delivery. Tudo variando de acordo com as suas preferências e o seu histórico de pedidos.

E o que acontece quando essas sugestões acabam não sendo a melhor opção? Bom, no pior dos cenários, o restaurante é riscado da sua lista de próximos pedidos, a série é riscada da sua lista de coisas para assistir e assim consecutivamente. Afinal, essas são decisões de baixo impacto e que não interferem na vida das pessoas.

Mas e na hora de contratar pessoas. A inteligência artificial ocupa essa mesma posição de “inofensiva”?

O caso da Amazon e um dos vieses da I.A.

A Amazon, gigante da tecnologia, desenvolveu, em 2014, uma tecnologia que prometia revolucionar os processos seletivos para as pessoas desenvolvedoras da companhia.

A ideia, segundo matéria da Reuters, era que a tecnologia fosse capaz de entregar as pessoas que seriam contratadas. Ou seja, dentre todas as aplicações de uma vaga, sua inteligência artificial iria varrer as informações, cruzar os dados e indicar a pessoa ou as pessoas mais indicadas para as posições em aberto.

Já em 2015, um ano depois, a empresa percebeu que sua inteligência artificial não estava avaliando as pessoas apenas por suas competências. O gênero delas passou a ser um diferencial. A tecnologia começou a excluir candidatas mulheres.

Ou seja, a I.A. da Amazon aprendeu, analisando as candidaturas, que candidatos homens eram preferíveis. O que resultou na exclusão das candidaturas que continham a palavra mulher e termos femininos, como: capitã do clube de xadrez. 

Além disso, ela também passou a excluir todas as candidatas de duas universidades específicas que possuem uma particularidade em comum: são universidades exclusivas para mulheres (os nomes das universidades não foram divulgados pela Amazon).

E, na época, o caminho adotado foi lógico: a ferramenta, que já havia sido desenvolvida para não considerar o gênero das pessoas, foi reparametrizada para considerar palavras tanto no masculino quanto no feminino como neutras. 

Depois de muito esforço e a criação de mais de 500 perfis de colaboradores aderentes à companhia para as posições relacionadas a tecnologia, o time envolvido estava convencido: a ferramenta estava pronta para analisar as pessoas apenas por suas competências.

Mas a realidade se provou diferente. Em vez disso, a tecnologia aprendeu a identificar verbos que eram utilizados com mais frequência em currículos de homens, como “executado” e “capturado” (executed e captured, no inglês), voltando ao viés masculino e feminino, mesmo sem fazer considerações de gênero.

Ou seja, a tecnologia encontrou maneiras de driblar a neutralidade dos gêneros e dos termos, usando termos de denominação neutra, mas que apareciam com maior volume em currículos masculinos ou femininos, dependendo do termo.

Mesmo sendo ensinada a não considerar o gênero, a I.A. da Amazon encontrou outras maneiras de manter o viés e barrar candidaturas femininas.

Como resultado, o projeto foi descontinuado.

A I.A. é a solução?

Bom, não é mais possível imaginar uma vida sem a tecnologia que temos hoje. E também é impossível afirmar que a inteligência artificial é perfeita e as recomendações que não gostamos em diversas categorias de entretenimento estão aí para provar.

Mas na hora de contratar pessoas, o impacto da I.A. deve ser levado em consideração. Não só as empresas podem estar deixando de acelerar seu crescimento ao não contratar as melhores pessoas para a posição, como as pessoas podem não estar sendo avaliadas de maneira justa e transparente.

E descobrir, tempos depois, que a inteligência artificial utilizada deixou pessoas de fora da sua empresa por causa dos vieses adquiridos por ela, faz com que essas pessoas não possam demonstrar, de fato, todo o seu potencial durante o processo seletivo.

Ou seja, assim como no caso da Amazon, milhares de pessoas que poderiam contribuir de diversas maneiras para o crescimento da empresa são desconsideradas por causa dos vieses. Mesmo quando não deveria haver viés algum.

Se você gostou deste artigo sobre os riscos da I.A. no R&S, fale com nossos especialistas, conheça o Kenoby e elimine o viés dos seus processos seletivos!

Kenoby agora é Gupy

Agende uma demonstração com a melhor e mais inovadora plataforma de RH do Brasil

agendar uma demo (gratuito)