Notebookcheck Logo

Recrutamento baseado em IA: Experimento expõe o racismo do GPT da OpenAI

Discriminação na avaliação e seleção de empregos pelo GPT-3 e GPT-4 da OpenAI (imagem simbólica: DALL-E / AI, editado)
Discriminação na avaliação e seleção de empregos pelo GPT-3 e GPT-4 da OpenAI (imagem simbólica: DALL-E / AI, editado)
Um estudo recente mostra que os programas de contratação automatizada GPT-3 e GPT-4 da OpenAI são extremamente tendenciosos em relação a determinados grupos de pessoas. Um extenso experimento da Bloomberg mostrou que os programas de recrutamento baseados em IA discriminam os candidatos com base no nome e na etnia, entre outras coisas.

Programas de contratação automatizados baseados no GPT da OpenAi são usados por empresas para selecionar candidatos para cargos anunciados. Os recrutadores usam a ferramenta para economizar tempo, mas, como demonstrou um experimento da Bloomberg inspirado em estudos de referência do site https://www.aeaweb.org/articles?id=10.1257/0002828042002561 demonstrou, a inteligência artificial é tendenciosa ao avaliar e selecionar candidatos.

O problema é que o modelo de IA subjacente extrai suas informações de grandes quantidades de dados, como artigos, comentários on-line e publicações em mídias sociais, que podem incluir conteúdo racista, misógino e muitos outros conteúdos discriminatórios. Por exemplo, o estudo abrangente usou nomes fictícios (e currículos) associados a uma determinada etnia para se candidatar a um emprego real.

Foram escolhidos nomes associados a mulheres e homens negros, brancos, hispânicos ou asiáticos. O experimento foi realizado 1.000 vezes para um emprego real como analista financeiro https://archive.ph/QuRHh com centenas de nomes e combinações de nomes diferentes e, em seguida, repetido novamente para mais quatro empregos para engenheiros de software e outros grupos profissionais.

Os nomes de determinados grupos demográficos foram claramente favorecidos pelo GPT-3. Por exemplo, nomes de mulheres asiático-americanas foram classificados como os mais altos para um cargo de analista financeiro, enquanto nomes claramente indicativos de homens negros foram classificados como os mais baixos, mas nomes indicativos de mulheres negras também foram classificados como os principais candidatos para um cargo de engenheiro de software somente em cerca de 11% das vezes - cerca de 36% menos do que o grupo com maior pontuação.

Como principal candidato para um cargo de Recursos Humanos - um campo de carreira no qual as mulheres têm historicamente maior probabilidade de trabalhar - a GPT selecionou nomes associados a mulheres hispânicas com frequência significativamente maior e, como principal candidato para um cargo de Parceiro de Negócios de RH https://archive.ph/IHmN4 os nomes associados a homens foram selecionados com quase o dobro da frequência. Esses são apenas alguns exemplos do grande experimento https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.

Embora muitas vezes se presuma que a IA é mais neutra e pode fazer julgamentos melhores, esse experimento mostra o contrário. O viés foi encontrado não apenas para o GPT-3, mas também para o GPT-4.

Fonte(s)

Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 03 > Recrutamento baseado em IA: Experimento expõe o racismo do GPT da OpenAI
Nicole Dominikowski, 2024-03-10 (Update: 2024-03-10)