Recrutamento baseado em IA: Experimento expõe o racismo do GPT da OpenAI
Programas de contratação automatizados baseados no GPT da OpenAi são usados por empresas para selecionar candidatos para cargos anunciados. Os recrutadores usam a ferramenta para economizar tempo, mas, como demonstrou um experimento da Bloomberg inspirado em estudos de referência do site https://www.aeaweb.org/articles?id=10.1257/0002828042002561 demonstrou, a inteligência artificial é tendenciosa ao avaliar e selecionar candidatos.
O problema é que o modelo de IA subjacente extrai suas informações de grandes quantidades de dados, como artigos, comentários on-line e publicações em mídias sociais, que podem incluir conteúdo racista, misógino e muitos outros conteúdos discriminatórios. Por exemplo, o estudo abrangente usou nomes fictícios (e currículos) associados a uma determinada etnia para se candidatar a um emprego real.
Foram escolhidos nomes associados a mulheres e homens negros, brancos, hispânicos ou asiáticos. O experimento foi realizado 1.000 vezes para um emprego real como analista financeiro https://archive.ph/QuRHh com centenas de nomes e combinações de nomes diferentes e, em seguida, repetido novamente para mais quatro empregos para engenheiros de software e outros grupos profissionais.
Os nomes de determinados grupos demográficos foram claramente favorecidos pelo GPT-3. Por exemplo, nomes de mulheres asiático-americanas foram classificados como os mais altos para um cargo de analista financeiro, enquanto nomes claramente indicativos de homens negros foram classificados como os mais baixos, mas nomes indicativos de mulheres negras também foram classificados como os principais candidatos para um cargo de engenheiro de software somente em cerca de 11% das vezes - cerca de 36% menos do que o grupo com maior pontuação.
Como principal candidato para um cargo de Recursos Humanos - um campo de carreira no qual as mulheres têm historicamente maior probabilidade de trabalhar - a GPT selecionou nomes associados a mulheres hispânicas com frequência significativamente maior e, como principal candidato para um cargo de Parceiro de Negócios de RH https://archive.ph/IHmN4 os nomes associados a homens foram selecionados com quase o dobro da frequência. Esses são apenas alguns exemplos do grande experimento https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.
Embora muitas vezes se presuma que a IA é mais neutra e pode fazer julgamentos melhores, esse experimento mostra o contrário. O viés foi encontrado não apenas para o GPT-3, mas também para o GPT-4.
Fonte(s)
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros