6月16日, 新冠肺炎疫情期間,美國(guó)網(wǎng)絡(luò)面試需求激增,但應(yīng)聘者面對(duì)的不再是真人,而是AI面試官。AI面試官將分析應(yīng)聘者的表現(xiàn)來(lái)打分,然而這一舉措引發(fā)了專(zhuān)家對(duì)公平性的質(zhì)疑。
據(jù)美聯(lián)社報(bào)道,一些招聘軟件開(kāi)始提供視頻面試服務(wù)和人工智能評(píng)估工具。 有軟件甚至在其網(wǎng)站上吹捧自己衡量“候選人能否成功”的能力。
這些面試系統(tǒng)聲稱(chēng)可以為雇主節(jié)省資金,并且避免招聘人員的偏見(jiàn)并擴(kuò)大潛在候選人的范圍。許多人現(xiàn)在還使用人工智能分析候選人的言語(yǔ)來(lái)評(píng)估他們是否適合該職位。
但專(zhuān)家質(zhì)疑機(jī)器能否準(zhǔn)確、公正地判斷一個(gè)人的性格特征和情緒符號(hào)。專(zhuān)家表示,如果AI算法從種族和性別差異等偏見(jiàn)普遍存在的行業(yè)現(xiàn)象中獲取信息,那么該算法篩選候選人時(shí)很可能會(huì)植入這些根深蒂固的偏見(jiàn)觀念。尤其是當(dāng)計(jì)算機(jī)篩選出候選人又不給出任何解釋時(shí),人類(lèi)很難知道它是否做出了公平的評(píng)估。