來自路透社的新聞顯示,根據(jù)美國政府周四發(fā)布的一項(xiàng)研究顯示:與白色人種相比,許多面部識(shí)別系統(tǒng)更容易識(shí)別有色人種,這可能將限制執(zhí)法機(jī)構(gòu)對(duì)面部識(shí)別技術(shù)的使用。
這項(xiàng)由美國國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)進(jìn)行的研究發(fā)現(xiàn),在進(jìn)行一種被稱為“一對(duì)一”匹配的特定類型的數(shù)據(jù)庫搜索時(shí),不少面部識(shí)別系統(tǒng)錯(cuò)誤地識(shí)別了非裔美國人和亞洲人的面孔,相較于白人,亞裔和非裔的人臉識(shí)別錯(cuò)誤率要高10到100倍。
該研究還發(fā)現(xiàn),在所有種族中,美洲原著民的假陽率最高;一對(duì)多匹配,非洲裔美國女性的假陽性率更高。非裔美國女性更容易在“一對(duì)多”配對(duì)中被錯(cuò)誤識(shí)別,這種配對(duì)可用于在刑事調(diào)查中識(shí)別感興趣的人。
雖然有些公司淡化了早期的技術(shù)偏見,即可以猜測一個(gè)人的性別的技術(shù)偏見,也就是所謂的“面部分析”,但NIST的研究也發(fā)現(xiàn)了一個(gè)問題,證明了面部匹配很難跨越種族障礙。
算法正義聯(lián)盟的創(chuàng)始人喬伊·布拉姆維尼(Joy Buolamwini)稱,該報(bào)告是對(duì)人工智能(AI)偏見不再是問題的全面反駁。 這項(xiàng)研究是在美國對(duì)面部識(shí)別技術(shù)越來越不滿的時(shí)候進(jìn)行的,批評(píng)者警告說,這可能導(dǎo)致可能導(dǎo)致不公正的騷擾或逮捕。
在這份報(bào)告中,NIST對(duì)來自99個(gè)開發(fā)人員的189種算法進(jìn)行了測試,不包括亞馬遜等沒有提交算法供審查的公司。它所測試的內(nèi)容與這些公司所銷售的內(nèi)容有所不同,因?yàn)镹IST研究了與云分離的算法和專有培訓(xùn)數(shù)據(jù)。
該報(bào)告還表示,不同國家開發(fā)的算法表現(xiàn)不同。美國開發(fā)的算法中,亞裔、非裔和土著的錯(cuò)誤率很高;亞洲開發(fā)的算法中,白人和亞洲人的錯(cuò)誤率差距較小。不過,在NIST的一次測試中,中國某家市場估值較高的人工智能初創(chuàng)企業(yè),有比較的誤匹配率都很高,其算法在查看索馬里男性的照片時(shí),產(chǎn)生假陽性的幾率超過10%。如果部署在機(jī)場,這將意味著一個(gè)索馬里人可以通過海關(guān)檢查,每10次他使用其他索馬里人的護(hù)照。但來自中國的另一家AI初創(chuàng)公司依圖的面部識(shí)別更為準(zhǔn)確,基本不存在種族偏見。
在“一對(duì)多”測試中,在某些情況下,微軟對(duì)有色女性的誤報(bào)率幾乎是有色男性的10倍。在僅使用黑白男性照片的一對(duì)多測試中,其算法幾乎沒有差異。微軟表示正在審查報(bào)告,且沒有發(fā)表任何評(píng)論。
此外,該研究還發(fā)現(xiàn),老年人和兒童更容易被識(shí)別錯(cuò),女性比男性容易被識(shí)別錯(cuò)。中年白人準(zhǔn)確率最高。
美國眾議院國土安全委員會(huì)主席,本尼·湯普森表示,在海關(guān)官員在旅行檢查站增加面部識(shí)別的時(shí)候,偏見的發(fā)現(xiàn)卻比人們所擔(dān)心的還要糟糕。
在不少美國人看來,面部識(shí)別技術(shù)出錯(cuò)率以及方式過于頻繁,一開始就存在偏差,總體而言是不可靠的。此外,盡管面部識(shí)別技術(shù)正在不斷進(jìn)步,其識(shí)別準(zhǔn)確度也在不斷提高,但隱私問題和道德問題,已逐漸成為面部識(shí)別技術(shù)急需解決的問題。
在美國,不少政府已經(jīng)禁止了面部識(shí)別技術(shù)的使用,而基于這些令人震驚的結(jié)果,聯(lián)邦政府政府必須重新評(píng)估其面部識(shí)別技術(shù)計(jì)劃?!?/p>
(本文編譯自外網(wǎng),內(nèi)容尚有增減)