黑人女性報錯率比白人高20%,面部識別系統為何不能一視同仁?

情感導師 6375

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

大數據文摘出品

編譯:李琳、橡樹_Hiangsug

面部識別系統流行於九十年代早期,當時美國國防部希望發明一種可以發現偷渡邊境的不法分子的識別技術,為此投入了大量研究。

2001年初,在坦帕(Tampa)舉行的第35屆超級碗(Super Bowl)比賽中,執法部門首次在公共場所使用面部識別技術,在數千名觀眾中搜尋罪犯和恐怖分子。不久之後,美國的其他敏感地區也安裝了面部識別系統,以跟蹤犯罪活動。

黑人女性報錯率比白人高20%,面部識別系統為何不能一視同仁?

然而,美國政府的研究卻表明,即使是最先進的面部識別系統在識別黑人時的錯誤率也要比識別白人時高出十倍。

即便是最先進的算法,在檢測黑人時還是更容易出錯

法國公司Idemia的面部識別算法被用於識別數以百萬的人臉。美國、澳大利亞和法國的警方都是這家公司的客戶。Idemia的軟件被用於識別曾在美國海關和邊境保護局留下負面記錄的旅客。2017年,一位FBI高層在向報告國會的報告中稱掃描了三千多萬人臉的Idemia技術對「保護美國人民的安全」大有幫助。

然而,Idemia的算法並不能總是公平清晰地對所有面部進行精準識別。美國國家標準技術研究所(National Institute of Standards and Technolog, 簡稱NIST)的測試結果表明,相較於白人男性和女性,即便是Idemia最先進的算法,在檢測黑人時還是更容易出錯。

NIST利用同一個人的兩張照片對算法進行了測試,過程類似海關工作人員查驗護照的流程。在敏感性上,Idemia的算法識別白人女性人臉的出錯率是萬分之一,識別黑人女性人臉的出錯率則是千分之一——比前者高了十倍。

而萬分之一的出錯率通常是被用於評估評價面部識別系統的標準。

美國公共安全部在Idemia的負責人Donnie Scott表示,NIST所測試的算法並未投入商用,並且,公司在產品開發的過程中會進一步檢測人口差異。他認為,(測試白人和黑人時)結果上的差異性,很可能是由於開發測試工程師在測試過程中一味追求接近NIST期待的正確率,「人與人之間有生理差距,但算法會在識別不同人群方面取得進步」。

計算機視覺算法從未在識別人臉上表現得如此出色。NIST去年表示,在2010年至2018年間,最好的算法在大型數據庫中找到一個人的能力提高了25倍,只有0.2%的情況下沒有找到真正匹配的人。這使得面部識別算法得以被投入大範圍的使用,包括政界、商界以及手機應用(如蘋果的面部識別解鎖)。

然而,包括NIST的測試,以及其他的各類調查研究都表明,算法在識別深膚色人群時更容易出錯。

在調查了50多家相關公司之後,NIST在七月的報告中指出,很多面部識別方面的頂級公司算法都有和Idemia類似的「識別黑人時出錯率高十倍」的問題。

NIST發布了自2017年初以來的面部識別系統人口測試統計調查報告結果,除了人種問題,該機構還發現系統在識別女性上比男性更加困難,部分觀點認為是女性化妝所致。

報告表明,白人男性在人口統計結果上識別錯誤率(false match rate, FMR)最低,而黑人女性FMR為最高。

NIST計劃在今年秋天發布另一詳細報告,將對面部識別技術在面對不同人口族群時的性能測試結果做出詳細闡述。NIST的研究被認為是評估面部識別算法的最高標準,所以在報道中獲得高評價的公司可以獲得強大的背書。

Idemia 在今年三月份舉行的發布會上表明,比起同類產品,在服務美國聯邦政府客戶上,該公司的軟件表現更佳。

相較白人面孔,許多面部識別算法更容易混淆黑人面孔。每個圖表都代表了NIST測試的一種不同算法。圖表最上方的紅色實線表明,算法對於黑人女性人臉的錯誤率高於其他種族。

美國國土安全部(DHS) 同樣發現識別深色皮膚人群是商用面部識別系統面臨的一項大挑戰。二月,DHS發布了十一家被用於識別身份的商用面部識別系統的調查結果,結果表明系統的表現和膚色相關,系統通常需要更長的時間來處理皮膚較深的人,而且識別它們的準確性較低。

民權人士希望禁止政府使用該技術

政府回應了來自ACLU和MIT的研究者於2018年所進行的旨在公開警惕該技術的關鍵研究。調查指出:亞馬遜,微軟和IBM的算法在以深膚色人群為對象時出錯率更高。

這些研究結果引發了有關面部識別系統是非功過的國民討論。一些民權人士,立法者和政策制定者希望能禁止政府使用該技術。

他們擔心的主要問題包括隱私安全問題、政府和國民間的權利平衡問題以及系統在處理結果上的種族差異問題。而一些評論家表明,即使面部識別系統對所有種族「一視同仁」,也仍然有禁止這項技術的理由。

儘管相關討論仍在膨脹,面部識別系統已經在許多聯邦、洲和地方政府的各個部門推行使用,而這個範圍還將持續擴大。美國政府在邊檢以及搜捕非法移民時都會使用這項技術。

面部識別系統的種族差異會影響治安維護

今年初,洛杉磯警方處理了一起入室搶劫並槍擊傷人的案件,兩名嫌疑犯一名被捕一名逃逸。而警探用一張嫌犯的在線照片搜索了洛杉磯治安官辦公室運營的嫌疑犯面部識別系統,最終確定了嫌犯身份。

治安官辦公室的Lieutenant Derek Sabatini認為這起案件表明了現在正被五十多個縣機構所使用、保存了一千二百萬犯罪者檔案的面部識別系統的價值。Sabatini表明,警探沒辦法像系統那樣快速鎖定犯罪者。「誰知道人力要花多久,如果那樣的話我們說不定就抓不住嫌犯了。」

上述洛杉磯地區的系統建立在由Congnite提供的面部匹配算法上。類似Idemia,這家德國公司為全世界的政府機構提供面部識別系統。而和Idemia一樣,NIST的測試結果表明Cognite的算法在檢測女性和有色人種時的出錯率更高——Cognite的兩個算法在掃描白人女性時的錯誤率是萬分之一,而掃描黑人女性時的錯誤率要高五倍。

Cognite算法部門的總監Thorsten Thies承認了算法在面對不同膚色人群時的差異性,但表示這種差異性不好解釋。其中一個原因可能是「為深膚色人群拍一張好的照片相對於白人較難」。不管背後的原因是什麼,在結果上扭曲的算法必然導致治安維護上的種族差異。而Sabatini表明,治安官們在會謹慎認真處理測試結果,並會在採取行動之前找尋更多支持證據。他說「我們從2009年開始使用這套系統,從未遇到任何問題。沒有官司,沒有錯斷,沒有投訴」。

有關面部識別系統與種族問題的擔憂並非忽然發生。早在2012年,FBI高級面部識別專家合著的研究論文就表明了商用面部識別系統在識別黑人和女性時的出錯率更高。

喬治城大學的研究者在2016年的一項有影響力的報告中指出FBI可以搜尋將近一半以上的美國人口的面部數據。當面部識別系統的使用更加頻繁時,這項技術所帶來的問題也更加受人關注,而政策制定者們更傾向於限制這項技術。在反對的聲音中,MIT的研究員、社會活動家Joy Buolamwini特別具有影響力。

2018年年初,Boulamwini和其同事,AI研究者Timnit Gebru表明微軟和IBM從照片中識別性別的服務以膚色偏白的男性為對象時表現幾乎完美,而當對象為黑人女性時出錯率則高出百分之二十。

其後的一項研究發現亞馬遜的服務也有類似的問題。而亞馬遜在一篇語氣激烈的文章中形容該研究「有誤導性」,解釋結果是由於面部分析系統進行面部識別任務時,由於系統的使用目的不同,兩種系統所提取的特徵不同,自然會導致系統的測試性能「顯得」不佳。

Boulamwini是今年五月監督和改革委員會的主要見證人之一。會上,立法者們表示出兩黨對規範面部識別技術的極大興趣。主席Elijah Cummings (馬里蘭州) 表示,測試結果中的種族差異加劇了他對2015年巴爾的摩抗議活動中警察如何使用面部識別系統的擔憂,案件中警察拘留了一名黑人弗雷迪格雷。之後Jim Jordan(俄亥俄州)表示國會應該對政府使用這項技術「做出行動」。「如果面部識別系統出錯並且給非裔美國人以及有色人種帶來負面影響,在我看來,這就是對美國第一憲法修正案以及憲法修正案第四條的直接違反」。

為什麼面部識別系統識別深色人臉時出錯率更高

為什麼面部識別系統在辨別有較深膚色的人臉時出錯率較高的原因仍不明確。Boulamwini 告知國會,企業所使用的訓練面部識別系統的數據庫也許並不具有足夠的代表性。最簡單且能收集到大量人臉數據的地方是網絡,而網絡上充斥着西方的、白人的、男性的面部圖像。IBM的一篇評論文章指出,最經常被學術研究所引用的的三個人臉數據庫中,有高於百分之八十一的人有着淺色的皮膚。

而負責NIST的測試,在面部識別領域廣為人知的Patrick Grother表明還有其他原因也會造成系統識別深色皮膚變得更加困難,其一便是照片質量。從彩色膠片時代到數碼時代,照相技術一直都會優化膚色較淺的人拍出的圖像。在十一月的一個會議上,他還指出了另外一個具有挑釁性的假設——黑人的面部趨向於有更高的相似性。「在基因學上,不同的種族在外觀上會有不同。」

佛羅里達理工學院的副教授Michael King則無法對此表達確定:「這一點問題我們還沒辦法進行討論。因為我們的研究還沒有進行到那一步。」這位研究者此前曾為美國情報部門做過包括面部識別技術的相關工作。

King的最新研究與FIT以及聖母大學的研究者合作,調查了面部識別系統在面對不同種族時的差異性,並對此提出了解決方案。

他們的研究用53000張犯罪檔案照片測試了包括兩個商用和兩個開源系統在內的四個面部識別系統。結果表明,將一個人認成另一個人的識別錯誤對於黑人來講更加普遍,而對於白人人臉來說無法識別系統中已有的犯罪者的資料的幾率更大。相比起白人,無法達到ID照片標準的黑人的照片數量更多,但只憑這一點無法解釋系統偏差。

只有變更靈敏度設定才能讓測試結果一樣

研究者們發現,只有變更靈敏度設定才能使得白人和黑人的測試結果一樣。但是這一操作方法不太可能在實驗室外實施,因為讓警探在面對不同種族的對象時使用不同的敏感度設定本身就有歧視的危險,並且可能會導致種族問題上的官司糾紛。

當King和其他研究者認真地在實驗室里探尋算法的秘密時,關於面部識別技術的政治鬥爭正在緊湊進行着。考慮到該技術在對象為少數族群時的出錯率,兩黨的國會議員都作出了會限制面部識別技術使用的承諾。本周二,奧克蘭成為了繼薩默維爾,馬薩諸塞和舊金山之後第三個禁止其公共機關使用面部識別技術的美國城市。而King表示,使得面部識別技術能夠公平地識別所有種族對象的研究會按照自己的步調進行。他說「使得系統在處理所有種族時的正確率一致,或者是發掘這種可能性,都會是一個長期的目標」。

相關報道:

https://www.wired.com/story/best-algorithms-struggle-recognize-black-faces-equally/?verso=true

評論列表

頭像
2023-10-27 21:10:52

我一閨蜜諮詢過,很專業也很靠譜,是一家權威諮詢機構

頭像
2023-06-09 07:06:24

如果發信息不回,怎麼辦?

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

發表評論 (已有2條評論)