人臉識別種族偏見:黑黃錯誤率比白人高100倍
2019年12月21日18:48

原標題:人臉識別種族偏見:黑黃錯誤率比白人高100倍

賴可 發自 亞龍灣

沒錯,美國人臉識別系統最愛的是:白人中年男性

其他非裔、亞裔族群,識別率就沒那麼高了。

這週四,美國NIST發佈的研究報告給出了這樣的結果。

甚至在一些算法中,亞裔和非裔美國人被誤認的可能性比白人高100倍。

對於一向“政治正確”先行的美國,可想而知該結果帶來的“爆炸性”。

還有一個有趣的結果,像來自商湯、曠世這樣的亞洲算法,白種人和黃種人之間的誤判差距就小一些。

美國官方機構權威檢測

這項研究由美國國家技術標準研究院NIST進行,檢查了人臉識別軟件在不同種族、性別、年齡上是否有差異。

研究檢查了由99家公司,學術機構和其他開發人員自願提交的189種算法。包括了大多數業界領先的系統,來自主要的技術公司和承包商,包括Idemia,英特爾,微軟,Panasonic,商湯和 Vigilant Solutions。

亞馬遜沒有提交檢查,CNN Business從NIST處得知,亞馬遜認為自己的軟件和該檢測不相容。亞馬遜的人臉識別軟件Rekognition出售給了俄勒岡州警方,用於嫌疑人追蹤。

量子位查閱這次提交檢查的公司名單,發現沒有Google

曾經有黑人兄弟發現自己被Google的算法識別成”大猩猩“,Google公司的整改方法是:把識別類別中的”大猩猩“去掉了。(可戳量子位之前的文章:為了不把黑人兄弟認作大猩猩,Google的算法連真的大猩猩都不認識了)

檢測結果

1、在一對一匹配中,相較於白人,亞裔和非裔的人臉識別錯誤率要高10到100倍。(不同算法不同)

2、在所有種族中,美洲原著民的假陽率最高;一對多匹配,非洲裔美國女性的假陽性率更高。

3、年齡和性別因素。老年人和兒童更容易被識別錯,女性比男性容易被識別錯。中年白人準確率最高。

4、不同國家開發的算法表現不同。美國開發的算法中,亞裔、非裔和土著的錯誤率很高。亞洲開發的算法中,白人和亞洲人的錯誤率差距較小。

“偏見”還有長尾影響

根據人臉識別的使用場景和功能,檢測分為一對一匹配和一對多匹配:

一對一匹配一般用於手機人臉解鎖或護照檢查。

一對多匹配用於確定某張照片是否在一個數據庫中有匹配項,經常用於警察搜索嫌疑人。

一對一匹配出現錯誤可能會導致人臉無法解鎖,給生活帶來麻煩。但是一對多匹配的錯誤可能後果更嚴重,就會讓警察把無辜的人列入嫌疑名單。

這份報告的主要作者Patrick Grother表示,

我們研究的大多數面部識別算法中都存在人口統計學差異的證據。儘管我們不探原因,但這些數據對於決策者、開發人員和最終用戶在考慮這些算法的局限性和適當使用方式時將是有價值的。

這不是第一份研究顯示出人臉識別帶有偏見

例如,去年MIT實驗室的一項研究也得出了類似的結果。

凡遇到膚色較暗的人種以及女性,識別的錯誤率就增加。

亞馬遜等公司之前批評了這些研究,稱這些研究使用了過時的算法,或者是系統使用不當。

在美國一些地區,對於人臉識別已有禁令

舊金山、奧克蘭以及馬薩諸塞州的兩個城市薩默維爾和布魯克萊恩,在今年已通過了禁止公職人員使用面部識別的條款。加利福尼亞州禁止在警用鏡頭中使用人臉識別軟件。

這次研究結果,再次引起美國國會議員對於人臉識別技術的監管討論。他們要求川普政府重新考慮擴大人臉識別使用的計劃。

美國俄勒岡州的參議員Ron Wyden在一份聲明中說,

任何部署新技術的公司或政府有責任仔細檢查其產品是否存在偏見和歧視,至少要在軟件中徹底檢查是否有Bug。

網友討論:講倫理也要講技術現狀

有網友嚐試對”白人的正確率高“這一結果進行解釋。可能是白人的面部特徵差異(比如眼睛和頭髮的顏色)本身就比較大?

還有少數族裔的網友現身說法,講了自己被“人臉識別”喚醒“童年創傷”的故事:

在機場的CLEAR系統經常識別不出他,他不得不進入TSA Pre-Check。TSA檢查需要涉及背景和指紋檢查。這讓他重新經曆童年時期朋友和老師認不出他的痛苦。

即使現在,當咖啡師看著他想不起來他的訂單時,他依舊會體驗到激烈的情緒。

現在他知道這不是他的問題,而是他身上原住民血統的原因。

我們生活在一個充滿偏見的世界,而新技術的到來,會放大現實世界的偏見嗎?

參考資料

https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software

https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding-use/

https://edition.cnn.com/2019/12/19/tech/facial-recognition-study-racial-bias/index.html

http://gendershades.org/overview.html

更多新聞