面部識別對黑人錯誤率較高,人工智能有搞“種族歧視”嗎?

亞裔女性的膚色普遍偏白,更高的反光度更強造成了面部成像的對比度下降,造成了識別度偏低。而“黑人”的膚色偏黑,吸收了更多的光,同樣造成了識別困難。

(本文首發于2021年10月14日《南方周末》)

責任編輯:陳斌

優步公司在英國又“攤上大事”了。這事大致上是這樣的:公司要求員工把自拍照上傳到人事系統,與系統存儲的參考照片進行匹配。如果匹配不成功,那么系統會提示員工實時自拍,并面臨解雇風險。而員工一旦被解雇,也將面臨被自動吊銷其私人出租司機和車輛執照的處罰。這樣的倒霉事在兩位優步前員工身上發生。

這本來是一起普普通通的勞資糾紛。但是,英國工會可不會那么輕易放過這樣的機會,訴訟的理由中赫然出現了“種族歧視”。

因為據一些技術人員和相關組織稱,“面部識別系統……天生就有缺陷,對有色人種進行識別時準確度會變得很差”。涉及“種族”,事件性質立刻升級到“種族歧視”的高度了,技術問題升級為政治問題,敏感度倍增。

其實,人工智能面部識別系統對有色人種的識別精度不佳,不是新問題。2015年,谷歌就鬧過笑話。一名黑人軟件開發人員在Twitter上說,谷歌照片服務把他和一個黑

登錄后獲取更多權限

立即登錄

網絡編輯:思考

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址