洪新恩/台大城鄉所碩士班
最近在通勤時,開始會找一些 podcast 來聽。美國脫口秀主持人 Conan O’Brien 的訪談 Conan O’Brien needs a friend 是我愛聽的節目之一。最近有天在節目開始,Conan 為他的團隊 Team Coco 的全新自製節目宣傳的創業實境秀 SMARTR。雖然他在第一集試播前就說明,這節目其實是有腳本的諷刺喜劇,不過我還是差點把節目當真,原因請看我的節目簡介(有部分節目雷,痛恨暴雷者請直接跳過下面一段)。
科技鉅子 Noa Lukas 選出有潛力的新創公司拜訪,並在與創辦人和公司高階主管討論後決定是否投資。第一集 Lukas 拜訪一間公司 Puel。Puel 的 app 能根據使用者需求選出附近最適合的泳池。創辦人兼 CEO Alex Patterson 向 Lukas 表示,Puel 一開始席捲全美,除了一些未成年青少年會趁機包下泳池喝酒狂歡外沒有太大問題。但後來 Puel 開始被質疑具有種族歧視的色彩。Patterson 辯解到自己或公司任何人都不是種族主義者,但 Puel 不斷接到投訴,造成一些泳池裡,全部或大部分的泳客是白人。Puel 於是開啟舉報機制,卻反而被白人至上主義者濫用,只要去到少數族裔比較多的泳池就舉報。Puel 逐漸因為違法民權法案中禁止種族隔離的要求而被美國多個州政府禁用。美國各地開始出現騷亂:3K 黨與白人至上主義者集結反對禁令,而反法西斯主義民權團體與少數族裔協會則集結於泳池外抗議。Patterson 向 Lukas 沮喪的說:他發現根本問題不是演算法有種族歧視,而是人們的種族歧視反映在演算法上。
後續我就不提,有興趣的人可以在參考資料點選這裡或參考資料的連結。
啊小時候電視上的阿嬤不是還驚嘆牛奶花生湯的花生是用電腦選的,電腦選的錯了嗎?
關於演算法可能造成的負面效應,讀者們可能都有一定的認識。諸如社群網站的各個同溫層因為演算法而加深加厚,減少對話的機會;又或是商家能從使用者搜尋的關鍵字推斷其偏好來下廣告,但使用者若不處處留意,常會在無意中洩漏不願意透露的私人資訊與偏好(絕不是指 P 什麼 B 的網站)。但關於演算法的偏誤,如種族、國籍、性別、社經地位等,相關研究近期才愈趨完整。
本週介紹的文章是美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)十二月份公布的研究報告。這份報告研究近兩百種的臉部辨識演算法,並研究這些演算法在一對一比對與一對多比對的準確度。一對一配對通常用於智慧型手的臉部機解鎖功能,或是讓海關查驗護照用,以一張照片配對同一人的另一張照片;一對多配對則是以一張照片在資料庫中尋找同一人的其他照片,通常使用於尋找特定人選。研究發現亞裔和非裔美國人的臉孔,在一對一配對上比白種人高出 10 到 100 倍的偽陽性誤判;而在一對多配對上,非裔美國女性錯誤率則偏高。因此開發人員和系統使用者應該了解這些系統的限制。

NIST 的研究顯示,目前市面上臉部辨識軟體的準確度,不同族群間的誤差差異極大。(credit: N. Hanacek/NIST)
演算法的誤判有兩種狀況:偽陽性與假陰性。偽陽性可能將不同人辨識為同一個人;偽陰性則是無法正確將同一個人的不同照片辨識為同一人。在一對一配對上,偽陽性可能會增加臉部辨識系統的安全性問題,因為系統可能允許非使用者本人使用或是存取系統;一對多配對的偽陽性,則可能牽涉錯誤的指控。
一對一配對中,尤其是美國開發的演算法,對亞裔、非裔美國人和美國原住民、太平洋島民後裔等的偽陽性誤判率特別高。其中最高的是美洲印第安人。但是由亞洲國家所開發的部分演算法,亞洲人和白種人在一對一配對上,辨識錯誤率差異不大。儘管 NIST 報告中沒有細探誤判發生的原因,但是演算法效能可能與訓練資料有很大的關聯。訓練資料愈多樣化,結果愈能趨於準確。
在二十一世紀第二個十年的尾聲,希望能釣出各位分享在自己的研究或專業領域中,演算法的不足可能造成的問題;也讓我們再思科技帶來的危機與挑戰。
參考資料:
- Team Coco Production 的(偽)創業實境節目 SMARTR (第一集免費試聽,也就是本文提到的 Puel)
- NIST 的研究報告介紹 NIST Study Evaluates Effects of Race, Age, Sex on Face Recognition Software。文中有報告全文的下載連結。
留言