科幻小說與影劇的情節有的以後成真,有人說是科幻是科學的未來 但有時候真的讓科幻成真嗎?Photo by Pixbay 2002 年好萊塢科幻大片「關鍵報告」(Minority Report),根據美國科幻作家菲利普·狄克小說改編,由史蒂芬·史匹柏導演,湯姆·克魯斯主演,故事是若干年後,警察局裡有三名特異功能的人,躺在水池裡互動,就能預測誰會是下一個犯罪的人,警察在他沒犯案之前先抓進警局,成為維繫社會安寧的最好辦法。有一天特異功能小組又發出有人要犯罪的消息,拿給飾演警察局長的湯姆·克魯斯一看,竟然是局長他自己,戲劇從此展開....。 現在是 AI 時代,透過機器學習、大數據分析,預測一個會犯罪的人,甚至更進一步用 AI 軟體相面,只要看一個人的臉,就可以知道會不會犯罪。美國賓州 Harrisburg 大學的 Nathaniel Ashby 教授,研究認臉技術,不是從臉部辨識這個人是誰,是從臉部辨識這個人會不會犯罪。這不是科幻,這是真的。 Ashby 教授說,這是從龐大警方的罪犯資料與生物特徵,經過深層的神經網路運算得到的結果,有 80% 的準確度,沒有任何族群偏頗,可以用來發展預防犯罪的工具用於警方與軍方,不會有偏頗與情緒的反應。當然現在僅是研究報告,並沒有發展成軟體,預備在 Springer 出版社一系列的下一本書中發表。消息傳出,立即遭到 AI 專家、教授、研究學者,以及跨領域的社會學家兩千多人,對出版社提出公開信,要求停止出版這樣的研究。 這些學者在信中說,預測犯罪的軟體最需要的是公平,而臉部辨識的技術本身就有很多瑕瑕,尤其對非白種人的辨識經常出錯。機器學習並非中性,所用的資料常被文化的傳統主導,無可避免的在演算法的設計上有所偏頗,以致發展出來的軟體造成社會階級,甚至對弱勢族群的暴力合理化。這封信很長,有三個論點: 一、從刑事司法系統取得的資料,不可以用作辨認罪犯,或預測犯罪的行為,因為「罪犯」本身就含有族群偏頗的潛在意涵,所以用任何方法發展出來的系統,都無法脫離族群偏頗的元素。(指少數族群常受執法不公對待) 二、技術上的「公平」被爭議多年,因為設計的學者多半沒有受過方法、架構、以及語言的訓練,以致不能在文化背景與內涵的假設上提出質疑,而倫理的公正,只能用數學定義的狹小範圍來權衡,以致無法伸張。 三、預測犯罪技術會再度製造冤屈,帶來真正的傷害。目前有越來越多的 AI 軟體在族群、階級、性別上顯示偏差,有用機器學習來放大傳統歧視的趨勢,產生新的技術倫理。如果把預測犯罪技術與現實的偏頗結合,所製造的歧視與傷害更可想而知。 這封信是學者寫的,有點學術語言,簡單的說就是美國運用 AI 在生活上出現偏差,入學、求職、貸款、升遷、醫保、乃至執法,所做的決定很多是靠電腦軟體,為了省事、也為了公平。但軟體是由人設計的,有意或無意的加入有失公允的變數,列如郵遞區號可能隱射族群、經濟能力、治安狀況,申請貸款如果居住在經濟能力較差的郵遞區號,就可能遭拒,這如果用在執法後果更可能不堪設想。 所以 AI 設計即使數學上公平,用在現實世界仍難免出現偏差甚至歧視,這一現象越來越為一些學者所詬病,現在又用不成熟的認臉技術,來捉捕未來的罪犯,只能說亂上加亂。 運用 AI 作為預測性的執法,全球學者都表示反對,日前一群美國數學家也寫了一封公開信,呼籲同僚不要做這樣的研究,除了認臉,也包括預測犯罪行動一類的軟體,尤其是最近發生的佛洛伊德事件,更應該拒絕與警察機構合作,因為這樣太容易給族群偏見覆蓋一件科學的外衣。 不算題外話的題外話,中國的相面之術由來已久,起源於氏族社會,成熟於春秋戰國,有「相由心生」的說法,心裡想的由相貌表現出來。以後更有「麻衣相法」,把人的五官、額頭、下顎、頭髮,都詳細列入相命,其中有「兩眼視物如針、此相不奸即盜」的命相,不知真假,Ashby 教授或有興趣研究一下中國的面相之術。 |