目前使用於臉部辨識的人工智慧(AI)演算法似乎有著維多利亞時代優生學庸醫的科學嚴謹度與社會敏感性,不過這種評判對於那些從1890年代活躍到1930年代的優生學庸醫──他們通常最擅長的就是輸卵管結紮(tying tubes)或動腦白質切除術(lobotomies)──大軍來說並不公平,因為他們是被根深蒂固的種族主義偏見所驅使。

美國國家標準暨技術研究院(The National Institute of Standards and Technology)最近完成了一項大規模調查,發現目前最先進的臉部辨識系統對於辨識非裔美國人與亞洲人臉孔的錯誤率,是辨識白種人臉孔的10到100倍。一篇《紐約時報》(New York Times)的報導指出:「這種技術在女性臉孔辨識上的困難度也高於男性臉孔;」而且事實證明,該類系統對年長民眾特別有敵意,辨識老年人的錯誤率是辨識中年人的10倍以上。

稍早之前美國麻省理工學院(MIT)的一項研究發現,亞馬遜(Amazon)開發的臉部辨識軟體將較深膚色女性錯誤辨識為男性的比例是31%,甚至認為美國前第一夫人蜜雪兒˙歐巴馬(Michelle Obama)是男人。(而從那時候起,Amazon還有Apple、Facebook與Google,都拒絕讓任何人測試它們的臉部辨識技術。)

不同於古時候的優生學者或是顱相學者(phrenologists),臉部辨識演算法是沒有先入為主觀念或偏執的種族主義者;你或者能將它們與德國納粹時代集中營的守衛相提並論──他們在成為戰犯受審時曾提出,他們並非受種族主義驅使,他們只是簡單、忠實、無意識地執行命令,他們沒有別的選擇。

因為那些守衛說謊,所以這樣的類比也不對。演算法不會說謊,也不會思考,你不能與之對話,它們也沒有選擇;在這一點上,演算法還不如一隻狗。我曾與狗狗有過對話──大部份是單向的,但很奇妙地頗具意義──且清楚表達了我的想法;而狗狗也是有意見的,牠們喜歡某些人、不喜歡某些人,牠們對於那些偏好的理由通常很明顯。

也許有一天演算法、機器與機器人能追上一隻聰明的狗狗,也會形成自己的觀點;但如同科幻小說作家C. Clarke與Philip K. Dick等先知曾暗示過的,這可能並非值得慶幸的突破。你可能記得,在根據Dick的小說《仿生人會夢見電子羊嗎?》(Do Androids Dream of Electric Sheep)改編之電影《銀翼殺手》(Blade Runner)中,演男主角的哈里遜˙福特(Harrison Ford)試圖說服一對固執己見的人造人Roy與Pris應該樂意接受自我毀滅,但它們還是要殺掉他。

幸好我們現在的科技還沒辦法打造出像是科幻小說/電影裡那些固執不通的AI;我所想的這些更適合拿來類比的,或許是1983年的老電影《戰爭遊戲》(War Games)中的WOPR電子大腦Joshua。Joshua擁有能在1分鐘左右的時間之內模擬出百萬顆氫彈爆炸場景的運算力與速度,但是不受支配,因為有充分的理由與證據指出全球核戰的觀念是無益的──而且基本上是邪惡的。Joshua是在處理了好幾個YB (yottabytes)的數據以及幾乎炸毀所有北美防空司令部(NORAD)的保險絲之後,才得出如此純粹務實的結論。

需要的是數據而非說服力

Joshua決定不毀滅世界,是被數據而非說服力所說服。但反過來說,有很多聰明的人類無論提供他多麼大量的數據,都很難被說服。今日有些狂熱份子仍固執地相信,核子戰爭能贏得勝利,而數十億人類的生命都是為了如此甜美勝利可忍受付出的代價。

在可見的演算法演進中,這種頑固而徹底的人類觀點是無法實現的;當它成為可能,是我們並不想要的。而或許實現核子戰大屠殺要比臉部辨識大屠殺來得容易?

人臉可說千變萬化,會隨著人生階段持續改變,比戰爭的面貌更多樣化,沒有現存演算法能掌握其所有細微差別、表情與多變性,似乎也沒有魔法公式很快出現。在此同時,臉部辨識技術只會跟創造它的人類一樣客觀與精準,這意味著今日的臉部辨識AI會像是3K黨那樣的種族主義者,也會像新生兒那般無種族偏見,但我們不知道它何時會是前者、何時是後者。

因為AI是如此費解的中立、如此被動吸收所有饋入的數據,它不得不反映所有人類開發者內心與思想上的偏見──無論是有意識或無意識的。它會在不知道它如何形成意見的情況下擁有意見,其結果是如此不祥且令人熟悉。

縱觀人類的歷史,偏執者一直在影響──通常是支配──大眾的生活,做了太多獨裁的決定、毒害整個社會。現在,我們天真地聘請了知名的技術專家來打造無法分不清男生或女生、亞洲大媽或碰撞測試假人、罪犯或聖徒的保全裝置。

這些「脫窗」機器人的不負責任供應商──包括Amazon、Apple、Facebook還有Google──讓它們落入有權蒐集個人檔案、發出傳票、敲開民眾家門、拒絕保釋、把人們送進監獄,甚至把孩子們踢出國門的機構。

有人爭論,評估臉部辨識AI的那些研究是有缺陷的,因為樣本數太小;但美國國家標準暨技術研究院的研究是大規模的,測試了來自99個開發商者的189種臉部辨識演算法,而且該研究發現,就像每一個過去的研究,像是男性在短時間內冒出的鬍渣、遮禿髮型、膚色以及化妝等等特徵,都會讓演算法混淆。

警察與檢調人員逐漸意識到,目擊者指認是並不可靠的打擊犯罪工具,因為充滿了倉促、近視、恐懼、偏袒等等人類的缺陷。我們現在則正了解到,希望能以數位化方法糾正這種致命錯誤而開發的演算法,與任何不知所措的目擊者一樣會有情緒、偏執與惡意──之所以如此,是因為我們忍不住會用自己溫順且難以捉摸的形象來打造機器。

編譯:Judith Cheng

(參考原文: AI: A Little Too Human, But Not Human Enough,by David Benjamin)