如果我遇到某個眼睛有問題的人說我看起來像77歲,我可能會對他飽以「老」拳;就像任何一位到了某個年齡階段就自尊心變很強的女性朋友,我對這種事情也是非常敏感。

要是這種情況發生在面對面的接觸,我可能會瞪著那個笨蛋、暗地握緊拳頭,讓他知道我真的非常不爽;至少我知道那個我想扁的對象是誰…如果今天心情不錯,我可能還會放下身段問他為何認為我看起來像77歲。

但是,如果那個令人發火的對象不是個人呢?如果那是一台機器,說我看起來像出生在美國總統羅斯福(Franklin Delano Roosevelt,通常以FDR為簡稱)第二任期(1937~41)那時候呢?這改變了一切…至少我這麼覺得。

本月稍早,我在日本看到一台名為「FieldAnalyst」的影像辨識系統,是日本大廠NEC在年度嵌入式技術大會(Embedded Technology 2016)上展示的;該系統採用瑞薩(Renesas)的晶片。

而就在我站在FieldAnalyst前面對著它拍照,我發現自己的影像被機器掃描到、還在螢幕上標示我是「77歲女性」──你可以想像我有多驚恐!

20161129 FieldAnalyst NT01P1


上圖可以隱約看到拿著相機的我,居然在FieldAnalyst影像辨識系統的螢幕上被標示為77歲女性

是因為我有眼袋嗎?在日本看展的那幾天,我因為時差還沒調過來以及忙碌的行程累得像狗一樣…還是因為我有幾根來不及染的白頭髮?我忍不住在心裡喊:「為什麼是我?為什麼是77歲?這台笨機器幹嘛跳出這種資訊?又沒人問它!!!」

如果我直接把以上問題全問出口,那台機器…或是某個負責機器展示的人,八成會給的答案是:「那只是個演算法,而且還不夠完美。」

好吧。從我的皮相不能判斷我真正的年齡,而我居然連個抱怨的對象都沒有…我該如何跟一個演算法爭論?我又該怎麼叫一台機器對它「程式編寫出的視力不良」負責?

如果開發那些機器的公司只是叫你別在意,那只是演算法...我又該怎麼回應?該怎麼討回公道?好像沒有能針對一個演算法的完美反擊,因為它根本感覺不到我怒了、連回個「糟糕」都不會…但在現今這個世界,我們已經被各種演算法包圍。

這些日子以來,機器幫我們做了很多的決策,它們知道我們想看什麼新聞、或是可能想買哪本書,Google地圖還知道我從A地到B地的最佳路線…或者試想,有些機器甚至能預測下一個可能暴力犯罪的嫌疑人。

還有,它們知道我幾歲…或者是認為它們知道。

身為EE Times的記者,我知道眾家科技業者包括Google、Facebook、Microsoft與Amazon,都在積極改善各種演算法;畢竟演算法就是王道,它們是科技業者的獨門武器,是讓他們的 各種服務與產品變得更聰明的關鍵。

但問題在於,我看不太出來有哪家公司會對他們的演算法負責,更別說對於那些演算法如何被使用而謹慎考量;而且廠商們似乎會把演算法當成擋箭牌,對於演算法所做的、或是沒做到的,只會把責任推給演算法本身。

美國非營利新聞機構ProPublica最近公佈了一系列實驗,揭開了許多「黑盒子」的秘密;什麼是「黑盒子」?該機構的記者表示:「當演算法會在瞞著使用者的情況下做決策,我們就叫它黑盒子…非內行人不可能知道黑盒子裡面發生什麼事。」

「黑盒子」就在你身邊…

ProPublica所做的一系列報導中,最引人注意的內容之一,是指出Facebook的廣告主可以在發佈房地產廣告時,排除特定種族對象(https://www.propublica.org/article/facebook-lets-advertisers-exclude-users-by-race);而這違反了美國聯邦反歧視住居法規。

總之利用一種稱為「種族偏好(Ethnic Affinities)」的設計,Facebook讓廣告主能在發佈售屋廣告時,瞄準或是排除特定使用者族群;ProPublica表示,Facebook還特別推出排除非裔、亞裔、拉丁美洲裔美國民眾的廣告專案。

演算法是實用的工具,但到底誰有看到它們是如何被使用的?

而自剛結束的美國總統大選期間,Facebook就一直飽受抨擊;有人指出,Facebook上充斥的假消息或是不實留言,可能直接影響了大選結果,甚至連Facebook創辦人Mark Zuckerberg將出任美國國務卿的傳聞都有…

雖然Zuckerberg一開始反駁了上述抨擊,他仍在日前於自己的Facebook頁面上貼出了留言(https://www.facebook.com/zuck/posts/10103269806149061),簡短敘述了Facebook正在考量對策,以解決該問題;雖然他並未有任何結論,但提及的可能方案包括更嚴格的檢測、第三方認證,以及對假新聞求償等等措施。

顯然對Facebook來說,打擊假訊息這個問題非常重要;我個人很讚賞Zuckerberg願意分享他的看法,但身為一位記者,我仍對於Facebook無力在第一線抵擋假新聞感到沮喪。

這個難題的關鍵在於透明度,在「黑盒子」裡,Facebook的演算法到底能如何區別出假新聞?我們該如何知道Facebook的「嚴格檢測」引擎是否內含自己的偏見?當任何一家公司要開始自己進行審查,他們就有責任解釋他們會如何進行,以及審查的對象與內容為何。

而說到有哪家公司有權力替我們做決定,我想應該沒有人會出聲;當有人再把責任推給網路空間看不見的「黑盒子」,說「那只是個演算法」,我們不該再只是聳聳肩膀,我們應該要求一個比「我的作業被狗狗吃掉了」更好的答案!

編譯:Judith Cheng

(參考原文: The Algorithm Ate My Homework,by Junko Yoshida)