幾十年前,我是美國媒體EE Times駐歐洲的外籍特派記者,當我不經意地表示對美國商業慣例的反感,認為這是對隱私權的侵犯時,一些產業分析師告訴我:「在美國,消費者願意用他們的個資來換免費的東西;」至於美國的隱私權保護,他們說:「火車已經過站很久了…」

還是這樣嗎?

自從歐盟在一年前推出《通用資料保護規則》(General Data Protection Regulation,GDPR),遵守GDPR的壓力已擴展到美國的資料平台業者,這些公司的業務覆蓋範圍實際上涵蓋全球。而且即使在美國本土,加州也在去年推出了《加州消費者隱私保護法案》(California Consumer Privacy Act,CCPA),該法案旨在強化對加州居民的隱私權和消費者權利保護,有人認為該法案比GDPR更強大;該法案將在2020年1月生效。

社會大眾對隱私權的重視正在美國迅速發酵。

美國消費者或許姍姍來遲,但他們正在醒悟放棄隱私所付出的代價。將個資留在Facebook、Google這樣的大型技術平台業者手中,這些公司可能會也可能不會做合乎道德的事情;美國人發現,當他們的個資被駭客入侵、竊取、買賣,甚至被可疑群體用來影響選舉結果時,他們幾乎是訴諸無門。

在大數據時代,隱私保護法規迅速成為任何數位安全對話的主要元素;對於那些將業務建立在消費者個資之上的公司,消費者的信任正演變為其商業模式的重要組成部分。但相較之下,人工智慧(AI)的「公正性」(fairness)仍處於我們在20年前討論隱私權時的狀態,它還沒有上升到許多人的意識層面,至少目前還沒。

我意識到在工程領域,許多人認為「公正性」是模糊、令人不快的議題,在他們看來,這與他們在技術開發和軟/硬體設計方面的工作無關。

是這樣嗎?

EE Times在最近推出的一個AI專題報導中討論了AI的公正性,但有些讀者認為那應該是「社會工程」(social engineering)的範疇。

許多那一類的評論認為,這暗指工程師會被要求去操控技術(或遊戲演算法、資料集),為「政治正確性」(politically correctness)改變機器學習的結果;而「政治正確性」和「公正性」一樣,是有著預設立場的一個詞。

事實遠非如此。

被AI解雇或被AI殺死

真正的問題是「偏見」(bias),這裡指的是那些可能會扭曲機器學習結果的資料集偏見,而這種偏見透過訓練演算法的最佳化策略又被進一步放大。

想想那些不完整的資料集,例如忽略了坐輪椅的人、忽略了穿著綠色螢光夾克的建築工人們;基於這些資料集被訓練的AI演算法可能會像打保齡球那樣撞倒一群建築工人,讓坐輪椅比騎獨輪車更危險。

在這些案例中,AI的不準確性最終可能賠上人們的寶貴性命,顯然AI的機器決策未公正對待對那些穿螢光綠夾克和坐輪椅的人。

市場對AI趨之若鶩,因為各家企業都在尋求自動化其特定業務的方法;在尋求自動化方案的過程中,我們開始有意或無意地屈服於機器,涵蓋整個決策範圍。AI涉及的工作包括人事管理、信用評等、客戶服務,甚至是駕駛。

要充分了解何謂 AI 的「不公正」,你需要想像自己是機器決策觸發之壞消息的受害者。

如果某個 AI 演算法做出針對某個年齡層員工進行裁員的決策,這些倒楣的員工有權質問AI為什麼丟飯碗的是他們;他們可能還想知道,他們的雇主所依賴之AI系統是否在不知不覺間被設計為不公平對待某個年齡層。

一旦感覺到受了機器的委屈,你可能會很抓狂,甚至可能比被一個你知道是混蛋的人類老闆炒魷魚更不爽。

演算法也會是個混蛋嗎?

不透明的演算法

這個問題暴露了一個令人不安的現實──每套AI演算法都是一個黑盒子,沒人知道演算法在做什麼,無論是Facebook這樣的社交網路巨擘使用的演算法,還是Waymo自動駕駛車輛使用的演算法,這使得這個大無畏的新AI時代之一切,都變得不透明和不確定。

最近人們已經開始公開討論,是時候與Facebook分手了…

我不確定如果使用者決定分手,是否會改變那些大型科技平台的任何商業行為,但有一件事是肯定的:不是使用者,而是Facebook本身在肆意決定我們會在新聞推送看到什麼;Facebook的營運不受任何法律監督。

正如Facebook共同創創辦人Chris Hughes在投稿《紐約時報》(The New York Times)的一篇文章所寫:「Facebook的力量最大的麻煩在於,馬克(編按:Facebook共同創辦人暨執行長Mark Zuckerberg)能單方面控制言論;他這種擁有監控、組織甚至審查20億人對話的能力史無前例。」

他寫道:「Facebook的工程師們編寫演算法,並決定哪些使用者評論或體驗最終會顯示在朋友和家人的新聞推送中。這些演算法規則是專屬的,而且非常複雜,甚至許多Facebook員工自己都不懂那些規則。」

這一切並非都是工程社群的責任,企業、政府主管機關、消費者和整個社會應該共同承擔。

不過那些負責撰寫演算法和設計系統的工程師們,應該開始考量乍看之下離他們的實驗室很遠的後果——隱私權保護和公正性。從現在開始討論以「隱私權保護設計」(privacy protection by design)或「公正性設計」(fairness by design)為基礎原則的系統開發正是時候!

本文同步刊登於電子工程專輯雜誌2019年7月號;責編:Judith Cheng

(參考原文:AI Doesn't Know When It's a Jerk,by Junko Yoshida)