Facebook開始採用人工智慧(artificial intelligence;AI)辨識用戶偏離正常貼文的行為,並對於可能出現的輕生念頭發出警訊。但這樣做合乎倫理道德嗎?

在當今高度互連的世界中,我們不斷產生和收集如此龐大的資料量,甚至已經超出人類能力所能全部過濾篩選的範圍了。確實,人工智慧的應用之一就是辨識這些貼文上的意圖所表現出來的模式與偏差。因此,Facebook以這種方式運用AI,從其大數據(Big Data)資料庫中擷取價值,雖然可能是出於善意的目的,但也引發對於道德感的顧慮。

為了能夠更清楚掌握這個問題,在我不斷的搜尋中,找到了一家名為「運算研究的普適資料倫理」(Pervasive Data Ethics for Computational Research;PERVADE)的組織。PERVADE組織與六所大學合作進行研究,並在今年9月取得了資金贊助,目前正致力於制訂問題並積極尋求答案。

我很快地與這家組織接觸,針對Facebook以人工智慧偵測自殺訊號的道德問題徵詢了專家們的看法。後來有機會與該組織的一位成員Matthew Bietz取得了聯繫。

Bietz告訴我,參與PERVADE組織的成員們正在研究普適資料的發展後果,包括不斷地收集資料——不僅從我們發佈到社交媒體的貼文,還來自「我們在上網時留下的數位軌跡」,例如我們以Google進行搜尋或收發電子郵件。他說,物聯網(IoT)和穿戴式裝置之間建立起新的聯繫,進一步促進了「我們所處空間的資料」主體日益增加。由於這個現像「相對較新」,因而對於「資料倫理」提出了值得探索的新問題。

由於Facebook宣佈不會將其自殺訊號偵測工具擴展到歐盟(EU),我詢問Bietz是否因為這項計劃會違反歐盟的「通用資料保護條例」(General Data Protection Regulatio)?他坦言歐盟確實對於資料保護存在「一些世界上最嚴格的規定」,但他補充說,「以GDPR的標準來看,Facebook所做的是否違法,目前還不是完全明朗。」

資料偵測與歐盟

更準確的說,Facebook正冒險進入一種「未真正經試驗的優勢。但我猜測他們並不想成為測試用例。」

Bietz說,Facebook的服務條款使其得以查看資料,因此,這樣的行為並不會直接違反GDPR的隱私條例。但是,立法禁止公司僅根據「演算法或由電腦自動進行分析」。

這表示,如果演算法在「沒有人為介入」的情況下決定訊號意義,並自行發出警訊,那麼這樣的行為以GDPR來看就是錯誤的。然而,他說,如果只是利用演算法「協助決定哪些貼文需要人們多加關照」,就可能在在法規允許範圍。

「道德的雷區」

除了法規的問題,Bietz認為,Facebook的自殺偵測途徑設定了一種「道德的雷區」(Ethical minefield),因為後果是如此的強烈。但這並不表示該公司所做的「必然是不道德的」,實際上還取決於「他們如何處理這些資料」,以及Facebook是否「值得我們信任」。

目前,這是個懸而未決的問題。他表示,當Facebook的營利模式是基於有選擇性的資訊共享時,是否還能讓我們相信它真的將自殺訊號資料用於防範自殺以及改善社會問題的目的。為了證明其出於善意,Facebook應該儘快提供「資訊如何分享的程度」,詳細說明他們如何使用這些資料,以及如何保有其安全性。但是,Facebook的立場是我們只須要相信他們。

Bietz說,我們現在面對的一部份問題是「前所未見的各種新技術及其應用」。因此,目前還沒有明確的先例可用於指導道德決定。我們現正「探索一個全新的領域,不只是在技術上,在倫理道德方面也是如此」。此外,還必須取得一些方向來表達「正確的道德問題」。

問題與結果

Bietz表示,他贊成運用資料和演算法來防範自殺的發生,並指出「危機求救熱線」(Crisis Text Line)採用該方法來優先考慮對最緊急的情況做出反應。但Facebook並未詳細說明其計劃如何防範自殺,然而,Bietz認為,該公司也不應該自行嘗試這項計劃。他說:「如果我他們與來自公司外部的心理學研究人員密切合作,共同思考這些問題,我感覺會更好。」

所使用的演算法品質是也很重要,Bietz補充說。例如,過度謹慎可能會產生誤報。但是,Facebook並未表明其演算法的性質,或是說明計劃如何處理這些熱線。它將會持續使用原始演算法或隨著時間進行調整?同樣地,Facebook並未透露任何細節。

我們能夠信任Facebook是合乎倫理道德的嗎?由於社交媒體平台能夠取得太多有關於我們的資訊,現在必須提出這個問題。它不僅能從我們的歷史訊息中辨識個人行為標準的「模式」,還可能根據朋友的貼文推斷我們並未分享的資訊。

Bietz指出,我們的社會從來沒有經歷過這種範圍縮小到個人層級的「監控」精確度,再加上這是一個「數百萬Facebook帳號」的龐大社群。如今,在這個全新的資料新世界,我們必須積極地尋找「道德的界線」。

編譯:Susan Hong

(參考原文:The Ethics of AI for Suicide Prevention,by Ariella Brown, Technology Writer)