美國電機電子工程師學會(IEEE)最近啟動了一項廣泛的道德標準計劃,目的在於讓倫理道德成為使用人工智慧(AI)實現系統設計過程的一部份。這項計劃已經規劃一年多了,IEEE期望能藉此刺激更多的對話,實現以共識為導向的行動, 並建立了三項標準。

IEEE發佈了一份長達138頁的報告,描述AI技術和價值觀交集時的一連串問題。其範圍包括如何辨識和處理有關個人資訊的隱私,以及如何定義和審核自主武器系統的人員職責。

該報告提出了一連串耐人尋味的問題,例如混合現實系統是否可用於心理控制或治療。但也提供了一些候選的建議,並期望獲得社區的回饋。

IEEE人工智慧與自主系統倫理道德考量全球行動計劃主席Raja Chatila說,「重點在於讓運用AI技術的人能夠考慮有關倫理道德的問題。」

這項計劃不僅需要工程師的反饋,同時也尋求來自商界人士、律師、經濟學家和哲學家的支持。Chatila說,「答案將來自社會整體——不僅僅是專家,同時也包括系統用戶以及其他利益相關者。」他同時也是法國國家科學研究中心研究總監,並在巴黎第六大學(Pierre and Marie Curie University)教授AI與機器人課程。

「僅僅提出一連串的問題是不夠的,還必須要有符合標準的方法和建議,」他說。

Chatila是在一年多前IEEE會議上提出這項計劃想法的少數人之一。同時,他也身兼IEEE機器人和自動化學會主席,不久前才針對設計倫理發表相關研究報告。

該核心團隊由100多名學術和產業代表組成,包括來自思科(Cisco)、IBM、Google和恩智浦(NXP)的代表。

截至目前為止,該團隊已經通過IEEE標準過程提出了三個想法。此外,並針對自主系統中的資料穩私提出了P7001 與P7002標準。

該團隊期望在2017年3月6日以前針對整體行動提出線上建議,並藉此提高對於問題的認識、提供教育訓練以及付諸行動。

「具有道德意識的設計必須以廣泛的共識為前提,才可能實現,」Chatila建議,投 入AI領域的公司有一天可能還必須要有自家的道德長(chief ethics officer)!

編譯:Susan Hong

(參考原文:AI Ethics Effort Starts at IEEE,by Rick Merritt)