技術專家:明確的機器學習目標是實現AI安全性關鍵

作者 : George Leopold,EE Times特約記者

美國喬治城大學安全與新興技術中心的一篇論文指出,克服機器學習的規格描述挑戰,是邁向更高AI安全性的關鍵步驟。

設計機器學習應用程式的一個關鍵挑戰,是在軟體程式碼當中精確地描述開發者想要系統執行的工作。美國喬治城大學Georgetown University)安全與新興技術中心(Center for Security and Emerging Technology)不久前發表的一篇論文作者強調,克服機器學習的規格描述挑戰,是邁向更高人工智慧(AI)安全性的關鍵步驟。

上述論文作者將AI安全性規格(specification)定義為在程式碼中傳達機器學習系統應該要執行之工作的詳細描述,或者他們所稱的「人類特有目標」(human-specific objective)。一個例子是在排列的圖片方塊中找出「紅綠燈」的CAPTCHA圖磚驗證系統(EETT編按:在一些網站可以見到,用以區分機器人與人類的驗證步驟)。而像是訓練模型的步驟規則未包括在內。

為了讓機器學習能辨識各種圖形,開發人員會詳述關鍵目標。該目標函數代表一套學習演算法的核心成分,闡述一個模型在蒐集更多的訓練資料時該如何學習。

 

為機器學習訂定明確目標是確保AI安全性關鍵。

 

而在開發者試圖從功能有限的應用程式邁進更具挑戰性的真實世界應用程式之同時,AI安全性規格是研究人員最關注的議題之一。上述喬治城大學論文的共同作者Helen Toner在接受訪問時表示:「已經有越來越多基礎研究聚焦於AI安全性與可靠性,以及對AI性能的理解。」

她指出:「那些AI系統的可解釋性(interpretability),在此是另一個真正有用的輸入,能讓你了解,依據應用以及哪一類保證是你所需要的,是否有更好的方法從概念上去了解這些系統裡面到底發生什麼事情,這也是相當有價值。在我看來,這是此堆疊底部的基礎科學部份。」

隨著機器學習逐漸演進,從產品推薦等較狹窄的應用,發展到諸如自動駕駛等關鍵性任務,對於安全性規格的需求也跟著成長。「當機器學習系統變得更先進,將會被配置在越來越複雜的環境,以執行日益複雜的任務;」論文作者指出:「這時候規格問題可能會開始變得棘手。」

該作者指出,對開發者來說,更大的責任是以新的方法在程式碼中傳達其意圖,讓機器學習服從「被賦予的規則之字面意義,並非精神。」包含人類監督或邁向預測最壞情況之步驟的演算法,被推薦做為一個克服「錯誤設定規格」的方法。

還需要的是更多研究,了解開發人員如何在程式碼當中傳達細微、複雜的目標,並確保他們所設計的系統能夠達成這些目標。而在那之前,論文作者警告,機器學習仍應該被侷限在「狹窄、嚴格規範的設定中。」

 

本文同步刊登於《電子工程專輯》雜誌2022年1月號

責編:Judith Cheng

(參考原文:Specifying Objectives is Key to AI Safety,By George Leopold)

 

 

 

 

加入我們官方帳號LINE@,最新消息一手掌握!

發表評論