Tesla機器人原型讓AI安全性爭議再次浮上檯面

作者 : George Leopold,EE Times美國版特約記者

人們對AI的第一輪恐懼主要是擔心它的惡意、可自我複製,以及最終力量超越它的創造者或在戰場上不受控制地攻擊...不過在那之後,輿論對AI的爭議更務實,更清晰地聚焦於最受關注的安全性問題...

特斯拉的人形協作機器人(Tesla Bot)的華麗亮相,讓人工智慧(AI)的安全性爭議以及如何在自動化系統走上城市街道和工廠生產線前經過測試和驗證等問題又一次浮上檯面。

人們對AI的第一輪恐懼主要是擔心它的惡意、可自我複製,以及類似HAL的機器(編按:美國經典科幻電影《2001: A Space Odyssey》中的超級電腦),最終力量超越它的創造者或在戰場上不受控制地攻擊。不過在那之後,輿論對AI的爭議更務實,更清晰地聚焦於最受關注的安全性問題上。具體而言,相關討論集中在如何改善AI的安全性,讓人類操作員於應用場景中能信任自主性機器系統?儘管這些應用目前還未達到關鍵任務等級,不需要支援99.999%的可靠性。

 

和善的特斯拉人形機器人Tesla Bot

(圖片來源:Tesla)

 

汽車產業資深分析師、《EE Times》專欄作者Egil Juliussen指出,政府主管機關已經邁出了積極的第一步,意識到採用駕駛輔助系統的車輛所造成的AI事故,是「碰撞」(crash),而非「意外」(accident);Juliussen表示,「汽車產業改用『碰撞』這個名詞,因為那會歸咎於某人的失誤,而『意外』這個名詞通常可以讓人推卸責任。」

為此,美國喬治城大學(Georgetown University)安全與新興技術中心(Center for Security and Emerging Technology)研究人員在一系列關於AI安全性的政策簡報中,嘗試辨別出實現安全AI系統的工程要求。

「今日的尖端AI系統在很多方面都很強大,但在某些方面卻極度脆弱;」上述政策簡報的作者Zachary Arnold和Helen Toner指出:「AI系統往往缺乏很淺顯的常識,很容易被愚弄或破壞,並以意想不到和不可預測的方式出現故障。」

「人們通常很難或不能理解它們為什麼會這樣,」 研究人員的結論是,對不可靠AI系統的信任度「很可能造成可怕的後果。」

一個核心問題是要了解AI系統「黑盒子」如何運作──或稱之為AI的「可解釋性」(explainability),就像數學老師要求學生展示解題過程。

因此,上述AI研究人員提議成立一個國家級的AI測試平臺,設定參數以確保基於深度學習的AI系統之安全。Arnold和Toner總結:「現在,對於安全AI並沒有普遍被接受的定義,也沒有標準方法來測試真實世界AI系統的意外風險。」

儘管現在已有經驗證的方法,可以測試用於飛機自動駕駛儀等「故障安全」(fail-safe)應用的早期專門系統,但Tonar在接受一個採訪時強調,那些系統不等同於AI,「那些方法都不能用於深度學習。」

「當我們開始在某些地方應用這些系統,而錯誤或故障可能造成非常嚴重的影響時,我們應當投入更多的精力來開發新方法;」她補充:「我們應該要有可以提前測試AI系統的方法,確保我們知道它們可以做什麼、不能做什麼,以及它們何時會運作,何時不運作。」

像是Tesla這樣的先鋒業者在藉由像是Tesla Bot這樣的機器人原型推動AI技術的同時,可能會接受以上觀點──Tesla執行長Elon Musk在8月下旬舉辦的該公司年度AI Day活動中發表Tesla Bot時表示,該機器人的開發意圖「當然是友善的,」他保證,「我們將它設定為──在機械層面、即實體層面──你可以逃離它;」這種安全措施引發了現場一些笑聲,「而且最有可能是制服它…我們希望這永遠不會發生,但誰知道呢?」

Musk用了比較模糊的說法,他也應該這樣;理由之一如同AI安全性研究人員所言,Tesla Bot與其他一些最近的機器人案例,都只是早期的進化步驟。「實際上並不存在AI的工程規範,」喬治城大學的Toner表示:「AI沒有技術標準,我們不了解該實現怎樣的性能,也不知道該如何判斷我們是否能實現。」

Toner補充,AI的發展已經來到了一個轉折點,「它顯然對很多事物都有益處,但是迄今大多用於極低風險的任務。問題在於,我們能否解決AI可靠度和可信度方面的挑戰,以充分發揮其潛能,將之導入更寬廣的高風險應用?」

「對我來說,這仍然是個問號。」

 

本文同步刊登於《電子工程專輯》雜誌2021年10月號

責編:Judith Cheng

(參考原文:AI Safety Moves to the Forefront,By George Leopold)

 

 

 

加入我們官方帳號LINE@,最新消息一手掌握!

發表評論