你期待具備「道德感」的照明開關嗎?

作者 : Lars Reger,恩智浦半導體技術長

對於AI智慧裝置的開發,我們不僅需要運用不斷演進的運算技術專業知識,還需要運用我們對心理學和社會科學的理解...

物聯網的邊緣節點正在發生一場革命,裝置在評估狀況、分析本地數據方面的能力越來越好,因此能為消費者提供更多服務,不必仰賴雲端來取得這些「智慧」。而筆者在此想探討的一個問題是:會出現具備道德感的照明開關嗎?

邊緣的創新是由對於快速運算需求推動的。運算技術被預期是可靠、安全以及符合環境永續概念的。我們希望運算技術的精進能夠提供更強大、價格相對低廉的解決方案(而不是依賴與分派資訊指令之伺服器/中央處理器之間的連接)。

有一種「兩全其美」的模型正在崛起,讓AI和資料推論能更接近終端使用者。應用於機器學習的AI和數據推論正往雲端轉移,以及在雲端才能實現的交易功能。此創新成果在2020年會變得更加明顯。「智慧」創新催生像是能識別簡單語音指令的洗衣機、烘乾機,學會避開具破壞性障礙物的掃地機器人,以及更稱職扮演智慧家庭助理的智慧門鎖和照明開關等產品。

我們的運算需求將帶來臉部識別、聲音和手勢識別,以及可精準辨別窗戶玻璃被破壞或是酒杯被打碎的保全系統;以及能夠更快速、有效因應突發道路狀況的車輛。然而獲得的越多,我們對運算的要求也會更多。

在我們考量如何看待人工智慧──以及反過來人工智慧可能是如何看待、感覺我們──時,運算技術的發展讓人聯想到以下幾個問題…

首先,具自我意識的AI能更像是寵物而非人類嗎?關於AI的爭論大部分涉及從基於演算法的決策(無論多麼複雜)過程以及自主能力,轉向它是否會基於自我感覺去提出和回答問題。這與目前深度學習的不透明特性相去甚遠;深度學習不會讓處理器解釋它是如何得出結論,如果有一種「心智理論」方案,讓電腦或機器人內在擁有分析和證明其行動合理性的機制,或許會讓它們更值得信任,也更有效率。

但為何人工智慧的「心智」應該以人類為模型?邊緣運算的崛起已經表明,我們可能會看到不同類型或程度的「智慧」甚至「意識」出現,因此:

  • 舉例來說,為何一個「智慧」家庭助理的AI所呈現之特質,不能等同於值得信賴的狗狗或是善解人意的海豚?
  • 這樣的特質不足以為消費者帶來龐大的好處嗎?
  • 這些特質難道不是更接近於我們意識到的、需要AI具備的心智模式?
  • AI 的行為與思考模式能像我們的朋友或鄰居嗎?

如果你曾經看過《機器公敵》(I, Robot)這部電影,或許也會覺得其中的那個名叫「Sonny」的AI機器人,無論在其認知或外觀的角色設定上都太極端。(圖片來源:Wikimedia)

 

第二個問題是,智慧裝置是否會發明出自己的語言,從而建立某種AI和意識模型?有許多案例指出,像是機器人、聊天機器人等電腦裝置,確實會建立自己的語言並相互溝通:

  • 2017年,Facebook要求聊天機器人互相談判,後來機器人發明出人類程式設計師難以理解的語言(Facebook已經停止該實驗)。
  • 同樣在2017年,Google透露正在進行一項AI實驗,使用其翻譯工具將概念移入及移出機器發明出的一些語言(這項實驗Google仍在繼續)。
  • Alphabet的Open AI鼓勵機器人透過強化學習發明他們自己的語言(類似用餅乾訓練家裡的狗狗做正確的事情);Alphabet最終為機器人建立了一種通用語言,讓它們能比以前更快、更高效率執行任務。

機器人之間的運算會隨著他們「共享」經驗而持續演進,就像人類語言一樣。要是邊緣運算處理器發明一種語言(或多種語言),不僅能使其功能得到改善,而且會模擬模仿某種形式的分散式意識呢?我們能解讀嗎?我們會關心嗎?

第三個也許是最有趣的問題,就是筆者在最前面提到的:會出現具有道德感的照明開關嗎?

我們可用「硬接線」(hardwire)方法讓某個裝置永久具備特定功能,並且在該平台上建立通訊機制;而終有一天,智慧裝置可能被證明會像我們人類一樣,可以被永久賦予某些特定行為能力。

舉例來說,一個智慧恆溫器被設計為感知環境溫度,並以相關數據為基礎來執行指令;但如果出現一個人類使用者,違反其預設功能、或是要更改其設定對環境友善的共享機器學習模型呢?這個恆溫器能不能反駁或拒絕主人的輸入指令?我們能否在智慧裝置的晶片層級中建立基本的AI意識,使它們在實際行為上無法違反特定規則?

這讓我聯想到科幻小說家Isaac Asimov提出的《機器人三定律》(Three Laws of Robotics),晶片層級安全性的概念,充分證明安全性和可靠性至關重要,我們需要從被賦予了更多責任和權限的裝置開始行動。

探索和回答類似以上的問題,是AI (以及實現AI的機器學習)之成功關鍵。我們不僅需要運用不斷演進的運算技術專業知識,還需要運用我們對心理學和社會科學的理解;當我們的機器承擔更多的行動自主權──也稱為「代理」(agency)──他們和我們都會遭遇始料未及的問題,像是:

  • 什麼狀況會使得學習中的機器被「卡住」,或是導致它們出現像是人類「生病」的行為?
  • AI如何能避免間接造成或有意為之(例如駭客)的問題?
  • 對於「行為不端」甚至違法的機器,是否需要額外的監督制度?

思考這些因為AI革命而衍生的問題非常令人著迷!

 

本中譯版文章原稿由恩智浦半導體(NXP Semiconductor)提供,Judith Cheng編輯校訂

 

發表評論