今天無論你走到哪裡,都有關於人工智慧(AI)如何轉變或破壞一個程序或系統的討論。但現在的人工智慧並不是真正的智慧,因為它沒有應對未知的能力。典型的人工智慧模型運用了大量的資料和運算能力,但它仍然是一個黑盒子,無法解釋它如何做出決定。

這是法國新創公司AnotherBrain執行長兼創始人Bruno Maisonnier在接受EE Times Europe採訪時多次強調的。由於渴望在人工智慧中實現真正的智慧,當他之前創立的公司Aldebaran Robotics於2013年被軟銀(SoftBank)以1億美元收購時,Maisonnier選擇從公司退出,以繼續他的「通用人工智慧(general artificial intelligence)」探險。

20190807NT31P1 Bruno Maisonnier,AnotherBrain CEO。(圖片來源: AnotherBrain)

「機器人很棒,但與此同時,它們又很愚蠢,」Maisonnier說。「它們無法理解基礎知識,也無法理解周圍的環境。2010年時,我開始研究人工智慧並為機器人提供更自然的行為能力,使其更像我們所期望中該有的行為。」在研究了深度學習系統之後,他得出的結論是「今天所有人都稱之為人工智慧的深度學習,根本是騙人的」。

「深度學習、神經網路、巨量資料和人工智慧,所有這些都和智慧沒有一丁點兒關係,」Maisonnier說。「雖然它們非常強大而且具有很多可能性,但我不是在詆毀它,它們真的與智慧無關。」

受PalmPilot發明人Jeff Hawkins的《On Intelligence》一書啟發,Maisonnier考慮實現Hawkins的一些想法。「我創立AnotherBrain是要實現一個承諾——創造更通用的智慧。」他已經有了框架,但還缺少一些電子元件;他還希望將系統嵌入到晶片中。為此,Maisonnier聘請了腦視覺專家Patrick Pirim擔任科學長(CSO)。

Maisonnier費盡心思地想讓大家明白,這個世界是不可預測的,我們根本無法用現有的技術建造自動駕駛車,甚至無法製造複雜機器人。「真正的智慧是一個能夠即時分析和理解大腦運作方式的系統,它不需要大量的資料,它以一種非常節儉的方式運作,」他說。「真正的智慧需要在一個晶片中實現,功耗少於1瓦(W),而與之相比,深度學習的推理階段耗能15或20瓦,訓練的學習階段則耗能數千瓦。」

Maisonnier補充說,真正的智慧晶片不需要巨量資料或海量資料,其行為結果應該也是可解釋的。為了說明他所說的可解釋性,他引用了一個自動駕駛車辨識摩托車的例子。汽車的攝影鏡頭和感測器發現一個物體並確定這是一輛摩托車,但是他們是否可以解釋判斷它是一輛摩托車的依據,而不僅僅是對資料庫裡的東西打勾?截止目前,它們還不能。但如果一位人類駕駛被要求解釋為什麼一個物體是摩托車,那他可能會指出因為它有又粗又黑的車輪,中間有一個發出轟鳴聲的馬達,還有個油箱和一個戴著頭盔的騎士。「這就是可解釋性,」Maisonnier說。「這就是我們在AnotherBrain做的工作。我們已經在一家法國汽車製造商的品質控制工業生產線上展示了我們的概念驗證。」

可解釋性:為何人工智慧做了這決定?

可解釋性使系統能夠以更接近自然的方式工作。Gartner在其對2019年資料與分析十大趨勢的預測中表示,可解釋人工智慧(Explainable AI;XAI)十分必要,因為人工智慧模型越來越普遍地被用於增強和取代人類決策,在某些情況下,企業需要判斷這些模型作出的決定是否合情合理。但是,大多數高階人工智慧模型都是複雜的黑盒子,無法解釋為什麼它們會給出一個特定建議或決策。

20190807NT31P2 可解釋人工智慧的概念。(資料來源:DARPA)

基於對當今人工智慧系統黑盒子本質的擔憂,創建能更好地解釋其決策理由的系統已成為一種趨勢。美國國防高等研究計畫署(DARPA)正在進行一項可解釋人工智慧計畫,以實現「第三次浪潮的人工智慧系統」,這個階段的人工智慧可以理解其運作的背景和環境,而且隨著時間的推移,可以建構潛在的解釋模型,從而允許它們描述真實世界的現象。

柏林工業大學、Fraunhofer Heinrich Hertz Institute(HHI)和新加坡科技與設計大學(SUTD)的研究人員上個月在《Nature》上發表了一篇論文,探討人工智慧系統如何得出他們的結論,以及他們的決策是真正的智慧,還是只是「一般的」成功。它探討了理解決策過程的重要性,但質疑了機器學習的有效性和普遍性,質疑模型是否只是基於訓練資料中的虛假相關性而做出決策。

生物啟發人工智慧5分鐘內學會走路

與此同時,生物啟發人工智慧(Bio-inspired AI)可望克服目前機器學習的局限性。機器學習依賴於為所有潛在場景預程式設計一個系統,這是一個複雜、運算密集且效率低下的過程。DARPA正在開發另一個專案—終身學習機(L2M),它是一個能夠在執行期間不斷學習並在執行任務時變得越來越專業的系統。L2M專案於2017年首次宣佈,目前正在開展下一代人工智慧系統與其元件的研究和開發,以及研究將生物有機體的學習機制轉化為運算過程。L2M專案透過提供不同期限和規模的基金與合約,支援多達30個研究團體的工作。

L2M資助的其中之一是南加州大學(USC)維特比工程學院(Viterbi School of Engineering),該學院已發佈其對生物啟發人工智慧演算法的研究結果。在3月的《Nature Machine Intelligence》封面故事中,USC的研究小組詳細介紹了其成功創造的一個由類似動物肌腱驅動的人工智慧控制機器人肢體,它可以自學行走任務,甚至可以自動從被破壞的平衡中恢復。

USC研究人員的機器人肢體背後是一種生物啟發演算法,只需5分鐘的「非結構化遊戲」,或進行隨機動作讓機器人能夠學習自己的結構及周圍環境,就可以自行學習步行任務。機器人透過實踐學習的能力是機器終身學習的重大進步,USC研究人員的成果顯示,人工智慧系統可以從相關經驗中學習,隨著時間的推移,它可以找到並調整其解決方案來應對挑戰。

最近,另一篇關於群體智慧(Swarm Intelligence;SI)的論文提出了一個可能對實現更直覺的人工智慧(Intuitive AI)產生影響的模型。在2月的《美國國家科學院院刊(PNAS)》中,來自哈佛大學John A. Paulson工程與應用科學學院和有機與進化生物學系的研究人員勾勒出了一個新框架,該框架展示了環境物理與動物行為之間的簡單規則如何在自然界中產生複雜的結構。透過關注動物建築中最著名的例子——白蟻丘,該理論框架展示了生命系統如何利用簡單的規則創造出利用物質並注入複雜建築的微環境。

基於對白蟻建築成就的思考,Maisonnier說:「大自然在系統最佳化方面顯然是完美的。」那裡沒有複雜的系統驅動白蟻的行為,只有簡單的規則應用於基本代理人。如果正確選擇簡單規則,最終就可能得到一個白蟻丘,即使室外溫度升至42℃,也可以完美地控制其內部溫度和濕度條件。結果「一個看起來經過設計的系統,事實是沒有首領、沒有國王、沒有王后,沒有任何領導,甚至沒有工程師。它完全從自然行為中產生。」

從閘極區分電晶體以了解大腦

那麼,白蟻與開發人工智慧系統有什麼關係呢?Maisonnier從基礎開始解釋:「如果想瞭解電腦如何工作,可以說它只不過是一個電晶體的網路。但是,儘管你可能知道電晶體工作的基礎知識,卻很難將之與更高級別的電腦工作原理聯繫起來,因為兩者之間的概念差距太大了。」

「但是,如果從中間級功能的角度出發來考慮,比如閘極,那就比較容易理解電腦如何工作。這些中間級功能透過電晶體網路得到。因此,這裡最重要的是中間級功能——閘極。」

Maisonnier說,大腦也是如此,其基本成分包括神經元,就像電晶體一樣,而大腦類似於電腦。他說,同樣的,兩者之間的差距是巨大的;無法僅僅根據對神經元的瞭解來推斷大腦如何運作。

「但在大腦中有稱之為皮層柱(cortical columns)的功能。如果瞭解這些柱狀組織正在做什麼(這是已知的科學),那麼就可以重現這些功能,或者透過神經元網路、神經網路(這是非常困難的),或者直接利用經典電子學。在AnotherBrain,我們使用經典電子設備再現那些皮層柱完成的功能。」

深度學習是在微觀/神經元水準上探索人類大腦,與之不同,AnotherBrain是從更宏觀的層面複製大腦的行為,其中大的神經元群體具有專用的功能,例如對運動或曲率的感知。「我們專注於創建一個生態系統,而不僅僅是技術,」Maisonnier說。

AnotherBrain不是想取代機器學習技術,而是在努力對它們進行補充。Maisonnier說,「現在深度學習和神經網路已經可以很好地服務於很多應用程式,」他並指出,深度學習仍將與許多應用程式相關,但還有其他應用程式需要真正的智慧,這些應用需要瞭解正在發生的事情,以及在混亂和不可預測的世界中如何表現。

20190807NT31P3 AnotherBrain開發出所謂的有機人工智慧技術,將感測器轉換為智慧感測器。(圖片來源:AnotherBrain)

AnotherBrain所開發的稱為有機人工智慧的技術,是將感測器轉換為智慧感測器,用於工業自動化、物聯網(IoT)和汽車市場。Maisonnier說,公司已經在GPU上運作該技術從而為客戶解決工業自動化中的問題,其下一個目標應用是自動駕駛。

AnotherBrain的技術旨在透過設計進行解釋,其使用最少的能源和資料,以及無須邊緣運算的狀態下運作,從而可以在工廠和物流中更加有效地部署人工智慧。該公司的產品包括即時製造機器人引導和一次性學習視覺檢查。該技術基於一套生物啟發演算法,允許感測器瞭解周圍環境並自主學習,同時可以向用戶解釋決策依據。

(參考原文: AI Needs Brain-Inspired Technology for Real Intelligence,by Nitin Dahad)