全面賦能邊緣裝置

作者 : Ron Martino,恩智浦半導體(NXP)資深副總裁暨邊緣處理事業部總經理

在一個不斷演進的世界裡,真正的智慧邊緣裝置要能夠隨之進化,才不至於限制產品的壽命。最重要的是產品開發人員須考量未來可能的發展,並建立一組平衡的屬性,以支援現場升級。

邊緣運算的發展飛速,今日的突破明後天就會被新的突破取代。在這樣的環境下,我們很難僅挑出一兩種未來將帶動邊緣運算發展的科技,但隨著人工智慧(AI)成為邊緣運算無所不在的一部分,我想強調兩大要素:邊緣裝置的機器學習(ML),以及我們需要可信賴的共通AI道德守則。

來自邊緣節點的數據在閘道器聚合,再送至雲端資料中心,其具有大量的運算資源可處理ML訓練與推論,這是最近才成形的模式。若是我們想擴展數以千計工業和物聯網應用領域的智慧邊緣裝置,很明顯地大多數邊緣應用都無法支援延遲、耗電、並永遠保持連線,以滿足傳送數據至雲端進行處理,以及回應傳回數據的需求。將處理和分析功能切割,分派給雲端和邊緣裝置自身會是較佳的作法。邊緣運算就此來臨。

恩智浦半導體(NXP)資深副總裁暨邊緣處理事業部總經理Ron Martino

恩智浦半導體(NXP)資深副總裁暨邊緣處理事業部總經理Ron Martino

但隨著應用程式日益複雜,聰明邊緣裝置(smart edge)也必須進化──從聰明(smart)演進為智慧(intelligent)。智慧邊緣裝置的重點不僅是回應快速,也在於訓練邊緣裝置,使其能根據一組即時數據,在不需雲端或閘道器的幫助下,就能在本地(local)做出決策。當然,系統可設計成當邊緣裝置遇到超出訓練範圍的情境時,比方說在設計上認為很少發生在智慧邊緣網路的狀況時,就會連絡本地閘道器或雲端。

在一個不斷演進的世界裡,真正的智慧邊緣裝置要能夠隨之進化,才不至於限制產品的壽命。最重要的是產品開發人員須考量未來可能的發展,並建立一組平衡的屬性,以支援現場升級。可以採取的方式包含提供足夠的運算和記憶能力,與接收更新的方法。消費者和廠商皆能從中獲益,消費者的裝置可收到最新功能,廠商也能延長裝置壽命,並透過額外服務與支援來培養品牌忠誠度和營收來源。

許多智慧邊緣裝置皆被運用於資源有限的環境中,它們必須以有限的電力進行運算和通訊。除此之外,大多數邊緣應用解決方案必須壓低價格並減少耗電,常使用超小型充電電池,亦可能運用能量採集(energy harvesting)。添加ML功能將增加耗電,也會昂貴到無法實用化。因此有人懷疑就小型廉價裝置而言,可能永遠達不到智慧效能需求。

當今微處理器和跨界應用處理器如同雨後春筍般出現。我們認為,這終將成為一個全新領域,讓機器學習在邊緣裝置上進行,耗電量僅數毫瓦,卻能提供真正驚人的運算效能。這並不是天馬行空的預言,而是這些高效能的微控制器以及跨界應用處理器已經問世,並正在導入數以千計的應用中。這些邊緣處理器的下一代將內建專屬神經網路處理引擎,提供驚人的ML推論效能,同時改善能源效率。

以微控制器為基礎的邊緣裝置現在能運用便宜的微型紅外線感測器進行臉部辨識,很難被「欺騙」(spoof)。這要歸功於活體偵測技術,感測「溫體」的精確特徵,區分人臉和高畫質相片或面具,這些都要在數百毫秒內完成,而且能正確剔除偽陽性的比例須達到99%。高度正確的偽陽性剔除率對資安極為重要,不論是智慧家庭的大門還是使用於工業的重機械,因偵測錯誤(偽陽性)而允許使用的危險性遠大於排斥貨真價實的用戶(偽陰性)。

這帶來下一個值得大家在2021年注意的議題,那就是「具有道德的AI」。

隨著處理器將AI和ML導入更多應用,將道德賦予科技不再只是理論上的臆測,而是當今的現況。基本問題在於道德是主觀的、觀點各異,根據地理、文化、價值、和政府而定,因此難以「定義」通用的AI道德準則。將規模擴大至全球的挑戰更大,因為各種文化對能否接受行為可能有不同的觀點。

幸運的是,科技產業和一些全球主管機構已注意到這個議題,他們正試圖聚焦在以人類為中心的AI道德作法,依此開發相關政策和法律,這些方案希望AI道德準則以透明、公平、安全、和隱私為基礎。如果這些方案能整合為單一通用的道德準則,並予以遵守,人們就可以確保AI/ML將豐富我們的生活 ,透過作出無偏差的決策保護人們的隱私、並確保公司、產業、和政府不得在未經同意前侵犯大家的生活。

雖然這並不容易,但若AI/ML將成為我們未來的一部分,這是不可或缺的一環。如果缺乏這些指導方針,大眾有一天可能會排斥AI。因此我們相信,對道德AI的關注是2021年最值得重視的發展之一。

在軟硬體層次,道德AI/ML不可能靠外掛(bolt-on)延伸措施達成,必須從系統一開始的時候就徹底思考和建構。這包括以矽晶片為基礎的高階全面資安措施、增加額外資安層次的軟體層、以及AI/ML應用程式,後者符合無偏見(bias-free)的道德原則,而且基本上遵守艾西莫夫的第一定律(針對ML改寫):ML不得傷害人類,或坐視人類受到傷害。

這意味著允許裝置做那些行為,以避免犯下不道德的罪刑;自主判斷不得導致傷害 ,例如在即將傷害人類時,知道何時該停止作業;這也包括透明的隱私權指標,清楚告訴人類裝置執行了哪些功能,如純聆聽模式或錄音模式。

總而言之,就工業和類似應用而言,將機器學習導入邊緣意謂著更佳的效能,人們也能使AI更貼近生活。所以產生數據的智慧邊緣運算和AI道德守則並沒有如表面那麼分歧,因為它們其實是密不可分的。

本文同步刊登於《電子工程專輯》雜誌2021年1月號

 

加入LINE@,最新消息一手掌握!

發表評論