接續前文:新創公司為自駕車打造更敏銳感官  

美國矽谷新創公司DeepScale聲稱其為自動駕駛車輛打造的感知解決方案(演算法)可支援不特定感測器與處理器;而且或許更重要的是,該公司強調其解決方案的處理器效率非常高,而且耗電量較低。

DeepScale執行長Forrest Iandola表示,其解決方案能以智慧型手機應用處理器──例如高通(Qualcomm)的車規Snapdragon──來處理從4個車用攝影機、1個車用雷達收集到的原始感測資料;或是單顆Nvidia GPU也能處理來自十幾個感測器的原始資料。

Iandola意識到,對車廠來說每一分錢都非常重要,低功耗處理器──不需要散熱冷卻──對於讓車輛保持穩定也非常重要。

而利用原始資料來支援車用感測器融合的DeepScale解決方案,與Mentor最近推出的DRS360平台非常類似;DRS360包含Xilinx的UltraScale+ MPSoC FPGA,並支援先進的機器學習神經網路演算法。

20170925_robocar_NT02P3

Mentor的DRS360車用感測器融合平台
(來源:Mentor)

Mentor副總裁暨嵌入式系統部門總經理Glenn Perry在接受EE Times採訪時表示,原始資料感測器融合並非是唯一的解決方案,卻是設計高度自動化駕駛車輛架構的最明智方法。不過,對於這種即時融合多個感測器原始資料的想法,在汽車產業卻反應不一;Perry表示,一個反對的原因是根植於車廠採用漸進式設計開發的悠久歷史。

舉例來說,有部份車廠已經投資開發利用來自雷達之目標資料提供自適應巡航控制(adaptive cruise control)的ADAS系統,並支援攝影機/雷達資料融合實現自動緊急剎車系統;如果要他們回頭去改用以原始資料為基礎的方案,是非常困難的。

Mentor的DRS360平台提出了一種兩階段的系統解決方案,分別為感測器融合與感知;該平台採用原始資料,免除了所有感測器節點支援資料處理的程序;但Perry指出,如果客戶偏好預先過濾的資料,Mentor也可提供。

Perry還表示,Mentor已經自行開發演算法以及利用硬體加速的軟體,來支援原始資料感測器融合;該公司能提供一系列以系統支援套件為基礎的整合式服務,採用Mentor的IP。他將原始資料感測器融合演算法形容為「創新沃土」,而這顯然也是DeepScale正在耕耘的領域。

針對DeepScale的業務,Perry認為他們是聚焦於:「我們已經在DRS360上開發的一個關鍵解決方案;」而對於Mentro來說這是好消息,因為DeepScale:「可望提供利用DRS360平台之客戶另一種融合演算法的選項。」

市場競爭態勢

那麼在市場上誰是DeepScale的競爭者?對此車用視覺技術Vision Systems Intelligence (VSI)顧問公司創辦人暨首席顧問Phil Magney表示:「有很多事情現在才要發生,不少硬體公司(銷售處理器與/或系統)提供對於經過訓練之深度神經網路/卷積神經網路(DNNs/CNNs)的支援,他們通常提供處理器/平台加上轉換工具以支援AI演算法,例如Deppscale所提供的。」

「不過,大多數提供硬體解決方案的公司,並不提供像是Deepscale方案一樣經過完整訓練的演算法;」Magney的看法是:「並沒有很多公司提供具備預先訓練演算法的AI軟體堆疊,可處理以原始資料融合為基礎的整體環境模型。AImotive與Mobileye有類似的解決方案,但須搭配特定的主處理器。」

那Nvidia呢?Magney表示,該公司在這個領域也是要角,但並沒有提供具備預先訓練演算法的完整軟體堆疊可支援全環境建模;Nvidia提供的硬體解決方案與工具,可打造專屬的應用程式,也包括利用原始資料融合。」

但Magney懷疑,正在開發AI軟體堆疊的廠商處數量應該比檯面上的多:「不過那些公司還在隱形模式,也沒有透露太多正在做的事情。」

VSI最近探討了該公司稱之為「自動駕駛車輛堆疊(AV stack)」──也就是自動駕駛車輛的功能區塊──這個話題,表示自動駕駛車輛具備5個不同功能領域,包括感知(perception)、本地化與規劃(localize & plan)、決策/行為(decision/behavior)、控制(control),以及連結性與I/O (connectivity & I/O)。

20170925_robocar_NT02P4

自駕車功能區塊──AV堆疊
(來源:VSI)

Magney認為DeepScale的方案應該是要放在前兩個AV堆疊中,因為該公司聲稱能支援整個環境模型,包括目標偵測(Object Detection)、格點佔據(Occupancy Grid)、車道分割(Lane Segmentation)、目標追蹤(Object tracking)以及自我定位(Self-Localization)。

DeepScale目前仍處於必須找個地方安插自己的階段;不過Iandola覺得DeepScale不一定必須等到全自動駕駛車輛誕生,其技術才能被採用:「我們發現感知問題是普遍的,相同的技術也能被應用於配備ADAS的量產車款,或是提供移動服務的自動駕駛車輛。」

根據DeepScale表示,其感知系統應用能從Level 2自動駕駛車輛,擴展到Level 4/5自動駕駛車輛;此外該公司也表示,其軟體堆疊能適用現有的ADAS應用之感測器組合。對此Magney認為,這能讓車廠在車輛小改款的時候添加一些自動駕駛功能;而DeepScale認為其軟體能在2020年或稍後被導入量產。

對安全性的關注

顯然目前每一家自動駕駛技術開發商都聲稱其焦點在「安全性」,但DeepScale的境界更高,表示「自動駕駛在本質上就比人類駕駛更安全」;Iandola在更早之前接受EE Times採訪時就曾表示,不是等到發生碰撞,自動駕駛車輛應該有自我檢查的能力。

Iandola指出,每個模型會在將駕駛權交手給人類駕駛時,自問是否情況有些令人困惑,或者自問在那個當下有多少交出駕駛權的信心。自動駕駛車輛會持續發送資料,而這種「機器內省」(robotic soul-searching),有助於資料註記者(data annotators)定義最艱困的情境,並建立品質保證模型。

Magney指出,DeepScale的堆疊內建了安全監測功能,會監測安全性並擷取邊緣案例(edge cases),以支援演算法的持續改善;他補充指出,DeepScale還支援空中下載軟體更新,並已經圍繞這個功能打造其模型,類似Tesla的方案。

編譯:Judith Cheng

(參考原文: DeepScale on Robo-Car: Fuse Raw Data,by Junko Yoshida)