Uber的自動駕駛車輛上個月在美國發生撞人致死案件,筆者當時寫了一篇報導「自駕車軟體模擬比實際路測更重要?」;在文章發表之後,高通(Qualcomm)的人工智慧(AI)研發業務開發負責人Rick Calle做出回應,問了我以下的問題:

Uber撞人事件是第一場悲劇,我們該如何讓它變成最後一場?我非常確定他們也用了模擬軟體,但大家是否模擬了感測器故障的情況、因為距離使得光達(Lidar)採樣稀疏的效應,還有其他不可預測的事件?

Calle的問題指出了測試自動駕駛車輛絕非易事,要驗證自駕車不只是能運作,各種功能還必須安全運作,需要前所未有的工程嚴謹度;測試人員不僅得確定需要模擬的內容,也要確保模擬過程使用了高保真度的感測資料。接著必須擬定測試計畫,以便為車輛供應商提供足夠可證明的安全性能指標。

不過,在瞭解模擬/測試方法的細節之前,知道一件事情很重要──我們今日所知的「自動駕駛」仍然不成熟。

美國卡內基美隆大學(Carnegie Mellon University)教授Philip Koopman在最新的一篇部落格文章中寫道,在Uber事故導致行人Elaine Herzberg身亡的並非全自動駕駛車輛,她是受害者,是因為一輛仍在開發階段的「未經實證的測試車」,還有「應該要確保技術故障不會導致傷害的那個安全駕駛」。

讓我們一起想想…過去一年半以來,科技業者(還有媒體)忙著促成全自動駕駛車輛的即將實現,卻漠視了無數揮之不去的、關於自動駕駛的「未知」;這裡的「未知」,我指的是自動駕駛車輛所衍生出的、科技產業幾乎還未開始處理的議題,更不用說提出因應策略。

我們詢問過數個產業界消息來源──從演算法開發者、測試專家,到嵌入式系統軟體工程師,他們仍認為開發「安全的」自動駕駛車輛是一個不確定的議題或挑戰,雖然他們的回答各異,卻都坦承自駕車還有很多議題,有待來自科技與汽車產業的回答。

預測性感知

自駕車技術開發商DeepScale執行長Forrest Iandola在談到Uber事故時表示,除非Uber公佈行車紀錄器以外的資料──包括車上的雷達與攝影機在事故發生時所看到的──外界人士可能永遠不會知道事故發生原因:「我們需要透明的資訊,不然很難知道他們的感知系統、動作規劃或是地圖繪製等功能究竟哪裡出錯。」

DeepSale是一家成立於2015年的新創公司,專門為先進駕駛輔助系統(ADAS)與自動駕駛車輛開發深度學習感知軟體;根據該公司已經學到的經驗,Iandola解釋,大多數為自駕車設計的感知系統是產業界與學術界「精心打造」,舉例來說,光達已經可以清楚辨識3D目標物的形狀,同時自駕車的「語義」(semantic)感知在物體分類方面也有所改善。

不過仍缺乏的,是「預測性感知」(predictive perception);Iandola指出:「預測性感知技術的研發幾乎還沒開始。」

舉例來說,如果自駕車不能預測某目標物在5秒後的可能位置,就不能決定是否該煞車或轉向,甚至是在看到該目標物體後。「在運動規劃與預測性資訊之間需要一個標準介面,」Iandola表示:「如果這個問題沒有解決,我得說要實現Level 4自駕車真的很困難。」

極端案例能模擬嗎?

在公開道路上測試自動駕駛車輛之前的模擬顯然非常重要,但更重要的是實際上如何模擬。安全自動駕駛車輛系統開發商Edge Case Research共同創辦人暨執行長Michael Wagner表示,對自駕車開發者來說有一個壞消息是,儘管累積了數十億英哩的模擬駕駛里程,也不一定能涵蓋自駕車可能遭遇的所謂「極端案例」或「邊緣案例」。

在過去幾年,深度學習晶片供應商耗費大量資源,宣傳深度學習演算法可能實現全自動駕駛系統,這種演算法可能讓自駕車發展出類似人類的能力,能在不需要知道每一種可能情況的前提下識別不同圖形。

20180410_AV_NT02P1

仰賴深度學習的自動駕駛系統能被訓練,發展出類似人類的能力
(來源:Drive Safely)

不過來自反面的聲音是,當機器學習或深度學習系統遭遇以往未見過的事物──被稱為長尾(long tail)或離群值(outlier)──會被「嚇到」;而人類駕駛在面臨實在異常的狀況時,至少會有的反應是覺得奇怪,他們知道在某種程度上需要有所反應,而機器則可能不會記錄極端異常的情況,會繼續往前走。

Wagner表示,Edge Case Research專注於建立這樣的極端情況,以納入模擬軟體平台;他坦承一切還在早期開發階段,該公司的平台代號為「全像」(Hologram),目標是將實體車輛所行駛過的每一英哩轉化為數百萬計的可能場景,儘可能快速且安全地根除「未知的未知」。

要為自動駕駛車輛建立這種「極端案例」並不簡單;Wagner指出,在歐洲有一個名為Pegasus的專案利用了一種資料庫方法來確保自動駕駛安全,但挑戰在於該專案的某部份場景,可能對神經網路來說不一定重要。

Wagner表示,也就是說,我們其實並不知道神經網路會發現什麼難題或不容易處理的情況,更別說為何神經網路會有那樣的行為模式:「隨機性對於建立異常案例非常重要,我們利用實際的場景,在影像上做不少變化,然後在我們的Hologram平台上進行細微修改。」

他將Hologram形容為一個試驗專案:「我們正在向投資者推銷這個平台,以擴大它的規模。」而自動駕駛系統帶給汽車業者的最大衝擊,就是軟體內容不斷膨脹…

 
繼續閱讀: 我們能否讓自駕車事故悲劇不再發生?(下)

編譯:Judith Cheng