Uber自駕車不久前在美國亞利桑那州發生的撞人致死意外事故,在科技社群引發了熱烈討論;當然,在指責Uber自駕車應該為這起事故負責之前,等待美國國家高速公路交通安全局(NHTSA)以及美國國家運輸安全(NTSB)的調查報告還是比較謹慎的做法。

但是對於科技社群來說,現在才開始思考怎麼讓自動駕駛車輛避免撞死一個過馬路的女士已經太晚。根據該場事故的錄影視訊,那輛Uber自動駕駛車輛不只沒有停下來,它在橫越馬路的行人──動作並不快、也不突然──橫越其前進路線時甚至沒有減速。

對此市場研究機構The Linley Group資深分析師Mike Demler表示:「這會是很難回答卻非常重要的問題;Uber需要回答的是──那輛車的駕駛在那個時間(編按:約晚間10點)上路是什麼目的?是夜間測試嗎?當時車上的雷達/光達(lidar)功能正常嗎?是否其軟體就是對緊急狀況完全無法反應?」

讓許多車用技術專家們震驚的是,那輛Uber自駕車(採用Volvo XC90車款)配備的感測器──包括雷達、光達、車用視覺──似乎都沒有在看路,而如同功能完整的、面朝駕駛人的攝影機錄影顯示,車上所謂的「安全駕駛人」也沒有注意路況。

技術顧問機構VSI Labs創辦人暨負責人Phil Magney表示:「自動駕駛車輛堆疊(AV stack)未能成功偵測的是實令人驚訝;」但他也指出:「除非某些感測器或功能是為了測試、或是隔離特定功能而暫時關閉。」

以上是對可能發生的狀況最寬容的一種解釋;但在跳到任何結論之前,筆者問Demler與Magney,佈署於Uber自駕車上的哪一種感測器──在理論上──在偵測道路上出現的物體的任務上扮演最關鍵角色?

20180326_Uber_NT02P1

Uber自駕車的感測器組合
(來源:Uber)

感測器所扮演的角色

Magney表示:「VSI Labs認為,光達在這樣的意外事故中應該最有幫助,儘管雷達以及/或攝影機也完全有可能掌握到行人蹤跡。」

Demler則指出:「根據從視訊檔案中所見,那樣的距離應該是所有感測器都可以掌握到那個牽著自行車過馬路的女士;當她被車頭燈照亮,在被撞上之前應該還有1~2秒時間,車上的攝影機應該已經偵測到她。」

但考量到事故發生於黑暗中,Demler表示:「雷達與光達應該都首先擷取到她的影像,那輛Uber據報以時速38英哩行駛,大約是以每秒17公尺的速率接近,而就算是短距離雷達(short-range radar,SRR)的覆蓋範圍也可達100公尺。」

他舉例指出,在一篇德州儀器(TI)的白皮書中描述某裝置之清晰覆蓋距離可達80公尺,也就是說車輛可以擁有4~5秒的反應時間:「不過那輛車一定也有長距離雷達(long-range radar,LRR);Bosch的LRR偵測距離可達250公尺。」而且,「還有光達;那輛Uber車頂上配備了旋轉的64元件(64-element) Velodybe光達,偵測距離為120公尺。」

在被問到那些感測器中最弱的環節何在時,Demler表示,攝影機「顯然是在夜間使用時最弱的感測器;」他指出:「雷達能提供最佳長距離偵測而且不怕晚上,但光達的偵測距離接近雷達,空間解析度(spatial resolutio)也更高。」

Demler指出,事實上那輛Uber Volvo配備了360度的雷達/光達,顯然也沒有障礙物,因此有清晰的視野;綜合以上因素,他認為:「車子的感測器系統沒有藉口偵測不到過馬路的女士。」

而雖然車用視覺系統可能在夜間感測能力上最弱,Magney推測視覺感測器──特別是那些支援高動態範圍,或是最好配備感熱攝影鏡頭的會有幫助:「理想上,向前看的感熱攝影機能被用來避免這類的行人碰撞事故,特別是當目標身著深色衣物、又在黑暗中;」而他也指出,毫米波雷達一定能偵測到行人。

其他非硬體故障與人為因素

要了解這種自駕車事故最困難的地方,在於除了硬體故障的可能性,軟體錯誤也可能導致車輛的高度先進硬體無法正確運作。Magney警告,問題不僅限於每個感測器元件的功能,一切取決於:「感測器元件是如何被編程,以監看被篩選出的對象。」

Magney強調,系統故障並不一定意味著感測器出問題:「一切取決於那些感測器是如何被編程;演算法被訓練成偵測特定種類的物體、過濾掉其他。在此同時,還有其他演算法會判別其他行動者的姿勢與軌跡。」

根據警方公布的事故發生當時Uber車內影像(參考下方YouTube視訊),顯示車上的人類助手是低著頭;從視訊內容可以看到這位「安全駕駛」在車子撞上行人的最後一刻顯然是受到驚嚇,因為車子並沒有停下來。

而過馬路的行人直到被撞上前的不到兩秒才出現在視訊中,有人質疑這可能讓車上的人類駕駛很難及時反映並避免事故發生。Magney表示:「無論如何,首先車上配備安全駕駛就有一個理由,」但不清楚Uber對那些駕駛的資格、職責以及任務要求為何。

筆者在其他自駕車廠商的宣傳視訊也看過在測試車輛方向盤後,坐著一位所謂的「安全駕駛」,而當然我會單純假設那些駕駛是為了在行駛於公開道路途中,測試自駕車上特定狀況(包括感測器與軟體)的工程師;但Magney指出那輛肇事Uber自駕車顯然並非如此。

「當然安全駕駛有接受過訓練,並且同意會全神貫注於車輛的表現、準備好隨時在即將發生的危險狀況下接手駕駛權;」他指出:「我猜測這位安全駕駛有被告知並且同意專注路況。」

「系統並未徹底故障,駕駛人應該也意識到如果是這樣,車輛配備的科技能充分將這種狀況造成的傷害最小化;」Demler指出:「但每一個有過夜間駕駛經驗的人都知道,不要超越你的車頭燈,」他解釋,也就是車速不應該高於在車頭燈照亮範圍讓車子停下的時間。

以自動駕駛車輛來說,就是「不要超越你的感測器」;如果發現車輛系統的延遲較大,Uber自駕車無法在行人穿越前方時及時剎車,就不應該讓車子上路。

自動駕駛技術是一門藝術

針對如何讓像是感熱攝影機這樣的裝置在黑暗中看到行人,Magney解釋,這不僅需要具備如此功能的感測裝置,也需要軟體的搭配:「你的軟體必須要能預測路人的行為,儘管這很複雜,你能根據情境線索來編程,幫助自駕車預測行人的運動與行進軌跡。」

不過他也坦承,這種自駕車必須用以檢查與預測路人行為的方法會是「一門藝術」,針對脆弱行人的行動預測模型,能有助於預測路人會在幾秒鐘內到達何地;Magney表示:「我猜測Uber已經有那些模型,但速度以及缺乏對比,或許限制了攝影機執行計算的能力。」

那是否可能出現感測器融合方面的錯誤呢?專家們認為這起事故應該不存在這種問題;Demler表示:「視訊中出現了那個行人,因此電腦應該有足夠的資訊做出反應,所以不是軟體不好、電腦太慢,就是雷達/光達沒有作用,或是以上問題都發生了。」

在他看來,Uber應該要立即藉由釋出光達/雷達資料來回答這個問題;他認為,雖然警方公佈了事故發生當下的視訊提供了重要線索,但從其他感測器系統(雷達與光達)的資料應該可以看出更多問題所在。

編譯:Judith Cheng

(參考原文: Robo-Uber: What Went Wrong,by Junko Yoshida)