美國國家運輸安全委員會(National Transportation Safety Board,NTSB)針對Uber自動駕駛測試車輛在美國亞利桑那州(Arizona)發生的撞人致死事故初步調查報告,在關於Uber自駕車究竟出了什麼問題上面提供了我們一些深入觀點,也揭露了幾個令人驚訝的事實。

其中最令人驚訝的,是Uber決定將該Volvo製造測試車輛出廠配備的先進輔助駕駛(ADAS)功能停用,包括自動緊急剎車(AEB);對此技術顧問機構VSI Labs創辦人Phil Magney接受EE Times訪問時表示:「這可能是自動駕駛計程車開發過程的例行工作,因為你不會希望原廠的ADAS系統與Uber的自駕車堆疊(AV stack)發生衝突。」

但讓筆者與其他人感到困惑的是,為何Uber在公開道路上進行測試時也把自己的AEB功能給關了?當然,這是假設Uber的自駕車堆疊具備能正常運作的AEB。根據NTSB的報告,Uber聲稱其「開發中的自動駕駛系統若發生故障時,是仰賴專注的操作人員出手干預,讓系統得以在測試過程中適當運作。」

而仔細閱讀NTSB的初步調查報告,揭露了兩個問題:其一是Uber自駕車軟體堆疊的不成熟,另一個則是Uber在打造其自駕車測試平台時缺乏安全策略。

Uber自駕車軟體堆疊

首先是Uber自駕車軟體堆疊部份,我們會說它「不成熟」,是因為其感測器似乎有太多誤報狀況讓Uber困擾,甚至達到該公司更信任人類駕駛員而非自家自駕車的程度。Uber在接受調查過程中對NTSB表示:「緊急剎車功能在車輛被電腦控制時無法作用,以降低車輛出現不穩定行為的可能性;車輛是仰賴隨車操作員保持專注並採取行動。」

市場研究機構The Linley Group資深分析師Mike Demler懷疑,Uber的感測器融合,更精準地說是他們自己開發的軟體「壞掉了」。但大家都想從NTSB報告中找到的關鍵資訊,是從Uber自動駕駛系統取得的資料。

在NTSB的報告中寫道:「…在車輛以時速43英哩行駛時,該系統是在發生撞擊前大約6秒鐘記錄到雷達與光達(LiDAR)發現行人;當車輛與行人的路徑會合,自動駕駛系統軟體先將行人歸類為未知物體、車輛,然後是未來行進路徑有不同預期的自行車。在撞擊發生前1.3秒,自動駕駛系統決定需要採取緊急剎車操作以減輕撞擊。」

文章最上方NTSB提供的大圖顯示Uber自動駕駛系統資料在撞擊前約1.3秒的資料重現,當時系統決定需要採取緊急剎車操作,以減輕撞擊。圖中的黃線標示了車輛前方距離(公尺),橘色線是對向車道中線;紫色的區塊則是車輛行駛路徑,其中的綠色線是車道中線。

這種自駕車的片刻遲疑──從發現行人的撞擊前6秒,到做出決策的撞擊前1.3秒──在車輛緊急情況中幾乎是永遠;問題在於為何Uber自駕車會等那麼久才反應。對此Demler認為:「那裡有某個東西,所以該軟體應該在6秒內採取行動避免撞到它。」

平心而論,考量到機器學習的非確定性(non-deterministic)本質,該測試車輛的猶豫是一種機器人意識。如Magney所言:「當感測器偵測到某個物體時,會有一段分類的辛苦程序;一個牽著上面有一堆袋子的腳踏車的人…這個場景可能是該系統未受過訓練的。」

此外他指出:「也會有關於物體在車輛(最初)軌跡之外的問題;儘管如此,電腦並非一開始就將該物體視為威脅,因為預測運動並不準確。」

自駕車測試平台安全嗎?

Uber的軟體絕對有技術問題;雖然所有車子裡的軟體毛病都讓人不安,更深一層的問題是Uber對於在公開道路上行駛未臻完美的自動駕駛車輛,是如何嚴肅地負起責任?還有Uber的自駕車測試平台採取了什麼樣的特定安全措施?

Demler表示,Uber軟體缺乏恰當的感測器融合,是「技術性問題」;但Uber因為軟體容易出現誤報而關閉AEB,就是「管理失責」。

在這裡值得注意的事實,並非Uber的自駕車不夠完美;美國卡內基美隆大學(Carnegie Mellon University)教授、安全專家Phil Koopman在一篇刊登於EE Times的部落格文章中就寫道:「其實是一輛『測試車』撞死了Elaine Herzberg——而不是完全自動駕駛車釀禍。」

讓我們面對現實:我們都知道自動駕駛技術不成熟,但這並不代表我們不關心測試車輛的安全。我們應該要問Uber,該公司還要走多長一段路才能確保其測試自駕車的安全?沒有任何人應該為了讓機器人世界安全而犧牲。

在NTSB的初步調查報告出爐後,Koopman重申:「找出自動駕駛技術出了什麼問題、吸取教訓並改善安全性非常重要;這起事故真的不是自動駕駛技術的失敗,而是自駕車在公開道路上測試的安全失誤。」

簡而言之,他認為:「指責任何一種自動駕駛技術故障是造成死亡事故原因,都是誤解;事故的發生是因為自駕車測是的安全方案出錯;」他補充指出:「考慮一下,Uber知道自動駕駛技術不可靠,因為還在開發階段。所以為何自動駕駛技術故障應該令人驚訝?故障是可預期的;這也是為何他們有隨車安全駕駛員。」

 
繼續閱讀:自駕車測試需要「亡羊補牢」而非「江心補漏」的安全措施

編譯:Judith Cheng