儘管有非技術媒體鑒於特斯拉(Tesla) Model S電動車最近發生的致命事故而預言自動駕駛車輛的消亡,筆者還是想在這篇文章中介紹感測器電子元件以及更好、更精進的軟體演算法,而它們終究可望在接下來的十年內實現安全的全自動駕駛車輛。

Tesla已經一再表明Model S並非自動駕駛車輛,Tesla電動車駕駛人需要清楚地認知:「這種系統只是新技術,並且仍處於公開測試階段。」

而BMW、Mobileye和英特爾(Intel)三家公司在7月份宣佈合作開發自動駕駛車輛平台時,也強調「安全第一」的原則,因為駕駛人的安全最重要。

美國全國公共廣播電台(NPR)記者Sonari Glinton在最近的一場廣播節目討論中也表示,Tesla Model S是具備自動駕駛「功能」,而這些功能只是提供輔助、並非要替代駕駛人。

Google的全自動駕駛測試車輛則是仰賴成本更高、更複雜,採用光達(LiDAR)技術的遠端感測(remote sensing)系統。

Tesla執行長Elon Musk曾表示:「全自動駕駛車輛顯然需要360度攝影機,可能還需要額外的前向(forward) 攝影機、運算硬體,以及電動馬達和轉向齒條(steering rack) …也就是說,我認為並不需要LiDAR,只要利用被動光學元件和一個前向雷達就能實現自動駕駛。」他正致力為消費性市場推出價格相對能被大眾負擔,且強調安全性的車輛。

Tesla的Autopilot自動駕駛系統仰賴:「攝影機、雷達、超音波感測器和資料的結合,以自動控制汽車在高速公路上的行駛、變換車道以及根據交通流量調整速度;」該系統採用以色列晶片設計業者Mobileye提供的自動剎車技術。

Tesla電動車採用的Mobileye Emergency自動剎車功能,是「專門為避免後方追撞所設計」,因此無法避開今年7月1日在美國發生之Model S致命事故中的側面碰撞;如前面提及,這種技術還在繼續進行開發。例如有相關文獻描述了以視覺技術為基礎的自動駕駛動態控制設計,並將重點放在緊急避障功能中的協調轉向(coordinated steering)和剎車控制;另有相關文獻介紹了一種創新方法,可以用來避免致命的意外事故。

Google已經在美國數個州進行自動駕駛車輛測試;Tesla則宣佈在今後三年內推出完全自動駕駛車輛;共乘服務業者Uber則在美國匹茲堡(Pittsburgh)開設了一個測試場地,準備發展一個自動駕駛計程車隊。

日本車廠豐田(Toyota)曾透露,其公路自動駕駛汽車安裝了12個用以擷取資料的感測器,包括1個安裝於後照鏡背面的攝影機模組,5個使用無線電波擷取其他車輛速度的雷達感測器,以及6個用於檢測汽車周圍物體位置的雷射感測器。

還有美國加州已經頒佈了在公共道路上測試、操控自動駕駛車輛的法律框架。

雖然我們尚未準備好迎接全自動駕駛車輛,但應該是在不遠的未來——在那之前,我們的手還是得握好方向盤,眼睛也要隨時盯著路況。

感測器是自動駕駛的眼睛和耳朵

若自動駕駛車輛擁有「耳朵」,能在警車、救護車或消防車駛近,能透過車載攝影機或LiDAR看到前先聽到警笛聲並確定其方向…怎麼樣?或者在駕駛人、LiDAR或攝影機的視力所及之前,就先聽到重型機車接近的聲音呢?

以下讓我們來看看自動駕駛車輛使用的各種感測器技術──以設計工程師對電子感測器的專業見解,探索這些感測器如何與內建先進處理器與軟體演算法的車輛「大腦」相連。

扮演自動駕駛車輛眼睛的技術

LiDAR

這是一種使用旋轉雷射光束的系統,獲得BMW及Google、日產(Nissan)和蘋果(Apple)研發的實驗用自動駕駛車輛採用,但若要在大眾車款中應用這類系統,必須等待其成本大幅下降。

20161128 mobilesensor NT51P1

圖1:LiDAR基本原理;圖為一對單發射器/檢測器搭配可活動旋轉鏡的 LiDAR設計;這種架構可以實現至少一個平面上的掃描;其中的鏡子不僅可以反射二極體發出的光,還能將返回光線反射到檢測器。透過在這種應用中配置旋轉鏡,可以實現 90~180度的典型方位視角,同時簡化系統設計和可製造性,因為只有鏡子是活動零件。
(圖片來源: Velodyne)

美國業者Velodyne能提供一種高解析度LiDAR(HDL)感測器,以因應自動駕駛車輛導航的嚴格要求;其HDL元件可以提供360度的方位視角和26.5度的高度視角,以及15Hz的畫面更新率(frame refresh rate),還有以每秒100萬點速度填入的點雲(point cloud)。

光脈衝以前一直被用來測量距離,這種基礎技術用雷射二極體發射光脈衝;光線會一直傳播,直到遇到一個目標,此時一部分光能會被反射回發射器,在靠近發射器的地方安裝的光子檢測器會檢測到這個反射回來的訊號,而發射脈衝和接收脈衝的時差確定了目標的距離,若啟動這個脈衝距離測量系統,則可以收集到大量的採樣點(也就是「點雲」)。

如果沒有出現任何目標物,那麼發射出去的光永遠不會返回任何反射訊號;如果光線是指向地面,路面就會提供返回訊號。如果目標位於點雲中,就可以在資料中看到一個缺口(notch),根據這個缺口即可確定目標物的距離和寬度。透過點雲中收集的點,便可形成周邊環境的3D影像;點雲越密集,影像就越豐富。

20161128 mobilesensor NT51P2

圖2:傳統的單發射器/檢測器配對之雷射感測器應用
(圖片來源: Velodyne)

3D LiDAR

方案實現3D LiDAR的一種方法是在鏡子旋轉時上下移動發射器/檢測器──有時稱為「眨眼(winking)」或「點頭(nodding)」──這將產生高度(elevation)資料點,但也會減少方位資料點的數量,從而降低點雲密度,造成系統解析度降低。

另外一種方法是「快閃(flash)LiDAR」,該類系統運作時會同時照亮一大片區域,然後在一個專屬2D焦平面陣列(FPA)上擷取所產生的像素距離(pixel-distance)資訊;這種類型的感測器很複雜、生產不易,因此沒有獲得廣泛商用,然而有一天可望替代機械致動感測器,因為它們是固態元件,不需要活動零件。

業界還有許多不同配置的3D點雲系統,但這些系統目前還無法滿足自動駕駛車輛的安全性需求;舉例來說,有許多系統能夠拍到很棒的照片,但拍一張就得好幾分鐘,這種系統就不適合行動感測應用。當然也有具備優異更新率的快閃系統,但視場不足且距離性能也不夠;還有可提供實用訊的單束系統,但當目標物體太小或落在裝置視場以外,這種系統就無法發揮作用。

為了使LiDAR感測器適應最多的使用情境,有必要看清收集點四周的每個角落,即全360度。另外,處理後的資料需要即時遞送給使用者,因此在資料收集和渲染影像之間的延遲必須最小化;例如在自動駕駛導航領域,零點幾秒的人類反應時間一般是可以接受的,因此保證導航電腦的更新率至少每秒十次是很實際的要求。垂直視場需要擴展到地平線之外,以防汽車開進路面凹陷處;也應該盡可能朝看清汽車前方的路面延伸,以適應道路凹陷或陡坡。

各種平價LiDAR感測器產品

Velodyne曾推出一款型號為VLP-32A的車用LiDAR感測器,這款命名為ULTRA Puck的產品(圖3)號稱是首款經濟型、可滿足美國汽車工程師學會(SAE)定義之汽車自動化1~5級要求的LiDAR感測器。福特(Ford)是第一家訂購ULTRA Puck的汽車製造商,準備將其應用於該公司最近宣布擴編的自動駕駛車隊,預計今年稍晚上路。

圖3:Velodyne的ULTRA Puck感測器可實現長達200公尺的覆蓋距離,支援32個LiDAR通道,其提升的解析度可以更容易識別物體;這32個通道部署在28度的垂直視場上,並以獨特的模式配置,能提高地平線上的感測解析度。
(圖片來源: Velodyne)

....繼續閱讀,請連結EDN Taiwan網站。