自動駕駛車面臨電腦視覺挑戰

作者 : Giovanni Di Maria,EE Times

儘管技術進步不斷加快,但自動駕駛還並非100%可靠。教會電腦辨識我們周圍的現實世界是一項極為複雜的挑戰。未來,基於感測器的高解析度,車輛不僅可以學習識別人類或無生命障礙物的輪廓,還可以實現人臉辨識。

儘管技術進步不斷加快,但自動駕駛還並非100%可靠。要趕上(或超越)人類駕駛汽車的能力,尚有一些挑戰需要克服。

什麼是電腦視覺?

電腦視覺(computer vision)涉及的是透過特定的攝影機對物體的辨識和對外部世界的分析。還在不久前,能夠將電腦視覺應用於汽車產業還是不可想像的事情。但現在,已得到了人工智慧(AI)這一強大的資訊技術(IT)新支柱的支援。

電腦視覺有諸多不同的目的:例如識別人、動物和物體;感知障礙物的存在;辨識道路交通標誌和交通燈;確定人員和車輛的方向;以及識別和讀取車牌等。電腦視覺在汽車產業是一種極其關鍵的應用,哪怕是最輕微的誤判也必須避免,畢竟人命關天!

教會電腦辨識我們周圍的現實世界是一項極為複雜的挑戰。未來,基於感測器的高解析度,車輛不僅可以學習識別人類或無生命障礙物的輪廓,還可以實現人臉辨識。

對攝影機即時採集影像的即時處理是電腦視覺的核心要素,近年來已取得了顯著進展。許多公司一直在開發專門用於影像採集和智慧處理的晶片,這些影像是車輛駕駛決策系統的主要輸入判定依據。

例如,Arm開發了Mali-C71AE,這是一種用於多攝影鏡頭汽車視覺系統的影像訊號處理器。應用處理包括360度全景觀測、物體檢測、車道定位、路標識別、後視鏡切換、倒車攝影機和乘客監控等。Mali-C71AE支援在ADAS應用中需要達到ISO 26262 ASIL B診斷要求的視覺系統。

基於對核心電腦視覺演算法的深刻理解,Ambarella開發了CVflow晶片架構。與通用CPU和GPU不同,該公司聲稱,其CVflow包括一個專用的視覺處理引擎,用高階演算法描述語言程式設計,該架構能以極低的功耗將性能擴展到每秒數萬億次操作。

應用場景感知

這些年來,目標檢測晶片在運算能力、運作速度和高解析度影像分析方面變得越來越強大。高解析度和高靈敏度是汽車電腦視覺的兩個基本要素,前者可以支援較大物體的辨識,而後者則支援在低光環境下進行檢測。用於駕駛安全的機器視覺各項要求都非常高。其中之一就是系統的快速回應時間,必須在幾毫秒內對來自圖片的回應完成接收和分析。

今天,3D視覺對於電腦視覺無疑是有用的。透過分析3D影像,系統可以檢測有關汽車軌跡、任何障礙物和其他車輛運動的可靠精確資訊(參見圖1中的檢測示例)。

 

圖1:未來車輛中的感測器將比分心的駕駛更加專注。

 

目前,一些類型的感測器包括超聲波、雷射、雷達、光、聲學和光學系統。未來,基於支持汽車之間進行智慧交換的車對車系統,汽車將學會相互通訊和互動。

基於不同類型感測器網路的檢測結果,人工智慧系統透過複雜和快速的演算法,能夠辨識汽車周圍的一切。經過充分分析後,人工智慧系統發送並發佈正確的命令,以確保安全駕駛。換言之,它計算巡航速度,並且需要為可能的緊急剎車準備命令,或者就是確保汽車不超過速度限制,所有這些情況也必須透過視覺和聽覺警報傳遞給駕駛。

幾乎不可見物體的識別

處理資訊的主要障礙是能夠獲得清晰和超高解析度的影像。現有最複雜的「攝影機」是人眼,它能夠自動適應不同的光線和操作條件,再加上高品質的光學系統,可以將極為詳細的資訊發送到大腦。

的確,技術正在取得巨大進步。但就提供資訊的能力而言,數位攝影機要達到或超越人類,可能還需要很長時間。以下是實現最高精準度影像處理的一些關鍵要素:

  • 掃描/採集速度
  • 攝影機的超高解析度
  • 採集靈敏度(即使在照明條件較差的情況下)

這些功能適於自動數位系統。為了改善所獲得的結果,或者說改善安全性,業界已設計出了更高解析度和更遠距離的感測器。

這些感測器具有非常高的解析度,相當於2,000~3,000行影像,是目前利用傳統方法所獲品質的10倍。這些感測器收集的資訊是可靠的,並與現實世界的資訊一致,同時不受任何外部干擾。

 

圖2:遠端雷達感測器可以檢測幾百公尺以外的其他車輛,並允許系統在緊急情況下迅速干預。

(來源:博世)

 

最近的技術進展可望更進一步。研究人員嘗試了一種新方法來檢測道路上的元素,即使它們部分或完全位於其他物體後面。該系統利用神經網路演算法,透過對可見部分進行分析,來重建人和物體的隱藏部分。

普林斯頓大學(Princeton University)的一個研究小組正在研究都卜勒(Doppler)雷達的應用,以檢測和追蹤隱藏的物體,而韓國光州科學技術研究所正在開發一種神經網路,使機器能夠管理覆蓋空間中被遮擋的物體。

這可能會讓位於「幾乎和真人一樣」的感測器,透過對一些可見元素進行觀察和分析,並對資料庫進行分層處理來重建。實際上這是人類的大腦重建了障礙物的缺失部分,這是一個真正的視覺推斷,它將支援100%的自動駕駛。

車輛中的人工智慧

聚焦物體是影像處理中最困難的任務之一。該系統必須處理不斷變化的高解析度影像,這些變化因距離和角度隨時間變化,以及光學條件的瞬間和連續變化而導致。

為了在所有安全方面模擬人類行為,尚有幾個問題需要解決。例如,自動駕駛的人工智慧仍然需要改進,而這些改進可能會在未來的量子電腦中得以實現。

然而,系統還需要具有更高速度、更高解析度和更高靈敏度的精密高性能感測器,以獲得最高品質的影像。如果開發不出來夠精密、解析度和探測距離都有較大改進的光學和聲學感測器,來獲取超高品質的資訊、上述這些改進也終將無用。

收集的資料和資訊是一項關鍵資產,必須用於填充大型資料庫。只有以協同方式將不同的要求結合起來,才能實現所有人的安全車輛駕駛。此外,為了盡可能接近理想的自動駕駛,需要多種類型(光學、聲學、雷達和其他類型)的360度感測器,來實現大量的「感知」,實際上這要比人類感知所需的數量多得多。

得益於人工智慧,最苛刻的動作,如臉部辨識和對動物、植物及物體的識別,都應該會得到改進。透過將遺傳演算法與臉部特徵和其他元素的數學分析結合,可以為安全保證提供可靠的支援。另外,還有一些研究正在透過步行方式和平均步幅來辨識行人,如圖3所示。

 

圖3:一些感測器可以簡單地透過行人移動的速度來進行識別。

 

同樣關注的還有其他有用的方面,例如駕駛輔助、在危險情況下提供協助、檢查駕駛是否打瞌睡、或者根據駕駛的駕駛風格來調整駕駛座艙設置等。再來是,透過實施高階預測性維護,人工智慧還可以在早期階段預測到引擎或車輛其他關鍵零件可能將出現的故障。

結論

就自動駕駛車輛的安全水準接近100%來說,可能還需要一段時間。目前,各公司主要都在致力於盡可能提高道路安全,並大幅增加自動駕駛模式下的行駛里程數,或者說減少由人類直接駕駛的里程數。

模仿人類駕駛的行為的確是一項挑戰。幾年後,大多數車輛將連接到網路,但根據研究人員的說法,要實現真正的自主性(全自動駕駛),恐怕還需要等待大約20年。即便如此,該產業的革命仍在進行中,由真正的人工智慧管理的車輛將為人類提供全面服務(參見圖4中的預測圖)。

 

圖4:未來幾年自動駕駛市場將呈指數成長。

(來源:Di Maria,基於Grand View研究資料)

 

自動駕駛車是汽車產業創新的關鍵驅動力,具有成長潛力。感測器實現高品質資訊採集當然很關鍵,但就基於資料分析、處理和決策來執行最苛刻的任務而言,演算法和系統管理方法則更為重要。

(參考原文:Computer-Vision Challenges in AVs,by Giovanni Di Maria)

本文同步刊登於《電子工程專輯》雜誌2022年11月號

 

 

 

 

加入我們官方帳號LINE@,最新消息一手掌握!

發表評論

  1. 勇志 陳329表示:

    In bad weather, has it been overcome?