無論是自動駕駛技術或是先進駕駛輔助系統(ADAS),要讓車子「看」得更清楚且具備智慧功能,都是實現提升乘客安全性終極目標的必備條件;為此交通大學(以下簡稱交大)電子研究所教授郭峻因所率領的團隊在科技部經費補助之下,歷時八年時間開發出號稱超越國際水準的嵌入式AI物件辨識系統,以及可加快AI資料庫建置速度的視訊資料自動化標記工具ezLabel 2.0。自2016年以來,該團隊研發成果已經取得59件產學合作、技術移轉與技術諮詢。

郭峻因指出,支援AI技術的自駕車/ADAS系統有三個缺一不可的關鍵要素:充足的資料庫,高效能/高準確度AI演算法,以及具備特定用途加速器的嵌入式系統硬體平台。但是要讓AI演算法進行學習訓練的資料庫標記工作非常繁瑣,得先付出不少「工人智慧」;其團隊開發出一套快速視訊資料自動化標記工具ezLabel 2.0,與人工手動標記方法相較,效率是10~15倍以上。舉例來說,標記1,100張畫面的相同一部車輛,人工需要花33.25分鐘,ezLabel 2.0工具則只要3.55分鐘。

ezLabel 2.0曾獲得車廠Audi舉辦的AUDI Innovation Award獎項,且獲得多家廠商試用。郭峻因的團隊已經建置並公開了一個具備1,500萬筆以上包括行人、汽車、機踏車、交通號誌等物件,並有白天、晚上、雨天、逆光等天候類別的AI標記影像資料庫,可支援適合台路況環境的自駕車/ADAS物件辨識技術開發。

在用以偵測物件的深度學習演算法方面,交大團隊的研發成果NCTU SSD lite則號稱比起全球AI領域當紅YOLO v2演算法準確度更高,且模型更小、運算複雜度更低,不需要採用昂貴的GPU硬體運算平台,以車用嵌入式處理器如Nvidia、TI、NXP與台灣業者芯鼎(iCatch Technology)的方案(參考下圖),可實現平均準確度近九成的即時物件偵測運算效能。

20190612_NCTU_NT11P1

交大物件偵測AI演算法與嵌入式系統結合,能實現高準確度即時運算效能。
(來源:EE Times Taiwan)

另外交大團隊結合物件偵測與分割的深度學習技術(Multi-Task CNN),針對自駕車應用開發出多重功能ADAS系統,可在嵌入式系統上同時實現防車道偏離、盲點偵測、自動緊急煞車、前方/後方碰撞警示…等等功能。該團隊也將AI物件偵測應用於車輛行為預測,例如後方的汽機車是否會在未來3秒超車,如此能進一步保障駕駛安全。

而其實郭峻因的團隊(交大智慧視覺系統設計實驗室)已經在2017年誕生了一家名為魁達智慧國際(creDa)的新創公司,以ezLabel智慧標記技術作為主打產品,並且在今年1月參與科技部率領的團隊於美國舉行的國際消費性電子展(CES)亮相;期待這家台灣「土產」新秀能在國際AI市場上發光!