美國麻省理工學院(MIT)和德雷珀實驗室(Charles Stark Draper Laboratory;CSDL)開發出視覺輔助導航技術,讓救援或偵察無人機在GPS訊號無法到達的環境下實現自主飛行。

為了克服GPS訊號的限制,以往的研究嘗試使用其導航技術,例如光達(LiDar)等,但都無法成功。相形之下,MIT與Draper開發的技術並不像以往一樣依賴於定向結構的系統、動作擷取系統或地圖。此外,許多替代性方案還受限於無人機45mph的飛行速度——超越許多板載通訊訊號速度範圍。

當先遣急救人員或士兵在地下室、茂密的森林遮蓋下或高樓大廈密集的都市叢林等GPS訊號無法到達之處操作無人機(UAV)時,MIT與Draper研究人員的解決方案能讓UAV能在未知的環境下自動操控。

20171027_MIT_NT01P1 MIT和Draper實驗室的研究團隊打造出一款具有視覺能力的無人機,能在地下室、森林和都市叢林等沒有GPS訊號的環境下進行導航(來源:Charles Stark Draper Laboratory)

這款配備感測器與攝影機的四軸飛行器由DARPA「高速輕量自主飛行」(Fast Lightweight Autonomy,FLA)計劃贊助,並已針對室內與戶外混合的情況(包括雜亂密集與開放的環境)進行測試,在沒有遠端飛行員操作的情況下,模擬UAV快速飛航於未知環境時可能遇到的情況。

研究團隊表示,由Draper實驗室開發的導航方法結合了視覺與慣性感測功能,並形成一種新的狀態評估途徑:可用於估算無人機的位置、方向和速度。研究人員將這種途徑稱為「以慣性狀態評估無縫運作與映射(smoothing and mapping with inertial state estimation;SAMWISE)。

20171027_MIT_NT01P2 Draper的SAMWISE感測器融合演算法可讓無人機在無映射、無法取得GPS導航的環境中,能以45mph的速度飛行(來源:Charles Stark Draper Laboratory)

這款測試無人機採用特定的感測器和演算法配置,以及基於IMU導航的單眼相機,在躲避樹木、定位建築物入口以及進出建築物時,都能成功地保持精確的位置估算。這項技術還可能適用於地面或水下等其他無法存取GPS的地點。

MIT工程師多年來致力於開發各種自主機器人和無人機導航,包括光達、RFID以及同步定位與映射(SLAM)等。

編譯:Susan Hong

(參考原文:Rescue Drones Fly by Vision, Inertial Sensing,by Ann R. Thryft)