美國卡內基梅隆大學(Carnegie Mellon University)機器人研究所的研究人員直接在機器手臂上安裝深度相機,從而設計出一種可提高機器人情境感知能力的演算法,使其得以同時考慮來自相機的3D繪圖以及機器手臂感知的機器方位。

研究人員表示,即使相機非常快速地移動或感測器的資料遺失或誤導,這種「同時定位與映射」(SLAM)途徑藉由追蹤關節的角度,以及精確掌握相機固定在手臂上的位置,就能讓系統產生高品質的地圖。

這有助於使其更能決定相機的姿態,不僅提高3D地圖的精確度,同時還可更精確地定位機器手臂在新建模空間中的位置。

最終,這種途徑可以幫助機器深入更緊密的空間或拾取一個更細緻易碎的物件,而無需先建立環境的背景知識,也不必依賴太過於運算密集型的感測器資料處理。

使用小型深度相機連接至一款輕量的機械手臂——Kinova Mico,研究人員們成功地重建了書架的3D模型,打造較其他映射技術更好的重建途徑。