為機器人安裝「逆向工程昆蟲大腦」!

作者 : Sally Ward-Foxton,EE Times歐洲特派記者

英國新創公司Opteran對神經形態工程有著完全不同的看法。該公司對昆蟲大腦進行了反向工程,以開發出可用於機器人的防撞和導航新演算法。

英國新創公司Opteran是雪菲爾大學(University of Sheffield)的一家分支機構,與大多數產業相比,它對神經形態工程有著完全不同的看法。該公司對昆蟲大腦進行了反向工程,以開發出可用於機器人的防撞和導航新演算法。

Opteran將其人工智慧(AI)的新方法稱為「自然智慧」(natural intelligence),為系統的演算法部分提供了直接的生物靈感,這與現有的電腦視覺方法不同。電腦視覺方法主要使用主流人工智慧/深度學習(DL)或攝影測量,而攝影測量則是一種使用2D照片來推斷3D物件資訊(如尺寸)的技術。

Opteran的自然智慧不需要訓練資料,也不需要訓練,更像是生物大腦的工作方式。如今的深度學習能夠實現狹義的人工智慧——它可以在有限的環境(如電腦遊戲)中執行精心定義的任務,但這需要大量的訓練資料,也需要大量的運算資源和功耗。Opteran希望透過密切模仿大腦的實際功能來克服深度學習的局限性,以便在運算資源和功耗預算緊張的情況下,能夠設計出與現實世界互動的自主機器人。

Opteran科學長James Marshall教授最近在嵌入式視覺高峰會(Embedded Vision Summit)上的一次演講中說:「我們的目的是逆轉——或重新設計自然演算法,創造一種軟體大腦,使機器能夠更像自然生物那樣來感知、行動和適應。」

「模仿大腦開發人工智慧是一個古老的想法,可以追溯到Alan Turing,」他說。「另一方面,深度學習基於靈長類動物大腦視覺皮層的一小部分的草圖,卻忽略了真實大腦的巨大複雜性……現代神經科學技術正越來越多地被用來提供所需的資訊,以忠實地對真實大腦如何解決自主性問題進行反向工程。」

反向大腦需要一起研究動物行為、神經科學和解剖學。Opteran一直在研究蜜蜂的大腦,因為它們既夠簡單,又能夠協調複雜的行為。蜜蜂能夠在超過7英哩的距離上進行導航,並準確地向其他蜜蜂傳達它們的思維地圖。它在針頭大小的高能效大腦中,僅用不到100萬個神經元就完成了所有這些功能。

Opteran成功地反向設計了蜜蜂用於光流估計(由觀察者相對運動引起的場景中物體的視在運動)的演算法。該演算法可在小型FPGA上實現光流處理,主頻率為10kHz,功耗小於1W。

「這種性能在所有維度上都超過了深度學習技術的水準,包括強健性、功率和速度,」Marshall說。

生物演算法

生物運動檢測是在1960年代基於昆蟲大腦實驗建立的數學模型。這個模型被稱為Hassenstein-Reichardt探測器,它已經透過不同的實驗方法得到了多次驗證。在這個模型中,大腦接收來自眼睛中兩個相鄰受體的訊號。當一個受體的輸入被延遲後,如果大腦同時接收到這兩個訊號,神經元就會啟動,因為這意味著所看到的物體正在移動。再對另一個訊號也進行延遲,如果結果也是這樣的話,則意味著,物體在任一方向上移動時模型均有效(因此模型具有對稱性)。

Marshall在他的演講中解釋,Hassenstein-Reichardt探測器雖然足以模擬果蠅的運動檢測,但對空間頻率(影像中明暗分佈模式)和對比度高度敏感,因此不太適合廣義視覺導航。

「蜜蜂做的就更聰明一些,它們對這些基本單位做了一種新穎安排,」Marshall說。「蜜蜂的飛行行為對空間頻率和對比度表現出很強的強健性,所以肯定還有其他原因。」

Opteran利用蜜蜂的行為和神經科學資料,實現了自己的視覺慣性里程估計器和防撞演算法,參見圖1(右)。該演算法經過基準測試,發現在理論精確度和雜訊強健性方面優於FlowNet2s (當時最先進的深度學習演算法)。Marshall指出,深度學習的實現還需要GPU加速,並伴隨相關的功耗損失。

 

圖1:(左)作為生物大腦中的運動檢測模型的Hassenstein-Reichardt探測器;(右)源於蜜蜂大腦的Opteran專利演算法。

(來源:Opteran)

 

真實世界的機器人技術

這是一個很好的理論,但它在現實世界中有效嗎?Opteran確實已經將其演算法應用於現實世界的機器人。該公司開發了一款機器狗展示版本Hopper,其外形與Boston Dynamics的Spot相似。Hopper基於Opteran的碰撞預測和規避演算法,採用基於邊緣的視覺專屬解決方案;當辨識出潛在的碰撞時,一個簡單的控制器會使其轉向。

Opteran還在研究一種3D導航演算法,同樣也是基於蜜蜂。該解決方案將等同於現今的同步定位和映射(Simultaneous Location and Mapping,SLAM)演算法,但它也將處理路徑規劃、路由和語義。Marshall說,利用同樣的硬體,功耗只有幾分之一瓦。

「另一個很大的節省是透過這種方法生成的地圖大小,」他說。「對於傳統的基於攝影測量的SLAM生成的地圖,每平方公尺所需的位元組數約為數百兆(MB)到數千兆(GB),這便為大面積地圖的繪製帶來重大問題,而我們的地圖每平方公尺只消耗幾千位元組(KB)的記憶體。」

該演算法的展示版本已用於一架攜帶一台低解析度攝影機(小於10,000畫素)的小型無人機上,實現了基於視覺的自主導航。

軟體及硬體

Opteran的開發套件使用小型Xilinx Zynqberry FPGA模組,重量不到30g,功耗不到3W。該套件需要兩個相機,使用的是廉價(20美元)的Raspberry Pi相機。不過,在產品開發期間,Opteran還將與其他OEM合作,校準其他類型的相機演算法。

目前的FPGA可以同時運作Opteran的全方向光流處理和碰撞預測演算法。Marshall說,根據需要,未來的硬體可能會遷移到更大的FPGA或GPU上。

該公司正在為機器人應用建構軟體堆疊。在電子穩定全景視覺系統的頂部,有防撞,然後是導航。決策引擎的工作正在進行中(預計2023年完成),以允許機器人決定它應該去哪裡,以及在什麼情況下去。未來的元素包括社交、因果和抽象引擎,這些引擎將允許機器人互動,在現實世界環境中推斷因果結構,並從體驗情境中抽象出一般準則。所有這些引擎都將基於生物系統——無需深度學習或基於規則的學習系統。

目前,已有客戶在協作機器手臂(collaborative robot (cobot) arms)、無人機和採礦機器人中使用了穩定視覺、防撞和導航功能。且Opteran上個月已完成一輪1,200 萬美元融資,將為其自然智慧方法的商業化和其堆疊中剩餘演算法的開發提供支援。

公司未來的研究方向還可能包括對其他更複雜動物大腦的研究,「我們從昆蟲開始,但這種方法會擴展。將在適當的時候研究脊椎動物,這無疑是我們的路線圖,」Marshall介紹。

(參考原文:Reverse-Engineering Insect Brains to Make Robots,by Sally Ward-Foxton)

本文同步刊登於《電子工程專輯》雜誌2022年11月號

 

 

 

 

加入我們官方帳號LINE@,最新消息一手掌握!

發表評論