目前所處的第四次工業革命,正在透過部署各種新興技術來革新所有產業。系統現在能夠利用共用設備、機器和工廠資訊來連接萬物,工廠環境中的智慧設備能夠獨立管理製造過程;感測器資料涉及製造環境中的各方面,是關鍵資訊的一個重要來源,然後,這一資訊發送到更高階的決策系統。本文將提供一些使用智慧感測器的最新應用,系統架構示例遵循智慧工廠的工業物聯網(IIoT)方法。

自動導引車(AGV)

工廠車間中,材料和貨物需要迅速移動,而且要在正確的時間到達正確的地點。過去這需要人工完成,也許工人們會開著小電動車在工廠快速搬運各種所需的物料。而今天,可以借助技術,利用AGV來自動運送這些材料。

為了成功、輕鬆地實現這一切,需要將工廠車間正確映射到中央電腦系統中。實現這種解決方案的一種方法,是在地板路徑中嵌入無線射頻辨識(RFID)技術,這樣AGV就可以做出路線決策,並判別材料的最終位置。

使用Android app並結合藍牙通訊來控制這些AGV「機器人」,是一種行之有效的解決方案。將RFID用於路線導引,由於其可以採集智慧工廠物流的即時資料,因此非常適合工業4.0應用。

AGV可配備感測器和致動器,以及處理器和通訊系統。路徑規劃演算法在這個過程中非常重要——因為有許多車輛穿梭於工廠車間,所以需要用演算法來執行防撞功能。

在這種工廠環境中,RFID就類似AGV的「地圖」或「室內GPS」。工廠車間的地板上嵌入了微小的標籤,而在AGV底部則配有標籤讀取器。由於這些RFID標籤本質上是被動的,因此它們不需要任何類型的電源供電。讀取器中的發射器會發出RF訊號啟動標籤,而使其將資訊發送回AGV;且標籤也不需要視距,這在惡劣的工廠環境中非常有用(圖1)。

20190211NT31P1 圖1 嵌入RFID標籤的模擬工廠車間。(圖片來源:《Automatic Logistics in a Smart Factory using RFID-enabled AGVs》)

圖1所示的測試系統工作頻率為13.56MHz,AGV將在所選區域停下,以模擬拾取或放下材料或產品。本示例中是用一部Android手機來充當中央處理單元和控制中心。

系統包含一個中央處理器(在Android手機中),用於控制關鍵決策;通訊方面設計了一個app,透過藍牙來與3個AGV進行通訊。AGV提供的訊號可確定它們在工廠車間的位置,處理器還向AGV發送訊號,告知其下一步工作。AGV底部的紅外線感測器可幫助AGV沿著配有RFID標籤的軌道行進;AGV前面還有一個聲納感測器,可檢測前方的物體而避免碰撞(圖2)。欲瞭解更多的詳情,可參見《Automatic Logistics in a Smart Factory using RFID-enabled AGVs》一文。

20190211NT31P2 圖2 AGV及其感測器。(圖片來源:《Automatic Logistics in a Smart Factory using RFID-enabled AGVs》)

具備光達(Lidar)和攝影鏡頭感測器融合的機器人自動化

機器人可在工業4.0生產區域甚至倉儲設備中執行各種任務。可以在固定位置配備立體攝影鏡頭,並使用內建雷射測距儀(防撞用)的移動平台,透過感測器資料融合來實現動態物體追蹤。機器人和人類需要高效安全地共存與工作。

系統需要能避免目標追蹤過程出現中斷。一種解決方案是為移動機器人提供當前的地圖、監視資料瀏覽和額外的感測器,而作為現有基礎架構的一部分。5G和自動駕駛車研究會使用V2X技術,這也提供了一種可能的解決方案,但本文僅探討使用如立體視覺深度感測器(RGB-D)攝影鏡頭這類低成本簡單技術,它可以透過感測器資料融合來改進物件追蹤的深度檢測。由於被動深度檢測方法對光照變化比較敏感,這裡選擇使用光達作為感測器融合的一部分。

《Sensor Data Fusion of LIDAR with Stereo RGB-D Camera for Object Tracking》一文採用的設計架構包含快照檢測與追蹤,其中每個感測器的資料都會轉換到坐標系統(圖3)。

20190211NT31P3 圖3 該系統使用兩個模組:3D處理用於物件檢測,以及貝葉斯濾波用於目標的資訊融合與追蹤。(圖片來源:《Sensor Data Fusion of LIDAR with Stereo RGB-D Camera for Object Tracking》)

然後還需進一步處理(圖4)。請注意,並非每個感測器都會經歷所有這些處理步驟。此外,由於嵌入式電腦的處理能力有限,立體攝影鏡頭的點雲資料需要下採樣,該系統採用體素閘格(Voxel Grid,亦即空間中的一組微小3D框)方法來保存雲端的點分佈。

20190211NT31P4 圖4 快照檢測框架圖。(圖片來源:《Sensor Data Fusion of LIDAR with Stereo RGB-D Camera for Object Tracking》)

據發現,光達路徑中的臨時阻塞或中斷所引起的軌道丟失,可以透過使用輔助立體測量進行防止。雖然攝影鏡頭不太準確,但其所處的高位置和擴展的視場角提供了好處;立體攝影鏡頭既經濟實惠又功能強大,當把它們整合進基礎架構時,可以在複雜的機器人應用中提供即時概況。

擴增實境(AR)裝配過程

為了為智慧工廠提供機器人系統以處理複雜的裝配任務,必須具有創造性,並使用可隨意支配的最先進的架構。例如,以下的多模式介面就採用了新穎的視覺顯示技術,並增加了獨特的語音指令,以及良好的物料流程管理。

該設計架構結合使用了半鍍銀鏡子與人臉追蹤系統——可檢測人類使用者與3D物體成像之間的複雜互動。這是透過工作台中的位置感測器完成,它可以精確追蹤標記,為要選擇的裝配件提供確切的位置資訊。擴增裝配(AA)這個術語意味著在裝配過程中直接應用AR,即實際環境利用虛擬物件擴增,並逐漸接近最終的裝配過程,這樣便可提高操作員的組裝效率和便易性。這種系統可以將待組裝的實際零件與帶有虛擬元素及其擴展互動性的回饋結合。

現在可以預見用戶即時看到的一系列裝配步驟的視覺化有多直接,從而可以消除裝配過程中的誤差。同時,它還可以給用戶提供音訊回饋,從而提供有關正確裝配程式的額外指導。

人們透過視覺可以感知80%以上的周圍環境,因此,如果可以利用虛擬實境(VR)和AR系統改造人類視覺體驗,那麼這就會大大增強使用者對於裝配過程的視覺和視覺顯示資料。必須注意不要讓操作員的眼睛感到緊張——容易引起眼睛疲勞的有LCD透視面板,或者在操作員的視角(FOV)範圍內將影像投影到專用玻璃上。使用這些設備,操作員在查看實際的裝配物件時需要不停地在螢幕和物件之間來回變焦。

需要建立一系列邏輯演算法,從而確保能夠完美追蹤工作環境中的真實物件。隨著這種位置的變化,必須將電腦的虛擬資料與攝影鏡頭所捕捉的真實環境資訊融合。在顯示器上進行視覺化改變後,這一步可以分成兩組可能的追蹤。

對於第一種追蹤類型,必須配合使用電腦視覺和感測器追蹤來連續追蹤用戶在空間中的位置。在第二種類型中,所用的方法是目前可用且最廣泛使用的方法,即對獨特圖案的幾何特性或特徵進行精確定義,然後也對其進行追蹤,並在視訊鏡頭中進行辨識。基於標記追蹤的檢測為將電腦生成的虛擬資料與攝影鏡頭採集的影像資訊合併,提供了最簡單的替代方案。

ARToolKit在這類應用中隨處可見,而且對於本文開發的這種用於提高裝配效率的過程來說是開放的。ARToolKit庫腳本提供了(工作台上)物件位置變化的光學追蹤,以及來自硬體感測器的位元速率的互連(圖5)。

20190211NT31P5 圖5 控制單元與系統中其他元件互連的框架圖。Blender app是款免費的開放原始碼3D創作套件。它支持完整的3D流水線——建模、綁定、動畫、模擬、渲染、合成、運動追蹤,甚至視訊編輯和遊戲創作。(圖片來源:《An Integrated Working Environment Using Advanced Augmented Reality Techniques》)

一種新的視覺化方法是採用特殊玻璃實現,這種玻璃的表面為半鍍銀或塗有半透明(反射)薄膜,這樣就可以達到所需的反射性,它還使設計人員可以深入瞭解工作環境,而不會對影像品質造成任何影響。顯示過程就是簡單地將影像反向投影到一個反射平面上——該平面由置於工作區上方和設計者視角以外的LCD監視器來提供。

在實現這一新的視覺化之後,發現了一個嚴重的缺陷。反光玻璃上所顯示的圖片位置固定,其品質僅位於頂端視線的水準。因此,如果設計者的觀察角度固定,並且在將複合層放置在基體上時沒有改變他的觀察位置,那他就不能很好地看到它。這種糟糕的觀測情況可以透過在Blender系統所設計的應用中添加用戶人臉追蹤腳本來解決,這個系統所用的庫和軟體元素來自OpenCV開放原始碼資料庫。

因此,本質上,在製造過程中,系統在安裝過程中不但為設計者提供了視覺元素協助,而且還提供了一個音軌補充——它根據資料表資訊自動生成和控制,並帶有表徵輸入元素的數值。整個過程是同步的,這樣,每當有安裝零件改變時,系統就會讀取新的位置和方向資訊,同時還會設置新的音軌及相應的命令。這些資料是以短資訊和嗶嗶聲或複雜的口頭指令生成,它們儲存在單獨的控制音訊訊號和指令段中。

機器人處理易碎材料

工廠環境中通常使用電機夾具來處理各種材料。當組裝過程中涉及有柔軟、易碎的材料時,需要採用別的方法來盡可能提高優質成品的產量。

Soft Robotics源自Case Western大學的生物啟發式機器人(Biologically Inspired Robotics)專案。該公司開發出了基於彈性體的軟指機構,並採用手勢控制,用來作為夾持機構(可參考《The Development of a Gesture Controlled Soft Robot Gripping Mechanism》)。在實際的機器人應用中,軟性機器人的設計涉及致動器設計、感測器和控制等,設計人員並遵循擬人化建模來模擬人類的手部技能和功能。George Whitesides是最先在美國國防高等研究計劃署(DARPA)的資助下,為手術工具進步設計出優秀的解決方案,進而實現軟性機器人功能。

夾持機構採用氣動式的聚合物「手指」設計,能夠抓住具有複雜形狀、尺寸和重量的物體。最初的研究工作是由麻省理工學院、哈佛大學、首爾國立大學和DARPA合作完成,他們開發出了能夠模擬蚯蚓移動的「網眼蠕蟲(Meshworm)」。

人機介面(HMI)是機器人控制的一個關鍵方面。Shadow Robot的Dexterous Hand(靈巧手)即是一種控制輸入,此外還有其他各種手勢控制設計。

Soft Robotics的夾持手指採用兩部分矽橡膠和3D列印模具Elastosil M4601製造而成。該公司設計了一個氣動控制板,透過使用軟性感測器輸入來控制軟性機器人手指的形狀,這個設計結合軟體控制變數和參數整合了手勢控制。軟性機器人的執行是利用氣罐產生的壓縮空氣經過微型隔膜氣動泵和電氣動電磁閥來實現,電氣動電磁閥使用Arduino板和USB串列通訊介面透過MOSFET驅動器模組進行控制。

它採用Leap Motion的控制器和處理整合式開發環境(IDE)來追蹤三根手指和手腕,從而利用氣動控制板來控制軟指(圖6)。使用軟性感測器可以獲得軟指彎曲度的回饋資訊,手勢和軟指透過Arduino控制器連接。

20190211NT31P6 圖6 Leap Motion控制器擷取人手手掌和手指動作的所需資料示意。處理軟體能夠檢測、擷取資料、識別並做出決策,以及其他輸出控制。(圖片來源:《The Development of a Gesture Controlled Soft Robot Gripping Mechanism》)

測試時連接了三根軟指,分別用來模擬人手的拇指、食指和中指,該系統對食指、中指和拇指,以及手腕的笛卡爾座標(即X、Y和Z值)進行了追蹤,然後利用向量加法,就獲得了手腕到指尖的參數。

Leap Motion控制器對操作員手部運動的座標變化進行精確的追蹤和監控,並將其顯示在臨近的螢幕上。然後,軟性機器人手臂透過其彈性體手指重現由人手完成的相同移動。

最終的設計能夠類比手指,但還需要更多微調才能應用於複雜的工作。

這一應用的主要要求是要檢測指尖並透過僅追蹤中指、食指和拇指的移動來擷取位置、方向和速度資料。處理框架將追蹤到的指尖和手腕重現為方形物件和圓形物件,食指用於為機器人擷取位置、方向和速度資料。然後,Leap Motion控制器坐標系對每個指尖和手腕繪製四個向量,這樣就可得到手腕與每個指尖距離的關係,即變數K(更多細節請參考《The Development of a Gesture Controlled Soft Robot Gripping Mechanism》一文)。

接下來就是開發氣動控制板(圖7)。

20190211NT31P7 圖7 內建血壓計的氣動控制板將手掌和手指壓力轉換為電訊號,並透過差分放大器將訊號輸出。(圖片來源:《The Development of a Gesture Controlled Soft Robot Gripping Mechanism》)

壓力感測器可以測量很大範圍的壓力值。它採用5VDC供電,輸出訊號為0~25mV,由於輸出訊號的強度不足以與Arduino連接,因此還需要採用差分放大器電路將0~25mV到200mV輸入放大到3.5VDC輸出擺幅。

除了智慧工廠的IIoT外,這個設計的新應用還包括醫療、軍事和農業等領域。

...繼續閱讀請連結EDN Taiwan網站