協作機器人可在無安全圍欄的情況下運行,能夠適應人類行為的不確定性。在這類環境中,確保人機互動的安全至關重要。安全風險評估依賴於人機距離,這需要高可靠性的感測器。隨著互動程度的提高,必須採取更嚴格的設計要求,以在保護工作者的同時提升效率。
以人體運動預測結果作為機械臂分離速度監控的基礎,並將其整合至機械臂控制系統,能進一步提升整體作業效率並強化安全性。分離速度監控包含四個主要組成部分:系統架構、速度變化策略、距離偵測與調整,以及監控管理。
本研究旨在提高製造業中人機協作的安全性與效率,聚焦於兩個主要方面:人員行為檢測及分離速度監控。在人員行為檢測方面,研究採用 Zed 2i 立體相機與 Zed SDK,偵測包含34個關鍵點的人體姿態,並運用 DLOW 模型進行人體動作預測,實現工人行為的即時預測。結果顯示,DLOW 模型能以 81.34% 的準確率預測工人未來 2.5 秒內的動作,預測結果回饋至機器人系統,使其能自動調整運動速度以避免碰撞。
在分離速度監控方面,研究依據 ISO 15066 標準建立距離與速度關係模型,確保機器人在不同距離下以安全速度運作,透過系統架構、速度變化策略、距離檢測與調整及監控四個組成部分,機器人能根據人員的位置與速度動態調整運行速度,降低對工人的潛在危害,並在安全區外恢復正常速度。研究結果顯示,系統控制的反應時間明顯短於機械臂的停止時間,展現出實際應用價值。
總結而言,將人員運動預測技術與 ISO 15066 的速度與分離監控需求相結合,能顯著提升協作機器人系統的安全性與效率。該整合技術能透過即時預測操作人員的移動路徑,動態調整機器人的運動參數,從而減少潛在的碰撞風險並提升生產效率。儘管技術實現及符合標準過程中面臨挑戰,但透過適當的系統設計與完整的測試驗證,此技術整合在實際應用中具有顯著潛力。
參考文獻
[1] ISO/TS 15066:2016 - Robots and robotic devices - collaborative robots. International Organization for Standardization, 2016.
[2] ISO 10218-2:2011 Robots and robotic devices - Safety requirements for industrial robots. Part 2: Robot systems and integration. International Organization for Standardization. 2011.
[3] Sick AG white paper, Safe Robotics - Safety In Collaborative Robot Systems. 2018.
[4] Karagiannis, P., Kousi, N., Michalos, G., Dimoulas, K., Mparis, K., Dimosthenopoulos, D., Tokçalar, Ö., Guasch, T., Gerio, G., and Makris, S. “Adaptive Speed and Separation Monitoring Based on Switching of Safety Zones for Effective Human Robot Collaboration.” Robotics and Computer-Integrated Manufacturing, vol. 77, pp. 1-14, 2022.
[5] Luo, J., Ni, H., and Zhou, M. “Control Program Design for Automated Guided Vehicle Systems via Petri Nets,” IEEE Transactions on Systems, Man, and Cybernetics: Systems, vol. 45, no. 1, pp. 44-55, 2015.
[6] Matthias, B., Byner, C., & Ding, H. “Dynamic Speed and Separation Monitoring for Collaborative Robot Applications – Concepts and Performance. Robotics and Computer-Integrated Manufacturing.” pp. 239-252, 2019.
[7] Rajasegaran, J., Pavlakos, G., Kanazawa, A., Feichtenhofer, C., and Malik, J. “On the Benefits of 3D Pose and Tracking for Human Action Recognition,” The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2023, pp. 640-649, 2023.
[8] Yuan, Y., Kitani, K.: “DLow: diversifying latent flows for diverse human motion prediction. ” In: Vedaldi, A., Bischof, H., Brox, T., Frahm, J.-M. (eds.) ECCV 2020. LNCS, vol. 12354, pp. 346–364.