AGV视觉导航技术研究进展
来源:用户上传
作者:
摘 要:概述了AGV的主要导航方式,分析了目前国内外AGV固定路径视觉导航与柔性路径视觉导航技术的研究现状,并指出该领域在今后一段时期内的一些重要的研究方向。
关键词:AGV;视觉导航;研究进展
中图分类号:F253.9 文献标识码:A
Abstract: The main types of navigation techniques of AGV were briefly reviewed, and the current research status of AGV vision navigation technology on fixed path and flexible path were described. Moreover, some important researcher directions in the future in the domain were also pointed out.
Key words: AGV; vision navigation; research progress
0 引 言
自动导引小车(Automated Guided Vehicle,AGV)指装备有导引装置,能够按照规定路径行驶,并具有编程与停车选择、安全保护及各种移载功能的运输小车。AGV技术集机械、机电控制、传感器、无线通讯、计算机网络等学科的技术于一体,目前已广泛应用在工业、农业、军事、医疗等多个领域,是当前国际机器人应用研究领域的热点之一[1-2]。
导航技术是AGV技术的研究核心,其主要解决车辆位姿获取、环境模型构建以及行驶路径规划等三方面问题,即要告诉小车“在何处”、“到何处去”,以及“如何走”[3]。目前,国内外主流AGV导航方式可分为固定路径导航和柔性路径导航两类。其中,固定路径导航法需要在运行路径上预先设置引导物质,如轨道、黑白胶带、磁带或电磁导线等,通过传感器获取引导物质的位置来引导AGV,该类技术相对成熟,是国内AGV采用的主流导航方法,但该类技术无法满足运行路径需经常调整的情况。柔性路径导航法可根据需要实时规划导引路径并引导AGV运动,是AGV导航技术的发展趋势,目前应用较多的有激光引导技术、惯性导航技术、基于WIFI或ZigBee等无线信号定位的导引技术及视觉导航技术等。各种导航方法具有不同的优缺点,一般需要根据实际情况选择合适的方案[4-6]。
近些年来,随着芯片性能和数字图像处理技术的不断提升,视觉导航技术发展更为迅速。视觉导航利用AGV车载摄像头动态获取环境图像,经过图像检测获取导航参数(小车位置、速度、姿态等),并规划所需路径、实现对小车的导航控制。目前,视觉导航技术在固定路径导航和柔性路径导航方面均有比较广泛的应用。
1 AGV固定路径视觉导航技术研究
AGV固定路径导航技术亦称结构化路径导航技术,指AGV在行驶过程中利用车载视觉传感器实时获取铺设在路面或工作空间内轨迹标志的图像,依据控制车体的图像特征点与导引轨迹轮廓中心线间的偏差,以及车体前进方向与轨迹中心线的角度偏差,引导车体在允许的误差范围内沿导引轨迹运动。该导航方式导引线易于铺设、视觉识别稳定性高,拥有广泛的应用空间。
欧美国家在该领域起步较早,研究成果较多,处于领先地位。日本在20世纪80年代研制的“Pochi”机器人可利用摄像机采集路面的白色标记线,作为路标信息进行作业[7]。美国卡内基·梅隆大学(CMU)研制的 RALPH,能够通过识别车道标识线和分析路面信息实现自主导航的功能,研制的NAVLAB利用了神经网络技术,进一步提高了其智能化程度[8-10]。Saitoh T等[11]研究了一种采用单目摄像头和笔记本电脑实现的轮式移动机器人走廊中线跟踪方法。Horswill I[12]采用单目视觉提取地面纹理,实现了车体在固定环境下的视觉导航。D.L.Boley等[13]利用车载摄像机和辅助传感器通过识别路标进行导航,并利用卡尔曼滤波器进行最优估计,有效抑制了噪声并具有较好的实时性。
我国在该领域起步较晚,但发展较快,近些年相继涌现出一大批相关研究成果。吉林大学研制的JUTIV-3型视觉导引AGV,可通过车载摄像头采集地面铺设的色线和标识符图像,经处理后获取导航参数,并通过模糊控制器使车体实时跟踪色线运行,同时具有识别工位标识符与分叉路等功能[14]。南京航空航天大学研制的NHV-Ⅱ型视觉导航AGV,通过构建直线路径模型、圆弧拐弯路径模型和非圆弧拐弯路径模型等三种路径模型,实现了对AGV的精确控制[15]。刘晶等[16]设计的基于FPGA+ARM的轮式机器人,可通过识别道路中设置10cm宽的导航线以及转弯标志,实现自主导航行走。朱翔等[17]设计的基于FPGA+FIFO的移动机器人视觉导航系统,可根据行走趋势的变化改变车体行进速度,提升了导航精度。
2 AGV柔性路径视觉导航技术研究
AGV柔性路径导航技术基于对场景中景物的理解获取导航参数,可称为非结构化路径导航技术。其需要预先构建路径周围环境的图像数据库,在车体运行过程中,系统实时地通过车载摄像头捕捉周围环境信息,并与前述图像数据库进行匹配,得出车体当前的位姿信息,进而进行路径规划并控制车体运行。该类视觉导航方式无需预先铺设路径、适用范围更广,但同时存在路径形状复杂、边界模糊、易受光照变化和路面阴影干扰等诸多问题,因而对硬件性能、图像处理算法和导航控制算法等提出了更高的要求。
美国Kiva公司的Kiva系统,可控制AGV通过视觉识别地面上的二维码贴片信息,实现路径规划与导航[18]。Wooden D[19]研制的LAGR机器人中采用了一种基于立体视觉的占栅格地图构建方法进行室外导航,系统中还集成了惯性导航单元、GPS接收器和前端防碰撞单元来进行外界感知。Ohta Y I等[20]利用车载摄像機采集图像信息,并借助超声波传感器感知复杂路况信息,对导航信号进行了合理的滤波处理,解决了基于视觉导航系统中的避障问题。Hashima M等[21]提出了一种自然地标导航算法,该算法使用相关性跟踪选定的地标, 通过立体视觉信息计算车体位置,并在车体移动过程中逐步更新地标。Royer等[22]提出了一种基于单目视觉训练导航方法,该方法在导航前先进行训练,训练过程中系统记录行进中图像信息并生成环境三维地图、标记有价值的地标用于导航阶段的定位;自主导航过程中,通过匹配当前图像与预先存储的关键帧图像进行定位、导航;该系统较适合用于有较多明显地标的环境。 国内在该领域起步较晚,但随着研究学者和商业公司的研究投入,该领域也得到了快速发展。付梦印等[23]提出了一种以踢脚线为参考目标的移动机器人室内单目视觉导航方法,该方法采用阈值分割和以Hough变换为基础的直线提取方法,提高了视觉导航的实时性。周俊等[24]针对非结构化的农田自然环境,提出了一种农业机器人视觉导航多分辨率路径识别算法。闵华松
等[25]提出了一种将IMU和体感摄像机相结合的地图构建算法,提高了地图的精度。龙超等[26]利用增量平滑和优化建图的方法估算相机位姿,并获取最终的点云地图和运动轨迹。白明等[27]利用立体视觉传感器构建了环境地图以用于机器人导航。李华等[28]研制的THMR-V型AGV,通过机器视觉算法检测车体与行车道的相对位置与方向信息,并结合多种传感器融合检测实现在结构化道路环境中自主行驶。2015年12月首次进行公路测试的百度无人车采用激光雷达和视觉传感器相结合的方法,通过深度学习技术实现车辆的地图构建和导航。
3 研究展望
AGV导航技术涉及自身定位、环境感知、地图构建、路径规划等多方面问题。视觉导航虽具有路径设置维护简便、不易受电磁场干扰、对工作环境要求较低、智能化水平较高等优点;但同时也存在易受环境变化影响、数据运算量大、图像处理过程复杂等缺陷。如何提高AGV视觉导航系统的实时性、鲁棒性和实用性,一直是该领域专家学者努力追求的目标。近些年来,随着机器视觉软硬件技术的发展,AGV视觉导航技术领域不断涌现出一些如基于人工智能算法的路径识别技術、视觉组合导航技术、SLAM视觉导航技术等高新技术。
3.1 基于人工智能算法的路径识别技术
在非结构化环境中,实现AGV视觉导航的关键是提高其环境认知和自主探索能力。深度学习、支持向量机、神经网络、模糊算法、遗传算法、聚类算法等人工智能算法是实现对环境准确感知的有效途径。近年来,国内外诸多研究者开始将人工智能算法应用与非结构环境中的路径区域识别。
Lee等[29]采用尺度不变特征变换、加速稳健特征等算法描述了导航区域的局部环境特征,并研究了移动机器人室外自定位和路径信息识别方法。Song等[30]在模糊C均值聚类算法中引入图像区域影响因子,并将其用于非结构化导航路径的检测,一定程度的提高了路径识别的准确率,具有较高的理论和实用价值。Stanley等[31]将神经网络加入到视觉导航中,其以图像特征的变化来反映机器人的位置变化,以经过神经网络训练的图像特征构建机器人雅可比矩阵的逆阵。Choomuang R等[32]将卡尔曼滤波和模糊控制应用到机器人导航算法中,利用卡尔曼滤波对机器人的运动进行预测,采用模糊控制实现机器人运动的鲁棒控制,使机器人的导航算法有了突破性的进步。
任永新等[33]提出了一种基于模糊控制的实时路径规划和跟踪方法,通过训练神经网络对图像进行分割,获取导航预瞄点,得到车体运动的角度偏差和横向偏差,该方法对曲线路径的跟踪误差较小。周值宇等[34]提出了一种基于支持向量机的道路两旁植被的检测方法,较好地解决了非结构化环境中的植被检测问题,针对光照、路况等变化具有较强的抗干扰能力。赵立明等[35]研究了一种基于模糊粗糙集理论的非结构化路径识别算法,该算法基于粗糙集方法预定义路径、非路径和模糊边界,通过融合模糊竞争机制对图像不确定区域的像素进行了模糊重分类,精确描绘了导航路径并引导车体行进。
3.2 视觉组合导航技术
视觉组合导航技术是将视觉导航与传统的惯性、GPS、激光等导航技术有机结合,以实现优势互补,提高系统的控制精度、实时性和鲁棒性。该技术是解决视觉导航存在的数据处理量大、易受光照环境影响等缺陷的重要途径,也是目前AGV导航的重要创新方向。
诸多学者已在该领域进行了大量的探索,并取得了令人鼓舞的成果。夏凌楠等[36]研究了一种结合视觉里程计与惯性传感器进行定位的方法。张晓霞等[37]应用GPS/DR组合导航信息技术,并结合航位推算系统、扩展卡尔曼滤波实现了AGV的定位导航。李泽民等[38]设计了诸多传感器融合的惯性导航AGV模拟系统;钱晓明等[39]设计了一种基于激光雷达与射频扫描仪的定位方法。
海康机器人公司研制的阡陌仓储机器人及欧铠公司研制的小精灵机器人,均采用了二维码视觉+惯性组合导航技术,实现了自主定位、自动避障、自主路径规划等功能,有效提高了作业效率[1]。
3.3 SLAM视觉导航技术
AGV的SLAM(Simultaneous Localization and Mapping)视觉导航技术是指,AGV在未知环境中运动过程中,利用车载摄像头依据对周围环境的感知进行自身定位,同时增量式构建环境地图。SLAM技术不需要预先铺设任何轨迹,方便导航路线的更改,并实现实时避障,有助于提高AGV的自主能力与环境适应能力,并实现多AGV的协调控制。
Sim及其合作者[40-42]在这一领域取得了显著的研究成果:提出了一种通过地标特征进行机器人定位的方法,论述了地图绘制的最大化覆盖、准确性及最小化测距不确定性问题;并进一步研究了一种基于双目立体相机和粒子滤波器的SLAM视觉导航方案, 系统通过三维地标进行定位,并绘制障碍网格图,以保证导航的安全性。Mur Artal等[43]提出了一种可以实现室内SLAM的ORB-SLAM方法,该方法提取图像关键帧进行配准,能够快速高效对地图中特征点的检索与匹配。
新松机器人公司研制的基于激光SLAM技术的“移动搬运平台”,可在高度动态环境下提供迅速的、可追踪的输送流程,进行智能化、高精度的自动导航,并躲避障碍、依据任务选择最佳行进路径。艾瑞思机器人公司研制的SLAM导航移动机器人,可以未知环境中获得感知信息,实时创建周围环境地图,并主动避障、自主导航。该两款机器人在CeMAT ASIA 2017展会上获得了普遍关注[1]。 4 结 论
本文在分析AGV视觉导航技术国内外研究现状的基础上,进一步总结了该领域目前重要的研究热点方向。AGV视觉导航技术是一种正在快速发展、不断成熟的新型技术,相关领域新技术的出现都有可能对其研究带来突破性进展,因而在研究的同时,应密切关注相关学科的发展。
参考文献:
[1] 张颖川. AGV导航技术的创新路径[J]. 物流技术于应用,2018(7):66-69.
[2] 李磊,叶涛,谭民. 移动机器人技术研究现状与未来[J]. 机器人,2002,24(5):475-480.
[3] 邓剑文,安向京,贺汉根. 基于道路结构特征的自主车视觉导航[J]. 吉林大学学报(信息科学版),2004,22(4):415-419.
[4] 侯志强,韩崇昭. 视觉跟踪技术综述[J]. 自动化学报,2006,32(4):603-617.
[5] 赵熙俊,陈慧岩. 智能车辆路径跟踪横向控制方法的研究[J]. 汽车工程,2011,33(5):382-387.
[6] 李进,陈无畏,李碧春,等. 自动导引车视觉导航的路径识别和跟踪控制[J]. 农业机械学报,2008,39(2):20-24.
[7] Komori T, Ariga R, Nagata S. A New Gear Profile Having Zero Relative Curvature at Many Contact Points (Logic Tooth Profile)[C] // International Power Transmission and Gearing Conference. ASME, Chicago, 1989:599-606.
[8] Thorpe C, Hebert M H, Kanade T, et al. Vision and navigation for the Carnegie-Mellon Navlab[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1988,10(3):362-373.
[9] Pomerleau D. RALPH: Rapidly adapting lateral position handler[C] // Proceedings of the Intelligent Vehicles Symposium, 1995:506-511.
[10] Baluja S. Evolution of an artificial neural network based autonomous land vehicle controller[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 1996,26(3):450-463.
[11] Saitoh T, Tada N, Konishi R. Indoor Mobile Robot Navigation by Center Following Based on Monocular Vision[J]. Ieej Transactions on Electronics Information & Systems, 2008,129(8):1576-1584.
[12] Horswill I. Specialization of Perceptual Processes[D]. Phd Thesis Mit, 1994.
[13] Boley D L, Sutherland K T. A Rapidly Converging Recursive Method for Mobile Robot Localization[J]. International Journal of Robotics Research, 1998,17(10):1027-1039.
[14] 儲江伟,王荣本. 基于机器视觉引导的两轮差速转向AGV控制问题的研究[J]. 机械与电子,2002(5):51-55.
[15] 喻俊,楼佩煌,钱晓明,等. 自动导引车视觉导引路径的识别及精确测量[J]. 华南理工大学学报(自然科学版),2012,40(3):143-149.
[16] 刘晶,刘钰,陆雨花. 基于FPGA+ARM的视觉导航轮式机器人[J]. 计算机工程,2010,36(21):194-198.
[17] 朱翔,潘峥嵘. 基于OV7620的机器人视觉导航系统设计[J]. 电子测量技术,2010,33(1):64-73.
[18] Tutton S M, Pflugmacher R, Davidian M, et al. KAST study: the Kiva system as a vertebral augmentation treatment-a safety and effectiveness trial[J]. Journal of Vascular & Interventional Radiology, 2014,25(3):111.
[19] Wooden D. A guide to vision-based map building[J]. Robotics & Automation Magazine IEEE, 2006,13(2):94-98. [20] Ohta Y I, Kanade T, Sakai T. Color information for region segmentation[J]. Computer Graphics & Image Processing, 1980,13(3):222-241.
[21] Hashima M, Hasegawa F, Kanda S, et al. Localization and obstacle detection for robots for carrying food trays[C] // IEEE/RSJ International Conference on Inteiligent Robot and Systems, 1997.
[22] Royer E, Lhuillier M, Dhome M, et al. Monocular Vision for Mobile Robot Localization and Autonomous Navigation[J]. International Journal of Computer Vision, 2007,74(3):237-260.
[23] 付梦印,谭国悦,王美玲. 一种基于单目视觉的移动机器人室内导航方法[J]. 光学技术,2006,32(4):591-597.
[24] 周俊,姬长英. 农业机器人视觉导航中多分辨率路径识别[J]. 农业机械学报,2003,34(6):120-123.
[25] 闵华松,杨杰. 融合IMU的RGBD-SLAM算法改进研究[J]. 计算机工程与设计,2015,36(1):120.
[26] 龙超,韩波,张宇. 基于Kinect和视觉词典的三维SLAM[J]. 计算机应用,2016,36(3):774-778.
[27] Bai M, Zhuang Y, Wang W. Stereovision based obstacle detection approach for mobile robot navigation[C] // Intelligent Control and Information Processing (ICICIP), 2010 International Conference on. IEEE, 2010:328-333.
[28] 李华,丁冬花,何克忠. THMR-V导航控制算法的研究[J]. 机器人,2001,23(6):525-530.
[29] Lee H, Park J, Chung W. Localization of Outdoor Mobile Robots Using Curb Features in Urban Road Environments[J]. Mathematical Problems in Engineering, 2014(4):1-12.
[30] Song H, He D, Xin X. Unstructured road detection and obstacle recognition algorithm based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering, 2011,27(6):225-230.
[31] Stanley K, Wu Q M J, Jerbi A, et al. Neural Network-Based Vision Guided Robotics[C] // IEEE International Conference on Robotics & Automation. IEEE, 2002.
[32] Choomuang R, Afzulpurkar N. Hybrid Kalman Filter/Fuzzy Logic based Position Control of Autonomous Mobile Robot[J]. International Journal of Advanced Robotic Systems, 2008,2(3):207-213.
[33] 任永新,李伟,陈晓. 非结构环境下基于机器视觉的机器人路径跟踪方法[J]. 北京工业大学学报,2008,34(10):1021-1025.
[34] 周植宇,楊明,薛林继. 一种基于高斯核支持向量机的非结构化道路环境植被检测方法[J]. 机器人,2015,37(6):702-707.
[35] 赵立明,叶川,张毅,等. 非结构化环境下机器人视觉导航的路径识别方法[J]. 光学学报,2018,34(8):1-10.
[36] 夏凌楠,张波,王营冠,等. 基于惯性传感器和视觉里程计的机器人定位[J]. 仪器仪表学报,2013,34(1):166-172.
[37] 张晓霞,汪传龙,韩刘柱,等. AGV用GPS/DR组合导航信息融合[J]. 沈阳建筑大学学报(自然科学版),2011,27(1):173-177.
[38] 李泽民,段凤阳,李赞平. 基于MENS传感器的数字式航姿系统设计[J]. 传感器与微系统,2012,31(6):94-100.
[39] 钱晓明,张浩,王晓勇,等. 基于激光扫描匹配的移动机器人相对定位技术研究[J]. 农业机械学报,2016,47(3):14-21.
[40] Simr, Dudekg. Learning Generative Models of Scene Features[J]. International Journal of Computer Vision, 2004,60(1):45-61.
[41] Simr, Dudekg. Effective Exploration Strategies for the Construction of Visual Maps[C] // Proceedings of the 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2003:3224-3231.
[42] Simr, Littlejj. Autonomous Vision-Based Robotic Exploration and Mapping Using Hybrid Maps and Particle Filters[J]. Image and Vision Computing, 2009,27(1/2):167-177.
[43] Mur-Artal R, J. D. Tardos. ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras[J]. IEEE Transactions on Robotics, 2017,33(5):1255-1262.
转载注明来源:https://www.xzbu.com/8/view-14913454.htm