您好, 访客   登录/注册

基于改进YOLOv3的路面正负障碍物检测研究

来源:用户上传      作者:顾士洲 严天一

  文章编号:10069798(2022)02004106;DOI:10.13306/j.10069798.2022.02.007
  摘要:针对减速带和凹坑等路面正负障碍物目标检测问题,本文基于YOLOv3算法基本原理,在原YOLOv3算法的基础上,采用扩增检测尺度的方法得到改进的YOLOv3算法。利用减速带和凹坑等路面正负障碍物训练集进行模型训练,通过测试集完成对训练模型的测试。测试结果表明,改进后的YOLOv3算法在路面正负障碍物的检测能力上有所提高,RRe值提高了0.8%,RMAP值提高了0.2%,验证了本文对原YOLOv3改进的有效性。该研究可用于智能车辆对减速带和凹坑等路面正负障碍物的检测,具有一定的实际应用价值。
  关键词:改进YOLOv3;路面正负障碍物;检测尺度;模型训练;模型测试
  中图分类号:TP391.4;TP393.021文献标识码:A
  近年来,智能汽车行业发展迅速,消费者对车辆乘坐舒适性提出了更高要求,利用目标检测技术超视距检测行驶方向上的路面正负障碍物,智能化调节车辆悬架的刚度或阻尼,有效提高了车辆乘坐舒适性。因此,目标检测技术在路面正负障碍物检测上的应用广泛。目前,国内外研究人员在目标检测领域开展了大量研究。R.HADSELL等人[1]提出了由近及远的自监督学习算法,检测可行驶区域及障碍物;R.GONZALO等人[2]针对无人机目标检测时因其连续姿态变化不受限和低频振动而不易检测的问题,提出了通过估计摄像机在两个后续视频帧之间的运动,创建人工光流场,并与真光流场进行对比,实现在时间与空间维度上对动态移动目标进行有效跟踪;JINGL等人[3]采用随机Hough变换对路障物进行检测,相对于传统Hough变换,提高了检测效率;XUY等人[4]提出了一种基于最大稳定极值区域法的快速图像区域匹配方法,测试结果表明,该方法具有较高的精度;LINY等人[5]提出了基于UV-disparity的路面估算算法,该算法可有效估计各种道路条件下的障碍物位置信息;王健[6]采用一种数字图像处理算法对路面破损图片预处理,选择Canny模板作为边缘检测模板,可准确定位图像边缘;叶家玮等人[7]利用BorlandC++Builder6.0开发了一种具有路面雷达数据转换和路面结构缺陷识别等功能的软件系统,与原路面雷达配套软件IRIS-L相比,提高了路面质量检测的准确性和结构缺陷的识别率;王荣本等人[8]通过SUSAN算子分割图像,利用边界跟踪算法进行滤波,最后利用投影法确定出原始图像中的石块位置;俞俊威等人[9]采用深度学习方法设计了一种新的基于全局特征的道路消失点检测模型,试验结果表明,增加消失点导向有利于微小障碍物的检测;张兴旺等人[10]提出结合Tiny-YOLOv3和目标跟踪算法的思想,使得无人机对地面目标的检测速度明显提高;叶佳林等人[11]通过对特征提取网络和定位损失函数进行改进,使得非机动车类目标的漏检率有所降低;景亮等人[12]提出了一种双目摄相机融合改进YOLOv3算法的行人障碍物检测和定位方法,测试结果表明,准确率和召回率均高于原模型;范丽等人[13]基于YOLOv3目标检测算法融入标签平滑,采用多检测尺度的方法增强了其鲁棒性和泛化能力;袁红斌等人[14]制定了Retinex算法来增强低照度图像,将车载相机和激光雷达数据进行融合,验证了传感器数据融合后对障碍物检测更有效、及时;郁梅等人[15]基于快递路面重建算法提出了一种车道与障碍物检测方法,该方法可自适应修正摄像机参数,在斜坡路面工况下也能有效获得车道和障碍物检测结果;李盛辉等人[16]提出了一种基于全景视觉的动态障碍物目标检测算法,与传统的单目和双目视觉相比,全景视觉具有360°无盲区检测的优点。但以上对路面正负障碍物检测方面的研究相对较少。因此,本文基于原YOLOv3目标检测算法,针对小目标漏检问题,采用扩增检测尺度的方法对其进行了改进,通过利用自主制作的减速带和凹坑等路面正负障碍物数据集,完成了模型训练和测试。测试结果表明,RRe值和RMAP值均有所提高,验证了本文对原YOLOv3改进的有效性,该研究可用于智能车辆对减速带和凹坑等路面正负障碍物的检测。
  1YOLOv3原理
  经YOLOv1和YOLOv2算法的应用经验积累,YOLOv3将主干网络改成了Darknet53,目标检测尺度数改为3个,先验框数进行调整,这些改进使YOLOv3的检测精度和检测速度大幅度提升。YOLOv3网络结构包括主干网络、特征金字塔网络(featurepyramidnetworks,FPN)[17]以及输出层,YOLOv3网络结构如图1所示。
  YOLOv3进行图像目标检测时,将输入图片的大小缩放成为416×416,若数据集中存在N个类别的目标物体,经过YOLOv3网络后,得到3个属性分别为(13×13,3*(4+1+N)),(26×26,3*(4+1+N)),(52×52,3*(4+1+N))的特征图。其中,13×13,26×26,52×52为图像划分的网格,3表示每个网格将预测3个边界框;4表示边界框的中心点坐标、高度、宽度;1表示目标检测可信度。一个单独的网格拥有3个先验框,当检测到内部存在目标物体时,对其进行类别检测及边框预测。经过所有网格的预测后,获取所有预测框的类别信息和位置信息,最终通过非极大值处理后得到目标边界框,实现对目标的准确检测。
  2YOLOv3改进
  原YOLOv3算法具有3个检测尺度,相应地输出3组特征图,分别为8倍下采样特征图、16倍下采样特征图、32倍下采样特征图。对于一些小目标检测物,或者在复杂环境下进行检测,原YOLOv3算法准确率会降低,甚至出现漏检的情况。针对此问题,本文采用扩增检测尺度的方法,将原YOLOv3算法的检测尺度数量由3个扩增到4个,相应地输出4组特征图,分别为4倍下采样特征图、8倍下采样特征图、16倍下采样特征图和32倍下采样特征图,完成YOLOv3算法的改进。YOLOv3网络结构中FPN层结构改进前后对比如图2所示。-

转载注明来源:https://www.xzbu.com/1/view-15426967.htm

相关文章