+高级检索
网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于改进YOLOv5的鱼眼图像目标检测算法  PDF

  • 韩彦峰
  • 任奇
  • 肖科
重庆大学 机械与运载工程学院,重庆 400044

中图分类号: TP391

最近更新:2024-07-02

DOI: 10.16339/j.cnki.hdxbzkb.2024264

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

针对自动驾驶场景下车载鱼眼相机采集到的图像存在畸变严重、场景复杂、尺度变化剧烈、小目标多以及传统的目标检测模型的检测精度不高的问题,提出了一种基于YOLOv5s改进的鱼眼图像检测模型YOLOv5s-R.首先,为解决小目标难识别的问题,提出随机裁剪多尺度训练的数据增强方法,该方法优于消融实验所得的最优数据增强方法.其次,为了提高模型的检测精度,在网络头部添加置换注意力机制与轻量化解耦头,增强模型对特征的提取能力与识别能力,并抑制噪声干扰.最后,模型额外增加角度预测项,实现旋转框目标检测.通过构建环形标签并用高斯函数对标签平滑,解决了旋转框角度的周期性问题;又对损失函数进行了优化,提出了RIOU,在CIOU的基础上增加角度惩罚项,提高了回归精度并加快了模型的收敛.实验结果表明,提出的YOLOv5s-R模型在WoodScape数据集上取得良好的检测效果,相比于原始的YOLOv5s模型,mAP@0.5、mAP@0.5∶0.95分别提升了6.8%、5.6%,达到82.6%、49.5%.

随着人工智能算法的不断创新发展,自动驾驶汽车受到越来越多的关

1.作为未来汽车的发展方向,自动驾驶汽车拥有自主判断能力,能较大限度地减少人为失误.对实时目标的精准检测、识别并做出判断是保证自动驾驶汽车决策和判断的基础与核2.由于道路交通环境复杂,基于视觉的实时检测任务仍面临诸多挑战.

目前,基于深度学习的目标检测算法是主

3,主要可以分为双阶段算法和单阶段算法两类.双阶段算法以RCNN系5-8为代表,这类算法虽然精度高,但检测速度慢,不能满足实时性的要求.单阶段算法以YOLO系9-16为代表,其优势是速度快,早期的单阶段算法精度不高,但随着后续的不断完善,在特定场景下的检测精度甚至优于双阶段算法.以YOLOv5为节点,后续的YOLO系列对特定模块做了优化,但其本质都是FPN+PAN的结构,对特定场景下的目标检测任务效果提升有限.如YOLOv6使用RepVGGBlock替换BottleNeck Block来作为主要的梯度流分支,YOLOv7使用ELAN Block替换BottleNeck Block,YOLOv8将C3模块优化为C2f模块,并取消了上采样前面的1×1卷积,百度提出的PP-YOLOE17则使用RepRes Block来替换BottleNeck Block作为主要的梯度流分支.

针对鱼眼图像的目标检测,主要有两种做法,一种是在图像畸变校正后进行检测,这类方法有一个先验知识,即假定鱼眼镜头的几何畸变是已知的.另一种是模型自适应畸变图像.由于基于图像畸变矫正的检测方法较烦琐,且泛化性较差,大多研究更关注模型自适应的检测方法.Li

18提出了一个自学习和基于轮廓检测器的鱼眼图像目标检测算法FisheyeDet,通过FM模块将不同分辨率大小的特征图融合,MFCM模块获取多尺度特征,但其骨干网络仍采用较老的VGG16;Kumar19提出了一个多任务视觉感知网络OmniDEet,该研究表明联合训练的模型比各自单个任务版本表现得更好;Rashed20提出针对鱼眼图像的网络FisheyeYOLO,该网络基于 YOLOv3改进,可以输出不同形式的目标检测框,这给我们启发:旋转框目标检测能更好地适配鱼眼图像的畸变.有研究者对卷积核进行改进以适应畸变图像:Coors21提出了SphereNet,通过将失真不变性编码到细胞神经网络的架构中,根据球面图像表示的几何形状调整卷积滤波器的采样网格位置,从而避免失真.Zhang22提出Spherical Unet先采用等角矩形投影方式矫正图像后再使用球面卷积,实现了对全景视频进行显著性检测.Su23提出了内核变换网络KTN,以有效地将透视图像中的卷积内核转换为360的等矩形投影;然而,球形模型不能为鱼眼透镜的复杂畸变提供精确的拟合,且复杂的卷积核会增加大量的运算量.也有的研究者根据鱼眼图像的不同位置的特征畸变特点,针对性地设计了不同的方法来处理:Dooley24针对车辆在鱼眼图像边缘畸变严重,根据目标车辆的距离采取不同方法.Baek25根据图像中心与边缘畸变程度不同,将完整的鱼眼图像分成左中右三个感兴趣区域,分别训练不同的模型来检测,但这类方法都较为繁琐.以上模型都存在检测精度低、计算复杂、不能满足自动驾驶场景下对实时性检测要求的问题.

YOLOv5目标检测算法发展至今,在通用目标检测数据集上的检测精度已经达到了较高的水平,但对于特定的任务,通常需要重新对网络结构进行优化.为提升YOLOv5在复杂海域中目标检测能力,王文亮

26提出多路径聚合网络结构MPANet,在自底向上特征传递过程中融合多层次特征信息以增强多尺度定位能力;秦晓辉27提出了CDDPP下采样方法,解决了传统下采样丢失特征的问题,同时改进预测头,让每个分支专注自身任务,提高了对露天矿山目标的检测精度;杨睿宁28提出EioU损失,将宽高比的惩罚项拆分成预测框与真实框宽、高之差的惩罚项,提出上采样算子CARAFE减少上采样信息的损失,构建出适用于复杂交通场景下路侧目标检测任务的模型;刘春霞29提出全局上下文特征提取模块BoT3,提出SIoU损失函数避免了预测框的游荡现象,提高了模型对煤矿烟火的检测能力;杨晨30针对小目标检测较困难的问题,提出了DenseDarkNet和EMFFN有效融合不同尺度的特征图信息,并设计了一种新型的注意力机制BFAM减少噪声干扰,有效地提高了模型对遥感影像的目标检测效果.这些研究对YOLOv5的改进主要聚焦于:1)特征信息的流动方式.2)特征提取模块与注意力机制的构建.3)损失函数的优化.尽管这些改进算法在常规图像的检测取中得很好的效果,但并不适用畸变严重的鱼眼图像.

因此,本文提出一种适用于鱼眼图像的旋转框目标检测算法YOLOv5s-R,在保证检测速度的同时提高了检测精度.本文的贡献如下:

1)提出随机裁剪多尺度数据增强方法,提高了模型对小目标和不同尺度目标的检测能力.

2)在YOLOv5s头部添加置换注意力机制与轻量化解耦头,增强模型对特征提取能力与识别能力,并抑制噪声干扰,提高了检测精度.

3)检测框增加角度预测,构建环形标签解决了角的周期性问题,提出RIOU,在CIOU的基础上增加角度惩罚项,提高了回归精度并加快模型收敛.

1 自动驾驶数据集构建

1.1 数据集构建

研究使用公开的WoodScape数据

31,该数据集通过车载环绕的四个鱼眼摄像头采集,得到前视(Front View, FV)、后视(Rear View,RV)、左视(Mirror Lelf View,MVL)和右视(Mirror Right View,MVR)图像,分辨率为1 280×966,如图1所示.采集地点为美国、欧洲和中国,驾驶场景分为高速公路、城市驾驶和停车用例,包含五类目标:车辆(vehicle)、行人(person)、自行车(bicycle)、交通灯(traffic light)、交通符号(Traffic sign).统计各类别的标签数量,分别为44 404、16 249、7 053、1 500、2 857,各类别物体示例如图2所示.由于标签存在漏标和误标,对部分图像重新标注.数据集共8 234张,按95∶5划分训练集和验证集,即训练集图像7 822张,验证集图像412张.

fig

图1  四个环视鱼眼相机构成的环视采集网络

Fig.1  Four fisheye camera images forming the surroundview camera network

fig

图2  不同类别目标示例

Fig.2  Examples of different categories of goals

对WoodScape数据集进一步分析,发现存在以下特点:以小目标为主;样本不均衡,车辆和行人居多;大部分目标分布在镜头周围;边缘目标存在角度倾斜等.在后续的研究中,主要根据这些特点来改进网络模型.

1.2 数据增强方法

为了提升模型的泛化能力,通常会使用数据增强方法来丰富数据集.常用的数据增强方法有HSV变换、旋转、平移、缩放、错切、透视、翻转、拼接、混合、复制粘贴.而要找到适合数据集的最优增强策略,需要做消融实验,流程如图3所示.

fig

图3  消融实验流程

Fig.3  Ablation experimental process

WoodScape数据集以小目标为主,大多的数据增强方法都不能很好地提升模型的检测能力,因此提出一种针对小目标检测的随机裁剪多尺度(Random Crop Multi Scale, RCMS)数据增强方法,如图4所示.将原图以不同尺度(图中不同颜色框)随机裁剪图像,再缩放到统一的尺寸用于训练.该方法起着“放大镜”的作用,能使模型增强对小物体的特征的提取能力,多尺度则可以增强模型辨别不同大小物体的能力.

fig

图4  随机裁剪多尺度方法实现

Fig.4  Implementation of random crop multi scale method

2 旋转框目标检测网络YOLOv5-R构建

2.1 网络结构改进

2.1.1 改进后的网络结构

YOLOv5根据模型的大小分为YOLOv5x、YOLOv5l、YOLOv5m和YOLOv5s,其中YOLOv5s参数量和计算量最小,推理速度最快,考虑到训练数据集大,训练资源有限,因此本文选用YOLOv5s作为改进模型,理论上改进方法同样适用于其他模型.模型主要由三部分构成:骨干、颈部、头部.骨干负责特征提取,占主要运算量;颈部负责特征融合,以提高模型的预测能力;头部输出检测结果,分为大、中、小三个尺度以检测不同大小的物体.

针对YOLOv5s存在小目标难识别、定位框精度低、误检与漏检的问题,对其改进,在原始YOLOv5s的基础上添加置换注意力机制(Shuffle Attention, SA)并构建轻量化解耦头(Light Decouple Head, LDH)以提升模型提取特征与识别特征的能力,改进后的网络结构如图5所示.

fig

图5  SA模块

Fig.5  SA module

2.1.2 SA注意力机制

自动驾驶场景复杂,待检测目标小导致特征不明显,存在大量干扰,从而降低了模型识别精度.为了解决这一问题,在检测头位置加入SA

32注意力机制,以抑制干扰因素,提高模型的特征提取能力,其结构如图6所示.

fig

图6  改进后的YOLOv5s网络结构

Fig.6  Improved YOLOv5s network structure

SA注意力机制首先将输入的特征图XRC×H×W进行分组操作,分为G组,即X=[X1,,XG]XkRC/G×H×W.对于每一组再划分(Spilt)为两个分支Xk1Xk2Xk1,Xk2RC/2G×H×W.Xk1分支使用通道注意力机制,关注通道特征间的相关性,具体做法为:首先使用全局平局池化生成通道的权重信息s,如式(1)所示,再对s做简单的非线性变换后与原通道特征相乘,如式(2)所示.Xk2分支使用空间注意力机制,关注特征图的空间区域的相关性,具体做法为:对特征图做组归一化(Group Normalization, GN)获得空间特征,然后做非线性变化后与原特征图相乘,如式(3)所示.最后将两个分支拼接融合后得到每组的特征图,再将所有组的特征图都聚合得到输出的特征图.

s=1H×WiHjWXk1(i,j) (1)
Xk1'=σ(W1s+b1)Xk1 (2)
Xk2'=σ(W2GN(Xk2)+b2)Xk2 (3)

式中:H、W分别为特征图的宽度和高度;ij为具体的元素;W1W2为线性变换的权重;b1b2为偏置;σ为 sigmoid激活函数.

2.1.3 轻量化解耦头

相关研究表

33,分类任务和定位任务关注的重点不同,分类任务更加关注所提取的特征与已有类别哪一类最为相近,而定位任务更加关注与真实预测框的位置坐标从而进行边界框参数修正.因此,可以在模型的头部添加解耦头来实现对各类任务更精准的判别,但增加解耦头的同时也增加了运算量,导致推理速度变慢.为了解决这一问题,参照YOLOX34的解耦头,设计了一种轻量化的解耦头,用一个卷积模块替换原来的多个卷积模块以减少运算量,同时将通道数从256减少为64.若增加角度预测项则额外添加角度模块,如图7所示.

fig

图7  LDH模块

Fig.7  LDH module

2.2 环形标签构建

使用长短边法构建旋转框,可以避免边的可交换问题(Exchangeability of Edges, EoE),预测的旋转框表示为(x, y, l, s, θ),其中(x, y)为旋转框的中心点坐标,l表示长边,s表示短边,θ表示长边与x轴的夹角,θ∈[0, 180).但长短边法存在角的周期性(Periodicity of Angular, PoA)问题,在边界处的角度损失会急剧震荡,网络难以训练,如图8所示.

fig

图8  PoA问题

Fig.8  PoA problem

为了解决PoA问题,引入环形标签(Circular Smooth Label, CSL

35,将回归任务转为分类任务.角度分类数越多,预测角度越细致,但同时也会带来预测头厚重的问题;角度分类数越少,预测角度越粗糙.若按1°分为一类,则可以分为180类,环形标签首尾相连,消除了边界处的角度损失震荡,如图9所示.

fig

图9  环形标签

Fig.9  Circular smooth label

使用高斯函数对标签平滑处理,以提高模型对预测角度的预测的泛化能力,高斯函数表达式为:

y=e-(x-μ)22σ2 (4)

式中:μ为函数峰值出现的位置;σ为标准差,控制函数的峰形宽度.

当使用高斯函数对角度编码时,μ为实际的角度类别,x为其他任意的角度类别,根据角度的分类数设置合理的σ,代入公式可求得所有位置的平滑值.不同角度分类数c、不同标准差σ、不同角度标签值θ得到的高斯平滑标签如图10所示.

fig

(a) c=180, σ=4, θ=0

(b) c=36, σ=4, θ=0

  

fig

(c) c=36, σ=1, θ=0

(d) c=36, σ=1, θ=15

  

图10  高斯标签平滑

Fig.10  Gaussian label smoothing

2.3 损失函数优化

YOLOv5s-R的损失函数由四项构成:IoU(Intersection over Union)损失、置信度损失、分类损失与角度损失.

YOLOv5s的原始IoU损失计算采用的是CIOU,它同时考虑了预测框与真实框的重叠面积、中心点距离和长宽比.CIOU损失的公式为:

LCIOU=1-IoU+ρ2(p,pgt)c2+αv (5)
v=4π2(arctanwgthgt-arctanwh)2 (6)
α=v1-IoU+v (7)

式中:ρ2(p,pgt)表示预测框与实际框的中心点的距离;c表示包含预测框与实际框的最小外接矩形的对角线段距离;ρ2(p,pgt)/c2即为距离惩罚项,它的作用是当预测框与真实框相互包含时,仍能提供梯度更新方向;v为真实边框与预测边框的宽高比损失;α为宽高比损失系数;wgthgt表示真实框的宽高;wh表示预测框的宽高.

CIOU没有考虑到预测框与真实框的角度差,为了进一步优化旋转框的检测效果,提出RIOU,引入角度惩罚项:

LRIOU=1-IoU+ρ2(p,pgt)c2+αv+kθ (8)

式中:k为平衡系数,约束角度惩罚项,防止RIOU损失过大导致对其他损失的不敏感,实验中设置为0.1;θ为预测框的角度与真实框的角度差值,考虑到边界问题,θ的表达式为

θ=|θpred-θtarget|c,|θpred-θtarget|c21-|θpred-θtarget|c,|θpred-θtarget|>c2 (9)

式中:θpred为预测的角度类别;θtarget为实际的角度类别;c为角度的分类数.对于环形标签,预测角度与目标角度的差值的绝对值应小于分类数的一半,否则应从环形的另一边计算角度差.最后将角度差除以分类数c归一化到0到1之间,以保证角度分类数不同时的损失相同.

相比于CIOU,RIOU考虑了角度信息,如图11所示,能够更准确地衡量预测框(图中红色框)与真实框(图中绿色框)的差距.

fig

图11  CIOU损失与RIOU损失对比

Fig.11  Loss comparison of CIOU and RIOU

置信度损失为二值交叉熵损失,分类损失和角度损失均采用多分类交叉熵损失:

Lobj=-[C^log(C)+(1-C^)log(1-C)] (10)
C^=(1-g)+g*RIOU (11)
Lcls/θ=-pi*log(p^i) (12)

式中:C^为预测的置信度;C为真实的置信度标签;C^是1和CIOU的加权平均;g为训练难度系数;pi表示属于第i类的标签值;p^i是预测的概率.

综合以上四项损失,得到YOLOv5-R模型的总损失:

Lall=LRIOU+Lobj+Lcls+Lθ (13)

3 实验结果与分析

3.1 实验环境

实验环境为Ubuntu20.04系统,CPU为Intel Xeon E5-2620v3 2.4 GHz,GPU为NVIDIA GeForce GTX 3090,PyTorch版本为1.10.1,CUDA版本为11.3,Python版本为3.8.

使用YOLOv5s模型,进入网络训练的图片大小都被设置为640×640,初始学习率设置为0.01,使用余弦退火动态调整学习率,学习率动量为0.937,权重衰减系数为0.000 5,批量大小为16,使用SGD优化器,预训练1轮后训练50轮,为使实验严谨,训练过程中固定了随机种子数.

3.2 评价指标

平均精度(Average Precision, AP)能同时反映定位能力与分类能力,相比于准确率(Precison, P)与召回率(Recall, R),更能反映模型的检测能力.采用mAP@0.5与mAP@0.5∶0.95作为模型检测精度的评价指标.AP@0.5指的是预测框与真实框IoU阈值大于0.5且分类正确的平均精度,通过计算PR曲线的面积得到.mAP@0.5是所有类别的AP@0.5的平均,mAP@0.5∶0.95是以5为间隔,mAP@0.5到mAP@ 0.5∶0.95的平均值.具体公式如下:

AP=01P(R)dR (14)
mAP@0.5=1ni=1nAP@0.5(i) (15)
mAP@0.50.95=110(mAP@0.5++mAP@0.95) (16)
P=TPTP+FP (17)
R=TPTP+FN (18)

式中:n为类别数;TP表示实际是正样本预测也为正样本的数量;FP表示实际是正样本预测为负样本的数量;FN表示实际是负样本预测为正样本的数量.

3.3 数据增强方法的消融实验与对比实验

3.3.1 消融实验

为了寻找最优的数据增强方法,使用常用的数据增强方法做消融实验.一般来讲,使用HSV的数据增强方法对提升模型的检测能力总是有益的,因此将其作为基准,实验结果如表1所示.

表1  消融实验结果
Tab.1  Results of ablation experiment
数据增强方法mAP@0.5mAP@0.5∶0.95
基准(HSV) 0.687 0.434
旋转 0.712 0.414
旋转+平移 0.729 0.427
旋转+平移+缩放 0.719 0.405
旋转+平移+翻转 0.758 0.439
旋转+平移+错切 0.756 0.433
旋转+平移+错切+拼接 0.749 0.430
旋转+平移+错切+混合 0.746 0.431
旋转+平移+错切+复制粘贴 0.750 0.433

表1可以看出,采用旋转+平移+翻转的组合增强方式是最优策略.分析原因:WordScape数据集的目标大多都带有一定角度,旋转增强了对旋转物体的检测能力,而平移和翻转一定程度上改变了目标的分布,丰富了数据集.

3.3.2 引入RCMS方法对比实验

为了验证RCMS方法的有效性,与消融实验所得的最优策略(Optimal Method, OM)做对比,实验结果如表2所示.

表2  OM方法和RCMS方法对比实验
Tab.2  Comparative experiment of OM and RCMS
数据增强方法mAP@0.5mAP@0.5:0.95
基准(HSV) 0.687 0.434
OM 0.758 0.439
RCMS 0.761 0.477
OM+RCMS 0.750 0.441

表2可以看出,使用RCMS方法在mAP@0.5可以达到与OM方法差不多的得分,而mAP@0.5∶0.95提升了3.8%,这意味着检测框的定位更准确,证明了该方法的有效性.此外,OM方法与RCMS方法存在冲突,效果反而下降.

3.4 模型改进的实验

3.4.1 引入注意力机制的实验

为了探究注意力机制位置对模型精度的影响,以使用RCMS方法训练YOLOv5s原始模型的结果为基准,分别在C3层、SPPF层、Head层添加SA注意力机制,实验结果如表3所示.

表3  不同位置SA注意力机制对比
Tab.3  Comparison of SA module in different positions
位置mAP@0.5mAP@0.5∶0.95
0.761 0.477
C3 0.724 0.440
SPPF 0.738 0.447
Head 0.791 0.483

表3可以看出,注意力机制添加在头部(Head)效果最好.分析原因:在训练时使用了官方权重文件,注意力机制添加在C3层或SPPF层会破坏网络结构,导致大部分预训练权重无法加载,而添加到Head层能加载大部分预训练权重,充分利用先验知识.

为了探究不同注意力机制的效果,使用常用的SENet、CBAM、CA、SA四种注意机制添加到头部做对比实验,实验结果如表4所示.

表4  不同注意力机制对比
Tab.4  Comparison of different attention mechanisms
方法mAP@0.5mAP@0.5∶0.95参数/M运算量/G
0.761 0.477 7.03 15.88
SENet 0.773 0.483 7.08 15.89
CBAM 0.769 0.474 7.08 15.89
CA 0.755 0.469 7.07 15.89
SA 0.791 0.483 7.03 15.88

表4可以看出,使用注意力机制大都能提升模型的检测能力,其中SA注意力机制的表现最好,且引入的参数量与运算量最少.使用SA注意力机制后,mAP@0.5、mAP@0.5∶0.95分别提升了3.0%、0.6%.

3.4.2 引入轻量化解耦头的实验

为了验证解耦头的有效性,以使用SA注意力机制的结果为基准,使用原始的解耦头(Decouple Head, DH)和优化后的轻量化解耦头(LDH)做对比实验,实验结果如表5所示.

表5  DH与LDH对比
Tab.5  Comparison of DH and LDH
方法mAP@0.5mAP@0.5∶0.95参数/M运算量/G
SA 0.791 0.483 7.03 15.88
+DH 0.788 0.488 7.77 56.42
+LDH 0.794 0.487 7.19 19.99

表5可以看出,添加LDH后,mAP@0.5、mAP@0.5∶0.95分别提升了0.3%、0.4%,这证明了解耦头的有效性.相比于DH,LDH的参数量和运算量大幅减少且表现更优.

3.5 引入旋转框的实验

3.5.1 标签平滑策略探究的实验

为了构建最优的标签编码格式,探究角度分类数和高斯函数的标准差对检测结果的影响,在改进模型的基础上增加角度预测项,实验结果如表6所示.

表6  不同高斯平滑标签对比
Tab.6  Comparison of different Gaussian smoothing labels
角度类别数标准差mAP@0.5mAP@0.5∶0.95
180 4 0.804 0.482
180 2 0.795 0.476
90 2 0.800 0.478
36 2 0.798 0.476
36 1 0.810 0.481
18 1 0.801 0.481

表6可以看出,角度分为36类、标准差为1时,模型效果最好,mAP@0.5、mAP@0.5∶0.95分别为0.810、0.481.分析原因:角度类别过多,会使预测头厚重,模型对角度参数不敏感;角度类别数过少则预测的角度粗糙,预测框偏差大;标准差的大小会影响标签平滑范围,同样也影响模型对角度的判断;因此需要同时设置合理的角度类别和标准差.额外增加角度预测对参数量与运算量的影响微乎其微,因此不讨论.

3.5.2 引入RIOU的对比实验

为了验证RIOU的有效性,在采用最优标签编码格式下,分别使用CIOU和RIOU做对比实验,实验结果如表7所示.

表7  CIOU与RIOU对比
Tab.7  Comparison of CIOU and RIOU
IoUmAP@0.5mAP@0.5∶0.95
CIOU 0.810 0.481
RIOU 0.826 0.495

表7可以看出,使用RIOU作为IoU损失后,相比CIOU的mAP@0.5、mAP@0.5∶0.95分别提升了1.6%、1.4%,这证明了RIOU损失的优越性.

3.6 各模型的检测效果对比

为了更直观地展示改进后模型的性能,以车载鱼眼相机的前视、后视、左视、右视四个视角的图像为测试图例,对原始模型YOLOv5s、改进后的水平框检测模型YOLOv5s-H、改进后的旋转框检测模型YOLOv5s-R的检测结果进行对比,分别如图12~ 图15所示.

fig

图12  各模型对前视图的检测效果

Fig.12  The detection results of different models on FV images

(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

fig

图13  各模型对后视图的检测效果

Fig.13  The detection results of different models on RV images

(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

fig

图14  各模型对左视图的检测效果

Fig.14  The detection results of different models on MVL images

(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

fig

图15  各模型对右视图的检测效果

Fig.15  The detection results of different models on MVR images

(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

可以看到,原始的YOLOv5s模型定位精度和分类精度较低,存在漏检和误检的情况;水平框检测器YOLOv5s-H有效地优化了这一问题,检测框更紧凑,识别物体的能力更强,但对旋转物体的检测效果仍不佳,尤其是对左视图和右视图的检测存在框选出大量背景的情况;旋转框检测器YOLOv5s-R则更适配鱼眼图像的畸变特性,检测框的角度倾斜可以很好地适配畸变目标,与水平框相比,检测框与实际目标的IOU更小,检测效果更好.

以mAP@0.5为评价指标,各模型对不同类别检测结果如表8所示.可以看到,提出的改进模型 YOLOv5s-R对各个类别检测精度均有较大的提升.此外,各模型对车辆和行人的检测精度较高,而对自行车、交通灯、交通符号的检测精度较低,这可能是因为这些类别的目标样本少且小目标多.

表8  各模型在mAP@0.5的检测结果对比
Tab.8  Comparison of detection mAP@0.5 results of different models
模型车辆行人自行车交通灯交通符号
YOLOv5s 0.906 0.881 0.757 0.591 0.658
YOLOv5s-H 0.919 0.876 0.771 0.696 0.710
YOLOv5s-R 0.925 0.895 0.784 0.718 0.727

4 结 论

首先,针对WoodScape数据集以小目标为主的特点,提出RCMS数据增强方法,为了验证该方法的有效性,与常用的数据增强方法消融实验的最优方法对比,结果优于最优方法.接着,为了进一步提升模型的检测效果,基于YOLOv5s模型进行改进,使用了SA注意力机制与LDH解耦头以提升模型对特征提取与识别的能力.最后,为适配鱼眼相机的畸变特性,构建了旋转框目标检测器YOLOv5s-R,使用高斯函数平滑的环形标签解决PoA问题,并优化了损失函数,提出RIOU作为IoU损失,实现了检测框对角度的回归.本文提出的YOLOv5s-R模型对自动驾驶场景下的鱼眼图像的目标有很好的检测效果,与原始的YOLOv5s模型相比,mAP@0.5、mAP@0.5∶0.95分别提升了6.8%、5.6%.本文研究的代码开源,供读者参考:https://github.com/renqi1/yolov5_woodscape.下一步的工作将考虑两个方面:一方面,进一步优化目标检测的精度,例如可以尝试更大的模型、对模型的优化、对数据的预处理.另一方面,可以构建多任务网络,同时实现目标检测、车道线检测、可行驶区域检测等任务,实现对行车环境的多任务实时检测.

参考文献

1

余世全无人驾驶汽车的发展现状和相关建议[J].专用汽车20231):11-14 [百度学术] 

YU S QDevelopment status of driverless vehicles and relevant suggestions[J].Special Purpose Vehicle20231):11-14(in Chinese) [百度学术] 

2

王艺帆自动驾驶汽车感知系统关键技术综述[J].汽车电器201612):12-16 [百度学术] 

WANG Y FOverview on key technology of perceptual system on self-driving vehicles[J].Auto Electric Parts201612):12-16(in Chinese) [百度学术] 

3

茅智慧朱佳利吴鑫基于YOLO的自动驾驶目标检测研究综述[J].计算机工程与应用20225815):68-77 [百度学术] 

MAO Z HZHU J LWU Xet alReview of YOLO based target detection for autonomous driving[J].Computer Engineering and Applications20225815):68-77(in Chinese) [百度学术] 

4

段续庭周宇康田大新深度学习在自动驾驶领域应用综述[J].无人系统技术202146):1-27 [百度学术] 

DUAN X TZHOU Y KTIAN D Xet alA review of deep learning applications for autonomous driving[J].Unmanned Systems Technology202146):1-27(in Chinese) [百度学术] 

5

GIRSHICK RDONAHUE JDARRELL Tet alRich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern RecognitionACM2014580-587 [百度学术] 

6

GIRSHICK RFast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV)Santiago,ChileIEEE20151440-1448 [百度学术] 

7

REN S QHE K MGIRSHICK Ret alFaster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence2017396):1137-1149 [百度学术] 

8

HE K MGKIOXARI GDOLLÁR Pet alMask R-CNN[C]//2017 IEEE International Conference on Computer Vision (ICCV)Venice,ItalyIEEE20172980-2988 [百度学术] 

9

REDMON JDIVVALA SGIRSHICK Ret alYou only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)Las Vegas,NV,USAIEEE2016779-788 [百度学术] 

10

REDMON JFARHADI AYOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)Honolulu,HI,USA.IEEE20176517-6525 [百度学术] 

11

REDOMON JFARHADI A .YOLOv3: an incremental Improvement[J]. 2018. [百度学术] 

12

BOCHKOVSKIY AWANG C YLIAO H. Yolov4: optimal speed and accuracy of object detection[J]. arXiv preprint arXiv: 2004.109342020. [百度学术] 

13

JOVHER G. YOLOv5[EB/OL]. https://github.com/ultralytics/yolov52021. [百度学术] 

14

LI C YLI LJIANG H Let alYOLOv6:a single-stage object detection framework for industrial applications[J]. arXiv preprint arXiv:2209.029762022. [百度学术] 

15

WANG C YBOCHKOVSKIY ALIAO H Y M .YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]// arXiv preprint arXiv:2207.026962022. [百度学术] 

16

JOCHER GCHAURASIA AQ J. YOLO by Ultralytics (Version 8.0.0) [EB/OL]. 2023.https://github.com/ultralytics/ultralytics. [百度学术] 

17

XU SWANG XLV Wet al.PP-YOLOE: An evolved version of YOLO[J]. 2022. [百度学术] 

18

LI T WTONG G JTANG H Yet alFisheyeDet:a self-study and contour-based object detector in fisheye images[J].IEEE Access2020871739-71751 [百度学术] 

19

KUMAR V RYOGAMANI SRASHED Het alOmniDet:surround view cameras based multi-task visual perception network for autonomous driving[J].IEEE Robotics and Automation Letters202162):2830-2837 [百度学术] 

20

RASHED HMOHAMED ESISTU Get alGeneralized object detection on fisheye cameras for autonomous driving:dataset,representations and baseline[C]//2021 IEEE Winter Conference on Applications of Computer Vision (WACV)Waikoloa,HI,USAIEEE20212271-2279 [百度学术] 

21

COORS BCONDURACHE A PGEIGER ASphereNet:learning spherical representations for detection and classification in omnidirectional images[C]//Computer Vision – ECCV 2018:15th European Conference,Munich,Germany,September 8–14,2018ProceedingsPart IXACM2018525541 [百度学术] 

22

ZHANG Z HXU Y YYU J Yet alSaliency detection in 360 $$^\circ $$ videos[C]//European Conference on Computer VisionChamSpringer2018504-520 [百度学术] 

23

SU Y CGRAUMAN KKernel transformer networks for compact spherical convolution[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Long Beach,CA,USAIEEE20199434-9443 [百度学术] 

24

DOOLEY DMCGINLEY BHUGHES Cet alA blind-zone detection method using a rear-mounted fisheye camera with combination of vehicle detection methods[J].IEEE Transactions on Intelligent Transportation Systems2016171):264-278 [百度学术] 

25

BAEK IDAVIES AYAN Get alReal-time detection,tracking,and classification of moving and stationary objects using multiple fisheye images[C]//2018 IEEE Intelligent Vehicles Symposium (IV)Changshu,ChinaIEEE2018447-452 [百度学术] 

26

王文亮李延祥张一帆MPANet-YOLOv5:多路径聚合网络复杂海域目标检测[J].湖南大学学报(自然科学版)20224910):69-76 [百度学术] 

WANG W LLI Y XZHANG Y Fet alMPANet-YOLOv5:multi-path aggregation network for complex sea object detection[J].Journal of Hunan University (Natural Sciences)20224910):69-76(in Chinese) [百度学术] 

27

秦晓辉黄启东常灯祥基于改进YOLOv5的露天矿山目标检测方法[J].湖南大学学报(自然科学版)2023502):23-30 [百度学术] 

QIN X HHUANG Q DCHANG D Xet alObject detection method in open-pit mine based on improved YOLOv5[J].Journal of Hunan University (Natural Sciences)2023502): 23-30(in Chinese) [百度学术] 

28

杨睿宁惠飞金鑫改进YOLOv5s的复杂交通场景路侧目标检测算法[J].计算机工程与应用20235916):159-169 [百度学术] 

YANG R NHUI FJIN Xet alRoadside target detection algorithm for complex traffic scene based on improved YOLOv5s[J].Computer Engineering and Applications20235916):159-169(in Chinese) [百度学术] 

29

刘春霞李超潘理虎改进YOLOv5s的煤矿烟火检测算法[J].计算机工程与应用20235917):286-294 [百度学术] 

LIU C XLI CPAN L Het alImproved coal mine smoke and fire detection algorithm of YOLOv5s[J].Computer Engineering and Applications20235917):286-294(in Chinese) [百度学术] 

30

杨晨佘璐杨璐改进YOLOv5的遥感影像目标检测算法[J].计算机工程与应用20235915):76-86 [百度学术] 

YANG CSHE LYANG Let alImproved YOLOv5 object detection algorithm for remote sensing images[J].Computer Engineering and Applications20235915):76-86(in Chinese) [百度学术] 

31

YOGAMANI SHUGHES CHORGAN Jet alWoodScape:a multi-task,multi-camera fisheye dataset for autonomous driving[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV)SeoulKorea (South).IEEE20199307-9317 [百度学术] 

32

ZHANG Q LYANG Y BSA-net:shuffle attention for deep convolutional neural networks[C]//ICASSP 2021 - 2021 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP)Toronto,ON,Canada.IEEE20212235-2239 [百度学术] 

33

WU YCHEN Y PYUAN Let alRethinking classification and localization for object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Seattle,WA,USAIEEE202010183-10192 [百度学术] 

34

GE ZLIU SWANG Fet al. Yolox: exceeding yolo series in 2021[J].2021. [百度学术] 

35

YANG XYAN J CArbitrary-oriented object detection with circular smooth label[C]//European Conference on Computer VisionChamSpringer2020677-694 [百度学术] 

作者稿件一经被我刊录用,如无特别声明,即视作同意授予我刊论文整体的全部复制传播的权利,包括但不限于复制权、发行权、信息网络传播权、广播权、表演权、翻译权、汇编权、改编权等著作使用权转让给我刊,我刊有权根据工作需要,允许合作的数据库、新媒体平台及其他数字平台进行数字传播和国际传播等。特此声明。
关闭