摘要
针对自动驾驶场景下车载鱼眼相机采集到的图像存在畸变严重、场景复杂、尺度变化剧烈、小目标多以及传统的目标检测模型的检测精度不高的问题,提出了一种基于YOLOv5s改进的鱼眼图像检测模型YOLOv5s-R.首先,为解决小目标难识别的问题,提出随机裁剪多尺度训练的数据增强方法,该方法优于消融实验所得的最优数据增强方法.其次,为了提高模型的检测精度,在网络头部添加置换注意力机制与轻量化解耦头,增强模型对特征的提取能力与识别能力,并抑制噪声干扰.最后,模型额外增加角度预测项,实现旋转框目标检测.通过构建环形标签并用高斯函数对标签平滑,解决了旋转框角度的周期性问题;又对损失函数进行了优化,提出了RIOU,在CIOU的基础上增加角度惩罚项,提高了回归精度并加快了模型的收敛.实验结果表明,提出的YOLOv5s-R模型在WoodScape数据集上取得良好的检测效果,相比于原始的YOLOv5s模型,mAP@0.5、mAP@0.5∶0.95分别提升了6.8%、5.6%,达到82.6%、49.5%.
随着人工智能算法的不断创新发展,自动驾驶汽车受到越来越多的关
目前,基于深度学习的目标检测算法是主
针对鱼眼图像的目标检测,主要有两种做法,一种是在图像畸变校正后进行检测,这类方法有一个先验知识,即假定鱼眼镜头的几何畸变是已知的.另一种是模型自适应畸变图像.由于基于图像畸变矫正的检测方法较烦琐,且泛化性较差,大多研究更关注模型自适应的检测方法.Li
YOLOv5目标检测算法发展至今,在通用目标检测数据集上的检测精度已经达到了较高的水平,但对于特定的任务,通常需要重新对网络结构进行优化.为提升YOLOv5在复杂海域中目标检测能力,王文亮
因此,本文提出一种适用于鱼眼图像的旋转框目标检测算法YOLOv5s-R,在保证检测速度的同时提高了检测精度.本文的贡献如下:
1)提出随机裁剪多尺度数据增强方法,提高了模型对小目标和不同尺度目标的检测能力.
2)在YOLOv5s头部添加置换注意力机制与轻量化解耦头,增强模型对特征提取能力与识别能力,并抑制噪声干扰,提高了检测精度.
3)检测框增加角度预测,构建环形标签解决了角的周期性问题,提出RIOU,在CIOU的基础上增加角度惩罚项,提高了回归精度并加快模型收敛.
1 自动驾驶数据集构建
1.1 数据集构建
研究使用公开的WoodScape数据

图1 四个环视鱼眼相机构成的环视采集网络
Fig.1 Four fisheye camera images forming the surroundview camera network

图2 不同类别目标示例
Fig.2 Examples of different categories of goals
对WoodScape数据集进一步分析,发现存在以下特点:以小目标为主;样本不均衡,车辆和行人居多;大部分目标分布在镜头周围;边缘目标存在角度倾斜等.在后续的研究中,主要根据这些特点来改进网络模型.
1.2 数据增强方法
为了提升模型的泛化能力,通常会使用数据增强方法来丰富数据集.常用的数据增强方法有HSV变换、旋转、平移、缩放、错切、透视、翻转、拼接、混合、复制粘贴.而要找到适合数据集的最优增强策略,需要做消融实验,流程如

图3 消融实验流程
Fig.3 Ablation experimental process
WoodScape数据集以小目标为主,大多的数据增强方法都不能很好地提升模型的检测能力,因此提出一种针对小目标检测的随机裁剪多尺度(Random Crop Multi Scale, RCMS)数据增强方法,如

图4 随机裁剪多尺度方法实现
Fig.4 Implementation of random crop multi scale method
2 旋转框目标检测网络YOLOv5-R构建
2.1 网络结构改进
2.1.1 改进后的网络结构
YOLOv5根据模型的大小分为YOLOv5x、YOLOv5l、YOLOv5m和YOLOv5s,其中YOLOv5s参数量和计算量最小,推理速度最快,考虑到训练数据集大,训练资源有限,因此本文选用YOLOv5s作为改进模型,理论上改进方法同样适用于其他模型.模型主要由三部分构成:骨干、颈部、头部.骨干负责特征提取,占主要运算量;颈部负责特征融合,以提高模型的预测能力;头部输出检测结果,分为大、中、小三个尺度以检测不同大小的物体.
针对YOLOv5s存在小目标难识别、定位框精度低、误检与漏检的问题,对其改进,在原始YOLOv5s的基础上添加置换注意力机制(Shuffle Attention, SA)并构建轻量化解耦头(Light Decouple Head, LDH)以提升模型提取特征与识别特征的能力,改进后的网络结构如

图5 SA模块
Fig.5 SA module
2.1.2 SA注意力机制
自动驾驶场景复杂,待检测目标小导致特征不明显,存在大量干扰,从而降低了模型识别精度.为了解决这一问题,在检测头位置加入S

图6 改进后的YOLOv5s网络结构
Fig.6 Improved YOLOv5s network structure
SA注意力机制首先将输入的特征图进行分组操作,分为G组,即,.对于每一组再划分(Spilt)为两个分支与,.分支使用通道注意力机制,关注通道特征间的相关性,具体做法为:首先使用全局平局池化生成通道的权重信息s,如
(1) |
(2) |
(3) |
式中:H、W分别为特征图的宽度和高度;i,j为具体的元素;W1,W2为线性变换的权重;b1,b2为偏置;σ为 sigmoid激活函数.
2.1.3 轻量化解耦头
相关研究表

图7 LDH模块
Fig.7 LDH module
2.2 环形标签构建
使用长短边法构建旋转框,可以避免边的可交换问题(Exchangeability of Edges, EoE),预测的旋转框表示为(x, y, l, s, θ),其中(x, y)为旋转框的中心点坐标,l表示长边,s表示短边,θ表示长边与x轴的夹角,θ∈[0, 180).但长短边法存在角的周期性(Periodicity of Angular, PoA)问题,在边界处的角度损失会急剧震荡,网络难以训练,如

图8 PoA问题
Fig.8 PoA problem
为了解决PoA问题,引入环形标签(Circular Smooth Label, CSL

图9 环形标签
Fig.9 Circular smooth label
使用高斯函数对标签平滑处理,以提高模型对预测角度的预测的泛化能力,高斯函数表达式为:
(4) |
式中:μ为函数峰值出现的位置;σ为标准差,控制函数的峰形宽度.
当使用高斯函数对角度编码时,μ为实际的角度类别,x为其他任意的角度类别,根据角度的分类数设置合理的σ,代入公式可求得所有位置的平滑值.不同角度分类数c、不同标准差σ、不同角度标签值θ得到的高斯平滑标签如

(a) c=180, σ=4, θ=0
(b) c=36, σ=4, θ=0

(c) c=36, σ=1, θ=0
(d) c=36, σ=1, θ=15
图10 高斯标签平滑
Fig.10 Gaussian label smoothing
2.3 损失函数优化
YOLOv5s-R的损失函数由四项构成:IoU(Intersection over Union)损失、置信度损失、分类损失与角度损失.
YOLOv5s的原始IoU损失计算采用的是CIOU,它同时考虑了预测框与真实框的重叠面积、中心点距离和长宽比.CIOU损失的公式为:
(5) |
(6) |
(7) |
式中:表示预测框与实际框的中心点的距离;c表示包含预测框与实际框的最小外接矩形的对角线段距离;即为距离惩罚项,它的作用是当预测框与真实框相互包含时,仍能提供梯度更新方向;v为真实边框与预测边框的宽高比损失;α为宽高比损失系数;和表示真实框的宽高;w和h表示预测框的宽高.
CIOU没有考虑到预测框与真实框的角度差,为了进一步优化旋转框的检测效果,提出RIOU,引入角度惩罚项:
(8) |
式中:k为平衡系数,约束角度惩罚项,防止RIOU损失过大导致对其他损失的不敏感,实验中设置为0.1;θ为预测框的角度与真实框的角度差值,考虑到边界问题,θ的表达式为
(9) |
式中:θpred为预测的角度类别;θtarget为实际的角度类别;c为角度的分类数.对于环形标签,预测角度与目标角度的差值的绝对值应小于分类数的一半,否则应从环形的另一边计算角度差.最后将角度差除以分类数c归一化到0到1之间,以保证角度分类数不同时的损失相同.
相比于CIOU,RIOU考虑了角度信息,如

图11 CIOU损失与RIOU损失对比
Fig.11 Loss comparison of CIOU and RIOU
置信度损失为二值交叉熵损失,分类损失和角度损失均采用多分类交叉熵损失:
(10) |
(11) |
(12) |
式中:为预测的置信度;C为真实的置信度标签;是1和CIOU的加权平均;g为训练难度系数;表示属于第i类的标签值;是预测的概率.
综合以上四项损失,得到YOLOv5-R模型的总损失:
(13) |
3 实验结果与分析
3.1 实验环境
实验环境为Ubuntu20.04系统,CPU为Intel Xeon E5-2620v3 2.4 GHz,GPU为NVIDIA GeForce GTX 3090,PyTorch版本为1.10.1,CUDA版本为11.3,Python版本为3.8.
使用YOLOv5s模型,进入网络训练的图片大小都被设置为640×640,初始学习率设置为0.01,使用余弦退火动态调整学习率,学习率动量为0.937,权重衰减系数为0.000 5,批量大小为16,使用SGD优化器,预训练1轮后训练50轮,为使实验严谨,训练过程中固定了随机种子数.
3.2 评价指标
平均精度(Average Precision, AP)能同时反映定位能力与分类能力,相比于准确率(Precison, P)与召回率(Recall, R),更能反映模型的检测能力.采用mAP@0.5与mAP@0.5∶0.95作为模型检测精度的评价指标.AP@0.5指的是预测框与真实框IoU阈值大于0.5且分类正确的平均精度,通过计算PR曲线的面积得到.mAP@0.5是所有类别的AP@0.5的平均,mAP@0.5∶0.95是以5为间隔,mAP@0.5到mAP@ 0.5∶0.95的平均值.具体公式如下:
(14) |
(15) |
(16) |
(17) |
(18) |
式中:n为类别数;TP表示实际是正样本预测也为正样本的数量;FP表示实际是正样本预测为负样本的数量;FN表示实际是负样本预测为正样本的数量.
3.3 数据增强方法的消融实验与对比实验
3.3.1 消融实验
为了寻找最优的数据增强方法,使用常用的数据增强方法做消融实验.一般来讲,使用HSV的数据增强方法对提升模型的检测能力总是有益的,因此将其作为基准,实验结果如
数据增强方法 | mAP@0.5 | mAP@0.5∶0.95 |
---|---|---|
基准(HSV) | 0.687 | 0.434 |
旋转 | 0.712 | 0.414 |
旋转+平移 | 0.729 | 0.427 |
旋转+平移+缩放 | 0.719 | 0.405 |
旋转+平移+翻转 | 0.758 | 0.439 |
旋转+平移+错切 | 0.756 | 0.433 |
旋转+平移+错切+拼接 | 0.749 | 0.430 |
旋转+平移+错切+混合 | 0.746 | 0.431 |
旋转+平移+错切+复制粘贴 | 0.750 | 0.433 |
由
3.3.2 引入RCMS方法对比实验
为了验证RCMS方法的有效性,与消融实验所得的最优策略(Optimal Method, OM)做对比,实验结果如
数据增强方法 | mAP@0.5 | mAP@0.5:0.95 |
---|---|---|
基准(HSV) | 0.687 | 0.434 |
OM | 0.758 | 0.439 |
RCMS | 0.761 | 0.477 |
OM+RCMS | 0.750 | 0.441 |
由
3.4 模型改进的实验
3.4.1 引入注意力机制的实验
为了探究注意力机制位置对模型精度的影响,以使用RCMS方法训练YOLOv5s原始模型的结果为基准,分别在C3层、SPPF层、Head层添加SA注意力机制,实验结果如
位置 | mAP@0.5 | mAP@0.5∶0.95 |
---|---|---|
无 | 0.761 | 0.477 |
C3 | 0.724 | 0.440 |
SPPF | 0.738 | 0.447 |
Head | 0.791 | 0.483 |
由
为了探究不同注意力机制的效果,使用常用的SENet、CBAM、CA、SA四种注意机制添加到头部做对比实验,实验结果如
方法 | mAP@0.5 | mAP@0.5∶0.95 | 参数/M | 运算量/G |
---|---|---|---|---|
无 | 0.761 | 0.477 | 7.03 | 15.88 |
SENet | 0.773 | 0.483 | 7.08 | 15.89 |
CBAM | 0.769 | 0.474 | 7.08 | 15.89 |
CA | 0.755 | 0.469 | 7.07 | 15.89 |
SA | 0.791 | 0.483 | 7.03 | 15.88 |
由
3.4.2 引入轻量化解耦头的实验
为了验证解耦头的有效性,以使用SA注意力机制的结果为基准,使用原始的解耦头(Decouple Head, DH)和优化后的轻量化解耦头(LDH)做对比实验,实验结果如
方法 | mAP@0.5 | mAP@0.5∶0.95 | 参数/M | 运算量/G |
---|---|---|---|---|
SA | 0.791 | 0.483 | 7.03 | 15.88 |
+DH | 0.788 | 0.488 | 7.77 | 56.42 |
+LDH | 0.794 | 0.487 | 7.19 | 19.99 |
由
3.5 引入旋转框的实验
3.5.1 标签平滑策略探究的实验
为了构建最优的标签编码格式,探究角度分类数和高斯函数的标准差对检测结果的影响,在改进模型的基础上增加角度预测项,实验结果如
角度类别数 | 标准差 | mAP@0.5 | mAP@0.5∶0.95 |
---|---|---|---|
180 | 4 | 0.804 | 0.482 |
180 | 2 | 0.795 | 0.476 |
90 | 2 | 0.800 | 0.478 |
36 | 2 | 0.798 | 0.476 |
36 | 1 | 0.810 | 0.481 |
18 | 1 | 0.801 | 0.481 |
由
3.5.2 引入RIOU的对比实验
为了验证RIOU的有效性,在采用最优标签编码格式下,分别使用CIOU和RIOU做对比实验,实验结果如
IoU | mAP@0.5 | mAP@0.5∶0.95 |
---|---|---|
CIOU | 0.810 | 0.481 |
RIOU | 0.826 | 0.495 |
由
3.6 各模型的检测效果对比
为了更直观地展示改进后模型的性能,以车载鱼眼相机的前视、后视、左视、右视四个视角的图像为测试图例,对原始模型YOLOv5s、改进后的水平框检测模型YOLOv5s-H、改进后的旋转框检测模型YOLOv5s-R的检测结果进行对比,分别如

图12 各模型对前视图的检测效果
Fig.12 The detection results of different models on FV images
(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

图13 各模型对后视图的检测效果
Fig.13 The detection results of different models on RV images
(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

图14 各模型对左视图的检测效果
Fig.14 The detection results of different models on MVL images
(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果

图15 各模型对右视图的检测效果
Fig.15 The detection results of different models on MVR images
(a)原始YOLOv5s检测效果 (b)YOLOv5s-H检测效果 (c)YOLOv5s-R检测效果
可以看到,原始的YOLOv5s模型定位精度和分类精度较低,存在漏检和误检的情况;水平框检测器YOLOv5s-H有效地优化了这一问题,检测框更紧凑,识别物体的能力更强,但对旋转物体的检测效果仍不佳,尤其是对左视图和右视图的检测存在框选出大量背景的情况;旋转框检测器YOLOv5s-R则更适配鱼眼图像的畸变特性,检测框的角度倾斜可以很好地适配畸变目标,与水平框相比,检测框与实际目标的IOU更小,检测效果更好.
以mAP@0.5为评价指标,各模型对不同类别检测结果如
模型 | 车辆 | 行人 | 自行车 | 交通灯 | 交通符号 |
---|---|---|---|---|---|
YOLOv5s | 0.906 | 0.881 | 0.757 | 0.591 | 0.658 |
YOLOv5s-H | 0.919 | 0.876 | 0.771 | 0.696 | 0.710 |
YOLOv5s-R | 0.925 | 0.895 | 0.784 | 0.718 | 0.727 |
4 结 论
首先,针对WoodScape数据集以小目标为主的特点,提出RCMS数据增强方法,为了验证该方法的有效性,与常用的数据增强方法消融实验的最优方法对比,结果优于最优方法.接着,为了进一步提升模型的检测效果,基于YOLOv5s模型进行改进,使用了SA注意力机制与LDH解耦头以提升模型对特征提取与识别的能力.最后,为适配鱼眼相机的畸变特性,构建了旋转框目标检测器YOLOv5s-R,使用高斯函数平滑的环形标签解决PoA问题,并优化了损失函数,提出RIOU作为IoU损失,实现了检测框对角度的回归.本文提出的YOLOv5s-R模型对自动驾驶场景下的鱼眼图像的目标有很好的检测效果,与原始的YOLOv5s模型相比,mAP@0.5、mAP@0.5∶0.95分别提升了6.8%、5.6%.本文研究的代码开源,供读者参考:https://github.com/renqi1/yolov5_woodscape.下一步的工作将考虑两个方面:一方面,进一步优化目标检测的精度,例如可以尝试更大的模型、对模型的优化、对数据的预处理.另一方面,可以构建多任务网络,同时实现目标检测、车道线检测、可行驶区域检测等任务,实现对行车环境的多任务实时检测.
参考文献
余世全.无人驾驶汽车的发展现状和相关建议[J].专用汽车,2023(1):11-14. [百度学术]
YU S Q.Development status of driverless vehicles and relevant suggestions[J].Special Purpose Vehicle,2023(1):11-14.(in Chinese) [百度学术]
王艺帆.自动驾驶汽车感知系统关键技术综述[J].汽车电器,2016(12):12-16. [百度学术]
WANG Y F.Overview on key technology of perceptual system on self-driving vehicles[J].Auto Electric Parts,2016(12):12-16.(in Chinese) [百度学术]
茅智慧,朱佳利,吴鑫,等.基于YOLO的自动驾驶目标检测研究综述[J].计算机工程与应用,2022,58(15):68-77. [百度学术]
MAO Z H,ZHU J L,WU X,et al.Review of YOLO based target detection for autonomous driving[J].Computer Engineering and Applications,2022,58(15):68-77.(in Chinese) [百度学术]
段续庭,周宇康,田大新,等.深度学习在自动驾驶领域应用综述[J].无人系统技术,2021,4(6):1-27. [百度学术]
DUAN X T,ZHOU Y K,TIAN D X,et al.A review of deep learning applications for autonomous driving[J].Unmanned Systems Technology,2021,4(6):1-27.(in Chinese) [百度学术]
GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition, ACM,2014:580-587. [百度学术]
GIRSHICK R.Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV).Santiago,Chile: IEEE,2015:1440-1448. [百度学术]
REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149. [百度学术]
HE K M,GKIOXARI G,DOLLÁR P,et al.Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision (ICCV).Venice,Italy: IEEE,2017:2980-2988. [百度学术]
REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA: IEEE,2016:779-788. [百度学术]
REDMON J,FARHADI A.YOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI,USA.IEEE,2017:6517-6525. [百度学术]
REDOMON J, FARHADI A .YOLOv3: an incremental Improvement[J]. 2018. [百度学术]
BOCHKOVSKIY A, WANG C Y, LIAO H. Yolov4: optimal speed and accuracy of object detection[J]. arXiv preprint arXiv: 2004.10934, 2020. [百度学术]
JOVHER G. YOLOv5[EB/OL]. https://github.com/ultralytics/yolov5, 2021. [百度学术]
LI C Y,LI L,JIANG H L,et al.YOLOv6:a single-stage object detection framework for industrial applications[J]. arXiv preprint arXiv:2209.02976, 2022. [百度学术]
WANG C Y , BOCHKOVSKIY A , LIAO H Y M .YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]// arXiv preprint arXiv:2207.02696, 2022. [百度学术]
JOCHER G, CHAURASIA A, Q J. YOLO by Ultralytics (Version 8.0.0) [EB/OL]. 2023.https://github.com/ultralytics/ultralytics. [百度学术]
XU S , WANG X , LV W ,et al.PP-YOLOE: An evolved version of YOLO[J]. 2022. [百度学术]
LI T W,TONG G J,TANG H Y,et al.FisheyeDet:a self-study and contour-based object detector in fisheye images[J].IEEE Access,2020,8:71739-71751. [百度学术]
KUMAR V R,YOGAMANI S,RASHED H,et al.OmniDet:surround view cameras based multi-task visual perception network for autonomous driving[J].IEEE Robotics and Automation Letters,2021,6(2):2830-2837. [百度学术]
RASHED H,MOHAMED E,SISTU G,et al.Generalized object detection on fisheye cameras for autonomous driving:dataset,representations and baseline[C]//2021 IEEE Winter Conference on Applications of Computer Vision (WACV).Waikoloa,HI,USA: IEEE,2021:2271-2279. [百度学术]
COORS B,CONDURACHE A P,GEIGER A.SphereNet:learning spherical representations for detection and classification in omnidirectional images[C]//Computer Vision – ECCV 2018:15th European Conference,Munich,Germany,September 8–14,2018,Proceedings,Part IX: ACM,2018:525–541. [百度学术]
ZHANG Z H,XU Y Y,YU J Y,et al.Saliency detection in 360 $$^\circ $$ videos[C]//European Conference on Computer Vision.Cham:Springer,2018:504-520. [百度学术]
SU Y C,GRAUMAN K.Kernel transformer networks for compact spherical convolution[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach,CA,USA: IEEE,2019:9434-9443. [百度学术]
DOOLEY D,MCGINLEY B,HUGHES C,et al.A blind-zone detection method using a rear-mounted fisheye camera with combination of vehicle detection methods[J].IEEE Transactions on Intelligent Transportation Systems,2016,17(1):264-278. [百度学术]
BAEK I,DAVIES A,YAN G,et al.Real-time detection,tracking,and classification of moving and stationary objects using multiple fisheye images[C]//2018 IEEE Intelligent Vehicles Symposium (IV).Changshu,China: IEEE,2018:447-452. [百度学术]
王文亮,李延祥,张一帆,等.MPANet-YOLOv5:多路径聚合网络复杂海域目标检测[J].湖南大学学报(自然科学版),2022,49(10):69-76. [百度学术]
WANG W L,LI Y X,ZHANG Y F,et al.MPANet-YOLOv5:multi-path aggregation network for complex sea object detection[J].Journal of Hunan University (Natural Sciences),2022, 49(10):69-76.(in Chinese) [百度学术]
秦晓辉,黄启东,常灯祥,等.基于改进YOLOv5的露天矿山目标检测方法[J].湖南大学学报(自然科学版),2023,50(2):23-30. [百度学术]
QIN X H,HUANG Q D,CHANG D X,et al.Object detection method in open-pit mine based on improved YOLOv5[J].Journal of Hunan University (Natural Sciences),2023,50(2): 23-30.(in Chinese) [百度学术]
杨睿宁,惠飞,金鑫,等.改进YOLOv5s的复杂交通场景路侧目标检测算法[J].计算机工程与应用,2023,59(16):159-169. [百度学术]
YANG R N,HUI F,JIN X,et al.Roadside target detection algorithm for complex traffic scene based on improved YOLOv5s[J].Computer Engineering and Applications,2023,59(16):159-169.(in Chinese) [百度学术]
刘春霞,李超,潘理虎,等.改进YOLOv5s的煤矿烟火检测算法[J].计算机工程与应用,2023,59(17):286-294. [百度学术]
LIU C X,LI C,PAN L H,et al.Improved coal mine smoke and fire detection algorithm of YOLOv5s[J].Computer Engineering and Applications,2023,59(17):286-294.(in Chinese) [百度学术]
杨晨,佘璐,杨璐,等.改进YOLOv5的遥感影像目标检测算法[J].计算机工程与应用,2023,59(15):76-86. [百度学术]
YANG C,SHE L,YANG L,et al.Improved YOLOv5 object detection algorithm for remote sensing images[J].Computer Engineering and Applications,2023,59(15):76-86.(in Chinese) [百度学术]
YOGAMANI S,HUGHES C,HORGAN J,et al.WoodScape:a multi-task,multi-camera fisheye dataset for autonomous driving[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South).IEEE,2019:9307-9317. [百度学术]
ZHANG Q L,YANG Y B.SA-net:shuffle attention for deep convolutional neural networks[C]//ICASSP 2021 - 2021 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Toronto,ON,Canada.IEEE,2021:2235-2239. [百度学术]
WU Y,CHEN Y P,YUAN L,et al.Rethinking classification and localization for object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Seattle,WA,USA: IEEE,2020:10183-10192. [百度学术]
GE Z, LIU S, WANG F, et al. Yolox: exceeding yolo series in 2021[J].2021. [百度学术]
YANG X,YAN J C.Arbitrary-oriented object detection with circular smooth label[C]//European Conference on Computer Vision.Cham:Springer,2020:677-694. [百度学术]