+高级检索
网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

面向小型无人机检测应用的改进YOLOv8算法  PDF

  • 仲元昌
  • 陈宇
  • 杨子楚
  • 李大林
重庆大学 电气工程学院,重庆 400044

中图分类号: TP391

最近更新:2025-04-24

DOI: 10.16339/j.cnki.hdxbzkb.2025266

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

现有的目标检测算法对小型无人机存在难以有效检测、受复杂环境影响以及网络模型复杂等问题,为此提出一种基于YOLOv8的改进型无人机目标检测算法.首先,针对远距离飞行的无人机目标较小的问题,添加一个融合了浅层特征的新的极小目标检测层,同时剔除最大目标检测层,以实现优化目标尺度聚焦并降低网络的复杂度;其次,在Backbone网络中引入GhostConv模块,进一步减少模型的参数量,然后,在Neck网络中融合LSKA模块中的注意力机制,将C2f模块中的Bottleneck用LSKA进行替换,设计全新的C2f-LSKA模块代替Neck中的C2f模块,提高模型对上下文的感知能力和对空间信息的处理能力;最后,采用WIoUv3作为边界损失函数,进一步提高模型精度.实验结果表明,与原模型相比,改进的模型在自建无人机数据集上的精确度P提升了5.0个百分点,召回率R提升了11.9个百分点,mAP@0.5提升了9.5个百分点,改进后的模型参数数量和模型大小分别降低了68.9个百分点和65.1个百分点.

无人机技术的进步和应用范围的扩大已经推动其成为创新应用的前沿领域.无人机在军事、农业、电力、娱乐等诸多领域均已广泛应

1-2.在军事领域,无人机彻底变革了新时代战争的主要作战模式,促使人们必须采取新的策略,以降低敌方无人机的干扰并提升我方无人机的作战效能,提高对敌方无人机的检测精度与速度,以实现提前预警和拦3.针对我方无人机续航能力不足的问题,采用激光无线远程充电技术为其持续供能,要求对无人机进行精确快速的检测与跟踪,确保激光能够始终对准无人4-5.因此,快速且精准的无人机检测已成为无人机系统的关键组成部分.然而,由于现代无人机具有体积小、运动灵活等特性,传统的无人机检测方法,如利用雷达信6和射频微7进行检测,往往因设备体积庞大、部署位置固定等局限,在局势快速变化的战场环境中难以发挥应有的作用.因此,迫切需要开发新型的无人机检测算法,以满足当下的需求.

近年来,目标识别算法得到了广泛的发展.以检测过程的差异为依据,目标识别算法可以分为两类:多阶段检测与单阶段检

8.多阶段检测方法先对图像生成多个预选框,然后对这些预选框进行分类和边框回归,通常具有更高的准确率,但由于检测流程较为复杂,其速度较慢.此类方法的代表性算法包括R-CNN9、Fast R-CNN10、Faster R-CNN11等.相比之下,单阶段检测方法只需要进行一次特征提取,结构更为简单,检测速度更快,适用于需要实时处理的应用场景.该方法的代表性算法有YOLO系12、SSD13、RetinaNet14等.特别地,YOLO算法作为目前主流的检测算法,有着较高的检测速度,且通过多次迭代改进,YOLO算法在检测准确率和可靠性方面也获得了显著提升.

文献[

15]对YOLOv3算法设计四个尺度的特征图来预测目标,提高对小型无人机的检测精度,但此方法增加了模型的复杂度,不利于在小型移动设备上部署.文献[16]采用激光雷达收集无人机数据,并将空间金字塔池化(SPP)模块集成到YOLOv3算法中,实现了不同尺寸特征的有效融合,从而能够更好地提取特征,实现最远检测距离达238 m.文献[17]通过引入轻量级联合注意力机制,实现了多个FPN层间的多尺度特征融合,有效避免了小目标信息的丢失.文献[18]则进一步使用BiFPN替代YOLOv5颈部网络中的FPN+PAN结构,更有效地结合顶层的高级语义和底层的空间信息,但引入双向信息流增加了网络的复杂度.文献[19]在YOLOv8网络中引入SPD-Conv代替传统卷积,以提取多尺度特征并增强模型在复杂环境下的鲁棒性.在进行实时检测的场景中,模型通常需要部署在小型移动设备上,要求算法不仅保持高精度,还应具有低复杂度和小模型尺寸.因此,还需要研究如何在提高检测性能的同时,进一步优化模型结构,减小模型尺寸,以适应小型计算设备的资源限制,实现高效的无人机实时检测.

为了克服传统网络对小型无人机难以识别以及模型尺寸大的问题,本文提出了一种基于改进 YOLOv8n算法的无人机检测模型.主要贡献如下:

1)重新设计YOLOv8的三个检测头,通过融合具有丰富位置信息的P2浅层特征,提高对小型目标的检测精确度,同时剔除了原有的尺度为20×20的大目标检测层,优化目标尺度聚焦并降低了网络的复杂度和计算需求.

2)在骨干网络中引入更为轻量化的Ghostconv模块,减少了模型的参数量,缩减了模型体积.

3)结合LSKA模块与C2f,设计C2f-LSKA模块,代替Neck网络中的部分C2f模块,增强了模型对上下文的感知能力以及对空间信息的处理能力.

4)采用WIoUv3作为边界损失函数,减少了数据集中低质量锚框对训练的影响,增强了模型的定位性能和泛化能力.

1 YOLOv8网络结构

YOLOv8代表了YOLO系列算法的最新进展,通过在之前版本的基础上引入创新和增强功能,显著提高了性能和处理速度.该模型根据不同的缩放系数,提供了N、S、M、L、X五种尺度的变体,以满足各种应用场景的需

20.YOLOv8的架构由三个关键部分组成:Backbone、Neck和Head21,其结构示意图详见图1.在本文中,选择YOLOv8n作为无人机检测任务的核心网络架构.

fig

图1  YOLOv8网络结构图

Fig.1  YOLOv8 network architecture diagram

在Backbone部分,YOLOv8对CSPDarknet53进行改进用于特征提取.CSPDarknet53的改进在于其优化了网络深度和宽度,有效平衡了模型复杂度和性能,同时减少了计算资源的消耗.通过五次下采样操作,输入图像被转换成P1至P5五个不同尺度的特征层,这些特征层使模型能够有效地检测不同大小的目标.与YOLOv5相比,YOLOv8对网络结构进行了细致的优化,将C3模块升级至C2f结构,该结构通过增加跳跃连接和分割操作,具有更加丰富的梯度流,帮助模型更有效地学习和保留重要的特征信息.Backbone的末端使用了空间金字塔池化模块(SPPF),通过顺序连接三个最大池化层,相较于传统SPP结构,SPPF不仅减少了计算量和处理延迟,还保持了特征的多样性和丰富性.这使得YOLOv8能够更有效地处理各种尺寸的输入特征,提升了模型的适应性和准确性.Neck部分采用PAN-FPN结

22,融合了不同深度层次的特征信息.这种结构优化了特征层之间的信息流,提高了模型对不同尺度目标的检测性能.Head部分采用解耦头设计,实现了分类和检测任务的有效分离.YOLOv8支持8倍、16倍和32倍下采样的多尺度特征预测,提高了模型在处理各种尺寸目标时的灵活性和精确度.

2 改进策略研究

2.1 Head部分设计

2.1.1 增加极小分辨率检测头

在原YOLOv8模型中,经过五次下采样操作,图像被转换为五个不同尺度的特征表示(P1、P2、P3、P4、P5),并通过P3、P4、P5层的特征输出,分别对应构建了80×80、40×40和20×20特征尺度的三个检测头.然而,在对飞行中的无人机进行检测的应用场景中,由于无人机与地面之间的相对距离较大,目标尺寸相对较小,经过多次下采样后的无人机特征信息大多数已经丢失,使得原有的三个检测头难以有效捕捉到这些目标.

针对上述问题,本文提出了一种改进策略,即在原有网络架构基础上新增一个特征尺度为160×160的极小目标检测头,以融合P2层提供的更丰富的位置信息.这一改进,显著提升了模型对小型无人机目标的检测能力,有效弥补了原YOLOv8模型在处理极小目标方面的不足.

2.1.2 剔除大目标检测头

针对无人机目标检测和跟踪的特定应用场景,无人机目标在图像中通常呈现为小型或中型对象.鉴于此,保留用于大型目标检测的深层检测层不仅对提升检测效能无益,反而可能因增加计算负荷和引入不必要的干扰而削弱模型性能.因此,本文提出了一种优化方案,即从YOLOv8模型中移除最深层的大目标检测头及其相关的冗余网络部分,使模型更专注于小型和中型无人机目标的有效检测和识别,以便降低模型复杂度,提升处理速度,同时保持目标检测的准确性.

经过本文改进的新型网络架构包括三个检测层:160×160的极小目标检测层、80×80的小目标检测层和40×40的中等目标检测层,以适应无人机目标在图像中的尺寸特点.图2展示了改进后的网络架构效果,其中白色模块表示被剔除的检测头及其相关冗余网络,蓝色模块代表新增加的极小目标检测头.通过该结构的改进,网络模型在提高无人机目标检测精度的同时,有效减轻了计算负担.

fig

图2  Head部分改进效果图

Fig.2  Improved performance of the Head section

2.2 GhostConv模块

GhostConv

23由华为在2020年提出,并用于GhostNet网络中.如图3所示,首先,输入特征图通过一组普通卷积核进行特征提取,获得一部分的输出特征图,然后对于这部分特征图,通过廉价的线性操作,例如采用1×1的卷积来生成另一部分的特征图,每个原始特征图都可以产生多个额外的特征图,这些新产生的特征图与原始的特征图在信息内容上有所不同,但共同增强了模型对输入数据的表示能力.最后将普通卷积和廉价操作生成的特征图通过Concat模块进行通道维度上的合并,完成特征图的输出.通过这个流程,GhostConv有效减少了模型的参数和计算需求,同时保持了对输入数据的高度表征能力,适用于移动设备等计算资源有限的环境.

fig

图3  GhostConv设计原理

Fig.3  Principle of GhostConv design

假设普通卷积核的大小为k×k,输入特征图的尺寸为H×W,输入特征图的通道数为Cin,输出特征图的通道数为Cout.

可得到整个过程GhostConv卷积计算量如下:

FLOPsConv=k×k×Cin×H×W×Cout2 (1)
FLOPsCheap=H×W×Cout2 (2)
FLOPsGhostConv=FLOPsConv+FLOPsCheap (3)

式中:FLOPsConv是第一步普通卷积生成一半特征图时的计算量;FLOPsCheap是通过廉价操作生成另一半特征图时的计算量.

若直接使用普通卷积对特征图进行特征提取,得到与上述相同大小的特征图,整个过程计算量如下:

FLOPsConv=k×k×Cin×H×W×Cout (4)

式(3)式(4)相除得到采用GhostConv和普通卷积的计算量比率:

FLOPsGhostConvFLOPsConv=k2+12k2 (5)

取卷积核大小k为3可以得到,采用GhostConv对目标进行特征提取是普通卷积计算量的55%.

2.3 C2f-LSKA模块

无人机在飞行过程中速度快且飞行轨迹复杂,目标检测结果容易受到复杂背景的干扰以及目标尺度变化的影响.因此,本文引入大型可分离卷积核注意力(LSKA)模

24,采用可分离的大核卷积来构建特征图不同部分间的相关性,降低计算复杂度和参数量.具体而言,LSKA模块首先将大核卷积分解为三个部分:深度卷积(DW-Conv)、深度空洞卷积(DW-D-Conv)以及一个通道卷积(1×1卷积).随后,通过将深度卷积和深度空洞卷积的二维卷积核分解成两个较小的卷积核:一个是N×1的卷积核,负责沿着垂直方向执行卷积操作;另一个是1×N的卷积核,负责沿着水平方向执行卷积操作.这样可实现与大核卷积等效的效果,同时降低了计算参数并提高了计算效率,结构如图4所示.这种分解显著降低了计算复杂度,并使模型能够在输入特征图上捕获更广泛的空间信息.

fig

图4  LSKA结构

Fig.4  LSKA architecture

为实现C2f与LSKA模块的融合,本文设计LSKA Attention结构,如图5所示.输入特征图经过批量归一化处理,GELU激活函数之后通过LSKA模块,再与前面的输入特征图残差连接进行特征融合.特别地,在LSKA模块两端分别设置一个1×1的卷积,前一个用于降低特征图通道数量,后一个用于增加通道数量与输入保持一致,以降低模型的参数量和计算量并增强特征表达能力.

fig

图5  LSKA Attention结构

Fig.5  LSKA Attention structure

本文使用LSKA Attention来替换C2f模块中的Bottlenecks形成全新的C2f-LSKA模块.结构如图6所示,C2f模块操作主要侧重于捕捉输入数据的局部特征,其局限性在于只能关注小范围的局部区域,从而难以在特征图上建立不同区域间的关联,这在处理复杂背景的视觉任务时会导致模型鲁棒性不足.C2f-LSKA模块的设计通过融合C2f模块和LSKA模块中的注意力机制,显著提升模型对于上下文信息的感知能力,同时有效降低网络的计算负担,并增强模型面对复杂视觉环境的鲁棒性.这不仅优化了模型的结构,还提高了其在复杂背景下的目标检测性能.

fig

图6  C2f-LSKA结构

Fig.6  C2f-LSKA architecture

2.4 损失函数改进

合理设计损失函数可以提高网络模型的检测性能,YOLOv8原模型使用DFL+CIoU计算,CIoU通过考虑中心点距离以及预测框和真实框的重叠区域等因素来优化边界框预测.但在实际应用中,CIoU损失在处理小目标检测时存在几个不足之处:首先,对于小目标,IoU的微小变化对检测灵敏度的影响不如大目标明显,导致CIoU损失对小目标的检测不够敏感;其次,虽然CIoU考虑到了长宽比,但其对某些特定形状和长宽比变化的敏感度不足;最后,CIoU中的平衡因子α是固定的,不适应所有类型目标,尤其是尺寸变化较大的目标.其表达式如式(6)~式(8)所示:

LCIoU=LIoU+ρ(b,bgt)c2+αυ (6)
LIoU=1-IoU (7)
υ=4π2arctanwgthgt-arctanwh2 (8)

式中涉及的一些参数定义如图7所示,其中IoU表示真实框与预测框的交并比;ρ(b,bgt)是真实边界框b和预测边界框bgt中心点的欧几里得距离;c是包含两个框最小闭合区域的对角线长度;α是平衡因子,用来平衡形状不匹配的惩罚项;υ用来度量长宽比的相似性;hw分别表示预测框的高度和宽度;hgtwgt分别表示真实框的高度和宽度.

fig

图7  损失函数参数示意图

Fig.7  Loss function parameter diagram

本文采用Wise-IoU损失函

25作为边界盒回归损失.相比于CIoU,WIoUv3首先通过动态非单调聚焦机制,使得模型在训练过程中更加专注于定位性能,对小目标的敏感度更高;此外,WIoUv3在训练后期减少对低质量锚框的关注,有助于降低有害梯度的影响,从而提高训练效率.最后,WIoUv3强调中心位置的准确性,对于追踪小型、快速移动的无人机目标至关重要.基于本文的研究任务,WIoUv3的这些特点可以帮助模型更精确地定位和跟踪小型无人机,提高整体检测和跟踪性能.其表达式如式(9)~ 式(11)所示:

LWIoUv3=1-WiHiSuexp(x-xgt)2+(y-ygt)2(Wg2+Hg2)*γ (9)
γ=βδαβ-δ (10)
β=LIoU*L¯IoU[0,+) (11)

式中:β为锚框的离群度,离群度越小表示锚框质量越高;γ为非单调聚焦系数,减小低质量锚框对训练的干扰;δ为超参数,以调整β的影响;(x,y)(xgt,ygt)分别为预测框和真实框的中心坐标;WgHg分别为包含真实框和预测框最小闭合区域的宽度和高度;Su表示预测框和真实框不相交部分的面积;LIoU*为当前锚框的IoU损失;L¯IoU为均值IoU损失.

综上所述,本文对YOLOv8网络的骨干、颈部和头部均作了改进.改进后的网络结构如图8所示.

fig

图8  改进YOLOv8网络结构图

Fig.8  Improved YOLOv8 network architecture diagram

3 实验及结果分析

3.1 实验数据集

由于对无人机检测的应用较少,还没有标准的官方数据集,因此本文所采用的数据集是在互联网上找到的2 873张无人机图像,格式为JPG格式,并使用roboflow对图像进行标注后一一生成对应的TXT标签文件.标签数据按照7∶3的比例划分为训练集和验证集,数据集存储的格式结构基于VOC2007创建,数据集包括无人机飞行的多个使用场景,部分数据集图片如图9所示.

fig

图9  部分无人机数据集

Fig.9  Partial UAV dataset

3.2 实验环境设置

本文实验训练模型使用的硬件平台和环境参数设置如表1所示.

表1  实验硬件平台和环境参数设计
Tab.1  Experimental hardware platform and environmental parameter settings
名称配置
操作系统 Linux
开发环境 CUDA 11.1
处理器(CPU) Intel(R) Xeon(R) Platinum 8255C CPU @ 2.50GHz
显卡(GPU) RTX 2080 Ti(11GB)
epochs 150
batch-size 8

3.3 评价指标

为了检测本文提出的改进模型的性能,本实验采用精确率P、召回率R、平均精度均值mAP@0.5、模型参数数量、模型体积和每秒帧数FPS作为评估指标.其中精确率是衡量检测到正类中实际为正类的比例,计算公式如式(12)所示:

P=TPTP+FP (12)

式中:TP为真正类,即正确检测到的目标数;FP是假正类,即错误标记为目标的数.

召回率是衡量所有正类中被正确检测到的比例,计算公式如式(13)所示:

R=TPTP+FN (13)

式中:FN是假负类,即漏检的目标数.

mAP是多个类别平均精确度的平均值,在不同的召回率阶段计算精确度,然后取平均值.在mAP@0.5中,只有当IoU(交并比)大于0.5时,检测才被视为正确.对比mAP@0.5:0.95为IoU阈值在0.5到0.95之间逐步增加时的平均精度,本文的研究对象是对小型无人机的检测,其边界框的IoU值较小,因此选取mAP@0.5作为评价指标以保证检测的灵活性.AP是衡量在所有不同的召回率阈值下,精确率的平均值,计算公式如式(14)所示:

AP=01P(r)dr (14)

mAP的计算公式如式(15)所示:

mAP=1Ni=1NAPi (15)

式中:N是类别的数量,APi是第i个类别的平均精确度.

3.4 测试结果与分析

3.4.1 消融实验

为了验证每个改进模块的优化效果,本文基于自建数据集设计并进行了消融实验.为了进一步评估改进的技术对YOLOv8n算法的影响,以YOLOv8n为初始实验模型一,依次对网络的各个部分以及损失函数进行改进得到六个改进模型,分别对这七种模型进行定量研究,实验结果如表2所示.

表2  消融实验结果
Tab.2  Results of ablation experiments

模型

编号

+Tiny Head-Large HeadGhostConvC2f-LSKAWIoUv3P/%R/%mAP@0.5/%ParametersModel size/MBFPS/(帧·s-1
× × × × × 87.4 79.1 84.5 3 005 843 6.3 129.87
× × × × 89.3 88.7 92.5 2 977 588 6.3 114.94
× × × 87.3 87.6 91.1 1 040 467 2.4 129.87
× × 89.9 89.7 92.9 996 787 2.3 113.63
× × 89.8 88.5 92.3 980 371 2.3 112.36
× 91.5 89.2 92.9 934 787 2.2 128.20
92.4 91.0 94.0 934 787 2.2 126.58

表2中的模型一为原YOLOv8n算法.模型二增加一个极小分辨率检测头使得模型的P、R和mAP@0.5分别提高了2.2%、12.1%和9.5%.模型三在剔除大目标检测头后,相比于模型一,P有所降低,但R和mAP@0.5分别增加了10.7%和7.8%,且参数量减少了65.4%,模型体积减小了61.9%.模型四和模型五在模型三的基础上分别替换GhostConv和引入C2f-LSKA,相比于模型三,两个模型的P、R和mAP@0.5均有所提升,且模型大小均降低了4.2%;模型六同时替换GhostConv和引入C2f-LSKA,相较于模型三P、R和mAP@0.5分别提高了4.8%、1.8%、2.0%,且模型大小降低了8.3%.模型七改损失函数为WIoUv3后为本文改进的最终模型,大小仅为2.2MB,且P、R和mAP@0.5分别达到92.4%、91.0%、94.0%,在所有的模型中检测表现最好.由于极小检测头、GhostConv和LSKA模块增加了一些检测时间,模型七的FPS达到了126.58 帧·s-1,与模型一的129.87 帧·s-1相比略有降低,但在实际部署中依然可以满足实时性的要求.模型七与模型一实验对比图如图10所示,P提升了5.0个百分点,R提升了11.9个百分点,mAP@0.5提升了9.5个百分点,改进后的模型参数数量和模型体积分别降低了68.9个百分点和65.1个百分点.图11显示了本文提出的模型和初始YOLOv8n模型在训练过程中的P和mAP@0.5的变化曲线,从图中可以看到,相较于初始模型,本文提出的模型训练速度更快,检测效果更好,表明本文对YOLOv8n模型的改进是可行和有效的,兼顾了检测的准确性和模型的低复杂度.

fig

图10  YOLOv8n与改进模型实验对比图

Fig.10  Comparison graph of YOLOv8n and improved model experiments

fig

(a)  精确率P对比

fig

(b)  mAP@0.5对比

图11  YOLOv8n与改进模型训练过程对比图

Fig.11  Comparison graph of training processes between

YOLOv8n and the improved model

为了更加直观地观察改进模型的检测效果,将基础模型YOLOv8n和本文改进的模型用于无人机的检测,并将两者检测的效果图进行对比,如图12~图14所示,其中(a)(b)(c)代表YOLOv8n的检测结果,(d)(e)(f)代表本文改进后模型的检测结果,无人机的位置和置信度分别用红色矩形框和文本表示.图12表示在简单背景下两者都能较高精度地检测到无人机,且改进后模型相比于YOLOv8n检测精度更高;图13表示在复杂背景下,YOLOv8n的检测精度比改进后的模型低,且出现了错检和漏检的情况;图14表示在对极小目标的检测中,改进后的模型相较于YOLOv8n检测精度有较大的提升,且没有出现漏检情况.可见在无人机检测的各种场景中,本文改进后的的模型在大幅度降低模型参数和体积的情况下,相较于YOLOv8n模型能有更高的检测精度.提出的改进模型有效解决了复杂背景下无人机极小目标的错检和漏检问题.

fig

(a) 

(b) 

(c) 

  

fig

(d) 

(e) 

(f) 

  

图12  简单背景下的检测效果对比图

Fig.12  Detection performance comparison graph in simple background

fig

(a) 

(b) 

(c) 

  

fig

(d) 

(e) 

(f) 

  

图13  复杂背景下的检测效果对比图

Fig.13  Detection performance comparison graph in complex background

fig

(a) 

(b) 

(c) 

  

fig

(d) 

(e) 

(f) 

  

图14  极小目标下的检测效果对比图

Fig.14  Detection performance comparison graph for tiny objects

3.4.2 对比实验

为了进一步证明本文所提算法的有效性和优越性,将本文改进后的模型分别与当前其他热门算法在本文自建数据集上进行对比实验,采用平均精度均值mAP@0.5、模型参数数量、模型体积和每秒帧数FPS作为评估指标,它们已经被广泛用于各种嵌入式场景并发表在许多论文中,其中所使用的所有算法均为官方正式版,为了确保公平性,所有的模型都没有使用预先训练的权重进行训练,比较实验的结果见表3.

表3  对比实验结果
Tab.3  Results of comparative experiments
ModelsmAP@0.5/%ParametersModel size/MB

FPS/

(帧·s-1

Faster R-CNN 90.1 47 267 456 180.7 17.45
SSD 73.7 23 745 908 90.6 17.53
YOLOv3-tiny 74.0 12 128 178 24.4 169.49
YOLOv5n 82.4 2 503 139 5.3 125.00
YOLOv6n 83.7 4 233 843 8.7 142.85
YOLOv8n 84.5 3 005 843 6.3 129.87
Ours 94.0 934 787 2.2 126.58

表3显示:除去本文改进算法,Faster R-CNN作为多阶段检测算法的mAP@0.5最高,但是参数量和模型大小均远大于其他算法且检测速度最慢. YOLOv5n的参数量和模型大小最小,但是在检测能力上小于YOLOv6n和YOLOv8n.而在检测速度上,YOLOv3-tiny的速度最快,FPS达到了169.49 帧·s-1,但是mAP@0.5较小,检测精度较差.总之,YOLOv8n的综合检测能力最强,在模型体积较YOLOv6n降低27.6%的情况下,mAP@0.5还有所提高.最后,与其他几种算法相比较,本文提出的改进算法在参数量和模型大小最小的同时提高了检测能力,虽然速度有所降低,但依然可满足实际部署的需求,表明本文对YOLOv8n网络的改进是有效的.

4 结 论

本文提出一种基于改进YOLOv8n的小型无人机目标检测算法.首先,在原模型三个检测层的基础上再添加一个新的极小目标检测层,同时剔除最大目标检测层,提高网络对小型无人机检测精度的同时降低模型复杂度;其次,引入更为轻量化的GhostConv模块,缩减模型体积;然后,在颈部网络中设计全新的C2f-LSKA模块代替部分C2f模块,提高模型对上下文的感知能力和对空间信息的处理能力;最后,采用WIoUv3作为边界损失函数,提高训练时的收敛速度和回归精度.实验结果表明,与原模型相比,改进的模型在自建无人机数据集上的P提升了5.0个百分点,R提升了11.9个百分点,mAP@0.5提升了9.5个百分点,参数量减少了68.9个百分点,模型体积压缩了65.1个百分点.在提高检测精度的同时大幅度降低了模型的复杂度和模型体积,且对复杂环境下的目标具有更好的检测效果.本文的工作主要集中在提高无人机在各种环境下的识别和定位能力,后续工作将检致力于提高在更复杂空域背景下的探测精度,并对无人机飞行轨迹进行预测实现对无人机的实时追踪.

参考文献

1

黄开激光供能技术在无人机续航中的应用研究[D].宜昌三峡大学2020 [百度学术] 

HUANG KResearch on the application of laser energy supply technology in the endurance of UAV[D].YichangChina Three Gorges University2020(in Chinese) [百度学术] 

2

彭艺涂馨月杨青青基于改进YOLOv5的轻量化无人机检测算法[J].湖南大学学报(自然科学版)20235012):28-38 [百度学术] 

PENG YTU X YYANG Q Qet alLightweight UAV detection algorithm based on improved YOLOv5[J].Journal of Hunan University (Natural Sciences)20235012):28-38(in Chinese) [百度学术] 

3

JURN Y NMAHMOOD S AALDHAIBANI J AAnti-drone system based different technologies:architecture,threats and challenges[C]//2021 11th IEEE International Conference on Control System,Computing and Engineering (ICCSCE). PenangMalaysia.IEEE2021114-119 [百度学术] 

4

OUYANG JCHE Y LXU Jet alThroughput maximization for laser-powered UAV wireless communication systems[C]//2018 IEEE International Conference on Communications Workshops (ICC Workshops)Kansas City,MOUSA.IEEE20181-6 [百度学术] 

5

ZHAO M MSHI Q JZHAO M JEfficiency maximization for UAV-enabled mobile relaying systems with laser charging[J].IEEE Transactions on Wireless Communications2020195):3257-3272 [百度学术] 

6

MOLCHANOV PEGIAZARIAN KASTOLA Jet alClassification of small UAVs and birds by micro-Doppler signatures[C]//2013 European Radar Conference. NurembergGermany.IEEE2013172-175 [百度学术] 

7

BASAK SRAJENDRAN SPOLLIN Set alCombined RF-based drone detection and classification[J].IEEE Transactions on Cognitive Communications and Networking202281):111-120 [百度学术] 

8

JIAO L CZHANG FLIU Fet al. A survey of deep learning-based object detection[J]. IEEE Access20197128837-128868 [百度学术] 

9

GIRSHICK RDONAHUE JDARRELL Tet al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern RecognitionColumbus,OHUSA. IEEE2014580-587 [百度学术] 

10

GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile. IEEE20151440-1448 [百度学术] 

11

MAI X CZHANG HJIA Xet al. Faster R-CNN with classifier fusion for automatic detection of small fruits[J]. IEEE Transactions on Automation Science and Engineering2020173): 1555-1569 [百度学术] 

12

REDMON JDIVVALA SGIRSHICK Ret alYou only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE2016779-788 [百度学术] 

13

KUMAR AZHANG Z JLYU H BObject detection in real time based on improved single shot multi-box detector algorithm[J].EURASIP Journal on Wireless Communications and Networking202020201): 204 [百度学术] 

14

LIN T YGOYAL PGIRSHICK Ret al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy. IEEE20172999-3007 [百度学术] 

15

SHI Q BLI J. Objects detection of UAV for anti-UAV based on YOLOv4[C]//2020 IEEE 2nd International Conference on Civil Aviation Safety and Information Technology (ICCASIT. WeihaiChina.IEEE20201048-1052 [百度学术] 

16

DING Y XQU Y CZHANG Qet al. Research on UAV detection technology of gm-APD lidar based on YOLO model[C]//2021 IEEE International Conference on Unmanned Systems (ICUS). Beijing, China. IEEE2021105-109 [百度学术] 

17

FARAJI HCHEN B C. Drone-YOLO: improved YOLO for small object detection in UAV[C]//2023 8th International Conference on Image,Vision and Computing (ICIVC). DalianChina. IEEE202393-100 [百度学术] 

18

MA JWANG XXU C Fet alSF-YOLOv5:Improved YOLOv5 with swin transformer and fusion-concat method for multi-UAV detection[J].Measurement and Control2023567/8):1436-1445 [百度学术] 

19

ZHAI X XHUANG Z HLI Tet alYOLO-drone: an optimized YOLOv8 network for tiny UAV object detection[J].Electronics20231217): 3664 [百度学术] 

20

WANG GCHEN Y FAN Pet alUAV-YOLOv8:a small-object-detection model based on improved YOLOv8 for UAV aerial photography scenarios[J].Sensors20232316): 7190 [百度学术] 

21

熊恩杰张荣芬刘宇红面向交通标志的Ghost-YOLOv8检测算法[J].计算机工程与应用20235920): 200-207 [百度学术] 

XIONG E JZHANG R FLIU Y Het al. Ghost-YOLOv8 detection algorithm for traffic signs[J]. Computer Engineering and Applications20235920): 200-207(in Chinese) [百度学术] 

22

HU J FSUN J XLIN Z Het al. APANet: auto-path aggregation for future instance segmentation prediction[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence2022447):3386-3403 [百度学术] 

23

HAN KWANG Y HTIAN Qet alGhostNet:more features from cheap operations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WAUSA.IEEE20201580-1589 [百度学术] 

24

LAU K WPO L MREHMAN Y A U. Large separable kernel attention:rethinking the large kernel attention design in CNN[J].Expert Systems with Applications2024236121352 [百度学术] 

25

TONG Z JCHEN Y HXU Z Wet alWise-IoU: bounding box regression loss with dynamic focusing mechanism[EB/OL]. 2023:2301.10051.https://arxiv.org/abs/2301.10051v3 [百度学术] 

作者稿件一经被我刊录用,如无特别声明,即视作同意授予我刊论文整体的全部复制传播的权利,包括但不限于复制权、发行权、信息网络传播权、广播权、表演权、翻译权、汇编权、改编权等著作使用权转让给我刊,我刊有权根据工作需要,允许合作的数据库、新媒体平台及其他数字平台进行数字传播和国际传播等。特此声明。
关闭