+高级检索
网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

面向低光照环境的车辆目标检测方法  PDF

  • 孔烜 1
  • 彭佳强 1
  • 张杰 1
  • 戴剑军 2
  • 潘思宇 3
  • 吴政奇 3
1. 湖南大学 土木工程学院,湖南 长沙 410082; 2. 湖南省交通科学研究院有限公司,湖南 长沙 410015; 3. 中策橡胶集团股份有限公司,浙江 杭州 310018

中图分类号: TP391.41U495

最近更新:2025-01-21

DOI: 10.16339/j.cnki.hdxbzkb.2025017

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

在智慧交通系统和城市安全领域中,准确获取车辆信息至关重要. 通过视频或图像等视觉识别手段可以直接获取车辆相关信息. 然而,在低光照环境下,图像亮度和对比度降低、噪声增加、图像细节特征易丢失,这些问题导致车辆目标检测算法的精度大大降低. 为此,提出了一种基于低光照图像增强算法和改进目标检测算法的车辆检测方法. 首先,利用图像增强算法ZeroDCE对低光照图像进行增强,以提升图像亮度; 然后,利用改进的AFF-YOLO目标检测网络对增强后的图像进行车辆检测;最后,将本文方法在车辆数据集上进行测试,并分析不同低光照等级对于车辆检测精度的影响. 结果表明,本文方法能够有效提升车辆目标检测的精度,与低光照图像相比,增强后图像的目标检测精度mAP@0.5提升了4.9%,达到94.7%;而且光照强度越低,增强后图像的目标检测精度提升越显著. 研究成果可为低照度环境下的车辆检测提供参考.

车辆检测在智慧交通系统以及城市安全等领域发挥着重要作

1-2. 现有计算机视觉技术难以准确识别复杂环境下的车辆,尤其在夜间或恶劣天气条件下,其识别效果更差,这严重影响了车辆检测的准确性和可靠性.

初期的车辆目标检测研究是基于经典的图像处理算法,如背景差分

3、帧间差分4、模板匹配5和光流6等. 然而,以上基于传统图像处理技术的车辆识别方法对环境很敏感,在复杂场景下的鲁棒性较7. 近年来,随着深度学习的快速发展,基于卷积神经网络(Convolutional Neural Network,CNN)的目标检测算法得到广泛关注,具有检测精度高且鲁棒性强的优点. Zhang8利用Faster R-CNN对8种类型的车辆进行目标检测,并利用多目标追踪算法实现车辆位置追踪. Ge9基于多摄像头融合和YOLOv4算法实现了全桥面车辆位置识别. Zhou10-11利用Faster R-CNN识别9种不同车辆的类型、位置和行驶轨迹,并利用改进的压缩感知算法进行车辆位置追踪. Zhu12利用YOLOv4进行车辆目标检测,并通过二维识别框和三维识别框之间的关系重建车辆三维识别框,然后结合相机标定结果获取车辆位置和尺寸. 上述基于深度学习的目标检测算法大多是针对正常光照条件下的车辆检测,难以适用于低光照条13. 相比于正常光照下拍摄的图像,低光照图像存在亮度低、对比度低、噪声水平高以及图像细节特征丢失的问14,这些问题严重影响了目标检测精度.

低光照图像增强技术是通过提升图像亮度和对比度来提高图像质量,同时尽量抑制图像噪声的放大和伪影的产

15. 目前,该技术已被广泛应用于摄影、自动驾驶和安防等领16. 低光照图像增强算法分为传统方法和基于深度学习的方法. 传统方法分为直方图均衡17、伽马矫正18和基于Retinex理19的方法,这些方法存在鲁棒性差、容易丢失图像细节、容易产生伪影和导致颜色失真等问题. 近年来,随着深度学习算法的快速发展,基于数据驱动的低光照图像增强方法引起了广泛关20. 基于深度学习的低光照增强算法可分为5类:监督学习、半监督学习、无监督学习、强化学习和零次学20. 监督学习依赖成对的低光照和正常光照图像进行训练,例如LLNet算法. 由于这种成对的图像获取困难并且在成对数据上训练的网络的泛化能力有限,一些学者提出了半监督学习、无监督学习和强化学习的低光照图像增强算法. 然而,半监督学习和无监督学习存在训练不稳定和颜色偏移的问题,而强化学21存在难以设计合理奖励机制的问题. 为此,有学者提出了零次学习. 零次学习不需要成对的数据,可以直接从测试图像学习,例如ZeroDCE(Zero-reference Deep Curve Estimation)网22通过特殊的损失函数来评估图像增强的质量并基于此引导网络的训练. ZeroDCE网络主要作为单独的底层视觉任务用于提升低光照图像的亮度和图像质量,用于低照度环境下车辆目标检测的研究相对较少.

针对低照度环境下车辆目标检测精度低的问题,本文提出了一种结合低光照图像增强算法和改进目标检测算法的车辆检测方法,实现低光照环境下车辆的高精度检测. 首先,在目标检测网络之前引入低光照图像增强算法ZeroDCE作为前处理,以提升图像的亮度和对比度; 其次,将增强之后的图像输入到AFF-YOLO网络中进行车辆检测; 最后,在车辆数据集上验证了本文方法的可行性,并分析了不同低光照等级对目标检测精度的影响. 研究成果可为低照度环境下的车辆检测提供参考.

1 车辆检测的基本流程

针对低光照环境下车辆检测准确度下降的问题,本文提出了一种基于低光照图像增强算法的车辆目标检测方法. 图1为车辆检测的应用场景,通过交通摄像头获取交通流视频,并在图像中设定一个虚拟检测区域,仅对该区域内的车辆进行分析.

fig

图1  车辆检测应用场景

Fig.1  Scenario of the application of vehicle detection

基于低光照图像增强的车辆检测流程如图2所示,主要包括2个部分,即低光照图像增强和车辆目标检测. 在获取交通流图像后,将图像输入低光照增强模块,通过ZeroDCE算法提高图像的亮度和对比度. 然后,将增强后的图像输入车辆目标检测模块,该模块的核心是改进的目标检测算法AFF-YOLO. 首先在YOLOv7中引入注意力特征融合模块,该模块融合不同尺度的图像特征,能够提升网络检测多尺度目标的能力;然后将经过增强的图像输入AFF-YOLO目标检测网络以实现车辆检测.

fig

图2  车辆检测流程图

Fig.2  Flowchart of vehicles detection

2 低光照图像增强

2.1 ZeroDCE网络结构

ZeroDCE网络是通过逐像素曲线调整的方式进行低光照图像增

23. 具体来说,将低光照图像输入到ZeroDCE网络,网络输出每一个像素的调整参数,然后利用调整参数对每一个像素的灰度值进行多次调整,得到增强后的图像.

图3为ZeroDCE的网络结构. 网络共有7层,每层都包含若干3×3大小的卷积核,卷积步长(stride)取1,边界填充大小(padding)取1. 由于ReLU(Rectified Linear Unit)函数具有较高的计算效率和梯度传播的稳定性,有助于网络的快速收敛,因此网络的前6层采用ReLU激活函数. ZeroDCE的最后一层采用Tanh激活函数,该函数能够有效地将网络的输出规范到期望的范围内. 将低光照图像输入到网络中,经过多层卷积之后,网络输出图像中每个像素点的曲线调整参数,其中每个参数具有24个通道,即调整参数大小为w×h×24. 其中,曲线调整参数的24个通道可以分为3组,分别对应低光照图像的RGB颜色通道,每个颜色通道具有8组数据,对应后续8个迭代调整阶段.

fig

图3  ZeroDCE网络结构及曲线调整参数估计过程

Fig.3  Architecture of ZeroDCE and the process of curve adjustment parameter estimation

得到曲线调整参数后,利用该参数对低光照图像灰度值进行迭代,迭代公式如式(1)所示:

LEIx;α=Ix+αIx1-Ix (1)

式中:x为像素点坐标;Ix)为对应位置的像素值;α为像素点坐标和颜色通道的曲线调整参数,且α∈[-1,1];LE(Ix); α)为对输入像素值Ix)进行迭代的结果.

根据式(1),对低光照图像进行8次迭代,得到增强后的图像,其图像增强过程如图4所示. 假设8次迭代的α均为0.3,相应的像素调整曲线如图5所示. 从图5可以看出,随着迭代次数的增加,像素灰度值能够被映射到较高区间,即达到了图像增强的效果.

fig

图4  低光照图像增强过程

Fig.4  Low-light image enhancement process

fig

图5  像素调整曲线

Fig.5  Illustration of pixel adjustment curves

2.2 ZeroDCE损失函数

ZeroDCE算法设计了独特的无参考损失函数,不需要任何配对或非配对数据,相较于其他低光增强算法更为轻量和高效. 这些损失函数包括以下4个关键部分:

1) 空间一致性损失函数,确保在图像增强后图像的空间结构(如边缘和纹理)得到保留,避免因图像增强产生空间失真. 其表达式如式(2)所示:

Lspa=1Ki=1KaΩ(i)Yi¯-Yia¯-Ii¯-Iia¯2 (2)

式中:K为图像中4像素×4像素的局部区域的数量;Ωi)是以区域i为中心的上下左右4个邻域;Yi¯Yia¯分别为增强后图像中区域i及其4个邻域的平均灰度值;Ii¯Iia¯分别为原始低光照图像中区域i及其4个邻域的平均灰度值.

2) 曝光控制损失函数,用于调整图像的曝光水平,使增强后的图像达到适当的亮度水平,避免过曝光或欠曝光. 其表达式如式(3)所示:

Lexp=1Mk=1MYk¯-E (3)

式中:M为图像中16像素×16像素的不重叠区域的数量;Yk¯为局部区域的平均灰度值;E为视觉效果较好情况下的图像曝光水平,取为0.6.

3) 颜色稳定性损失函数,用于保持图像的颜色稳定性,以确保增强过程中图像的颜色不会发生不自然的变化. 其表达式如式(4)所示:

Lcol=(p,q)εJp¯-Jq¯2ε=R,G,R,B,G,B (4)

式中:(pq)代表一对图像颜色通道,即(pq)∈{(RG),(RB),(GB)};Jp¯Jq¯分别为p通道和q通道的图像平均灰度值.

4) 光照平滑度损失函数,用于保证图像增强过程中光照变化的平滑性,避免图像出现不自然的光照突变. 其表达式如式(5)所示:

LtvA=1Nn=1NcξxAnc+yAnc2,ξR,G,B (5)

式中:N为迭代次数;xy表示xy方向上的图像梯度算子;Anc为第n次迭代时对应图像颜色通道c的像素调整参数,c分别为RGB通道.

将上述的4个损失函数进行组合,构成ZeroDCE网络的总损失函数,如式(6)所示:

Ltotal=w1Lspa+w2Lexp+w3Lcol+w4LtvA (6)

式中:w1w2w3w4为平衡各项损失值的权重,其取值分别为1、10、5和200.

在ZeroDCE图像增强模块训练时,使用SICE(Scene Illumination and Contrast Enhancement)多曝光图像数据集. SICE数据集包含了589个不同场景下的图像,其中包括各种不同曝光程度的图像和相应的正常光照图像. 在该数据集训练100个Epoch后,ZeroDCE网络的损失值收敛,得到可用于车辆目标检测前处理的图像增强模型. 训练时采用Adam优化器,批大小(batch size)取8,学习率取0.000 1,权重衰减因子(weight decay)取0.000 1.

3 低光照目标检测

3.1 AFF-YOLO网络

YOLOv7是2022年提出的YOLO系列目标检 测算法之一,在5~160 帧/s范围内的检测速度和准确度超过了其他目标检测算

24. 因此,本研究以 YOLOv7为基础框架,提出了AFF-YOLO网络,通过添加注意力特征融合(Attentional Feature Fusion,AFF)模块,来解决多尺度目标检测的问题.

AFF-YOLO的基本结构由输入(input)、骨干网络(backbone)和头部(head)组成. 其中骨干网络用于提取图像中的多尺度特征,头部用于对骨干网络提取的特征进行进一步处理并根据图像深层特征预测目标位置和类别.

3.2 注意力特征融合

多尺度通道注意力模块(Multi-scale Channel Attention Block,MS-CAB)可以融合图像的局部和全局特征,缓解目标检测过程中存在的目标尺度变换问题. 基于MS-CAB模块设计迭代AFF模块,并利用AFF取代原有YOLO的特征融合模块,从而实现不同网络层特征的融合. 改进的YOLOv7网络见图6,所引入的MS-CAB模块以及AFF模块见图7.

fig

图6  改进的YOLOv7网络

Fig.6  Improved YOLOv7 network

fig

图7  MS-CAB模块和AFF模块

Fig.7  MS-CAB block and AFF block

(a)MS-CAB (b)AFF

3.3 网络训练

UA-DETRAC

25是车辆多目标检测的大型数据集. 该数据集中共标注了包括轿车、公共汽车、面包车和其他特殊车辆在内的121万个目标,并且考虑了4种环境,即多云、夜间、晴天和雨天. 数据集示意图如图8所示.

fig

图8  UA-DETRAC数据集

Fig.8  UA-DETRAC dataset

在UA-DETRAC中随机选取6 567张图片作为训练集,记为UA-DETRAC_train. 在UA-DETRAC_train上采用相同的超参数分别训练YOLOv7和AFF-YOLO. 训练轮数(epoch)取100,批大小取32. 训练过程所采用的其他超参数为:采用随机梯度下降(SGD)优化算法,初始学习率取0.01,权重衰减因子为0.000 5,并且训练过程中采用随机缩放和裁剪、随机旋转和反转、随机亮度调整和马赛克图像增强等技术对数据集进行增强. 训练所采用的配置为:操作系统为64位Windows10 21H2,CPU为Intel i7-9700K@3.6GHz,GPU为NVIDIA TITAN RTX;软件环境为:Python 3.8.5、PyTorch 1.12.1以及CUDA 11.2.

4 结果分析

4.1 测试数据集

在长沙市绕城高速某处架设高清相机拍摄交通流,来验证本文方法的可行性和识别准确性. 相机架设位置如图9所示. 采用的拍摄设备为Nikon D5600相机,配备有一个AF-S DX 18-200 mm镜头,能够以60帧/s的速度获取1 920像素×1 080 像素的视频. 为了获取不同亮度等级的交通流图像,拍摄时间从下午6点持续到晚上9点. 将交通流视频分帧获取车辆图像,从中选取2 427张图像作为测试集,并人工标注车辆真实位置.

fig

图9  相机架设位置及交通流图像示意图

Fig.9  Illustration of camera installation location and traffic flow image

(a)相机架设位置 (b)交通流图像

为了分析不同低光照程度对图像质量和目标检测的影响,将所有测试集图像从RGB空间变换到HSV空间以获取图像的平均亮度值,并利用k-means聚类算法将所有图像划分为3组,其平均亮度值如图10所示. 由图10可知,3组图像整体都处于低光照状态,并且低光程度由等级1至等级3递减.

fig

图10  图像亮度分布

Fig.10  Distribution of image brightness

4.2 低光照图像增强结果

将测试的低光照图像输入ZeroDCE网络进行图像增强,其结果如图11所示. 从图11可以看出,经过图像增强后,亮度和对比度更高,图像整体视觉效果明显优于原始图像,且图像中车辆目标的特征更加突出.

fig

图11  低光照图像及图像增强结果

Fig.11  Low-light images before and after enhancement

(a)低光照图像 (b)ZeroDCE增强图像

为了定量评估图像增强的有效性,选用PIQE(Perception-based Image Quality Evaluator)和基于深度学习的MUSIQ(Multi-scale Image Quality Transformer)2种无参考图像质量评价指标对低光照图像和增强后的图像进行测试,结果如表1所示. 图像评价指标PIQE越小,表示图像的质量越高,反之质量越低;而MUSIQ指标越大,表示图像质量越高.从 表1可以看出,经过图像增强后,图像平均PIQE值由14.05降至6.84,而MUSIQ指标由23.37升至27.50,表明图像增强算法能够有效提升真实交通场景图像的质量.

表1  图像质量评价指标
Tab.1  Image quality assessment metrics
低光照图像增强算法PIQEMUSIQ
不增强 14.05 23.37
ZeroDCE 6.84 27.50

不同低光照程度对图像质量的影响如表2所示. 可以看出,低光照图像增强算法对不同低光照等级下的图像质量均有明显的提升. 在低光照等级1的图像上,经过增强后的PIQE指标下降最为明显,而在低光照等级3的图像上,经过增强后的MUSIQ指标提升最为明显,增量达到7.05.

表2  不同低光照等级下的图像质量评价指标
Tab. 2  Image quality assessment metrics under different low light levels

低光照

等级

亮度范围

低光照图像

增强算法

PIQEMUSIQ
1 17.34~32.27 不增强 14.73 21.73
ZeroDCE 5.11 25.50
2 32.28~45.96 不增强 13.82 23.65
ZeroDCE 8.68 26.74
3 46.13~69.75 不增强 12.94 26.72
ZeroDCE 7.24 33.77

4.3 目标检测结果

为了说明本文方法的优势,首先对比了8种不同增强算法的性能,从增强算法对目标检测精度的提升效果、算法的参数量和运行速度三个方面进行对比,结果如表3所示. 其中,目标检测精度指标选用交并比(Intersection over Union,IoU)为0.5时的平均精度均值(Mean Average Precision,mAP

26. 由表3可知,不论是采用YOLOv7或AFF-YOLO进行目标检测,ZeroDCE的增强效果在所有方法中均相对较好,并且ZeroDCE具有参数量少、计算速度快等优势.

表3  不同低光照图像增强算法的对比
Tab.3  Comparison of different low-light image enhancement algorithms
低光照图像增强算法mAP@0.5参数量平均处理时间/(s∙-1年份
YOLOv7AFF-YOLO
原始低光照图像 0.898 0.931
DeepUPE 0.898 0.922 0.594 4 M 0.109 6 2019
EnlightenGAN 0.898 0.945 8.637 0 M 1.459 8 2019
MBLLEN (SynWithNoise) 0.913 0.939 0.450 0M 0.936 5 2018
RUAS (UPE) 0.896 0.919 0.003 4 M 0.679 4 2021
SCI (Easy) 0.910 0.928 258 0.658 4 2022
STARDCE (VE_LOL) 0.919 0.943 0.027 5 M 0.178 8 2021
URetinexNet 0.927 0.947 0.340 1 M 0.995 1 2022
ZeroDCE 0.938 0.947 0.079 4 M 0.168 9 2020

注:  1. 括号中为训练采用的数据集或网络结构形式;2. M为百万(Million)的缩写.

表3中可知,利用YOLOv7对原始低光照图像进行目标检测时,得到的mAP@0.5为0.898,而经过ZeroDCE增强算法处理后,mAP@0.5值达到0.938,提高了0.04. 在利用ZeroDCE增强的基础上,再利用改进AFF-YOLO得到的mAP@0.5值为0.947,提高了0.049. 由此表明,ZeroDCE增强算法对目标检测精度有很好的提升效果.

图像中的车辆目标根据其大小可以分为小尺度、中等尺度目标和大尺度目标,测试集中只有中等尺度和大尺度目标,相应的检测结果如表4所示. 从表中可知,使用ZeroDCE和YOLOv7时,中等尺度目标的检测精度由0.357提升至0.570,提高了0.213;在ZeroDCE基础上使用改进的AFF-YOLO时,相较于YOLOv7在低光照图像的检测结果,检测精度从0.357提升到0.677,提升了0.32. 由此表明,本文方法对于中等尺度目标检测精度的提升效果更加显著,而对于大尺度目标由于检测相对容易,所以提升效果有限.

表4  YOLO优化前后的目标检测结果
Tab.4  Object detection results before and after improvement of YOLO
目标检测算法低光照图像增强算法mAP@0.5
所有目标中等尺度目标

大尺度

目标

YOLOv7 不增强 0.898 0.357 0.951
ZeroDCE 0.938 0.570 0.959
AFF-YOLO 不增强 0.931 0.453 0.962
ZeroDCE 0.947 0.677 0.961

注:  中等尺度目标为面积介于32像素×32像素至96像素×96像素的目标;大尺度目标为面积大于96像素×96像素的目标.

同时,将图像根据低光照程度分为三个等级,不同低光照等级的车辆目标检测结果,如表5所示. 利用YOLOv7作为目标检测模型时,在低光照等级1上,ZeroDCE增强将mAP值提升了0.058,在低光照等级2和3上,ZeroDCE增强仅将mAP值提升了0.03和0.023. 由此表明,在一定程度上光线越暗,图像增强算法对目标检测的提升效果越明显.

表5  不同低光照等级下的目标检测结果
Tab.5  Object detection results under different low light levels
低光照等级亮度范围

低光照图像

增强算法

mAP@0.5
YOLOv7AFF-YOLO
1 17.34~32.27 不增强 0.874 0.925
ZeroDCE 0.932 0.941
2 32.28~45.96 不增强 0.911 0.942
ZeroDCE 0.941 0.949
3 46.13~69.75 不增强 0.925 0.932
ZeroDCE 0.948 0.955

最后通过图像热力图来测试ZeroDCE前处理对目标检测的影响. 利用GradCAM(Gradient-weighted Class Activation Mapping)对低光照图像和经过 ZeroDCE增强的图像在YOLO中的特征信息进行可视化,如图12所示. 红色区域表示该部分的特征对最终的目标检测结果有较大的贡献,黄色区域表示该部分对目标检测结果的贡献次之,蓝色区域表示该部分对目标检测结果的贡献较小,可以视为冗余特征. 由图12以及其中的红色标识框可以看出,相比低光照图像,经过ZeroDCE增强之后的图像的热力图中错检和漏检的目标更少且红色区域的颜色更深,即在增强图像中网络能更加关注到车辆目标的特征.

fig

图12  GradCAM热力图

Fig.12  Heatmaps produced by GradCAM

(a)低光照图像 (b)ZeroDCE增强图像

5 结 论

针对低光照环境下车辆检测精度低的问题,本文提出了一种基于低光照图像增强算法和改进目标检测算法的车辆检测方法,得出以下结论:

1) ZeroDCE低光照图像增强算法可显著改善低光照环境下的图像质量,为低光照环境下的车辆目标检测提供了基础.

2) 低光照环境中,基于深度学习的目标检测算法精度大幅下降,而低光照图像增强算法可以有效地提升目标检测精度,并且对中、小尺度目标检测精度的提升更加明显.

3) 提出了注意力特征融合YOLO算法,通过融合图像的局部和全局特征,缓解了目标检测过程中存在的多尺度目标检测困难的问题.

本文方法不仅提高了低光照环境下的图像质量,还提升了车辆检测的准确性和鲁棒性. 研究结果对于智慧交通系统、自动驾驶技术以及安全监控领域具有重要的借鉴意义. 在未来的研究中,会将本文方法应用于更复杂场景下的车辆检测.

参考文献

1

王艳芬朱绪冉云霄面向公共安全监控的多摄像机车辆重识别[J].西安电子科技大学学报2019464):190-196 [百度学术] 

WANG Y FZHU X RYUN Xet alVehicle re-identification by multi-cameras for public security surveillance[J].Journal of Xidian University2019464):190-196(in Chinese) [百度学术] 

2

钱烺面向智慧交通的城市高排放车辆限行管理系统设计与实现[D].武汉华中科技大学20221-6 [百度学术] 

QIAN LDesign and implementation of an urban high-emission vehicle restriction management system for intelligent transportation[D].WuhanHuazhong University of Science and Technology20221-6(in Chinese) [百度学术] 

3

ZAURIN RKHUC TCATBAS F NHybrid sensor-camera monitoring for damage detection:case study of a real bridge[J].Journal of Bridge Engineering2016216):05016002 [百度学术] 

4

SHU MZHONG Y FLÜ P YSmall moving vehicle detection via local enhancement fusion for satellite video[J].International Journal of Remote Sensing20214219):7189-7214 [百度学术] 

5

CHEN Z CLI HBAO Y Qet alIdentification of spatio-temporal distribution of vehicle loads on long-span bridges using computer vision technology[J].Structural Control and Health Monitoring2016233):517-534 [百度学术] 

6

SUN ZBEBIS GMILLER ROn-road vehicle detection using optical sensors:a review[C]//Proceedings of The 7th International IEEE Conference on Intelligent Transportation SystemsWashington,WA,USAIEEE2004585-590 [百度学术] 

7

CHEN Z WFENG Y LZHANG Yet alAn accurate and convenient method of vehicle spatiotemporal distribution recognition based on computer vision[J].Sensors20222217):1-17 [百度学术] 

8

ZHANG BZHOU L MZHANG JA methodology for obtaining spatiotemporal information of the vehicles on bridges based on computer vision[J].Computer-Aided Civil and Infrastructure Engineering2019346):471-487 [百度学术] 

9

GE L FDAN D HKOO K Yet alAn improved system for long-term monitoring of full-bridge traffic load distribution on long-span bridges[J].Structures2023541076-1089 [百度学术] 

10

ZHOU YPEI Y LLI Z Wet alVehicle weight identification system for spatiotemporal load distribution on bridges based on non-contact machine vision technology and deep learning algorithms[J].Measurement2020159107801 [百度学术] 

11

周云胡锦楠赵瑜基于卡尔曼滤波改进压缩感知算法的车辆目标跟踪[J].湖南大学学报(自然科学版)2023501):11-21 [百度学术] 

ZHOU YHU J NZHAO Yet alVehicle target tracking based on Kalman filtering improved compressed sensing algorithm[J].Journal of Hunan University (Natural Sciences)2023501):11-21(in Chinese) [百度学术] 

12

ZHU J SLI X TZHANG Cet alAn accurate approach for obtaining spatiotemporal information of vehicle loads on bridges based on 3D bounding box reconstruction with computer vision[J]. Measurement2021181109657 [百度学术] 

13

胡忆平基于深度学习的夜间车辆检测算法研究[D].长沙湖南大学20223-8 [百度学术] 

HU Y PResearch on night vehicle detection algorithm based on deep learning[D].ChangshaHunan University20223-8(in Chinese) [百度学术] 

14

WANG YXIE W JLIU H QLow-light image enhancement based on deep learning:a survey[J].Optical Engineering202261040901 [百度学术] 

15

AL SOBBAHI RTEKLI JComparing deep learning models for low-light natural scene image enhancement and their impact on object detection and classification:overview,empirical evaluation,and challenges[J].Signal Processing:Image Communication2022109116848 [百度学术] 

16

马龙马腾宇刘日升低光照图像增强算法综述[J].中国图象图形学报2022275): 1392-1409 [百度学术] 

MA LMA T YLIU R SThe review of low-light image enhancement[J].Journal of Image and Graphics2022275):1392-1409(in Chinese) [百度学术] 

17

ABDULLAH-AL-WADUD MKABIR M HALI AKBER DEWAN Met alA dynamic histogram equalization for image contrast enhancement[J]. IEEE Transactions on Consumer Electronics2007532): 593-600 [百度学术] 

18

HUANG S CCHENG F CCHIU Y SEfficient contrast enhancement using adaptive gamma correction with weighting distribution[J].IEEE Transactions on Image Processing2013223): 1032-1041 [百度学术] 

19

LAND E HThe retinex theory of color vision[J]. Scientific American19772376): 108-128 [百度学术] 

20

LI C YGUO C LHAN L Het alLow-light image and video enhancement using deep learning:a survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence20224412):9396-9416 [百度学术] 

21

YU R SLIU W YZHANG Y Set alDeepExposure:learning to expose photos with asynchronously reinforced adversarial learning[C]//Proceedings of the 32nd International Conference on Neural Information Processing SystemsMontréal,CanadaACM20182153-2163 [百度学术] 

22

GUO C LLI C YGUO J Cet alZero-reference deep curve estimation for low-light image enhancement[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Seattle,WA,USAIEEE20201777-1786 [百度学术] 

23

LI C YGUO C LLOY C CLearning to enhance low-light image via zero-reference deep curve estimation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence2022448):4225-4238 [百度学术] 

24

WANG C YBOCHKOVSKIY ALIAO H Y MYOLOv7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//Proceedings of the 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Vancouver,BC,CanadaIEEE20237464-7475 [百度学术] 

25

WEN L YDU D WCAI Z Wet alUA-DETRAC:a new benchmark and protocol for multi-object detection and tracking[J].Computer Vision and Image Understanding2020193102907 [百度学术] 

26

PADILLA RNETTO S LDA SILVA E A BA survey on performance metrics for object-detection algorithms[C]//2020 International Conference on Systems,Signals and Image Processing (IWSSIP)Niteroi,BrazilIEEE2020237-242 [百度学术] 

作者稿件一经被我刊录用,如无特别声明,即视作同意授予我刊论文整体的全部复制传播的权利,包括但不限于复制权、发行权、信息网络传播权、广播权、表演权、翻译权、汇编权、改编权等著作使用权转让给我刊,我刊有权根据工作需要,允许合作的数据库、新媒体平台及其他数字平台进行数字传播和国际传播等。特此声明。
关闭