+高级检索
网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

知识迁移引导的空频双域联合去雾网络  PDF

  • 杨燕 1
  • 梁皓博 1
  • 林雷 2
1. 兰州交通大学 电子与信息工程学院, 甘肃 兰州, 730070; 2. 国网宁夏电力有限公司银川供电公司, 宁夏 银川,750000

中图分类号: TP391.4

最近更新:2025-04-24

DOI: 10.16339/j.cnki.hdxbzkb.2025262

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

目前一些基于CNN的方法在去雾方面有着不错的性能,但网络鲁棒性欠佳.这主要归因于雾霾分布复杂和数据集难以收集,导致去雾过程中纹理细节丢失严重并且在小规模数据集上存在严重的过拟合问题.为了解决上述问题,提出了空频联合的双分支结构.上分支捕获更多的纹理细节,利用三级小波变换在频域中获取特征;下分支提升网络泛化能力,采用域迁移方法在空域中提供额外的知识先验,以Res2Net作为该分支的核心部分.最后,本文在NH-HAZE数据集上对模型进行训练,在I-HAZE和NTIRE 2023数据集上进行泛化能力测试.此外,为了保证实验的公平性,本文对所有对比算法也采用NH-HAZE数据集进行训练.实验结果表明,本文网络在细节纹理恢复和泛化能力方面获得了显著提升.

恶劣天气条件(如雾、尘霾、雾霾)极大程度上降低了物体可见度,对计算机视觉应

1-2, 例如目标检3-4,构成了重大阻碍.这主要是由于可见光系统在成像过程中会出现图像模糊、颜色失真和对比度下降等一系列问题,对图像质量造成了严重的影响.图像去雾常常被作为高阶任务的预处理过程,以便在后续任务处理中可以捕获更多信息,也因此备受关注.

目前已有的图像去雾方法可以分为基于传统先验方法和基于深度学习方法两类.传统方法通过先验信息估计传输图和大气光,使用大气散射模

5实现图像去雾,例如物理模型去6、小波颜色衰减先验增强去7、饱和线先验去8.虽然基于先验信息的方法取得了显著的效果,但是其通常在特定区域出现不确定估计导致去雾产生失真、偏色和不彻底等.近年来,深度学习的进一步发展在去雾领域也取得了不错的效果.主要分为基于非端到端方法和端到端方法.非端到端是通过卷积神经网络估计透射率和大气光等参数,最后使用大气散射模型恢复图像.Cai等9提出的DehazeNet将深度学习首次应用到去雾中,并提出了一种新的激活函数来进一步提高图像恢复质量.与传统估计相比,模型学习后的参数具有更好的效果,但是模型泛化能力不尽人意.由于大气散射模型本身存在局限性,因此提出了基于端到端的方法.Li等10首次提出AOD-Net实现端到端的映射网络,通过轻量级网络生成清晰图像,但是由于特征提取能力不足导致其细节恢复不佳.Chen等11提出GCANet,采用平滑空洞卷积消除微影的同时使用门限子网络加权融合特征.此外,随着注意力机12、卷积注意力模13和Transformer14的提出,注意力模式被引入网络,Guo等15提出SCANet,采用注意力生成-场景重建范式,对非均匀雾霾和底层场景之间复杂的交互特征进行学习,一步提升了网络的性能.Qin等16提出FFA-Net,使用注意力块和残差学习块在极大减少信息损耗的同时提升特征捕获能力,但是该算法需要大量数据集训练.Zheng等17提出了一种基于课程学习的对比正则化,将负样本引入网络训练,使训练过程中的特征域拉近与正样本距离的同时远离负样本,基于端到端的方法通过网络建立两者之间的映射关系,直接估计清晰图像.虽然基于端到端的方法效果显著,但是该方法需要大量的配对数据集作为训练用以提升模型泛化能力.Fu等18提出DW-GAN,通过引入额外的知识先验来提升模型的泛化能力.Wu等19提出RIDCP,通过封装高质量知识先验来减缓模型过拟合问题.Zhou等20提出DWT-FFA GAN,通过傅里叶变换将特征转至频域的同时引入额外的知识先验来提升模型的泛化能力.值得注意的是,采集大规模真实的配对数据集是难以实现的,目前现有的真实配对数据数量级仅102~103.因此,在极少数训练数据集下提升模型泛化能力具有重要意义.

针对上述问题,本文提出了一种基于知识迁移修正的双分支网络.上分支通过三级小波变换,构建基于残差密集块的HConvBlock提取高频信息特征,基于UNet框架的LConvBlock提取低频信息特征,以便在频域中捕获更多细节.下分支采用Res2Net作为知识先验,通过来自大数据集分类任务获取额外信息,并将其迁移到去雾域,提升其网络泛化能力.通过主观和客观两个方面与其他一些主流算法进行对比,实验结果表明本文所提模型取得了更好的去雾效果和泛化能力.

综上所述,本文主要贡献如下:

1)提出基于三级小波变换的UNet网络,通过在频域中使用高频卷积块HConvBlock和低频卷积块LConvBlock捕获更多纹理和结构特征.

2)下分支以域迁移思想作为核心,构建知识迁移结构,使用在ImageNet 1K数据集上预训练的Res2Net的前三个阶段作为迁移模块的编码器,使用像素混淆和注意力机制作为解码器.该分支设计主要解决极少训练数据集下模型泛化能力不足问题.

3)为了进一步探究网络泛化能力,本文以NH-HAZE的80%作为训练数据集,20%作为训练测试集,此外还使用NTIRE 2023和I-HAZE作为迁移测试数据集,即迁移数据集与训练集风格差异较大.最后,与其他模型进行比对测试其泛化能力.

1 本文算法

本文提出的去雾网络,如图1所示.为了解决模型特征学习能力不足和泛化性差等问题,本文算法采用空频联合的双分支结构.上分支将特征域转换至频域中,通过高、低频特性分别对不同特性的特征进行学习.在高频信息中使用密集残差块全分辨率模式进行特征提取,采用逐级残差来减少细节信息损耗的同时保持优越的特征提取能力.低频信息采用基于UNet模型的采样网络,通过多尺度进一步学习更多的细节纹理.下分支以编码器-解码器结构作为主要框架,以迁移网络作为编码器,为小型数据集引入额外的知识先验,具有更好的泛化能力.

fig

图1  网络总体结构图

Fig.1  Network overall structure diagram

1.1 T-DWT分支

该分支总体架构采用UNet模型.为了在去雾任务过程中获得更多纹理细节,本文基于三级离散小波变换的引导,提出在特征提取阶段使用离散小波变换来代替传统下采样方法.本文将通过DWT产生不同尺度的3维低频信息(LL)和9维高频信息(LH、HL和HH维度叠加).低频信息、高频信息分别采用LConvBlock模块、HConvBlock模块提取特征.

1.1.1 离散小波变换DWT

在二维离散小波变换中,有低通滤波器FLL和高通滤波器FLHFHLFHH四个滤波器.这些滤波器具有固定的参数,在变换过程中进行步长为2的卷积操作,因此通过与每个卷积核进行卷积,图像特征被分解为四个子图,即XLLXLHXHLXHH.本文可以将XLL定义为

XLL=FLLX2XHH (1)

式中:⊗表示卷积运算;X为输入信号;↓2表示尺度因子为2的下采样.

本文采用离散小波变换思想,使用三级小波变换代替传统的下采样.如图2所示,本文将DWT一级分解后,对其低频逼近子图XLL进行DWT分解,即DWT二级分解,同理进行三级DWT分解.

fig

图2  三级小波变换

Fig.2  Third level wavelet transform graph

1.1.2 高频信息处理块HConvBlock

HConvBlock模块结构如图3所示.针对高频信息信息量少这一问题,本文HConvBlock采用了密集残差块连接方式和全分辨率运行,在尽可能降低信息损耗的前提下获得更强的信息捕获能力.由于高频信息中包含原图像边缘信息,因此引入空间注意力机制对边缘信息进行强化.

fig

图3  高频信息处理块

Fig.3  High frequency information processing block

该模块首先通过四层普通卷积来提取特征,使用密集残差块连接减少传递过程中信息损失,再通过ReLU激活函数引入非线性因素后采用空间注意力PA获得空间依赖关系,最后通过Tanh激活.

1.1.3 低频信息处理块LConvBlock

LConvBlock模块结构如图4所示.针对低频信息逼近原图像的特性,本文LConvBlock采用多尺度采样的方式提取特征,在最小特征尺度最大维度中采用通道注意力机制对特征图谱进行通道加权.

fig

图4  低频信息处理块

Fig.4  Low frequency information processing block

该模块使用卷积-激活函数-卷积的模式作为信息采集块,在引入非线性因素的同时轻量化网络.本文使用Stride=2的卷积核进行下采样,在缩小尺度的同时获取更大的视野和更宽的维度.在上采样的过程中,本文使用参数可学习的反卷积进行上采样任务.

1.2 迁移先验分支

该分支采用编码器-解码器作为主体架构.为了使该网络在小规模数据集下具有较强的泛化能力,本文引入域迁移思想,使其在图像分类任务中获得的先验知识迁移到去雾任务中.编码器采用ImageNet

21预训练Res2Net22的前三阶段网络,解码器采用像素混23作为上采样方法,再通过注意力机制来识别动态的特征图.

Res2Net在图像分类域中经过大规模数据训练,以获得大量图像先验信息,本文通过知识迁移的方式,使用预训练将其知识先验嵌入网络中.由于本文网络使用巨额知识先验作为引导,其网络学习能力和泛化能力得到显著提升.

像素混淆(pixel shuffle)以牺牲维度为代价获得特征尺度增加,相比于传统的上采样方法可以极大地减少巨额维度导致的运算负担.如图5所示,像素混淆将原始大小M×N的四维特征图通过一定规则的周期筛选拼接成2M×2N的一维特征图.

fig

图5  像素混淆

Fig.5  Pixel shuffle

本文在每次上采样后经过注意力Attention块来识别动态模糊特征.如图6所示,Attention块以混合注意力(CBAM)为核心,普通卷积为修正.

fig

图6  注意力块

Fig.6  Attention block

最后本文引入两个卷积核大小为7的卷积层对两个分支特征进行融合,获得最终的去雾图像.

1.3 损失函数

1.3.1 平滑L1损失

平滑L1

24能够直观计算出网络的输入和输出之间的差距,通过逐像素比较输出与真实图像之间的像素差值,避免了L1损失在零点处不可导导致不收敛的情况.损失函数定义为

LSL1=1Ni=1NGOuti-Ji (2)
Gx=0.5x2,      ifx<1x-0.5,  otherwise (3)

式中:N表示总像素数;i表示第i个像素;Out表示输出图像;J表示真实图像;x表示输出图像与真实图像之间的差距.

1.3.2 MS-SSIM损失

结构相似性损

25用于评价图像质量,捕获图像结构信息,反映出场景中物体的结构信息,评估两幅图像是否在结构上相似.结构相似性损失函数定义为

SSIMOut,J=2μOutμJ+c12σOutJ+c2μJ2+μOut2+c1σJ2+σOut2+c2 (4)

式中:Out表示输出图像;J表示真实图像;μOut,μJ表示输出图像和真实图像的均值;σOutJ表示输出图像和真实图像的协方差;σOut2,σJ2表示输出图像和真实图像的方差;c1,c2表示防止分母为0的常数.MS-SSIM损失是使用M级SSIM计算所得,损失函数定义为

LMS-SSIM=1-MS-SSIM (5)
MS-SSIM=2μOutμJ+c1μJ2+μOut2+c1m=1M2σOutJ+c2σJ2+σOut2+c2 (6)

1.3.3 对抗损失

对抗损失能够约束迁移网络的迁移方向,使其匹配去雾任务.对抗损失函数定义为

Ladv=1--logDGIhazy (7)

式中:D表示判别器;G表示生成器;N表示总像素数;Ihazy表示输入的有雾图像.

1.3.4 感知损失

感知损

26可以用来估计生成器与真实数据之间的相似性.本文使用在ImageNet上预训练的VGG1627作为感知损失网络来评估感知相似性质,感知损失函数定义为

Lper=j=131CjHjWjϕj(Igt)-ϕj(I¯)22 (8)

式中:HjWjCj表示第j层特征图高度、宽度和通道;ϕj是第j层激活;IgtI¯分别表示真实图像和去雾图像.

1.3.5 总损失函数

本文总损失如式(9)所示,将平滑L1损失、感知损失、MS-SSIM损失和对抗损失结合在一起,以监督本文的去雾网络的训练.

L=LSL1+LMS-SSIM+Lper+Ladv (9)

2 实验结果及分析

2.1 数据集及训练设置

本文算法在NH-HAZE

28数据集上训练网络,该数据集包含50张配对的室外真实数据,将其中80%作为训练数据集,20%作为训练测试集.此外还使用NTIRE 2023(130张真实室外图像)和I-HAZE29(35张真实室内图像)进行泛化能力测试实验.

算法基于Pytorch框架实现,在Ubuntu环境下采用NVIDIA V100 GPU进行训练,使用Adam优化器进行优化,参数为默认值.初始学习率设置为10-4,批处理大小设置为4,训练迭代设置为500轮,在300轮、400轮、450轮时学习率降低一半.

2.2 去雾质量定性分析

为了验证本文方法的有效性,采用了单一变量原则进行验证.本文对AOD-Net、GCA-Net、FFA-Net、DW-GAN和RIDCP五种算法统一采用NH-HAZE(室外)数据集训练500轮,其余训练参数和模式保持完全一致,并使用NTIRE 2023(室外)和 I-HAZE(室内)数据集进行泛化能力测试.

训练集测试.不同方法在NH-HAZE数据集中测试的效果对比,如图7所示.从图7(b)中可以清晰看到:由于AOD-Net网络提取特征能力有限,在训练数据集中测试效果不佳,残雾明显;FFA-Net、GCA-Net和DW-GAN存在局部细节模糊问题,尤其是在极小局部景深多次连续跳跃部分.RIDCP去雾结果与本文算法接近,但是该网络泛化能力有限.

fig

图7  不同算法在NH-HAZE测试集上的复原结果

Fig.7  Restoration results of different algorithms on NH-HAZE test set

(a)HAZY (b)AOD-Net (c)FFA-Net (d)GCA-Net (e)DW-GAN (f)RIDCP (g)Ours (h)GT

泛化能力测试一.图8是不同方法在I-HAZE数据集上的复原效果对比.所有网络训练数据集NH-HAZE中仅包含室外浓雾图像,本文以I-HAZE室内薄雾数据集测试其网络对雾浓度自适应能力和域外特征捕获能力.从图中可以看出,AOD-Net仅产生颜色偏移,并未恢复出雾后特征.FFA-Net、GCA-Net和RIDCP存在严重的颜色失真和光晕微影现象,泛化能力不佳.DW-GAN与本文算法结果相近,但是在颜色饱和度上相对欠佳.

fig

图8  不同算法在I-HAZE测试集上的复原结果

Fig.8  Restoration results of different algorithms on I-HAZE test set

(a)HAZY (b)AOD-Net (c)FFA-Net (d)GCA-Net (e)DW-GAN (f)RIDCP (g)Ours (h)GT

泛化能力测试二.图9是不同算法在NTIRE 2023数据集上的复原效果对比.AOD-Net色彩保留较好,但是存在大量残雾.FFA-Net、GCA-Net存在细节严重模糊现象, RIDCP存在局部细节模糊现象,在天空区域存在失真情况.DW-GAN与本文算法结果相近,但是在近景细节纹理表现相对欠佳.

fig

图9  不同算法在NTIRE2023测试集上的复原结果

Fig.9  Restoration results of different algorithms on NTIRE2023 test set

(a)HAZY (b)AOD-Net (c)FFA-Net (d)GCA-Net (e)DW-GAN (f)RIDCP (g)Ours (h)GT

各类算法在真实图像中的恢复效果如图10所示.综上所述,本文方法在较好恢复细节纹理的同时具备较强的泛化能力,缓解了小规模数据集下模型严重过拟合的问题.

fig

图10  不同算法在真实图像中的复原结果

Fig.10  The restoration results of different algorithms in real images

2.3 去雾质量定量分析

本文在一个训练测试数据集和两个迁移测试数据集上从定量的客观角度进行评价.采用峰值信噪比(peak signal-to-noise ratio, PSNR)和结构相似性(structural similarity, SSIM)来测试不同算法的图像复原效

30.对比结果如表1所示(表中数据为所有测试结果均值).

表1  不同算法在不同测试集上的评测指标
Tab.1  Evaluation metrics for different algorithms on different test sets
算法

NH-HAZE

PSNR/SSIM

I-HAZE

PSNR/SSIM

NTIRE 2023

PSNR/SSIM

AOD-Net 14.35/0.470 2 14.62/0.631 1 13.79/0.494 8
GCA-Net 24.10/0.780 4 14.78/0.549 8 18.86/0.698 9
FFA-Net 22.88/0.785 5 16.53/0.663 4 18.68/0.719 0
DW-GAN 25.91/0.870 1 19.00/0.720 9 20.13/0.776 4
RIDCP 27.01/0.911 3 18.51/0.672 4 18.91/0.729 0
Ours 27.73/0.900 9 19.72/0.712 5 21.75/0.798 2

通过实验数据可以看出,本文方法的PSNR值在所有的比较方法和测试集中是最高的.在训练数据集NH-HAZE中的SSIM值仅比最新的RIDCP低0.010 4.在迁移测试数据集中,PSNR比同样采用知识迁移网络的DW-GAN高0.72(I-HAZE)和1.62(NTIRE 2023).在I-HAZE中SSIM比DW-GAN低0.008 4,在NTIRE 2023中SSIM比DW-GAN高0.021 8.

在运行时间对比中,如表2所示,由于AOD-Net网络深度最浅,FFA-Net网络最深,所以前者运行时间最短后者最长.另外,本文算法与DW-GAN和RIDCP网络深度相似,但是由于上分支使用了三级小波变换代替传统的卷积下采样,减少了网络参数量,所以运行时间较两者更短.

表2  各算法运行时间对比
Tab.2  Running schedule comparision of each algorithm
算法AOD-NetGCA-NetFFA-NetDW-GANRIDCPOurs
时间/s 0.027 4 0.031 4 0.157 8 0.051 8 0.060 5 0.055 7

结果进一步表明,本文方法在细节捕获和泛化能力方面有显著提升.

2.4 消融实验

为了证明本文算法中各部分的有效性,首先对单个分支进行消融实验,其次对上分支中的三级小波变换和下分支中的注意力机制模块进行消融实验.

本文构造了五个不同的变体:

1)1-DWT:使用一级小波变换提取纹理细节.

2)2-DWT:使用二级小波变换提取纹理细节.

3)3-DWT:使用三级小波变换提取纹理细节.

4)Res2Net:使用迁移网络作为下分支的编码器,解码器仅采用像素混淆.

5)Res2Net+A: 使用迁移网络作为下分支的编码器,解码器采用像素混淆+注意力机制.

本文方法:采用T-DWT+(Res2Net+A).

上述模型在NH-HAZE数据集上训练,在I-HAZE和NTIRE 2023数据集上进行迁移测试.表3总结了上述模型的性能指标.

表3  消融实验
Tab. 3  Ablation experiments
ModelNH-HAZE(训练测试)I-HAZE(泛化测试)NTIRE 2023(泛化测试)
PSNRSSIMPSNRSSIMPSNRSSIM
1-DWT 22.90 0.739 23 13.654 8 0.593 89 17.125 4 0.597 14
2-DWT 24.59 0.775 1 15.098 4 0.601 28 18.108 5 0.618 49
3-DWT 26.21 0.833 96 16.670 1 0.641 97 18.812 1 0.666 37
Res2Net 23.89 0.851 38 18.214 4 0.619 82 19.141 2 0.727 93
Res2Net+A 25.87 0.842 51 18.396 4 0.635 28 19.635 4 0.738 41
本文方法 27.73 0.900 91 19.725 0.712 35 21.754 0.798 23

为了进一步表明所提模块的有效性,对四个变体和最终网络的去雾结果进行主观比较,如图11所示.从图中可以发现:1) 1-DWT使用一级小波变换,具有一定的提取能力,但是在局部浓雾覆盖的细节纹理方面表现较差.2)2-DWT使用二级小波变换,相比于一级小波变换,局部浓雾细节纹理恢复有所改善.3)3-DWT使用三级小波变换,在频域中提取信息,在细节捕获方面有显著成效,但是泛化能力欠佳.4)Res2Net具有一定的泛化能力,但是局部细节纹理模糊化.5)Res2Net+A在注意力机制的引导下,局部细节纹理模糊化明显减轻,但是边缘信息恢复欠佳.6)本文方法通过T-DWT分支和先验知识分支,联合频域和空域中较好的信息来恢复细节纹理,并具有不错的泛化能力.

fig

图11  消融实验主观对比

Fig.11  Ablation study subjective comparison

综上所述,消融实验表明上分支提升了图像细节纹理提取能力,下分支能克服小数据集下网络泛化能力不佳的问题,每个分支都对提升图像复原结果的质量起着促进的作用,使网络达到最佳的去雾效果.

3 结束语

本文提出了一种知识迁移修正的三级小波变换去雾算法.首先,通过三级小波变换代替传统的下采样方式,在频域中通过高低频特性获取丰富的细节信息.其次,通过预训练的Res2Net引入额外的先验信息,从而进一步提升网络的泛化能力.最后,通过聚合双分支网络特征,提升复原效果和泛化能力.此外,大量实验证明了本文方法的有效性及在图像去雾中的效果.

参考文献

1

XIONG Y YLIU H XGUPTA Set alMobileDets:searching for object detection architectures for mobile accelerators[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Nashville,TNUSA.IEEE20213824-3833 [百度学术] 

2

GUO J ZZHU X YYANG Yet alTowards fast,accurate and stable 3D dense face alignment[M]//Computer Vision – ECCV 2020ChamSpringer International Publishing2020152-168 [百度学术] 

3

贾晓芬江再亮赵佰亭裂缝小目标缺陷的轻量化检测方法[J].湖南大学学报(自然科学版)2024516):52-62 [百度学术] 

JIA X FJIANG Z LZHAO B TLightweight detection method for small crack target defects[J].Journal of Hunan University (Natural Sciences)2024516): 52-62(in Chinese) [百度学术] 

4

薛珊卢涛吕琼莹基于多尺度融合和轻量化网络的无人机目标检测算法[J].湖南大学学报(自然科学版)2023508):82-93 [百度学术] 

XUE SLU TLÜ Q Yet alDrone target detection algorithm based on multi-scale fusion and lightweight network[J].Journal of Hunan University (Natural Sciences)2023508):82-93(in Chinese) [百度学术] 

5

CANTOR A. Optics of the atmosphere: scattering by molecules and particles[J].IEEE Journal of Quantum Electronics1978149): 698-699 [百度学术] 

6

CHEN B H. Using physical models and image processing techniques efficient dehazing algorithm prior[C]//2023 IEEE International Conference on Image Processing and Computer Applications (ICIPCA). ChangchunChina.IEEE2023664-668 [百度学术] 

7

M N BKAULGUD N. Wavelet-based method for enhancing the visibility of hazy images using Color Attenuation Prior[C]//2023 International Conference on Recent Trends in Electronics and Communication (ICRTEC). MysoreIndia.IEEE20231-6 [百度学术] 

8

LING P YCHEN H ATAN Xet alSingle image dehazing using saturation line prior[J]. IEEE Transactions on Image Processing2023323238-3253 [百度学术] 

9

CAI B LXU X MJIA Ket alDehazeNet:an end-to-end system for single image haze removal[J].IEEE Transactions on Image Processing20162511):5187-5198 [百度学术] 

10

LI B YPENG X LWANG Z Yet alAOD-Net:all-in-one dehazing network[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice,Italy.IEEE20174780-4788 [百度学术] 

11

CHEN D DHE M MFAN Q Net alGated context aggregation network for image dehazing and deraining[C]//2019 IEEE Winter Conference on Applications of Computer Vision (WACV)WaikoloaHI,USA.IEEE20191375-1383 [百度学术] 

12

HU JSHEN LSUN GSqueeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern RecognitionSalt Lake City,UT,USA.IEEE20187132-7141 [百度学术] 

13

WOO SPARK JLEE J Yet alCBAM:convolutional block attention module[C]//Computer Vision-ECCV 2018ChamSpringer International Publishing20183-19 [百度学术] 

14

VASWANI ASHAZEER NPARMAR Net al. Attention is all you need[J]. Advances in Neural Information Processing Systems2017305998-6008. [百度学术] 

15

GUO YGAO YLIU R Wet alSCANet:self-paced semi-curricular attention network for non-homogeneous image dehazing[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)Vancouver,BC,Canada.IEEE20231885-1894 [百度学术] 

16

QIN XWANG Z LBAI Y Cet alFFA-Net:feature fusion attention network for single image dehazing[J].Proceedings of the AAAI Conference on Artificial Intelligence2020347):11908-11915 [百度学术] 

17

ZHENG YZHAN J HHE S Fet alCurricular contrastive regularization for physics-aware single image dehazing[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Vancouver,BC,Canada.IEEE20235785-5794 [百度学术] 

18

FU M HLIU HYU Y Ket alDW-GAN:a discrete wavelet transform GAN for nonhomogeneous dehazing[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)Nashville,TNUSA.IEEE2021203-212 [百度学术] 

19

WU R QDUAN Z PGUO C Let alRIDCP:revitalizing real image dehazing via high-quality codebook priors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Vancouver,BC,Canada.IEEE202322282-22291 [百度学术] 

20

ZHOU HDONG WLIU Y Yet alBreaking through the haze:an advanced non-homogeneous dehazing method based on fast Fourier convolution and ConvNeXt[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Vancouver,BC,Canada.IEEE20231895-1904 [百度学术] 

21

DENG JDONG WSOCHER Ret alImageNet:a large-scale hierarchical image database[C]//2009 IEEE Conference on Computer Vision and Pattern RecognitionMiamiFL,USA.IEEE2009248-255 [百度学术] 

22

GAO S HCHENG M MZHAO Ket alRes2Net:a new multi-scale backbone architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence2021432):652-662 [百度学术] 

23

SHI W ZCABALLERO JHUSZÁR Fet alReal-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)Las Vegas,NV,USA.IEEE20161874-1883 [百度学术] 

24

GIRSHICK R .Fast R-CNN[C]//International Conference on Computer Vision.IEEE Computer Society2015. [百度学术] 

25

WANG ZBOVIK A CSHEIKH H Ret alImage quality assessment:from error visibility to structural similarity[J].IEEE Transactions on Image Processing2004134):600-612 [百度学术] 

26

JOHNSON JALAHI ALI F FPerceptual losses for real-time style transfer and super-resolution[M]//Computer Vision – ECCV 2016ChamSpringer International Publishing2016694-711 [百度学术] 

27

SIMONYAN KZISSERMAN AVery deep convolutional networks for large-scale image recognition[EB/OL].2014:1409.1556https://arxiv.org/abs/1409.1556v6 [百度学术] 

28

ANCUTI C OANCUTI CTIMOFTE RNH-HAZE:an image dehazing benchmark with non-homogeneous hazy and haze-free images[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)Seattle,WAUSA.IEEE20201798-1805 [百度学术] 

29

ANCUTI CANCUTI C OTIMOFTE Ret alI-HAZE:a dehazing benchmark with real hazy and haze-free indoor images[C]// Advanced Concepts for Intelligent Vision SystemsChamSpringer International Publishing2018620-631 [百度学术] 

30

HE TZHANG ZZHANG Het alBag of tricks for image classification with convolutional neural networks[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)Long Beach,CA,USA.IEEE2019558-567 [百度学术] 

作者稿件一经被我刊录用,如无特别声明,即视作同意授予我刊论文整体的全部复制传播的权利,包括但不限于复制权、发行权、信息网络传播权、广播权、表演权、翻译权、汇编权、改编权等著作使用权转让给我刊,我刊有权根据工作需要,允许合作的数据库、新媒体平台及其他数字平台进行数字传播和国际传播等。特此声明。
关闭