摘要
由于息肉图像的自动分割病灶区域大小不一和边界模糊,从而导致分割精度较低.针对这两个问题,本文提出先定位后逐步精细的渐进式消减网络(Progressive Reduction Network,PRNet).该网络采用Res2Net提取病灶区域特征,利用多尺度跨级融合模块将注意融合机制与跨级特征结合,有效应对病灶区域多尺度问题,提升定位准确度.在自上而下恢复图像分辨率的过程中,引入不确定区域处理模块和多尺度上下文感知模块.前者通过设定递减的阈值逐步挖掘息肉边缘信息,增强边缘细节特征的识别能力;后者则进一步探索病灶区域周围潜在的上下文语义,提升模型的整体表征能力.此外,本算法还设计了一个简单的特征过滤模块,用于筛选编码器特征中的有效信息.在Kvasir-SEG、CVC-Clinic和ETIS数据集上的实验结果表明,所提算法的Dice系数分别达到了92.09%、93.05%和74.19%,优于现有的息肉分割算法,展示出了较好的鲁棒性和泛化性.
根据世界卫生组织国际癌症研究机构发布的2020年全球癌症(GLOBOCAN)统计报
随着深度学习技术在医学图像领域的发展,许多深度卷积网络被应用于结肠镜图像息肉分割中并取得了较好的效果.完全卷积网
一些研究鉴于以上难点,提出了相应的解决方法.PraNe
虽然上述算法能够在一定程度上解决息肉分割过程中的难题,但模型在设计过程中仍存在以下几个问题:对于多尺度特征的提取和层级特征之间的融合不够充分,造成一些小息肉的漏分割和较大息肉的误分割;(Convolutional Neural Networks,CNN)编码器利用卷积层提取的多级特征中,存在的大量冗余和干扰信息会影响后续的特征建模;对病灶中不确定区域的探索不足,使得在息肉边界处的分割精度不够理想.
针对上述问题,本文提出一种渐进式消减不确定区域的息肉分割模型PRNet,其能够更准确地定位病灶区域和更精确地分割息肉边缘.为适应结肠镜图像中不同大小的病灶区域,模型将跨级特征与多尺度注意融合机
1 方法
生物学研

图1 PRNet整体架构
Fig.1 The overall structure of PRNet
1.1 多尺度跨级融合模块
经编码器提取到的各级特征中,低层特征由于其与输入图像相距较近,提取到的特征往往包含较多的细节信息,且分辨率较高,需要较多的计算资源;而高层特征则包含更强的抽象语义信息,可为网络提供更准确的分类和判断信
(1) |
式中:表示将图像的分辨率上采样2倍;表示通道维度上的合并拼接操作;表示经过之后的卷积恢复通道数操作. 同样通过类似的计算得到,即为.最后融合特征被送入PD,获得初始分割图.PD整合了三个层次的特征,其中两个是经过MSCA之后的特征和,另一个是经过RF之后的特征.因此,初始分割图可以通过以下方式计算:
(2) |
MSCA的详细结构如

图2 MCFM的详细结构
Fig.2 The detailed stucture of MCFM

图3 MSCA的详细结构图
Fig.3 The detailed structure of MSCA
不同层级特征对于息肉分割任务来说有不同的贡献,因此融合多层级特征能够获得更加全面的特征表示.通过上述的跨级融合,既保留了不同尺寸息肉的特征,又减小了不同层级特征之间的语义差
1.2 特征过滤模块
骨干网络提取到的多尺度特征存在大量冗余信息,并且提取到特征对于各通道的重要程度是相同的,这会导致一些干扰信息影响后续的特征建模.所以,本算法提出FFM解决上述问题,模块细节如
(3) |

图4 FFM结构
Fig.4 The structure of FFM
式中:表示Sigmoid函数;表示一维卷积;和分别表示全局平均池化和全局最大池化.相比于一般的通道注意力,FFM提取注意力的方式有以下两点不同:一是并行使用全局最大池化和全局平均池化两种操作,能够提取到前景和背景两方面的细节信息;二是使用共享一维卷积代替全连接层,能够较好地探索相邻通道间的依赖关系,且参数设计不受限于特定输入特征的大小.
最后,权重与输入特征相乘,完成加权,并用1个1×1卷积和3个3×3卷积减小通道数,实现特征重标定.重标定后的特征记为,用公式表示为:
(4) |
式中:表示多个3×3卷积;表示1×1卷积.
1.3 不确定区域处理模块
对于结肠镜图像中病灶区域边缘模糊的问题,一些研究试图借助边界信息或反向注意力解决.借助边界信息进行引导的网
UPM由两部分组成,第一部分是不确定区域提取模块(Uncertain Area Extraction Module, UEM),其目的是尽可能提取出清晰准确的不确定区域,以便从中挖掘病灶边缘;第二部分是不确定区域增强模块(Uncertain Area Improvement Module, UIM),目的是增强模型对不确定区域的建模能力.
1.3.1 不确定区域提取模块
在初始预测结果中,通常由于息肉边缘和周围组织的形态相似,使得边缘部分的分割精度较低.对此,本算法引入增强注意力并使其与上一阶段的预测图相结合(第三、四阶段的UEM除外),以提升的有效性.增强后的预测图记为:
(5) |
式中:是一个经典的滤波器函数,标准偏差=32,核大小=4,之后进行归一化操作;为最大值函数,用于突出区域;表示按元素相加操作.本算法将看作两部分,一部分是由那些明确属于前景构成的确定性区域,其他则为不确定区域.具体来说,将大于的像素赋值为0,即将明确属于前景的像素区域不予考虑,剩余部分即为不确定区域,对不确定区域利用表达
(6) |
(7) |
3.3节中对的设置进行了对比实验,本算法采用{0.75,0.75,0.7,0.7}.

图5 本算法提取的不确定区域(a)与文献[
Fig.5 Comparison between the uncertain areas extracted using the algorithm in this paper and the reference[
1.3.2 不确定区域增强模块
通过之前的工作UEM和FFM,获得了息肉图像中不易判别的区域和有价值的编码特征.二者共同作为UIM的输入,其中作为引导特征,用以探索中较难分割的区域.具体如

图6 UIM的详细结构
Fig.6 The detailed structure of UIM
(8) |
式中:表示十字交叉注意力;表示3×3卷积.
UEM和UIM的紧密配合,增强了模型对病灶区域中难分割部分的建模能力,并通过自上而下设置的递减阈值,逐步缩小了不确定区域的范围,进而挖掘出息肉的边界信息.
1.4 多尺度上下文感知模块
为缓解各层级特征之间的语义差异并继续挖掘病灶区域周围隐藏的上下文信息,提出MCAM.本文在文献[

图7 MCAM结构
Fig.7 The structure of MCAM
在挖掘目标区域潜在上下文语义信息时,文 献[27]中提出使用1×1卷积缩小通道数,并通过级联4个分支进行不同感受野的特征搜索.考虑到使用1×1卷积进行直接降维,会不可避免地丢失一些信息.因此本算法将通道数分为4组,每一组采用大小不同的空洞速率进行学习.并考虑到每组之间的通道语义相关性,使用密集连接的方式融合多个尺度的信息,从而得到多尺度特征,用公式表述为:
(9) |
式中:表示卷积核为3×3,空洞速率为r的空洞卷积,.最后将分支特征拼接得到,并经过1×1卷积、残差连接和3×3卷积,得到MCAM的最终输出.公式表示为:
(10) |
式中:和分别表示3×3卷积和1×1卷积,表示拼接操作.最终,为了得到各级预测图,对各级MCAM的输出使用1×1卷积将通道数缩减为1.
2 数据来源与实验细节
2.1 数据集设置
数据集:本算法在3个息肉分割数据集上进行了评估:ETI
实验中对Kvasir-SEG和CVC-Clinic两个数据集进行随机划分,80%用于训练,10%用于验证,10%用于测试模型的学习能力.另外ETIS同样被用作测试集,用于测试模型的泛化能力.
2.2 损失函数设计
本算法使用的损失函数为,其中代表加权的IoU损失,代表二进制交叉熵损失,前者提供全局性的监督而后者重点关注像素级的损失.两种损失都更加关注难分类像素,对难分类像素分配较大权重.初始分割图和三个侧输出均上采样恢复到原分辨率,并和Ground-Truth采用上述损失函数进行深度监督.因此,损失函数表述为:
(11) |
式中:是一个平衡参数,本算法设定为3.
2.3 实施细节和评估指标
本文提出的PRNet基于PyTorch框架实现,并使用NVIDIA Geforce RTX 3080 GPU进行训练.输入模型的图像统一调整为224×224分辨率,并通过随机水平翻转和垂直翻转进行增强.使用在ImageNet上预训练的Res2Net50模型初始化编码器网络参数,其他层随机初始化.使用多尺度训练策略{1,1.5}进行模型训
采用8个广泛使用的评估指标评估模型性能,包括“准确率”(Acc)、 “Dice系数”(Dice)、“召回率”(Rec)、“查准率”(Prec)、 “息肉交并比”(IoUp)、“背景交并比”(IoUb)、“平均交并比”(Mean Intersection over Union,mIoU)、“平均绝对误差”(Mean Absolute Error, MAE).评估指标定义如
(12) |
式中:TP、TN、FP和FN均在像素级别上定义,分别代表真阳性、真阴性、假阳性和假阴性的数量;、分别为图像的宽和高;和分别表示预测结果和真实标签中(x,y)处的值.Acc指被正确分类的像素的百分比,该指标易受类别不均衡的影响.Prec表示预测结果为阳性中真阳性所占的比例;Rec则关注真实标签被正确预测的概率.指标IoU和Dice衡量预测结果与真实标签之间的相似度.其中,IoUp和IoUb分别代表网络模型对于前景像素和背景像素的分类准确度.当二者差异较大时(通常发生在息肉与周围黏膜相似度较高的场景),单一指标难以评估网络模型的分割效果.相比之下,mIoU能够更加客观地展示网络性能.Dice系数在评估小目标的分割性能方面更具表现力.MAE通过计算预测值与真实标签之间距离的平均值来评估像素级精度.前7个指标数值越高越好,最后一个指标MAE,其值越小,表明预测值与真实值越吻合.
3 实验结果与分析
为了证明PRNet对于结肠镜图像中息肉分割的有效性,将其与7种目前最具代表性的医学图像分割方法进行学习能力和泛化能力的比较,包括U-Net、U-Net+
3.1 学习能力分析
如
模型 | Dice | mIoU | IoUp | IoUb | Acc | Prec | Rec | MAE |
---|---|---|---|---|---|---|---|---|
U-Ne | 0.830 6 | 0.845 7 | 0.749 7 | 0.941 8 | 0.953 0 | 0.824 8 | 0.901 2 | 0.049 0 |
U-Net+ | 0.853 6 | 0.856 9 | 0.760 8 | 0.952 9 | 0.963 6 | 0.874 5 | 0.890 5 | 0.051 5 |
PraNe | 0.904 0 | 0.905 6 | 0.848 3 | 0.962 8 | 0.970 5 | 0.912 0 | 0.927 3 | 0.033 1 |
ACSNe | 0.900 3 | 0.899 6 | 0.840 8 | 0.958 5 | 0.968 2 | 0.921 9 | 0.903 3 | 0.035 0 |
HarD-MSE | 0.904 4 | 0.906 2 | 0.848 6 | 0.963 8 | 0.970 4 | 0.942 3 | 0.897 0 | 0.031 7 |
LDNe | 0.899 7 | 0.902 2 | 0.843 1 | 0.961 4 | 0.969 9 | 0.916 9 | 0.911 7 | 0.033 4 |
UACANe | 0.908 3 | 0.906 7 | 0.854 6 | 0.958 8 | 0.968 9 | 0.916 9 | 0.921 5 | 0.027 8 |
本文 | 0.920 9 | 0.922 0 | 0.872 4 | 0.971 6 | 0.978 3 | 0.950 4 | 0.914 0 | 0.023 9 |
模型 | Dice | mIoU | IoUp | IoUb | Acc | Prec | Rec | MAE |
---|---|---|---|---|---|---|---|---|
U-Ne | 0.870 5 | 0.892 9 | 0.805 2 | 0.980 6 | 0.982 8 | 0.877 4 | 0.899 4 | 0.017 4 |
U-Net+ | 0.881 4 | 0.894 2 | 0.814 8 | 0.973 6 | 0.983 0 | 0.880 1 | 0.899 0 | 0.026 2 |
PraNe | 0.905 3 | 0.917 2 | 0.848 5 | 0.986 0 | 0.987 8 | 0.876 1 | 0.965 8 | 0.013 4 |
ACSNe | 0.903 6 | 0.917 7 | 0.849 0 | 0.986 5 | 0.988 6 | 0.904 5 | 0.927 5 | 0.012 5 |
HarD-MSE | 0.917 9 | 0.923 2 | 0.858 6 | 0.987 8 | 0.989 8 | 0.911 9 | 0.937 5 | 0.010 4 |
LDNe | 0.893 4 | 0.911 2 | 0.835 3 | 0.987 2 | 0.988 7 | 0.873 7 | 0.952 8 | 0.012 9 |
UACANe | 0.903 8 | 0.918 8 | 0.851 1 | 0.986 5 | 0.988 0 | 0.888 0 | 0.941 4 | 0.008 5 |
本文 | 0.930 5 | 0.936 1 | 0.880 6 | 0.991 6 | 0.992 7 | 0.928 3 | 0.938 6 | 0.007 5 |

图8 不同模型在Kvasir-SEG和CVC-Clinic数据集上分割预测对比图像
Fig.8 Comparison of segmentation predictions by different models on Kvasir-SEG and CVC-Clinic datasets
3.2 泛化能力分析
为了适应临床场景中不同类型的息肉,需要检测模型对未知数据的预测能力.
模型 | Dice | mIoU | IoUp | IoUb | Acc | Prec | Rec | MAE |
---|---|---|---|---|---|---|---|---|
U-Ne | 0.415 8 | 0.650 5 | 0.959 1 | 0.343 5 | 0.957 5 | 0.440 0 | 0.508 6 | 0.045 3 |
U-Net+ | 0.495 1 | 0.694 9 | 0.972 6 | 0.418 3 | 0.971 4 | 0.590 0 | 0.521 6 | 0.033 4 |
PraNe | 0.665 0 | 0.762 2 | 0.940 9 | 0.585 4 | 0.939 0 | 0.614 9 | 0.856 6 | 0.062 7 |
ACSNe | 0.620 9 | 0.742 9 | 0.941 8 | 0.546 5 | 0.939 3 | 0.590 4 | 0.799 5 | 0.062 3 |
HarD-MSE | 0.727 8 | 0.814 4 | 0.978 5 | 0.651 4 | 0.977 3 | 0.695 4 | 0.815 6 | 0.022 1 |
LDNe | 0.666 5 | 0.766 3 | 0.953 4 | 0.588 1 | 0.951 7 | 0.630 7 | 0.826 2 | 0.051 6 |
UACANe | 0.605 8 | 0.687 7 | 0.865 4 | 0.512 8 | 0.862 5 | 0.556 0 | 0.823 7 | 0.068 5 |
本文 | 0.741 9 | 0.826 6 | 0.981 3 | 0.673 0 | 0.980 1 | 0.736 3 | 0.790 4 | 0.019 5 |
3.3 消融实验分析
为了验证各模块的有效性,在数据集Kvasir-SEG和ETIS上进行消融实验,结果如
模型 | Kvasir-SEG | ETIS | ||||||
---|---|---|---|---|---|---|---|---|
Acc | Dice | mIoU | MAE | Acc | Dice | mIoU | MAE | |
B | 0.973 1 | 0.893 7 | 0.906 4 | 0.029 4 | 0.983 6 | 0.634 2 | 0.781 4 | 0.021 4 |
B+FFM | 0.975 7 | 0.915 7 | 0.915 8 | 0.026 8 | 0.984 1 | 0.717 4 | 0.817 9 | 0.017 2 |
B+MCFM | 0.975 8 | 0.908 2 | 0.912 8 | 0.026 5 | 0.984 9 | 0.720 3 | 0.814 9 | 0.016 3 |
B+MCFM+UPM | 0.976 3 | 0.910 3 | 0.913 6 | 0.025 7 | 0.979 7 | 0.740 1 | 0.824 4 | 0.020 6 |
B+MCAM | 0.971 7 | 0.911 0 | 0.911 4 | 0.030 5 | 0.965 4 | 0.633 6 | 0.767 6 | 0.037 1 |
PRNet | 0.978 3 | 0.920 9 | 0.922 0 | 0.023 9 | 0.980 1 | 0.741 9 | 0.826 6 | 0.019 5 |
首先,与基线模型相比,使用FFM在Kvasir-SEG和ETIS数据集上Dice系数分别提升了2.20%和8.32%.这表明对编码特征进行重标定是有效的,减少了冗余和干扰信息对特征建模的影响.其次,对比第一行、第三行的实验结果,使用MCFM在两个数据集上 Dice系数有明显的提高,分别提高了1.45%和8.61%,验证了MCFM能有效地聚焦图像中的病灶区域,从不同尺度捕获息肉特征,进而提升分割精度.再次,通过将UPM引入B+MCFM模型来验证UPM的有效性.对比第三行和第四行结果可以发现,B+MCFM+UPM模型取得了更好的整体性能,在测试的2个数据集上所有指标均有一定程度的提升,特别是Dice系数在ETIS数据集上提升了1.98%.这表明使用UPM对不确定区域进行提取并建立病灶区域的长期依赖关系对提升分割病灶区域的准确度和稳定性是有帮助的.最后,为了验证MCAM的有效性,将基线模型中使用的简单通道拼接换为MCAM中的具体结构.通过对比第一行和第五行的结果,Dice系数在Kvasir-SEG数据集提升了1.73%.这表明MCAM能减少解码过程中层级特征之间的语义差异,同时能够挖掘出病灶区域周围潜在的上下文语义信息,从而更好地实现模型对病灶区域的建模.
另外,对于UPM中的阈值设置也进行了对比实验,结果如
阈值设置 | Kvasir-SEG | ETIS | ||||||
---|---|---|---|---|---|---|---|---|
Acc | Dice | mIoU | MAE | Acc | Dice | mIoU | MAE | |
{0.8,0.75,0.7,0.65} | 0.974 1 | 0.911 8 | 0.915 3 | 0.028 1 | 0.964 9 | 0.720 6 | 0.807 9 | 0.035 4 |
{0.75,0.7,0.65,0.6} | 0.972 4 | 0.906 9 | 0.909 1 | 0.030 0 | 0.944 2 | 0.674 9 | 0.776 7 | 0.057 5 |
{0.7,0.65,0.5,0.5} | 0.972 0 | 0.904 9 | 0.910 7 | 0.030 0 | 0.972 2 | 0.697 5 | 0.799 5 | 0.029 0 |
{0.75,0.75,0.7,0.7} | 0.978 3 | 0.920 9 | 0.922 0 | 0.023 9 | 0.981 3 | 0.741 9 | 0.826 6 | 0.019 5 |
4 结 论
本文提出一个通过渐进式消减不确定区域提升息肉分割精度的模型PRNet.PRNet包含多尺度跨级融合模块、特征过滤模块、不确定区域处理模块和多尺度上下文感知模块四部分.首先,借助多尺度跨级融合模块整合注意融合机制和多尺度特征,解决单一感受野难以同时捕捉不同大小息肉的难题.其次,通过特征过滤模块提取有价值的信息并与多尺度跨级融合模块的输出一起作为不确定区域处理模块的输入,并自上而下设置递减的阈值,逐步增强对病灶区域边缘的特征提取和特征以建模能力,解决息肉边界分割准确度低的难题.最后,多尺度上下文感知模块融合相邻层级特征缩小语义鸿沟,并结合多尺度感受野共同探索目标区域潜在的上下文语义信息.在Kvasir-SEG和CVC-Clinic数据集上的实验结果表明,PRNet相比其他模型具有更强的学习能力,能够在病灶区域边缘模糊的情况下实现精准分割;在ETIS数据集上,PRNet相比其他7种分割算法在Dice系数上有所提升,7种算法系数不同,表明所提算法具有更好的泛化能力.
由于肺部感染分割任务与结直肠息肉分割面临的挑战类似,所以未来会进一步将PRNet迁移到肺部感染分割任务上,观察PRNet在其他数据上的特征学习和泛化能力,在此基础上优化边界提取,进一步提升在病灶区域边缘处的分割精度.
参考文献
SUNG H,FERLAY J,SIEGEL R L,et al.Global cancer statistics 2020:GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries[J].CA:a Cancer Journal for Clinicians,2021,71(3):209-249. [百度学术]
LEUFKENS A M,VAN OIJEN M G H,VLEGGAAR F P,et al.Factors influencing the miss rate of polyps in a back-to-back colonoscopy study[J].Endoscopy,2012,44(5):470-475. [百度学术]
LI Q L,YANG G Y,CHEN Z W,et al.Colorectal polyp segmentation using a fully convolutional neural network[C]//2017 10th International Congress on Image and Signal Processing,BioMedical Engineering and Informatics (CISP-BMEI).Shanghai,China: IEEE,2017:1-5. [百度学术]
SHELHAMER E,LONG J,DARRELL T.Fully convolutional networks for semantic segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651. [百度学术]
BRANDAO P,MAZOMENOS E,CIUTI G,et al.Fully convolutional neural networks for polyp segmentation in colonoscopy[C]//SPIE Proceedings, Medical Imaging 2017 : Computer-Aided Diagnosis. Orlando, Florida, USA.SPIE,2017. [百度学术]
JHA D,SMEDSRUD P H,RIEGLER M A,et al.ResUNet:an advanced architecture for medical image segmentation[C]//2019 IEEE International Symposium on Multimedia (ISM).San Diego,CA,USA: IEEE,2019:225-232. [百度学术]
RONNEBERGER O,FISCHER P,BROX T. U-net: convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer,2015:234-241. [百度学术]
HE K M,ZHANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas, NV, USA: IEEE, 2016: 770-778. [百度学术]
HU J,SHEN L,ALBANIE S,et al.Squeeze-and-excitation networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-2023. [百度学术]
CHEN L C,ZHU Y K,PAPANDREOU G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Computer Vision-ECCV 2018:15th European Conference,Munich,Germany,September 8–14,2018,Proceedings,Part VII. ECOCV, ACM,2018:833-851. [百度学术]
FAN D P,JI G P,ZHOU T,et al.PraNet:parallel reverse attention network for polyp segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Cham:Springer,2020:263-273. [百度学术]
CHEN S H,TAN X L,WANG B,et al.Reverse attention for salient object detection[C]//European Conference on Computer Vision.Cham:Springer,2018:236-252. [百度学术]
ZHANG R F,LI G B,LI Z,et al.Adaptive context selection for polyp segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Cham:Springer,2020:253-262. [百度学术]
NGUYEN T C,NGUYEN T P,DIEP G H,et al.CCBANet:cascading context and balancing attention for polyp segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Cham:Springer,2021:633-643. [百度学术]
KIM T,LEE H,KIM D.UACANet:uncertainty augmented context attention for polyp segmentation[C]//Proceedings of the 29th ACM International Conference on Multimedia.October 20-24, 2021. Virtual Event,China: ACM, 2021: 2167-2175. [百度学术]
GUO Q Q,FANG X Y,WANG L B,et al.Polyp segmentation of colonoscopy images by exploring the uncertain areas[J].IEEE Access,2022,10:52971-52981. [百度学术]
DAI Y M,GIESEKE F,OEHMCKE S,et al.Attentional feature fusion[C]//2021 IEEE Winter Conference on Applications of Computer Vision (WACV).Waikoloa,HI,USA: IEEE,2021:3559-3568. [百度学术]
HALL J R,CUTHILL I C,BADDELEY R,et al.Camouflage,detection and identification of moving targets[J].Proceedings Biological Sciences,2013,280(1758):20130064. [百度学术]
GAO S H,CHENG M M,ZHAO K,et al.Res2Net:a new multi-scale backbone architecture[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(2):652-662. [百度学术]
WU Z,SU L,HUANG Q M.Cascaded partial decoder for fast and accurate salient object detection[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach,CA,USA: IEEE,2019:3902-3911. [百度学术]
CHEN Z Y,XU Q Q,CONG R M,et al.Global context-aware progressive aggregation network for salient object detection[J].Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):10599-10606. [百度学术]
WANG Q L,WU B G,ZHU P F,et al.ECA-net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Seattle,WA,USA.IEEE,2020:11531-11539. [百度学术]
MURUGESAN B,SARVESWARAN K,SHANKARANARAYANA S M,et al.Psi-Net:shape and boundary aware joint multi-task deep network for medical image segmentation[C]//2019 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC). Berlin,Germany: IEEE, 2019: 7223-7226. [百度学术]
FANG Y Q,ZHU D L,YAO J H,et al.ABC-net:area-boundary constraint network with dynamical feature selection for colorectal polyp segmentation[J].IEEE Sensors Journal,2021,21(10):11799-11809. [百度学术]
HUANG Z L,WANG X G,HUANG L C,et al.CCNet:criss-cross attention for semantic segmentation[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South): IEEE,2019:603-612. [百度学术]
朱新山,卢俊彦,甘永东,等.融合多尺度特征与多分支预测的多操作检测网络[J].湖南大学学报(自然科学版),2023, 50(8):94-105. [百度学术]
ZHU X S,LU J Y,GAN Y D,et al.Multi-manipulation detection network combining multi-scale feature and multi-branch prediction[J].Journal of Hunan University (Natural Sciences),2023,50(8):94-105.(in Chinese) [百度学术]
MEI H Y,LIU Y Y,WEI Z Q,et al.Exploring dense context for salient object detection[J].IEEE Transactions on Circuits and Systems for Video Technology,2022,32(3):1378-1389. [百度学术]
SILVA J,HISTACE A,ROMAIN O,et al.Toward embedded detection of polyps in WCE images for early diagnosis of colorectal cancer[J].International Journal of Computer Assisted Radiology and Surgery,2014,9(2):283-293. [百度学术]
BERNAL J,SÁNCHEZ F J,FERNÁNDEZ-ESPARRACH G,et al.WM-DOVA maps for accurate polyp highlighting in colonoscopy:validation vs.saliency maps from physicians[J].Computerized Medical Imaging and Graphics,2015,43:99-111. [百度学术]
JHA D,SMEDSRUD P H,RIEGLER M A,et al.Kvasir-SEG:a segmented polyp dataset[C]//International Conference on Multimedia Modeling.Cham:Springer,2020:451-462. [百度学术]
ZHENG D H,ZHENG X C,YANG L T,et al.MFFN:multi-view feature fusion network for camouflaged object detection[C]//2023 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV).Waikoloa,HI,USA: IEEE,2023:6221-6231. [百度学术]
KINGMA D P,BA J.Adam:a method for stochastic optimization[J].ArXiv e-Prints,2014:arXiv:1412.6980. [百度学术]
ZHOU Z W,SIDDIQUEE M M R,TAJBAKHSH N,et al.UNet++:a nested U-net architecture for medical image segmentation[J].Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support:4th International Workshop,DLMIA 2018,and 8th International Workshop,ML-CDS 2018,Held in Conjunction with MICCAI 2018,Granada,Spain: 2018,11045:3-11. [百度学术]
HUANG C H , WU H Y , LINY L .HarDNet-MSEG: a simple encoder-decoder polyp segmentation neural network that achieves over 0.9 Mean Dice and 86 FPS[J], 2021. [百度学术]
ZHANG R F,LAI P W,WAN X,et al.Lesion-aware dynamic kernel for Polyp segmentation[M]//Lecture Notes in Computer Science.Cham:Springer Nature Switzerland,2022:99-109. [百度学术]