CN116935051A - 一种息肉分割网络方法、系统、电子设备及存储介质 - Google Patents

一种息肉分割网络方法、系统、电子设备及存储介质 Download PDF

Info

Publication number
CN116935051A
CN116935051A CN202310891778.5A CN202310891778A CN116935051A CN 116935051 A CN116935051 A CN 116935051A CN 202310891778 A CN202310891778 A CN 202310891778A CN 116935051 A CN116935051 A CN 116935051A
Authority
CN
China
Prior art keywords
polyp
features
result
convolution
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310891778.5A
Other languages
English (en)
Other versions
CN116935051B (zh
Inventor
岳广辉
张绍萍
肖厚禄
张俪馨
汪天富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202310891778.5A priority Critical patent/CN116935051B/zh
Publication of CN116935051A publication Critical patent/CN116935051A/zh
Application granted granted Critical
Publication of CN116935051B publication Critical patent/CN116935051B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种息肉分割网络方法、系统、电子设备及存储介质,所述方法包括:S1获取目标图像,基于PVTv2骨干网络得到所述目标图像的四层金字塔特征;S2将所述四层金字塔特征输入到解码器中生成目标图像粗略图;S3在对所述四层金字塔特征输入到多尺度特征融合模块中进行卷积降维得到四个输出特征;S4基于息肉边缘和前景信息再恢复模块和四个输出特征得到分割结果。本发明提出充分利用高分辨率的分割粗略图和低分辨率的分割图的空间信息,通过相减操作挖掘息肉边界的解决方案可以精准挖掘息肉边界信息,减小对背景的关注,实现结肠镜图像中结直肠息肉的准确分割。

Description

一种息肉分割网络方法、系统、电子设备及存储介质
技术领域
本发明属于图像处理领域、计算机辅助疾病诊断领域,具体涉及一种息肉分割网络方法、系统、电子设备及存储介质。
背景技术
在早期阶段发现并切除结直肠息肉对预防、诊断和治疗结直肠癌非常关键。结肠镜检查是一种有效的结直肠癌筛查和诊断技术,因为它可以提供结直肠息肉的位置和外观信息,使医生能够在其发展成为结直肠癌之前将其切除。因此,结肠镜图像中结直肠息肉的准确分割对临床诊断和治疗都有非常重要的意义。
随着计算机视觉方法越来越广泛地应用于医学图像处理,其中的息肉分割方法也进展迅速。在各种息肉分割方法中,传统的息肉分割方法依赖于手工提取的特征,如纹理、颜色、形状、外观或这些特征的组合。然而,这些方法往往分割性能低下,泛化能力较差,且设计过程耗时耗力。深度学习克服了手工设计特征的短板,近年来在医学图像领域得到了十足的发展,在息肉分割上的技术也不断在发展。但是准确的息肉分割是一项具有挑战性的任务,现有的深度学习网络模型仍然存在一些不足和缺陷/有很大的提升空间。具体来说,息肉分割面对的主要挑战有:1)息肉边缘信息失真,以往的模型往往可以准确分割息肉内部区域,但难以分割息肉边缘。2)息肉与其周围正常组织的质地、纹理十分相似,这使得息肉和周围组织边界不清晰,缺乏语义分割所需要的高对比度。3)息肉大小差异大。
因此,需要一种高性能的息肉分割方法。
发明内容
本发明针对结肠镜图像中的息肉分割问题,基于多阶段信息融合策略提出了一种高性能的息肉分割网络方法,旨在通过精确的息肉分割方法辅助内窥镜医师准确快速的完成息肉筛查及诊断操作。
本发明技术方案如下:
一种息肉分割网络方法,所述方法包括:
S1获取目标图像,基于PVTv2骨干网络得到所述目标图像的四层金字塔特征;
S2将所述四层金字塔特征输入到解码器中生成目标图像粗略图;
S3在对所述四层金字塔特征输入到多尺度特征融合模块中进行卷积降维得到四个输出特征;
S4基于息肉边缘和前景信息再恢复模块和四个输出特征得到分割结果。
进一步的,生成目标图像粗略图的方法具体为:
对所述四层金字塔特征X1,X2,X3,X4进行1×1的卷积操作降维,然后对于降维后的X1先上采样到原来两倍后用3×3的卷积提取特征,后与降维后的X2相拼接,拼接之后进行两倍上采样再通过一个3×3的卷积,将这个卷积结果和降维后的X3相拼接,之后将拼接结果上采样两倍再通过一个3×3卷积,将这个卷积结果和降维后的X4相拼接,最后这个拼接结果通过一个1×1的卷积降维至1维,得到目标图像粗略图
进一步的,所述S3具体为:
用注意力机制将所述四层金字塔特征融合,再经过卷积降维,最终得到具有丰富多尺度信息的输出特征Fi,i∈{1,2,3,4},其中, Fi为融合后的特征,这样分别得到了四个输出F1,F2,F3,F4。
进一步的,所述S4具体为:
将融合后的特征、上一层基于息肉边缘和前景信息再恢复模块的输出特征和输出图输入到当前层基于息肉边缘和前景信息再恢复模块中,首先对融合后的特征分别做三次1×1卷积得到三个结果向量,然后将S2得到的目标图像粗略与其中一个结果向量逐元素相乘,其余两个结果向量均和输出图相乘,然后将与目标图像粗略图相乘得到的结果和与输出图相乘得到的其中一个结果做差,将差值和剩下那个与输出图相乘得到的结果进行拼接;接着将拼接结果经过一个CBR的操作,将得到的结果记为CBR_1;同时,所述输出特征也会经过一个CBR的操作,将这个CBR操作得到的结果记为CBR_2;将CBR_1和CBR_2相加,相加之后还会进行一个CBR操作,最终得到第一输出结果fii,再经过一个1×1卷积降低维数到1就得到了第二输出结果mi,将第二输出结果mi经过双线性插值上采样4倍后再经过sigmoid函数得到最终的息肉分割结果。
进一步的,所述方法采用损失函数做训练,所述损失函数为:
loss=wBCE+wIoU,其中wBCE为带有权重的交叉熵损失函数,wIoU为带权重的IOU损失函数。
一种息肉分割网络系统,所述系统包括:PVTv2骨干网络、多尺度特征融合模块、息肉边缘和前景信息再恢复模块和解码器;所述PVTv2骨干网络用于得到目标图像的四层金字塔特征;所述解码器中用于生成目标图像粗略图;所述多尺度特征融合模块AMFM用于对输出特征进行卷积降维;所述息肉边缘和前景信息再恢复模块IRM用于生成分割结果。
进一步的,其特征在于,所述多尺度特征融合模块由上、中、下三个分支组成,分别接受三个输入。
本发明还提供一种电子设备,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行根据上述的息肉分割网络方法。
本发明还提供一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现上述的息肉分割网络。
本发明的技术效果:
本发明提出充分利用高分辨率的分割粗略图和低分辨率的分割图的空间信息,通过相减操作挖掘息肉边界的解决方案可以精准挖掘息肉边界信息,减小对背景的关注,实现结肠镜图像中结直肠息肉的准确分割。
附图说明
附图大体上通过举例而不是限制的方式示出各种实施例,并且与说明书以及权利要求书一起用于对所发明的实施例进行说明。在适当的时候,在所有附图中使用相同的附图标记指代同一或相似的部分。这样的实施例是例证性的,而并非旨在作为本装置或方法的穷尽或排他实施例。
图1示出了本发明的网络整体框架示意图;
图2示出了本发明的解码器结构示意图;
图3示出了本发明的基于注意力机制的多尺度特征融合模块示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本发明提供一种息肉分割网络方法,所述方法包括:
S1获取目标图像,基于PVTv2骨干网络得到所述目标图像的四层金字塔特征;
S2将所述四层金字塔特征输入到解码器中生成目标图像粗略图;
S3在对所述四层金字塔特征输入到多尺度特征融合模块AMFM中进行卷积降维得到四个输出特征;
S4基于息肉边缘和前景信息再恢复模块IRM和四个输出特征得到分割结果。
首先,本发明采用在ImageNet数据集上已预训练好的PVTv2网络作为本发明的基础网络,并移除该网络的全连接层,保留前四层作为本发明的骨干网络用于特征提取。对于一张结肠镜图像I∈RH×W×3,先将其输入到基于视觉Transformer的骨干网络PVTv2中得到四层金字塔特征其中i∈{1,2,3,4},Ci∈{64,128,320,512}表示的是通道维度。
然后将四层特征X1,X2,X3,X4输入到解码器D中生成一张粗略图接着将相邻三层的特征输入到每一层的AMFM中,即将第i,i∈{1,2,3}层的特征Xi、低层特征Xi-1、高层特征Xi+1输入到第i层的AMFM模块中。具体来说,在AMFM中用注意力机制将Xi-1和Xi+1融合进Xi,再经过卷积降维,最终得到具有丰富多尺度信息的输出特征Fi,i∈{1,2,3,4}有Fi的维度都为64维。至于X4,本发明采用X4直接卷积(如图1的CBR)的方法处理X4,这样分别得到了四个输出F1,F2,F3,F4,其中/> 称Fi为融合后的特征。接着将融合后的特征Fi、上一层IRM的输出fi+1,mi+1一起输入到当前层的IRM中。由于第四层的IRM没有上一层的输出fi+1和mi+1,因此令f5=F4,/>即将F4作为上一层输出特征,并用一个卷积得到分割图作为m5。在训练过程中,在CM,m4,m3,m2,m1这五张图加入监督,m1经过双线性插值上采样4倍后再经过sigmoid函数得到最终的息肉分割结果。
系统网络总体结构如图1所示,本发明提出的分割网络包括三大部分:PVTv2骨干网络,基于注意力机制的多尺度特征融合模块(AMFM),息肉边缘和前景信息再恢复模块(IRM),解码器D。
1.PVTv2骨干网络
不同于PraNet等息肉分割网络使用卷积神经网络(CNN)作为其编码器,本发明的模型使用视觉Transformer编码器更丰富地提取结肠镜图像特征以进行息肉分割。PVT是一个金字塔结构的视觉Transformer,它通过具有空间缩减的自注意力操作计算,从而能够减少计算资源损耗。PVT旨在将金字塔结构嵌入到Transformer结构用于生成多尺度特征,PVT包含四个阶段(stage)用于生成不同尺度的特征,所有阶段(stage)都是由patchembedding和若干Transformer encoder组成的。在第一个阶段,给定结肠镜图像I∈RH×W×3作为输入,以4x4像素大小为一个patch,即每个patch为R4×4×3,这样就将原始输入图像变成了大小的张量,接着将其送入线性投影层把通道维调整到所需要的通道数C,得到的张量,最后将位置信息嵌入到张量中,送入到若干Transformer encoder最终得到/>的X1特征。采用类似的方式,PVTv2的前一阶段的输出作为后一阶段的输入,稍不同于第一个阶段(stage),第二三四个阶段(stage)以前一个阶段输出图像的2x2像素大小为一个patch,这样第二三四个阶段(stage)都是下采样两倍,最终即可得到剩下的X2,X3,X4。具体来说,本模型使用了PVTv2,PVTv2是PVT的改进版本,它具有更强大的特征提取能力。为了将PVTv2适用于息肉分割任务,本文去掉了PVTv2最后一层分类层,并在不同阶段(stage)生成的特征X1,X2,X3,X4之上设计了一个息肉分割头。
2.解码器D部分
从PVTv2骨干网络提取出的X1,X2,X3,X4特征会送入一个解码器D中生成一张高分辨率的息肉粗略图CM,这张粗略分割图会加入深监督中,也将会用于IRM模块中用于提取息肉的前景信息和边缘信息。解码器D结构如图2,具体来说,它先将四个特征X1,X2,X3,X4进行1×1的卷积操作降维,然后对于降维后的X1先上采样到原来两倍后用3×3的卷积提取特征,后与降维后的X2相拼接,拼接之后进行两倍上采样再通过一个3×3的卷积,将这个卷积结果和降维后的X3相拼接,之后将拼接结果上采样两倍再通过一个3×3卷积,将这个卷积结果和降维后的X4相拼接,最后这个拼接结果通过一个1×1的卷积降维至1维,就得到解码器的粗分割图
3.基于注意力机制的多尺度特征融合模块Attention-based Multi-scaleFeature Fusion Module(AMFM)
如图3是本发明的AMFM结构图,用AMFMi,i∈{1,2,3}表示第i层的AMFM。AMFM由上、中、下三个分支组成,分别接受三个输入。对于AMFMi,i∈{2,3}的上、中、下分支分别接收第i-1、i、i+1层的特征输出Fi-1、Fi、Fi+1作为输入;具体为:对于上分支,Xi+1先上采样到原分辨率的两倍,然后经过一个3×3的卷积和1×1的卷积来改变通道数,得到的结果记为xi+1,注意此时xi+1和Xi的大小是一致的。由于高层特征信息本发明更需要保留的是通道方向上的信息,因此,对于xi+1本发明沿着空间维度做全局平均池化操作,得到分辨率大小为1×1而通道数不变的张量,然后将这个张量输入一个全连接层,再经过sigmoid函数,得到上分支的注意力权重,最后将这个注意力权重与xi+1进行逐元素相乘,得到上分支的计算结果。同理,对于下分支,Xi-1下采样到原分辨率的一半,然后依次经过一个3×3的卷积和1×1的卷积改变通道数,得到的结果记为xi-1,xi-1和Xi的大小是一致的,然后对xi-1沿着通道维度分别做平均池化和最大池化操作,得到两个通道数为1,分辨率不变的张量,然后将这两个张量沿着通道维度拼接,再经过一个1×1卷积操作变回通道数为1的张量,最后经过sigmoid操作得到下分支的注意力权重,最后将这个注意力权重与xi-1进行逐元素相乘,得到上分支的计算结果。对于中间那个分支,本发明将Xi输入,对其分别做空洞率为3和空洞率为5的空洞卷积得到中间分支的计算结果。最后,本发明将三个分支得到的结果相加,然后经过一个1×1卷积操作得到AMFMi,i∈{2,3}的最终输出为Fi,i∈{2,3}。而对于AMFM1,本发明将X1、x1、X2分别作为AMFM1上、中、下分支的输入。注意的是,AMFM1下分支中X1作为输入,那么X1将不再需要上采样和3×3卷积、1×1卷积的操作了。其余的操作和前面提到的AMFMi,i∈{2,3}中的操作是一致的,AMFM1得到的结果记为Y1。最后,对于X4的处理,本发明直接将其经过一个CBR(如图1中右上角所示)得到结果Y4
4.息肉边缘和前景信息再恢复模块Information Recovery Module(IRM)
为了弥补从高语义低分辨率的分割图上采样至高分辨率时息肉边缘的失真,并且专注于息肉区域而非周围正常组织区域,本发明提出一个有效提取出息肉的边缘和前景信息的信息再恢复模块。
本发明的IRM如图1中的右半部分所示,IRM接收三个不同的输入。用IRMi,i∈{1,2,3,4}表示第i层的IRM。其中IRMi,i∈{1,2,3}分别接受来自当前层AMFMi的输出Fi、下一层即第i+1层的IRMi+1的输出特征(fi+1)和输出图(mi+1)作为输入,生成当前层的输出特征fi和输出图mi。当i=4时,由于IRM4没有来自下一层的输出fi+1和mi+1,因此令f5=F4,m5则由F4经过一个1×1的卷积得到,IRM4的输出则为f4和m4。对于IRMi,i∈{1,2,3,4},其具体流程为:首先对输入Fi分别做三次1×1卷积得到三个结果向量,然后将前面得到的粗分割图CM与其中一个结果向量逐元素相乘,其余两个结果向量均和输入mi+1相乘,然后将与粗分割图CM相乘得到的结果和与输入mi+1相乘得到的其中一个结果做差,将这个差值和剩下那个与输入mi+1相乘得到的结果进行拼接;接着将拼接结果经过一个CBR的操作(CBR操作如图1右上角所示),本发明将得到的结果记为CBR_1。同时,由于fi+1也是IRMi的输入,fi+1会经过一个CBR的操作,将这个CBR操作得到的结果记为CBR_2。然后,本发明将CBR_1和CBR_2相加,相加之后还会进行一个CBR操作,最终得到IRMi的其中一个输出结果fi,fi再经过一个1×1卷积降低维数到1就得到了IRMi的另一个输出结果mi。至此,IRMi,i∈{1,2,3,4}的过程就结束了,IRMi,i∈{1,2,3,4}总共有四个输入分别是Fi、fi+1、mi+1和CM,总共有两个输出fi和mi。最终,本发明会将IRM1的输出结果m1经过双线性插值上采样4倍后再经过sigmoid函数得到最终的息肉分割结果。
5.损失函数
本发明的网络在训练过程中使用的损失函数为loss=wBCE+wIoU,其中wBCE为带有权重的交叉熵损失函数,wIoU为带权重的IoU损失函数。带有权重的交叉熵损失函数更加关注息肉区域,使得损失值主要由息肉区域的预测值和真值主导,因此对于不同大小的息肉,即便使很小的息肉,模型依然可以有效学习息肉的特征。而带权重的IoU损失函数更加关注难以处理的像素。
为了更好的提高网络的性能,本发明采用深监督学习的方式训练模型,具体来说,整个网络有五张预测图加入监督,它们分别是CM,m4,m3,m2,m1,其中m1而真实值GT∈RH×W×1,因此五张图都要经过双线性插值上采样至和GT相同大小再和GT计算损失值。最终整个网络的损失函数可以用以下式子表示:
loss1=loss(CM,GT)#(1)
loss2=loss(upsample(m4),GT)#(2)
loss3=loss(upsample(m3),GT)#(3)
loss4=loss(upsample(m2),GT)#(4)
loss5=loss(upsample(m1),GT)#(5)
Losstotal=loss1+loss2+loss3+loss4+loss5#(6)
其中Losstotal表示总损失;loss1,loss2,loss3,loss4,loss5分别表示CM,m4,m3,m2,m1产生的损失值;GT表示原图对应的二值化真值图。
实施例1
实验设置
本部分主要介绍在训练阶段损失函数、batchsize大小、epoch大小、数据集划分的比例等参数的设置。
本发明设计的结直肠息肉分割网络采用的数据划分方式为常用的随机划分训练集:测试集=8:2,将batchsize设置为16,epoch设置为50,学习率为1e-4,每50epoch将学习率减小到原来的十分之一。在此,本发明采用dice similarity coefficient(Dice),IoUof polyp(IoUp),Smeasure(Sα)和accuracy(ACC)4个常用的评估指标作为衡量网络性能的指标。Dice,IoUp,Sα,ACC越大表示性能越好。
本发明采用Kvasir息肉数据集作为本发明的实验数据集,该数据集由1000张高分辨率白光图像组成,图像分辨率大小从332×482到1920×1072不等,为统一尺寸,本发明在训练和测试阶段将图片大小重置为352×352。
实验结果
本发明提出的网络将会与经典的息肉分割网络PraNet做对比,其中在Kvasir-SEG数据集上的测试结果如表1所示。从表1中本发明可以看出,本发明的网络在各个指标中均表现最优。
表1实验结果
Dice IoUp Sα ACC
Our 0.919 0.871 0.924 0.977
PraNet 0.897 0.841 0.917 0.967
以上所述,仅为本发明优选的具体实施方式,但本发明的保护范围不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (9)

1.一种息肉分割网络方法,其特征在于,所述方法包括:
S1获取目标图像,基于PVTv2骨干网络得到所述目标图像的四层金字塔特征;
S2将所述四层金字塔特征输入到解码器中生成目标图像粗略图;
S3在对所述四层金字塔特征输入到多尺度特征融合模块中进行卷积降维得到四个输出特征;
S4基于息肉边缘和前景信息再恢复模块和四个输出特征得到分割结果。
2.根据权利要求1所述的息肉分割网络方法,其特征在于,生成目标图像粗略图的方法具体为:
对所述四层金字塔特征X1,X2,X3,X4进行1×1的卷积操作降维,然后对于降维后的X1先上采样到原来两倍后用3×3的卷积提取特征,后与降维后的X2相拼接,拼接之后进行两倍上采样再通过一个3×3的卷积,将这个卷积结果和降维后的X3相拼接,之后将拼接结果上采样两倍再通过一个3×3卷积,将这个卷积结果和降维后的X4相拼接,最后这个拼接结果通过一个1×1的卷积降维至1维,得到目标图像粗略图
3.根据权利要求1所述的息肉分割网络方法,其特征在于,所述S3具体为:
用注意力机制将所述四层金字塔特征融合,再经过卷积降维,最终得到具有丰富多尺度信息的输出特征Fi,i∈{1,2,3,4},其中, Fi为融合后的特征,这样分别得到了四个输出F1,F2,F3,F4。
4.根据权利要求1所述的息肉分割网络方法,其特征在于,所述S4具体为:
将融合后的特征、上一层基于息肉边缘和前景信息再恢复模块的输出特征和输出图输入到当前层基于息肉边缘和前景信息再恢复模块中,首先对融合后的特征分别做三次1×1卷积得到三个结果向量,然后将S2得到的目标图像粗略与其中一个结果向量逐元素相乘,其余两个结果向量均和输出图相乘,然后将与目标图像粗略图相乘得到的结果和与输出图相乘得到的其中一个结果做差,将差值和剩下那个与输出图相乘得到的结果进行拼接;接着将拼接结果经过一个CBR的操作,将得到的结果记为CBR_1;同时,所述输出特征也会经过一个CBR的操作,将这个CBR操作得到的结果记为CBR_2;将CBR_1和CBR_2相加,相加之后还会进行一个CBR操作,最终得到第一输出结果fi,再经过一个1×1卷积降低维数到1就得到了第二输出结果mi,将第二输出结果mi经过双线性插值上采样4倍后再经过sigmoid函数得到最终的息肉分割结果。
5.根据权利要求1所述的息肉分割网络方法,其特征在于,所述方法采用损失函数做训练,所述损失函数为:
loss=wBCE+wIoU,其中wBCE为带有权重的交叉熵损失函数,wIoU为带权重的IoU损失函数。
6.一种息肉分割网络系统,其特征在于,所述系统包括:PVTv2骨干网络、多尺度特征融合模块AMFM、息肉边缘和前景信息再恢复模块IRM和解码器;所述PVTv2骨干网络用于得到目标图像的四层金字塔特征;所述解码器中用于生成目标图像粗略图;所述多尺度特征融合模块AMFM用于对输出特征进行卷积降维;所述息肉边缘和前景信息再恢复模块IRM用于生成分割结果。
7.根据权利要求5所述的息肉分割网络系统,其特征在于,所述多尺度特征融合模块AMFM,由上、中、下三个分支组成,分别接受三个输入。
8.一种电子设备,其特征在于,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行根据权利要求1-5中所述的息肉分割网络方法。
9.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-5中所述的息肉分割网络。
CN202310891778.5A 2023-07-20 2023-07-20 一种息肉分割网络方法、系统、电子设备及存储介质 Active CN116935051B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310891778.5A CN116935051B (zh) 2023-07-20 2023-07-20 一种息肉分割网络方法、系统、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310891778.5A CN116935051B (zh) 2023-07-20 2023-07-20 一种息肉分割网络方法、系统、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116935051A true CN116935051A (zh) 2023-10-24
CN116935051B CN116935051B (zh) 2024-06-14

Family

ID=88382185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310891778.5A Active CN116935051B (zh) 2023-07-20 2023-07-20 一种息肉分割网络方法、系统、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116935051B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118229681A (zh) * 2024-05-22 2024-06-21 安徽大学 结合PVT和U-Net深度学习的道路缺陷检测方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784628A (zh) * 2020-05-11 2020-10-16 北京工业大学 基于有效学习的端到端的结直肠息肉图像分割方法
CN112489061A (zh) * 2020-12-09 2021-03-12 浙江工业大学 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
CN113538313A (zh) * 2021-07-22 2021-10-22 深圳大学 一种息肉分割方法、装置、计算机设备及存储介质
CN113724276A (zh) * 2021-08-04 2021-11-30 香港中文大学(深圳) 一种息肉图像的分割方法和装置
CN113838047A (zh) * 2021-10-11 2021-12-24 深圳大学 基于内窥镜图像的大肠息肉分割方法、系统及相关组件
CN114742848A (zh) * 2022-05-20 2022-07-12 深圳大学 基于残差双重注意力的息肉图像分割方法、装置、设备及介质
CN114820635A (zh) * 2022-04-21 2022-07-29 重庆理工大学 联合注意力u形网络和多尺度特征融合的息肉分割方法
CN115018824A (zh) * 2022-07-21 2022-09-06 湘潭大学 一种基于CNN和Transformer融合的结肠镜息肉图像分割方法
CN115019047A (zh) * 2022-07-04 2022-09-06 安徽大学 多尺度特征融合的肠道镜图像分割算法
CN115439470A (zh) * 2022-10-14 2022-12-06 深圳职业技术学院 息肉图像分割方法、计算机可读存储介质及计算机设备
WO2023024701A1 (zh) * 2021-08-23 2023-03-02 山东威高宏瑞医学科技有限公司 全景内窥镜及其图像处理方法
US20230133218A1 (en) * 2022-02-28 2023-05-04 Beijing Baidu Netcom Science Technology Co., Ltd. Image segmentation method, device and medium

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784628A (zh) * 2020-05-11 2020-10-16 北京工业大学 基于有效学习的端到端的结直肠息肉图像分割方法
CN112489061A (zh) * 2020-12-09 2021-03-12 浙江工业大学 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
CN113538313A (zh) * 2021-07-22 2021-10-22 深圳大学 一种息肉分割方法、装置、计算机设备及存储介质
CN113724276A (zh) * 2021-08-04 2021-11-30 香港中文大学(深圳) 一种息肉图像的分割方法和装置
WO2023024701A1 (zh) * 2021-08-23 2023-03-02 山东威高宏瑞医学科技有限公司 全景内窥镜及其图像处理方法
CN113838047A (zh) * 2021-10-11 2021-12-24 深圳大学 基于内窥镜图像的大肠息肉分割方法、系统及相关组件
US20230133218A1 (en) * 2022-02-28 2023-05-04 Beijing Baidu Netcom Science Technology Co., Ltd. Image segmentation method, device and medium
CN114820635A (zh) * 2022-04-21 2022-07-29 重庆理工大学 联合注意力u形网络和多尺度特征融合的息肉分割方法
CN114742848A (zh) * 2022-05-20 2022-07-12 深圳大学 基于残差双重注意力的息肉图像分割方法、装置、设备及介质
CN115019047A (zh) * 2022-07-04 2022-09-06 安徽大学 多尺度特征融合的肠道镜图像分割算法
CN115018824A (zh) * 2022-07-21 2022-09-06 湘潭大学 一种基于CNN和Transformer融合的结肠镜息肉图像分割方法
CN115439470A (zh) * 2022-10-14 2022-12-06 深圳职业技术学院 息肉图像分割方法、计算机可读存储介质及计算机设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SEUNG-MIN JEONG: "Lightweight Deep Learning Model for Real-Time Colorectal Polyp Segmentation", ELECTRONICS, 30 April 2023 (2023-04-30) *
李胜: "边缘先验信息下的多类型肠道息肉图像分类网络", 《中国生物医学工程学报》, vol. 41, no. 4, 20 August 2022 (2022-08-20), pages 431 - 441 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118229681A (zh) * 2024-05-22 2024-06-21 安徽大学 结合PVT和U-Net深度学习的道路缺陷检测方法

Also Published As

Publication number Publication date
CN116935051B (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
CN113706526B (zh) 内窥镜图像特征学习模型、分类模型的训练方法和装置
CN110443842B (zh) 基于视角融合的深度图预测方法
Liu et al. 3d anisotropic hybrid network: Transferring convolutional features from 2d images to 3d anisotropic volumes
CN112150428B (zh) 一种基于深度学习的医学图像分割方法
Lee et al. Mu-net: Multi-scale U-net for two-photon microscopy image denoising and restoration
CN112308200B (zh) 神经网络的搜索方法及装置
CN114972756A (zh) 一种医学图像的语义分割方法及装置
CN116309648A (zh) 一种基于多注意力融合的医学图像分割模型构建方法
Thambawita et al. Divergentnets: Medical image segmentation by network ensemble
CN117078930A (zh) 基于边界感知和注意力机制的医学图像分割方法
CN113436173B (zh) 基于边缘感知的腹部多器官分割建模、分割方法及系统
CN111369564B (zh) 一种图像处理的方法、模型训练的方法及装置
CN116935051B (zh) 一种息肉分割网络方法、系统、电子设备及存储介质
CN116935044B (zh) 一种多尺度引导和多层次监督的内镜息肉分割方法
Shan et al. SCA-Net: A spatial and channel attention network for medical image segmentation
Liao et al. HarDNet-DFUS: An enhanced harmonically-connected network for diabetic foot ulcer image segmentation and colonoscopy polyp segmentation
CN117745745B (zh) 一种基于上下文融合感知的ct图像分割方法
CN118134952B (zh) 一种基于特征交互的医学图像分割方法
CN115223193B (zh) 一种基于病灶特征重要性的胶囊内窥镜图像病灶识别方法
CN115331024A (zh) 一种基于深度监督和逐步学习的肠道息肉检测方法
Gao A method for face image inpainting based on generative adversarial networks
CN112633260B (zh) 视频动作分类方法、装置、可读存储介质及设备
Kim et al. Infrared and visible image fusion using a guiding network to leverage perceptual similarity
CN113379606A (zh) 一种基于预训练生成模型的人脸超分辨方法
CN117522896A (zh) 基于自注意力的图像分割方法及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant