CN114972155B - 一种基于上下文信息和反向注意力的息肉图像分割方法 - Google Patents
一种基于上下文信息和反向注意力的息肉图像分割方法 Download PDFInfo
- Publication number
- CN114972155B CN114972155B CN202111650464.3A CN202111650464A CN114972155B CN 114972155 B CN114972155 B CN 114972155B CN 202111650464 A CN202111650464 A CN 202111650464A CN 114972155 B CN114972155 B CN 114972155B
- Authority
- CN
- China
- Prior art keywords
- attention
- feature
- salient region
- global
- polyp
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明涉及基于上下文信息和反向注意力的息肉图像分割方法。本发明首先输入息肉图像集中的图像,提取其显著区域的边缘特征和全局特征进行特征融合,得到含边缘信息的不同尺度特征图;其次,通过采用不同扩张率的多分支卷积和并行轴向注意对不同尺度特征图进行特征编码,得到息肉图像显著区域的上下文信息;然后,基于提取到的全局特征和息肉图像显著区域的上下文信息,通过定义的反向注意模块,得到息肉图像非显著区域的反向注意图和显著区域的注意图;最后,结合息肉显著区域的注意图和非显著区域的反向注意图进行解码优化,通过消除错误预测,得到最终的分割结果。本发明可以有效用于息肉图像分割,具有较高的分割效率和准确性。
Description
技术领域
本发明涉及一种基于上下文信息和反向注意力的息肉图像分割方法,属于计算机视觉、模式识别及医学图像应用领域。
背景技术
随着医学影像技术的发展,医学影像数据成为医疗诊断与病理分析的重要依据。而医学图像分割作为医学影像分析的重要手段,成为了必不可少的研究内容。然而由于医学图像本身具有较高的复杂性、图像对比度低、噪声变化较大、分割目标形态不规则等特点,加之隐私性导致医学图像数据集小、人工标注困难等问题,导致医学图像自动分割在效率和精度上仍然存在不足。
公知方法通常基于Unet,FCN,ResNet,transformer等网络进行改进,例如Unet++,Double Unet等,但这些方法由于未考虑息肉图像本身形态大小各异,存在多个小息肉不易分割等特点,导致会遗漏不同大小息肉,且分割结果产生破碎等问题。鉴于此,公知的息肉分割方法进行了改进,例如Debesh(<IEEE Journal of Biomedical and HealthInformatics>,2021,2029-2040)在ResUNet主干的基础上添加了残差块、SE块、ASPP块和注意力模块,能够较好地检测出较小的扁平息肉,解决息肉遗漏的问题。Wang(<ISBI>,2021,1319-1323)利用通道注意力机制融合不同分支的上下文特征,利用空间注意力机制计算相应分支的上下文权重,以实现对分割图像的上下文指导,解决息肉形态各异的问题。但是这两个公知方法都没有考虑背景中的前景信息。专利CN112907530A基于残差分支和不同卷积核的分支进行纹理增强,将纹理增强后的特征图和反向注意力处理后的特征图进行拼接融合,从而将背景信息加入特征图中,实现对伪装物体的检测。该方法是对通用图像进行分割,在息肉分割中效果并不理想。专利CN113343995A提出了反向注意模块,利用单位矩阵减去输入的逆运算来挖掘互补区域的细节,探索边界信息。该方法虽然考虑到了背景信息,但未考虑特征图中假阳性和假阴性的干扰。同时也没有充分利用浅层特征中的边缘信息。因此本发明将提取的浅层特征融合,通过边缘监督函数得到边缘特征图,以补充深层特征中缺失的边缘信息;在反向注意模块中加入显著区域向量和非显著区域向量,通过计算显著区域向量、非显著区域向量与全局特征中每个像素的相似度加权值得到显著区域注意图和非显著注意图,从而聚焦于息肉的显著区域和非显著区域;在解码优化过程中,引入上下文分支来获取显著区域注意图中的非显著信息和非显著区域注意图中的显著信息,从而发现并消除特征图中假阳性和假阴性错误预测,得到更准确的分割预测图。
发明内容
本发明提供了一种基于上下文信息和反向注意力的息肉图像分割方法,以用于有效地分割息肉图像,从而满足目前医学图像分割对精确性和复杂性的要求。
本发明的技术方案是:一种基于上下文信息和反向注意力的息肉图像分割方法:所述方法包括如下步骤:
Step1、输入息肉图像集中的图像,提取其显著区域的边缘特征和全局特征进行特征融合,得到含边缘信息的不同尺度特征图;
Step2、通过采用不同扩张率的多分支卷积和并行轴向注意对不同尺度特征图进行特征编码,得到息肉图像显著区域的上下文信息;
Step3、基于提取到的全局特征和息肉图像显著区域的上下文信息,通过定义的反向注意模块,得到息肉图像非显著区域的反向注意图和显著区域的注意图;
Step4、结合息肉图像显著区域的注意图和非显著区域的反向注意图进行解码优化,通过消除错误预测,得到最终的分割结果。
所述Step1具体如下:
首先采用Res2Net提取输入息肉图像集H={H1,H2,...Hn}五个不同层次的特征{h1,h2,h3,h4,h5},将特征按不同尺度分为浅层特征{h1,h2}和深层特征{h3,h4,h5},通过部分解码器PD=pd(h3,h4,h5)得到全局特征Ga,其中n表示息肉图像数量。
其次,对浅层特征h1和h2利用公式进行特征融合操作得到全局关系加权图Xk,其中AJ,J=j1,j2,...,jc表示全局平均池化后的特征映射,表示广播像素乘法,φ表示sigmoid函数,ω( )表示1×1卷积和ReLU函数,b表示相关学习参数。
然后,对全局关系加权图Xk进行卷积得到边缘特征图,通过标准二元交叉熵损失函数测量特征图Xk中的边缘与Ground Truth导出的边缘之间的差异性,得到边缘特征图He。
最后,将边缘特征图He与深层特征通道连接进行卷积操作后得到含边缘信息的不同尺度特征图XEe,其中e=3,4,5。
所述Step3、Step4具体如下:
首先,基于全局特征Ga和由Step2得到的不同尺度上下文信息其中l=3,4,5,对第l层上下文信息进行处理。当l=4,5时全局特征为上一层的预测分割图,令Ma=1-Ga表示非显著区域图Ma,通过计算得到非显著区域向量与全局特征Ga的每个像素的相似度,通过计算得到显著区域向量与全局特征Ga的每个像素的相似度,其中ρ( ),θ( )表示逐点卷积,表示的s个像素。
然后,基于得到的加权后的非显著区域反向注意图和显著区域注意图通过包含不同卷积核的卷积和扩张卷积的上下文分支、卷积、归一化和ReLu提取显著区域注意图中的非显著信息和非显著区域注意图中的显著信息,对上一层预测分割结果,利用元素减法得到去除了显著区域注意图中非显著信息的特征图利用元素加法得到增强了非显著区域注意图中显著信息的特征图
本发明的有益效果是:
1、公知的边缘特征提取方法仅处理图像浅层特征的第二层,未利用其他的浅层特征,导致边缘特征图信息不全,具有局限性。本发明通过提取息肉图像显著区域的边缘特征和全局特征进行特征融合,能够获得更加准确的边缘特征图。
2、公知的分割方法大多数通过提取深层特征,而不是利用浅层特征中的边缘特征获得息肉上下文信息,导致分割结果中出现部分息肉的遗漏。本发明融合深层特征和边缘特征,得到包含更多边缘信息的息肉上下文信息,提高后续息肉分割的准确率。
3、公知的分割方法通常只对显著区域采用注意力机制,提取分割目标显著特征,未考虑特征图中假阳性和假阴性的干扰。本发明通过结合显著注意力图和非显著注意力图,发现并消除特征图中假阳性和假阴性错误预测,得到最终的分割结果,解决了假阳性和假阴性对分割结果的干扰问题,使得分割结果具有较高的准确率。
附图说明
图1为本发明的流程图;
图2为本发明的含边缘信息的不同尺度特征提取示例图;
图3为本发明的注意结果实例图;
图4为本发明的解码及优化结果实例图;
图5为本发明的分割结果实例图。
具体实施方式
实施例1:如图1-图5所示,一种基于上下文信息和反向注意力的息肉图像分割方法,包括如下步骤:
Step1、输入息肉图像集中的图像,提取其显著区域的边缘特征和全局特征进行特征融合,得到含边缘信息的不同尺度特征图;
Step2、通过采用不同扩张率的多分支卷积和并行轴向注意对不同尺度特征图进行特征编码,得到息肉图像显著区域的上下文信息;
Step3、基于提取到的全局特征和息肉图像显著区域的上下文信息,通过定义的反向注意模块,得到息肉图像非显著区域的反向注意图和显著区域的注意图;
Step4、结合息肉图像显著区域的注意图和非显著区域的反向注意图进行解码优化,通过消除错误预测,得到最终的分割结果。
进一步地,可设置,所述Step1具体如下:
首先采用Res2Net提取输入息肉图像集H={H1,H2,...Hn}五个不同层次的特征{h1,h2,h3,h4,h5},将特征按不同尺度分为浅层特征{h1,h2}和深层特征{h3,h4,h5},通过部分解码器PD=pd(h3,h4,h5)得到全局特征Ga,其中n表示息肉图像数量。
其次,对浅层特征h1和h2利用公式进行特征融合操作得到全局关系加权图Xk,其中AJ,J=j1,j2,...,jc表示全局平均池化后的特征映射,表示广播像素乘法,φ表示sigmoid函数,ω( )表示1×1卷积和ReLU函数,b表示相关学习参数。
然后,对全局关系加权图Xk进行卷积得到边缘特征图,通过标准二元交叉熵损失函数测量特征图Xk中的边缘与Ground Truth导出的边缘之间的差异性,得到边缘特征图He。
最后,将边缘特征图He与深层特征通道连接进行卷积操作后得到含边缘信息的不同尺度特征图XEe,其中e=3,4,5。
进一步地,可设置,所述Step3、Step4具体如下:
首先,基于全局特征Ga和由Step2得到的不同尺度上下文信息,其中l=3,4,5,对第l层上下文信息进行处理。当l=4,5时全局特征为上一层的预测分割图,令Ma=1-Ga表示非显著区域图Ma,通过计算得到非显著区域向量与全局特征Ga的每个像素的相似度,通过计算得到显著区域向量与全局特征Ga的每个像素的相似度,其中ρ( ),θ( )表示逐点卷积,表示的s个像素。
然后,基于得到的加权后的非显著区域反向注意图和显著区域注意图通过包含不同卷积核的卷积和扩张卷积的上下文分支、卷积、归一化和ReLu提取显著区域注意图中的非显著信息和非显著区域注意图中的显著信息,对上一层预测分割结果,利用元素减法得到去除了显著区域注意图中非显著信息的特征图利用元素加法得到增强了非显著区域注意图中显著信息的特征图
实施例2:如图1-图5所示,一种基于上下文信息和反向注意力的息肉图像分割方法,包括:
Step1、如图2所示,输入息肉图像集H={H1,H2,...Hn}中的一幅原始图像(a1);采用Res2Net提取五个不同层次的特征{h1,h2,h3,h4,h5},将特征按不同尺度分为浅层特征{h1,h2},深层特征{h3,h4,h5},深层特征可视化结果以特征h5为例,见图2(a3),通过部分解码器PD=pd(h3,h4,h5)得到全局特征图Ga,其中n表示息肉图像数量。
其次,如图2中(a1)~(a2)所示,对浅层特征h1和h2利用公式进行特征融合操作得到全局关系加权图Xk,其中AJ,J=j1,j2,...,jc表示全局平均池化后的特征映射,表示广播像素乘法,φ表示sigmoid函数,ω( )表示1×1卷积和ReLU函数,b表示相关学习参数。
然后,对全局关系加权图Xk进行1×1卷积得到边缘特征图,通过标准二元交叉熵损失函数测量特征图Xk中的边缘与Ground Truth(即真实值)导出的边缘之间的差异性,定义损失函数的公式为:
其中Ledge表示边缘损失函数,(x,y)表示预测的边缘特征图和边缘真实值中每个像素的坐标,Ge表示Ground Truth导出的边缘图,如图2中(a4)所示,Se表示预测边缘图。利用该损失函数监督加权图Xk,得到边缘特征图He,结果如图2(a2)所示。
最后,将边缘特征图He与深层特征通道连接进行二维卷积操作后得到含边缘信息的不同尺度特征图XEe,见图2(a5),其中e=3,4,5。
经过Step1后,可以得到含边缘信息的不同尺度特征图(a5)。具体流程图如图2所示。本实例的数据集选自公开数据集CVC-300,CVC-ClinicDB,CVC-ColonDB,ETIS-LaribPolypDB,Kvasir中的息肉图像,经过水平和垂直轴上的随机翻转,图像从0.75到1.25的随机缩放和0度到359度进行随机旋转,其中80%用于训练,10%用于验证,10%用于测试,利用Pytorch进行实验,Step1实验结果如图2(a5)所示。
Step2、首先通过多分支卷积层和膨胀卷积层得到每个尺度特征图XEe的三个不同尺度信息,其中多分支卷积层包括四个分支,一个分支是1×1卷积层,另外三个分支提取不同尺度的信息,用1×r加r×1代替r×r卷积层,r=[3,5,7],三个分支后连接的膨胀卷积层的核大小为3×3,扩张率分别为3,5,7。
然后在三个分支后分别连接一个轴向注意网络,以提取不同尺度的全局信息,得到每个特征图XEe细化的不同尺度信息。
最后将细化的不同尺度信息通过一个3×3卷积和一个1×1卷积进行融合,得到不同尺度的息肉图像显著区域的上下文信息。
Step3-Step4、首先,基于由Step1得到的全局特征Ga和由Step2得到的不同尺度上下文信息其中l=3,4,5,对第l层上下文信息进行处理。当l=4,5时全局特征为上一层的预测分割图,令Ma=1-Ga表示非显著区域图Ma,通过计算得到非显著区域向量与全局特征Ga的每个像素的相似度,通过计算得到显著区域向量与全局特征Ga的每个像素的相似度,其中ρ( ),θ( )表示逐点卷积,表示的s个像素。
然后,基于得到的加权后的非显著区域反向注意图和显著区域注意图分别通过四个上下文分支,每个分支包括一个用于信道缩减的3×3卷积,一个用于局部特征提取的cq×cq卷积和一个具有上下文感知能力的不同扩张率的3×3扩张卷积;在每次卷积之后进行归一化和ReLU非线性操作,同时第q个分支的输出馈入第(q+1)个分支;将四个分支的输出通过3×3卷积进行级联和融合,得到显著区域注意图中的非显著信息(图4(b3)~(d3))和非显著区域注意图中的显著信息(图4(b4)~(d4)),其中q表示第q个分支,q∈{1,2,3,4}时,cq∈{1,3,5,7},扩张率分别为1,2,4,8。
将本发明与其他公知方法,如U-Net、PraNet在CVC-ClinicDB数据集下进行对比,比较结果见表1,其中mean IOU(mIOU)表示平均交并比,mIOU是预测真实值和预测分割图两个集合的交集和并集之比。其计算方法如下:其中TP表示预测正确,预测结果正确;FN表示预测错误,预测结果错误;FP表示预测错误,预测结果错误;FN表示预测正确,预测结果错误。mean Dice(mDice)计算方法如下:
表1为本发明与现有方法性能比较结果
方法 | Mean IOU | Mean Dice |
U-Net | 0.746 | 0.818 |
PraNet | 0.849 | 0.899 |
本发明方法 | 0.864 | 0.913 |
从表1可以看出采用本发明的分割方法的mean IOU和mean Dice比其他几种方法高,即分割效果相对较好。
如表2所示,将本发明方法与公知方法,如U-Net、PraNet在分割时间上进行对比。从表2可以看出采用本发明的分割方法的分割时间比其他几种方法少,即分割效率相对较高。
表2为本发明与现有方法分割时间对比结果
综上,本发明方法较相关的公知的方法来说,具有较高的分割准确率和效率。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (2)
1.一种基于上下文信息和反向注意力的息肉图像分割方法,其特征在于:包括如下步骤:
Step1、输入息肉图像集中的图像,提取其显著区域的边缘特征和全局特征进行特征融合,得到含边缘信息的不同尺度特征图;
Step2、通过采用不同扩张率的多分支卷积和并行轴向注意对不同尺度特征图进行特征编码,得到息肉图像显著区域的上下文信息;
Step3、基于提取到的全局特征和息肉图像显著区域的上下文信息,通过定义的反向注意模块,得到息肉图像非显著区域的反向注意图和显著区域的注意图;
Step4、结合息肉图像显著区域的注意图和非显著区域的反向注意图进行解码优化,通过消除错误预测,得到最终的分割结果;
所述Step3和Step4具体过程如下:
首先,基于全局特征Ga和由Step2得到的不同尺度上下文信息其中l=3,4,5,对第l层上下文信息进行处理;当l=4,5时全局特征为上一层的预测分割图,令Ma=1-Ga表示非显著区域图Ma,通过计算得到非显著区域向量与全局特征Ga的每个像素的相似度,通过计算得到显著区域向量与全局特征Ga的每个像素的相似度,其中ρ( ),θ( )表示逐点卷积,表示的s个像素;
然后,基于得到的加权后的非显著区域反向注意图和显著区域注意图通过包含不同卷积核的卷积和扩张卷积的上下文分支、卷积、归一化和ReLu提取显著区域注意图中的非显著信息和非显著区域注意图中的显著信息,对上一层预测分割结果利用元素减法得到去除了显著区域注意图中非显著信息的特征图利用元素加法得到增强了非显著区域注意图中显著信息的特征图
2.根据权利要求1所述的基于上下文信息和反向注意力的息肉图像分割方法,其特征在于:所述Step1具体过程如下:
首先采用Res2Net提取输入息肉图像集H={H1,H2,...Hn}五个不同层次特征{h1,h2,h3,h4,h5},将特征按不同尺度分为浅层特征{h1,h2}和深层特征{h3,h4,h5},通过部分解码器PD=pd(h3,h4,h5)得到全局特征Ga,其中n表示息肉图像数量;
其次,对浅层特征h1和h2利用公式进行特征融合操作,得到全局关系加权图Xk,其中AJ,J=j1,j2,...,jc表示全局平均池化后的特征映射,表示广播像素乘法,φ表示sigmoid函数,ω( )表示1×1卷积和ReLU函数,b表示相关学习参数;
然后,对全局关系加权图Xk进行卷积得到边缘特征图,通过标准二元交叉熵损失函数测量全局关系加权图Xk中的边缘与Ground Truth导出的边缘之间的差异性,得到边缘特征图He;
最后,将边缘特征图He与深层特征通道连接进行卷积操作后得到含边缘信息的不同尺度特征图XEe,其中e=3,4,5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111650464.3A CN114972155B (zh) | 2021-12-30 | 2021-12-30 | 一种基于上下文信息和反向注意力的息肉图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111650464.3A CN114972155B (zh) | 2021-12-30 | 2021-12-30 | 一种基于上下文信息和反向注意力的息肉图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114972155A CN114972155A (zh) | 2022-08-30 |
CN114972155B true CN114972155B (zh) | 2023-04-07 |
Family
ID=82975205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111650464.3A Active CN114972155B (zh) | 2021-12-30 | 2021-12-30 | 一种基于上下文信息和反向注意力的息肉图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114972155B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116129127A (zh) * | 2023-04-13 | 2023-05-16 | 昆明理工大学 | 一种结合尺度特征和纹理滤波的视网膜血管分割方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489061A (zh) * | 2020-12-09 | 2021-03-12 | 浙江工业大学 | 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法 |
CN113538313A (zh) * | 2021-07-22 | 2021-10-22 | 深圳大学 | 一种息肉分割方法、装置、计算机设备及存储介质 |
CN113724276A (zh) * | 2021-08-04 | 2021-11-30 | 香港中文大学(深圳) | 一种息肉图像的分割方法和装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4066207A4 (en) * | 2019-12-31 | 2023-01-25 | Shanghai United Imaging Healthcare Co., Ltd. | SYSTEMS AND METHODS FOR IMAGE PROCESSING |
CN111612807B (zh) * | 2020-05-15 | 2023-07-25 | 北京工业大学 | 一种基于尺度和边缘信息的小目标图像分割方法 |
CN112508864B (zh) * | 2020-11-20 | 2022-08-02 | 昆明理工大学 | 基于改进UNet++的视网膜血管图像分割方法 |
CN112651981B (zh) * | 2020-12-23 | 2024-04-19 | 浙江工业大学 | 一种显著边缘特征提取模块引导网络的肠道疾病分割方法 |
CN113343995A (zh) * | 2021-05-07 | 2021-09-03 | 西安智诊智能科技有限公司 | 一种基于反向注意力网络的图像分割方法 |
CN113313162A (zh) * | 2021-05-25 | 2021-08-27 | 国网河南省电力公司电力科学研究院 | 一种多尺度特征融合目标检测的方法及系统 |
-
2021
- 2021-12-30 CN CN202111650464.3A patent/CN114972155B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489061A (zh) * | 2020-12-09 | 2021-03-12 | 浙江工业大学 | 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法 |
CN113538313A (zh) * | 2021-07-22 | 2021-10-22 | 深圳大学 | 一种息肉分割方法、装置、计算机设备及存储介质 |
CN113724276A (zh) * | 2021-08-04 | 2021-11-30 | 香港中文大学(深圳) | 一种息肉图像的分割方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114972155A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Bilateral attention network for RGB-D salient object detection | |
CN108647585B (zh) | 一种基于多尺度循环注意力网络的交通标识符检测方法 | |
Zhang et al. | Memory-oriented decoder for light field salient object detection | |
CN112132156B (zh) | 多深度特征融合的图像显著性目标检测方法及系统 | |
CN110210539B (zh) | 多级深度特征融合的rgb-t图像显著性目标检测方法 | |
CN111797841B (zh) | 一种基于深度残差网络的视觉显著性检测方法 | |
CN111612008A (zh) | 基于卷积网络的图像分割方法 | |
CN112712528B (zh) | 一种多尺度u型残差编码器与整体反向注意机制结合的肠道病灶分割方法 | |
CN110020658B (zh) | 一种基于多任务深度学习的显著目标检测方法 | |
CN110866938B (zh) | 一种全自动视频运动目标分割方法 | |
CN111932577B (zh) | 文本检测方法、电子设备及计算机可读介质 | |
Zhou et al. | Tunnel crack detection with linear seam based on mixed attention and multiscale feature fusion | |
CN111242181B (zh) | 基于图像语义和细节的rgb-d显著性物体检测器 | |
Chen et al. | Dr-tanet: Dynamic receptive temporal attention network for street scene change detection | |
CN109657538B (zh) | 基于上下文信息指导的场景分割方法和系统 | |
CN112233129A (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN114972155B (zh) | 一种基于上下文信息和反向注意力的息肉图像分割方法 | |
CN114821350A (zh) | 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 | |
CN114998756A (zh) | 一种基于yolov5的遥感图像检测方法、装置及存储介质 | |
CN115457385A (zh) | 一种基于轻量级网络的建筑物变化检测方法 | |
Chen et al. | A robust object segmentation network for underwater scenes | |
CN110969128A (zh) | 一种基于多特征融合的海面背景下红外船舰的检测方法 | |
CN115830420A (zh) | 一种基于边界可变形卷积引导的rgb-d显著性目标检测方法 | |
CN112529081A (zh) | 基于高效注意力校准的实时语义分割方法 | |
CN117557807B (zh) | 基于加权滤波增强的卷积神经网络图像预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |