CN115393283A - 一种基于浅层监督和反馈注意力的息肉图像分割方法 - Google Patents
一种基于浅层监督和反馈注意力的息肉图像分割方法 Download PDFInfo
- Publication number
- CN115393283A CN115393283A CN202210920701.1A CN202210920701A CN115393283A CN 115393283 A CN115393283 A CN 115393283A CN 202210920701 A CN202210920701 A CN 202210920701A CN 115393283 A CN115393283 A CN 115393283A
- Authority
- CN
- China
- Prior art keywords
- polyp
- segmentation
- attention
- feature
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于浅层监督和反馈注意力的息肉图像分割方法,其特点是采用边缘提取模块和反馈注意力模块,通过对卷积神经网络中浅层特征和深层特征的充分利用,有效地检测出复杂息肉和奇异息肉,具体包括:数据集的预处理、网络整体框架的构建、边缘特征的提取与监督、高级语义特征的筛选与过滤和网络模型的训练和使用等步骤。本发明与现有技术相比具有充分利用了息肉的浅层信息和深层语义信息,缓解了息肉边缘模糊和形态复杂的分割难点,实现了结肠镜息肉图像的自动分割,进一步提升模型的性能和泛化能力,尤其在一些复杂的情况下都能达到很好的分割效果,具有广泛且良好的应用前景。
Description
技术领域
本发明涉及医学图像分割技术领域,尤其涉及一种基于浅层监督和反馈注意力的息肉图像分割方法。
背景技术
近年来,结直肠癌已上升成为世界上第三大常见的癌症类型,并且它的死亡率在所有癌症中位居第二。大多数的结直肠癌开始于结肠或直肠内壁上的息肉,所以使用光学结肠镜检查对息肉进行早期检测对预防和及时治疗结直肠癌至关重要。对息肉区域进行检测就需要通过分割技术将息肉区域分割出来,准确的分割结果可以帮助医生快速定位息肉并进行更好的诊断。
当前,常用的息肉图像分割方法包括有人工分割、半自动分割以及全自动分割三种。人工分割的结果最为准确,但是该方法很大程度上依赖于医生的经验,并且分割的过程耗时耗力,效率低,可重复性差。半自动分割是一种通过人机交互操作来进行分割的方法,医生可以给予计算机一些有效的信息来帮助计算机来进行分割处理,半自动分割技术同样需要依赖于医生的经验和水平。相比于人工分割和半自动分割,全自动分割方式不仅可以提高分割的效率,同样可以达到很高的准确率,并且在分割的过程中不需要医生的直接参与。早期的全自动分割方法依赖于手工制作的特征,如颜色、形状和纹理,来对图像进行处理。但是在一些复杂的情况下还是会有较高的漏检率。
近些年来,人工智能方法逐渐成为息肉分割方法中研究的新趋势,相比于传统的手工特征设计方法,卷积神经网络可以自动地学习图像的特征。早期的一些方法通过全卷积神经网络结合条件随机场来进行息肉图像分割,但这类方法的结果依然存在一些局限性。当前主流的基于深度学习的息肉分割方法基本都是端到端的分割网络。
Yuqi Fang等人在其发表的论文“Selective Feature Aggregation Networkwith Area-Boundary Constraints for Polyp Segmentation”中提出了选择性特征聚合网络,它采用了一个共享编码器分支和两个相互制约的解码器,分别预测息肉的面积和边界,该方法在一些较小的息肉分割中效果不佳,并且该方法的泛化性能较差。Deng-PingFan等人在其发表的论文“PraNet:Parallel Reverse Attention Network for PolypSegmentation.”(Medical Image Computing and Computer Assisted Intervention2020pp263–273)中提出了一种平行反向注意网络。网络通过反向注意模块利用了区域和边界线索来提升了息肉图像分割的结果,但是该方法只使用了深层特征而忽略了浅层的特征的使用,在一些复杂的情况下无法达到很好的分割效果。
发明内容
本发明的目的是针对现有技术的不足而提出的一种基于浅层监督和反馈注意力的息肉图像分割方法,采用边缘提取模块获取浅层特征的边缘信息以辅助模型学习的方法,对卷积神经网络中浅层特征进行充分利用,以及利用反馈注意力模块通过级联特征聚合注意力门控模块和多尺度模块来迭代过滤高级语义信息,强化复杂息肉的重要特征,并使用多尺度模块来捕捉不同尺寸的息肉,实现结肠镜息肉图像的自动分割,训练过程中采用的多层级深层监督可以帮助模型来分割出不同尺寸大小的息肉目标,可以有效地检测出复杂息肉和奇异息肉,大大提高了分割工作的效率,方法简便,分割效果好,较好解决了息肉分割任务往往有着边缘模糊和形态复杂两大难题,尤其在一些复杂的情况下都能达到很好的分割效果以及泛化性能,具有广泛且良好的应用前景。
实现本发明目的的具体技术方案是:一种基于浅层监督和反馈注意力的息肉图像分割方法,其特点是采用边缘提取模块,通过对卷积神经网络中浅层特征的充分利用,有效地检测出复杂息肉和奇异息肉,训练过程中采用的多层级深层监督可以帮助模型来分割出不同尺寸大小的息肉目标,息肉图像的分割具体包括下述步骤:
步骤S1:数据集的预处理
选择现有的结肠镜息肉分割数据集,对数据集中所划分的训练数据进行图像增强,具体操作包括:随机裁剪、随机水平翻转、随机垂直翻转和随机缩放。同时,通过标签分割图来获取息肉的边缘图,作为边缘标签图。
步骤S2:网络整体框架的构建
网络整体设计为编码器-解码器架构,编码器选取ResNeSt作为骨干特征提取网络,用于提取出五个层级的特征f1~f5;解码器中将使用双线性插值的方法将特征图恢复成与输入图分辨率大小一致的输出图。其中,f1和f2将作为浅层特征图,f3~f5为深层特征图。
步骤S3:边缘特征的提取与监督
对步骤S2所提取的浅层特征,在编码器-解码器架构的跳跃连接部分,使用边缘提取模块来获取其边缘信息,并与步骤S1中所获取的边缘标签信息来构造监督,所述监督使用的损失函数为二值交叉熵损失。
步骤S4:高级语义特征的筛选与过滤
对步骤S2中所提取的深层特征,在编码器-解码器架构的跳跃连接部分,使用反馈注意力模块对其进行过滤,强化含有息肉信息的部分,该模块通过级联特征聚合注意力门控模块和多尺度模块来实现。
步骤S5:网络模型的训练和使用
使用步骤S1的训练数据集对步骤S2~S4中所构造的网络结构进行训练,并采用深层多级监督来辅助早期特征的学习,在训练的过程中保存在验证数据集上效果最好的模型,并使用保存的模型来进行息肉的分割,所述使用保存的模型进行息肉的分割是将待分割的结肠镜息肉图像送入保存的模型中,通过神经网络的处理,可以获得息肉分割结果图,有效地检测出复杂息肉和奇异息肉。
本发明与现有技术相比具有以下有益的技术效果和显著的技术进步:
1)充分利用了息肉图像的先验信息,针对卷积神经网络所提取出的浅层信息进行了进一步的利用,通过监督边缘提取模块的输出来辅助息肉图像的早期学习,一定程度上缓解了息肉图像中息肉边缘模糊的分割难点。
2)采用ResNeSt作为骨干特征提取网络,结合了多支路设计和特征注意力,通过该结构可以有效的提取去息肉图像中强大且鲁棒的特征表示,进一步提升模型的性能和泛化能力。
3)对卷积神经网络所提取的息肉深层语义信息进行了充分的过滤和整合,使用反馈注意力模块,不仅可以进一步细化识别复杂形态的息肉,并且可以通过多尺度模块帮助模型去识别不同尺寸的息肉。
附图说明
图1为本发明构建的网络模型示意图;
图2为边缘提取模块示意图;
图3为反馈注意力模块示意图;
图4为分割效果对比示意图。
具体实施方式
参阅图1,本发明按下述步骤进行结肠镜息肉图像的分割:
步骤S1:数据集的预处理
选择现有的结肠镜息肉分割数据集,对数据集中所划分的训练数据进行图像增强,具体操作包括:随机裁剪、随机水平翻转、随机垂直翻转和随机缩放。同时,通过标签分割图来获取息肉的边缘图,作为边缘标签图。
步骤S2:网络整体框架的构建
网络整体设计为编码器-解码器架构,编码器选取ResNeSt作为骨干特征提取网络,用于提取出五个层级的特征f1~f5。其中,f1和f2将作为浅层特征图,f3~f5将作为深层特征图。解码器中将使用双线性插值的方法将特征图恢复成与输入图分辨率大小一致的输出图。
步骤S3:边缘特征的提取与监督
对步骤S2所提取的浅层特征图,在编码器-解码器架构的跳跃连接部分,使用边缘提取模块来获取其边缘信息,并与步骤S1中所获取的边缘标签信息来构造监督,监督使用的损失函数为二值交叉熵损失。
步骤S4:高级语义特征的筛选与过滤
对步骤S2中所提取的深层特征图,在编码器-解码器架构的跳跃连接部分,使用反馈注意力模块对其进行过滤,强化含有息肉信息的部分,该模块通过级联特征聚合注意力门控模块和多尺度模块来实现。
步骤S5:网络模型的训练和使用
使用经过步骤S1的训练数据集对步骤S2~S4中所构造的网络结构进行训练,并采用深层多级监督来辅助早期特征的学习,在训练的过程中保存在验证数据集上效果最好的模型,并使用保存的模型来进行息肉的分割。
所述边缘提取模块将采用浅层特征拼接融合的方式来融合两个浅层特征图,两个特征图首先通过3x3的卷积层来调整通道数,之后使用双线性插值的上采样方法,将两个特征图的分辨率提升到与输入图像一样的尺寸,最后通过1x1卷积层将融合特征图的通道数降为1,获取最终的边缘预测图。
所述反馈注意力模块通过级联特征聚合注意力门控模块和多尺度模块组成,反馈注意力模块的输入包括当前层次的特征图和上一级层次的特征图,其输出将重新作为输入再一次注入到模块本体中,通过指定次数的反馈循环,最终传播到网络的解码器中。
所述级联特征聚合注意力门控模块获取两个输入特征图,并通过1x1卷积来获取两个单通道特征表示图,之后将这两个单通道图进行拼接,进入通道层级的全连接操作以及Sigmoid激活函数,获取取值范围在0到1之间的注意力特征图,注意力图对输入特征图进行过滤,来进一步突出息肉的区域。
以下通过具体实施例对本发明作进一步的说明:
实施例1
步骤S1:数据集的预处理
本实施例选择2017年公开的胃肠道息肉图像分割数据集Kvasir-SEG来构建训练样本集、验证样本集以及测试样本集。Kvasir-SEG数据集包含1000张分辨率在332x487到1920x1072像素之间的结肠镜息肉图像,这些图像是包含了红(R)、绿(G)、蓝(B)三个通道的彩色图像。数据集中还有1000张标注图像,这些标注图像是单通道的二值图,标注图像和息肉图像一一对应。随机选择800张图片作为训练数据集,100张图片作为验证数据集,剩下的100张图片作为测试数据集。
对训练集中的原始图像和标注图像进行数据预处理,对相对应的两个图像进行调整尺寸、随机裁剪、随机水平翻转、随机垂直翻转以及随机缩放操作,增强了训练样本数据集的多样性。针对增强后的标注图像,使用Canny算子边缘检测方法来获取边缘标签图像。
步骤S2:网络整体框架的构建
参阅附图1,网络结构设计整体呈现为编码器-解码器架构。使用在ImageNet数据集上进行预训练的ResNeSt作为编码器,去掉ResNeSt-50中最后的全连接层和池化层,其余部分与原始网络一致,编码器提取出五个层级的特征f1~f5。其中,f1和f2将作为浅层特征图,f3~f5将作为深层特征图。在解码器部分,使用卷积操作联合双线性插值来逐步恢复特征图至与输入图分辨率一致。
步骤S3:边缘特征的提取与监督。
参阅图1~图2,本发明中的边缘提取模块作用于步骤S1中所提取的浅层特征f1和f2。
对浅层特征图f2,需要先通过上采样操作,获取与浅层特征图f1一样大小的分辨率。两个特征图分别使用3x3卷积进行通道调整并将两者进行融合,之后使用上采样操作获取与原始输入图像一样大小分辨率的特征图,最后通过1x1卷积将通道数将到1,获取最终的边缘预测图。该预测图将与边缘标签图来构造监督,此处使用的损失函数为二值交叉熵损失。
步骤S4:高级语义特征的筛选与过滤
参阅图1和图3,本发明中的反馈注意力模块作用于步骤S1中所提取的深层特征f3~f5。
本实施例网络中共包含两个反馈注意力模块,其中一个的输入来自f4和f5,另一个的输入来自f3和f4。反馈注意力模块通过级联特征聚合注意力门控模块和多尺度模块构成。
所述反馈注意力模块的输入包括当前层次的特征图和上一级层次的特征图,其输出将重新作为输入再一次注入到模块本体中,通过指定次数的反馈循环(本实施例中循环次数设置为3),循环后最终的输出结果将传播到网络的解码器中。
具体来说,进入特征聚合注意力门控模块的两个输入先各自通过1x1卷积来获取两个单通道特征表示图,作为两者的特征表示。将这两个单通道图进行特征融合,并使用通道层级的全连接操作进行扩展与聚合,来获取单通道的特征表示。之后,使用Sigmoid激活函数对该单通道特征图进行注意力激活,获取取值范围在0到1之间的注意力特征图,最后使用注意力图对输入特征图进行筛选与过滤,可以进一步突出息肉的区域。
步骤S5:网络模型的训练和使用
在训练网络时使用Adam优化器,优化器参数设置为:β1=0.9,β2=0.999,初始学习率l=0.001,学习率衰减采用指数衰减策略,衰减的底数gamma设置为0.99,训练时设置的批大小为16。编码器的初始参数为经过ImageNet预训练的参数,其余组件的初始参数均使用Kaiming初始化。本实例使用一张英伟达公司的GeForce RTX 3090显卡进行训练,训练的周期为100次,训练过程中采用了早停策略。
本实施例包含的损失函数包括两大部分,分别为边缘监督损失和多级分割损失,所述边缘监督损失函数Ledge采用下述(a)式表示的二值交叉熵损失函数:
Ledge=-[y·logx+(1-y)·log(1-x)] (a)。
其中,y为标签值;x为预测结果;
所述多级分割损失函数Lseg由二值交叉熵损失LBCE和交并比损失LIoU构成,且由下述(b)式表示为:
Lseg=LIoU+λ·LBCE (b)。
其中,λ为二值交叉熵损失的权重,本实施例中λ=1。多级损失函数由解码器过程中的三个分割损失构成,所以最后的整体损失函数Ltotal将由下述(c)式表示为:
其中,Gseg为分割标签图;Pi为第3层的分割结果图。
本实施例使用Dice系数(Dice)、交并比(IoU)、精准度(Precision)和召回率(Recall)四个常用的评估指标对息肉分割模型的性能进行量化分析。
所述Dice系数(Dice)由下述(d)式进行计算:
所述交并比(IoU)由下述(e)式进行计算:
所述精准度(Precision)由下述(f)式进行计算:
所述召回率(Recall)由下述(g)式进行计算:
其中,TP为被模型预测为正类的正样本;FP为被模型预测为正类的负样本;FN为被模型预测为负类的正样本。
根据上述过程进行训练,并保存在验证集中表现最好的模型作为最佳模型。将待分割的结肠镜息肉图像送入上述训练得到的最佳网络模型中,经过神经网络的处理,可以获得息肉分割结果图。
参阅图4,将本发明所构建的神经网络与其他息肉分割网络UNet、ResUNet++、HarDNet-MSEG进行定性和定量的对比,可以发现本发明对小型息肉和复杂形状息肉的分割效果最佳,定量的息肉分割对比详见下述表1:
表1息肉分割对比
由上表可得,本发明所构建的网络在Dice系数(Dice)、交并比(IoU)和精准度(Precision)、召回率(Recall)四个常用的评估指标均优于其他模型。
以上的实施例对本发明所提出的一种基于浅层监督和反馈注意力的息肉图像分割方法进行了详细介绍。根据本发明的主体架构,本领域研究人员在实施策略和应用数据上会有改变,例如替换不同的编码器来提取特征等。综上所述,本说明书并不用以限制本发明,凡在本发明的精神和原则之内,所作的修改与改进均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于浅层监督和反馈注意力的结肠镜息肉图像分割方法,其特征在于结肠镜息肉图像的分割具体包括下述步骤:
步骤S1:数据集的预处理
选择现有的结肠镜息肉分割数据集,对数据集中所划分的训练数据进行图像增强,并通过标签分割图获取息肉的边缘图,作为边缘标签图,所述图像增强具体包括:随机裁剪、随机水平翻转、随机垂直翻转和随机缩放;
步骤S2:网络整体框架的构建
网络采用编码器-解码器架构,并以编码器选取ResNeSt为骨干特征提取网络,用于提取f1~f5五个层级的特征图,所述解码器使用双线性插值的方法将编码器提取的特征图恢复成与输入图分辨率一致的输出图;所述f1~f5五个层级的特征图,其中f1和f2为浅层特征图;f3~f5为深层特征图;
步骤S3:边缘特征的提取与监督
在编码器-解码器架构的跳跃连接部分,使用边缘提取模块对浅层特征图f1和f2获取息肉的边缘信息,并将其与边缘标签图使用损失函数为二值交叉熵损失构造监督;
步骤S4:高级语义特征的筛选与过滤
在编码器-解码器架构的跳跃连接部分,使用反馈注意力模块对深层特征图f3、f4和f5进行过滤,强化含有息肉的区域;
步骤S5:网络模型的训练和使用
使用步骤S1的训练数据集对构建的网络结构进行训练,采用深层多级监督辅助早期特征的学习,在训练的过程中保存在验证数据集上效果最好的模型,并使用保存的模型进行息肉的分割。
2.根据权利要求1所述的基于浅层监督和反馈注意力的息肉图像分割方法,其特征在于所述步骤S3中的边缘提取模块将浅层特征图f1和f2按下述步骤进行拼接融合:
1)将两特征图通过3x3的卷积层调整通道数;
2)使用双线性插值的上采样方法,将两特征图的分辨率提升到与输入图像一样的尺寸;
3)通过1x1卷积层将融合特征图的通道数降为1,并使用Sigmoid函数获取边缘预测图。
3.根据权利要求1所述的基于浅层监督和反馈注意力的息肉图像分割方法,其特征在于,所述步骤S4中的反馈注意力模块由级联特征聚合注意力门控模块和多尺度模块组成,所述反馈注意力模块的输入包括当前层次的特征图和上一级层次的特征图,其输出将重新作为输入再一次注入到模块本体中,并通过指定次数的反馈循环,最终传播到网络的解码器中;所述级联特征聚合注意力门控模块将获取的当前层次和上一级层次的两个输入特征图,通过1x1卷积获取两个单通道特征表示图,并将其拼接后进入通道层级的全连接操作以及Sigmoid激活函数,获得取值范围在0到1之间的注意力特征图对输入特征图进行过滤,以进一步突出息肉的区域。
4.根据权利要求1所述的基于浅层监督和反馈注意力的息肉图像分割方法,其特征在于所述使用保存的模型进行息肉的分割是将待分割的结肠镜息肉图像送入保存的模型中,通过神经网络的处理,获得息肉分割结果图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210920701.1A CN115393283A (zh) | 2022-08-02 | 2022-08-02 | 一种基于浅层监督和反馈注意力的息肉图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210920701.1A CN115393283A (zh) | 2022-08-02 | 2022-08-02 | 一种基于浅层监督和反馈注意力的息肉图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393283A true CN115393283A (zh) | 2022-11-25 |
Family
ID=84119146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210920701.1A Pending CN115393283A (zh) | 2022-08-02 | 2022-08-02 | 一种基于浅层监督和反馈注意力的息肉图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393283A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188501A (zh) * | 2023-03-02 | 2023-05-30 | 江南大学 | 基于多尺度交叉注意力的医学图像分割方法 |
CN117197166A (zh) * | 2023-11-06 | 2023-12-08 | 中南大学 | 基于边缘和邻域信息的息肉图像分割方法及成像方法 |
-
2022
- 2022-08-02 CN CN202210920701.1A patent/CN115393283A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188501A (zh) * | 2023-03-02 | 2023-05-30 | 江南大学 | 基于多尺度交叉注意力的医学图像分割方法 |
CN116188501B (zh) * | 2023-03-02 | 2024-02-13 | 江南大学 | 基于多尺度交叉注意力的医学图像分割方法 |
CN117197166A (zh) * | 2023-11-06 | 2023-12-08 | 中南大学 | 基于边缘和邻域信息的息肉图像分割方法及成像方法 |
CN117197166B (zh) * | 2023-11-06 | 2024-02-06 | 中南大学 | 基于边缘和邻域信息的息肉图像分割方法及成像方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428432B (zh) | 结肠腺体图像自动分割的深度神经网络算法 | |
CN110533084B (zh) | 一种基于自注意力机制的多尺度目标检测方法 | |
CN115393283A (zh) | 一种基于浅层监督和反馈注意力的息肉图像分割方法 | |
CN111488921B (zh) | 一种全景数字病理图像智能分析系统及方法 | |
CN110163876B (zh) | 基于多特征融合的左心室分割方法、系统、设备及介质 | |
CN108305253B (zh) | 一种基于多倍率深度学习的病理图像分类方法 | |
CN106339984B (zh) | 基于k均值驱动卷积神经网络的分布式图像超分辨方法 | |
CN108229576B (zh) | 一种跨倍率病理图像特征学习方法 | |
GB2478593A (en) | Segmentation of cell nuclei in histological sections | |
CN112446892A (zh) | 一种基于注意力学习的细胞核分割方法 | |
CN113205524B (zh) | 基于U-Net的血管图像分割方法、装置和设备 | |
CN110826560A (zh) | 一种食管癌病理图像标注方法 | |
CN115601330A (zh) | 一种基于多尺度空间反向注意力机制的结肠息肉分割方法 | |
Raj et al. | A novel approach for fundus image enhancement | |
Lai et al. | Toward accurate polyp segmentation with cascade boundary-guided attention | |
Juhong et al. | Super-resolution and segmentation deep learning for breast cancer histopathology image analysis | |
Zhang et al. | Residual attentive feature learning network for salient object detection | |
Hegenbart et al. | Systematic assessment of performance prediction techniques in medical image classification a case study on celiac disease | |
CN113160175B (zh) | 一种基于级联网络的肿瘤淋巴管浸润检测方法 | |
CN111161156A (zh) | 一种基于深度学习的水下桥墩病害图像分辨率增强方法 | |
Zhou et al. | An underwater target recognition method based on improved YOLOv4 in complex marine environment | |
Su et al. | Accurate polyp segmentation through enhancing feature fusion and boosting boundary performance | |
Xiong et al. | Single image super-resolution via image quality assessment-guided deep learning network | |
CN115760875A (zh) | 一种基于自监督学习的全视野医学图片区域分割方法 | |
Pallavoor et al. | Chromosome segmentation analysis using image processing techniques and autoencoders |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |