CN114897094A - 一种基于注意力双支路特征融合的食管早癌病灶分割方法 - Google Patents

一种基于注意力双支路特征融合的食管早癌病灶分割方法 Download PDF

Info

Publication number
CN114897094A
CN114897094A CN202210610948.3A CN202210610948A CN114897094A CN 114897094 A CN114897094 A CN 114897094A CN 202210610948 A CN202210610948 A CN 202210610948A CN 114897094 A CN114897094 A CN 114897094A
Authority
CN
China
Prior art keywords
double
branch
network
feature fusion
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210610948.3A
Other languages
English (en)
Inventor
李小霞
孟延宗
周颖玥
刘晓蓉
张晓强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University of Science and Technology
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN202210610948.3A priority Critical patent/CN114897094A/zh
Publication of CN114897094A publication Critical patent/CN114897094A/zh
Priority to CN202310532910.3A priority patent/CN116563252A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

针对食管早癌病灶前景背景对比度低、形状各异且不规则的问题,本发明提出一种基于注意力双支路特征融合的食管早癌病灶分割方法,其网络结构是结合注意力机制的特征融合与双支路上采样网络(AMFF‑DUNet),结合了通道和空间双注意力机制和多尺度的特征融合以及双支路上采样。本方法包括如下步骤:步骤1,搭建AMFF‑DUNet网络,将提出的金字塔引导特征融合模块(PGFM)和双支路上采样模块(DBUM)加入骨干网络;步骤2,读取内镜图像,进行剪裁、颜色空间变换图像预处理;步骤3,使用AMFF‑DUNet对食管内镜图像进行精准语义分割;步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。结果表明,本发明方法提高了对边缘特征不明显且形态各异的食管早癌病灶的分割精度。

Description

一种基于注意力双支路特征融合的食管早癌病灶分割方法
技术领域
本发明属于机器视觉的语义分割技术领域,特别涉及于一种注意力双支路特征融合的食管早癌病灶分割方法。
背景技术
食管图像背景复杂且患者的患病区域千差万别,因此食管病变及早癌的筛查工作是一项极具挑战性的任务。食管病灶前景背景对比度低、形状各异且不规则,此外受到内镜成像的噪声影响,食管病变图像容易出现高亮光斑,使得传统分割算法难以将病灶在内镜图像中分割出来。与传统方法相比,基于深度学习的分割方法能够有效捕获图像的低层细节特征和高层语义特征,对背景复杂的食管图像分割具有一定的优势。特别是Ronneberger等人提出的U-Net以及相继出现的U-Net变体已被广泛用于医学图像分割,这些方法采用了对称结构和跳跃连接,有效地融合了低级别和高级别的图像特征,解决了用于医学图像分割的普通卷积神经网络定位不准确的问题。
近年来,基于深度学习的人工智能方法在各个医学领域取得了显著的进展,尤其是作为一种医学图像筛选系统。这些领域包括放射肿瘤学诊断、皮肤癌分类、糖尿病视网膜病变分割、胃活检标本的组织学分类、以及使用内窥镜对大肠病变进行表征。在食管早癌筛查领域,深度学习也成为了强大的支持工具。Xue等人通过微血管形态学类型分类进行食管早癌检测,他们在Caffe中开发了一个模型,使用卷积神经网络(Convolutional NeuralNetworks, CNN)进行特征提取,使用支持向量机(Support Vector Machines, SVM)进行分类,开创了使用深度学习方法进行食管早癌筛查的先河。Hong等人使用CNN来区分胃生化、肠生化和胃肿瘤。该体系结构由四个卷积层、两个最大池化层和两个完全连接层(FullyConnected Layers, FC)组成,分类准确率为80.77%。2019年徐瑞华教授团队通过使用样本率可信区间估计法(Clopper-Pearson)鉴别癌性病变方面的诊断准确性,在五个外部验证集中,诊断准确率范围为0.915至0.977。2021年胡兵教授团队提出了一种基于深度学习模型的食管癌诊断算法,利用6473张经过专业医师标记的癌前病变和食管鳞状细胞癌(Narrow Band Imaging,NBI)图像,通过CNN模型SegNet提取图像特征,构建了灵敏度(Sensitivity, Se)和特异性(Specificity, Sp)均超过90%的早筛模型。综上所述,在食管早癌分割领域,通过深度学习的方法获得高精度尤其是高灵敏度和高特异性的方法仍然是主要方向。
发明内容
在食管早癌筛查中,早期食管癌的内镜表现非常轻微,内镜医生不容易准确发现病灶区域。本发明利用空洞卷积和深度可分离卷积提出金字塔引导特征融合模块,引导融合不同层次特征增强有效信息的表达,利用双三次插值法和像素重构的方法提出双支路上采样模块,在空间和通道同时进行上采样,减少了上采样过程中的有用信息的损失,对DeepLabV3+网络参数进行调整,使其符合二分类语义分割任务,同时结合卷积注意力模块、金字塔特征融合模块和双支路上采样模块搭建结合注意力机制的双支路特征融合网络,提高对食管早癌病灶区域的分割精度。
本发明的技术方案如下:一种基于注意力双支路特征融合的食管早癌病灶分割方法,主要包含以下步骤:
步骤1,搭建AMFF-DUNet网络,将本发明提出的金字塔引导特征融合模块(Pyramid-Guided Feature Fusion Module, PGFM)和双支路上采样模块(Dual-BranchUpsampling Module, DBUM)加入骨干网络;
步骤2,读取内镜图像,进行剪裁、颜色空间变换图像预处理;
步骤3,使用AMFF-DUNet对食管内镜图像进行精准语义分割;
步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。
附图说明
图1为本发明的AMFF-DUNet网络结构图。
图2为本发明的金字塔引导融合模块图。
图3为本发明的双支路上采样模块图。
图4为本发明的双三次插值法示意图。
图5为本发明的AMFF-DUNet热力图对比图。
图6为本发明的AMFF-DUNet分割图对比图。
具体实施方式
以下将对本发明的基于注意力双支路特征融合的食管早癌病灶分割方法结合实例和附图作进一步的详细描述。
步骤1,搭建AMFF-DUNet网络。如图1所示,在图右侧列出了相关操作的图例名称,网络输入大小为224×224×3,网络结构使用了DeepLabV3+作为基本框架,整个网络被划分为stage1~stage5五个阶段。在编码器开始阶段和最后阶段使用卷积注意力模块(Convolutional Block Attention Module, CBAM)引入通道和空间双注意力,增强非显著病灶区域的特征表达。在编-解码器之间使用本发明提出的金字塔引导特征融合模块(PGFM)和网络本身的空洞空间金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)在多个尺度上捕获上下文信息和强化特征表达。在解码器阶段使用本发明提出的双支路上采样模块(DBUM),该模块通过融合图像的空间和通道信息来减少细节信息在上采样过程中的丢失,增强网络分割能力。本发明提出的模块具体解释如下:
(1)使用金字塔引导特征融合模块(PGFM)进行多尺度特征提取。如图2所示,PGFM通过规则的3×3卷积将阶段3和阶段4的特征映射到与阶段2相同的通道空间。生成的特征映射F3和F4向上采样到与F2相同的大小并拼接。之后为了从不同级别的特征映射中提取全局上下文信息,同时防止上采样过程丢失空间信息,使用空洞率为r=1、r=2和r=4的空洞卷积叠加,扩大感受野并且弥补相关性的损失,考虑到上述操作会增大模型参数,对网络的计算速度造成影响,所以在进行空洞卷积之前对拼接之后的特征映射进行深度可分离卷积。最后,使用普通卷积得到最终的特征映射。PGFM模块输出如式(1):
Figure 715557DEST_PATH_IMAGE001
(1)
其中Pk表示插入第k阶段的PGFM的输出,Fk表示第k阶段的特征映射编码器,
Figure 632698DEST_PATH_IMAGE002
表示速率为2i-k的上采样操作,Conv3×3表示3×3的卷积,Convds表示深度可分离卷积,ConvdcR2i-k表示扩张率为2i-k的空洞卷积,Cat表示concat操作,m表示参与特征引导的阶段数。
(2)使用双支路上采样模块(DBUM)减少细节信息在上采样过程中的丢失。如图3所示,使用双三次插值(BiCubic interpolation, BiC)和像素重构(PixelShuffle, PS)并行上采样。图3中PS表示像素重构上采样的方法,该方法先通过卷积的方式得到r2个通道的特征图,r为图像扩大倍率。再通过周期筛选的方式将低分辨率图像中的每一个像素的r2个通道展开成r×r的大像素重组在一起,所以通道数r2C缩减成C,图像尺寸H×W扩展成rH×rW。总的来说,DBUM是对输入在空间上进行双三次插值上采样得到特征图Fs,在通道上进行像素重构上采样得到Fc,将Fs和Fc进行相加融合得到输出。双支路上采样模块的输出如式(2):
Output=Bicubic(Input)+Conv(PS(Input)) (2)
其中Conv表示卷积运算,BiCubic表示双三次插值,PS表示像素重构(PixelShuffle),Input表示输入图像,Output表示输出图像。
对比双线性插值,双三次插值不仅会考虑4个直接相邻点的像素值,还会利用待采样点周围16个相邻点的像素值作三次插值。如图4中P点为经过放大后目标图像B(x, y)点对应的源图像坐标点,通过计算P点周围16个点的系数,加权得到P的像素值,以左上角的点A为例,其距离P点的距离为(1+u,1+v),代入式(3)中最常用的双三次插值基函数:
Figure 474752DEST_PATH_IMAGE003
(3)
则A点对应系数为k00=f(1+u)*f(1+v)。同理可得其余15个相邻点的系数,16个相邻点的像素值分别乘以相应的系数再相加即为P点的像素值。由于双三次插值考虑到了各相邻点像素值变化对图像的影响,因此该方法会得到细节信息更丰富的高分辨率图像。
步骤2,读取内镜图像,进行剪裁、颜色空间变换图像预处理。本文使用的数据集为白光内镜图像、经卢戈氏液染色的内镜图像和NBI内镜图像组成的自建数据集,共3503张,白光图像783张,NBI图像791张,碘染色图像1929张,由四川绵阳四0四医院提供,所有病例均经组织学证实。数据均为医生在病患做胃镜检查时采集,具有随机性、一般性和真实性,数据先经过医院的消化科专家按照内镜报告确定病灶区域进行标记,再通过Lableme软件对数据进行精细标注工作,将图像裁剪为224×224后进行图像预处理。为了减少反光和低对比度对模型的影响,加快模型训练效率,增强模型的泛化能力,针对内镜图像本身的特点进行如下预处理:
(1)使用随机水平翻转和随机剪裁,使食管早癌出现在不同位置,减轻模型对病灶出现位置的依赖性;
(2)将RGB图像转化为HSV图像;
(3)为了减少反光和强光对内镜图像的影响,对步骤(2)处理后的图像在0.8-1.2之间进行亮度和对比度的随机调整,降低模型对高亮和低对比度的敏感度;
(4)使用标准正态分布的方法进行数据标准化,加快模型收敛。
步骤3,使用AMFF-DUNet对食管内镜图像进行精准语义分割。实验依托Pytorch平台搭建神经网络,版本为1.8.0,Python版本为3.6.5。训练策略如下:将数据集按照7:2:1划分训练集、验证集和测试集,训练过程中使用SGD作为优化器,初始学习率设置为0.5×103,并在前10个训练轮次中使用预热学习来加快模型收敛。每迭代 1 轮保存 1 次网络模型,共迭代300 轮。保存测试结果最好的模型。因食管早癌数据正负样本分布不平衡,选用Focal loss作为损失函数,增加了难分正样本在损失函数中的权重,提高了总体正样本的分割准确度。Focal loss如公式(4)所示,Pt表示反映了与真实值接近程度,Pt越大说明越接近真实值,即分类越准确,γ为可调节因子,取值在0到1之间,Lfl表示Focal loss。
Lfl=-(1-Pt)γlog(Pt) (4)
表1和2分别是PGFM和DBUM在自建数据集上的消融实验结果,以DeepLabV3+作为基准网络。从表1的消融实验可知,添加两个PGFM的模型,即表中PGFM2在自建数据集上的平均交并比(Mean Intersection over Union, MIoU)、Se和Sp指标分别从79.10%、85.40%和89.53%提升至79.86%、87.89%和90.26%。以表1指标最佳模型为基础模型,表2展示了基础模型在组合使用转置卷积(Transposed Convolution, TC)、双三次插值(BiC)和像素重构(PS)后的模型精度变化,由表2可知转置卷积在上采样过程中,会因其补0操作产生“棋盘效应”,对其参数的设定需要经过大量尝试才能达到最优效果,因此使用实验7中双三次插值和像素重构组合的效果最好,将MIoU、Se和Sp指标分别提升至80.25%、88.95%和92.02%。通过消融实验可知,提出的模块都能够提高食管早癌分割精度,组合使用效果更佳。
表1 CBAM与PGFM模块的消融实验结果
Figure 869961DEST_PATH_IMAGE004
表2 DBUM模块中不同类型上采样方式的消融实验结果
Figure 746650DEST_PATH_IMAGE005
步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。在自建数据集上使用近几年发表的主流医学图像分割方法进行实验。表3是不同分割方法的实验结果,本发明方法在MIoU、Se、F1-Score三个指标上均表现最好。
表3 在自建数据集中不同分割方法实验结果
Figure 569113DEST_PATH_IMAGE006
除了量化的实验数据,还使用了Grad-CAM可视化结果进行定性分析,在图5中清楚地显示了本发明的AMFF-DUNet方法关注的病灶区与其他方法相比更好地覆盖了目标病灶,表明所提出的模型能够更好地完成病灶区域分割任务。图6展示了与华西医院“深度学习辅助早期食管癌诊断模型共享平台”的分割模型对比结果,在随机选用的五张图片中可以看出本发明方法的分割结果更接近真实值(Ground truth)。

Claims (4)

1.一种基于注意力双支路特征融合的食管早癌病灶分割方法,包括以下四个步骤:
步骤1,搭建结合注意力机制的特征融合与双支路上采样网络(Attention Mechanismcombined Feature Fusion and Dual-branch Upsampling Network, AMFF-DUNet)网络,AMFF-DUNet网络使用ResNet101作为骨干网络,整体框架为编解码器结构,编码器引入空间和通道双注意力,用于增强非显著病灶区域的特征表达能力;在编解码器中间使用本发明提出的金字塔引导特征融合模块(Pyramid-Guided Feature Fusion Module, PGFM)引导融合不同层次特征增强有效信息的表达;在解码器阶段使用本发明提出的双支路上采样模块(Dual-Branch Upsampling Module, DBUM),减少上采样过程中的信息损失;
步骤2,读取内镜图像,使用随机剪裁和随机翻转减轻模型对病灶出现位置的依赖性;对RGB图像使用HSV颜色空间变换,降低模型对高亮和低对比度的敏感度;使用标准正态分布进行数据标准化,加快模型收敛;
步骤3,使用AMFF-DUNet对食管内镜图像进行精准语义分割;
步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。
2.根据权利要求1所述的一种基于注意力双支路特征融合的食管早癌病灶分割方法,其特征在于,步骤1提出的金字塔引导特征融合模块(PGFM)为了从不同级别的特征映射中提取全局上下文信息,同时防止上采样过程丢失空间信息,通过规则的3×3卷积将ResNet101不同阶段的特征映射到与选定阶段相同的通道空间,将生成的特征映射向上采样到相同的大小并拼接;之后使用不同空洞率的空洞卷积叠加,扩大感受野并且弥补相关性的损失,考虑到上述操作会增大模型参数,对网络的计算速度造成影响,所以在进行空洞卷积之前对拼接之后的特征映射进行深度可分离卷积,最后使用普通卷积得到最终的特征映射。
3.根据权利要求1所述的一种基于注意力双支路特征融合的食管早癌病灶分割方法,其特征在于,步骤1中本发明所提出的双支路上采样模块(DBUM)为了减少上采样过程中图像细节信息的损失,在解码器上采样阶段使用双三次插值(BiCubic interpolation, BiC)和像素重构(PixelShuffle, PS)并行上采样,在空间和通道上同时捕获网络所需特征,使网络生成具有丰富细节和语义信息的高分辨率特征图。
4.根据权利要求1所述的一种基于注意力双支路特征融合的食管早癌病灶分割方法,其特征在于,结合使用本发明提出的金字塔引导特征融合模块(PGFM)、双支路双采样模块(DBUM)和空间通道双注意力模块,构成结合注意力机制的特征融合与双支路上采样网络(AMFF-DUNet),提高了食管早癌内镜检查的病灶区域分割精度。
CN202210610948.3A 2022-06-01 2022-06-01 一种基于注意力双支路特征融合的食管早癌病灶分割方法 Pending CN114897094A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210610948.3A CN114897094A (zh) 2022-06-01 2022-06-01 一种基于注意力双支路特征融合的食管早癌病灶分割方法
CN202310532910.3A CN116563252A (zh) 2022-06-01 2023-05-11 一种基于注意力双支路特征融合的食管早癌病灶分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210610948.3A CN114897094A (zh) 2022-06-01 2022-06-01 一种基于注意力双支路特征融合的食管早癌病灶分割方法

Publications (1)

Publication Number Publication Date
CN114897094A true CN114897094A (zh) 2022-08-12

Family

ID=82725173

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210610948.3A Pending CN114897094A (zh) 2022-06-01 2022-06-01 一种基于注意力双支路特征融合的食管早癌病灶分割方法
CN202310532910.3A Pending CN116563252A (zh) 2022-06-01 2023-05-11 一种基于注意力双支路特征融合的食管早癌病灶分割方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202310532910.3A Pending CN116563252A (zh) 2022-06-01 2023-05-11 一种基于注意力双支路特征融合的食管早癌病灶分割方法

Country Status (1)

Country Link
CN (2) CN114897094A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131684A (zh) * 2022-08-25 2022-09-30 成都国星宇航科技股份有限公司 基于卫星数据UNet网络模型的滑坡识别方法及装置
CN115546766A (zh) * 2022-11-30 2022-12-30 广汽埃安新能源汽车股份有限公司 车道线生成方法、装置、电子设备和计算机可读介质
CN116503428A (zh) * 2023-06-27 2023-07-28 吉林大学 基于精细化全局注意力机制图像特征提取方法和分割方法
CN116703798A (zh) * 2023-08-08 2023-09-05 西南科技大学 基于自适应干扰抑制的食管多模态内镜图像增强融合方法
CN117745745A (zh) * 2024-02-18 2024-03-22 湖南大学 一种基于上下文融合感知的ct图像分割方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131684A (zh) * 2022-08-25 2022-09-30 成都国星宇航科技股份有限公司 基于卫星数据UNet网络模型的滑坡识别方法及装置
CN115546766A (zh) * 2022-11-30 2022-12-30 广汽埃安新能源汽车股份有限公司 车道线生成方法、装置、电子设备和计算机可读介质
CN116503428A (zh) * 2023-06-27 2023-07-28 吉林大学 基于精细化全局注意力机制图像特征提取方法和分割方法
CN116503428B (zh) * 2023-06-27 2023-09-08 吉林大学 基于精细化全局注意力机制图像特征提取方法和分割方法
CN116703798A (zh) * 2023-08-08 2023-09-05 西南科技大学 基于自适应干扰抑制的食管多模态内镜图像增强融合方法
CN116703798B (zh) * 2023-08-08 2023-10-13 西南科技大学 基于自适应干扰抑制的食管多模态内镜图像增强融合方法
CN117745745A (zh) * 2024-02-18 2024-03-22 湖南大学 一种基于上下文融合感知的ct图像分割方法
CN117745745B (zh) * 2024-02-18 2024-05-10 湖南大学 一种基于上下文融合感知的ct图像分割方法

Also Published As

Publication number Publication date
CN116563252A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
CN114897094A (zh) 一种基于注意力双支路特征融合的食管早癌病灶分割方法
CN113870258B (zh) 一种基于对抗学习的无标签胰腺影像自动分割系统
Chan et al. Texture-map-based branch-collaborative network for oral cancer detection
CN110889853B (zh) 基于残差-注意力深度神经网络的肿瘤分割方法
CN113674253B (zh) 基于U-Transformer的直肠癌CT影像自动分割方法
CN113012172B (zh) 一种基于AS-UNet的医学图像分割方法及系统
CN110889852A (zh) 基于残差-注意力深度神经网络的肝脏分割方法
CN113256641B (zh) 一种基于深度学习的皮肤病灶图像分割方法
CN115049666B (zh) 基于彩色小波协方差深度图模型的内镜虚拟活检装置
CN113239755B (zh) 一种基于空谱融合深度学习的医学高光谱图像分类方法
CN112215844A (zh) 基于ACU-Net的MRI多模态图像分割方法和系统
CN113436173B (zh) 基于边缘感知的腹部多器官分割建模、分割方法及系统
CN116579982A (zh) 一种肺炎ct图像分割方法、装置及设备
CN115063592A (zh) 一种基于多尺度的全扫描病理特征融合提取方法及系统
CN112489062B (zh) 基于边界及邻域引导的医学图像分割方法及系统
WO2024104035A1 (zh) 基于长短期记忆自注意力模型的三维医学图像分割方法及系统
CN115578341B (zh) 基于注意力引导金字塔上下文网络的大肠息肉分割方法
CN116645380A (zh) 基于两阶段渐进式信息融合的食管癌ct图像肿瘤区自动分割方法
CN115994999A (zh) 基于边界梯度注意力网络的杯状细胞语义分割方法及系统
CN116228709A (zh) 一种胰腺实性占位病灶的交互式超声内镜图像识别方法
CN114511602B (zh) 基于图卷积Transformer的医学图像配准方法
CN116228690A (zh) 基于pet-ct的胰腺癌与自身性免疫性胰腺炎自动辅助诊断方法
CN115471512A (zh) 一种基于自监督对比学习的医学影像分割方法
CN115222651A (zh) 一种基于改进Mask R-CNN的肺结节检测系统
Gangrade et al. Colonoscopy polyp segmentation using deep residual u-net with bottleneck attention module

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20220812