CN114897094A - 一种基于注意力双支路特征融合的食管早癌病灶分割方法 - Google Patents
一种基于注意力双支路特征融合的食管早癌病灶分割方法 Download PDFInfo
- Publication number
- CN114897094A CN114897094A CN202210610948.3A CN202210610948A CN114897094A CN 114897094 A CN114897094 A CN 114897094A CN 202210610948 A CN202210610948 A CN 202210610948A CN 114897094 A CN114897094 A CN 114897094A
- Authority
- CN
- China
- Prior art keywords
- double
- branch
- network
- feature fusion
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000011218 segmentation Effects 0.000 title claims abstract description 34
- 230000004927 fusion Effects 0.000 title claims abstract description 25
- 206010028980 Neoplasm Diseases 0.000 title claims abstract description 6
- 201000011510 cancer Diseases 0.000 title claims abstract description 5
- 210000003238 esophagus Anatomy 0.000 title abstract description 3
- 230000003902 lesion Effects 0.000 claims abstract description 25
- 238000005070 sampling Methods 0.000 claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims abstract description 4
- 230000009466 transformation Effects 0.000 claims abstract description 3
- 230000008569 process Effects 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000009977 dual effect Effects 0.000 claims description 2
- 238000001839 endoscopy Methods 0.000 claims description 2
- 239000011800 void material Substances 0.000 claims 3
- 230000002708 enhancing effect Effects 0.000 claims 1
- 206010030155 Oesophageal carcinoma Diseases 0.000 abstract description 11
- 208000000461 Esophageal Neoplasms Diseases 0.000 abstract description 10
- 201000004101 esophageal cancer Diseases 0.000 abstract description 10
- 238000007781 pre-processing Methods 0.000 abstract description 5
- 238000012216 screening Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 238000002679 ablation Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002496 gastric effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- ZCYVEMRRCGMTRW-UHFFFAOYSA-N 7553-56-2 Chemical compound [I] ZCYVEMRRCGMTRW-UHFFFAOYSA-N 0.000 description 1
- 208000017897 Carcinoma of esophagus Diseases 0.000 description 1
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 206010061968 Gastric neoplasm Diseases 0.000 description 1
- 208000005016 Intestinal Neoplasms Diseases 0.000 description 1
- 206010061534 Oesophageal squamous cell carcinoma Diseases 0.000 description 1
- 208000000453 Skin Neoplasms Diseases 0.000 description 1
- 208000036765 Squamous cell carcinoma of the esophagus Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001079 digestive effect Effects 0.000 description 1
- 201000005619 esophageal carcinoma Diseases 0.000 description 1
- 208000007276 esophageal squamous cell carcinoma Diseases 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000002575 gastroscopy Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 201000009019 intestinal benign neoplasm Diseases 0.000 description 1
- 230000000968 intestinal effect Effects 0.000 description 1
- 229910052740 iodine Inorganic materials 0.000 description 1
- 239000011630 iodine Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 235000021178 picnic Nutrition 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 201000000849 skin cancer Diseases 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
针对食管早癌病灶前景背景对比度低、形状各异且不规则的问题,本发明提出一种基于注意力双支路特征融合的食管早癌病灶分割方法,其网络结构是结合注意力机制的特征融合与双支路上采样网络(AMFF‑DUNet),结合了通道和空间双注意力机制和多尺度的特征融合以及双支路上采样。本方法包括如下步骤:步骤1,搭建AMFF‑DUNet网络,将提出的金字塔引导特征融合模块(PGFM)和双支路上采样模块(DBUM)加入骨干网络;步骤2,读取内镜图像,进行剪裁、颜色空间变换图像预处理;步骤3,使用AMFF‑DUNet对食管内镜图像进行精准语义分割;步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。结果表明,本发明方法提高了对边缘特征不明显且形态各异的食管早癌病灶的分割精度。
Description
技术领域
本发明属于机器视觉的语义分割技术领域,特别涉及于一种注意力双支路特征融合的食管早癌病灶分割方法。
背景技术
食管图像背景复杂且患者的患病区域千差万别,因此食管病变及早癌的筛查工作是一项极具挑战性的任务。食管病灶前景背景对比度低、形状各异且不规则,此外受到内镜成像的噪声影响,食管病变图像容易出现高亮光斑,使得传统分割算法难以将病灶在内镜图像中分割出来。与传统方法相比,基于深度学习的分割方法能够有效捕获图像的低层细节特征和高层语义特征,对背景复杂的食管图像分割具有一定的优势。特别是Ronneberger等人提出的U-Net以及相继出现的U-Net变体已被广泛用于医学图像分割,这些方法采用了对称结构和跳跃连接,有效地融合了低级别和高级别的图像特征,解决了用于医学图像分割的普通卷积神经网络定位不准确的问题。
近年来,基于深度学习的人工智能方法在各个医学领域取得了显著的进展,尤其是作为一种医学图像筛选系统。这些领域包括放射肿瘤学诊断、皮肤癌分类、糖尿病视网膜病变分割、胃活检标本的组织学分类、以及使用内窥镜对大肠病变进行表征。在食管早癌筛查领域,深度学习也成为了强大的支持工具。Xue等人通过微血管形态学类型分类进行食管早癌检测,他们在Caffe中开发了一个模型,使用卷积神经网络(Convolutional NeuralNetworks, CNN)进行特征提取,使用支持向量机(Support Vector Machines, SVM)进行分类,开创了使用深度学习方法进行食管早癌筛查的先河。Hong等人使用CNN来区分胃生化、肠生化和胃肿瘤。该体系结构由四个卷积层、两个最大池化层和两个完全连接层(FullyConnected Layers, FC)组成,分类准确率为80.77%。2019年徐瑞华教授团队通过使用样本率可信区间估计法(Clopper-Pearson)鉴别癌性病变方面的诊断准确性,在五个外部验证集中,诊断准确率范围为0.915至0.977。2021年胡兵教授团队提出了一种基于深度学习模型的食管癌诊断算法,利用6473张经过专业医师标记的癌前病变和食管鳞状细胞癌(Narrow Band Imaging,NBI)图像,通过CNN模型SegNet提取图像特征,构建了灵敏度(Sensitivity, Se)和特异性(Specificity, Sp)均超过90%的早筛模型。综上所述,在食管早癌分割领域,通过深度学习的方法获得高精度尤其是高灵敏度和高特异性的方法仍然是主要方向。
发明内容
在食管早癌筛查中,早期食管癌的内镜表现非常轻微,内镜医生不容易准确发现病灶区域。本发明利用空洞卷积和深度可分离卷积提出金字塔引导特征融合模块,引导融合不同层次特征增强有效信息的表达,利用双三次插值法和像素重构的方法提出双支路上采样模块,在空间和通道同时进行上采样,减少了上采样过程中的有用信息的损失,对DeepLabV3+网络参数进行调整,使其符合二分类语义分割任务,同时结合卷积注意力模块、金字塔特征融合模块和双支路上采样模块搭建结合注意力机制的双支路特征融合网络,提高对食管早癌病灶区域的分割精度。
本发明的技术方案如下:一种基于注意力双支路特征融合的食管早癌病灶分割方法,主要包含以下步骤:
步骤1,搭建AMFF-DUNet网络,将本发明提出的金字塔引导特征融合模块(Pyramid-Guided Feature Fusion Module, PGFM)和双支路上采样模块(Dual-BranchUpsampling Module, DBUM)加入骨干网络;
步骤2,读取内镜图像,进行剪裁、颜色空间变换图像预处理;
步骤3,使用AMFF-DUNet对食管内镜图像进行精准语义分割;
步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。
附图说明
图1为本发明的AMFF-DUNet网络结构图。
图2为本发明的金字塔引导融合模块图。
图3为本发明的双支路上采样模块图。
图4为本发明的双三次插值法示意图。
图5为本发明的AMFF-DUNet热力图对比图。
图6为本发明的AMFF-DUNet分割图对比图。
具体实施方式
以下将对本发明的基于注意力双支路特征融合的食管早癌病灶分割方法结合实例和附图作进一步的详细描述。
步骤1,搭建AMFF-DUNet网络。如图1所示,在图右侧列出了相关操作的图例名称,网络输入大小为224×224×3,网络结构使用了DeepLabV3+作为基本框架,整个网络被划分为stage1~stage5五个阶段。在编码器开始阶段和最后阶段使用卷积注意力模块(Convolutional Block Attention Module, CBAM)引入通道和空间双注意力,增强非显著病灶区域的特征表达。在编-解码器之间使用本发明提出的金字塔引导特征融合模块(PGFM)和网络本身的空洞空间金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)在多个尺度上捕获上下文信息和强化特征表达。在解码器阶段使用本发明提出的双支路上采样模块(DBUM),该模块通过融合图像的空间和通道信息来减少细节信息在上采样过程中的丢失,增强网络分割能力。本发明提出的模块具体解释如下:
(1)使用金字塔引导特征融合模块(PGFM)进行多尺度特征提取。如图2所示,PGFM通过规则的3×3卷积将阶段3和阶段4的特征映射到与阶段2相同的通道空间。生成的特征映射F3和F4向上采样到与F2相同的大小并拼接。之后为了从不同级别的特征映射中提取全局上下文信息,同时防止上采样过程丢失空间信息,使用空洞率为r=1、r=2和r=4的空洞卷积叠加,扩大感受野并且弥补相关性的损失,考虑到上述操作会增大模型参数,对网络的计算速度造成影响,所以在进行空洞卷积之前对拼接之后的特征映射进行深度可分离卷积。最后,使用普通卷积得到最终的特征映射。PGFM模块输出如式(1):
其中Pk表示插入第k阶段的PGFM的输出,Fk表示第k阶段的特征映射编码器,表示速率为2i-k的上采样操作,Conv3×3表示3×3的卷积,Convds表示深度可分离卷积,ConvdcR2i-k表示扩张率为2i-k的空洞卷积,Cat表示concat操作,m表示参与特征引导的阶段数。
(2)使用双支路上采样模块(DBUM)减少细节信息在上采样过程中的丢失。如图3所示,使用双三次插值(BiCubic interpolation, BiC)和像素重构(PixelShuffle, PS)并行上采样。图3中PS表示像素重构上采样的方法,该方法先通过卷积的方式得到r2个通道的特征图,r为图像扩大倍率。再通过周期筛选的方式将低分辨率图像中的每一个像素的r2个通道展开成r×r的大像素重组在一起,所以通道数r2C缩减成C,图像尺寸H×W扩展成rH×rW。总的来说,DBUM是对输入在空间上进行双三次插值上采样得到特征图Fs,在通道上进行像素重构上采样得到Fc,将Fs和Fc进行相加融合得到输出。双支路上采样模块的输出如式(2):
Output=Bicubic(Input)+Conv(PS(Input)) (2)
其中Conv表示卷积运算,BiCubic表示双三次插值,PS表示像素重构(PixelShuffle),Input表示输入图像,Output表示输出图像。
对比双线性插值,双三次插值不仅会考虑4个直接相邻点的像素值,还会利用待采样点周围16个相邻点的像素值作三次插值。如图4中P点为经过放大后目标图像B(x, y)点对应的源图像坐标点,通过计算P点周围16个点的系数,加权得到P的像素值,以左上角的点A为例,其距离P点的距离为(1+u,1+v),代入式(3)中最常用的双三次插值基函数:
则A点对应系数为k00=f(1+u)*f(1+v)。同理可得其余15个相邻点的系数,16个相邻点的像素值分别乘以相应的系数再相加即为P点的像素值。由于双三次插值考虑到了各相邻点像素值变化对图像的影响,因此该方法会得到细节信息更丰富的高分辨率图像。
步骤2,读取内镜图像,进行剪裁、颜色空间变换图像预处理。本文使用的数据集为白光内镜图像、经卢戈氏液染色的内镜图像和NBI内镜图像组成的自建数据集,共3503张,白光图像783张,NBI图像791张,碘染色图像1929张,由四川绵阳四0四医院提供,所有病例均经组织学证实。数据均为医生在病患做胃镜检查时采集,具有随机性、一般性和真实性,数据先经过医院的消化科专家按照内镜报告确定病灶区域进行标记,再通过Lableme软件对数据进行精细标注工作,将图像裁剪为224×224后进行图像预处理。为了减少反光和低对比度对模型的影响,加快模型训练效率,增强模型的泛化能力,针对内镜图像本身的特点进行如下预处理:
(1)使用随机水平翻转和随机剪裁,使食管早癌出现在不同位置,减轻模型对病灶出现位置的依赖性;
(2)将RGB图像转化为HSV图像;
(3)为了减少反光和强光对内镜图像的影响,对步骤(2)处理后的图像在0.8-1.2之间进行亮度和对比度的随机调整,降低模型对高亮和低对比度的敏感度;
(4)使用标准正态分布的方法进行数据标准化,加快模型收敛。
步骤3,使用AMFF-DUNet对食管内镜图像进行精准语义分割。实验依托Pytorch平台搭建神经网络,版本为1.8.0,Python版本为3.6.5。训练策略如下:将数据集按照7:2:1划分训练集、验证集和测试集,训练过程中使用SGD作为优化器,初始学习率设置为0.5×103,并在前10个训练轮次中使用预热学习来加快模型收敛。每迭代 1 轮保存 1 次网络模型,共迭代300 轮。保存测试结果最好的模型。因食管早癌数据正负样本分布不平衡,选用Focal loss作为损失函数,增加了难分正样本在损失函数中的权重,提高了总体正样本的分割准确度。Focal loss如公式(4)所示,Pt表示反映了与真实值接近程度,Pt越大说明越接近真实值,即分类越准确,γ为可调节因子,取值在0到1之间,Lfl表示Focal loss。
Lfl=-(1-Pt)γlog(Pt) (4)
表1和2分别是PGFM和DBUM在自建数据集上的消融实验结果,以DeepLabV3+作为基准网络。从表1的消融实验可知,添加两个PGFM的模型,即表中PGFM2在自建数据集上的平均交并比(Mean Intersection over Union, MIoU)、Se和Sp指标分别从79.10%、85.40%和89.53%提升至79.86%、87.89%和90.26%。以表1指标最佳模型为基础模型,表2展示了基础模型在组合使用转置卷积(Transposed Convolution, TC)、双三次插值(BiC)和像素重构(PS)后的模型精度变化,由表2可知转置卷积在上采样过程中,会因其补0操作产生“棋盘效应”,对其参数的设定需要经过大量尝试才能达到最优效果,因此使用实验7中双三次插值和像素重构组合的效果最好,将MIoU、Se和Sp指标分别提升至80.25%、88.95%和92.02%。通过消融实验可知,提出的模块都能够提高食管早癌分割精度,组合使用效果更佳。
表1 CBAM与PGFM模块的消融实验结果
表2 DBUM模块中不同类型上采样方式的消融实验结果
步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。在自建数据集上使用近几年发表的主流医学图像分割方法进行实验。表3是不同分割方法的实验结果,本发明方法在MIoU、Se、F1-Score三个指标上均表现最好。
表3 在自建数据集中不同分割方法实验结果
除了量化的实验数据,还使用了Grad-CAM可视化结果进行定性分析,在图5中清楚地显示了本发明的AMFF-DUNet方法关注的病灶区与其他方法相比更好地覆盖了目标病灶,表明所提出的模型能够更好地完成病灶区域分割任务。图6展示了与华西医院“深度学习辅助早期食管癌诊断模型共享平台”的分割模型对比结果,在随机选用的五张图片中可以看出本发明方法的分割结果更接近真实值(Ground truth)。
Claims (4)
1.一种基于注意力双支路特征融合的食管早癌病灶分割方法,包括以下四个步骤:
步骤1,搭建结合注意力机制的特征融合与双支路上采样网络(Attention Mechanismcombined Feature Fusion and Dual-branch Upsampling Network, AMFF-DUNet)网络,AMFF-DUNet网络使用ResNet101作为骨干网络,整体框架为编解码器结构,编码器引入空间和通道双注意力,用于增强非显著病灶区域的特征表达能力;在编解码器中间使用本发明提出的金字塔引导特征融合模块(Pyramid-Guided Feature Fusion Module, PGFM)引导融合不同层次特征增强有效信息的表达;在解码器阶段使用本发明提出的双支路上采样模块(Dual-Branch Upsampling Module, DBUM),减少上采样过程中的信息损失;
步骤2,读取内镜图像,使用随机剪裁和随机翻转减轻模型对病灶出现位置的依赖性;对RGB图像使用HSV颜色空间变换,降低模型对高亮和低对比度的敏感度;使用标准正态分布进行数据标准化,加快模型收敛;
步骤3,使用AMFF-DUNet对食管内镜图像进行精准语义分割;
步骤4,将实验结果与目前先进的食管早癌病灶分割方法比较分析。
2.根据权利要求1所述的一种基于注意力双支路特征融合的食管早癌病灶分割方法,其特征在于,步骤1提出的金字塔引导特征融合模块(PGFM)为了从不同级别的特征映射中提取全局上下文信息,同时防止上采样过程丢失空间信息,通过规则的3×3卷积将ResNet101不同阶段的特征映射到与选定阶段相同的通道空间,将生成的特征映射向上采样到相同的大小并拼接;之后使用不同空洞率的空洞卷积叠加,扩大感受野并且弥补相关性的损失,考虑到上述操作会增大模型参数,对网络的计算速度造成影响,所以在进行空洞卷积之前对拼接之后的特征映射进行深度可分离卷积,最后使用普通卷积得到最终的特征映射。
3.根据权利要求1所述的一种基于注意力双支路特征融合的食管早癌病灶分割方法,其特征在于,步骤1中本发明所提出的双支路上采样模块(DBUM)为了减少上采样过程中图像细节信息的损失,在解码器上采样阶段使用双三次插值(BiCubic interpolation, BiC)和像素重构(PixelShuffle, PS)并行上采样,在空间和通道上同时捕获网络所需特征,使网络生成具有丰富细节和语义信息的高分辨率特征图。
4.根据权利要求1所述的一种基于注意力双支路特征融合的食管早癌病灶分割方法,其特征在于,结合使用本发明提出的金字塔引导特征融合模块(PGFM)、双支路双采样模块(DBUM)和空间通道双注意力模块,构成结合注意力机制的特征融合与双支路上采样网络(AMFF-DUNet),提高了食管早癌内镜检查的病灶区域分割精度。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210610948.3A CN114897094A (zh) | 2022-06-01 | 2022-06-01 | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 |
CN202310532910.3A CN116563252A (zh) | 2022-06-01 | 2023-05-11 | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210610948.3A CN114897094A (zh) | 2022-06-01 | 2022-06-01 | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114897094A true CN114897094A (zh) | 2022-08-12 |
Family
ID=82725173
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210610948.3A Pending CN114897094A (zh) | 2022-06-01 | 2022-06-01 | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 |
CN202310532910.3A Pending CN116563252A (zh) | 2022-06-01 | 2023-05-11 | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310532910.3A Pending CN116563252A (zh) | 2022-06-01 | 2023-05-11 | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN114897094A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115131684A (zh) * | 2022-08-25 | 2022-09-30 | 成都国星宇航科技股份有限公司 | 基于卫星数据UNet网络模型的滑坡识别方法及装置 |
CN115546766A (zh) * | 2022-11-30 | 2022-12-30 | 广汽埃安新能源汽车股份有限公司 | 车道线生成方法、装置、电子设备和计算机可读介质 |
CN116503428A (zh) * | 2023-06-27 | 2023-07-28 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
CN116703798A (zh) * | 2023-08-08 | 2023-09-05 | 西南科技大学 | 基于自适应干扰抑制的食管多模态内镜图像增强融合方法 |
CN117745745A (zh) * | 2024-02-18 | 2024-03-22 | 湖南大学 | 一种基于上下文融合感知的ct图像分割方法 |
-
2022
- 2022-06-01 CN CN202210610948.3A patent/CN114897094A/zh active Pending
-
2023
- 2023-05-11 CN CN202310532910.3A patent/CN116563252A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115131684A (zh) * | 2022-08-25 | 2022-09-30 | 成都国星宇航科技股份有限公司 | 基于卫星数据UNet网络模型的滑坡识别方法及装置 |
CN115546766A (zh) * | 2022-11-30 | 2022-12-30 | 广汽埃安新能源汽车股份有限公司 | 车道线生成方法、装置、电子设备和计算机可读介质 |
CN116503428A (zh) * | 2023-06-27 | 2023-07-28 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
CN116503428B (zh) * | 2023-06-27 | 2023-09-08 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
CN116703798A (zh) * | 2023-08-08 | 2023-09-05 | 西南科技大学 | 基于自适应干扰抑制的食管多模态内镜图像增强融合方法 |
CN116703798B (zh) * | 2023-08-08 | 2023-10-13 | 西南科技大学 | 基于自适应干扰抑制的食管多模态内镜图像增强融合方法 |
CN117745745A (zh) * | 2024-02-18 | 2024-03-22 | 湖南大学 | 一种基于上下文融合感知的ct图像分割方法 |
CN117745745B (zh) * | 2024-02-18 | 2024-05-10 | 湖南大学 | 一种基于上下文融合感知的ct图像分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116563252A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114897094A (zh) | 一种基于注意力双支路特征融合的食管早癌病灶分割方法 | |
CN113870258B (zh) | 一种基于对抗学习的无标签胰腺影像自动分割系统 | |
Chan et al. | Texture-map-based branch-collaborative network for oral cancer detection | |
CN110889853B (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
CN113674253B (zh) | 基于U-Transformer的直肠癌CT影像自动分割方法 | |
CN113012172B (zh) | 一种基于AS-UNet的医学图像分割方法及系统 | |
CN110889852A (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN113256641B (zh) | 一种基于深度学习的皮肤病灶图像分割方法 | |
CN115049666B (zh) | 基于彩色小波协方差深度图模型的内镜虚拟活检装置 | |
CN113239755B (zh) | 一种基于空谱融合深度学习的医学高光谱图像分类方法 | |
CN112215844A (zh) | 基于ACU-Net的MRI多模态图像分割方法和系统 | |
CN113436173B (zh) | 基于边缘感知的腹部多器官分割建模、分割方法及系统 | |
CN116579982A (zh) | 一种肺炎ct图像分割方法、装置及设备 | |
CN115063592A (zh) | 一种基于多尺度的全扫描病理特征融合提取方法及系统 | |
CN112489062B (zh) | 基于边界及邻域引导的医学图像分割方法及系统 | |
WO2024104035A1 (zh) | 基于长短期记忆自注意力模型的三维医学图像分割方法及系统 | |
CN115578341B (zh) | 基于注意力引导金字塔上下文网络的大肠息肉分割方法 | |
CN116645380A (zh) | 基于两阶段渐进式信息融合的食管癌ct图像肿瘤区自动分割方法 | |
CN115994999A (zh) | 基于边界梯度注意力网络的杯状细胞语义分割方法及系统 | |
CN116228709A (zh) | 一种胰腺实性占位病灶的交互式超声内镜图像识别方法 | |
CN114511602B (zh) | 基于图卷积Transformer的医学图像配准方法 | |
CN116228690A (zh) | 基于pet-ct的胰腺癌与自身性免疫性胰腺炎自动辅助诊断方法 | |
CN115471512A (zh) | 一种基于自监督对比学习的医学影像分割方法 | |
CN115222651A (zh) | 一种基于改进Mask R-CNN的肺结节检测系统 | |
Gangrade et al. | Colonoscopy polyp segmentation using deep residual u-net with bottleneck attention module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20220812 |