CN117372452A - 结合高效Transformer与UNet的3D脑肿瘤分割模型 - Google Patents

结合高效Transformer与UNet的3D脑肿瘤分割模型 Download PDF

Info

Publication number
CN117372452A
CN117372452A CN202311238860.4A CN202311238860A CN117372452A CN 117372452 A CN117372452 A CN 117372452A CN 202311238860 A CN202311238860 A CN 202311238860A CN 117372452 A CN117372452 A CN 117372452A
Authority
CN
China
Prior art keywords
brain tumor
unet
dwformer
convolution
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311238860.4A
Other languages
English (en)
Inventor
陈善雄
朱勇军
张旺
李林峰
董霄轩
曹旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing ninth people's hospital
Southwest University
Original Assignee
Chongqing ninth people's hospital
Southwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing ninth people's hospital, Southwest University filed Critical Chongqing ninth people's hospital
Priority to CN202311238860.4A priority Critical patent/CN117372452A/zh
Publication of CN117372452A publication Critical patent/CN117372452A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了基于深度学习的结合高效Transformer与UNet的3D脑肿瘤分割方法,主要涉及医学图像分割技术领域;包括步骤:S1、采集足够数量的脑肿瘤病人的多模态核磁共振成像数据;S2、数据预处理、数据集划分和数据增强;S3、构建结合高效Transformer与UNet的3D脑肿瘤分割模型;S4、将预处理后的训练集输入结合高效Transformer与UNet的3D脑肿瘤分割方法中进行训练;S5、将待分割的多模态核磁共振成像数据送入到训练好的结合高效Transformer与UNet的3D脑肿瘤分割模型中进行分割;本发明能够解决现有的脑肿瘤患者的多模态核磁共振成像数据自动化分割效果较差的问题。

Description

结合高效Transformer与UNet的3D脑肿瘤分割模型
技术领域
本发明涉及医学图像分割技术领域,具体是结合高效Transformer与UNet的3D脑肿瘤分割模型。
背景技术
脑肿瘤对人类的生命健康安全有着严重的危害。不同类型的脑肿瘤在治疗方法和预后方面存在显著差异,及时发现与治疗有助于提高患者的总体生存期。MRI是临床上常用的一种非侵入式的诊断技术,它具有多种成像模态,包括T1-weighted(T1w),contrast-enhanced T1-weighted(CE_T1w),T2-weighted(T2w)和Fluid Attenuation InversionRecovery(FLAIR)等,每种模态都提供了大脑结构和病理学的独特对比。脑肿瘤由三个部分重叠的区域组成:水肿区(Edema Region,ED)、增强肿瘤区(Enhanced Tumor Region,ET)、坏死核心和非增强肿瘤区(Necrotic Core Region/Non-Enhancing Tumor Region,NCR/NET),不同的区域反映了不同的生物学特性。
在临床实践中,医生往往手动从MRI中分割出肿瘤各个子区域以确定患者的病况,需要花费大量的时间和精力,且容易受到主观因素的影响。因此,从多模态MRI中自动、准确地分割出脑肿瘤区域有助于提高临床诊断的效率和准确性,具有重要的实践意义,但同时也具有极大的挑战性。首先,由于成像原理不同,导致不同模态域差较大,且对比度很低,小目标不容易被识别。其次,不同肿瘤子区域外观、位置等具有高度异质性,很难通过直接匹配的方式找到它们之间的共性。最后,由于正常组织与病变组织之间的边界模糊,因此难以准确分离出肿瘤的轮廓,也阻碍了分割模型使用强大的临床先验知识。
传统的脑肿瘤分割包括基于机器学习、基于阈值和基于区域生长的方法等,但这些方法依赖于复杂的特征工程,且特征表示能力也较低,需要人工参与。而利用深度学习技术,可以对大规模的医学影像进行更快速自动的分割,减轻医生的工作压力。因此,如何构建更自动和精确的脑肿瘤分割模型成为了研究热点。
发明内容
本发明的目的在于解决现有的基于多模态MRI的脑肿瘤分割方法,其自动化分割效果较差,特别是对于肿瘤子区域的判别能力不足,难以满足医学实际需求的问题。
本发明为实现上述目的,通过以下技术方案实现:
结合高效Transformer与UNet的3D脑肿瘤分割方法,包括如下步骤:
S1、采集足够数量的脑肿瘤病人的多模态MRI,病例来自于多个中心以增大多样性;
S2、将采集的所有原始MRI及其标签数据进行配准、头骨剥离、空间对齐等预处理操作,之后采用强度缩放、旋转和随机裁剪等方法扩充原数据集,进行数据增强;
S3、构建结合高效Transformer与UNet的3D脑肿瘤分割模型;
S4、将步骤2中得到的训练集输入步骤3中构建的结合高效Transformer与UNet的3D脑肿瘤分割模型中进行训练,用Dice损失函数进行反向传播以更新网络参数,并通过自适应矩估计(adaptive moment estimation,Adam)优化模型,得到训练好的结合高效Transformer与UNet的3D脑肿瘤分割模型;
S5、将待分割预测的脑肿瘤患者的多模态MRI数据送入到步骤4所得到的训练好的结合高效Transformer与UNet的3D脑肿瘤分割模型中进行分割,得到该数据的多模态MRI的分割预测结果。
优选的,步骤S2中,结合高效Transformer与UNet的3D脑肿瘤分割模型主要包括4个DWFormer编码器模块、4个ESCA空间-通道注意力模块、3个MSFCA交叉注意力模块和4个解码器模块;四个依次级联的DWFormer编码器构成编码路径。每个模态在输入编码路径之前,先经过两个3×3×3的卷积(含激活层和归一化层)单元增大特征空间,然后依次经过四个DWFormer编码器。第一个DWFormer模块的输出端连接第二个DWFormer的输入端,第二个DWFormer模块的输出端连接第三个DWFormer的输入端,第三个DWFormer模块的输出端连接第四个DWFormer的输入端。
优选的,每个DWFormer编码器由1个步长为2的3×3×3卷积单元执行下采样并划分局部patch,接着由1个DWFormer模块对特征图进行局部-全局交互。DWFormer模块在遵循Transformer整体结构的基础上,使用轻量化的深度可分离块替代了自注意力运算。具体来说,输入特征先通过深度可分离块内部的一个1×1×1卷积升维,然后通过7×7×7的大核卷积提取空间体素特征,目的是为了增大感受野,最后通过1×1×1卷积恢复通道数。对于每个3×3×3卷积单元:所有层依次串联,3×3×3卷积的输入端形成3×3×3卷积单元的输入端,3×3×3卷积单元的输出端形成批归一化层的输入端,批归一化层的输出端形成ReLU激活函数的输入端,ReLU激活函数的输出端形成3×3×3卷积单元的输出端。
优选的,编码路径的输出作为ESCA模块的输入,四个ESCA模块依次串联。ESCA模块由空间注意力和通道注意力组成。针对空间注意力,将其解耦为基于轴的交互和基于窗口的交互。基于轴的交互分别沿着体素特征图的三个维度计算轴向注意力,计算方法是先通过矩阵转置将其他轴的数据转换到批处理轴(Batch),然后再按照标准Transformer流程进行运算。基于窗口的交互对每个局部3D patch内的tokens计算窗口注意力。针对位置编码,使用可学习的绝对位置编码用于轴注意力和条件位置编码用于窗口注意力。两种注意力分支路径得到各自的输出后,再进行求和操作,通过归一化和多层感知机层得到最终的输出。
优选的,MSFCA模块用于桥接编码器和解码器。首先对特征图进行的不同池化率(stride=2,4,8)的均值下采样操作,然后将不同特征图统一维度后按通道拼接,经过一个1×1×1卷积调整通道数,得到融合了多尺度信息的特征图,接着和来自于解码器的特征图进行交互。最后,由来自于编码器的特征图通过线性映射生成K,V,由来自于解码器的特征图生成Q,通过计算三元组的相关性得到增强后的解码特征。
优选的,每个解码器由一个步长为2的转置卷积和两个连续的3×3×3卷积单元组成。经过四个解码器后,特征图分辨率恢复到原图大小,再经过分割头得到三个区域的分割结果。分割头由1个1×1×1卷积单元和1个Sigmoid激活函数层组成;第四个解码器模块的输出端连接分割头的输入端;1×1×1卷积单元的输入端形成分割模块的输入端,1×1×1卷积单元的输出端连接Sigmoid激活函数层的输入端,激活函数层的输出端形成整个网络的最终输出端。
对比现有技术,本发明的有益效果在于:
为了充分发掘多模态MRI数据中的脑肿瘤各子区域相关信息,本发明对多模态MRI进行了建模学习,设计了新颖的网络对每个模态进行了有效的特征提取,并在网络浅层和深层实现了高效的信息融合,本发明构建的深度学习模型可以实现对多模态MRI脑肿瘤的比较精确地分割预测。
附图说明
图1是本发明结合高效Transformer与UNet的3D脑肿瘤分割模型的基本流程图;
图2是本发明所构建的基于深度学习模型结构图;
图3是编码器DWFormer模块的示意图;
图4是ESCA模块的示意图;
图5是MSFCA模块的示意图;
图6是特征融合和分割头结构示意图;
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所限定的范围。
实施例:流程如附图1所示,本发明所述是结合高效Transformer与UNet的3D脑肿瘤分割模型,包括步骤:
S1:使用公开的多模态脑肿瘤分割数据集BraTS2020,该数据集包含了来自多个医疗中心的共计369例带标签的训练样本,每个样本由四种模态组成,即T1w,CE-T1w,T2w和FLAIR。
S2:对收集的数据进行预处理。该公开数据集已经进行过配准、头骨剥离预处理操作,空间分辨率对齐为1mm3。检查所有数据是否完整,并将每个模态和对应标签裁剪为128×128×128大小。将数据集按照7:3划分为训练集和测试集,最后对所有数据进行标准化、强度缩放、随机旋转和随机裁剪等方法进行数据增强。
S3:构建结合高效Transformer与UNet的3D脑肿瘤分割模型,并设置模型参数。
结合高效Transformer与UNet的3D脑肿瘤分割模架构如图2所示。整体基于UNet架构,包括DWFormer编码器模块、ESCA高效空间-通道注意力模块、MSFCA多尺度融合交叉注意力模块、解码器部分和分割头。
1)编码器模块
DWFormer块参见图3a。整个编码路径由四个编码器组成,每个模态在输入编码路径之前,先经过两个3×3×3的卷积(含激活层和归一化层)单元增大特征空间,然后输入编码器中。每个编码器由1个步长为2的3×3×3卷积单元执行下采样并划分局部patch,接着由1个DWFormer模块对特征图进行局部-全局交互。DWFormer模块在遵循Transformer整体结构的基础上,使用轻量化的深度可分离块替代了自注意力运算。如图3b所示,输入特征先通过深度可分离块内部的一个1×1×1卷积升维,然后通过7×7×7的大核卷积提取空间体素特征,目的是为了增大感受野,最后通过1×1×1卷积恢复通道数。
如图2(左侧)所示,四个模态依次输入到编码路径中,每个模态先经过两个连续的3×3×3卷积映射特征空间通道数为C,然后经过四个连续的编码器生成不同尺度的特征图。图6a表示多模态特征融合运算。对不同模态提取的特征先在通道维度拼接,然后通过1×1×1卷积进行降维,最后经过归一化层和激活层得到融合了多模态信息的特征,以方便后续的ESCA和MSFCA模块中进行建模。
2)ESCA模块
ESCA模块参见图4。ESCA模块由空间注意力和通道注意力组成,用来对高阶语义信息进行建模增强。针对空间注意力,将其解耦为基于轴的交互和基于窗口的交互。基于轴的交互分别沿着体素特征图的三个维度计算轴向注意力,计算方法是先通过矩阵转置将其他轴的数据转换到批处理轴(Batch),然后再按照标准Transformer流程进行运算。基于窗口的交互对每个局部3D patch内的tokens计算窗口注意力。针对位置编码,使用可学习的绝对位置编码用于轴注意力和条件位置编码用于窗口注意力。两种注意力分支路径得到各自的输出后,再进行求和操作,通过归一化和多层感知机层得到最终的输出。
3)MSFCA模块
MSFCA模块参见图5。MSFCA模块用于桥接编码器和解码器。其核心是利用编码器产生的不同尺度的特征图和解码器特征之间计算交叉注意力,使解码器从编码器特征中自适应地查询出有价值的信息,以适应不规则的病变,进而增强解码路径的病灶表达能力。先对特征图进行的不同池化率(stride=2,4,8)的下采样操作,然后将不同特征图统一维度后按通道拼接,经过一个1×1×1卷积调整通道数,得到融合了多尺度信息的特征图,接着和来自于解码器的特征图进行交互。为了减低Transformer的计算量,使用基于空间注意力机制的TokenLearner模块减小tokens的数量。最后,由来自于编码器的特征图通过线性映射生成K,V,由来自于解码器的特征图生成Q,通过计算三元组的相关性得到增强特征。
4)解码器
每个解码器由一个步长为2的转置卷积和两个连续的3×3×3卷积单元组成。转置卷积用来对来自于前一个解码器的特征图进行上采样,增大两倍分辨率,3×3×3卷积单元用来对增强后的解码特征进一步细化。经过四个解码器后,特征图分辨率恢复到原图大小。
图6b表示分割头由1个1×1×1卷积单元和1个Sigmoid激活函数层组成;第四个解码器模块的输出端连接分割头的输入端;1×1×1卷积单元的输入端形成分割模块的输入端,1×1×1卷积单元的输出端连接Sigmoid激活函数层的输入端,激活函数层的输出端形成整个网络的最终输出端。
在构建完深度学习模型后,需要对网络的初始参数进行设置。
在本实施例中,设置的网络参数为:训练过程500轮次,批处理大小为1,初始学习效率为10-4,学习率采用余弦退火策略,并使用warmup策略进行预热。
S4:将步骤2中预处理后的训练集输入步骤3构建的基于深度学习的结合高效Transformer与UNet的3D脑肿瘤分割中进行训练,用Dice损失函数进行反向传播更新网络参数,并并通过自适应矩估计(adaptive moment estimation,Adam)优化模型,得到训练好的基于深度学习的结合高效Transformer与UNet的3D脑肿瘤分割模型。
Dice损失函数公式:
其中,N表示样本数量,rn表示样本n的标签,正类为1,负类为0。pn表示样本n预测为正类的概率。
步骤5:将待分割预测的脑肿瘤患者的多模态MRI数据送入到步骤4所得到的训练好的结合高效Transformer与UNet的3D脑肿瘤分割模型进行分割,得到该数据的多模态MRI的分割预测结果。

Claims (8)

1.结合高效Transformer与UNet的3D脑肿瘤分割模型,包括以下步骤:
S1、采集足够数量的脑肿瘤病人的多模态核磁共振图像(Magnetic ResonanceImaging,MRI)数据,病例来自于多个中心以增大多样性;
S2、将采集的所有原始MRI及其标签数据进行配准、头骨剥离、空间对齐等预处理操作,之后采用强度缩放、旋转和随机裁剪等方法扩充原数据集,进行数据增强;
S3、构建结合高效Transformer与UNet的3D脑肿瘤分割模型;
S4、将步骤2中得到的训练集输入步骤3中构建的结合高效Transformer与UNet的3D脑肿瘤分割模型中进行训练,用Dice损失函数进行反向传播以更新网络参数,并通过自适应矩估计(adaptive moment estimation,Adam)优化模型,得到训练好的结合高效Transformer与UNet的3D脑肿瘤分割模型;
S5、将待分割预测的脑肿瘤患者的多模态MRI数据送入到步骤4所得到的训练好的结合高效Transformer与UNet的3D脑肿瘤分割模型中进行分割,得到患者的多模态MRI的分割预测结果。
2.根据权利要求1所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:步骤S2中,结合高效Transformer与UNet的3D脑肿瘤分割模型主要包括4个DWFormer编码器模块、4个ESCA空间-通道注意力模块、3个MSFCA交叉注意力模块和4个解码器模块;四个依次级联的DWFormer编码器构成编码路径。每个模态在输入编码路径之前,先经过两个3×3×3的卷积(含激活层和归一化层)单元增大特征空间,然后依次经过四个DWFormer编码器。第一个DWFormer模块的输出端连接第二个DWFormer的输入端,第二个DWFormer模块的输出端连接第三个DWFormer的输入端,第三个DWFormer模块的输出端连接第四个DWFormer的输入端。
3.根据权利要求2所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:每个DWFormer编码器由1个步长为2的3×3×3卷积单元执行下采样并划分局部patch,接着由1个DWFormer模块对特征图进行局部-全局交互。DWFormer模块在遵循Transformer整体结构的基础上,使用轻量化的深度可分离块替代了自注意力运算。具体来说,输入特征先通过深度可分离块内部的一个1×1×1卷积升维,然后通过7×7×7的大核卷积提取空间体素特征,目的是为了增大感受野,最后通过1×1×1卷积恢复通道数。
4.根据权利要求2所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:对于每个3×3×3卷积单元:所有层依次串联,3×3×3卷积的输入端形成3×3×3卷积单元的输入端,3×3×3卷积单元的输出端形成批归一化层的输入端,批归一化层的输出端形成ReLU激活函数的输入端,ReLU激活函数的输出端形成3×3×3卷积单元的输出端。
5.根据权利要求2所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:编码路径的输出作为ESCA模块的输入,四个ESCA模块依次串联。ESCA模块由空间注意力和通道注意力组成。针对空间注意力,将其解耦为基于轴的交互和基于窗口的交互。基于轴的交互分别沿着体素特征图的三个维度计算轴向注意力,计算方法是先通过矩阵转置将其他轴的数据转换到批处理轴(Batch),然后再按照标准Transformer流程进行运算。基于窗口的交互对每个局部3D patch内的tokens计算窗口注意力。针对位置编码,使用可学习的绝对位置编码用于轴注意力和条件位置编码用于窗口注意力。两种注意力分支路径得到各自的输出后,再进行求和操作,通过归一化和多层感知机层得到最终的输出。
6.根据权利要求2所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:MSFCA模块用于桥接编码器和解码器。首先对特征图进行的不同池化率(stride=2,4,8)的均值下采样操作,然后将不同特征图统一维度后按通道拼接,经过一个1×1×1卷积调整通道数,得到融合了多尺度信息的特征图,接着和来自于解码器的特征图进行交互。最后,由来自于编码器的特征图通过线性映射生成K,V,由来自于解码器的特征图生成Q,通过计算三元组的相关性得到增强后的解码特征。
7.根据权利要6所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:每个解码器由一个步长为2的转置卷积和两个连续的3×3×3卷积单元组成。经过四个解码器后,特征图分辨率恢复到原图大小,再经过分割头得到三个区域的分割结果。
8.根据权利要7所述的结合高效Transformer与UNet的3D脑肿瘤分割模型,其特征在于:分割头由1个1×1×1卷积单元和1个Sigmoid激活函数层组成;第四个解码器模块的输出端连接分割头的输入端;1×1×1卷积单元的输入端形成分割模块的输入端,1×1×1卷积单元的输出端连接Sigmoid激活函数层的输入端,激活函数层的输出端形成整个网络的最终输出端。
CN202311238860.4A 2023-09-22 2023-09-22 结合高效Transformer与UNet的3D脑肿瘤分割模型 Pending CN117372452A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311238860.4A CN117372452A (zh) 2023-09-22 2023-09-22 结合高效Transformer与UNet的3D脑肿瘤分割模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311238860.4A CN117372452A (zh) 2023-09-22 2023-09-22 结合高效Transformer与UNet的3D脑肿瘤分割模型

Publications (1)

Publication Number Publication Date
CN117372452A true CN117372452A (zh) 2024-01-09

Family

ID=89401316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311238860.4A Pending CN117372452A (zh) 2023-09-22 2023-09-22 结合高效Transformer与UNet的3D脑肿瘤分割模型

Country Status (1)

Country Link
CN (1) CN117372452A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611806A (zh) * 2024-01-24 2024-02-27 北京航空航天大学 基于影像和临床特征的前列腺癌手术切缘阳性预测系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611806A (zh) * 2024-01-24 2024-02-27 北京航空航天大学 基于影像和临床特征的前列腺癌手术切缘阳性预测系统
CN117611806B (zh) * 2024-01-24 2024-04-12 北京航空航天大学 基于影像和临床特征的前列腺癌手术切缘阳性预测系统

Similar Documents

Publication Publication Date Title
Havaei et al. Deep learning trends for focal brain pathology segmentation in MRI
CN110689543A (zh) 基于注意机制的改进卷积神经网络脑肿瘤图像分割方法
US20230342918A1 (en) Image-driven brain atlas construction method, apparatus, device and storage medium
CN112766377B (zh) 左心室磁共振影像智能分类方法、装置、设备和介质
CN115496771A (zh) 一种基于脑部三维mri图像设计的脑肿瘤分割方法
CN111091575B (zh) 一种基于强化学习方法的医学图像分割方法
CN117372452A (zh) 结合高效Transformer与UNet的3D脑肿瘤分割模型
CN114782350A (zh) 一种基于注意力机制的多模态特征融合的mri脑瘤图像分割方法
CN116823625B (zh) 基于变分自编码器的跨对比度磁共振超分辨率方法和系统
CN112785593A (zh) 一种基于深度学习的脑部图像分割方法
Qayyum et al. Automatic segmentation using a hybrid dense network integrated with an 3D-atrous spatial pyramid pooling module for computed tomography (CT) imaging
CN112837276B (zh) 一种基于级联深度神经网络模型的脑胶质瘤分割方法
CN117218453B (zh) 一种不完备多模态医学影像学习方法
Le et al. Antialiasing attention spatial convolution model for skin lesion segmentation with applications in the medical IoT
CN110992309B (zh) 基于深层信息传递网络的眼底图像分割方法
CN116309754A (zh) 一种基于局部-全局信息协作的大脑医学图像配准方法及系统
Emmamuel et al. 3D-CNN method over shifted patch tokenization for MRI-based diagnosis of Alzheimer’s disease using segmented hippocampus
Ingle et al. Efficient segmentation and classification of the tumor using improved encoder-decoder architecture in brain MRI images
CN116309507A (zh) 注意力机制下对ctp进行特征融合的ais病灶预测方法
CN116309615A (zh) 一种多模态mri脑肿瘤图像分割方法
CN114972291B (zh) 基于混合增强智能的医学影像结构化自动标注方法与系统
CN113409324B (zh) 一种融合微分几何信息的脑分割方法
Zhang et al. ETUNet: Exploring efficient transformer enhanced UNet for 3D brain tumor segmentation
Tu et al. Segmentation of lesion in dermoscopy images using dense-residual network with adversarial learning
CN114511602A (zh) 基于图卷积Transformer的医学图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination