CN113674253A - 基于U-Transformer的直肠癌CT影像自动分割方法 - Google Patents

基于U-Transformer的直肠癌CT影像自动分割方法 Download PDF

Info

Publication number
CN113674253A
CN113674253A CN202110981706.0A CN202110981706A CN113674253A CN 113674253 A CN113674253 A CN 113674253A CN 202110981706 A CN202110981706 A CN 202110981706A CN 113674253 A CN113674253 A CN 113674253A
Authority
CN
China
Prior art keywords
rectal cancer
characteristic diagram
transducer
segmentation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110981706.0A
Other languages
English (en)
Other versions
CN113674253B (zh
Inventor
宋海裕
王浩宇
吴海燕
张志强
邓胜春
冯小青
陈琰宏
彭娟娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Finance and Economics
Original Assignee
Zhejiang University of Finance and Economics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Finance and Economics filed Critical Zhejiang University of Finance and Economics
Priority to CN202110981706.0A priority Critical patent/CN113674253B/zh
Publication of CN113674253A publication Critical patent/CN113674253A/zh
Application granted granted Critical
Publication of CN113674253B publication Critical patent/CN113674253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于U‑Transformer的直肠癌CT影像自动分割方法。本发明包括如下步骤:步骤1,实验数据的预处理;步骤2,构建U‑Transformer网络模型;步骤3,训练U‑Transformer网络模型;步骤4,采用训练好的U‑Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。本发明实现了直肠癌肿瘤CT影像的分割,避免了人工分割存在的低效率及不稳定的缺陷,从而为相关疾病的诊断、治疗和手术引导提供准确的依据。相比于其他U型网络结构,该方法可以学习到全局特征,具有更大的视觉感知范围,从而实现高精度的医学分割。

Description

基于U-Transformer的直肠癌CT影像自动分割方法
技术领域
本发明涉及一种基于U-Transformer直肠癌肿瘤CT影像自动分割方法,属于直肠癌的精准分割技术领域。
背景技术
2018年,直肠癌的发病率和死亡率在全球所有癌症中排名第四。根据临床医学指南,直肠癌患者的生存和预后与肿瘤分期高度相关。但总的来说,大多数有症状的患者发展到晚期,晚期患者的5年生存率远低于早期患者。早期发现肿瘤对提高患者生存时间非常重要。
目前,直肠癌的早期筛查方法主要有:粪便潜血检查、肠镜检查和医学影像学检查。隐血物质在检测和分辨中很容易获得,但分辨中通常含有食物残渣,导致假阳性率高,灵敏度低。肠镜检查在检测肠道病变方面具有最高的灵敏度和准确性,但它会给患者带来不适,并且可能需要较长的肠道准备时间。此外,肠镜检查有一定机会导致胃肠道穿孔。医学成像中常见的成像技术包括超声成像、核磁共振成像、计算机断层扫描等。由于CT具有诊断快速、肿瘤观察全面、无创性诊断直肠癌等优点,因此CT在临床上得到了广泛的应用,CT成像在提高直肠癌患者的诊断准确率、提供个性化的诊断和治疗方案、支持临床决策方面具有巨大潜力。当使用CT图像进行辅助诊断时,只有分割直肠癌的肿瘤区域,才能进行下一步的肿瘤诊断,预后分析和制定个性化治疗计划。准确分割直肠癌肿瘤区域是治疗的关键步骤。如果分割不准确,将对后续分析产生很大影响。在传统的分割步骤中,分割过程是由具有丰富专业知识和临床经验的影像科医生完成的。然而,由于医生的主观判断和经验差距,这一过程非常耗时,分割的准确性会有很大的个体差异。据统计,普通放射科医生对直肠癌分割的Dice相似系数为0.71,分割时间为600s/例。自动分割可以大大减轻成像医生的负担,提高分割的鲁棒性和分割的一致性。因此,实现直肠癌的自动分割在临床治疗上非常具有意义。
为了解决放射科医生在分割直肠癌时遇到的问题,我们提出了一个名为U-Transformer的深度学习模型。U-Transformer是一个基于Transformer和全尺度跳跃连接的U形架构,由编码器和解码器组成。首先将一维的图像patch送入Swin-Transformer中提取上下文特征,然后利用Patch Merging进行下采样,用于缩小每个token的分辨率并且调整其通道数,进而形成层次化的设计。在解码器部分,使用全尺度跳跃连接作为解码器,解码器中融合了低层细节和高层语义,充分利用了多尺度特征。与普通CNN相比,该方法可以学习到更多全局信息,具有更大的感受野,从而实现高精度的医学分割。与一些研究中使用的Astrous卷积、自我注意机制和图像金字塔相比,U-Transformer在建模长期依赖性方面没有限制,并且能够很好地分割肿瘤内的非肿瘤区域,分割的Dice系数达到了0.87。
发明内容
为克服现有技术不足,本发明旨在提出一种基于U-Transformer的直肠癌CT影像自动分割方法,实现了直肠癌肿瘤CT影像的分割,避免了人工分割存在的低效率及不稳定的缺陷,从而为相关疾病的诊断、治疗和手术引导提供准确的依据。
为此,本发明解决其技术问题所采用的具体步骤如下:
步骤1,实验数据的预处理;
步骤2,构建U-Transformer网络模型;
步骤3,训练U-Transformer网络模型;
步骤4,采用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。
进一步的,所述步骤1具体过程实现如下:
步骤1.1,为了提高图像的对比图和泛化能力,我们首先对CT影像进行直方图均衡化和归一化处理,归一化公式为:
Figure BDA0003229360810000021
其中,I为原始图像,Inorm为归一化后的图像,Imin为I的最小强度值,Imax为I的最大强度值;
步骤1.2:对肿瘤区域进行裁剪,构建规约数据库;
步骤1.3:对CT影像进行旋转、镜像、水平翻转等几何变换方法,进行数据增强.扩增训练样本,以减少过拟合现象;
步骤1.4:将每个CT影像和标记图的尺寸进行统一;
步骤1.5:按照0.8:0.1:0.1的比例划分训练集、验证集和测试集。
进一步的,所述步骤2的具体过程包括:
步骤2.1:构建Patch Embedding层;将二维的CT影像变换得到M个大小为P2·C的一维patch embeddings;
步骤2.2:构建Swin Transforner Block。先使用窗口多头注意力机制W-MSA,计算窗口内部的自注意力得分,通过window reverse操作将得到的特征图还原为与输入特征一样的大小。再使用滑动窗口注意力机制SW-MSA计算不同窗口之间的注意力得分,通过window reverse操作将得到的特征图还原为与输入特征一样的大小;
步骤2.3:将Patch Merging层与Swin Transformer Block共同构成编码器。在第一层编码器中,使用两个Swin Transformer Block进行特征提取;在第二层编码器中,使用六个Swin Transformer Block进行特征;在第三层编码器中,使用两个Swin TransformerBlock进行特征提取;
步骤2.4:在每个解码器中构建全尺度跳跃连接,融合低层细节和高层语义,充分利用多尺度特征;
步骤2.5:对三层编码后的特征图进行三层解码操作;
步骤2.6:使用双线性插值将经过三层解码操作后的特征图进行扩展;
步骤2.7:构建线性投影操作,实现像素级分割。
进一步的,所述步骤3的具体过程包括:
步骤3.1:采用Adam优化方式;
步骤3.2:引入二分类的交叉熵损失函数;
步骤3.3:使用CIFAR-100数据集的权重对U-Transformer网络模型进行预训练。
进一步的,所述步骤4的具体过程包括:
步骤4.1:引入Dice相似系数、PPV系数和灵敏度系数来评价分割的效果。
进一步的,所述步骤2.1中的Patch Embedding层具体实施方式为:
2.1.1对输入输入的2D医学影像记为
Figure BDA0003229360810000041
其中H和W为图像的长和宽,C为通道数。
2.1.2将图像分割为多个大小相同的patchs,patchs的表达式为
Figure BDA0003229360810000042
其中
Figure BDA0003229360810000043
是最终分割的patchs数量,每个patch的大小为P2
2.1.3通过线性变换得到M个向量长度为P2·C的一维patch embeddings。
2.1.4对每一个patch embeddings设置一个一维的位置编码,最终patchembeddings表示如下:
Figure BDA0003229360810000044
其中,
Figure BDA0003229360810000045
代表了位置编码信息。
进一步的,所述步骤2.2中的W-MSA的具体实施方式为:
2.2.1使用window partition对输入的patch emdeddings划分窗口。
2.2.2构建多头注意力机制MLP计算每个窗口内部的自注意力得分,得到输出特征图Ⅰ;
2.2.3通过window reverse操作将输出的特征图Ⅰ还原成跟输入特征图一样的大小。
所述W-MSA的计算公式如下:
Figure BDA0003229360810000046
Figure BDA0003229360810000051
Figure BDA0003229360810000052
其中,
Figure BDA0003229360810000053
为W-MSA的输出,zl为多头注意力的输出特征图,Q,K,V分别为查询、键和值的矩阵,d为Q,K,V矩阵的维度。B的值取自于偏差矩阵
Figure BDA0003229360810000054
进一步的,所述步骤2.2的SW-MSA的具体实施方式为:
2.2.4通过特征图移位并构建多图注意力机制MLP来实现不同窗口之间注意力得分计算,由于对特征图移位会导致窗口的个数变化,因此通过给Attention设置mask机制来实现注意力得分计算的等价;得到输出特征图Ⅱ;
2.2.5通过window reverse操作将输出特征图Ⅱ还原成跟输入特征图一样的大小。
所述SW-MSA的计算公式如下:
Figure BDA0003229360810000055
Figure BDA0003229360810000056
Figure BDA0003229360810000057
其中,
Figure BDA0003229360810000058
为SW-MSA的输出,zl+1为多头注意力的输出特征图Ⅱ。Q,K,V分别为查询、键和值的矩阵,d为Q,K,V矩阵的维度。B的值取自于偏差矩阵
Figure BDA0003229360810000059
进一步的,所述步骤2.3的Patch Merging的具体实施方式为:对H和W维度进行间隔采样后拼接在一起,达到下采样的目的。
进一步的,所述步骤2.4的全尺度跳跃连接的具体实施方式为:
2.4.1对于高层语义特征图,先使用最大池化缩小该高层语义特征图的大小,然后使用3×3的卷积核改变其维度。
2.4.2对于低层细节特征图,先使用双线性插值扩大该低层细节特征图的大小,然后使用3×3的卷积核改变其维度。
2.4.3对经过步骤2.4.1处理后的高层语义特征图与经过步骤2.4.2处理后的低层细节特征图进行融合,融合的特征图使用3×3的卷积核,再经过批标准化和ReLU函数激活。
进一步的,所述步骤2.6的双线性插值的具体实施方式为:使用双线性插值将经过三层解码操作后的特征图从
Figure BDA0003229360810000061
扩展为W×H×C。
进一步的,所述优化方法为Adam,所述损失函数为交叉熵,所述预训练数据集为CIFAR-100。
所述交叉熵定义如下:
Figure BDA0003229360810000062
其中,yi为表注的真实眼膜图中像素点i的值,取值为0或1;
Figure BDA0003229360810000063
为算法得到的掩模图中像素点i的值,取值范围为0~1;N是分割图和标注掩模图中的像素点总个数。
进一步的,步骤4中评价方式为Dice相似系数、PPV系数和灵敏度系数。
其定义如下:
Figure BDA0003229360810000064
Figure BDA0003229360810000065
Figure BDA0003229360810000066
其中,TP表示被正确分割成直肠肿瘤区域的像素数量;TN表示被正确分割成背景区域的像素数量;FP表示将背景区域预测成肿瘤区域的像素数量;FN表示将肿瘤区域预测成背景区域的像素数量。
现有技术相比,本发明的有益结果使:
本发明通过建立U-Transformer的深度学习模型,实现了直肠癌肿瘤CT影像的分割,避免了人工分割存在的低效率及不稳定的缺陷,从而为相关疾病的诊断、治疗和手术引导提供准确的依据。相比于其他U型网络结构,该方法可以学习到全局特征,具有更大的视觉感知范围,从而实现高精度的医学分割。
附图说明
图1为CT影像预处理的示意图。
图2为U-Transformer的网络结构图。
图3为U-Transformer的全尺度跳跃连接示意图。
图4为Swin Transformer Block的原理图。
图5为U-Transformer分割直肠癌肿瘤的实例效果。
图6为本发明效果对比实例示意图。
图7为U-Transformer的Patch Merging层示意图
图8为SW-MSA机制的特征图移位和mask机制示意图
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
如图1-8所示,基于U-Transformer的直肠癌CT影像自动分割方法。该方法包括下述过程:对实验数据进行预处理;构建U-Transformer网络模型;训练U-Transformer网络模型;用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。本发明提出的U-Transformer网络模型可以很好的对直肠癌肿瘤的CT影像进行分割。
实施例1:数据预处理模块:对实验数据的预处理
(1)对数据进行直方图均衡化和归一化处理,如图1所示。
(2)对CT影像进行数据规约,构建规约数据库。
(3)对CT影像进行旋转、镜像、水平翻转等几何变换方法,进行数据增强.扩增训练样本,以减少过拟合现象。
(4)将每个CT影像和标记图的尺寸进行统一。
(5)按照0.8:0.1:0.1的比例划分数据集为训练集、验证集和测试集。
实施例2:U-Transformer网络模型构建模块:构建U-Transformer网络模型。
(1)构建Patch Embedding层。将二维的CT影像变换得到M个大小为P2·C的一维patch embeddings。
(2)构建Swin Transformer Block。具体的Swin Transformer Block如图4所示:1.使用W-MSA机制计算窗口内部的自注意力得分2.使用SW-MSA机制计算不同窗口之间的注意力得分。
(3)构建Patch Merging。具体的Patch Merging对H和W维度进行间隔采样后拼接在一起,可以达到下采样的目的。
(4)构建全尺度跳跃连接。具体的全尺度跳跃连接机制如图3所示:1.对于高层语义特征,我们先使用最大池化缩小其特征图大小,然后使用3×3的卷积核改变其维度。2.对于低层细节特征,我们先使用双线性插值扩大其特征图大小,然后使用3×3的卷积核改变其维度。3.对融合的特征图使用3×3的卷积核,再经过批标准化和ReLU函数激活。
(5)使用双线性插值将经过三层解码操作后的特征图从
Figure BDA0003229360810000081
Figure BDA0003229360810000082
扩展为W×H×C。
(6)构建线性投影操作。将W×H×C的特征图变为W×H×2,从而实现像素级分割。
实施例3:U-Transformer网络模型训练模块:训练U-Transformer网络模型
(1)采用Adam优化方式作为优化方法,同时采用交叉熵作为损失函数进行训练。所述交叉熵公式如下:
Figure BDA0003229360810000083
其中,yi为表注的真实眼膜图中像素点i的值,取值为0或1;
Figure BDA0003229360810000084
为算法得到的掩模图中像素点i的值,取值范围为0~1;N是分割图和表注掩模图中的像素点总个数。
(2)将U-Transformer网络模型在CIFAR-100数据集上进行预训练。
实施例4:分割评估模块:采用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估
(1)图5为U-Transformer分割的实例。引入Dice相似系数、PPV系数和灵敏度系数来评价分割的效果,U-Transformer的Dice系数、PPV系数和灵敏度系数分别0.8700、0.8042和0.9481。三个系数的定义如下:
Figure BDA0003229360810000091
Figure BDA0003229360810000092
Figure BDA0003229360810000093
其中,TP表示被正确分割成直肠肿瘤区域的像素数量;TN表示被正确分割成背景区域的像素数量;FP表示将背景区域预测成肿瘤区域的像素数量;FN表示将肿瘤区域预测成背景区域的像素数量。
实施例5:效果对比表
如图6和表1所示,U-Transformer分割肿瘤的Dice系数、PPV系数和灵敏度系数分别为0.8700、0.8042和0.9481,均高于其他模型。同时,比放射科医生手动绘制肿瘤的Dice系数高出了18.39%。我们选择了几个具有代表性的分割图进行展示,可以看出U-Transformer可以很好地分割肿瘤的边缘区域,而V-Net、U-Net和R2U-Net不能准确识别肿瘤的位置,这是由于直肠癌位置较为特殊,普通的卷积神经网络很容易将背景区域识别为肿瘤区域。对于部分CT影像,U-Net虽然可以稳定地分割肿瘤区域,但肿瘤的边缘仍然比较粗糙,有时无法识别被肿瘤区域包裹的非肿瘤区域。由Swin Transformer作为编码器和全尺度跳跃连接作为解码器的U-Transformer模型具有比卷积神经网络更大的感受野;并且U-Transformer可以有效地对肿瘤边缘和肿瘤内部的非肿瘤区域进行分割。
表1:Dice系数、PPV系数和灵敏度系数对比表
Figure BDA0003229360810000101

Claims (9)

1.基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于包括如下步骤
步骤1,实验数据的预处理;
步骤2,构建U-Transformer网络模型;
步骤3,训练U-Transformer网络模型;
步骤4,采用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。
2.根据权利要求1所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于步骤2的具体实现过程包括:
步骤2.1:构建PatchEmbedding层;将二维的CT影像变换得到M个大小为P2·C的一维patch embeddings;
步骤2.2:构建SwinTransfornerBlock;先使用窗口多头注意力机制W-MSA,计算窗口内部的自注意力得分,通过window reverse操作将得到的特征图还原为与输入特征一样的大小;再使用滑动窗口注意力机制SW-MSA计算不同窗口之间的注意力得分,通过windowreverse操作将得到的特征图还原为与输入特征一样的大小;
步骤2.3:将Patch Merging层与Swin Transformer Block共同构成编码器;在第一层编码器中,使用两个Swin TransformerBlock进行特征提取;在第二层编码器中,使用六个Swin Transformer Block进行特征提取;在第三层编码器中,使用两个SwinTransformerBlock进行特征提取;
步骤2.4:在每个解码器中构建全尺度跳跃连接,融合低层细节和高层语义,充分利用多尺度特征;
步骤2.5:对三层编码后的特征图进行三层解码操作;
步骤2.6:使用双线性插值将经过三层解码操作后的特征图进行扩展;
步骤2.7:构建线性投影操作,实现像素级分割。
3.根据权利要求2所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤4的具体过程包括:
步骤4.1:引入Dice相似系数、PPV系数和灵敏度系数来评价分割的效果。
4.根据权利要求2所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.1中的Patch Embedding层具体实施方式为:
2.1.1对输入输入的2D医学影像记为
Figure FDA0003229360800000021
其中H和W为图像的长和宽,C为通道数;
2.1.2将图像分割为多个大小相同的patchs,patchs的表达式为
Figure FDA0003229360800000022
其中
Figure FDA0003229360800000023
是最终分割的patchs数量,每个patch的大小为P2
2.1.3通过线性变换得到M个向量长度为P2·C的一维patch embeddings;
2.1.4对每一个patch embeddings设置一个一维的位置编码,最终patch embeddings表示如下:
Figure FDA0003229360800000024
其中,
Figure FDA0003229360800000025
代表了位置编码信息。
5.根据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.2中的W-MSA的具体实施方式为:
2.2.1使用windowpartition对输入的patch emdeddings划分窗口;
2.2.2构建多头注意力机制MLP计算每个窗口内部的自注意力得分,得到输出特征图Ⅰ;
2.2.3通过window reverse操作将输出的特征图Ⅰ还原成跟输入特征图一样的大小;
所述W-MSA的计算公式如下:
Figure FDA0003229360800000031
Figure FDA0003229360800000032
Figure FDA0003229360800000033
其中,
Figure FDA0003229360800000034
为W-MSA的输出,zl为多头注意力的输出特征图,Q,K,V分别为查询、键和值的矩阵,d为Q,K,V矩阵的维度;B的值取自于偏差矩阵
Figure FDA0003229360800000035
所述步骤2.2的SW-MSA的具体实施方式为:
2.2.4通过特征图移位并构建多图注意力机制MLP来实现不同窗口之间注意力得分计算,由于对特征图移位会导致窗口的个数变化,因此通过给Attention设置mask机制来实现注意力得分计算的等价,在计算注意力得分时,只需要计算自己窗口的值,其余位置设置对应的mask,让其值为负无穷;得到输出特征图Ⅱ;
2.2.5通过window reverse操作将输出特征图Ⅱ还原成跟输入特征图一样的大小;
所述SW-MSA的计算公式如下:
Figure FDA0003229360800000036
Figure FDA0003229360800000037
Figure FDA0003229360800000038
其中,
Figure FDA0003229360800000039
为SW-MSA的输出,zl+1为多头注意力的输出特征图Ⅱ;Q,K,V分别为查询、键和值的矩阵,d为Q,K,V矩阵的维度;B的值取自于偏差矩阵
Figure FDA00032293608000000310
6.根据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.3的Patch Merging的具体实施方式为:对H和W维度进行间隔采样后拼接在一起,达到下采样的目的。
7.据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.4的全尺度跳跃连接的具体实施方式为:
2.4.1对于高层语义特征图,先使用最大池化缩小该高层语义特征图的大小,然后使用3×3的卷积核改变其维度;
2.4.2对于低层细节特征图,先使用双线性插值扩大该低层细节特征图的大小,然后使用3×3的卷积核改变其维度;
2.4.3对经过步骤2.4.1处理后的高层语义特征图与经过步骤2.4.2处理后的低层细节特征图进行融合,融合的特征图使用3×3的卷积核,再经过批标准化和ReLU函数激活。
8.据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.6的双线性插值的具体实施方式为:使用双线性插值将经过三层解码操作后的特征图从
Figure FDA0003229360800000041
扩展为W×H×C。
9.据权利要求4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述优化方法为Adam,所述损失函数为交叉熵,所述预训练数据集为CIFAR-100;
所述交叉熵定义如下:
Figure FDA0003229360800000042
其中,yi为表注的真实眼膜图中像素点i的值,取值为0或1;
Figure FDA0003229360800000043
为算法得到的掩模图中像素点i的值,取值范围为0~1;N是分割图和标注掩模图中的像素点总个数。
CN202110981706.0A 2021-08-25 2021-08-25 基于U-Transformer的直肠癌CT影像自动分割方法 Active CN113674253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110981706.0A CN113674253B (zh) 2021-08-25 2021-08-25 基于U-Transformer的直肠癌CT影像自动分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110981706.0A CN113674253B (zh) 2021-08-25 2021-08-25 基于U-Transformer的直肠癌CT影像自动分割方法

Publications (2)

Publication Number Publication Date
CN113674253A true CN113674253A (zh) 2021-11-19
CN113674253B CN113674253B (zh) 2023-06-30

Family

ID=78546128

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110981706.0A Active CN113674253B (zh) 2021-08-25 2021-08-25 基于U-Transformer的直肠癌CT影像自动分割方法

Country Status (1)

Country Link
CN (1) CN113674253B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870258A (zh) * 2021-12-01 2021-12-31 浙江大学 一种基于对抗学习的无标签胰腺影像自动分割系统
CN114119585A (zh) * 2021-12-01 2022-03-01 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN114187278A (zh) * 2021-12-14 2022-03-15 山东众阳健康科技集团有限公司 一种肋骨细小骨折检测方法和系统
CN114445422A (zh) * 2022-01-13 2022-05-06 同济大学 基于transformer的医学图像分割方法、系统、介质及电子设备
CN114529507A (zh) * 2021-12-30 2022-05-24 广西慧云信息技术有限公司 一种基于视觉Transformer的刨花板表面缺陷检测方法
CN114758121A (zh) * 2022-03-04 2022-07-15 杭州隐捷适生物科技有限公司 一种基于深度学习的cbct牙槽骨分割系统及方法
CN114912575A (zh) * 2022-04-06 2022-08-16 西安交通大学 基于连接Swin Transformer通路的医学图像分割模型及方法
CN115222734A (zh) * 2022-09-20 2022-10-21 山东大学齐鲁医院 一种用于胃黏膜肠上皮化生的图像分析方法及系统
CN115578406A (zh) * 2022-12-13 2023-01-06 四川大学 基于上下文融合机制的cbct颌骨区域分割方法及系统
CN115690127A (zh) * 2022-11-09 2023-02-03 齐鲁工业大学 基于滑动窗口Transformer的两阶段法CT图像分割方法
CN115880691A (zh) * 2023-03-02 2023-03-31 国网山东省电力公司东营供电公司 一种基于计算机视觉的屋顶光伏潜力估计方法
CN116433697A (zh) * 2023-06-13 2023-07-14 南京航空航天大学 基于眼动仪的腹部多器官ct图像分割方法
WO2024098318A1 (zh) * 2022-11-10 2024-05-16 中国科学院深圳先进技术研究院 医学图像分割方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110116698A1 (en) * 2009-11-18 2011-05-19 Siemens Corporation Method and System for Segmentation of the Prostate in 3D Magnetic Resonance Images
CN108010041A (zh) * 2017-12-22 2018-05-08 数坤(北京)网络科技有限公司 基于深度学习神经网络级联模型的人体心脏冠脉提取方法
CN111145170A (zh) * 2019-12-31 2020-05-12 电子科技大学 一种基于深度学习的医学影像分割方法
CN112102321A (zh) * 2020-08-07 2020-12-18 深圳大学 一种基于深度卷积神经网络的病灶图像分割方法及系统
CN112150429A (zh) * 2020-09-18 2020-12-29 南京师范大学 一种注意力机制引导的肾ct图像分割方法
CN112164069A (zh) * 2020-07-29 2021-01-01 南通大学 一种基于深度学习的ct腹部血管分割方法
CN112348769A (zh) * 2020-08-20 2021-02-09 盐城工学院 基于U-Net深度网络模型的CT影像中肾肿瘤智能分割方法及装置
CN112949648A (zh) * 2021-03-12 2021-06-11 上海眼控科技股份有限公司 一种图像分割模型训练样本数据集的获取方法及设备
CN112990219A (zh) * 2021-03-25 2021-06-18 北京百度网讯科技有限公司 用于图像语义分割的方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110116698A1 (en) * 2009-11-18 2011-05-19 Siemens Corporation Method and System for Segmentation of the Prostate in 3D Magnetic Resonance Images
CN108010041A (zh) * 2017-12-22 2018-05-08 数坤(北京)网络科技有限公司 基于深度学习神经网络级联模型的人体心脏冠脉提取方法
CN111145170A (zh) * 2019-12-31 2020-05-12 电子科技大学 一种基于深度学习的医学影像分割方法
CN112164069A (zh) * 2020-07-29 2021-01-01 南通大学 一种基于深度学习的ct腹部血管分割方法
CN112102321A (zh) * 2020-08-07 2020-12-18 深圳大学 一种基于深度卷积神经网络的病灶图像分割方法及系统
CN112348769A (zh) * 2020-08-20 2021-02-09 盐城工学院 基于U-Net深度网络模型的CT影像中肾肿瘤智能分割方法及装置
CN112150429A (zh) * 2020-09-18 2020-12-29 南京师范大学 一种注意力机制引导的肾ct图像分割方法
CN112949648A (zh) * 2021-03-12 2021-06-11 上海眼控科技股份有限公司 一种图像分割模型训练样本数据集的获取方法及设备
CN112990219A (zh) * 2021-03-25 2021-06-18 北京百度网讯科技有限公司 用于图像语义分割的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KEYU WEN等: "Learning Dual Semantic Relations With Graph Attention for Image-Text Matching", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》, vol. 31, no. 7, pages 2866 - 2879, XP011864212, DOI: 10.1109/TCSVT.2020.3030656 *
田应仲等: "基于注意力机制与Swin Transformer模型的腰椎图像分割方法", 《计量与测试技术》, vol. 48, no. 12, pages 57 - 61 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119585A (zh) * 2021-12-01 2022-03-01 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN113870258B (zh) * 2021-12-01 2022-03-25 浙江大学 一种基于对抗学习的无标签胰腺影像自动分割系统
CN113870258A (zh) * 2021-12-01 2021-12-31 浙江大学 一种基于对抗学习的无标签胰腺影像自动分割系统
CN114119585B (zh) * 2021-12-01 2022-11-29 昆明理工大学 基于Transformer的关键特征增强胃癌图像识别方法
CN114187278A (zh) * 2021-12-14 2022-03-15 山东众阳健康科技集团有限公司 一种肋骨细小骨折检测方法和系统
CN114529507A (zh) * 2021-12-30 2022-05-24 广西慧云信息技术有限公司 一种基于视觉Transformer的刨花板表面缺陷检测方法
CN114529507B (zh) * 2021-12-30 2024-05-17 广西慧云信息技术有限公司 一种基于视觉Transformer的刨花板表面缺陷检测方法
CN114445422A (zh) * 2022-01-13 2022-05-06 同济大学 基于transformer的医学图像分割方法、系统、介质及电子设备
CN114758121A (zh) * 2022-03-04 2022-07-15 杭州隐捷适生物科技有限公司 一种基于深度学习的cbct牙槽骨分割系统及方法
CN114912575B (zh) * 2022-04-06 2024-04-09 西安交通大学 基于连接Swin Transformer通路的医学图像分割模型及方法
CN114912575A (zh) * 2022-04-06 2022-08-16 西安交通大学 基于连接Swin Transformer通路的医学图像分割模型及方法
CN115222734A (zh) * 2022-09-20 2022-10-21 山东大学齐鲁医院 一种用于胃黏膜肠上皮化生的图像分析方法及系统
CN115690127A (zh) * 2022-11-09 2023-02-03 齐鲁工业大学 基于滑动窗口Transformer的两阶段法CT图像分割方法
WO2024098318A1 (zh) * 2022-11-10 2024-05-16 中国科学院深圳先进技术研究院 医学图像分割方法
CN115578406A (zh) * 2022-12-13 2023-01-06 四川大学 基于上下文融合机制的cbct颌骨区域分割方法及系统
CN115880691A (zh) * 2023-03-02 2023-03-31 国网山东省电力公司东营供电公司 一种基于计算机视觉的屋顶光伏潜力估计方法
CN115880691B (zh) * 2023-03-02 2023-05-23 国网山东省电力公司东营供电公司 一种基于计算机视觉的屋顶光伏潜力估计方法
CN116433697A (zh) * 2023-06-13 2023-07-14 南京航空航天大学 基于眼动仪的腹部多器官ct图像分割方法
CN116433697B (zh) * 2023-06-13 2023-09-12 南京航空航天大学 基于眼动仪的腹部多器官ct图像分割方法

Also Published As

Publication number Publication date
CN113674253B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
CN113674253B (zh) 基于U-Transformer的直肠癌CT影像自动分割方法
CN110889852B (zh) 基于残差-注意力深度神经网络的肝脏分割方法
CN110889853B (zh) 基于残差-注意力深度神经网络的肿瘤分割方法
CN111145170B (zh) 一种基于深度学习的医学影像分割方法
CN109523521B (zh) 基于多切片ct图像的肺结节分类和病灶定位方法和系统
CN112489061B (zh) 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
CN111784671B (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
CN110675406A (zh) 基于残差双注意力深度网络的ct图像肾脏分割算法
CN113256641B (zh) 一种基于深度学习的皮肤病灶图像分割方法
CN113034505B (zh) 一种基于边缘感知网络的腺体细胞图像分割方法及装置
CN109191472A (zh) 基于改进U-Net网络的胸腺细胞图像分割方法
CN111627019A (zh) 一种基于卷积神经网络的肝脏肿瘤分割方法及系统
CN115409733A (zh) 一种基于图像增强和扩散模型的低剂量ct图像降噪方法
CN112258488A (zh) 一种医疗影像病灶分割方法
CN112396605B (zh) 网络训练方法及装置、图像识别方法和电子设备
CN113223005B (zh) 一种甲状腺结节自动分割及分级的智能系统
CN113393469A (zh) 基于循环残差卷积神经网络的医学图像分割方法和装置
CN110689525A (zh) 基于神经网络识别淋巴结的方法及装置
CN112927246B (zh) 肺部轮廓分割、肿瘤免疫浸润分类系统及方法
CN110008992B (zh) 一种用于前列腺癌辅助诊断的深度学习方法
CN114972362A (zh) 一种基于RMAU-Net网络的医学图像自动分割方法与系统
CN111161271A (zh) 一种超声图像分割方法
CN112381846A (zh) 一种基于非对称网络的超声甲状腺结节分割方法
CN113436173A (zh) 基于边缘感知的腹部多器官分割建模、分割方法及系统
CN113160229A (zh) 基于层级监督级联金字塔网络的胰腺分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant