CN113674253A - 基于U-Transformer的直肠癌CT影像自动分割方法 - Google Patents
基于U-Transformer的直肠癌CT影像自动分割方法 Download PDFInfo
- Publication number
- CN113674253A CN113674253A CN202110981706.0A CN202110981706A CN113674253A CN 113674253 A CN113674253 A CN 113674253A CN 202110981706 A CN202110981706 A CN 202110981706A CN 113674253 A CN113674253 A CN 113674253A
- Authority
- CN
- China
- Prior art keywords
- rectal cancer
- characteristic diagram
- transducer
- segmentation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 44
- 208000015634 Rectal Neoplasms Diseases 0.000 title claims abstract description 36
- 206010038038 rectal cancer Diseases 0.000 title claims abstract description 33
- 201000001275 rectum cancer Diseases 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000000694 effects Effects 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims description 30
- 230000007246 mechanism Effects 0.000 claims description 14
- 230000035945 sensitivity Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 239000013598 vector Substances 0.000 claims description 2
- 206010028980 Neoplasm Diseases 0.000 abstract description 32
- 238000003745 diagnosis Methods 0.000 abstract description 9
- 230000007547 defect Effects 0.000 abstract description 4
- 201000010099 disease Diseases 0.000 abstract description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 3
- 230000016776 visual perception Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000004083 survival effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 206010009944 Colon cancer Diseases 0.000 description 2
- 208000001333 Colorectal Neoplasms Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- 208000013718 rectal benign neoplasm Diseases 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002550 fecal effect Effects 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种基于U‑Transformer的直肠癌CT影像自动分割方法。本发明包括如下步骤:步骤1,实验数据的预处理;步骤2,构建U‑Transformer网络模型;步骤3,训练U‑Transformer网络模型;步骤4,采用训练好的U‑Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。本发明实现了直肠癌肿瘤CT影像的分割,避免了人工分割存在的低效率及不稳定的缺陷,从而为相关疾病的诊断、治疗和手术引导提供准确的依据。相比于其他U型网络结构,该方法可以学习到全局特征,具有更大的视觉感知范围,从而实现高精度的医学分割。
Description
技术领域
本发明涉及一种基于U-Transformer直肠癌肿瘤CT影像自动分割方法,属于直肠癌的精准分割技术领域。
背景技术
2018年,直肠癌的发病率和死亡率在全球所有癌症中排名第四。根据临床医学指南,直肠癌患者的生存和预后与肿瘤分期高度相关。但总的来说,大多数有症状的患者发展到晚期,晚期患者的5年生存率远低于早期患者。早期发现肿瘤对提高患者生存时间非常重要。
目前,直肠癌的早期筛查方法主要有:粪便潜血检查、肠镜检查和医学影像学检查。隐血物质在检测和分辨中很容易获得,但分辨中通常含有食物残渣,导致假阳性率高,灵敏度低。肠镜检查在检测肠道病变方面具有最高的灵敏度和准确性,但它会给患者带来不适,并且可能需要较长的肠道准备时间。此外,肠镜检查有一定机会导致胃肠道穿孔。医学成像中常见的成像技术包括超声成像、核磁共振成像、计算机断层扫描等。由于CT具有诊断快速、肿瘤观察全面、无创性诊断直肠癌等优点,因此CT在临床上得到了广泛的应用,CT成像在提高直肠癌患者的诊断准确率、提供个性化的诊断和治疗方案、支持临床决策方面具有巨大潜力。当使用CT图像进行辅助诊断时,只有分割直肠癌的肿瘤区域,才能进行下一步的肿瘤诊断,预后分析和制定个性化治疗计划。准确分割直肠癌肿瘤区域是治疗的关键步骤。如果分割不准确,将对后续分析产生很大影响。在传统的分割步骤中,分割过程是由具有丰富专业知识和临床经验的影像科医生完成的。然而,由于医生的主观判断和经验差距,这一过程非常耗时,分割的准确性会有很大的个体差异。据统计,普通放射科医生对直肠癌分割的Dice相似系数为0.71,分割时间为600s/例。自动分割可以大大减轻成像医生的负担,提高分割的鲁棒性和分割的一致性。因此,实现直肠癌的自动分割在临床治疗上非常具有意义。
为了解决放射科医生在分割直肠癌时遇到的问题,我们提出了一个名为U-Transformer的深度学习模型。U-Transformer是一个基于Transformer和全尺度跳跃连接的U形架构,由编码器和解码器组成。首先将一维的图像patch送入Swin-Transformer中提取上下文特征,然后利用Patch Merging进行下采样,用于缩小每个token的分辨率并且调整其通道数,进而形成层次化的设计。在解码器部分,使用全尺度跳跃连接作为解码器,解码器中融合了低层细节和高层语义,充分利用了多尺度特征。与普通CNN相比,该方法可以学习到更多全局信息,具有更大的感受野,从而实现高精度的医学分割。与一些研究中使用的Astrous卷积、自我注意机制和图像金字塔相比,U-Transformer在建模长期依赖性方面没有限制,并且能够很好地分割肿瘤内的非肿瘤区域,分割的Dice系数达到了0.87。
发明内容
为克服现有技术不足,本发明旨在提出一种基于U-Transformer的直肠癌CT影像自动分割方法,实现了直肠癌肿瘤CT影像的分割,避免了人工分割存在的低效率及不稳定的缺陷,从而为相关疾病的诊断、治疗和手术引导提供准确的依据。
为此,本发明解决其技术问题所采用的具体步骤如下:
步骤1,实验数据的预处理;
步骤2,构建U-Transformer网络模型;
步骤3,训练U-Transformer网络模型;
步骤4,采用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。
进一步的,所述步骤1具体过程实现如下:
步骤1.1,为了提高图像的对比图和泛化能力,我们首先对CT影像进行直方图均衡化和归一化处理,归一化公式为:
其中,I为原始图像,Inorm为归一化后的图像,Imin为I的最小强度值,Imax为I的最大强度值;
步骤1.2:对肿瘤区域进行裁剪,构建规约数据库;
步骤1.3:对CT影像进行旋转、镜像、水平翻转等几何变换方法,进行数据增强.扩增训练样本,以减少过拟合现象;
步骤1.4:将每个CT影像和标记图的尺寸进行统一;
步骤1.5:按照0.8:0.1:0.1的比例划分训练集、验证集和测试集。
进一步的,所述步骤2的具体过程包括:
步骤2.1:构建Patch Embedding层;将二维的CT影像变换得到M个大小为P2·C的一维patch embeddings;
步骤2.2:构建Swin Transforner Block。先使用窗口多头注意力机制W-MSA,计算窗口内部的自注意力得分,通过window reverse操作将得到的特征图还原为与输入特征一样的大小。再使用滑动窗口注意力机制SW-MSA计算不同窗口之间的注意力得分,通过window reverse操作将得到的特征图还原为与输入特征一样的大小;
步骤2.3:将Patch Merging层与Swin Transformer Block共同构成编码器。在第一层编码器中,使用两个Swin Transformer Block进行特征提取;在第二层编码器中,使用六个Swin Transformer Block进行特征;在第三层编码器中,使用两个Swin TransformerBlock进行特征提取;
步骤2.4:在每个解码器中构建全尺度跳跃连接,融合低层细节和高层语义,充分利用多尺度特征;
步骤2.5:对三层编码后的特征图进行三层解码操作;
步骤2.6:使用双线性插值将经过三层解码操作后的特征图进行扩展;
步骤2.7:构建线性投影操作,实现像素级分割。
进一步的,所述步骤3的具体过程包括:
步骤3.1:采用Adam优化方式;
步骤3.2:引入二分类的交叉熵损失函数;
步骤3.3:使用CIFAR-100数据集的权重对U-Transformer网络模型进行预训练。
进一步的,所述步骤4的具体过程包括:
步骤4.1:引入Dice相似系数、PPV系数和灵敏度系数来评价分割的效果。
进一步的,所述步骤2.1中的Patch Embedding层具体实施方式为:
2.1.3通过线性变换得到M个向量长度为P2·C的一维patch embeddings。
2.1.4对每一个patch embeddings设置一个一维的位置编码,最终patchembeddings表示如下:
进一步的,所述步骤2.2中的W-MSA的具体实施方式为:
2.2.1使用window partition对输入的patch emdeddings划分窗口。
2.2.2构建多头注意力机制MLP计算每个窗口内部的自注意力得分,得到输出特征图Ⅰ;
2.2.3通过window reverse操作将输出的特征图Ⅰ还原成跟输入特征图一样的大小。
所述W-MSA的计算公式如下:
进一步的,所述步骤2.2的SW-MSA的具体实施方式为:
2.2.4通过特征图移位并构建多图注意力机制MLP来实现不同窗口之间注意力得分计算,由于对特征图移位会导致窗口的个数变化,因此通过给Attention设置mask机制来实现注意力得分计算的等价;得到输出特征图Ⅱ;
2.2.5通过window reverse操作将输出特征图Ⅱ还原成跟输入特征图一样的大小。
所述SW-MSA的计算公式如下:
进一步的,所述步骤2.3的Patch Merging的具体实施方式为:对H和W维度进行间隔采样后拼接在一起,达到下采样的目的。
进一步的,所述步骤2.4的全尺度跳跃连接的具体实施方式为:
2.4.1对于高层语义特征图,先使用最大池化缩小该高层语义特征图的大小,然后使用3×3的卷积核改变其维度。
2.4.2对于低层细节特征图,先使用双线性插值扩大该低层细节特征图的大小,然后使用3×3的卷积核改变其维度。
2.4.3对经过步骤2.4.1处理后的高层语义特征图与经过步骤2.4.2处理后的低层细节特征图进行融合,融合的特征图使用3×3的卷积核,再经过批标准化和ReLU函数激活。
进一步的,所述优化方法为Adam,所述损失函数为交叉熵,所述预训练数据集为CIFAR-100。
所述交叉熵定义如下:
进一步的,步骤4中评价方式为Dice相似系数、PPV系数和灵敏度系数。
其定义如下:
其中,TP表示被正确分割成直肠肿瘤区域的像素数量;TN表示被正确分割成背景区域的像素数量;FP表示将背景区域预测成肿瘤区域的像素数量;FN表示将肿瘤区域预测成背景区域的像素数量。
现有技术相比,本发明的有益结果使:
本发明通过建立U-Transformer的深度学习模型,实现了直肠癌肿瘤CT影像的分割,避免了人工分割存在的低效率及不稳定的缺陷,从而为相关疾病的诊断、治疗和手术引导提供准确的依据。相比于其他U型网络结构,该方法可以学习到全局特征,具有更大的视觉感知范围,从而实现高精度的医学分割。
附图说明
图1为CT影像预处理的示意图。
图2为U-Transformer的网络结构图。
图3为U-Transformer的全尺度跳跃连接示意图。
图4为Swin Transformer Block的原理图。
图5为U-Transformer分割直肠癌肿瘤的实例效果。
图6为本发明效果对比实例示意图。
图7为U-Transformer的Patch Merging层示意图
图8为SW-MSA机制的特征图移位和mask机制示意图
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
如图1-8所示,基于U-Transformer的直肠癌CT影像自动分割方法。该方法包括下述过程:对实验数据进行预处理;构建U-Transformer网络模型;训练U-Transformer网络模型;用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。本发明提出的U-Transformer网络模型可以很好的对直肠癌肿瘤的CT影像进行分割。
实施例1:数据预处理模块:对实验数据的预处理
(1)对数据进行直方图均衡化和归一化处理,如图1所示。
(2)对CT影像进行数据规约,构建规约数据库。
(3)对CT影像进行旋转、镜像、水平翻转等几何变换方法,进行数据增强.扩增训练样本,以减少过拟合现象。
(4)将每个CT影像和标记图的尺寸进行统一。
(5)按照0.8:0.1:0.1的比例划分数据集为训练集、验证集和测试集。
实施例2:U-Transformer网络模型构建模块:构建U-Transformer网络模型。
(1)构建Patch Embedding层。将二维的CT影像变换得到M个大小为P2·C的一维patch embeddings。
(2)构建Swin Transformer Block。具体的Swin Transformer Block如图4所示:1.使用W-MSA机制计算窗口内部的自注意力得分2.使用SW-MSA机制计算不同窗口之间的注意力得分。
(3)构建Patch Merging。具体的Patch Merging对H和W维度进行间隔采样后拼接在一起,可以达到下采样的目的。
(4)构建全尺度跳跃连接。具体的全尺度跳跃连接机制如图3所示:1.对于高层语义特征,我们先使用最大池化缩小其特征图大小,然后使用3×3的卷积核改变其维度。2.对于低层细节特征,我们先使用双线性插值扩大其特征图大小,然后使用3×3的卷积核改变其维度。3.对融合的特征图使用3×3的卷积核,再经过批标准化和ReLU函数激活。
(6)构建线性投影操作。将W×H×C的特征图变为W×H×2,从而实现像素级分割。
实施例3:U-Transformer网络模型训练模块:训练U-Transformer网络模型
(1)采用Adam优化方式作为优化方法,同时采用交叉熵作为损失函数进行训练。所述交叉熵公式如下:
(2)将U-Transformer网络模型在CIFAR-100数据集上进行预训练。
实施例4:分割评估模块:采用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估
(1)图5为U-Transformer分割的实例。引入Dice相似系数、PPV系数和灵敏度系数来评价分割的效果,U-Transformer的Dice系数、PPV系数和灵敏度系数分别0.8700、0.8042和0.9481。三个系数的定义如下:
其中,TP表示被正确分割成直肠肿瘤区域的像素数量;TN表示被正确分割成背景区域的像素数量;FP表示将背景区域预测成肿瘤区域的像素数量;FN表示将肿瘤区域预测成背景区域的像素数量。
实施例5:效果对比表
如图6和表1所示,U-Transformer分割肿瘤的Dice系数、PPV系数和灵敏度系数分别为0.8700、0.8042和0.9481,均高于其他模型。同时,比放射科医生手动绘制肿瘤的Dice系数高出了18.39%。我们选择了几个具有代表性的分割图进行展示,可以看出U-Transformer可以很好地分割肿瘤的边缘区域,而V-Net、U-Net和R2U-Net不能准确识别肿瘤的位置,这是由于直肠癌位置较为特殊,普通的卷积神经网络很容易将背景区域识别为肿瘤区域。对于部分CT影像,U-Net虽然可以稳定地分割肿瘤区域,但肿瘤的边缘仍然比较粗糙,有时无法识别被肿瘤区域包裹的非肿瘤区域。由Swin Transformer作为编码器和全尺度跳跃连接作为解码器的U-Transformer模型具有比卷积神经网络更大的感受野;并且U-Transformer可以有效地对肿瘤边缘和肿瘤内部的非肿瘤区域进行分割。
表1:Dice系数、PPV系数和灵敏度系数对比表
Claims (9)
1.基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于包括如下步骤
步骤1,实验数据的预处理;
步骤2,构建U-Transformer网络模型;
步骤3,训练U-Transformer网络模型;
步骤4,采用训练好的U-Transformer网络模型进行CT影像中直肠癌的分割,并对分割效果进行评估。
2.根据权利要求1所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于步骤2的具体实现过程包括:
步骤2.1:构建PatchEmbedding层;将二维的CT影像变换得到M个大小为P2·C的一维patch embeddings;
步骤2.2:构建SwinTransfornerBlock;先使用窗口多头注意力机制W-MSA,计算窗口内部的自注意力得分,通过window reverse操作将得到的特征图还原为与输入特征一样的大小;再使用滑动窗口注意力机制SW-MSA计算不同窗口之间的注意力得分,通过windowreverse操作将得到的特征图还原为与输入特征一样的大小;
步骤2.3:将Patch Merging层与Swin Transformer Block共同构成编码器;在第一层编码器中,使用两个Swin TransformerBlock进行特征提取;在第二层编码器中,使用六个Swin Transformer Block进行特征提取;在第三层编码器中,使用两个SwinTransformerBlock进行特征提取;
步骤2.4:在每个解码器中构建全尺度跳跃连接,融合低层细节和高层语义,充分利用多尺度特征;
步骤2.5:对三层编码后的特征图进行三层解码操作;
步骤2.6:使用双线性插值将经过三层解码操作后的特征图进行扩展;
步骤2.7:构建线性投影操作,实现像素级分割。
3.根据权利要求2所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤4的具体过程包括:
步骤4.1:引入Dice相似系数、PPV系数和灵敏度系数来评价分割的效果。
4.根据权利要求2所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.1中的Patch Embedding层具体实施方式为:
2.1.3通过线性变换得到M个向量长度为P2·C的一维patch embeddings;
2.1.4对每一个patch embeddings设置一个一维的位置编码,最终patch embeddings表示如下:
5.根据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.2中的W-MSA的具体实施方式为:
2.2.1使用windowpartition对输入的patch emdeddings划分窗口;
2.2.2构建多头注意力机制MLP计算每个窗口内部的自注意力得分,得到输出特征图Ⅰ;
2.2.3通过window reverse操作将输出的特征图Ⅰ还原成跟输入特征图一样的大小;
所述W-MSA的计算公式如下:
所述步骤2.2的SW-MSA的具体实施方式为:
2.2.4通过特征图移位并构建多图注意力机制MLP来实现不同窗口之间注意力得分计算,由于对特征图移位会导致窗口的个数变化,因此通过给Attention设置mask机制来实现注意力得分计算的等价,在计算注意力得分时,只需要计算自己窗口的值,其余位置设置对应的mask,让其值为负无穷;得到输出特征图Ⅱ;
2.2.5通过window reverse操作将输出特征图Ⅱ还原成跟输入特征图一样的大小;
所述SW-MSA的计算公式如下:
6.根据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.3的Patch Merging的具体实施方式为:对H和W维度进行间隔采样后拼接在一起,达到下采样的目的。
7.据权利要求2或4所述的基于U-Transformer的直肠癌CT影像自动分割方法,其特征在于所述步骤2.4的全尺度跳跃连接的具体实施方式为:
2.4.1对于高层语义特征图,先使用最大池化缩小该高层语义特征图的大小,然后使用3×3的卷积核改变其维度;
2.4.2对于低层细节特征图,先使用双线性插值扩大该低层细节特征图的大小,然后使用3×3的卷积核改变其维度;
2.4.3对经过步骤2.4.1处理后的高层语义特征图与经过步骤2.4.2处理后的低层细节特征图进行融合,融合的特征图使用3×3的卷积核,再经过批标准化和ReLU函数激活。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110981706.0A CN113674253B (zh) | 2021-08-25 | 2021-08-25 | 基于U-Transformer的直肠癌CT影像自动分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110981706.0A CN113674253B (zh) | 2021-08-25 | 2021-08-25 | 基于U-Transformer的直肠癌CT影像自动分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113674253A true CN113674253A (zh) | 2021-11-19 |
CN113674253B CN113674253B (zh) | 2023-06-30 |
Family
ID=78546128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110981706.0A Active CN113674253B (zh) | 2021-08-25 | 2021-08-25 | 基于U-Transformer的直肠癌CT影像自动分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113674253B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870258A (zh) * | 2021-12-01 | 2021-12-31 | 浙江大学 | 一种基于对抗学习的无标签胰腺影像自动分割系统 |
CN114119585A (zh) * | 2021-12-01 | 2022-03-01 | 昆明理工大学 | 基于Transformer的关键特征增强胃癌图像识别方法 |
CN114187278A (zh) * | 2021-12-14 | 2022-03-15 | 山东众阳健康科技集团有限公司 | 一种肋骨细小骨折检测方法和系统 |
CN114445422A (zh) * | 2022-01-13 | 2022-05-06 | 同济大学 | 基于transformer的医学图像分割方法、系统、介质及电子设备 |
CN114529507A (zh) * | 2021-12-30 | 2022-05-24 | 广西慧云信息技术有限公司 | 一种基于视觉Transformer的刨花板表面缺陷检测方法 |
CN114758121A (zh) * | 2022-03-04 | 2022-07-15 | 杭州隐捷适生物科技有限公司 | 一种基于深度学习的cbct牙槽骨分割系统及方法 |
CN114912575A (zh) * | 2022-04-06 | 2022-08-16 | 西安交通大学 | 基于连接Swin Transformer通路的医学图像分割模型及方法 |
CN115222734A (zh) * | 2022-09-20 | 2022-10-21 | 山东大学齐鲁医院 | 一种用于胃黏膜肠上皮化生的图像分析方法及系统 |
CN115578406A (zh) * | 2022-12-13 | 2023-01-06 | 四川大学 | 基于上下文融合机制的cbct颌骨区域分割方法及系统 |
CN115690127A (zh) * | 2022-11-09 | 2023-02-03 | 齐鲁工业大学 | 基于滑动窗口Transformer的两阶段法CT图像分割方法 |
CN115880691A (zh) * | 2023-03-02 | 2023-03-31 | 国网山东省电力公司东营供电公司 | 一种基于计算机视觉的屋顶光伏潜力估计方法 |
CN116433697A (zh) * | 2023-06-13 | 2023-07-14 | 南京航空航天大学 | 基于眼动仪的腹部多器官ct图像分割方法 |
WO2024098318A1 (zh) * | 2022-11-10 | 2024-05-16 | 中国科学院深圳先进技术研究院 | 医学图像分割方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110116698A1 (en) * | 2009-11-18 | 2011-05-19 | Siemens Corporation | Method and System for Segmentation of the Prostate in 3D Magnetic Resonance Images |
CN108010041A (zh) * | 2017-12-22 | 2018-05-08 | 数坤(北京)网络科技有限公司 | 基于深度学习神经网络级联模型的人体心脏冠脉提取方法 |
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN112102321A (zh) * | 2020-08-07 | 2020-12-18 | 深圳大学 | 一种基于深度卷积神经网络的病灶图像分割方法及系统 |
CN112150429A (zh) * | 2020-09-18 | 2020-12-29 | 南京师范大学 | 一种注意力机制引导的肾ct图像分割方法 |
CN112164069A (zh) * | 2020-07-29 | 2021-01-01 | 南通大学 | 一种基于深度学习的ct腹部血管分割方法 |
CN112348769A (zh) * | 2020-08-20 | 2021-02-09 | 盐城工学院 | 基于U-Net深度网络模型的CT影像中肾肿瘤智能分割方法及装置 |
CN112949648A (zh) * | 2021-03-12 | 2021-06-11 | 上海眼控科技股份有限公司 | 一种图像分割模型训练样本数据集的获取方法及设备 |
CN112990219A (zh) * | 2021-03-25 | 2021-06-18 | 北京百度网讯科技有限公司 | 用于图像语义分割的方法和装置 |
-
2021
- 2021-08-25 CN CN202110981706.0A patent/CN113674253B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110116698A1 (en) * | 2009-11-18 | 2011-05-19 | Siemens Corporation | Method and System for Segmentation of the Prostate in 3D Magnetic Resonance Images |
CN108010041A (zh) * | 2017-12-22 | 2018-05-08 | 数坤(北京)网络科技有限公司 | 基于深度学习神经网络级联模型的人体心脏冠脉提取方法 |
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN112164069A (zh) * | 2020-07-29 | 2021-01-01 | 南通大学 | 一种基于深度学习的ct腹部血管分割方法 |
CN112102321A (zh) * | 2020-08-07 | 2020-12-18 | 深圳大学 | 一种基于深度卷积神经网络的病灶图像分割方法及系统 |
CN112348769A (zh) * | 2020-08-20 | 2021-02-09 | 盐城工学院 | 基于U-Net深度网络模型的CT影像中肾肿瘤智能分割方法及装置 |
CN112150429A (zh) * | 2020-09-18 | 2020-12-29 | 南京师范大学 | 一种注意力机制引导的肾ct图像分割方法 |
CN112949648A (zh) * | 2021-03-12 | 2021-06-11 | 上海眼控科技股份有限公司 | 一种图像分割模型训练样本数据集的获取方法及设备 |
CN112990219A (zh) * | 2021-03-25 | 2021-06-18 | 北京百度网讯科技有限公司 | 用于图像语义分割的方法和装置 |
Non-Patent Citations (2)
Title |
---|
KEYU WEN等: "Learning Dual Semantic Relations With Graph Attention for Image-Text Matching", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》, vol. 31, no. 7, pages 2866 - 2879, XP011864212, DOI: 10.1109/TCSVT.2020.3030656 * |
田应仲等: "基于注意力机制与Swin Transformer模型的腰椎图像分割方法", 《计量与测试技术》, vol. 48, no. 12, pages 57 - 61 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119585A (zh) * | 2021-12-01 | 2022-03-01 | 昆明理工大学 | 基于Transformer的关键特征增强胃癌图像识别方法 |
CN113870258B (zh) * | 2021-12-01 | 2022-03-25 | 浙江大学 | 一种基于对抗学习的无标签胰腺影像自动分割系统 |
CN113870258A (zh) * | 2021-12-01 | 2021-12-31 | 浙江大学 | 一种基于对抗学习的无标签胰腺影像自动分割系统 |
CN114119585B (zh) * | 2021-12-01 | 2022-11-29 | 昆明理工大学 | 基于Transformer的关键特征增强胃癌图像识别方法 |
CN114187278A (zh) * | 2021-12-14 | 2022-03-15 | 山东众阳健康科技集团有限公司 | 一种肋骨细小骨折检测方法和系统 |
CN114529507A (zh) * | 2021-12-30 | 2022-05-24 | 广西慧云信息技术有限公司 | 一种基于视觉Transformer的刨花板表面缺陷检测方法 |
CN114529507B (zh) * | 2021-12-30 | 2024-05-17 | 广西慧云信息技术有限公司 | 一种基于视觉Transformer的刨花板表面缺陷检测方法 |
CN114445422A (zh) * | 2022-01-13 | 2022-05-06 | 同济大学 | 基于transformer的医学图像分割方法、系统、介质及电子设备 |
CN114758121A (zh) * | 2022-03-04 | 2022-07-15 | 杭州隐捷适生物科技有限公司 | 一种基于深度学习的cbct牙槽骨分割系统及方法 |
CN114912575B (zh) * | 2022-04-06 | 2024-04-09 | 西安交通大学 | 基于连接Swin Transformer通路的医学图像分割模型及方法 |
CN114912575A (zh) * | 2022-04-06 | 2022-08-16 | 西安交通大学 | 基于连接Swin Transformer通路的医学图像分割模型及方法 |
CN115222734A (zh) * | 2022-09-20 | 2022-10-21 | 山东大学齐鲁医院 | 一种用于胃黏膜肠上皮化生的图像分析方法及系统 |
CN115690127A (zh) * | 2022-11-09 | 2023-02-03 | 齐鲁工业大学 | 基于滑动窗口Transformer的两阶段法CT图像分割方法 |
WO2024098318A1 (zh) * | 2022-11-10 | 2024-05-16 | 中国科学院深圳先进技术研究院 | 医学图像分割方法 |
CN115578406A (zh) * | 2022-12-13 | 2023-01-06 | 四川大学 | 基于上下文融合机制的cbct颌骨区域分割方法及系统 |
CN115880691A (zh) * | 2023-03-02 | 2023-03-31 | 国网山东省电力公司东营供电公司 | 一种基于计算机视觉的屋顶光伏潜力估计方法 |
CN115880691B (zh) * | 2023-03-02 | 2023-05-23 | 国网山东省电力公司东营供电公司 | 一种基于计算机视觉的屋顶光伏潜力估计方法 |
CN116433697A (zh) * | 2023-06-13 | 2023-07-14 | 南京航空航天大学 | 基于眼动仪的腹部多器官ct图像分割方法 |
CN116433697B (zh) * | 2023-06-13 | 2023-09-12 | 南京航空航天大学 | 基于眼动仪的腹部多器官ct图像分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113674253B (zh) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113674253B (zh) | 基于U-Transformer的直肠癌CT影像自动分割方法 | |
CN110889852B (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN110889853B (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
CN111145170B (zh) | 一种基于深度学习的医学影像分割方法 | |
CN109523521B (zh) | 基于多切片ct图像的肺结节分类和病灶定位方法和系统 | |
CN112489061B (zh) | 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法 | |
CN111784671B (zh) | 基于多尺度深度学习的病理图像病灶区域检测方法 | |
CN110675406A (zh) | 基于残差双注意力深度网络的ct图像肾脏分割算法 | |
CN113256641B (zh) | 一种基于深度学习的皮肤病灶图像分割方法 | |
CN113034505B (zh) | 一种基于边缘感知网络的腺体细胞图像分割方法及装置 | |
CN109191472A (zh) | 基于改进U-Net网络的胸腺细胞图像分割方法 | |
CN111627019A (zh) | 一种基于卷积神经网络的肝脏肿瘤分割方法及系统 | |
CN115409733A (zh) | 一种基于图像增强和扩散模型的低剂量ct图像降噪方法 | |
CN112258488A (zh) | 一种医疗影像病灶分割方法 | |
CN112396605B (zh) | 网络训练方法及装置、图像识别方法和电子设备 | |
CN113223005B (zh) | 一种甲状腺结节自动分割及分级的智能系统 | |
CN113393469A (zh) | 基于循环残差卷积神经网络的医学图像分割方法和装置 | |
CN110689525A (zh) | 基于神经网络识别淋巴结的方法及装置 | |
CN112927246B (zh) | 肺部轮廓分割、肿瘤免疫浸润分类系统及方法 | |
CN110008992B (zh) | 一种用于前列腺癌辅助诊断的深度学习方法 | |
CN114972362A (zh) | 一种基于RMAU-Net网络的医学图像自动分割方法与系统 | |
CN111161271A (zh) | 一种超声图像分割方法 | |
CN112381846A (zh) | 一种基于非对称网络的超声甲状腺结节分割方法 | |
CN113436173A (zh) | 基于边缘感知的腹部多器官分割建模、分割方法及系统 | |
CN113160229A (zh) | 基于层级监督级联金字塔网络的胰腺分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |