CN114219943A - 一种基于深度学习的ct图像危及器官分割系统 - Google Patents

一种基于深度学习的ct图像危及器官分割系统 Download PDF

Info

Publication number
CN114219943A
CN114219943A CN202111400771.6A CN202111400771A CN114219943A CN 114219943 A CN114219943 A CN 114219943A CN 202111400771 A CN202111400771 A CN 202111400771A CN 114219943 A CN114219943 A CN 114219943A
Authority
CN
China
Prior art keywords
segmentation
network
image
module
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111400771.6A
Other languages
English (en)
Other versions
CN114219943B (zh
Inventor
郭礼华
黄泽曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111400771.6A priority Critical patent/CN114219943B/zh
Publication of CN114219943A publication Critical patent/CN114219943A/zh
Application granted granted Critical
Publication of CN114219943B publication Critical patent/CN114219943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的CT图像危及器官分割系统,包括:数据采集模块、感兴趣区域勾画模块、危及器官分割模型训练模块、模型测试模块和分割图像生成模块。提出了整合全局信息流的金字塔型深度学习网络与位于跳跃连接上的提取融合多尺度信息的SCP模块,通过多尺度全局信息流的利用及注意力机制增大对分割有用特征的权重,增强结构的非线性,显著提高分割模型的性能,同时设计了基于自动上下文方法的级联网络结构,使用自动上下文方法将待分割器官区域的定位结果与原始CT图像输入结合后,进行精细化分割,显著提升整体系统分割准确度。

Description

一种基于深度学习的CT图像危及器官分割系统
技术领域
本发明涉及医学图像处理的技术领域,尤其是指一种基于深度学习的CT图像危及器官分割系统。
背景技术
鼻咽癌是一种在中国高发的恶性肿瘤之一,其发病率为耳鼻咽喉恶性肿瘤之首,在对患者进行该类肿瘤得放射治疗时,如若不能严格控制好放射靶区范围,可能危及到的正常器官组织较多,会给患者健康带来不良影响。CT图像是放疗中的靶区和危机器官勾画的标准图像资源,通过经验丰富的医师手动对相应的靶区和器官进行勾画,清晰地显示出各自所在的区域,从而射线放疗区域被严格地控制在靶区内,不会对正常器官造成损伤或是尽最大程度降低损伤,CT图像的器官分割在临床上是有着重要作用的。但是,人工勾画的工作量很大,非常花费时间;并且受到不同医师间的经验不同的影响,人工分割之间也存在较大差异,勾画准确性受到一定影响。由此,设计一个能够对鼻咽癌危及器官的CT图像进行自动分割的系统,是具有很强的现实意义的,不但能够解放人的双手,降低医师工作量;并且在勾画时间上也要远远快过人工勾画,能够及时地对相应的器官进行分割,为病人的治疗节省宝贵的时间。
现有的基于深度学习的CT图像危及器官分割系统一般基于编码器-解码器的结构,在特定的医学图像分割任务中表现良好,但仍存在以下不足:
1、缺乏对多尺度信息的提取及利用,对于结构较为复杂的分割对象或是多个结构尺寸不同的分割对象的分割效果欠佳,对尤其是尺寸较小的器官分割精度较低。
2、在分割系统还原特征图尺寸的过程中,缺乏对全局信息的利用,并且由编码器采集到的全局信息会随着上采样的进行被逐渐削弱。
3、分割系统中的跳跃连接结构过于简单,对于融合进解码器中的编码器特征,并未做任何的非线性变换,这在一定程度上降低了网络的非线性水平从而削弱了网络的学习能力。过于简单地引入解码器中的信息也会带来噪声导致像素错误分类的情况出现。
综上所述,在CT图像危及器官分割系统中,如何充分提取并利用全局信息和多尺度信息、增强跳跃连接结构的非线性以增强网络的学习能力是亟待解决的关键问题。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于深度学习的CT图像危及器官分割系统,采用一种能够提取融合多尺度信息的SCP模块,SCP模块处于跳跃连接上,能够加强分割系统对于CT图像危及器官中多尺度器官信息的提取,增强跳跃连接结构的非线性以增强网络的学习能力;设计了金字塔型的深度学习分割网络结构,实现对于分割系统中全局信息的融合利用;还将分割系统设计成了级联网络的形式,利用自动上下文的方法连接主要网络和次级网络,利用主要网络定位待分割的区域,提升次级网络的分割精确度。
为实现上述目的,本发明所提供的技术方案为:一种基于深度学习的CT图像危及器官分割系统,包括:
数据采集模块,用于采集CT图像数据集,将CT图像数据集进行随机划分,形成训练集和测试集;
感兴趣区域勾画模块,用于在CT图像数据集中勾画感兴趣区域,将勾画后的图像数据作为参考标签;
危及器官分割模型训练模块,用于使用训练集中的图像数据,对危及器官分割模型进行迭代训练,危及器官分割模型包括分割网络A和分割网络B,其中分割网络A由多尺度全局信息融合的金字塔型网络P构成,分割网络B由深度学习网络U构成,二者通过自动上下文级联的方式构成了危及器官分割模型,在训练时首先通过优化分割网络A自身的损失函数进行训练,并在训练完成后固定A中的参数,然后通过优化危及器官分割模型的损失函数对分割网络B进行训练,进而完成对整体模型的训练;分割网络A通过优化感兴趣区域的分割损失,帮助训练分割网络B,以获得精确度更高的危及器官分割结果;
模型测试模块,用于将测试集中的全部样本CT图像,输入危及器官分割模型训练模块得到的各个迭代训练轮次的危及器官分割模型,生成对应的危及器官分割结果,输出灰度图像,并评估各样本得到分割结果的准确度,选择迭代训练的各个轮次得到的模型中危及器官分割精确度最高的模型作为最优分割模型;
分割图像生成模块,用于将模型测试模块输出的灰度图像进行处理,得到预测的标签图的二值图像,采用叠图的方式,将预测的标签图叠加到对应的原输入CT图像上,得到完整的分割图像。
进一步,所述CT图像数据集包括含有多个鼻咽癌危及器官的CT图像;所述数据采集模块使用软件Matlab,读取含有鼻咽癌危及器官的CT图像数据的dicom文件,然后将读取到的数据制成图像,得到对应的CT图像数据集;将CT图像数据集进行随机排序,并将随机排序后的数据集中80%的数据作为训练集,20%的数据作为测试集。
进一步,所述感兴趣区域勾画模块利用软件Matlab,根据参考图像对应dicom文件中人工勾画的分割结果数据,制作出对应的标签图,作为分割系统的目标区域。
进一步,所述危及器官分割模型训练模块将训练集分成n个批次大小为m的数据并逐批次进行训练;在训练阶段,当前批次的CT图像为原始CT图像,用Iorigin_CT表示,经医师手工分割鼻咽癌危及器官的标签用gt表示;所述危及器官分割模型包括分割网络A和分割网络B,其中分割网络A由多尺度全局信息融合的金字塔型网络P构成,分割网络B由传统的深度学习网络U构成,训练过程包括以下步骤:
1)将Iorigin_CT输入分割网络A,得到分割结果
Figure BDA0003371012510000041
计算分割网络A的相应损失项
Figure BDA0003371012510000042
并更新分割网络A的参数;其中,分割结果由下列表达式确定:
Figure BDA0003371012510000043
分割网络A的相应损失项
Figure BDA0003371012510000044
由多分类交叉熵损失构成,由下式确定:
Figure BDA0003371012510000045
其中,
Figure BDA0003371012510000046
越小,分割网络A准确度越高;
2)根据自动上下文的原理,首先利用softmax操作将步骤1)中的
Figure BDA0003371012510000047
以概率分布的形式输出,记为
Figure BDA0003371012510000048
接着利用Concatenate操作将
Figure BDA0003371012510000049
与原始的CT图像Iorigin_CT在通道维度进行拼接,得到拼接后的结果Iconcat;将Iconcat输入到分割网络B,得到分割结果
Figure BDA00033710125100000410
计算分割网络B的相应损失项
Figure BDA00033710125100000411
并更新分割网络B的参数;其中,分割结果由下列表达式确定:
Figure BDA00033710125100000412
分割网络B的相应损失项
Figure BDA00033710125100000413
由多分类交叉熵损失构成,由下式确定:
Figure BDA00033710125100000414
式中,m为当前小批次中数据的个数,gt表示经医师手工分割鼻咽癌危及器官的标签;
Figure BDA00033710125100000415
越小,分割网络B的准确度越高;
所述分割网络A和分割网络B通过自动上下文的方式进行级联,其中自动上下文是一种能有效识别物体的统计模型,是一个迭代的过程,其第一步用传统分类器对新数据进行识别,得到这个数据属于各类别的概率;第二步的数据训练集不仅包含数据和类别,还包含有上述所得的各类别概率,得到一个新的分类器后再对新数据识别得到其分别属于个类别的概率;迭代更新,重复第二步,一直到收敛,分类概率几乎不变,这时便得到更清晰的分割图像;
所述分割网络A和分割网络B在训练时,先单独将分割网络A训练至收敛,然后将分割网络A中的参数固定,加入分割网络B,训练整个危及器官分割模型。
进一步,所述分割网络A由多尺度全局信息融合的金字塔型网络P构成,是一种嵌入了具有提取多尺度信息、整合全局信息的SE-Connection Pyramid模块(SCP模块)的金字塔型网络,金字塔型网络包含带跳跃连接的编码器部分和解码器部分;
所述编码器部分由4个结构相同的编码器子模块构成;每个编码器子模块均含有2个连续的2D卷积层和1个最大池化层;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,目的是在扩大网络感受野的同时,加强对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;最大池化层处于第2个2D卷积层之后,目的是提取特征图的主要信息,减小特征图尺寸;每一个编码器子模块的输出除了输送到下一级编码器子模块外,还会被输送到处于跳跃连接位置上的SCP模块中,与来自下一级的SCP模块输出进行通道维度上的拼接融合,以实现全局多尺度信息的融合,融合后的信息除了作为上一级的SCP模块的输入,还会被输入到对应层级的解码器子模块中,以获得更为精确的分割结果;
所述SCP模块由1个拼接层、1个卷积层和1个注意力机制模块构成;随着编码器对输入CT图像进行多次的卷积与池化操作,所得到的特征图信息语义信息逐渐增强,所提取到的特征尺度逐渐增大;与1个SCP模块同一层级的编码器子模块输出的特征图与下一级的SCP模块输出特征图在拼接层通过Concatenate操作在通道维度上进行拼接,将拼接后的特征信息通过卷积层进行融合,由此得到多尺度特征信息流;在分割网络最深层的编码器子模块输出的信息仅通过1个与SCP模块中相同的注意力机制模块;
接下来所得到的多尺度信息流通过注意力机制模块,利用通道注意力机制给予对分割任务贡献更高的重要特征分配更高权重,弱化不重要的特征通道,进而提升分割网络A的整体性能;所述注意力机制模块由1个全局平均池化层、2个连续的全连接层顺序组成,其中,首先通过全局平均池化层来生成通道统计信息,将特征图的全局空间信息压缩为一个通道描述符,然后在第一个全连接层将通道统计信息降维至原先的1/16并通过ReLU激活函数,接着在第二个全连接层将第一个全连接层的输出升维至原先的维度,紧接着使用一个Sigmoid函数获得0~1之间的归一化权重,最后通过Scale操作将归一化后的权重加权到每个通道的特征上;
所述解码器部分由4个解码器子模块和1个输出层构成,其中4个解码器子模块的结构相同;前4个解码器子模块均含有2个连续的2D卷积层和1个上采样层,按顺序排列;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,在扩大网络感受野的同时,强化对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;上采样层处于第2个2D卷积层之后,之所以按照这样的顺序排列卷积层和上采样层,是为了在恢复图像尺寸的同时,消除棋盘效应;输出层同样含有2个连续的2D卷积层,和4个解码器子模块中的卷积层设置相同;每个解码器子模块的输出会与来自对应深度的跳跃连接中的SCP模块的输出在通道维度上进行拼接,然后输入到下一个解码器子模块中,迭代至输出层;全局多尺度信息流通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精确的生成结果。
进一步,所述分割网络B由深度学习网络U构成,是一种医学图像分割任务中所使用的经典网络结构,包含带跳跃连接的编码器部分和解码器部分;
所述编码器部分由4个结构相同的编码器子模块构成;每个编码器子模块均含有2个连续的2D卷积层和1个最大池化层;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,目的是在扩大网络感受野的同时,加强对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;最大池化层处于第2个2D卷积层之后,目的是提取特征图的主要信息,减小特征图尺寸;每一个编码器子模块的输出除了输送到下一级编码器子模块外,还会通过跳跃连接被输送到对应深度的解码器模块中,将编码器中提取到的原始特征细节引入解码器模块中,补充上采样过程中丢失的细节部分,以实现分割结果的精细化;
所述解码器部分由4个解码器子模块和1个输出层构成,其中4个解码器子模块的结构相同;4个解码器子模块均含有2个连续的2D卷积层和1个上采样层,按顺序排列;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,在扩大网络感受野的同时,强化对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;上采样层处于第2个2D卷积层之后,之所以按照这样的顺序排列卷积层和上采样层,是为了在恢复图像尺寸的同时,消除棋盘效应;输出层同样含有2个连续的2D卷积层,和4个解码器子模块中的卷积层设置相同;每个解码器子模块的输出会与来自对应深度的编码器模块的输出在通道维度上进行拼接,然后输入到下一个解码器子模块中,迭代至输出层;全局多尺度信息流通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精确的生成结果。
进一步,所述模型测试模块将测试集中各样本的CT图像,输入到危及器官分割模型训练模块中,生成各个迭代训练轮次的危及器官分割模型,输出对应的危及器官分割结果,并评估各样本得到分割结果的准确度,选择迭代训练的各个轮次得到的模型中,危及器官分割结果评估结果最好的模型作为最优分割模型;
在评估指标选择上,选用Dice系数作为评估指标,记为EDice,由下式确定:
Figure BDA0003371012510000081
其中,gt表示经医师手工分割鼻咽癌危及器官的标签,
Figure BDA0003371012510000082
代表分割网络B的输出结果;
选择迭代训练的各个轮次得到的模型中,危及器官分割结果评估结果最好的模型,是指对于迭代训练各个轮次得到的模型,选择危及器官分割结果和对应的器官分割标签gt所计算出的EDice最高的模型作为最优影像生成模型。
进一步,所述分割图像生成模块处理模型测试模块输出的灰度图像结果,得到预测的标签图的二值图像,采用叠图的方式,在测试集中对应的原输入CT图像上,叠加模型测试模块输出的分割二值化图像,最终得到完整清晰的分割图像。
本发明与现有技术相比,具有如下优点与有益效果:
1、提出了一种基于深度学习具有多尺寸全局信息流的CT图像危及器官分割系统,系统中针对鼻咽癌危及器官分割任务的特点,设计了一种基于金字塔型深度学习网络结构和SCP模块的分割网络,其中SCP模块基于特征融合和通道注意力机制,可以获得并融合多尺度特征,并利用注意力机制使系统中的分割模型增大对分割有用特征的权重,提升分割准确度,且SCP模块位于编码器和解码器间的跳跃连接上,增强了结构的非线性,强化了分割系统的学习能力;金字塔型的深度学习网络使得全局信息流贯穿整个分割模型,为模型的解码器还原过程充分提供原始图像细节与不同尺度特征信息,显著提高分割模型的性能。
2、为CT图像危及器官分割系统设计了基于自动上下文方法的级联网络结构,利用主要网络定位危及器官分割区域,使用自动上下文方法将主要网络输出与原始CT图像输入结合,输送到次级网络进行进一步精细化分割,显著提升整体系统分割准确度。
附图说明
图1是本发明系统的结构图。
图2是本发明系统分割网络结构图。
图3是分割网络A中的SCP模块结构图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1所示,本实施例所提供的基于深度学习的CT图像危及器官分割系统,包括:数据采集模块、感兴趣区域勾画模块、危及器官分割模型训练模块、模型测试模块和分割图像生成模块。
所述数据采集模块用于采集CT图像数据集,CT图像数据集包括含有多个鼻咽癌危及器官的CT图像。在本实施例中,样本选取目标部位因为病理原因集中于头颈部;对CT图像数据集进行随机划分,形成训练集和测试集,比例为4:1。
所述感兴趣区域勾画模块用于在CT图像数据集中中勾画感兴趣区域,由影像科医生对鼻咽癌危及器官区域进行勾画后,将危及器官区域作为感兴趣区域,把感兴趣区域的信息存入到与CT图像数据关系密切的dicom文件中,使用Matlab软件对其进行读取并制作出可视化标签。
所述危及器官分割模型训练模块将训练集分成n个批次大小为m的数据(minibatch)并逐批次进行训练,m的具体数值可以根据具体硬件条件进行调整,即GPU可用显存的大小,在本实施例中,m的取值为16;在训练阶段,当前批次的CT图像为原始CT影像,用Iorigin_CT表示,经医师手工分割鼻咽癌危及器官的标签用gt表示;所述危及器官分割模型包括分割网络A和分割网络B,其中分割网络A由多尺度全局信息融合的金字塔型网络P构成,分割网络B由传统的深度学习网络U构成,训练过程包括以下步骤:
将Iorigin_CT输入分割网络A,得到分割结果
Figure BDA0003371012510000101
计算分割网络A的相应损失项
Figure BDA0003371012510000102
并更新分割网络A的参数;其中,分割结果由下列表达式确定:
Figure BDA0003371012510000103
分割网络A的相应损失项
Figure BDA0003371012510000104
由多分类交叉熵损失构成,由下式确定:
Figure BDA0003371012510000111
Figure BDA0003371012510000112
越小,分割网络A准确度越高。
如图2所示,所述分割网络A由多尺度全局信息融合的金字塔型网络P构成,是一种基于U-Net网络结构的、嵌入了具有提取多尺度信息、整合全局信息的SCP模块的金字塔型网络,金字塔型网络包含带跳跃连接的编码器部分和解码器部分。
所述编码器部分由4个结构相同的编码器子模块构成,输出的通道数分别为64、128、256、512;每个编码器子模块均含有2个连续的2D卷积层和1个最大池化层;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,目的是在扩大网络感受野的同时,加强对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;最大池化层处于第2个2D卷积层之后,目的是提取特征图的主要信息,减小特征图尺寸;每一个编码器子模块的输出除了输送到下一级编码器子模块外,还会被输送到处于跳跃连接位置上的SCP模块中,与来自下一级的SCP模块输出进行通道维度上的拼接融合,以实现全局多尺度信息的融合,融合后的信息除了作为上一级的SCP模块的输入,还会被输入到对应层级的解码器子模块中,以获得更为精确的分割结果,共有4个SCP模块,输出的通道数分别为64、128、256、512。
如图3所示,所述SCP模块由1个拼接层、1个卷积层和1个注意力机制模块构成;随着编码器对输入CT图像进行多次的卷积与池化操作,所得到的特征图信息语义信息逐渐增强,所提取到的特征尺度逐渐增大;与1个SCP模块同一层级的编码器子模块输出的特征图与下一级的SCP模块输出特征图在拼接层通过Concatenate操作在通道维度上进行拼接,其中下一级的SCP模块输出特征图会先经过卷积与上采样在通道数与宽×高的尺寸上与本层级编码器子模块输出特征图相同,将拼接后的特征信息通过卷积层进行融合,由此得到多尺度特征信息流;在分割网络最深层的编码器子模块输出的信息仅通过1个与SCP模块中相同的注意力机制模块。
接下来所得到的多尺度信息流通过注意力机制模块,利用通道注意力机制给予对分割任务贡献更高的重要特征分配更高权重,弱化不重要的特征通道,进而提升分割网络A的整体性能;所述注意力机制模块由1个全局平均池化层、2个连续的全连接层顺序组成,其中,首先在宽×高的维度上通过全局平均池化层来生成通道统计信息,将特征图的全局空间信息压缩为一个通道描述符,然后在第一个全连接层将通道统计信息降维至原先的1/16并通过ReLU激活函数,接着在第二个全连接层将第一个全连接层的输出升维至原先的维度,紧接着使用一个Sigmoid函数获得0~1之间的归一化权重,最后通过Scale操作将归一化后的权重加权到每个通道的特征上,即可完成注意力机制对重要特征信息的选择。
所述解码器部分由4个解码器子模块和1个输出层构成,其中4个解码器子模块的结构相同;4个解码器子模块均含有2个连续的2D卷积层和1个上采样层,按顺序排列,每个解码器子模块的输出通道数为1024、512、256、128;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,在扩大网络感受野的同时,强化对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;上采样层处于第2个2D卷积层之后,之所以按照这样的顺序排列卷积层和上采样层,是为了在恢复图像尺寸的同时,消除棋盘效应;输出层同样含有2个连续的2D卷积层,和4个解码器子模块中的卷积层设置相同,输出的通道数为14,为本实施例中选取的鼻咽癌危及器官种类与图像背景类别之和;每个解码器子模块的输出会与来自对应深度的跳跃连接中的SCP模块的输出在通道维度上进行拼接,然后输入到下一个解码器子模块中,迭代至输出层;全局多尺度信息流通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精确的生成结果。
根据自动上下文的原理,首先利用softmax操作将分割网络A的输出结果
Figure BDA0003371012510000131
以概率分布的形式输出,记为
Figure BDA0003371012510000132
接着利用Concatenate操作将
Figure BDA0003371012510000133
与原始的输入Iorigin_CT在通道维度进行拼接,得到拼接后的结果Iconcat;将Iconcat输入到分割网络B,得到分割结果
Figure BDA0003371012510000134
计算分割网络B的相应损失项
Figure BDA0003371012510000135
并更新分割网络B的参数;其中,分割结果由下列表达式确定:
Figure BDA0003371012510000136
分割网络B的相应损失项
Figure BDA0003371012510000137
由多分类交叉熵损失构成,由下式确定:
Figure BDA0003371012510000138
式中,m为当前小批次中数据的个数,gt表示经医师手工分割鼻咽癌危及器官的标签;
Figure BDA0003371012510000139
越小,分割网络B的准确度越高。
如图2所示,所述分割网络B由传统的深度学习网络U构成,是一种医学图像分割任务中所使用的经典网络结构U-Net,包含带跳跃连接的编码器部分和解码器部分。
所述编码器部分由4个结构相同的编码器子模块构成;每个子模块均含有2个连续的2D卷积层和1个最大池化层,输出通道数分别为64、128、256、512;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,目的是在扩大网络感受野的同时,加强对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;最大池化层处于第2个2D卷积层之后,目的是提取特征图的主要信息,减小特征图尺寸;每一个编码器子模块的输出除了输送到下一级编码器子模块外,还会通过跳跃连接被输送到对应深度的解码器模块中,将编码器中提取到的原始特征细节引入解码器模块中,补充上采样过程中丢失的细节部分,以实现分割结果的精细化。
所述解码器部分由4个解码器子模块和1个输出层构成,其中4个解码器子模块的结构相同;4个解码器子模块均含有2个连续的2D卷积层和1个上采样层,按顺序排列,输出的通道数分别为1024、512、256、128;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,在扩大网络感受野的同时,强化对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;上采样层处于第2个2D卷积层之后,之所以按照这样的顺序排列卷积层和上采样层,是为了在恢复图像尺寸的同时,消除棋盘效应;输出层同样含有2个连续的2D卷积层,和4个解码器子模块中的卷积层设置相同,输出的通道数为14,为本实施例中选取的鼻咽癌危及器官种类与图像背景类别之和;每个解码器子模块的输出会与来自对应深度的编码器模块的输出在通道维度上进行拼接,然后输入到下一个解码器子模块中,迭代至输出层;全局多尺度信息流通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精确的生成结果。
所述分割网络A和分割网络B的通过自动上下文的方式进行级联,其中自动上下文是一种能有效识别物体的统计模型,是一个迭代的过程,其第一步用传统分类器对新数据进行识别,得到这个数据属于各类别的概率;第二步的数据训练集不仅包含数据和类别,还包含有上述所得的各类别概率,得到一个新的分类器后再对新数据识别得到其分别属于个类别的概率;迭代更新,重复第二步,一直到收敛,分类概率几乎不变,这时便得到比传统方法更清晰的分割图像。
所述分割网络A和分割网络B在训练时,先单独将分割网络A训练至收敛,然后将分割网络A中的参数固定,加入分割网络B,训练整个危及器官分割模型;输入到分割网络B的通道数为15,为分割网络A输出的通道数与原始输入CT图像的通道数之和,原始输入CT图像为灰度图,故为单通道图,通道数为1。
所述模型测试模块用于将测试集中各样本的CT图像,输入到危及器官分割模型训练模块中,生成各个迭代训练轮次的危及器官分割模型,输出对应的危及器官分割结果,输出灰度图像,并评估各样本得到分割结果的准确度,选择迭代训练的各个轮次得到的模型中,危及器官分割结果评估结果最好的模型作为最优分割模型。
在评估指标选择上,选用Dice系数作为评估指标,记为EDice,由下式确定:
Figure BDA0003371012510000151
其中,gt表示经医师手工分割鼻咽癌危及器官的区域标签,
Figure BDA0003371012510000152
代表分割网络B的输出结果,Dice系数越高,说明模型分割出来的危及器官区域与医师勾画的危及器官标签区域重合度越高,分割准确度越高,效果越好。
选择迭代训练的各个轮次得到的模型中,危及器官分割结果评估结果最好的模型,是指对于迭代训练各个轮次得到的模型,选择危及器官分割结果和对应的器官分割标签gt所计算出的EDice最高的模型作为最优影像生成模型。
所述分割图像生成模块,使用Matlab软件,用于处理模型测试模块输出的单通道图像结果,即灰度图结果,得到预测的标签图的二值图像,采用叠图的方式,在测试集中对应的原输入CT图像上,叠加模型测试模块输出的分割二值化图像,最终得到以对应CT图像为背景的完整清晰的分割图像。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一种基于深度学习的CT图像危及器官分割系统,其特征在于,包括:
数据采集模块,用于采集CT图像数据集,将CT图像数据集进行随机划分,形成训练集和测试集;
感兴趣区域勾画模块,用于在CT图像数据集中勾画感兴趣区域,将勾画后的图像数据作为参考标签;
危及器官分割模型训练模块,用于使用训练集中的图像数据,对危及器官分割模型进行迭代训练,危及器官分割模型包括分割网络A和分割网络B,其中分割网络A由多尺度全局信息融合的金字塔型网络P构成,分割网络B由深度学习网络U构成,二者通过自动上下文级联的方式构成了危及器官分割模型,在训练时首先通过优化分割网络A自身的损失函数进行训练,并在训练完成后固定A中的参数,然后通过优化危及器官分割模型的损失函数对分割网络B进行训练,进而完成对整体模型的训练;分割网络A通过优化感兴趣区域的分割损失,帮助训练分割网络B,以获得精确度更高的危及器官分割结果;
模型测试模块,用于将测试集中的全部样本CT图像,输入危及器官分割模型训练模块得到的各个迭代训练轮次的危及器官分割模型,生成对应的危及器官分割结果,输出灰度图像,并评估各样本得到分割结果的准确度,选择迭代训练的各个轮次得到的模型中危及器官分割精确度最高的模型作为最优分割模型;
分割图像生成模块,用于将模型测试模块输出的灰度图像进行处理,得到预测的标签图的二值图像,采用叠图的方式,将预测的标签图叠加到对应的原输入CT图像上,得到完整的分割图像。
2.根据权利要求1所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述CT图像数据集包括含有多个鼻咽癌危及器官的CT图像;所述数据采集模块使用软件Matlab,读取含有鼻咽癌危及器官的CT图像数据的dicom文件,然后将读取到的数据制成图像,得到对应的CT图像数据集;将CT图像数据集进行随机排序,并将随机排序后的数据集中80%的数据作为训练集,20%的数据作为测试集。
3.根据权利要求1所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述感兴趣区域勾画模块利用软件Matlab,根据参考图像对应dicom文件中人工勾画的分割结果数据,制作出对应的标签图,作为分割系统的目标区域。
4.根据权利要求1所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述危及器官分割模型训练模块将训练集分成n个批次大小为m的数据并逐批次进行训练;在训练阶段,当前批次的CT图像为原始CT图像,用Iorigin_CT表示,经医师手工分割鼻咽癌危及器官的标签用gt表示;所述危及器官分割模型包括分割网络A和分割网络B,其中分割网络A由多尺度全局信息融合的金字塔型网络P构成,分割网络B由传统的深度学习网络U构成,训练过程包括以下步骤:
1)将Iorigin_CT输入分割网络A,得到分割结果
Figure FDA0003371012500000021
计算分割网络A的相应损失项
Figure FDA0003371012500000022
并更新分割网络A的参数;其中,分割结果由下列表达式确定:
Figure FDA0003371012500000023
分割网络A的相应损失项
Figure FDA0003371012500000024
由多分类交叉熵损失构成,由下式确定:
Figure FDA0003371012500000025
其中,
Figure FDA0003371012500000026
越小,分割网络A准确度越高;
2)根据自动上下文的原理,首先利用softmax操作将步骤1)中的
Figure FDA0003371012500000027
以概率分布的形式输出,记为
Figure FDA0003371012500000028
接着利用Concatenate操作将
Figure FDA0003371012500000029
与原始的CT图像Iorigin_CT在通道维度进行拼接,得到拼接后的结果Iconcat;将Iconcat输入到分割网络B,得到分割结果
Figure FDA0003371012500000031
计算分割网络B的相应损失项
Figure FDA0003371012500000032
并更新分割网络B的参数;其中,分割结果由下列表达式确定:
Figure FDA0003371012500000033
分割网络B的相应损失项
Figure FDA0003371012500000034
由多分类交叉熵损失构成,由下式确定:
Figure FDA0003371012500000035
式中,m为当前小批次中数据的个数,gt表示经医师手工分割鼻咽癌危及器官的标签;
Figure FDA0003371012500000036
越小,分割网络B的准确度越高;
所述分割网络A和分割网络B通过自动上下文的方式进行级联,其中自动上下文是一种能有效识别物体的统计模型,是一个迭代的过程,其第一步用传统分类器对新数据进行识别,得到这个数据属于各类别的概率;第二步的数据训练集不仅包含数据和类别,还包含有上述所得的各类别概率,得到一个新的分类器后再对新数据识别得到其分别属于个类别的概率;迭代更新,重复第二步,一直到收敛,分类概率几乎不变,这时便得到更清晰的分割图像;
所述分割网络A和分割网络B在训练时,先单独将分割网络A训练至收敛,然后将分割网络A中的参数固定,加入分割网络B,训练整个危及器官分割模型。
5.根据权利要求4所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述分割网络A由多尺度全局信息融合的金字塔型网络P构成,是一种嵌入了具有提取多尺度信息、整合全局信息的SE-Connection Pyramid模块即SCP模块的金字塔型网络,金字塔型网络包含带跳跃连接的编码器部分和解码器部分;
所述编码器部分由4个结构相同的编码器子模块构成;每个编码器子模块均含有2个连续的2D卷积层和1个最大池化层;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,目的是在扩大网络感受野的同时,加强对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;最大池化层处于第2个2D卷积层之后,目的是提取特征图的主要信息,减小特征图尺寸;每一个编码器子模块的输出除了输送到下一级编码器子模块外,还会被输送到处于跳跃连接位置上的SCP模块中,与来自下一级的SCP模块输出进行通道维度上的拼接融合,以实现全局多尺度信息的融合,融合后的信息除了作为上一级的SCP模块的输入,还会被输入到对应层级的解码器子模块中,以获得更为精确的分割结果;
所述SCP模块由1个拼接层、1个卷积层和1个注意力机制模块构成;随着编码器对输入CT图像进行多次的卷积与池化操作,所得到的特征图信息语义信息逐渐增强,所提取到的特征尺度逐渐增大;与1个SCP模块同一层级的编码器子模块输出的特征图与下一级的SCP模块输出特征图在拼接层通过Concatenate操作在通道维度上进行拼接,将拼接后的特征信息通过卷积层进行融合,由此得到多尺度特征信息流;在分割网络最深层的编码器子模块输出的信息仅通过1个与SCP模块中相同的注意力机制模块;
接下来所得到的多尺度信息流通过注意力机制模块,利用通道注意力机制给予对分割任务贡献更高的重要特征分配更高权重,弱化不重要的特征通道,进而提升分割网络A的整体性能;所述注意力机制模块由1个全局平均池化层、2个连续的全连接层顺序组成,其中,首先通过全局平均池化层来生成通道统计信息,将特征图的全局空间信息压缩为一个通道描述符,然后在第一个全连接层将通道统计信息降维至原先的1/16并通过ReLU激活函数,接着在第二个全连接层将第一个全连接层的输出升维至原先的维度,紧接着使用一个Sigmoid函数获得0~1之间的归一化权重,最后通过Scale操作将归一化后的权重加权到每个通道的特征上;
所述解码器部分由4个解码器子模块和1个输出层构成,其中4个解码器子模块的结构相同;前4个解码器子模块均含有2个连续的2D卷积层和1个上采样层,按顺序排列;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,在扩大网络感受野的同时,强化对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;上采样层处于第2个2D卷积层之后,之所以按照这样的顺序排列卷积层和上采样层,是为了在恢复图像尺寸的同时,消除棋盘效应;输出层同样含有2个连续的2D卷积层,和4个解码器子模块中的卷积层设置相同;每个解码器子模块的输出会与来自对应深度的跳跃连接中的SCP模块的输出在通道维度上进行拼接,然后输入到下一个解码器子模块中,迭代至输出层;全局多尺度信息流通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精确的生成结果。
6.根据权利要求4所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述分割网络B由深度学习网络U构成,是一种医学图像分割任务中所使用的经典网络结构,包含带跳跃连接的编码器部分和解码器部分;
所述编码器部分由4个结构相同的编码器子模块构成;每个编码器子模块均含有2个连续的2D卷积层和1个最大池化层;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,目的是在扩大网络感受野的同时,加强对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;最大池化层处于第2个2D卷积层之后,目的是提取特征图的主要信息,减小特征图尺寸;每一个编码器子模块的输出除了输送到下一级编码器子模块外,还会通过跳跃连接被输送到对应深度的解码器模块中,将编码器中提取到的原始特征细节引入解码器模块中,补充上采样过程中丢失的细节部分,以实现分割结果的精细化;
所述解码器部分由4个解码器子模块和1个输出层构成,其中4个解码器子模块的结构相同;4个解码器子模块均含有2个连续的2D卷积层和1个上采样层,按顺序排列;每个2D卷积层后紧接着是实例归一化层,并使用ReLU作为激活函数;其中,每一个卷积层的卷积核尺寸大小设置为3×3,步长设置为1,使用“same”卷积的方式,将填充量设置为1,在扩大网络感受野的同时,强化对图像边缘信息的提取,保证卷积过程中特征图的尺寸不变使网络后续尺寸变化计算更为方便;上采样层处于第2个2D卷积层之后,之所以按照这样的顺序排列卷积层和上采样层,是为了在恢复图像尺寸的同时,消除棋盘效应;输出层同样含有2个连续的2D卷积层,和4个解码器子模块中的卷积层设置相同;每个解码器子模块的输出会与来自对应深度的编码器模块的输出在通道维度上进行拼接,然后输入到下一个解码器子模块中,迭代至输出层;全局多尺度信息流通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精确的生成结果。
7.根据权利要求1所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述模型测试模块将测试集中各样本的CT图像,输入到危及器官分割模型训练模块中,生成各个迭代训练轮次的危及器官分割模型,输出对应的危及器官分割结果,并评估各样本得到分割结果的准确度,选择迭代训练的各个轮次得到的模型中,危及器官分割结果评估结果最好的模型作为最优分割模型;
在评估指标选择上,选用Dice系数作为评估指标,记为EDice,由下式确定:
Figure FDA0003371012500000071
其中,gt表示经医师手工分割鼻咽癌危及器官的标签,
Figure FDA0003371012500000072
代表分割网络B的输出结果;
选择迭代训练的各个轮次得到的模型中,危及器官分割结果评估结果最好的模型,是指对于迭代训练各个轮次得到的模型,选择危及器官分割结果和对应的器官分割标签gt所计算出的EDice最高的模型作为最优影像生成模型。
8.根据权利要求1所述的一种基于深度学习的CT图像危及器官分割系统,其特征在于:所述分割图像生成模块处理模型测试模块输出的灰度图像结果,得到预测的标签图的二值图像,采用叠图的方式,在测试集中对应的原输入CT图像上,叠加模型测试模块输出的分割二值化图像,最终得到完整清晰的分割图像。
CN202111400771.6A 2021-11-24 2021-11-24 一种基于深度学习的ct图像危及器官分割系统 Active CN114219943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111400771.6A CN114219943B (zh) 2021-11-24 2021-11-24 一种基于深度学习的ct图像危及器官分割系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111400771.6A CN114219943B (zh) 2021-11-24 2021-11-24 一种基于深度学习的ct图像危及器官分割系统

Publications (2)

Publication Number Publication Date
CN114219943A true CN114219943A (zh) 2022-03-22
CN114219943B CN114219943B (zh) 2023-05-26

Family

ID=80698077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111400771.6A Active CN114219943B (zh) 2021-11-24 2021-11-24 一种基于深度学习的ct图像危及器官分割系统

Country Status (1)

Country Link
CN (1) CN114219943B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634285A (zh) * 2020-12-23 2021-04-09 西南石油大学 一种自动分割腹部ct内脏脂肪区域的方法
CN114581474A (zh) * 2022-04-28 2022-06-03 中国科学技术大学 一种基于宫颈癌ct影像的临床靶区自动勾画方法
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统
CN115409739A (zh) * 2022-10-31 2022-11-29 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 一种危及器官自动勾画方法及系统
CN116934738A (zh) * 2023-08-14 2023-10-24 威朋(苏州)医疗器械有限公司 基于超声图像的器官与结节联合分割方法及系统
CN117237394A (zh) * 2023-11-07 2023-12-15 万里云医疗信息科技(北京)有限公司 基于多注意力的轻量级分割图像的方法、装置及存储介质
CN117391984A (zh) * 2023-11-02 2024-01-12 中国人民解放军空军军医大学 一种提升cbct影像质量的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200401854A1 (en) * 2019-06-21 2020-12-24 StraxCorp Pty. Ltd. Method and system for image segmentation and identification
CN112258526A (zh) * 2020-10-30 2021-01-22 南京信息工程大学 一种基于对偶注意力机制的ct肾脏区域级联分割方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112767417A (zh) * 2021-01-20 2021-05-07 合肥工业大学 一种基于级联U-Net网络的多模态图像分割方法
CN113674330A (zh) * 2021-07-12 2021-11-19 华南理工大学 一种基于生成对抗网络的伪ct影像生成系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200401854A1 (en) * 2019-06-21 2020-12-24 StraxCorp Pty. Ltd. Method and system for image segmentation and identification
CN112258526A (zh) * 2020-10-30 2021-01-22 南京信息工程大学 一种基于对偶注意力机制的ct肾脏区域级联分割方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112767417A (zh) * 2021-01-20 2021-05-07 合肥工业大学 一种基于级联U-Net网络的多模态图像分割方法
CN113674330A (zh) * 2021-07-12 2021-11-19 华南理工大学 一种基于生成对抗网络的伪ct影像生成系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JANSSENS R等: "Fully automatic segementation of lumbar vertebrae from CT images using cascaded 3D fully convolutional networks" *
亢洁;丁菊敏;万永;雷涛;: "基于分水岭修正与U-Net的肝脏图像分割算法" *
徐宝泉: "基于级联Vnet-S网络的CT影像分割算法研究" *
胡屹杉;秦品乐;曾建潮;柴锐;王丽芳;: "结合分段频域和局部注意力的超声甲状腺分割" *
郭圣文等: "胸部CT中肺实质的自动分割与计算机辅助诊断" *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634285A (zh) * 2020-12-23 2021-04-09 西南石油大学 一种自动分割腹部ct内脏脂肪区域的方法
CN112634285B (zh) * 2020-12-23 2022-11-22 西南石油大学 一种自动分割腹部ct内脏脂肪区域的方法
CN114581474A (zh) * 2022-04-28 2022-06-03 中国科学技术大学 一种基于宫颈癌ct影像的临床靶区自动勾画方法
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统
CN114663431B (zh) * 2022-05-19 2022-08-30 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统
CN115409739A (zh) * 2022-10-31 2022-11-29 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 一种危及器官自动勾画方法及系统
CN116934738A (zh) * 2023-08-14 2023-10-24 威朋(苏州)医疗器械有限公司 基于超声图像的器官与结节联合分割方法及系统
CN116934738B (zh) * 2023-08-14 2024-03-22 威朋(苏州)医疗器械有限公司 基于超声图像的器官与结节联合分割方法及系统
CN117391984A (zh) * 2023-11-02 2024-01-12 中国人民解放军空军军医大学 一种提升cbct影像质量的方法
CN117391984B (zh) * 2023-11-02 2024-04-05 中国人民解放军空军军医大学 一种提升cbct影像质量的方法
CN117237394A (zh) * 2023-11-07 2023-12-15 万里云医疗信息科技(北京)有限公司 基于多注意力的轻量级分割图像的方法、装置及存储介质
CN117237394B (zh) * 2023-11-07 2024-02-27 万里云医疗信息科技(北京)有限公司 基于多注意力的轻量级分割图像的方法、装置及存储介质

Also Published As

Publication number Publication date
CN114219943B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
CN114219943B (zh) 一种基于深度学习的ct图像危及器官分割系统
CN113077471B (zh) 一种基于u型网络的医学图像分割方法
CN112150428B (zh) 一种基于深度学习的医学图像分割方法
WO2018125580A1 (en) Gland segmentation with deeply-supervised multi-level deconvolution networks
CN109410219A (zh) 一种基于金字塔融合学习的图像分割方法、装置和计算机可读存储介质
CN111369565A (zh) 一种基于图卷积网络的数字病理图像的分割与分类方法
CN110648331B (zh) 用于医学图像分割的检测方法、医学图像分割方法及装置
CN112884788B (zh) 基于丰富上下文网络的视杯视盘分割方法及成像方法
CN114494296A (zh) 一种基于Unet和Transformer相融合的脑部胶质瘤分割方法与系统
CN112862830A (zh) 一种多模态图像分割方法、系统、终端及可读存储介质
Shan et al. SCA-Net: A spatial and channel attention network for medical image segmentation
CN114171187A (zh) 一种基于多模态深度学习的胃癌tnm分期预测系统
CN112288749A (zh) 一种基于深度迭代融合深度学习模型的颅骨图像分割方法
CN115546466A (zh) 一种基于多尺度显著特征融合的弱监督图像目标定位方法
CN113643297B (zh) 一种基于神经网络的计算机辅助牙龄分析方法
CN114332572B (zh) 基于显著图引导分层密集特征融合网络用于提取乳腺病变超声图像多尺度融合特征参数方法
CN113344933A (zh) 一种基于多层次特征融合网络的腺体细胞分割方法
CN113111740A (zh) 一种遥感图像目标检测的特征编织方法
CN115953345B (zh) 脑出血医学图像的病变合成方法、装置及存储介质
CN115512220A (zh) 一种基于改进Unet网络模型的遥感图像道路分割方法
CN114782454A (zh) 用于盆腔肿瘤影像术前导航的图像识别系统
CN113538348A (zh) 一种颅脑磁共振弥散加权图像的处理方法及相关产品
CN108154107B (zh) 一种确定遥感图像归属的场景类别的方法
CN117218339A (zh) 一种基于背景类识别的ct图像肿瘤小样本分割系统
KR102566095B1 (ko) 조직병리영상의 공동 분류 및 분할을 위한 딥러닝 장치 및 그 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant