CN113674330A - 一种基于生成对抗网络的伪ct影像生成系统 - Google Patents

一种基于生成对抗网络的伪ct影像生成系统 Download PDF

Info

Publication number
CN113674330A
CN113674330A CN202110783299.2A CN202110783299A CN113674330A CN 113674330 A CN113674330 A CN 113674330A CN 202110783299 A CN202110783299 A CN 202110783299A CN 113674330 A CN113674330 A CN 113674330A
Authority
CN
China
Prior art keywords
image
sequence
images
module
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110783299.2A
Other languages
English (en)
Other versions
CN113674330B (zh
Inventor
郭圣文
施王子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110783299.2A priority Critical patent/CN113674330B/zh
Publication of CN113674330A publication Critical patent/CN113674330A/zh
Application granted granted Critical
Publication of CN113674330B publication Critical patent/CN113674330B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的伪CT影像生成系统,包括6个功能模块:数据采集模块、数据采集模块、感兴趣区域勾画模块、影像生成模型训练模块、模型测试模块和影像生成模块。该系统提出一种多序列特征深度融合CT影像生成器G,通过多序列特征融合策略,分利用MR影像不同序列之间的互补特征,显著提升伪CT图像的生成质量,同时应用辅助分割器,实现对于感兴趣区域生成质量的强化。

Description

一种基于生成对抗网络的伪CT影像生成系统
技术领域
本发明涉及医学图像处理的技术领域,尤其是指一种基于生成对抗网络的伪CT影像生成系统。
背景技术
在当前鼻咽癌放疗的临床实践中,CT和MRI常常一同被用于放疗计划的制定。由于MR影像并不能直接提供计算辐射剂量所需的组织电子密度信息,因此在结合MRI的放疗工作流程中,需要先通过配准算法对MR影像和CT影像进行跨模态配准,由此得到CT-MR融合影像,在此基础上进行GTV的勾画以及后续的剂量规划工作。在放疗计划制定过程中融合使用CT和MR影像显著提高了整个流程的复杂性,增加了医疗系统的负担和工作人员的工作量,并给病患带来额外的经济开支。另外CT扫描过程中存在有害的电离辐射,因此不适合在一段时间内连续检查,并且对例如孕妇和幼儿等某些人群不适用,而MRI扫描过程不产生电离辐射,不会对健康带来危害。同时临床上常用的刚性配准算法在进行头部MR-CT影像配准时会带来约0.5-2mm的误差,由配准带来的系统性错误将在整个放疗工作流程中传播,降低了放疗的精确程度,对放疗的有效性带来不利影响。如果能从MR影像中直接生成伪CT影像,即可从MR影像中得到组织电子密度信息,则仅仅依靠MR影像就能够完成整个放疗计划制定过程,可以简化临床放疗工作流程,减轻医生的工作负担,同时避免CT扫描给患者带来辐射,并且能够消除MR影像与CT影像跨模态配准带来的系统误差,进行更为精准的剂量规划,从而提升放疗的效果。
现有的基于生成对抗网络的影像生成系统在特定的医学影像生成任务中表现良好,但仍存在以下不足:
1、基于多通道输入和跨模态卷积等简单的特征融合方式,特征融合能力较差,特征融合前未考虑到不同序列特征之间的不平衡性,且待融合的特征信息尺度单一,未能对全局和局部特征信息加以充分利用,造成生成影像的质量一般。
2、未能实现对于放疗计划制定过程中重点关注的感兴趣区域(region ofinterest,ROI)的生成质量的强化。
综上所述,在伪CT影像的生成系统中,如何充分利用多序列MR影像信息,对多序列影像特征进行深度融合,并且强化ROI区域的生成质量,得到高质量的伪CT影像,是亟待解决的关键问题。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于生成对抗网络的伪CT影像生成系统,采用一种多序列特征深度融合CT影像生成器G,提升CT影像生成的质量,并应用辅助分割器,实现对于ROI区域生成质量的强化。
为实现上述目的,本发明所提供的技术方案为:一种基于生成对抗网络的伪CT影像生成系统,包括:
数据采集模块,用于采集影像数据集,影像数据集包括多个样本相同部位的CT影像和同期获得的多序列MR影像;将影像数据集随机划分为训练集和测试集;
影像配准模块,用于选定影像数据集中多序列MR影像的某一序列影像作为参考影像,采用刚性与弹性两步配准法,将各样本中其余序列MR影像、CT影像分别与参考影像进行配准;
感兴趣区域勾画模块,用于在参考影像中勾画感兴趣区域;
影像生成模型训练模块,用于使用训练集中的影像数据,对影像生成模型进行迭代训练,影像生成模型包括生成对抗网络和分割器S,其中生成对抗网络由多序列特征深度融合CT影像生成器G以及判别器D构成,二者通过分别优化各自的损失函数进行训练,分割器S通过优化感兴趣区域的分割损失,帮助训练多序列深度融合CT影像生成器G,以生成强化感兴趣区域生成质量的伪CT影像;
模型测试模块,用于将测试集中的全部样本多序列MR影像,输入影像生成模型训练模块得到的各个迭代训练轮次的影像生成模型中的多序列特征深度融合CT影像生成器G,生成对应的伪CT影像,并评估各样本得到的伪CT影像整体和感兴趣区域的生成质量,选择迭代训练的各个轮次得到的模型中伪CT影像平均生成质量最好的模型作为最优影像生成模型;
影像生成模块,用于采集多序列MR影像,将与影像配准模块中所选定的同种MR序列影像作为参考影像,采用刚性与弹性两步配准法,将各样本中其余序列MR影像与参考影像进行配准,将配准后的多序列MR影像输入最优影像生成模型中的多序列特征深度融合CT影像生成器G,生成伪CT影像。
进一步,所述影像配准模块用于校正每个样本不同序列的MR影像之间、CT影像与多序列MR影像之间的空间位置差异,选定多序列MR影像中某一序列影像作为参考影像;所述刚性与弹性两步配准法是指先采用刚性配准方法将各个样本中其余序列的MR影像、CT影像分别与参考影像进行配准,以校正头部刚性运动引起的空间位置差异,再应用弹性配准方法进一步校正软组织运动引起的位置差异,从而使同一样本的不同类型影像在空间位置上保持一致。
进一步,所述感兴趣区域勾画模块根据参考影像中组织结构特性,由人工确定各样本感兴趣区域并进行勾画,作为生成系统重点关注的区域。
进一步,所述影像生成模型训练模块将训练集分成n个小批次(mini batch)的数据并逐批次对影像生成模型进行训练;在训练阶段,当前批次的CT影像为真实CT影像,用Ireal_CT表示,对应的感兴趣区域标签用g表示;当前批次的t种多序列MR影像用Ireal_MR表示;同一批次的t种不同序列MR影像之间是空间位置对齐的;所述影像生成模型包括生成对抗网络和分割器S,其中生成对抗网络由多序列特征深度融合CT影像生成器G和判别器D构成,训练过程包括以下步骤:
1)将Ireal_CT输入分割器S,得到分割结果sreal_CT,计算分割器S相应损失项
Figure BDA0003157820810000045
并更新分割器S的参数;其中,分割结果Iseg由下列表达式确定:
sreal_CT=S(Ireal_CT)
分割器S相应损失项
Figure BDA0003157820810000046
由Dice分割损失构成,由下式确定:
Figure BDA0003157820810000041
2)将Ireal_MR输入多序列深度融合CT影像生成器G,生成伪CT影像Isy_CT;将Ireal_CT和Ireal_MR在通道维度上进行堆叠,输入到判别器D中;将Isy_CT和Ireal_MR在通道维度上进行堆叠,输入到判别器D中,计算判别器D相应损失项
Figure BDA0003157820810000042
并更新判别器D的参数;其中,伪CT影像Isy_CT由下式确定:
Isy_CT=G(Ireal_MR)
判别器D相应损失项
Figure BDA0003157820810000043
由对抗性损失构成,由下式确定:
Figure BDA0003157820810000044
式中,m为当前小批次中数据的个数,1为维度与D(Ireal_MR,Isy_CT)维度相同的全1矩阵;根据生成对抗网络中博弈论思想,构建对抗性损失的目的是让判别器D正确分辨真实CT影像Ireal_CT和伪CT影像Isy_CT的能力尽可能提高;
所述多序列深度融合CT影像生成器G为带跳跃连接的多编码器-单解码器结构,即包含多编码器部分和解码器部分;
所述多编码器部分由t个结构相同的编码器分支构成,分别对应t种不同序列MR影像的输入;每个编码器分支均含有4个残差模块,每个残差块包含两个2D卷积层,每个卷积层后紧接着是实例归一化层,并使用LReLU作为激活函数;其中,第一个残差模块中卷积的步长设置为1,其余三个残差块卷积的步长均为2,目的是在扩大网络感受野的同时,对特征图进行降采样;当前分支残差模块的输出除了输送到下一级外,还与其它分支同级的输出共同输入到多序列深度融合模块中实现多序列特征的融合,融合后的多序列特征通过跳跃连接输入到对应层级的解码器模块中,以实现低级与高级特征之间的组合;
所述多序列深度融合模块由ASPP模块、注意力机制模块和残差模块构成;各序列特征首先分别通过ASPP模块以获取多尺度特征信息,为后续特征融合提供更加丰富的特征表达;所述ASPP模块由3个并行的空洞卷积构成,卷积核尺寸为3×3,膨胀比率分别设置为6、12、18,使用实例归一化层和LReLU激活函数;多个序列分别通过ASPP模块后得到的多尺度特征将通过Concatenate操作在通道维度上进行拼接,得到多个序列的多尺度特征;
接下来多个序列的多尺度特征通过注意力机制模块,利用注意力机制在通道和空间两个维度上进行特征校正,通过给予生成任务密切相关的重要特征通道分配更高的权重,弱化不重要的特征通道,进而提升生成模型整体性能;所述注意力机制模块由两个连续的卷积层和通道注意力模块以及空间注意力模块顺序组成,其中,通道注意力模块对输入特征首先在宽×高的维度上分别进行最大池化和平均池化,从而得到全局特征信息,紧接着全局特征信息分别输入到相同的两个连续的全连接层,输出的结果相加后通过Sigmoid函数得到各通道的权重;其中全连接层后同样使用实例归一化和LReLU激活函数;空间注意力模块则对输入特征在通道维度上应用最大和平均池化,得到的结果在通道维度上进行拼接,通过卷积降维后使用Sigmoid函数得到空间位置上的权重;多尺度特征分别与各通道的权重和空间位置上的权重相乘,即可完成多序列特征的校正;校正后的特征经过残差块后完成多序列特征融合过程;
所述解码器部分由3个反卷积层、3个残差块以及输出层组成,残差模块位于每个反卷积层后,反卷积层的卷积核尺寸为2×2,步长为2;残差块的卷积核尺寸为1×1,步长为1;输出层为2D卷积层,输出的通道数为1,卷积核尺寸为1×1,步长为1;除输出层无归一化层并使用Tanh激活函数以外,其余各层即3个反卷积层和3个残差块均使用实例归一化和LReLU激活函数;
所述反卷积层用于对特征图进行上采样以还原为原始尺寸;反卷积层输出的特征与对应层级融合模块通过跳跃连接递送的多序列融合特征通过连接Concatenate操作进行连接,然后传递到残差块中实现高级特征与低级特征的组合;低级特征通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的诸如纹理、微小结构之类的细节特征信息,从而得到结构更为精细的生成结果;同时低级特征由多个序列特征融合而来,不同序列的特征信息进行优势互补,进一步提升模型的生成效果;
3)将步骤2)中Isy_CT输入分割器S,得到分割结果ssy_CT,计算分割器S相应损失项
Figure BDA0003157820810000061
并更新分割器的参数;计算多序列特征深度融合CT影像生成器G相应损失项
Figure BDA0003157820810000062
并更新生成器的参数;其中,分割结果ssy_CT由下列表达式确定:
ssy_CT=S(Isy_CT)
分割器S相应损失项
Figure BDA0003157820810000063
由Dice分割损失构成,由下式确定:
Figure BDA0003157820810000064
所述多序列特征深度融合CT影像生成器G相应损失项
Figure BDA0003157820810000065
由下列表达式确定:
Figure BDA0003157820810000071
式中,m为当前小批次中数据的个数,logD(Ireal_MR,Isy_CT)是对抗性损失,计算对抗性损失是为了使多序列特征深度融合CT影像生成器G尽可能生成能够欺骗判别器D的伪CT影像;(||Ireal_CT-G(Ireal_MR)||1)是真实CT影像和生成的伪CT影像之间的L1损失,计算L1损失是为了帮助多序列特征深度融合CT影像生成器G生成质量更高的伪CT影像,
Figure BDA0003157820810000072
是真实CT影像与生成的伪CT影像由分割器S分割得到的分割结果之间的Dice损失值,计算Dice损失值是因为生成的伪CT影像的感兴趣区域分割结果与真实CT影像的感兴趣区域分割结果一致性越高,则生成的伪CT影像的感兴趣区域质量越好;通过Dice损失值帮助多序列特征深度融合CT影像生成器G生成强化感兴趣区域生成质量的伪CT影像,其中λ和μ均为经验系数。
进一步,所述模型测试模块用于将测试集中各样本的多序列MR影像,分别输入影像生成模型训练模块各个迭代训练轮次得到的影像生成模型中的多序列特征深度融合CT影像生成器G,得到各个迭代训练轮次对应的伪CT影像Isy_CT,评估伪CT影像整体和感兴趣区域的生成质量,选择迭代训练的各个轮次得到的模型中,伪CT影像平均生成质量最好的模型作为最优影像生成模型;得到伪CT影像Isy_CT过程由下列表达式确定:
Isy_CT=G(Ireal_MR)
式中,Ireal_MR指测试集中的多序列MR影像;
评估伪CT影像整体的生成质量是指对由各样本多序列MR影像生成的伪CT影像,分别评估其与对应真实CT影像整体的像素强度一致性;
评估感兴趣区域的生成质量是指依次采用刚性配准方法和弹性配准方法,对各个样本的伪CT影像与参考MR影像分别进行配准,将配准得到的形变场作用于感兴趣区域标签上,得到伪CT影像中感兴趣区域,分别评估各样本伪CT影像与对应真实CT影像中感兴趣区域的像素强度一致性和结构一致性;
选择迭代训练的各个轮次得到的模型中,伪CT影像平均生成质量最好的模型,是指对于迭代训练各个轮次得到的模型,选择伪CT影像整体和感兴趣区域与对应真实CT影像的平均像素强度一致性和平均结构一致性最高的轮次的模型作为最优影像生成模型。
进一步,所述影像生成模型采集多序列MR影像,选择与影像配准模块所选定的同种MR序列影像作为参考影像,应用刚性与弹性两步配准法,将各样本中其余序列MR影像与参考影像进行配准,得到空间位置对齐的多序列MR影像,再将多序列MR影像输入最优影像生成模型中的多序列特征深度融合CT影像生成器G,生成伪CT影像,过程由下列表达式确定:
Isy_CT=G(Ireal_MR)
式中,Ireal_MR指多序列MR影像,G指最优影像生成模型中的多序列特征深度融合CT影像生成器。
本发明与现有技术相比,具有如下优点与有益效果:
1、提出了一种基于深度学习从多序列MR影像生成伪CT影像的影像生成系统,系统中针对多序列影像以及特征融合任务的特点,采用一种基于ASPP结构和注意力机制以及残差块的多序列特征深度融合生成器,可以获得多序列影像的多尺度特征,并利用注意力机制使系统中的生成模型更加关注关键特征,提升多序列特征的融合性能,能够充分利用不同序列提供的互补影像学信息,显著提高生成伪CT影像的质量。
2、利用辅助分割器使生成对抗网络重点关注ROI区域,从而改善系统生成伪CT影像中ROI区域的质量。
3、相较于传统的影像生成系统,本系统基于端到端的深度学习方法,不需要对数据进行复杂的预处理和后处理,系统中的影像生成模型训练完成后可以高效率地应用于从多序列MR影像中生成高质量的伪CT影像这一任务中。
附图说明
图1是本发明系统的结构图。
图2是本发明系统中生成对抗网络原理图。
图3是多序列深度融合CT影像生成器的结构图。
图4是多序列深度融合CT影像生成器中多序列深度融合模块的结构图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1所示,本实施例所提供的基于生成对抗网络的伪CT影像生成系统,包括:数据采集模块、数据采集模块、感兴趣区域勾画模块、影像生成模型训练模块、模型测试模块和影像生成模块。
所述数据采集模块用于采集影像数据集,影像数据集包括多个样本相同目标部位同期获得的T1W、T2W、T1C三个序列的MR影像和被试者同期获得的CT影像。在本实施例中,样本均为鼻咽癌患者,选取目标部位为头颈部;对患者进行随机划分,训练集和测试集比例为4:1;
所述影像配准模块为了校正不同序列影像、CT影像与MR影像之间的空间位置差异,以T1C序列MR影像作为参考影像,先采用刚性配准方法,将各样本中其余序列MR影像、CT影像分别与参考影像进行配准,以校正头部刚性运动引起的空间位置差异,再应用弹性配准方法,进一步校正软组织运动引起的位置差异,从而使同一样本的不同类型影像在空间位置上保持一致;
所述感兴趣区域勾画模块用于在参考影像中勾画感兴趣区域,由于原发肿瘤和阳性淋巴结为放疗计划重点关注对象,由影像科医生在T1C序列MR影像上对原发肿瘤和阳性淋巴结区域进行勾画,将原发肿瘤和阳性淋巴结区域作为本实施例中的感兴趣区域;
所述影像生成模型训练模块用于将训练集分成n个小批次(mini batch)的数据逐批次对影像生成模型进行训练,其中mini batch大小设为m,具体数值可根据GPU可用显存的大小进行调整,本实施例中选取m为4;在训练阶段,当前批次的CT影像为真实CT影像,用Ireal_CT表示,对应的感兴趣区域标签由g表示;当前批次的3种多序列MR影像用Ireal_MR表示;同一批次的3种不同序列MR影像之间是空间位置对齐的;所述影像生成模型包括生成对抗网络和分割器S,其中生成对抗网络由多序列特征深度融合CT影像生成器G以及判别器D构成,训练过程包括以下步骤:
将Ireal_CT输入分割器S,得到分割结果sreal_CT,计算分割器相应损失项
Figure BDA0003157820810000101
并更新参数;
分割结果Iseg由下列表达式确定:
sreal_CT=S(Ireal_CT)
S相应损失项
Figure BDA0003157820810000102
由Dice分割损失构成,由下式确定:
Figure BDA0003157820810000103
其中,所述分割器S采用Res-U-Net网络结构,由编码器部分、解码器部分和跳跃连接组成。其中编码器部分由四个残差块构成,每个残差块含有4个残差模块,输出的通道数分别为8、16、32、64。每个残差块包含两个2D卷积层,每个卷积层后紧接着是批归一化层,并使用ReLU作为激活函数。编码器部分中残差模块的输出除了输送到下一级外,还通过跳跃连接输入到解码器模块的对应层级中,以实现低级与高级特征之间的组合。解码器部分由3个反卷积层、3个残差模块以及输出层组成,残差模块位于每个反卷积层后,反卷积层输出的通道数分别为64、32、16,反卷积层卷积核尺寸为2×2,步长为2;残差块输出的通道数分别为32、16、8,残差块卷积核尺寸为1×1,步长为1;输出层为2D卷积层,输出的通道数为1,卷积核尺寸为1×1,步长为1。除输出层无归一化层并使用Sigmoid激活函数以外,其余各层均使用批归一化和ReLU激活函数。
如图2所示,将Ireal_MR输入多序列深度融合CT影像生成器G,生成伪CT影像Isy_CT;将Ireal_CT和Ireal_MR在通道维度上进行堆叠,输入到判别器D中;将Isy_CT和Ireal_MR在通道维度上进行堆叠,输入到判别器D中,计算D相应损失项
Figure BDA0003157820810000111
并更新参数。
生成伪CT影像Isy_CT由下式确定:
Isy_CT=G(Ireal_MR)
判别器D相应损失项
Figure BDA0003157820810000112
由对抗性损失构成,由下式确定:
Figure BDA0003157820810000113
其中m为当前小批次中数据的个数,1为维度与D(Ireal_MR,Isy_CT)维度相同的全1矩阵。根据生成对抗网络中博弈论思想,构建对抗性损失的目的是让判别器D正确分辨真实CT影像Ireal_CT和伪CT影像Isy_CT的能力尽可能提高。
如图3所示,多序列深度融合CT影像生成器G为带跳跃连接的多编码器-单解码器结构,即包含多编码器部分和解码器部分。
所述多编码器部分由3个结构相同的编码器分支构成,分别对应3种不同序列MR影像的输入。每个编码器分支均含有4个残差模块,输出的通道数分别为8、16、32、64。每个残差块包含两个2D卷积层,每个卷积层后紧接着是实例归一化层,并使用LReLU作为激活函数。其中第一个残差模块中卷积的步长设置为1,其余三个残差块卷积的步长均为2,目的是在扩大网络感受野的同时,对特征图进行降采样。当前分支残差模块的输出除了输送到下一级外,还与其他分支同级的输出共同输入到多序列深度融合模块中实现多序列特征的融合,融合后的多序列特征通过跳跃连接输入到解码器模块的对应层级中,以实现低级与高级特征之间的组合。
如图4所示,所述多序列深度融合模块由ASPP模块、注意力机制模块和残差模块构成。各序列特征首先分别通过ASPP模块以获取多尺度特征信息,为后续特征融合提供更加丰富的特征表达。本实施例中的ASPP模块由3个并行的空洞卷积构成,卷积核尺寸为3×3,膨胀比率分别设置为6、12、18,使用实例归一化层和LReLU激活函数,编码器分支中位于不同层级的ASPP模块输出的通道数分别为8、16、32、64。多个序列分别通过ASPP模块后得到的多尺度特征将通过Concatenate操作在通道维度上进行拼接,得到多个序列的多尺度特征。接着多个序列的多尺度特征通过注意力机制模块,利用注意力机制在通道和空间两个维度上进行特征校正,通过给予生成任务密切相关的重要特征通道分配更高的权重,弱化不重要的特征通道,进而提升生成模型整体性能。注意力机制模块由两个连续的卷积层和通道注意力模块以及空间注意力模块顺序组成。其中通道注意力模块对输入特征首先在宽×高的维度上分别进行最大池化和平均池化,从而得到全局特征信息,紧接着全局特征信息分别输入到相同的两个连续的全连接层,输出的结果相加后通过Sigmoid函数得到各通道的权重。其中全连接层后同样使用实例归一化和LReLU激活函数。空间注意力模块则对输入特征在通道维度上应用最大和平均池化,得到的结果在通道维度上进行拼接,通过卷积降维后使用Sigmoid函数得到空间位置上的权重。多尺度特征分别与各通道的权重和空间位置上的权重相乘,即可完成多序列特征的校正。校正后的特征经过残差块后完成多序列特征融合过程。
所述解码器部分由3个反卷积层、3个残差块以及输出层组成,残差模块位于每个反卷积层后,反卷积层输出的通道数分别为64、32、16,反卷积层卷积核尺寸为2×2,步长为2;残差块输出的通道数分别为32、16、8,残差块卷积核尺寸为1×1,步长为1;输出层为2D卷积层,输出的通道数为1,卷积核尺寸为1×1,步长为1。除输出层无归一化层并使用Tanh激活函数以外,其余各层均使用实例归一化和LReLU激活函数。其中反卷积层用于对特征图进行上采样以还原为原始尺寸。反卷积层输出的特征与对应层级融合模块通过跳跃连接递送的多序列融合特征通过Concatenate操作进行连接,然后传递到残差块中实现高级特征与低级特征的组合。低级特征通过跳跃连接馈送至解码器的操作可以帮助网络恢复在下采样过程中丢失的诸如纹理、微小结构之类的细节特征信息,从而得到结构更为精细的生成结果;同时低级特征由多个序列特征融合而来,不同序列的特征信息进行优势互补,进一步提升模型的生成效果。
所述判别器D使用PatchGAN的结构,其由6个连续的2D卷积层组成,卷积核尺寸均为4×4,输出通道数分别为16、32、64、128、128、1。步长分别为2、2、2、2、1、1,除第一个和最后一个卷积层以外,每个卷积层后均含有实例归一化层;除最后一个卷积层外,其余卷积层后均使用LReLU作为激活函数。
如图2所示,将伪CT影像Isy_CT输入分割器S,得到分割结果ssy_CT,计算S相应损失项
Figure BDA0003157820810000131
并更新参数;计算G相应损失项
Figure BDA0003157820810000132
并更新参数。
分割结果ssy_CT由下列表达式确定:
ssy_CT=S(Isy_CT)
S相应损失项
Figure BDA0003157820810000141
由Dice分割损失构成,由下式确定:
Figure BDA0003157820810000142
多序列特征深度融合CT影像生成器G相应损失项
Figure BDA0003157820810000143
由下列表达式确定:
Figure BDA0003157820810000144
其中m为当前小批次中数据的个数,logD(Ireal_MR,Isy_CT)是对抗性损失,计算对抗性损失是为了使多序列特征深度融合CT影像生成器G尽可能生成能够欺骗判别器D的伪CT影像;(||Ireal_CT-G(Ireal_MR)||1)是真实CT影像和生成的伪CT影像之间的L1损失,计算L1损失是为了帮助多序列特征深度融合CT影像生成器G生成质量更高的伪CT影像;
Figure BDA0003157820810000145
是真实CT影像与生成的伪CT影像由分割器S分割得到的分割结果之间的Dice损失值,计算Dice损失值的目的是基于这样的考虑:生成的伪CT影像的ROI区域分割结果与真实CT影像的ROI区域分割结果一致性越高,则生成的伪CT影像的ROI区域质量越好。通过Dice损失值帮助多序列特征深度融合CT影像生成器G生成强化ROI区域生成质量的伪CT影像。其中λ和μ为经验系数,本实施例中分别设为100和1。
所述判别器D由5个连续的2D卷积层构成,卷积核个数分别为64,128,256,512,1,卷积核大小均为4,步长分别为2,2,2,1,1,除了第一个和最后一个卷积层以外,其余卷积层后都添加了Instance Normalization和Leaky ReLU分别作为归一化层和激活函数,第一层后仅添加Leaky ReLU作为激活函数。将生成的三个序列影像进行堆叠,作为三通道影像输入D。
所述模型测试模块用于将测试集中的全部样本多序列MR影像,输入影像生成模型训练模块得到的各个迭代训练轮次的影像生成模型中的多序列特征深度融合CT影像生成器G,生成对应的伪CT影像,并评估各样本得到的伪CT影像整体和感兴趣区域的生成质量,选择迭代训练的各个轮次得到的模型中,伪CT影像平均生成质量最好的模型作为最优影像生成模型;得到伪CT影像Isy_CT过程由下列表达式确定:
Isy_CT=G(Ireal_MR)
其中Ireal_MR指测试集中的多序列MR影像。
评估伪CT影像整体的生成质量,是指对由各样本多序列MR影像生成的伪CT影像,分别评估其与对应真实CT影像整体的像素强度一致性。本实施例采用MAE(Mean absoluteerror)、MSE(Mean square error)、PSNR(Peak signal to noise ratio)评估像素强度一致性,MAE、MSE越低,PSNR越高,说明伪CT影像与对应真实CT影像的像素强度一致性越高。
所述MAE的计算由下列表达式所确定:
Figure BDA0003157820810000151
所述MSE的计算由下列表达式所确定:
Figure BDA0003157820810000152
所述PSNR的计算由下列表达式所确定:
Figure BDA0003157820810000153
其中,sCT为生成的伪CT影像,realCT为对应的真实CT影像。
评估感兴趣区域的生成质量,是指依次采用刚性配准方法和弹性配准方法,对生成的伪CT影像与参考MR影像进行配准,将配准得到的形变场作用于感兴趣区域标签上,得到伪CT影像中对应的肿瘤和淋巴结区域。对伪CT影像中肿瘤和淋巴结区域,分别评估其与真实CT影像中感兴趣区域的像素强度一致性和结构一致性。本实施例采用Dice系数(Dicecoefficient)和豪斯多夫距离(Hausdorff distance,HD)评估结构一致性。豪斯多夫距离越低,Dice系数越高,说明伪CT影像与对应真实CT影像的结构一致性越高。
所述Dice系数的计算由下列表达式所确定:
Figure BDA0003157820810000161
其中g为人工勾画的肿瘤或淋巴结区域,p为sCT影像中得到的肿瘤或淋巴结区域。
所述豪斯多夫距离的计算由下列表达式所确定:
Figure BDA0003157820810000162
其中d(a,b)为a、b两点间的欧氏距离。
选择迭代训练的各个轮次得到的模型中,伪CT影像平均生成质量最好的模型,是指对于迭代训练各个轮次得到的模型,选择伪CT影像整体和感兴趣区域与对应真实CT影像的平均像素强度一致性和平均结构一致性最高的轮次的模型作为最优影像生成模型。
所述影像生成模块用于采集多序列MR影像,选择与影像配准模块所选定的同种MR序列影像作为参考影像,应用刚性与弹性两步配准法,将各样本中其余序列MR影像与参考影像进行配准,得到空间位置对齐的多序列MR影像,再将多序列MR影像输入最优影像生成模型中的多序列特征深度融合CT影像生成器G,生成伪CT影像,过程由下列表达式确定:
Isy_CT=G(Ireal_MR)
其中,Ireal_MR指多序列MR影像,G指最优影像生成模型中的多序列特征深度融合CT影像生成器。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种基于生成对抗网络的伪CT影像生成系统,其特征在于,包括:
数据采集模块,用于采集影像数据集,影像数据集包括多个样本相同部位的CT影像和同期获得的多序列MR影像;将影像数据集随机划分为训练集和测试集;
影像配准模块,用于选定影像数据集中多序列MR影像的某一序列影像作为参考影像,采用刚性与弹性两步配准法,将各样本中其余序列MR影像、CT影像分别与参考影像进行配准;
感兴趣区域勾画模块,用于在参考影像中勾画感兴趣区域;
影像生成模型训练模块,用于使用训练集中的影像数据,对影像生成模型进行迭代训练,影像生成模型包括生成对抗网络和分割器S,其中生成对抗网络由多序列特征深度融合CT影像生成器G以及判别器D构成,二者通过分别优化各自的损失函数进行训练,分割器S通过优化感兴趣区域的分割损失,帮助训练多序列深度融合CT影像生成器G,以生成强化感兴趣区域生成质量的伪CT影像;
模型测试模块,用于将测试集中的全部样本多序列MR影像,输入影像生成模型训练模块得到的各个迭代训练轮次的影像生成模型中的多序列特征深度融合CT影像生成器G,生成对应的伪CT影像,并评估各样本得到的伪CT影像整体和感兴趣区域的生成质量,选择迭代训练的各个轮次得到的模型中伪CT影像平均生成质量最好的模型作为最优影像生成模型;
影像生成模块,用于采集多序列MR影像,将与影像配准模块中所选定的同种MR序列影像作为参考影像,采用刚性与弹性两步配准法,将各样本中其余序列MR影像与参考影像进行配准,将配准后的多序列MR影像输入最优影像生成模型中的多序列特征深度融合CT影像生成器G,生成伪CT影像。
2.根据权利要求1所述的一种基于生成对抗网络的伪CT影像生成系统,其特征在于:所述影像配准模块用于校正每个样本不同序列的MR影像之间、CT影像与多序列MR影像之间的空间位置差异,选定多序列MR影像中某一序列影像作为参考影像;所述刚性与弹性两步配准法是指先采用刚性配准方法将各个样本中其余序列的MR影像、CT影像分别与参考影像进行配准,以校正头部刚性运动引起的空间位置差异,再应用弹性配准方法进一步校正软组织运动引起的位置差异,从而使同一样本的不同类型影像在空间位置上保持一致。
3.根据权利要求1所述的一种基于生成对抗网络的伪CT影像生成系统,其特征在于:所述感兴趣区域勾画模块根据参考影像中组织结构特性,由人工确定各样本感兴趣区域并进行勾画,作为生成系统重点关注的区域。
4.根据权利要求1所述的一种基于生成对抗网络的伪CT影像生成系统,其特征在于:所述影像生成模型训练模块将训练集分成n个小批次的数据并逐批次对影像生成模型进行训练;在训练阶段,当前批次的CT影像为真实CT影像,用Ireal_CT表示,对应的感兴趣区域标签用g表示;当前批次的t种多序列MR影像用Ireal_MR表示;同一批次的t种不同序列MR影像之间是空间位置对齐的;所述影像生成模型包括生成对抗网络和分割器S,其中生成对抗网络由多序列特征深度融合CT影像生成器G和判别器D构成,训练过程包括以下步骤:
1)将Ireal_CT输入分割器S,得到分割结果sreal_CT,计算分割器S相应损失项
Figure FDA0003157820800000023
并更新分割器S的参数;其中,分割结果Iseg由下列表达式确定:
sreal_CT=S(Ireal_CT)
分割器S相应损失项
Figure FDA0003157820800000021
由Dice分割损失构成,由下式确定:
Figure FDA0003157820800000022
2)将Ireal_MR输入多序列深度融合CT影像生成器G,生成伪CT影像Isy_CT;将Ireal_CT和Ireal_MR在通道维度上进行堆叠,输入到判别器D中;将Isy_CT和Ireal_MR在通道维度上进行堆叠,输入到判别器D中,计算判别器D相应损失项
Figure FDA0003157820800000031
并更新判别器D的参数;其中,伪CT数据Isy_CT由下式确定:
Isy_CT=G(Ireal_MR)
判别器D相应损失项
Figure FDA0003157820800000032
由对抗性损失构成,由下式确定:
Figure FDA0003157820800000033
式中,m为当前小批次中数据的个数,1为维度与D(Ireal_MR,Isy_CT)维度相同的全1矩阵;根据生成对抗网络中博弈论思想,构建对抗性损失的目的是让判别器D正确分辨真实CT影像Ireal_CT和伪CT影像Isy_CT的能力尽可能提高;
所述多序列深度融合CT影像生成器G为带跳跃连接的多编码器-单解码器结构,即包含多编码器部分和解码器部分;
所述多编码器部分由t个结构相同的编码器分支构成,分别对应t种不同序列MR影像的输入;每个编码器分支均含有4个残差模块,每个残差块包含两个2D卷积层,每个卷积层后紧接着是实例归一化层,并使用LReLU作为激活函数;其中,第一个残差模块中卷积的步长设置为1,其余三个残差块卷积的步长均为2,目的是在扩大网络感受野的同时,对特征图进行降采样;当前分支残差模块的输出除了输送到下一级外,还与其它分支同级的输出共同输入到多序列深度融合模块中实现多序列特征的融合,融合后的多序列特征通过跳跃连接输入到对应层级的解码器模块中,以实现低级与高级特征之间的组合;
所述多序列深度融合模块由ASPP模块、注意力机制模块和残差模块构成;各序列特征首先分别通过ASPP模块以获取多尺度特征信息,为后续特征融合提供更加丰富的特征表达;所述ASPP模块由3个并行的空洞卷积构成,卷积核尺寸为3×3,膨胀比率分别设置为6、12、18,使用实例归一化层和LReLU激活函数;多个序列分别通过ASPP模块后得到的多尺度特征将通过Concatenate操作在通道维度上进行拼接,得到多个序列的多尺度特征;
接下来多个序列的多尺度特征通过注意力机制模块,利用注意力机制在通道和空间两个维度上进行特征校正,通过给予生成任务密切相关的重要特征通道分配更高的权重,弱化不重要的特征通道,进而提升生成模型整体性能;所述注意力机制模块由两个连续的卷积层和通道注意力模块以及空间注意力模块顺序组成,其中,通道注意力模块对输入特征首先在宽×高的维度上分别进行最大池化和平均池化,从而得到全局特征信息,紧接着全局特征信息分别输入到相同的两个连续的全连接层,输出的结果相加后通过Sigmoid函数得到各通道的权重;其中全连接层后同样使用实例归一化和LReLU激活函数;空间注意力模块则对输入特征在通道维度上应用最大和平均池化,得到的结果在通道维度上进行拼接,通过卷积降维后使用Sigmoid函数得到空间位置上的权重;多尺度特征分别与各通道的权重和空间位置上的权重相乘,即可完成多序列特征的校正;校正后的特征经过残差块后完成多序列特征融合过程;
所述解码器部分由3个反卷积层、3个残差块以及输出层组成,残差模块位于每个反卷积层后,反卷积层的卷积核尺寸为2×2,步长为2;残差块的卷积核尺寸为1×1,步长为1;输出层为2D卷积层,输出的通道数为1,卷积核尺寸为1×1,步长为1;除输出层无归一化层并使用Tanh激活函数以外,其余各层即3个反卷积层和3个残差块均使用实例归一化和LReLU激活函数;
所述反卷积层用于对特征图进行上采样以还原为原始尺寸;反卷积层输出的特征与对应层级融合模块通过跳跃连接递送的多序列融合特征通过连接Concatenate操作进行连接,然后传递到残差块中实现高级特征与低级特征的组合;低级特征通过跳跃连接馈送至解码器的操作能够帮助网络恢复在下采样过程中丢失的细节特征信息,从而得到结构更为精细的生成结果;同时低级特征由多个序列特征融合而来,不同序列的特征信息进行优势互补,进一步提升模型的生成效果;
3)将步骤2)中Isy_CT输入分割器S,得到分割结果ssy_CT,计算分割器S相应损失项
Figure FDA0003157820800000051
并更新分割器的参数;计算多序列特征深度融合CT影像生成器G相应损失项
Figure FDA0003157820800000057
并更新生成器的参数;其中,分割结果ssy_CT由下列表达式确定:
ssy_CT=S(Isy_CT)
分割器S相应损失项
Figure FDA0003157820800000052
由Dice分割损失构成,由下式确定:
Figure FDA0003157820800000053
所述多序列特征深度融合CT影像生成器G相应损失项
Figure FDA0003157820800000054
由下列表达式确定:
Figure FDA0003157820800000055
式中,m为当前小批次中数据的个数,logD(Ireal_MR,Isy_CT)是对抗性损失,计算对抗性损失是为了使多序列特征深度融合CT影像生成器G尽可能生成能够欺骗判别器D的伪CT影像;(||Ireal_CT-G(Ireal_MR)||1)是真实CT影像和生成的伪CT影像之间的L1损失,计算L1损失是为了帮助多序列特征深度融合CT影像生成器G生成质量更高的伪CT影像,
Figure FDA0003157820800000056
是真实CT影像与生成的伪CT影像由CT影像分割器S分割得到的分割结果之间的Dice损失值,计算Dice损失值是因为生成的伪CT影像的感兴趣区域分割结果与真实CT影像的感兴趣区域分割结果一致性越高,则生成的伪CT影像的感兴趣区域质量越好;通过Dice损失值帮助多序列特征深度融合CT影像生成器G生成强化感兴趣区域生成质量的伪CT影像,其中λ和μ均为经验系数。
5.根据权利要求1所述的一种基于生成对抗网络的伪CT影像生成系统,其特征在于:所述模型测试模块用于将测试集中各样本的多序列MR影像,分别输入影像生成模型训练模块各个迭代训练轮次得到的影像生成模型中的多序列特征深度融合CT影像生成器G,得到各个迭代训练轮次对应的伪CT影像Isy_CT,评估伪CT影像整体和感兴趣区域的生成质量,选择迭代训练的各个轮次得到的模型中,伪CT影像平均生成质量最好的模型作为最优影像生成模型;得到伪CT影像Isy_CT过程由下列表达式确定:
Isy_CT=G(Ireal_MR)
式中,Ireal_MR指测试集中的多序列MR影像;
评估伪CT影像整体的生成质量是指对由各样本多序列MR影像生成的伪CT影像,分别评估其与对应真实CT影像整体的像素强度一致性;
评估感兴趣区域的生成质量是指依次采用刚性配准方法和弹性配准方法,对各个样本的伪CT影像与参考MR影像分别进行配准,将配准得到的形变场作用于感兴趣区域标签上,得到伪CT影像中感兴趣区域,分别评估各样本伪CT影像与对应真实CT影像中感兴趣区域的像素强度一致性和结构一致性;
选择迭代训练的各个轮次得到的模型中,伪CT影像平均生成质量最好的模型,是指对于迭代训练各个轮次得到的模型,选择伪CT影像整体和感兴趣区域与对应真实CT影像的平均像素强度一致性和平均结构一致性最高的轮次的模型作为最优影像生成模型。
6.根据权利要求1所述的一种基于生成对抗网络的伪CT影像生成系统,其特征在于:所述影像生成模型采集多序列MR影像,选择与影像配准模块所选定的同种MR序列影像作为参考影像,应用刚性与弹性两步配准法,将各样本中其余序列MR影像与参考影像进行配准,得到空间位置对齐的多序列MR影像,再将多序列MR影像输入最优影像生成模型中的多序列特征深度融合CT影像生成器G,生成伪CT影像,过程由下列表达式确定:
Isy_CT=G(Ireal_MR)
式中,Ireal_MR指多序列MR影像,G指最优影像生成模型中的多序列特征深度融合CT影像生成器。
CN202110783299.2A 2021-07-12 2021-07-12 一种基于生成对抗网络的伪ct影像生成系统 Active CN113674330B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110783299.2A CN113674330B (zh) 2021-07-12 2021-07-12 一种基于生成对抗网络的伪ct影像生成系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110783299.2A CN113674330B (zh) 2021-07-12 2021-07-12 一种基于生成对抗网络的伪ct影像生成系统

Publications (2)

Publication Number Publication Date
CN113674330A true CN113674330A (zh) 2021-11-19
CN113674330B CN113674330B (zh) 2023-02-14

Family

ID=78538874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110783299.2A Active CN113674330B (zh) 2021-07-12 2021-07-12 一种基于生成对抗网络的伪ct影像生成系统

Country Status (1)

Country Link
CN (1) CN113674330B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119546A (zh) * 2021-11-25 2022-03-01 推想医疗科技股份有限公司 检测mri影像的方法及装置
CN114219943A (zh) * 2021-11-24 2022-03-22 华南理工大学 一种基于深度学习的ct图像危及器官分割系统
CN114881848A (zh) * 2022-07-01 2022-08-09 浙江柏视医疗科技有限公司 一种多序列mr转ct的方法
CN116630466A (zh) * 2023-07-26 2023-08-22 济南大学 基于生成对抗性网络的脊柱ct到mr转换方法及系统
CN117391984A (zh) * 2023-11-02 2024-01-12 中国人民解放军空军军医大学 一种提升cbct影像质量的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198179A (zh) * 2018-01-03 2018-06-22 华南理工大学 一种生成对抗网络改进的ct医学图像肺结节检测方法
CN108447049A (zh) * 2018-02-27 2018-08-24 中国海洋大学 一种基于生成式对抗网络的数字化生理生物体分割方法
CN109325951A (zh) * 2018-08-13 2019-02-12 深圳市唯特视科技有限公司 一种基于生成对抗网络的转化和分割医学卷的方法
CN109934832A (zh) * 2019-03-25 2019-06-25 北京理工大学 基于深度学习的肝脏肿瘤分割方法及装置
US20200034948A1 (en) * 2018-07-27 2020-01-30 Washington University Ml-based methods for pseudo-ct and hr mr image estimation
WO2020237242A1 (en) * 2019-05-23 2020-11-26 H. Lee Moffitt Cancer Center And Research Institute, Inc. System and method of evaluating neural networks to segment medical images
CN112802046A (zh) * 2021-01-28 2021-05-14 华南理工大学 基于深度学习从多序列mr中生成伪ct的影像生成系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198179A (zh) * 2018-01-03 2018-06-22 华南理工大学 一种生成对抗网络改进的ct医学图像肺结节检测方法
CN108447049A (zh) * 2018-02-27 2018-08-24 中国海洋大学 一种基于生成式对抗网络的数字化生理生物体分割方法
US20200034948A1 (en) * 2018-07-27 2020-01-30 Washington University Ml-based methods for pseudo-ct and hr mr image estimation
CN109325951A (zh) * 2018-08-13 2019-02-12 深圳市唯特视科技有限公司 一种基于生成对抗网络的转化和分割医学卷的方法
CN109934832A (zh) * 2019-03-25 2019-06-25 北京理工大学 基于深度学习的肝脏肿瘤分割方法及装置
WO2020237242A1 (en) * 2019-05-23 2020-11-26 H. Lee Moffitt Cancer Center And Research Institute, Inc. System and method of evaluating neural networks to segment medical images
CN112802046A (zh) * 2021-01-28 2021-05-14 华南理工大学 基于深度学习从多序列mr中生成伪ct的影像生成系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AXEL LARGENT 等: "PSEUDO-CT GENERATION FOR MRI-ONLY RADIOTHERAPY: COMPARATIVE STUDY BETWEEN A GENERATIVE ADVERSARIAL NETWORK, A U-NET NETWORK, A PATCHBASED, AND AN ATLAS BASED METHODS", 《2019 IEEE 16TH INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING (ISBI 2019)》 *
郭圣文 等: "胸部CT中肺实质的自动分割与计算机辅助诊断", 《华南理工大学学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114219943A (zh) * 2021-11-24 2022-03-22 华南理工大学 一种基于深度学习的ct图像危及器官分割系统
CN114119546A (zh) * 2021-11-25 2022-03-01 推想医疗科技股份有限公司 检测mri影像的方法及装置
CN114881848A (zh) * 2022-07-01 2022-08-09 浙江柏视医疗科技有限公司 一种多序列mr转ct的方法
CN116630466A (zh) * 2023-07-26 2023-08-22 济南大学 基于生成对抗性网络的脊柱ct到mr转换方法及系统
CN116630466B (zh) * 2023-07-26 2023-10-24 济南大学 基于生成对抗性网络的脊柱ct到mr转换方法及系统
CN117391984A (zh) * 2023-11-02 2024-01-12 中国人民解放军空军军医大学 一种提升cbct影像质量的方法
CN117391984B (zh) * 2023-11-02 2024-04-05 中国人民解放军空军军医大学 一种提升cbct影像质量的方法

Also Published As

Publication number Publication date
CN113674330B (zh) 2023-02-14

Similar Documents

Publication Publication Date Title
CN113674330B (zh) 一种基于生成对抗网络的伪ct影像生成系统
CN108776969B (zh) 基于全卷积网络的乳腺超声图像肿瘤分割方法
CN109242844B (zh) 基于深度学习的胰腺癌肿瘤自动识别系统、计算机设备、存储介质
CN110288609B (zh) 一种注意力机制引导的多模态全心脏图像分割方法
Morris et al. Cardiac substructure segmentation with deep learning for improved cardiac sparing
CN112017198B (zh) 基于自注意力机制多尺度特征的右心室分割方法及装置
KR102243644B1 (ko) 의료 영상 분획 딥러닝 모델 생성 장치 및 방법과, 그에 따라 생성된 의료 영상 분획 딥러닝 모델
CN111833237B (zh) 基于卷积神经网络和局部单应性变换的图像配准方法
US10937158B1 (en) Medical image segmentation based on mixed context CNN model
CN109584290A (zh) 一种基于卷积神经网络的立体图像匹配方法
CN110464353A (zh) 一种基于深度卷积神经网络的伪ct合成方法及应用
CN107680107B (zh) 一种基于多图谱的扩散张量磁共振图像的自动分割方法
CN112802046B (zh) 基于深度学习从多序列mr中生成伪ct的影像生成系统
CN114266939B (zh) 一种基于ResTLU-Net模型的脑提取方法
CN113298855B (zh) 基于自动勾画的图像配准方法
WO2020057074A1 (zh) 用于斑块分割的模型训练方法、装置、设备及存储介质
CN115457020B (zh) 一种融合残差图像信息的2d医学图像配准方法
CN110827232A (zh) 基于形态特征gan的跨模态mri合成方法
CN110270015B (zh) 一种基于多序列MRI的sCT生成方法
CN114881848A (zh) 一种多序列mr转ct的方法
CN109961435A (zh) 脑图像获取方法、装置、设备及存储介质
CN113205567A (zh) 基于深度学习的mri影像合成ct影像的方法
CN108596900B (zh) 甲状腺相关性眼病医学影像数据处理装置、方法、计算机可读存储介质及终端设备
Song et al. Super-resolution PET using a very deep convolutional neural network
CN115861464A (zh) 基于多模mri同步生成的伪ct合成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant