CN110580728B - 基于结构特征自增强的ct-mr模态迁移方法 - Google Patents

基于结构特征自增强的ct-mr模态迁移方法 Download PDF

Info

Publication number
CN110580728B
CN110580728B CN201910871938.3A CN201910871938A CN110580728B CN 110580728 B CN110580728 B CN 110580728B CN 201910871938 A CN201910871938 A CN 201910871938A CN 110580728 B CN110580728 B CN 110580728B
Authority
CN
China
Prior art keywords
network
cyclegan
structural feature
image
modality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910871938.3A
Other languages
English (en)
Other versions
CN110580728A (zh
Inventor
廖胜辉
温小斌
刘姝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201910871938.3A priority Critical patent/CN110580728B/zh
Publication of CN110580728A publication Critical patent/CN110580728A/zh
Application granted granted Critical
Publication of CN110580728B publication Critical patent/CN110580728B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于结构特征自增强的CT‑MR模态迁移方法,包括获取训练数据;在原始CycleGAN网络基础上增加SEnet网络结构并训练得到SENet‑CycleGAN网络模型;结合FPN网络结构得到结构特征自增强CycleGAN网络并引入模态无关描述子损失函数并训练得到结构特征自增强CycleGAN模态迁移模型;将需要进行模态迁移的CT图像数据输入结构特征自增强CycleGAN网络输出最终的模态迁移后的伪MR图像数据。本发明方法能够从CT图像数据获取模态迁移后的MR图像数据,不仅结果清晰,而且可靠性高、通用性好、实用性强。

Description

基于结构特征自增强的CT-MR模态迁移方法
技术领域
本发明属于图像处理领域,具体涉及一种基于结构特征自增强的CT-MR模态迁移方法。
背景技术
随着经济技术的发展,人们对于健康的关注度越来越高。CT和核磁(MR)也是常用的辅助诊断的手段。
基于CT的放疗是目前常用的放疗规划方法,并且通常能取得比较好的效果。但是近年来,随着核磁共振设备发展,MR图像在软组织上的区分度要比CT好很多。特别是在脑瘤的放疗手术规划中,MR被越来越多地使用。
但是由于MR扫描的费用较高,此外对于一些体内植有金属的患者,该类患者无法进行MR扫描。因此,人们便希望能利用CT图像生成对应的伪MR扫描图像,从而帮助医生对患者进行诊断。而从CT图像生成对应的伪MR扫描图像的过程,便称为CT-MR模态迁移过程。
对于CT-MR的模态迁移,研究人员提出了多种方法,主要有三类:
第一种方法是基于分割合成伪MR:将CT到MR的模态迁移问题建模成图像语义分割问题。但是这类方法需要依靠大量的手动分割标签数据,并且结果的准确性很大程度上依赖于手动分割标签的准确性。因此,实用性并不强。
第二类方法是基于地图集合成伪MR:这种方法首先将一个CT地图集配准到一个患者的CT图像上,得到形变向量场,然后将该形变向量场应用到上述的CT地图集对应的MR地图集上,得到患者CT图像对应的MR图像。这类方法的性能很大程度上取决于配准的精准度,其通用性并不佳。
第三类方法是基于最近流行的深度学习方法:依靠数据驱动的机器学习方法合成伪MR图像,已有相关的工作采用有监督和有监督与无监督结合的方法来合成伪MR图像。但是该类方法生成的伪MR图像的细节不够清晰,一些希望被增强的细节没有得到足够程度的增强。
发明内容
本发明的目的在于提供一种可靠性高、通用性好、实用性强且结果清晰的基于结构特征自增强的CT-MR模态迁移方法。
本发明提供的这种基于结构特征自增强的CT-MR模态迁移方法,包括如下步骤:
S1.获取单独的CT训练数据,以及已匹配好的CT-MR模态迁移数据;
S2.在CycleGAN网络的基础上增加SENet网络结构,得到SENet-CycleGAN网络,并采用步骤S1获取的单独的CT训练数据,对SENet-CycleGAN网络进行训练,从而得到预训练的SENet-CycleGAN网络模型;
S3.将FPN网络结构加入到SENet-CycleGAN网络,从而得到FPN-SENet-CycleGAN网络,亦即结构特征自增强CycleGAN网络,同时在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,并采用步骤S2得到的预训练的SENet-CycleGAN网络模型的参数对结构特征自增强CycleGAN网络进行初始化;
S4.采用步骤S1得到的已匹配好的CT-MR模态迁移数据,对步骤S3得到的初始化后的结构特征自增强CycleGAN网络进行训练,从而得到结构特征自增强CycleGAN模态迁移网络模型;
S5.获取需要进行模态迁移的CT图像数据输入步骤S4得到的结构特征自增强CycleGAN模态迁移网络模型,输出最终的模态迁移后的伪MR图像数据。
步骤S2所述的在CycleGAN网络的基础上增加SENet网络结构,得到SENet-CycleGAN网络,具体为将基础CycleGAN网络中的ResBlocks部分的Resblock替换成SEResBlock,并且在ResBlocks部分之后增加一个SEConv,并在两个反卷积deconv操作之前加入一个SEConv。
步骤S3所述的将FPN网络结构加入到SENet-CycleGAN网络,从而得到FPN-SENet-CycleGAN网络,具体为引入现有的FPN网络结构,将网络下采样阶段生成的不同尺度的特征图,分别加到上采样阶段的相应尺度特征图上,再分别经过一个1x1的卷积操作,生成相应尺度的伪MR图像数据;最后将得到的伪MR图像数据与对应尺度的CT图像数据一同构成模态无关描述子损失函数的输入数据。
步骤S3所述在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,具体为采用如下算式作为结构特征自增强CycleGAN网络的模态无关描述子损失函数:
Figure BDA0002203091280000031
式中Iout为输出图像,Iinp为原输入图像,N为图像像素点数目,Rnl为向量Fx(I)的长度,e为某一像素点的下标,λe为Harris角点响应值且λe=det(H)-k·trace(H),det(H)为H的行列式,trace(H)为H的迹,k为一个比例系数且k∈[0.04,0.06],α为某一平移方向,
Figure BDA0002203091280000032
为采用对比度拉伸将Iinp灰度范围调整到[μ,1]之后的图像,
Figure BDA0002203091280000033
的定义为
Figure BDA0002203091280000041
Z为归一化项,DP(I,e,e+α)的定义为
Figure BDA0002203091280000042
P为以x为中心的邻域块,I(e+p)为图像I以e为中心,p为偏移量的像素值,I(e+p+α)为图像I以e为中心,p+α为偏移量的像素值,V(I,e)的定义为e点处的邻域方差的近似且
Figure BDA0002203091280000043
Neighbour为e的4个邻接点,I(e)为图像I在像素点e的灰度值,I(e+n)为图像I像素点以e为中心,n为偏移量的像素值;
步骤S3所述在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,具体为在网络训练的第1次~第20000次,模态无关描述子损失函数的权重为0;从第20001次训练开始,每100次迭代训练,模态无关描述子损失函数的权重增加0.01,直至模态无关描述子损失函数的权重增加至0.8并保持不变至迭代训练结束。
本发明提供的这种基于结构特征自增强的CT-MR模态迁移方法,在原始CycleGAN网络基础上增加SEnet网络结构,得到SENet-CycleGAN网络,可以使得网络学习出对不同特征的权重赋值能力,以增强最终输出图像的细节;采用迁移学习的方法,预训练SENet-CycleGAN的生成模型,使得训练得到的网络泛化性能更强;本发明结合FPN网络结构,得到FPN-SENet-CycleGAN网络,亦即结构特征自增强CycleGAN网络,可以使得网络学习出对不同尺度结构特征的增强能力;此外引入配准领域的模态描述无关子构建损失函数,利用Harris角点响应值作为权重,增强网络学习不同特征权重的能力;因此本发明方法能够从CT图像数据获取模态迁移后的MR图像数据,不仅结果清晰,而且可靠性高、通用性好、实用性强。
附图说明
图1为本发明方法的方法流程示意图。
图2为本发明方法的结构特征自增强CycleGAN网络示意图。
图3为本发明方法的SENet结构示意图。
图4为本发明方法的实施例的效果示意图。
具体实施方式
如图1所示为本发明方法的方法流程示意图:本发明提供的这种基于结构特征自增强的CT-MR模态迁移方法,包括如下步骤:
S1.获取单独的CT训练数据,以及已匹配好的CT-MR模态迁移数据;
S2.在CycleGAN网络的基础上增加SENet网络结构,得到SENet-CycleGAN网络,并采用步骤S1获取的单独的CT训练数据,对SENet-CycleGAN网络进行训练,从而得到预训练的SENet-CycleGAN网络模型;
由于采用无监督方式训练网络会使得生成的伪MR细节不清晰,这主要是因为采用无监督的CycleGAN方式训练网络时,输入判别网络的真实MR是随机选择的,导致生成MR的标准每次可能都不一样,这通常会造成训练的不稳定以及生成伪MR细节不清晰的现象;因此本发明采用有监督的方式训练CycleGAN网络;但是由于配对的CT-MR数据量太少,使得采用有监督方式训练得到的网络预期的泛化性能会很弱;因此本发明借用迁移学习的思想,用大量的单独CT数据预训练增加了SENet结构的SENet-CycleGAN网络,使得训练后的SENet-CycleGAN网络的生成网络的encoder部分具备对不同形态的CT数据的高层语义识别能力,从而使得SENet-CycleGAN网络具备更强的泛化性能;
S3.将FPN网络结构加入到SENet-CycleGAN网络,从而得到FPN-SENet-CycleGAN网络,亦即结构特征自增强CycleGAN网络,同时在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,并采用步骤S2得到的预训练的SENet-CycleGAN网络模型的参数对结构特征自增强CycleGAN网络进行初始化;
1)将SENet网络结构与基础CycleGAN网络结合,具体为将基础CycleGAN网络中的ResBlocks部分的Resblock替换成SEResBlock,并且在ResBlocks部分之后增加一个SEConv,并在两个反卷积deconv操作之前加入一个SEConv;
2)将FPN网络结构与步骤S2得到的SENet-CycleGAN网络结合,具体为引入现有的FPN网络结构,将网络下采样阶段生成的不同尺度的特征图,分别加到上采样阶段的相应尺度特征图上,再分别经过一个1x1的卷积操作,生成相应尺度的伪MR图像数据;最后将得到的伪MR图像数据与对应尺度的CT图像数据一同构成模态无关描述子损失函数的输入数据。
由于输入模态图像和真实目标模态图像(Ground Truth)在配准后仍然未完全对齐,所以直接采用生成模态图像和真实目标模态图像(Ground Truth)之间的这种基于结构加权的损失,会导致生成的图像很模糊;基于这一设计思想,引入现有的FPN的网络结构,将网络下采样阶段生成的不同尺度的特征图,分别加到上采样阶段的相应尺度特征图上,再分别经过一个1x1的卷积操作,生成相应尺度的伪MR图像,与同尺度的CT图像构建相应的模态无关损失函数(如图2所示);
在已经设计了一种模态无关损失函数来迫使网络去学习出对不同特征的不同程度的增强能力的前提下,这一损失函数能起作用的前提是网络具备对不同特征赋予不同权重的能力,而网络层中不同的特征即对应不同的通道,为此引入SENet block,由于SE在网络的浅层作用并不大,因此只在网络的ResBlocks部分的Resblock替换成SEResBlock(SEResBlock如图3所示),同时ResBlocks部分之后紧接着一个SEConv,最后在两个反卷积(deconv)操作之前加入一个SEConv(如图2所示);
3)在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,具体为采用如下算式作为结构特征自增强CycleGAN网络的模态无关描述子损失函数:
Figure BDA0002203091280000071
式中Iout为输出图像,Iinp为原输入图像,N为图像像素点数目,Rnl为向量Fx(I)的长度,e为某一像素点的下标,λe为Harris角点响应值且λe=det(H)-k·trace(H),det(H)为H的行列式,trace(H)为H的迹,k为一个比例系数且k∈[0.04,0.06],α为某一平移方向,
Figure BDA0002203091280000072
为采用对比度拉伸将Iinp灰度范围调整到[μ,1]之后的图像,
Figure BDA0002203091280000073
的定义为
Figure BDA0002203091280000074
Z为归一化项,DP(I,e,e+α)的定义为
Figure BDA0002203091280000075
P为以x为中心的邻域块,I(e+p)为图像I以e为中心,p为偏移量的像素值,I(e+p+α)为图像I以e为中心,p+α为偏移量的像素值,V(I,e)的定义为e点处的邻域方差的近似且
Figure BDA0002203091280000076
Neighbour为e的4个邻接点,I(e)为图像I在像素点e的灰度值,I(e+n)为图像I像素点以e为中心,n为偏移量的像素值;
上述函数的来源如下:
注意到很多细节区域面积所占的比例非常小,由于默认的损失函数对所有像素点的惩罚力度是相同的,所以造成了即使损失不大,生成的模态图像也缺乏细节信息;如果想要增强这些细节区域,通常的方法是利用权重图(weight map),利用损失函数在这些像素点赋予更大的权重值,以强化对这些区域的学习,但要直接得到这样的权重图我们需要对图像进行分割,这将耗费大量的精力,为此探索另外的取代方法,注意到希望增强的那些细节区域通常具有很强的结构性,例如边缘、纹理、角、斑点、小区域块等。因此直观上希望建立生成模态图像和真实目标模态图像(Ground Truth)之间的损失函数,并在邻域结构性强的像素点赋予比较大的权重,来模拟一个权重图;
注意到前面的设想中我们要建立一个生成图像和输入图像之间的损失,就需要一个模态无关的特征结构描述子,因此我们采用配准领域中采用的模态无关特征描述子MIND(Modality Independent Neighbour Descriptor),用于描述图像中某一点的特征结构,该描述子的定义如下:
Figure BDA0002203091280000081
Figure BDA0002203091280000082
Figure BDA0002203091280000083
式中e为某一像素点,P表示以x为中心的邻域块,Neighbour为e的4个邻接点。V(I,e)为e点处的邻域方差的近似;定义MIND特征损失函数:
Figure BDA0002203091280000084
式中
Figure BDA0002203091280000085
是采用对比度拉伸,将Iinp灰度范围调整到[μ,1]之后的图像,Iinp为原输入图像,N为一副图像像素点数目,Rnl为向量Fx(I)的长度,即MIND特征提取区域大小;
由于希望对于邻域结构性强的像素点赋予较大的权重值,利用该像素点e=(x,y)处的一阶偏导数构成的矩阵:
Figure BDA0002203091280000091
W为该像素点的某一邻域,我们利用Harris角点响应值det(H)-k·trace(H)近似作为邻域结构响应值,k∈[0.04,0.06];
从而得到加权的MIND损失函数:
Figure BDA0002203091280000092
其中λe=det(H)-k·trace(H),其中
Figure BDA0002203091280000093
是采用对比度拉伸,将Iinp灰度范围调整到[μ,1]之后的图像,Iinp为原输入图像,N为一副图像像素点数目,Rnl为向量Fx(I)的长度,即MIND特征提取区域大小;
同时,注意到在网络训练初期,生成的目标模态图像比较接近输入的模态图像,而上述的MIND损失函数的作用是为了增强细节信息,因此如果一开始就对该MIND损失函数赋予过大的权重,有可能导致生成的目标模态图像难以接近真实的目标模态,因此我们采用动态调节该损失权重的方案,即在网络训练初期,该模态无关损失函数的权重为0,从第20000次迭代开始,每100次迭代,权重增加0.01,直到0.8,不再增加;
S4.采用步骤S1得到的已匹配好的CT-MR模态迁移数据,对步骤S3得到的结构特征自增强CycleGAN网络进行训练,从而得到结构特征自增强CycleGAN模态迁移网络模型;
S5.获取需要进行模态迁移的CT图像数据输入步骤S4得到的结构特征自增强CycleGAN模态迁移网络模型,输出最终的模态迁移后的伪MR图像数据。
如图4所示为本发明在具体应用时的实施例示意图。图4(a)为输入的原始的CT图像数据,图4(b)为采用本发明方法生成的伪MR图像数据,图4(c)为实际的真实MR图像数据;可以看到,本发明方法生成的伪MR图像的效果较好。

Claims (5)

1.一种基于结构特征自增强的CT-MR模态迁移方法,包括如下步骤:
S1.获取单独的CT训练数据,以及已匹配好的CT-MR模态迁移数据;
S2.在CycleGAN网络的基础上增加SENet网络结构,得到SENet-CycleGAN网络,并采用步骤S1获取的单独的CT训练数据,对SENet-CycleGAN网络进行训练,从而得到预训练的SENet-CycleGAN网络模型;
S3.将FPN网络结构加入到SENet-CycleGAN网络,从而得到结构特征自增强CycleGAN网络,同时在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,并采用步骤S2得到的预训练的SENet-CycleGAN网络模型的参数对结构特征自增强CycleGAN网络进行初始化;
S4.采用步骤S1得到的已匹配好的CT-MR模态迁移数据,对步骤S3得到的初始化后的结构特征自增强CycleGAN网络进行训练,从而得到结构特征自增强CycleGAN模态迁移网络模型;
S5.获取需要进行模态迁移的CT图像数据输入步骤S4得到的结构特征自增强CycleGAN模态迁移网络模型,输出最终的模态迁移后的伪MR图像数据。
2.根据权利要求1所述的基于结构特征自增强的CT-MR模态迁移方法,其特征在于步骤S2所述的在CycleGAN网络的基础上增加SENet网络结构,得到SENet-CycleGAN网络,具体为将基础CycleGAN网络中的ResBlocks部分的Resblock替换成SEResBlock,并且在ResBlocks部分之后增加一个SEConv,并在两个反卷积deconv操作之前加入一个SEConv。
3.根据权利要求2所述的基于结构特征自增强的CT-MR模态迁移方法,其特征在于步骤S3所述的将FPN网络结构加入到SENet-CycleGAN网络,从而得到FPN-SENet-CycleGAN网络,具体为引入现有的FPN网络结构,将网络下采样阶段生成的不同尺度的特征图,分别加到上采样阶段的相应尺度特征图上,再分别经过一个1x1的卷积操作,生成相应尺度的伪MR图像数据;最后将得到的伪MR图像数据与对应尺度的CT图像数据一同构成模态无关描述子损失函数的输入数据。
4.根据权利要求3所述的基于结构特征自增强的CT-MR模态迁移方法,其特征在于步骤S3所述在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,具体为采用如下算式作为结构特征自增强CycleGAN网络的模态无关描述子损失函数:
Figure FDA0002203091270000021
式中Iout为输出图像,Iinp为原输入图像,N为图像像素点数目,Rnl为向量Fx(I)的长度,e为某一像素点的下标,λe为Harris角点响应值且λe=det(H)-k·trace(H),det(H)为H的行列式,trace(H)为H的迹,k为一个比例系数且k∈[0.04,0.06],α为某一平移方向,
Figure FDA0002203091270000022
为采用对比度拉伸将Iinp灰度范围调整到[μ,1]之后的图像,
Figure FDA0002203091270000023
的定义为
Figure FDA0002203091270000024
Z为归一化项,DP(I,e,e+α)的定义为
Figure FDA0002203091270000025
P为以x为中心的邻域块,I(e+p)为图像I以e为中心,p为偏移量的像素值,I(e+p+α)为图像I以e为中心,p+α为偏移量的像素值,V(I,e)的定义为e点处的邻域方差的近似且
Figure FDA0002203091270000026
Neighbour为e的4个邻接点,I(e)为图像I在像素点e的灰度值,I(e+n)为图像I像素点以e为中心,n为偏移量的像素值。
5.根据权利要求4所述的基于结构特征自增强的CT-MR模态迁移方法,其特征在于步骤S3所述在结构特征自增强CycleGAN网络中加入模态无关描述子损失函数,具体为在网络训练的第1次~第20000次,模态无关描述子损失函数的权重为0;从第20001次训练开始,每100次迭代训练,模态无关描述子损失函数的权重增加0.01,直至模态无关描述子损失函数的权重增加至0.8并保持不变至迭代训练结束。
CN201910871938.3A 2019-09-16 2019-09-16 基于结构特征自增强的ct-mr模态迁移方法 Active CN110580728B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910871938.3A CN110580728B (zh) 2019-09-16 2019-09-16 基于结构特征自增强的ct-mr模态迁移方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910871938.3A CN110580728B (zh) 2019-09-16 2019-09-16 基于结构特征自增强的ct-mr模态迁移方法

Publications (2)

Publication Number Publication Date
CN110580728A CN110580728A (zh) 2019-12-17
CN110580728B true CN110580728B (zh) 2022-11-25

Family

ID=68811384

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910871938.3A Active CN110580728B (zh) 2019-09-16 2019-09-16 基于结构特征自增强的ct-mr模态迁移方法

Country Status (1)

Country Link
CN (1) CN110580728B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102276B (zh) * 2020-09-10 2023-03-28 西安电子科技大学 基于迁移学习图像增强的低场强mr胃部分割方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2365043A1 (en) * 2001-12-14 2003-06-14 Cedara Software Corp. Method for the transmission and storage of x-ray scans of containers for security assurance
WO2007144620A2 (en) * 2006-06-14 2007-12-21 Ucl Business Plc Automatic quantification of changes in images
CN109146784A (zh) * 2018-07-27 2019-01-04 徐州工程学院 一种基于多尺度生成对抗网络的图像超分辨率重建方法
CN110148192A (zh) * 2019-04-18 2019-08-20 上海联影智能医疗科技有限公司 医学影像成像方法、装置、计算机设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2365043A1 (en) * 2001-12-14 2003-06-14 Cedara Software Corp. Method for the transmission and storage of x-ray scans of containers for security assurance
WO2007144620A2 (en) * 2006-06-14 2007-12-21 Ucl Business Plc Automatic quantification of changes in images
CN109146784A (zh) * 2018-07-27 2019-01-04 徐州工程学院 一种基于多尺度生成对抗网络的图像超分辨率重建方法
CN110148192A (zh) * 2019-04-18 2019-08-20 上海联影智能医疗科技有限公司 医学影像成像方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN110580728A (zh) 2019-12-17

Similar Documents

Publication Publication Date Title
Liang et al. MCFNet: Multi-layer concatenation fusion network for medical images fusion
CN109214989B (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
CN109637634B (zh) 一种基于生成对抗网络的医学图像合成方法
CN110288609B (zh) 一种注意力机制引导的多模态全心脏图像分割方法
CN111833359A (zh) 基于生成对抗网络的脑瘤分割数据增强方法
CN111833237B (zh) 基于卷积神经网络和局部单应性变换的图像配准方法
CN110136122B (zh) 一种基于注意力深度特征重建的脑mr图像分割方法
CN112488976B (zh) 一种基于darts网络的多模态医学图像融合方法
Benou et al. De-noising of contrast-enhanced MRI sequences by an ensemble of expert deep neural networks
CN108280804A (zh) 一种多帧图像超分辨率重建方法
US20230071559A1 (en) Neural opacity point cloud
CN114565816B (zh) 一种基于全局信息融合的多模态医学图像融合方法
CN113674330A (zh) 一种基于生成对抗网络的伪ct影像生成系统
CN110827232A (zh) 基于形态特征gan的跨模态mri合成方法
CN112488971A (zh) 基于空间注意力机制和深度卷积生成对抗网络的医学图像融合方法
CN116258933A (zh) 基于全局信息感知的医学图像分割装置
CN110580728B (zh) 基于结构特征自增强的ct-mr模态迁移方法
CN112785540B (zh) 一种扩散加权图像的生成系统及方法
CN113269774B (zh) 一种mri图像的帕金森病分类及标注病灶区域的方法
CN112489048B (zh) 一种基于深度网络的视神经自动分割方法
CN112329867B (zh) 一种基于任务驱动的层次注意力网络的mri图像分类方法
CN112541566B (zh) 一种基于重构损失的图像翻译方法
CN109961435A (zh) 脑图像获取方法、装置、设备及存储介质
CN117333750A (zh) 空间配准与局部全局多尺度的多模态医学图像融合方法
CN116757982A (zh) 一种基于多尺度编解码器的多模态医学图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant