CN111179207B - 一种基于并联生成网络的跨模态医学图像合成方法 - Google Patents
一种基于并联生成网络的跨模态医学图像合成方法 Download PDFInfo
- Publication number
- CN111179207B CN111179207B CN201911232218.9A CN201911232218A CN111179207B CN 111179207 B CN111179207 B CN 111179207B CN 201911232218 A CN201911232218 A CN 201911232218A CN 111179207 B CN111179207 B CN 111179207B
- Authority
- CN
- China
- Prior art keywords
- image
- cross
- training
- class
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 53
- 239000013598 vector Substances 0.000 claims abstract description 17
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 13
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 13
- 241001417495 Serranidae Species 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 6
- 210000003484 anatomy Anatomy 0.000 claims description 4
- 230000008485 antagonism Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 abstract description 7
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 230000007246 mechanism Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
一种基于并联生成网络的跨模态医学图像合成方法,通过预处理获得跨模态医学图像的共有组别向量特征空间,并获得多组用于训练合成器的训练集;训练合成器,在每组训练集上,合成器在上述的一对训练集上进行跨模态合成训练;若样本对的特征差值在误差允许范围内,则输出合成图;若其特征差值大于误差允许范围,则将两个正则项与合成器原有的损失函数加权结合,指导该合成器继续训练。本发明提高易形变部位医学图像整图合成的质量。
Description
技术领域
本发明涉及一种跨模态医学图像合成方法。
背景技术
近年来各种各样的图像合成技术被人们提出,并广泛应用于医学领域,并且随着硬件设备的提升及医学图像数据量的增加,它们会发挥更大的作用。根据推动机理的特点,可将它们分为假设推动的机理模型和数据推动的现象学模型两大类,其中深度神经网络,尤其是生成对抗网络作为现象学模型中的重要代表,具有很强的数据推动能力,能在对底层机制知之甚少的情况下,合成出我们所需的图像,以解决医学领域任务。
存在的技术缺陷为:现有基于数据驱动的合成方法缺少对训练数据与相关实验现象潜在基本机制的准确理解;现有医学图像合成方法对合成图及其原图在医学解剖结构上的正则,通常以两图已配准为前提,但这在易形变的器官和人体组织上,是难以达到的。
发明内容
为了克服现有技术的不足,本发明提出了一种基于并联生成网络的跨模态医学图像合成方法,以提高易形变部位医学图像整图合成的质量,对数据驱动力进行约束指引,以生成精度较高的医学图像,并结合该模型设计了两种正则项以监督合成图所含信息的准确性。
本发明解决其技术问题所采用的技术方案是:
一种基于并联生成网络的跨模态医学图像合成方法,包括如下步骤:
1)根据专家经验确立分组依据,用对应模态的小样本训练集,分别对基于CNN的分组器CA、CB进行训练,过程如下:
1.1)根据专家经验,指定MR数据集的组1,2,3...n,共n个组的代表性像(每组若干张),其中每个组别的特征为图像所表现的空间解剖结构,CT参考图的获得方式同上;
1.2)用MR的训练集对分组器CA进行训练,用CT的训练集对分组器CB进行训练,分组器对训练样本进行组别概率向量计算,以获得训练样本的预测标签,通过训练分组器,使训练样本的预测标签与其真实标签一致;
2)检测并拟合分组器CA、CB的分组性能,并建立共用的特征空间:
利用两个模态已配对的测试样本集,比较测试样本在CA、CB的组别概率向量差值,公式如下:
Lverify(CA,CB)=∑|CA(xi)-CB(yi)|,i=1,2,...t
其中xi为待测试的MR图像,yi为待测试的CT图像,测试集共有t对CT/MR成对图像,t个组别概率向量差值的和即为拟合分组器的损失函数,通过最小化Lverify(CA,CB),令两个分组器的性能达到拟合,对拟合好的分组器,通过其组别概率向量建立两个模态共有的特征空间;
3)用拟合后的分组器CA、CB,分别对各自模态的数据集进行分组对训练好的分组器CA和CB,给CA输入一张来自MR数据集的MR图,得到该MR的组别概率向量Vx=(P1,P2,...Pk,...Pn),其中Pk=max(P1,P2,...Pn),即概率值最高的组k为该MR所预测的组别,以此对MR数据集进行分组,CT数据集分组方法同上,组别概率向量Vy=(PA,PB,...PN);
4)分组后的数据训练合成器,过程如下:
4.1)循环对抗生成网络CycleGAN用作在并联通道的合成模型;
4.2)对训练集中每张真实样本,计算该样本在合成前后,在分组器特征空间的特征差值,作为第一个正则项,即跨模态组别概率正则项;
由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lcross-class(CA,CB,GA)=|CA(x)-CB(GA(x))|
=|P1-PA’|+|P2-PB’|+......+|Pn-PN’|
其中P1,P2,......,Pn为真实MR图由分组器CA计算得到的组别概率值;PA’,PB’,......,PN’为合成CT图由分组器CB计算得到的组别概率值;
同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lcross-class(CA,CB,GB)=|CB(y)-CA(GB(y))|
=|PA-P1’|+|PB-P2’|+......+|PN-Pn’|
4.3)对训练集中少量成对的真实样本,计算合成样本与同模态真实样本,在分组器特征空间的特征差值,作为第二个正则项,即同模态组别概率正则项;
由真实MR跨模态合成的CT图,与其原图成对的真实CT图,有该正则项如下:
Lhomo-class(CA,CB,GA)=|CB(y)-CB(GA(x))|
=|P1-P1’|+|P2-P2’|+......+|Pn-Pn’|
同理,由真实CT跨模态合成的MR图,与其原图成对的真实MR图,有该正则项如下:
Lhomo-class(CA,CB,GB)=|CA(x)-CA(GB(y))|
=|PA-PA’|+|PB-PB’|+......+|PN-PN’|
5)若步骤4)中的样本对的特征差值在误差允许范围内,则输出合成图;若其特征差值大于误差允许范围,则将两个正则项与合成器原有的损失函数加权结合,指导该合成器训练;合成模型的跨模态组别概率正则项为两个生成器的跨模态组别概率正则项之和:
Lcross-class(CA,CB,GA,GB)=Lcross-class(CA,CB,GA)+Lcross-class(CA,CB,GB)
合成模型的同模态组别概率正则项为两个生成器的同模态组别概率正则项之和:
Lhomo-class(CA,CB,GA,GB)=Lhomo-class(CA,CB,GA)+Lhomo-class(CA,CB,GB)
因此,模型中的每条并联通道上的CycleGAN的损失函数,见公式如下:
L(GA,GB,DA,DB)=LGAN(GA,GB,DA,DB)+λLcyc(GA,GB)+βLcross-class(CA,CB,GA,GB)+θLhomo-class(CA,CB,GA,GB)
其中:LGAN(GA,GB,DA,DB)是对抗式生成损失函数,
Lcyc(GA,GB)是循环一致性损失函数,
Lcross-class(CA,CB,GA,GB)是跨模态组别概率正则项,
Lhomo-class(CA,CB,GA,GB)是同模态组别概率正则项。
本发明的技术构思为:提出并联式生成网络,将表现形式跨度很大的跨模态图像生成任务,划分为多个子任务,每个子任务的训练集的特征更为集中,减少生成器所需学习的映射关系的复杂度,使得到映射准确度较高;用一对基于CNN的分类器模型,构建跨模态图像间的共同潜特征空间,为表现差距较大的两个域图像建立量化的关联。训练好的分组器以潜空间的特征为依据,将两个域的数据集划分为若干个成对的组。为生成器设计了新的正则项,通过比较生成图及其原图在各自分类器模型中获取的组别向量特征,监督合成图的特征与其原图一致,以提高合成图的质量。
本发明的有益效果主要表现在:1、减少生成器所需学习的映射关系的复杂度,使得到映射准确度较高;2、设计的新的正则项更好地监督了合成图的特征与其原图一致,提高合成图的质量。
附图说明
图1是本发明的一种基于并联生成网络的跨模态医学图像合成方法预处理部分的流程图。
图2是本发明的一种基于并联生成网络的跨模态医学图像合成方法合成部分的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种基于并联生成网络的跨模态医学图像合成方法,包括如下步骤:
1)根据专家经验确立分组依据,用对应模态的小样本训练集,分别对基于CNN的分组器CA、CB进行训练,过程如下:
1.1)根据专家经验,指定MR数据集的组1,2,3...n,共n个组的代表性像(每组若干张),其中每个组别的特征为图像所表现的空间解剖结构,CT参考图的获得方式同上;
1.2)用MR的训练集对分组器CA进行训练,用CT的训练集对分组器CB进行训练,分组器对训练样本进行组别概率向量计算,以获得训练样本的预测标签,通过训练分组器,使训练样本的预测标签与其真实标签一致;
2)检测并拟合分组器CA、CB的分组性能,并建立共用的特征空间:
利用两个模态已配对的测试样本集,比较测试样本在CA、CB的组别概率向量差值,公式如下:
Lverify(CA,CB)=∑|CA(xi)-CB(yi)|,i=1,2,...t
其中xi为待测试的MR图像,yi为待测试的CT图像,测试集共有t对CT/MR成对图像,t个组别概率向量差值的和即为拟合分组器的损失函数,通过最小化Lverify(CA,CB),令两个分组器的性能达到拟合,对拟合好的分组器,通过其组别概率向量建立两个模态共有的特征空间;
3)用拟合后的分组器CA、CB,分别对各自模态的数据集进行分组对训练好的分组器CA和CB,给CA输入一张来自MR数据集的MR图,得到该MR的组别概率向量Vx=(P1,P2,...Pk,...Pn),其中Pk=max(P1,P2,...Pn),即概率值最高的组k为该MR所预测的组别,以此对MR数据集进行分组,CT数据集分组方法同上,组别概率向量Vy=(PA,PB,...PN);
4)分组后的数据训练合成器,过程如下:
4.1)循环对抗生成网络CycleGAN用作在并联通道的合成模型;
4.2)对训练集中每张真实样本,计算该样本在合成前后,在分组器特征空间的特征差值,作为第一个正则项,即跨模态组别概率正则项;
由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lcross-class(CA,CB,GA)=|CA(x)-CB(GA(x))|
=|P1-PA’|+|P2-PB’|+......+|Pn-PN’|
其中P1,P2,......,Pn为真实MR图由分组器CA计算得到的组别概率值;PA’,PB’,......,PN’为合成CT图由分组器CB计算得到的组别概率值;
同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lcross-class(CA,CB,GB)=|CB(y)-CA(GB(y)|
=|PA-P1’|+|PB-P2’|+......+|PN-Pn’|
4.3)对训练集中少量成对的真实样本,计算合成样本与同模态真实样本,在分组器特征空间的特征差值,作为第二个正则项,即同模态组别概率正则项;
由真实MR跨模态合成的CT图,与其原图成对的真实CT图,有该正则项如下:
Lhomo-class(CA,CB,GA)=|CB(y)-CB(GA(x)|
=|P1-P1’|+|P2-P2’|+......+|Pn-Pn’|
同理,由真实CT跨模态合成的MR图,与其原图成对的真实MR图,有该正则项如下:
Lhomo-class(CA,CB,GB)=|CA(x)-CA(GB(y))|
=|PA-PA’|+|PB-PB’|+......+|PN-PN’|
5)若步骤4)中的样本对的特征差值在误差允许范围内,则输出合成图;若其特征差值大于误差允许范围,则将两个正则项与合成器原有的损失函数加权结合,指导该合成器训练;合成模型的跨模态组别概率正则项为两个生成器的跨模态组别概率正则项之和:
Lcross-class(CA,CB,GA,GB)=Lcross-class(CA,CB,GA)+Lcross-class(CA,CB,GB)
合成模型的同模态组别概率正则项为两个生成器的同模态组别概率正则项之和:
Lhomo-class(CA,CB,GA,GB)=Lhomo-class(CA,CB,GA)+Lhomo-class(CA,CB,GB)
因此,模型中的每条并联通道上的CycleGAN的损失函数,见公式如下:
L(GA,GB,DA,DB)=LGAN(GA,GB,DA,DB)+λLcyc(GA,GB)+βLcross-class(CA,CB,GA,GB)+θLhomo-class(CA,CB,GA,GB)
其中:LGAN(GA,GB,DA,DB)是对抗式生成损失函数,
Lcyc(GA,GB)是循环一致性损失函数,
Lcross-class(CA,CB,GA,GB)是跨模态组别概率正则项,
Lhomo-class(CA,CB,GA,GB)是同模态组别概率正则项。
参照图1,本发明的预处理部分,包括如下步骤:
1)训练分组器CA,CB;
2)检测CA,CB性能的拟合度;
3)拟合度是否达标,若未达标则继续拟合CA,CB的性能;
4)达标则建立CA,CB共有的特征空间;
5)将两模态的两个数据集分组为多组成对的子数据集。
参照图2,本发明的合成部分,包括如下步骤:
1)输入成对样本和非成对样本;
2)经过待训练的合成器训练之后得到真实样本与跨模态合成样本和真实样本与同模态合成样本;
3)在CA、CB的特征空间计算各自样本对的特征差值;
4)若差值不在误差范围之内则加权正则项,继续训练合成器;若差值在误差范围之内则输出合成样本。
Claims (1)
1.一种基于并联生成网络的跨模态医学图像合成方法,其特征在于,所述方法包括如下步骤:
1)根据专家经验确立分组依据,用对应模态的小样本训练集,分别对基于CNN的分组器CA、CB进行训练,过程如下:
1.1)根据专家经验,指定MR数据集的组1,2,3...n,共n个组的代表性图像,其中每个组别的特征为图像所表现的空间解剖结构,CT参考图的获得方式同上;
1.2)用MR的训练集对分组器CA进行训练,用CT的训练集对分组器CB进行训练,分组器对训练样本进行组别概率向量计算,以获得训练样本的预测标签,通过训练分组器,使训练样本的预测标签与其真实标签一致;
2)检测并拟合分组器CA、CB的分组性能,并建立共用的特征空间:利用两个模态已配对的测试样本集,比较测试样本在CA、CB的组别概率向量差值,公式如下:
Lverify(CA,CB)=∑|CA(xi)-CB(yi)|,i=1,2,...t
其中xi为待测试的MR图像,yi为待测试的CT图像,测试集共有t对CT/MR成对图像,t个组别概率向量差值的和即为拟合分组器的损失函数,
通过最小化Lverify(CA,CB),令两个分组器的性能达到拟合,对拟合好的分组器,通过其组别概率向量建立两个模态共有的特征空间;
3)对合成器的训练集进行分组:
对训练好的分组器CA和CB,给CA输入一张来自MR待分组数据集的MR图,得到该MR的组别概率向量Vx=(P1,P2,...Pk,...Pn),其中Pk=max(P1,P2,...Pn),即概率值最高的组k为该MR所预测的组别,以此对MR数据集进行分组,CT数据集分组方法同上,组别概率向量Vy=(PA,PB,...PN);
4)分组后的数据训练合成器,过程如下:
4.1)循环对抗生成网络CycleGAN用作在并联通道的合成模型;
4.2)对训练集中每张真实样本,计算该样本在合成前后,在分组器特征空间的特征差值,作为跨模态组别概率正则项,由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lcross-class(CA,CB,GA)=|CA(x)-CB(GA(x))|
=|P1-PA’|+|P2-PB’|+......+|Pn-PN’|
其中P1,P2,......,Pn为真实MR图由分组器CA计算得到的组别概率值;PA’,PB’,......,PN’为合成CT图由分组器CB计算得到的组别概率值,
同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lcross-class(CA,CB,GB)=|CB(y)-CA(GB(y))|
=|PA-P1’|+|PB-P2’|+......+|PN-Pn’|
4.3)对训练集中少量成对的真实样本,计算合成样本与同模态真实样本,在分组器特征空间的特征差值,作为同模态组别概率正则项;
由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lhomo-class(CA,CB,GA)=|CB(y)-CB(GA(x))|
=|P1-P1’|+|P2-P2’|+......+|Pn-Pn’|同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lhomo-class(CA,CB,GB)=|CA(x)-CA(GB(y))|
=|PA-PA’|+|PB-PB’|+......+|PN-PN’|5)将两个正则项与合成器原有的损失函数加权结合,共同指导合成器的训练;
合成模型的跨模态组别概率正则项为两个生成器的跨模态组别概率正则项之和:
Lcross-class(CA,CB,GA,GB)=Lcross-class(CA,CB,GA)+Lcross-class(CA,CB,GB)
合成模型的同模态组别概率正则项为两个生成器的同模态组别概率正则项之和:
Lhomo-class(CA,CB,GA,GB)=Lhomo-class(CA,CB,GA)+Lhomo-class(CA,CB,GB)
模型中的每条并联通道上的CycleGAN训练时的损失函数见公式:
L(GA,GB,DA,DB)=LGAN(GA,GB,DA,DB)+λLcyc(GA,GB)+βLcross-class(CA,CB,GA,GB)+θLhomo-class(CA,CB,GA,GB)
注:LGAN(GA,GB,DA,DB)是对抗式生成损失函数,
Lcyc(GA,GB)是循环一致性损失函数,
Lcross-class(CA,CB,GA,GB)是跨模态组别概率正则项,
Lhomo-class(CA,CB,GA,GB)是同模态组别概率正则项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911232218.9A CN111179207B (zh) | 2019-12-05 | 2019-12-05 | 一种基于并联生成网络的跨模态医学图像合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911232218.9A CN111179207B (zh) | 2019-12-05 | 2019-12-05 | 一种基于并联生成网络的跨模态医学图像合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111179207A CN111179207A (zh) | 2020-05-19 |
CN111179207B true CN111179207B (zh) | 2022-04-08 |
Family
ID=70653828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911232218.9A Active CN111179207B (zh) | 2019-12-05 | 2019-12-05 | 一种基于并联生成网络的跨模态医学图像合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111179207B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881884B (zh) * | 2020-08-11 | 2021-05-28 | 中国科学院自动化研究所 | 基于跨模态转化辅助的人脸防伪检测方法、系统及装置 |
CN112415514B (zh) * | 2020-11-16 | 2023-05-02 | 北京环境特性研究所 | 一种目标sar图像生成方法及装置 |
CN116595999B (zh) * | 2023-07-17 | 2024-04-16 | 深圳须弥云图空间科技有限公司 | 一种机器翻译模型训练方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794739A (zh) * | 2015-05-03 | 2015-07-22 | 南方医科大学 | 基于局部稀疏对应点组合的从mr图像预测ct图像的方法 |
CN109213876A (zh) * | 2018-08-02 | 2019-01-15 | 宁夏大学 | 基于生成对抗网络的跨模态检索方法 |
CN110047056A (zh) * | 2018-01-16 | 2019-07-23 | 西门子保健有限责任公司 | 用深度图像到图像网络和对抗网络的跨域图像分析和合成 |
CN110288609A (zh) * | 2019-05-30 | 2019-09-27 | 南京师范大学 | 一种注意力机制引导的多模态全心脏图像分割方法 |
-
2019
- 2019-12-05 CN CN201911232218.9A patent/CN111179207B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794739A (zh) * | 2015-05-03 | 2015-07-22 | 南方医科大学 | 基于局部稀疏对应点组合的从mr图像预测ct图像的方法 |
CN110047056A (zh) * | 2018-01-16 | 2019-07-23 | 西门子保健有限责任公司 | 用深度图像到图像网络和对抗网络的跨域图像分析和合成 |
CN109213876A (zh) * | 2018-08-02 | 2019-01-15 | 宁夏大学 | 基于生成对抗网络的跨模态检索方法 |
CN110288609A (zh) * | 2019-05-30 | 2019-09-27 | 南京师范大学 | 一种注意力机制引导的多模态全心脏图像分割方法 |
Non-Patent Citations (1)
Title |
---|
Unpaired Brain MR-to-CT Synthesis using a;Heran Yang et al;《arXiv:1809.04536v1》;20180912;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111179207A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179207B (zh) | 一种基于并联生成网络的跨模态医学图像合成方法 | |
Shao et al. | Generative adversarial networks for data augmentation in machine fault diagnosis | |
US11568864B2 (en) | Processing speech signals of a user to generate a visual representation of the user | |
CN111966883B (zh) | 结合自动编码器和生成对抗网络的零样本跨模态检索方法 | |
CN110288609B (zh) | 一种注意力机制引导的多模态全心脏图像分割方法 | |
Zhang et al. | Semi-supervised assessment of incomplete LV coverage in cardiac MRI using generative adversarial nets | |
Chen et al. | Adaptive hierarchical dual consistency for semi-supervised left atrium segmentation on cross-domain data | |
Liu et al. | Dual-cycle constrained bijective vae-gan for tagged-to-cine magnetic resonance image synthesis | |
Yang et al. | Deep learning for cerebellar ataxia classification and functional score regression | |
Xing et al. | Analysis of 3-D tongue motion from tagged and cine magnetic resonance images | |
CN109410179A (zh) | 一种基于生成对抗网络的图像异常检测方法 | |
CN111179235A (zh) | 图像检测模型的生成方法及装置、应用方法及装置 | |
CN109859189A (zh) | 一种基于深度学习的年龄估计方法 | |
Ouyang et al. | Generating image sequence from description with LSTM conditional GAN | |
Silva et al. | Quantitative systematic analysis of vocal tract data | |
Wang et al. | Reconstruction of articulatory measurements with smoothed low-rank matrix completion | |
US11435422B2 (en) | Anomaly detection using magnetic resonance fingerprinting | |
CN115409843B (zh) | 基于尺度均衡耦合卷积架构的脑神经影像特征提取方法 | |
EP3734550A1 (en) | Removal of false positives from white matter fiber tracts | |
Liu et al. | Cmri2spec: Cine MRI sequence to spectrogram synthesis via a pairwise heterogeneous translator | |
Shoshan et al. | Synthetic data for model selection | |
Ribeiro et al. | Autoencoder-based tongue shape estimation during continuous speech | |
Dong et al. | Bayesian tractography using geometric shape priors | |
Deshpande et al. | A method for evaluating deep generative models of images via assessing the reproduction of high-order spatial context | |
Eide | Skull stripping MRI images of the brain using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |