CN111179207B - 一种基于并联生成网络的跨模态医学图像合成方法 - Google Patents

一种基于并联生成网络的跨模态医学图像合成方法 Download PDF

Info

Publication number
CN111179207B
CN111179207B CN201911232218.9A CN201911232218A CN111179207B CN 111179207 B CN111179207 B CN 111179207B CN 201911232218 A CN201911232218 A CN 201911232218A CN 111179207 B CN111179207 B CN 111179207B
Authority
CN
China
Prior art keywords
image
cross
training
class
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911232218.9A
Other languages
English (en)
Other versions
CN111179207A (zh
Inventor
管秋
陈奕州
张跃耀
胡海根
徐新黎
楼海燕
陈�峰
徐涵杰
陆正威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201911232218.9A priority Critical patent/CN111179207B/zh
Publication of CN111179207A publication Critical patent/CN111179207A/zh
Application granted granted Critical
Publication of CN111179207B publication Critical patent/CN111179207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

一种基于并联生成网络的跨模态医学图像合成方法,通过预处理获得跨模态医学图像的共有组别向量特征空间,并获得多组用于训练合成器的训练集;训练合成器,在每组训练集上,合成器在上述的一对训练集上进行跨模态合成训练;若样本对的特征差值在误差允许范围内,则输出合成图;若其特征差值大于误差允许范围,则将两个正则项与合成器原有的损失函数加权结合,指导该合成器继续训练。本发明提高易形变部位医学图像整图合成的质量。

Description

一种基于并联生成网络的跨模态医学图像合成方法
技术领域
本发明涉及一种跨模态医学图像合成方法。
背景技术
近年来各种各样的图像合成技术被人们提出,并广泛应用于医学领域,并且随着硬件设备的提升及医学图像数据量的增加,它们会发挥更大的作用。根据推动机理的特点,可将它们分为假设推动的机理模型和数据推动的现象学模型两大类,其中深度神经网络,尤其是生成对抗网络作为现象学模型中的重要代表,具有很强的数据推动能力,能在对底层机制知之甚少的情况下,合成出我们所需的图像,以解决医学领域任务。
存在的技术缺陷为:现有基于数据驱动的合成方法缺少对训练数据与相关实验现象潜在基本机制的准确理解;现有医学图像合成方法对合成图及其原图在医学解剖结构上的正则,通常以两图已配准为前提,但这在易形变的器官和人体组织上,是难以达到的。
发明内容
为了克服现有技术的不足,本发明提出了一种基于并联生成网络的跨模态医学图像合成方法,以提高易形变部位医学图像整图合成的质量,对数据驱动力进行约束指引,以生成精度较高的医学图像,并结合该模型设计了两种正则项以监督合成图所含信息的准确性。
本发明解决其技术问题所采用的技术方案是:
一种基于并联生成网络的跨模态医学图像合成方法,包括如下步骤:
1)根据专家经验确立分组依据,用对应模态的小样本训练集,分别对基于CNN的分组器CA、CB进行训练,过程如下:
1.1)根据专家经验,指定MR数据集的组1,2,3...n,共n个组的代表性像(每组若干张),其中每个组别的特征为图像所表现的空间解剖结构,CT参考图的获得方式同上;
1.2)用MR的训练集对分组器CA进行训练,用CT的训练集对分组器CB进行训练,分组器对训练样本进行组别概率向量计算,以获得训练样本的预测标签,通过训练分组器,使训练样本的预测标签与其真实标签一致;
2)检测并拟合分组器CA、CB的分组性能,并建立共用的特征空间:
利用两个模态已配对的测试样本集,比较测试样本在CA、CB的组别概率向量差值,公式如下:
Lverify(CA,CB)=∑|CA(xi)-CB(yi)|,i=1,2,...t
其中xi为待测试的MR图像,yi为待测试的CT图像,测试集共有t对CT/MR成对图像,t个组别概率向量差值的和即为拟合分组器的损失函数,通过最小化Lverify(CA,CB),令两个分组器的性能达到拟合,对拟合好的分组器,通过其组别概率向量建立两个模态共有的特征空间;
3)用拟合后的分组器CA、CB,分别对各自模态的数据集进行分组对训练好的分组器CA和CB,给CA输入一张来自MR数据集的MR图,得到该MR的组别概率向量Vx=(P1,P2,...Pk,...Pn),其中Pk=max(P1,P2,...Pn),即概率值最高的组k为该MR所预测的组别,以此对MR数据集进行分组,CT数据集分组方法同上,组别概率向量Vy=(PA,PB,...PN);
4)分组后的数据训练合成器,过程如下:
4.1)循环对抗生成网络CycleGAN用作在并联通道的合成模型;
4.2)对训练集中每张真实样本,计算该样本在合成前后,在分组器特征空间的特征差值,作为第一个正则项,即跨模态组别概率正则项;
由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lcross-class(CA,CB,GA)=|CA(x)-CB(GA(x))|
=|P1-PA’|+|P2-PB’|+......+|Pn-PN’|
其中P1,P2,......,Pn为真实MR图由分组器CA计算得到的组别概率值;PA’,PB’,......,PN’为合成CT图由分组器CB计算得到的组别概率值;
同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lcross-class(CA,CB,GB)=|CB(y)-CA(GB(y))|
=|PA-P1’|+|PB-P2’|+......+|PN-Pn’|
4.3)对训练集中少量成对的真实样本,计算合成样本与同模态真实样本,在分组器特征空间的特征差值,作为第二个正则项,即同模态组别概率正则项;
由真实MR跨模态合成的CT图,与其原图成对的真实CT图,有该正则项如下:
Lhomo-class(CA,CB,GA)=|CB(y)-CB(GA(x))|
=|P1-P1’|+|P2-P2’|+......+|Pn-Pn’|
同理,由真实CT跨模态合成的MR图,与其原图成对的真实MR图,有该正则项如下:
Lhomo-class(CA,CB,GB)=|CA(x)-CA(GB(y))|
=|PA-PA’|+|PB-PB’|+......+|PN-PN’|
5)若步骤4)中的样本对的特征差值在误差允许范围内,则输出合成图;若其特征差值大于误差允许范围,则将两个正则项与合成器原有的损失函数加权结合,指导该合成器训练;合成模型的跨模态组别概率正则项为两个生成器的跨模态组别概率正则项之和:
Lcross-class(CA,CB,GA,GB)=Lcross-class(CA,CB,GA)+Lcross-class(CA,CB,GB)
合成模型的同模态组别概率正则项为两个生成器的同模态组别概率正则项之和:
Lhomo-class(CA,CB,GA,GB)=Lhomo-class(CA,CB,GA)+Lhomo-class(CA,CB,GB)
因此,模型中的每条并联通道上的CycleGAN的损失函数,见公式如下:
L(GA,GB,DA,DB)=LGAN(GA,GB,DA,DB)+λLcyc(GA,GB)+βLcross-class(CA,CB,GA,GB)+θLhomo-class(CA,CB,GA,GB)
其中:LGAN(GA,GB,DA,DB)是对抗式生成损失函数,
Lcyc(GA,GB)是循环一致性损失函数,
Lcross-class(CA,CB,GA,GB)是跨模态组别概率正则项,
Lhomo-class(CA,CB,GA,GB)是同模态组别概率正则项。
本发明的技术构思为:提出并联式生成网络,将表现形式跨度很大的跨模态图像生成任务,划分为多个子任务,每个子任务的训练集的特征更为集中,减少生成器所需学习的映射关系的复杂度,使得到映射准确度较高;用一对基于CNN的分类器模型,构建跨模态图像间的共同潜特征空间,为表现差距较大的两个域图像建立量化的关联。训练好的分组器以潜空间的特征为依据,将两个域的数据集划分为若干个成对的组。为生成器设计了新的正则项,通过比较生成图及其原图在各自分类器模型中获取的组别向量特征,监督合成图的特征与其原图一致,以提高合成图的质量。
本发明的有益效果主要表现在:1、减少生成器所需学习的映射关系的复杂度,使得到映射准确度较高;2、设计的新的正则项更好地监督了合成图的特征与其原图一致,提高合成图的质量。
附图说明
图1是本发明的一种基于并联生成网络的跨模态医学图像合成方法预处理部分的流程图。
图2是本发明的一种基于并联生成网络的跨模态医学图像合成方法合成部分的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种基于并联生成网络的跨模态医学图像合成方法,包括如下步骤:
1)根据专家经验确立分组依据,用对应模态的小样本训练集,分别对基于CNN的分组器CA、CB进行训练,过程如下:
1.1)根据专家经验,指定MR数据集的组1,2,3...n,共n个组的代表性像(每组若干张),其中每个组别的特征为图像所表现的空间解剖结构,CT参考图的获得方式同上;
1.2)用MR的训练集对分组器CA进行训练,用CT的训练集对分组器CB进行训练,分组器对训练样本进行组别概率向量计算,以获得训练样本的预测标签,通过训练分组器,使训练样本的预测标签与其真实标签一致;
2)检测并拟合分组器CA、CB的分组性能,并建立共用的特征空间:
利用两个模态已配对的测试样本集,比较测试样本在CA、CB的组别概率向量差值,公式如下:
Lverify(CA,CB)=∑|CA(xi)-CB(yi)|,i=1,2,...t
其中xi为待测试的MR图像,yi为待测试的CT图像,测试集共有t对CT/MR成对图像,t个组别概率向量差值的和即为拟合分组器的损失函数,通过最小化Lverify(CA,CB),令两个分组器的性能达到拟合,对拟合好的分组器,通过其组别概率向量建立两个模态共有的特征空间;
3)用拟合后的分组器CA、CB,分别对各自模态的数据集进行分组对训练好的分组器CA和CB,给CA输入一张来自MR数据集的MR图,得到该MR的组别概率向量Vx=(P1,P2,...Pk,...Pn),其中Pk=max(P1,P2,...Pn),即概率值最高的组k为该MR所预测的组别,以此对MR数据集进行分组,CT数据集分组方法同上,组别概率向量Vy=(PA,PB,...PN);
4)分组后的数据训练合成器,过程如下:
4.1)循环对抗生成网络CycleGAN用作在并联通道的合成模型;
4.2)对训练集中每张真实样本,计算该样本在合成前后,在分组器特征空间的特征差值,作为第一个正则项,即跨模态组别概率正则项;
由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lcross-class(CA,CB,GA)=|CA(x)-CB(GA(x))|
=|P1-PA’|+|P2-PB’|+......+|Pn-PN’|
其中P1,P2,......,Pn为真实MR图由分组器CA计算得到的组别概率值;PA’,PB’,......,PN’为合成CT图由分组器CB计算得到的组别概率值;
同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lcross-class(CA,CB,GB)=|CB(y)-CA(GB(y)|
=|PA-P1’|+|PB-P2’|+......+|PN-Pn’|
4.3)对训练集中少量成对的真实样本,计算合成样本与同模态真实样本,在分组器特征空间的特征差值,作为第二个正则项,即同模态组别概率正则项;
由真实MR跨模态合成的CT图,与其原图成对的真实CT图,有该正则项如下:
Lhomo-class(CA,CB,GA)=|CB(y)-CB(GA(x)|
=|P1-P1’|+|P2-P2’|+......+|Pn-Pn’|
同理,由真实CT跨模态合成的MR图,与其原图成对的真实MR图,有该正则项如下:
Lhomo-class(CA,CB,GB)=|CA(x)-CA(GB(y))|
=|PA-PA’|+|PB-PB’|+......+|PN-PN’|
5)若步骤4)中的样本对的特征差值在误差允许范围内,则输出合成图;若其特征差值大于误差允许范围,则将两个正则项与合成器原有的损失函数加权结合,指导该合成器训练;合成模型的跨模态组别概率正则项为两个生成器的跨模态组别概率正则项之和:
Lcross-class(CA,CB,GA,GB)=Lcross-class(CA,CB,GA)+Lcross-class(CA,CB,GB)
合成模型的同模态组别概率正则项为两个生成器的同模态组别概率正则项之和:
Lhomo-class(CA,CB,GA,GB)=Lhomo-class(CA,CB,GA)+Lhomo-class(CA,CB,GB)
因此,模型中的每条并联通道上的CycleGAN的损失函数,见公式如下:
L(GA,GB,DA,DB)=LGAN(GA,GB,DA,DB)+λLcyc(GA,GB)+βLcross-class(CA,CB,GA,GB)+θLhomo-class(CA,CB,GA,GB)
其中:LGAN(GA,GB,DA,DB)是对抗式生成损失函数,
Lcyc(GA,GB)是循环一致性损失函数,
Lcross-class(CA,CB,GA,GB)是跨模态组别概率正则项,
Lhomo-class(CA,CB,GA,GB)是同模态组别概率正则项。
参照图1,本发明的预处理部分,包括如下步骤:
1)训练分组器CA,CB
2)检测CA,CB性能的拟合度;
3)拟合度是否达标,若未达标则继续拟合CA,CB的性能;
4)达标则建立CA,CB共有的特征空间;
5)将两模态的两个数据集分组为多组成对的子数据集。
参照图2,本发明的合成部分,包括如下步骤:
1)输入成对样本和非成对样本;
2)经过待训练的合成器训练之后得到真实样本与跨模态合成样本和真实样本与同模态合成样本;
3)在CA、CB的特征空间计算各自样本对的特征差值;
4)若差值不在误差范围之内则加权正则项,继续训练合成器;若差值在误差范围之内则输出合成样本。

Claims (1)

1.一种基于并联生成网络的跨模态医学图像合成方法,其特征在于,所述方法包括如下步骤:
1)根据专家经验确立分组依据,用对应模态的小样本训练集,分别对基于CNN的分组器CA、CB进行训练,过程如下:
1.1)根据专家经验,指定MR数据集的组1,2,3...n,共n个组的代表性图像,其中每个组别的特征为图像所表现的空间解剖结构,CT参考图的获得方式同上;
1.2)用MR的训练集对分组器CA进行训练,用CT的训练集对分组器CB进行训练,分组器对训练样本进行组别概率向量计算,以获得训练样本的预测标签,通过训练分组器,使训练样本的预测标签与其真实标签一致;
2)检测并拟合分组器CA、CB的分组性能,并建立共用的特征空间:利用两个模态已配对的测试样本集,比较测试样本在CA、CB的组别概率向量差值,公式如下:
Lverify(CA,CB)=∑|CA(xi)-CB(yi)|,i=1,2,...t
其中xi为待测试的MR图像,yi为待测试的CT图像,测试集共有t对CT/MR成对图像,t个组别概率向量差值的和即为拟合分组器的损失函数,
通过最小化Lverify(CA,CB),令两个分组器的性能达到拟合,对拟合好的分组器,通过其组别概率向量建立两个模态共有的特征空间;
3)对合成器的训练集进行分组:
对训练好的分组器CA和CB,给CA输入一张来自MR待分组数据集的MR图,得到该MR的组别概率向量Vx=(P1,P2,...Pk,...Pn),其中Pk=max(P1,P2,...Pn),即概率值最高的组k为该MR所预测的组别,以此对MR数据集进行分组,CT数据集分组方法同上,组别概率向量Vy=(PA,PB,...PN);
4)分组后的数据训练合成器,过程如下:
4.1)循环对抗生成网络CycleGAN用作在并联通道的合成模型;
4.2)对训练集中每张真实样本,计算该样本在合成前后,在分组器特征空间的特征差值,作为跨模态组别概率正则项,由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lcross-class(CA,CB,GA)=|CA(x)-CB(GA(x))|
=|P1-PA’|+|P2-PB’|+......+|Pn-PN’|
其中P1,P2,......,Pn为真实MR图由分组器CA计算得到的组别概率值;PA’,PB’,......,PN’为合成CT图由分组器CB计算得到的组别概率值,
同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lcross-class(CA,CB,GB)=|CB(y)-CA(GB(y))|
=|PA-P1’|+|PB-P2’|+......+|PN-Pn’|
4.3)对训练集中少量成对的真实样本,计算合成样本与同模态真实样本,在分组器特征空间的特征差值,作为同模态组别概率正则项;
由真实MR跨模态合成的CT图,与该真实MR图,有该正则项如下:
Lhomo-class(CA,CB,GA)=|CB(y)-CB(GA(x))|
=|P1-P1’|+|P2-P2’|+......+|Pn-Pn’|同理,由真实CT图跨模态合成的MR图,与该真实CT图,有该正则项如下:
Lhomo-class(CA,CB,GB)=|CA(x)-CA(GB(y))|
=|PA-PA’|+|PB-PB’|+......+|PN-PN’|5)将两个正则项与合成器原有的损失函数加权结合,共同指导合成器的训练;
合成模型的跨模态组别概率正则项为两个生成器的跨模态组别概率正则项之和:
Lcross-class(CA,CB,GA,GB)=Lcross-class(CA,CB,GA)+Lcross-class(CA,CB,GB)
合成模型的同模态组别概率正则项为两个生成器的同模态组别概率正则项之和:
Lhomo-class(CA,CB,GA,GB)=Lhomo-class(CA,CB,GA)+Lhomo-class(CA,CB,GB)
模型中的每条并联通道上的CycleGAN训练时的损失函数见公式:
L(GA,GB,DA,DB)=LGAN(GA,GB,DA,DB)+λLcyc(GA,GB)+βLcross-class(CA,CB,GA,GB)+θLhomo-class(CA,CB,GA,GB)
注:LGAN(GA,GB,DA,DB)是对抗式生成损失函数,
Lcyc(GA,GB)是循环一致性损失函数,
Lcross-class(CA,CB,GA,GB)是跨模态组别概率正则项,
Lhomo-class(CA,CB,GA,GB)是同模态组别概率正则项。
CN201911232218.9A 2019-12-05 2019-12-05 一种基于并联生成网络的跨模态医学图像合成方法 Active CN111179207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911232218.9A CN111179207B (zh) 2019-12-05 2019-12-05 一种基于并联生成网络的跨模态医学图像合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911232218.9A CN111179207B (zh) 2019-12-05 2019-12-05 一种基于并联生成网络的跨模态医学图像合成方法

Publications (2)

Publication Number Publication Date
CN111179207A CN111179207A (zh) 2020-05-19
CN111179207B true CN111179207B (zh) 2022-04-08

Family

ID=70653828

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911232218.9A Active CN111179207B (zh) 2019-12-05 2019-12-05 一种基于并联生成网络的跨模态医学图像合成方法

Country Status (1)

Country Link
CN (1) CN111179207B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881884B (zh) * 2020-08-11 2021-05-28 中国科学院自动化研究所 基于跨模态转化辅助的人脸防伪检测方法、系统及装置
CN112415514B (zh) * 2020-11-16 2023-05-02 北京环境特性研究所 一种目标sar图像生成方法及装置
CN116595999B (zh) * 2023-07-17 2024-04-16 深圳须弥云图空间科技有限公司 一种机器翻译模型训练方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104794739A (zh) * 2015-05-03 2015-07-22 南方医科大学 基于局部稀疏对应点组合的从mr图像预测ct图像的方法
CN109213876A (zh) * 2018-08-02 2019-01-15 宁夏大学 基于生成对抗网络的跨模态检索方法
CN110047056A (zh) * 2018-01-16 2019-07-23 西门子保健有限责任公司 用深度图像到图像网络和对抗网络的跨域图像分析和合成
CN110288609A (zh) * 2019-05-30 2019-09-27 南京师范大学 一种注意力机制引导的多模态全心脏图像分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104794739A (zh) * 2015-05-03 2015-07-22 南方医科大学 基于局部稀疏对应点组合的从mr图像预测ct图像的方法
CN110047056A (zh) * 2018-01-16 2019-07-23 西门子保健有限责任公司 用深度图像到图像网络和对抗网络的跨域图像分析和合成
CN109213876A (zh) * 2018-08-02 2019-01-15 宁夏大学 基于生成对抗网络的跨模态检索方法
CN110288609A (zh) * 2019-05-30 2019-09-27 南京师范大学 一种注意力机制引导的多模态全心脏图像分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Unpaired Brain MR-to-CT Synthesis using a;Heran Yang et al;《arXiv:1809.04536v1》;20180912;全文 *

Also Published As

Publication number Publication date
CN111179207A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111179207B (zh) 一种基于并联生成网络的跨模态医学图像合成方法
Shao et al. Generative adversarial networks for data augmentation in machine fault diagnosis
US11568864B2 (en) Processing speech signals of a user to generate a visual representation of the user
CN111966883B (zh) 结合自动编码器和生成对抗网络的零样本跨模态检索方法
CN110288609B (zh) 一种注意力机制引导的多模态全心脏图像分割方法
Zhang et al. Semi-supervised assessment of incomplete LV coverage in cardiac MRI using generative adversarial nets
Chen et al. Adaptive hierarchical dual consistency for semi-supervised left atrium segmentation on cross-domain data
Liu et al. Dual-cycle constrained bijective vae-gan for tagged-to-cine magnetic resonance image synthesis
Yang et al. Deep learning for cerebellar ataxia classification and functional score regression
Xing et al. Analysis of 3-D tongue motion from tagged and cine magnetic resonance images
CN109410179A (zh) 一种基于生成对抗网络的图像异常检测方法
CN111179235A (zh) 图像检测模型的生成方法及装置、应用方法及装置
CN109859189A (zh) 一种基于深度学习的年龄估计方法
Ouyang et al. Generating image sequence from description with LSTM conditional GAN
Silva et al. Quantitative systematic analysis of vocal tract data
Wang et al. Reconstruction of articulatory measurements with smoothed low-rank matrix completion
US11435422B2 (en) Anomaly detection using magnetic resonance fingerprinting
CN115409843B (zh) 基于尺度均衡耦合卷积架构的脑神经影像特征提取方法
EP3734550A1 (en) Removal of false positives from white matter fiber tracts
Liu et al. Cmri2spec: Cine MRI sequence to spectrogram synthesis via a pairwise heterogeneous translator
Shoshan et al. Synthetic data for model selection
Ribeiro et al. Autoencoder-based tongue shape estimation during continuous speech
Dong et al. Bayesian tractography using geometric shape priors
Deshpande et al. A method for evaluating deep generative models of images via assessing the reproduction of high-order spatial context
Eide Skull stripping MRI images of the brain using deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant