CN114332271A - 基于静态pet图像的动态参数图像合成方法、系统 - Google Patents

基于静态pet图像的动态参数图像合成方法、系统 Download PDF

Info

Publication number
CN114332271A
CN114332271A CN202111512068.4A CN202111512068A CN114332271A CN 114332271 A CN114332271 A CN 114332271A CN 202111512068 A CN202111512068 A CN 202111512068A CN 114332271 A CN114332271 A CN 114332271A
Authority
CN
China
Prior art keywords
data
dynamic parameter
suv
image
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111512068.4A
Other languages
English (en)
Inventor
胡战利
王海燕
郑海荣
梁栋
刘新
杨永峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202111512068.4A priority Critical patent/CN114332271A/zh
Publication of CN114332271A publication Critical patent/CN114332271A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Nuclear Medicine (AREA)

Abstract

本发明适用医学PET成像技术领域,提供了一种基于静态PET图像的动态参数图像合成方法及系统、电子设备,该方法包括:针对静态PET图像计算相应的SUV数据;采用预先训练的循环生成对抗网络模型对所述SUV数据进行迭代运算,计算相应的动态参数数据;根据所述动态参数数据重建动态参数图像。由于采用预先训练的循环生成对抗网络模型直接从静态PET图像合成出动态参数图像,将原来长达1小时的参数成像缩短为不到1秒成像,大大缩短了患者的扫描时间,同时仍能为医生额外提供一份影像资料,反映示踪剂对患者体内组织的代谢速率,提高PET量化结果及临床诊断的准确性,有效实现了动态参数图像的高效、高质量获取。

Description

基于静态PET图像的动态参数图像合成方法、系统
技术领域
本发明属于生物医学工程技术领域,尤其涉及一种基于静态PET图像的动态参数图像合成方法、系统。
背景技术
氟代脱氧葡萄糖(18F-FDG)正电子发射断层扫描(Positron emissiontomography,PET)/计算机断层扫描(Computed Tomography,CT)因其在原发性肺肿瘤和远处转移灶的检测和分期方面的高诊断准确性而被视为符合潜在治疗条件的肺癌患者的一线工具。但是,临床中常用的静态PET图像(也称SUV图像)的量化准确性可能会受到整个采集过程中测量时间和血浆示踪剂浓度变化的影响,动态参数Ki图像可以反映示踪剂对组织的代谢率,从而获得更准确的PET定量结果。
然而,动态参数Ki图像的获取需要对患者进行长时间扫描(≥60分钟)以进行参数成像和动态建模,以及连续的动脉血液采样或图像衍生的血液活动来确定输入函数,这些严重限制了参数成像的临床应用。
因此,研究和开发高效获取高质量动态参数图像,对于目前的肺癌诊断、分期领域均有着重要的科学意义与广阔的应用前景。
发明内容
本发明的目的在于提供一种基于静态PET图像的动态参数图像合成方法、系统及电子设备,旨在解决现有技术中无法高效获取高质量动态参数图像的技术问题。
第一方面,本发明提供了一种基于静态PET图像的动态参数图像合成方法,包括:
针对静态PET图像计算相应的SUV数据;
采用预先训练的循环生成对抗网络模型对所述SUV数据进行迭代运算,计算相应的动态参数数据;
根据所述动态参数数据重建动态参数图像。
可选的,所述循环生成对抗网络模型包括生成器和鉴别器;所述生成器根据对抗性损失和循环损失进行训练而成;所述鉴别器根据对抗性损失进行训练而成。
可选的,所述循环生成对抗网络模型包括第一生成器和第二生成器;所述第一生成器包含SUV数据与动态参数数据之间的映射关系,所述第二生成器包含动态参数数据与SUV数据之间的映射关系。
可选的,所述循环生成对抗网络模型还包括第一鉴别器和第二鉴别器;所述第一鉴别器用于鉴别经所述第一生成器运算后的动态参数数据与原始动态参数数据之间的差异,所述第二鉴别器用于鉴别经所述第二生成器运算后的SUV数据与原始SUV数据之间的差异。
可选的,所述循环生成对抗网络模型的训练方法包括:
获取不同静态PET图像样本的原始SUV数据和原始动态参数数据;
采用深度学习算法学习所述原始SUV数据和所述原始动态参数数据之间的映射关系;
根据所述关系建立所述循环生成对抗网络模型。
可选的,所述采用深度学习算法学习所述原始SUV数据和所述原始动态参数数据之间的映射关系的步骤包括:
采用深度学习算法,计算所述原始SUV数据相应的第一合成动态参数数据和第一合成SUV数据,以及所述原始动态参数数据相应的第二合成SUV数据和第二合成动态参数数据;
根据上述数据计算对抗性损失和循环损失;
根据所述对抗性损失和所述循环损失,设计生成器和鉴别器,即所述原始SUV数据和所述原始动态参数数据之间的映射关系。
可选的,所述根据上述数据计算对抗性损失和循环损失的步骤包括:
根据所述原始SUV数据和所述第二合成SUV数据、所述原始动态参数数据和第一合成动态参数数据,计算对抗性损失;
根据所述原始SUV数据和所述第一合成SUV数据、所述原始动态参数数据和第二合成动态参数数据,计算循环损失。
第二方面,本发明还提供了一种基于静态PET图像的动态参数图像合成系统,包括:
SUV数据计算模块,用于针对静态PET图像计算相应的SUV数据;
运算模块,用于采用预先训练的循环生成对抗网络模型对所述SUV数据进行迭代运算,计算相应的动态参数数据;
图像重建模块,用于根据所述动态参数数据重建动态参数图像。
第三方面,本发明还提供了一种电子设备,包括:
处理器;以及
与所述处理器通讯连接的存储器;其中,
所述存储器存储有可读性指令,所述可读性指令被所述处理器执行时实现如第一方面所述的方法。
第四方面,本发明提供了一种计算机可读性存储介质,其上存储有计算机程序,所述计算机程序在被执行时实现如第一方面的方法。
本发明提供的基于静态PET图像的动态参数图像合成方法及系统、电子设备中,由于采用预先训练的循环生成对抗网络模型直接从静态PET图像合成出动态参数图像,将原来长达1小时的参数成像缩短为不到1秒成像,大大缩短了患者的扫描时间,同时仍能为医生额外提供一份影像资料,反映示踪剂对患者体内组织的代谢速率,提高PET量化结果及临床诊断的准确性,有效实现了动态参数图像的高效、高质量获取。
附图说明
图1是根据实施例一示出的一种基于静态PET图像的动态参数图像合成方法的实现流程图。
图2是根据一示例性实施例示出的循环生成对抗网络模型构建流程图。
图3是根据一示例性实施例示出的循环生成对抗网络模型中生成器和鉴别器的结构示意图。
图4是根据一示例性实施例示出的本方案实验结果示意图。
图5是根据实施例二示出的一种基于静态PET图像的动态参数图像合成系统的框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1是实施例一示出的基于静态PET图像的动态参数图像合成方法的实现流程图。实施例一示出的基于静态PET图像的动态参数图像合成方法适用于电子设备中,电子设备中设置有处理器,在获取到静态PET图像后,即可根据该静态PET图像的SUV数据,计算相应的动态参数数据,进而重建动态参数图像,实现基于静态PET图像高效、高质量计算动态参数图像。
步骤S110,针对静态PET图像计算相应的SUV数据。
步骤S120,采用预先训练的循环生成对抗网络模型对SUV数据进行迭代运算,计算相应的动态参数数据。
步骤S130,根据动态参数数据重建动态参数图像。
临床常规PET成像是静态PET成像,在整个采集过程中,其得到的标准化摄取值(standardized uptake value,SUV)的量化精度容易受到测量时间和血浆示踪剂浓度变化的影响。
本方案中,在获取到静态PET图像后,将计算相应的SUV数据。进而采用预先训练好的循环生成对抗网络模型对SUV数据进行迭代运算,计算相应的动态参数数据。
需要说明的是,该动态参数数据可以是动态参数Ki数据,也可以是其他类型的动态参数数据,本方案仅是以动态参数Ki数据为例进行详细说明,而不对动态参数数据的具体类型进行限定。
循环生成对抗网络模型是预先根据静态PET图像样本进行深度学习的训练而构建的。
图2是根据一示例性实施例示出的循环生成对抗网络模型构建流程图。如图2所示,该循环生成对抗网络模型采用cycleGAN网络算法,该模型包括生成器和鉴别器。特别的是,该模型包括第一生成器和第二生成器两个生成器(即GSUV→Ki和GKi→SUV)和第一鉴别器和第二鉴别器两个鉴别器(即DKi和DSUV),用于相互约束。
其中,第一生成器包含SUV数据与动态参数数据之间的映射关系,第二生成器包含动态参数数据与SUV数据之间的映射关系;第一鉴别器用于鉴别经第一生成器运算后的动态参数数据与原始动态参数数据之间的差异,第二鉴别器用于鉴别经第二生成器运算后的SUV数据与原始SUV数据之间的差异。
在深度学习训练过程中,以原始SUV数据和原始动态参数(Ki)数据作为输入,经过生成器GSUV→Ki/GKi→SUV输出合成Ki(sKi)和合成SUV(sSUV)数据,原始Ki数据和原始SUV数据作为参照。
由于单一损失函数在图像生成方面存在一定局限性,为提高最终合成图像的生成质量,生成器网络使用对抗性损失(L2损失函数)和循环损失(L1损失函数)进行训练,而鉴别器网络使用对抗性损失(L2损失函数)进行训练。通过将参照的原始图像和相应的合成图像输入鉴别器以计算图像之间的差异来获得对抗性损失。将原始图像通过两个生成器,最终获得与原始图像属于同一类别的合成图像来计算循环损失。
需要特别说明的是,为进一步提高该循环生成对抗网络模型的严谨性和高效性,在构建循环生成对抗网络模型时,去除了包含在一般cycleGAN网络中的一致性损失。一致性损失鼓励映射保留输入图像和输出图像的颜色组成。实际上,SUV数据和动态参数Ki数据在颜色组成之间的映射关系并不强。
具体的,在训练生成循环生成对抗网络模型时,获取不同静态PET图像样本的原始SUV数据和原始动态参数数据;采用深度学习算法学习原始SUV数据和原始动态参数数据之间的映射关系;根据关系建立循环生成对抗网络模型。
在构建映射关系时,采用深度学习算法,计算原始SUV数据相应的第一合成动态参数数据和第一合成SUV数据,以及原始动态参数数据相应的第二合成SUV数据和第二合成动态参数数据;并根据上述数据计算对抗性损失和循环损失;根据对抗性损失和循环损失,设计生成器和鉴别器,即原始SUV数据和原始动态参数数据之间的映射关系。
在某些区域,SUV数据的强度很高,而动态参数Ki反映的示踪剂流速可能很慢。因而,在计算对抗性损失和循环损失时,联合损失函数可通过3个损失函数共同确定,即主要的两个对抗性损失函数和一个循环损失函数,表示如下:
Ltotal(GSUV→Ki,GKi→SUV,DSUV,DKi)=LGAN(GSUV→Ki,DKi,SUV,Ki)+LGAN(GKi→SUV,DSUV,SUV,Ki)+λ1Lcyc(GSUV→Ki,GKi→SUV) (1)
其中,λ1为权重系数。
对抗损失1:LGAN(GSUV→Ki,DKi,SUV,Ki)是评判生成器GSUV→Ki生成的Ki图像再输入到鉴别器DKi中去计算损失。
对抗损失2:同理,LGAN(GKi→SUV,DSUV,SUV,Ki)是评判生成器GKi→SUV生成的SUV图像再输入到鉴别器DSUV中去计算损失。
循环损失Lcyc(GSUV→Ki,GKi→SUV):将SUV图像/Ki图像经过生成器GSUV→Ki和GKi→SUV最后再得到生成的SUV图像/Ki图像,从而计算两张同类图像的损失。根据工程经验所得,循环损失的权重系数λ1一般设置为10。
由于循环生成对抗网络模型整体基于生成对抗网络的思想,故对抗性损失为其核心损失函数之一,其目标函数为:
Figure BDA0003395925790000071
其中,对抗损失1:
Figure BDA0003395925790000072
对抗损失2:
Figure BDA0003395925790000073
为保证生成图像的峰值信噪比,我们使用L2损失函数作为对抗性损失:
Figure BDA0003395925790000074
Figure BDA0003395925790000075
其中,
Figure BDA0003395925790000076
表示期望,α和β表示输入和目标数据,N为数据个数,P*表示数据分布,a,b和c表示人为设定的超参数,其中a=0,b=1,c=1。
通过将对抗性损失和循环损失相互协同,使最终得到的动态参数Ki数据与真实动态参数Ki数据更为接近。例如Ki图像经GKi→SUV生成第二合成SUV图像后,再经GSUV→Ki生成第二Ki图像,如此将生成的第二Ki图像与原始Ki图像进行损失计算,从而减少两者相差的距离。两图像若想要足够相似则需要两个生成器都训练得当。这样在降低损失时也是促进生成器的训练。
图3是根据一示例性实施例示出的循环生成对抗网络模型中生成器和鉴别器的结构示意图。
如图3所示,每个生成器包括三部分:用于从输入图像域中提取知识的编码层(有3个卷积核组成,分别为7×7、3×3、3×3大小,依次为32、64、128通道数),用于构建目标图像的解码层(有3个卷积核组成,分别为3×3、3×3、7×7大小,依次为64、32、1通道数)和作为中间传输信息的残差块(9个残差网络,每个网络均有两个3×3大小的卷积核,均为128通道数,卷积核首尾还进行了恒等映射的叠加,以确保增加网络深度的同时至少不会增加误差),用于将图像知识从输入域传输到目标域。每个鉴别器包括5个卷积核(均为4×4的大小,通道数依次为32、64、128、256、1),鉴别器输入真实图像或合成图像,然后输出真或假的二进制值。
另外,还可以采用优化器对模型进行优化,指引损失函数的各个参数往正确的方向更新合适的大小,使得更新后的各个参数让损失函数(目标函数)值不断逼近全局最小,有效提高模型构建的效率和准确性。
例如,可采用Adam优化器进行优化。
Adam优化器结合了AdaGrad和RMSProp两种优化算法的优点。对梯度的一阶矩估计(First Moment Estimation,即梯度的均值)和二阶矩估计(Second Moment Estimation,即梯度的未中心化的方差)进行综合考虑,计算出更新步长。Adam优化具体实现过程:
1.初始:学习率lr
2.初始:平滑常数(或者叫做衰减速率),分别用于平滑m和v
3.初始:可学习参数θ0
4.初始:m0=0,v0=0,t=0
5.while没有停止训练do
6.训练次数更新:t=t+1
7.计算梯度:gt(所有的可学习参数都有自己的梯度,因此表示的是全部梯度的集合)
8.累计梯度:mt=β1*mt-1+(1-β1)*gt(每个导数对应一个m,因此m也是个集合)
9.累计梯度的平方:vt=β2*vt-1+(1-β2)*(gt)2(每个导数对应一个v,因此v也是个集合)
10.偏差纠正m:
Figure BDA0003395925790000091
11.偏差纠正v:
Figure BDA0003395925790000092
12.更新参数:
Figure BDA0003395925790000093
13.end while
通过本方案的动态参数图像合成方法,使用深度学习网络模型直接从静态PET图像学习出动态参数图像,将原来长达1小时的参数成像缩短为不到1秒成像,大大缩短了患者的扫描时间,同时仍能为医生额外提供一份影像资料,反映示踪剂对患者体内组织的代谢速率,提高PET量化结果及临床诊断的准确性,实现动态参数图像的高效、高质量合成;其次,一般cycleGAN网络模型使用三种损失函数(对抗损失+循环损失+一致性损失),其中一致性损失鼓励映射保留输入图像和输出图像的颜色组成,而本方案使用改进的cycleGAN模型(去除了一致性损失函数)来使得生成出的参数图像与输入的静态PET图像有不一致的颜色组成,以此更贴合临床实际情况(在患者身体的某些区域,SUV的强度很高,而Ki反映的示踪剂流速相对较慢)。
图4是根据一示例性实施例示出的本方案实验结果示意图。如图4所示,#1代表健康对照,#2代表肺癌,#3代表肺良性肿瘤,从上至下的3个图片分别代表原始SUV图像、合成Ki(ski)图像和相应的真实Ki图像,箭头指向参与者的病变。从图4可以看出,本发明的方法可以有效地保证合成图像的峰值信噪比和结构相似度,同时,对于肺癌病灶和高代谢区,动态参数Ki数据的合成图像可以达到与真实Ki图像相当的图像质量,病灶边界清晰完整。
实施例二:
图5是实施例二示出的基于静态PET图像的动态参数图像合成系统的框图。该系统可执行上述任一所示的基于静态PET图像的动态参数图像合成方法的全部或者部分步骤。该系统包括:
SUV数据计算模块10,用于针对静态PET图像计算相应的SUV数据;
运算模块20,用于采用预先训练的循环生成对抗网络模型对SUV数据进行迭代运算,计算相应的动态参数数据;
图像重建模块30,用于根据动态参数数据重建动态参数图像。
实施例三:
本发明实施例三提供了一种电子设备,该电子设备可执行上述任一所示的基于静态PET图像的动态参数图像合成方法的全部或者部分步骤。该电子设备包括:
处理器;以及
与处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述任一示例性实施例所述的方法,此处将不做详细阐述说明。
在本实施例中,还提供了一种存储介质,该存储介质为计算机可读存储介质,例如可以为包括指令的临时性和非临时性计算机可读存储介质。该存储介质例如包括指令的存储器,上述指令可由服务器系统的处理器执行以完成上述基于静态PET图像的动态参数图像合成方法。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于静态PET图像的动态参数图像合成方法,其特征在于,所述方法包括:
针对静态PET图像计算相应的SUV数据;
采用预先训练的循环生成对抗网络模型对所述SUV数据进行迭代运算,计算相应的动态参数数据;
根据所述动态参数数据重建动态参数图像。
2.如权利要求1所述的方法,其特征在于,所述循环生成对抗网络模型包括生成器和鉴别器;所述生成器根据对抗性损失和循环损失进行训练而成;所述鉴别器根据对抗性损失进行训练而成。
3.如权利要求1所述的方法,其特征在于,所述循环生成对抗网络模型包括第一生成器和第二生成器;所述第一生成器包含SUV数据与动态参数数据之间的映射关系,所述第二生成器包含动态参数数据与SUV数据之间的映射关系。
4.如权利要求3所述的方法,其特征在于,所述循环生成对抗网络模型还包括第一鉴别器和第二鉴别器;所述第一鉴别器用于鉴别经所述第一生成器运算后的动态参数数据与原始动态参数数据之间的差异,所述第二鉴别器用于鉴别经所述第二生成器运算后的SUV数据与原始SUV数据之间的差异。
5.如权利要求1所述的方法,其特征在于,所述循环生成对抗网络模型的训练方法包括:
获取不同静态PET图像样本的原始SUV数据和原始动态参数数据;
采用深度学习算法学习所述原始SUV数据和所述原始动态参数数据之间的映射关系;
根据所述关系建立所述循环生成对抗网络模型。
6.如权利要求5所述的方法,其特征在于,所述采用深度学习算法学习所述原始SUV数据和所述原始动态参数数据之间的映射关系的步骤包括:
采用深度学习算法,计算所述原始SUV数据相应的第一合成动态参数数据和第一合成SUV数据,以及所述原始动态参数数据相应的第二合成SUV数据和第二合成动态参数数据;
根据上述数据计算对抗性损失和循环损失;
根据所述对抗性损失和所述循环损失,设计生成器和鉴别器,即所述原始SUV数据和所述原始动态参数数据之间的映射关系。
7.如权利要求6所述的方法,其特征在于,所述根据上述数据计算对抗性损失和循环损失的步骤包括:
根据所述原始SUV数据和所述第二合成SUV数据、所述原始动态参数数据和第一合成动态参数数据,计算对抗性损失;
根据所述原始SUV数据和所述第一合成SUV数据、所述原始动态参数数据和第二合成动态参数数据,计算循环损失。
8.一种基于静态PET图像的动态参数图像合成系统,其特征在于,所述系统包括:
SUV数据计算模块,用于针对静态PET图像计算相应的SUV数据;
运算模块,用于采用预先训练的循环生成对抗网络模型对所述SUV数据进行迭代运算,计算相应的动态参数数据;
图像重建模块,用于根据所述动态参数数据重建动态参数图像。
9.一种图像合成设备,其特征在于,所述图像合成设备包括:
处理器;以及
与所述处理器通讯连接的存储器;其中,
所述存储器存储有可读性指令,所述可读性指令被所述处理器执行时实现如权利要求1-7任一项所述的方法。
10.一种计算机可读性存储介质,其上存储有计算机程序,所述计算机程序在被执行时实现如权利要求1-7任一项所述的方法。
CN202111512068.4A 2021-12-07 2021-12-07 基于静态pet图像的动态参数图像合成方法、系统 Pending CN114332271A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111512068.4A CN114332271A (zh) 2021-12-07 2021-12-07 基于静态pet图像的动态参数图像合成方法、系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111512068.4A CN114332271A (zh) 2021-12-07 2021-12-07 基于静态pet图像的动态参数图像合成方法、系统

Publications (1)

Publication Number Publication Date
CN114332271A true CN114332271A (zh) 2022-04-12

Family

ID=81050187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111512068.4A Pending CN114332271A (zh) 2021-12-07 2021-12-07 基于静态pet图像的动态参数图像合成方法、系统

Country Status (1)

Country Link
CN (1) CN114332271A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051018A1 (zh) * 2022-09-09 2024-03-14 深圳先进技术研究院 一种pet参数图像的增强方法、装置、设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051018A1 (zh) * 2022-09-09 2024-03-14 深圳先进技术研究院 一种pet参数图像的增强方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
US20180225847A1 (en) Systems and methods for data and model-driven image reconstruction and enhancement
CN110009669B (zh) 一种基于深度强化学习的3d/2d医学图像配准方法
US20210233244A1 (en) System and method for image segmentation using a joint deep learning model
CN110827232B (zh) 基于形态特征gan的跨模态mri合成方法
CN112598649B (zh) 基于生成对抗网络的2d/3d脊椎ct非刚性配准方法
Tiago et al. A data augmentation pipeline to generate synthetic labeled datasets of 3D echocardiography images using a GAN
CN114897780A (zh) 一种基于mip序列的肠系膜上动脉血管重建方法
Mouches et al. Unifying brain age prediction and age-conditioned template generation with a deterministic autoencoder
CN114332271A (zh) 基于静态pet图像的动态参数图像合成方法、系统
WO2020163539A1 (en) System and method for fully automatic lv segmentation of myocardial first-pass perfusion images
Tiago et al. A domain translation framework with an adversarial denoising diffusion model to generate synthetic datasets of echocardiography images
Wang et al. IGNFusion: an unsupervised information gate network for multimodal medical image fusion
Poonkodi et al. 3d-medtrancsgan: 3d medical image transformation using csgan
CN113205567A (zh) 基于深度学习的mri影像合成ct影像的方法
CN116563402A (zh) 跨模态mri-ct图像合成方法、系统、设备和介质
Iddrisu et al. 3D reconstructions of brain from MRI scans using neural radiance fields
WO2023102709A1 (zh) 基于静态pet图像的动态参数图像合成方法、系统
WO2022120731A1 (zh) 基于循环生成对抗网络的mri-pet图像模态转换方法及系统
US20230031910A1 (en) Apriori guidance network for multitask medical image synthesis
EP4221580A1 (en) Method and system for estimating arterial input function
CN113052840A (zh) 一种基于低信噪比pet图像的处理方法
Guan et al. Synthetic CT generation via variant invertible network for all-digital brain PET attenuation correction
Arslan et al. Self-Consistent Recursive Diffusion Bridge for Medical Image Translation
CN113223104B (zh) 一种基于因果关系的心脏mr图像插补方法及系统
Xue et al. PET Synthesis via Self-supervised Adaptive Residual Estimation Generative Adversarial Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination