CN111489406A - 生成高能ct图像模型的训练及生成方法、设备、存储介质 - Google Patents

生成高能ct图像模型的训练及生成方法、设备、存储介质 Download PDF

Info

Publication number
CN111489406A
CN111489406A CN202010225463.3A CN202010225463A CN111489406A CN 111489406 A CN111489406 A CN 111489406A CN 202010225463 A CN202010225463 A CN 202010225463A CN 111489406 A CN111489406 A CN 111489406A
Authority
CN
China
Prior art keywords
image
energy
low
network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010225463.3A
Other languages
English (en)
Other versions
CN111489406B (zh
Inventor
胡战利
梁栋
陈其航
杨永峰
刘新
郑海荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202010225463.3A priority Critical patent/CN111489406B/zh
Publication of CN111489406A publication Critical patent/CN111489406A/zh
Application granted granted Critical
Publication of CN111489406B publication Critical patent/CN111489406B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本申请公开了一种生成高能CT图像模型的训练方法、生成方法、设备和存储介质。其中,所述训练方法包括将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像、再从第一高能CT图像转变为第二低能CT图像的训练,得到损失函数;利用损失函数构建第一高能CT图像生成模型。所述生成方法包括将待处理低能CT图像输入上述第一高能CT图像生成模型。通过上述方法,本申请能够得到高质量的高能CT图像。

Description

生成高能CT图像模型的训练及生成方法、设备、存储介质
技术领域
本申请涉及计算机断层扫描技术领域,尤其是一种生成高能CT图像模型的训练方法、生成方法、设备和存储介质。
背景技术
计算机断层成像技术(Computed Tomography,CT)能够提供人体的主要解剖和病理信息,极大地提高医学诊断水平,目前已被广泛应用于临床医学领域。CT扫描时使用高剂量的X射线能够得到清晰的CT 图像,然而X射线会对患者身体产生伤害,甚至可能引发癌变,X射线剂量越高,患者身体受到的损伤风险越大,所以在临床上通常使用低剂量CT对患者进行检查。但在患者成像部位有金属植入物的情况下,由于金属对X射线具有很高的衰减性,导致探测器接收到的数据存在严重的测量误差,重建后的CT图像含有明显的金属伪影,金属伪影使得CT 图像质量变差,组织结构难以判断,可能导致误诊的结果。
发明内容
本申请主要解决的技术问题是:提供一种生成高能CT图像模型的训练方法、生成高能CT图像的方法、计算机设备和存储介质,旨在基于低能CT图像生成高能CT图像,以在不增加患者所受辐射剂量的同时改善CT图像质量。
为解决上述技术问题,本申请采用的第一个技术方案是:提供一种生成高能CT图像模型的训练方法,包括:将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像、再从第一高能CT图像转变为第二低能CT图像的训练,得到损失函数;
利用损失函数构建第一高能CT图像生成模型。
为解决上述技术问题,本申请采用的第二个技术方案是:提供一种生成高能CT图像的方法,包括:将待处理低能CT图像输入第一高能 CT图像生成模型;
其中,第一高能CT图像生成模型为采用上述生成高能CT图像模型的训练方法训练得到的第一高能CT图像生成模型。
为解决上述技术问题,本申请采用的第三个技术方案是:提供一种计算机设备,包括存储器和处理器;
其中,存储器用于存储计算机程序;
其中,处理器用于执行计算机程序并在执行计算机程序时实现上述生成高能CT图像模型的训练方法,或者实现上述生成高能CT图像的方法。
为解决上述技术问题,本申请采用的第四个技术方案是:提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时使处理器实现上述生成高能CT图像模型的训练方法,或者实现上述生成高能CT图像的方法。
本申请的有益效果是:与现有技术相比,本申请通过构建循环网络,进行第一低能CT图像转变为第一高能CT图像,再转变为第二低能CT 图像的训练,得到损失函数,利用损失函数构建第一高能CT图像生成模型。由于循环网络在训练过程中不断减小损失函数的值,以使其位于预设误差范围之内,因而循环网络的高能CT图像生成网络和低能CT 图像生成网络在训练过程中不断被优化,同时由于网络的循环结构,使得两者相互优化,同时提升两者的网络性能,最终使得生成的高能CT 图像生成网络模型能够更加准确的提取图像的深层特征信息,同时保留金属物周围组织结构的细节信息,生成高质量的高能CT图像。
附图说明
图1为本申请生成高能CT图像模型的训练方法的第一实施方式的流程示意图;
图2为本申请高能CT图像判别器网络的结构示意图;
图3为本申请生成高能CT图像模型的训练方法的第二实施方式的流程示意图;
图4为本申请一种生成高能CT图像的方法一流程示意图;
图5为本申请一种生成高能CT图像的方法一具体应用场景的流程示意图;
图6为图5中特征提取层的结构示意图;
图7为图5及图6中第一注意力机制和第二注意力机制的结构示意图;
图8为双能CT扫描得到的待处理低能CT图像;
图9为双能CT扫描得到的于图5对应的高能CT图像;
图10为采用本申请第一高能CT图像生成模型生成的高能CT图像;
图11为本申请一种计算机设备的第一实施方式的结构示意框图;
图12为本申请一种计算机设备的第二实施方式的结构示意框图;
图13为本申请一种计算机可读存储介质的结构示意框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的发明人经过长期的研究发现:计算机断层成像技术(CT)广泛应用于临床医学领域,CT成像中利用X射线获取人体主要解剖和病理信息。其中,使用高能CT能够得到清晰的CT图像,但是高能CT的辐射剂量高,对人体所造成的辐射损伤严重,因而在临床中倾向于使用低能CT,以减少CT辐射,但当人体组织存在金属植入物时,低能CT 扫描得到的重建图像会产生金属伪影,导致CT图像的质量变差,使得人体组织结构难以判断,可能导致误诊的结果。CT图像质量与辐射剂量之间形成了相互矛盾的关系,为了解决该问题,本申请提出至少如下实施例。
参阅图1,图1为本申请生成高能CT图像模型的训练方法的第一实施方式的流程示意图。如图1所示,本申请生成高能CT图像模型的训练方法的第一实施方式包括:
步骤S10:将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像、再从第一高能CT图像转变为第二低能CT 图像的训练,得到损失函数。
在本实施方式中,循环网络可以包括一对生成器网络。其中,一个生成器网络为高能CT图像生成器网络,用于将输入的低能CT图像转变为高能CT图像。另一个生成器网络为低能CT图像生成器网络,用于将输入的高能CT图像转变为低能CT图像。其中,高能CT图像生成器网络与低能CT图像生成器网络构成一个循环网络,用以将输入的低能CT图像转变为高能CT图像再转变为新的低能CT图像。
进一步地,循环网络还可以包括一对判别器网络。其中,一个判别器网络为高能CT图像判别器网络,对应于高能CT图像生成器网络,用以对高能CT图像生成器网络的生成结果进行判别,以和高能CT图像生成器网络进行对抗训练,使高能CT图像生成器网络生成的高能CT 图像更加逼近真图。另一个判别器网络为低能CT图像判别器网络,对应于低能CT图像生成器网络,用以对低能CT图像生成器网络的生成结果进行判别,以和低能CT图像生成器网络进行对抗训练,使低能CT 图像生成器网络生成的低能CT图像更加逼近真图。
参阅图2,图2为本申请高能CT图像判别器网络的结构示意图。如图2所示,本申请高能CT图像判别器网络包括多层卷积层,例如包括五层卷积层。高能CT图像判别器网络通过多层卷积层提取输入高能 CT图像判别器网络的图像特征信息,以对输入的图像进行判别,衡量高能CT图像生成器网络生成的高能CT图像与真实高能CT图像的差距,并反馈到循环网络的高能CT图像生成器网络中,以优化高能CT图像生成器网络的各层参数,最终生成高质量的高能CT图像。
其中,训练用低能CT图像可以为来自双能CT图像组的低能CT图像。双能CT图像组可以为利用双能CT扫描得到的一一配对的低能CT 图像和高能CT图像。
在本实施方式中,生成器网络和对应的判别器网络在进行对抗训练中得到对抗损失函数,对抗损失函数包括生成器损失函数和判别器损失函数。进一步地,循环网络每循环一次,将重新生成一张新的输入图。例如将训练用低能CT图像输入循环网络,进行一次循环后,将生成第一高能CT图像,然后由该第一高能CT图像生成第二低能CT图像,即生成一张新的低能CT图像。因此,损失函数还可以包括重建损失和循环损失。其中,重建损失为第一高能CT图像与真实高能CT图像的图像损失。循环损失为第二低能CT图像与训练用低能CT图像的图像损失。
在本实施方式中,训练用低能CT图像的处理流程为:首先将训练用低能CT图像输入循环网络,循环网络的高能CT图像生成器网络对输入的训练用低能CT图像,即第一低能CT图像进行处理,输出第一高能CT图像。然后循环网络的低能CT图像生成器网络对输入的第一高能CT图像进行处理,输出第二低能CT图像,完成一个循环动作。在该过程中,循环网络的生成器网络和对应的判别器网络生成对抗损失,循环网络在完成一个循环动作后生成重建损失和循环损失,从而得到损失函数。
其中,对抗损失包括生成器网络损失和判别器网络损失。以高能CT 图像生成器网络为例,高能CT图像生成器网络损失计算公式为:
Figure BDA0002427485880000051
其中,Gl-h为高能CT图像生成器,Dh为高能CT图像判别器,x为来自低能CT图像数据集Pdata(x)的图像,y为来自高能CT图像数据集 Pdata(y)的图像,1为真实图像的标签。
高能CT图像判别器网络损失计算公式为:
Figure BDA0002427485880000052
其中,0为生成图像的标签。
循环网络的高能CT图像生成器网络和高能CT图像判别器网络两者相互对抗,在互相对抗过程中提高两者的性能,以使得高能CT图像生成器网络生成的第一高能CT图像更加逼近真实的高能CT图像。
循环网络中低能CT图像生成器网络损失和低能CT图像判别器网络损失的计算公式具有相应形式,在此不再赘述。
重建损失的计算公式为:
Figure BDA0002427485880000061
循环损失的计算公式为:
Figure BDA0002427485880000062
其中,xcyc为循环生成的低能CT图像。
进一步地,步骤S10包括:
步骤S101:对训练用低能CT图像进行下采样,以得到第一特征图;
将训练用低能CT图像输入循环网络的高能CT图像生成器网络,高能CT图像生成器网络包括下采样层,训练用低能CT图像在下采样层进行下采样,得到第一特征图。
其中,下采样层包括多个卷积层,训练用低能CT图像通过下采样层时,下采样层的第一层卷积层首先对训练用低能CT图像进行浅层特征提取,提取训练用低能CT图像低层次的简单特征,得到浅层特征提取后的特征图。而后下采样层的其他卷积层分别对上一层卷积层卷积后的特征图进行卷积,以进一步缩小特征图的尺寸,并进一步提取特征图的图像特征信息。最后,通过下采样层的最后一层卷积层,输出第一特征图。
在一些实施方式中,循环网络还包括两个输入层,分别是低能CT 图像输入层和高能CT图像输入层,将训练用低能CT图像输入循环网络的高能CT图像生成器网络,例如是通过低能CT图像输入层接收训练用低能CT图像,输入层还可以将输入的图像进行标准化处理,然后在将其输入下采样层,以提升循环网络的学习效率和表现。
步骤S102:对第一特征图进行多次特征提取,以得到第二特征图;
在本实施方式中,循环网络的高能CT图像生成器网络包括多个特征提取层,每个特征提取层包括多个卷积层,用以对第一特征图进行深层特征提取,在第一特征图的基础上累积更多的特征信息,并将第一特征图的图像数据信息映射到其他分布空间,隔离出金属伪影的数据分布并加以去除,得到金属伪影消除比较彻底的第二特征图。
在本实施方式中,通过使用多个特征提取层,可以实现多层次图像特征信息的提取,形成对图像特征更加丰富的描述,得到金属伪影消除效果较好的第二特征图。
进一步地,步骤S102包括:
步骤S1021:将第一特征图输入多个残差网络,并对多个残差网络引入注意力机制;
在本实施方式中,特征提取层包括多个残差网络,即特征提取层的每两层卷积层增加一个捷径,构成一个残差块,多个残差块连接起来构成一个残差网络。残差网络可以突出微小的变化,在生成第二特征图的过程中,可能会导致图像信息损失,例如对于输入的低能CT图像,在特征提取中特别是在金属伪影的处理过程中,可能会损失金属物附近区域的被扫描对象的一些组织信息,主要为骨骼信息。通过残差网络可以将图像原特征再引入过来,防止信息丢失,例如防止被扫描对象的金属物附近的一些组织信息的丢失。对多个残差网络引入注意力机制,可以为对每个残差网络引入注意力机制,多个残差网络引入多个注意力机制。注意力机制可以帮助循环网络对输入的每个部分赋予不同权重,挑选出图像中更关键更重要的信息,使循环网络能够更准确的判断图像不同部分特征的重要性,且引入注意力机制不会对循环网络的存储和计算带来额外负担。
在本实施方式中,每个残差网络引入两个注意力机制,分别为第一注意力机制和第二注意力机制。其中,第一注意力机制包括一个平均池化层和两层卷积层,第二注意力机制包括两层卷积层。引入注意力机制的作用在于,通过卷积层通道之间的相互依赖性来增强循环网络的表达能力,对残差网络的每层卷积层的通道赋予一个权重,应用该权重对相应的图像特征进行加权,从而凸显特征图中更关注的部分,并对该部分分配更多的信息处理资源,同时,凸显特征图中更关键的图像部分,以在后续的图像生成中聚焦特征图中关键的图像部分。
步骤S1022:利用卷积层对多次特征提取后的输出图进行级联;
多个特征提取层的输出结果跳跃连接至卷积层,利用卷积层对通过多个特征提取层后的输出图进行级联,以避免图像特征信息的损失,同时对图像数据进行降维处理,简化网络计算的复杂度。
具体地,在一个应用例中,利用一个卷积核尺寸为3*3的卷积层对多个特征提取层的输出结果进行级联,即多个特征提取层的输出结果跳跃连接至一个为3*3的卷积层,通过该卷积层对多个特征提取层的输出结果进行融合,并进行降维处理,以简化网络复杂度。
步骤S1023:对级联后的新的输出图引入注意力机制,以得到第二特征图。
其中,注意力机制包括第一注意力机制和第二注意力机制。第一注意力机制包括一个平均池化层和两个卷积层。第二注意力机制包括两个卷积层,级联后的新的输出图首先通过第一注意力机制,然后通过第二注意力机制,其目的在于凸显新的输出图中更关注的图像特征信息,以得到第二特征图。
步骤S103:将第一特征图与第二特征图结合后输入上采样层进行上采样,以得到第一高能CT图像。
在本实施方式中,将第一特征图与第二特征图结合后输入上采样层进行上采样,以减小图像在特征提取中的信息损失,避免在对图像进行深层特征提取的时候由于信息缺失而导致生成的图像与目标图像产生较大偏差。
进一步地,输入上采样层的特征图在上采样层进行上采样,在本实施方式中,采用双线性插值法对特征图进行上采样,在其他实施方式中,也可以采用反卷积法或反池化法中的一种或任意组合,以得到第一高能 CT图像。
进一步地,步骤S103包括:
步骤S1031:将上采样层与下采样中相同尺寸的特征图进行级联;
在本实施方式中,上采样层包括多个卷积层,多个卷积层的卷积核尺寸均为3*3,以提取更加丰富的图像特征信息。输入上采样层的特征图通过多个卷积层得到多个不同尺寸的特征图,将上采样层与下采样层中相同尺度的特征图进行级联。如此,下采样层得到的特征图的浅层特征可以和上采样层中提取的特征图的高层特征相融合,从而保留图像的组织信息等细节信息,同时上采样层和下采样层的级联融合更有利于网络的训练。
步骤S1032:对级联后的新的特征图进行上采样;
在本实施方式中,将上采样层与下采样层中相同尺寸的特征图进行级联后,对级联后的新的特征图再次进行上采样。
具体地,在一个应用例中,首先利用双线性插值法将输入上采样层的特征图尺寸放大两倍,然后将放大两倍后的特征图和下采样层中相同尺寸的特征图进行级联,进而再次利用双线性插值法将级联后的新的特征图尺寸放大两倍,然后对尺寸放大两倍的新的特征图再次进行上采样,以和下采样层的尺寸相同的特征图进行级联。如此设置,使得循环网络包括多个上采样层和下采样层的级联融合,从而能够更多的融合特征图的浅层特征和高层特征,以避免特征图重要信息的缺失。
步骤S1033:对上采样层的输出结果进行特征融合,以得到第一高能CT图像。
循环网络高能CT图像生成器网络包含融合输出层,用于对上采样层的输出结果进行特征融合,并输出融合所有特征图图像信息的第一高能CT图像。
具体地,在一个应用例中,融合输出层为一层卷积层,该卷积层对上采样层输出的特征图进行特征融合,从而得到第一高能CT图像。
进一步地,步骤S10还包括:
步骤S104:第一高能CT图像转变为第二低能CT图像的网络结构与第一低能CT图像转变为第一高能CT图像的网络结构相同。
循环网络包括高能CT图像生成器网络和低能CT图像生成器网络。其中,高能CT图像生成器网络的结构与低能CT生成网络的结构相同,功能相反。高能CT图像生成器网络用于将输入的低能CT图像转变为高能CT图像;低能CT图像生成器网络用于将输入的高能CT图像转变为低能CT图像。
在本实施方式中,第一高能CT图像转变为第二低能CT图像的网络结构与第一低能CT图像转变为第一高能CT图像的网络结构相同。从而循环网络的两个生成器网络能够同时进行训练,以优化网络参数和网络结构,构建图像生成效果更佳的高能CT图像生成模型。
步骤S11:利用损失函数构建第一高能CT图像生成模型。
在本实施方式中,损失函数的值在预设误差范围之外时,则循环网络继续进行迭代训练,直至损失函数的值在预设误差范围之内,则循环网络停止训练,得到第一高能CT图像生成模型。此外,循环网络在训练完毕后,还得到第一高能CT图像判别模型、低能CT图像生成模型和低能CT图像判别模型。
其中,循环网络迭代训练的目的在于减小损失函数的值,即减小对抗损失、重建损失和循环损失,以使得两个生成器网络生成的图像更加逼近真实图像。
在一些实施方式中,损失函数的值包括高能CT图像生成损失、高能CT图像判别损失、低能CT图像生成损失、低能CT图像判别损失、高能CT图像重建损失低能CT图像循环损失。
进一步地,步骤S11包括:
步骤S110:利用Adam算法对所述循环网络的各层参数进行迭代优化;
在本实施方式中,利用Adam算法对循环网络的各层参数进行调整和优化,其作用在于使损失函数的值在预设误差范围内。
具体地,利用Adam算法调整和优化循环网络模型参数,包括调整循环网络的下采样层、特征提取层、上采样层、融合输出层的卷积核特征值和权值,以及其他部位的卷积核特征值和权值等,直到损失函数的值在预设误差范围内,模型收敛,得到第一高能CT图像生成模型。
步骤S111:利用样本集对循环网络进行训练,以得到第一高能CT 图像生成模型。
在本实施方式中,样本集包括双能CT图像组,双能CT图像组可以为利用双能CT扫描得到的数据,包括一一配对的低能CT图像和高能CT图像。
具体地,在一个应用例中,利用双能CT图像组对循环网络进行训练,将训练用低能CT图像,即来自双能CT图像组的低能CT图像,也即是第一低能CT图像输入循环网络的高能CT图像生成器网络,将生成的第一高能CT图像与双能CT图像组中的高能CT图像进行判别,将生成的第二低能CT图像与双能CT图像组的低能CT图像进行判别,从而得到对抗损失的值,同时得到重建损失以及循环损失的值,即得到损失函数的值,继而判断损失函数的值是否在预设误差范围内,若不在,则利用Adam算法对循环网络的各层参数进行调整和优化,直至损失函数的值在预设误差范围之内。在利用样本集对循环网络进行多次训练后,模型收敛,得到第一高能CT图像生成模型。
本实施方式通过构建循环网络,进行第一低能CT图像转变为第一高能CT图像,再转变为第二低能CT图像的训练,得到损失函数,利用损失函数构建第一高能CT图像生成模型。通过循环网络结构,得到对抗损失、重建损失和循环损失。由于循环网络在训练过程中不断减小损失函数的值,以使其位于预设误差范围之内,因而高能CT图像生成网络和低能CT图像生成网络在训练过程中不断被优化,使得两者相互促进,同时提升两者的网络性能,最终使得生成的高能CT图像生成网络模型能够更加准确的提取图像的深层特征信息,同时保留金属物周围组织结构的细节信息,生成高质量的高能CT图像。
另外,本实施方式的循环网络为“端到端”结构,在训练过程中,直接对训练用低能CT图像进行“端到端”操作,不涉及投影数据的计算以及其他复杂计算,简化了循环网络使用时的计算过程和操作流程。
参阅图3,图3为本申请生成高能CT图像模型的训练方法的第二实施方式的流程示意图。本申请生成高能CT图像模型的训练方法的第二实施方式,是在本申请生成高能CT图像模型的训练方法的第一实施方式的基础上进一步阐释,因此本实施方式与本申请生成高能CT图像模型的训练方法的第一实施方式相同的步骤在此不再赘述。本实施方式包括:
步骤S20:将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像、再从第一高能CT图像转变为第二低能CT 图像的训练的同时,将训练用高能CT图像输入循环网络进行第二高能 CT图像转变为第三低能CT图像、再从第三低能CT图像转变为第三高能CT图像的训练,得到损失函数。
在本实施方式中,循环网络包括高能CT图像生成器网络和低能CT 图像生成器网络,两个网络结构相同,功能相反。在对循环网络进行训练中,两个生成器网络同时进行训练,即将训练用低能CT图像输入高能CT图像生成器网络中的同时,将第二高能CT图像输入低能CT图像生成器网络中。两个网络同时进行训练,能够进一步优化网络各层参数,使生成的图像效果更好。
进一步地,低能CT图像判别器网络具有和高能CT图像判别器网络相同的结构,以和低能CT图像生成器网络进行对抗训练,优化两者的性能,最终起到优化循环网络整体性能的作用。
在本实施方式中,高能CT图像生成器网络和低能CT图像生成器网络同时进行训练,即同时输入训练用低能CT图像和第二高能CT图像,在训练完毕后,得到损失函数。其中,损失函数包括高能CT图像生成损失、高能CT图像判别损失、低能CT图像生成损失、低能CT图像判别损失、高能CT图像重建损失、高能CT图像循环损失、低能CT 图像重建损失、低能CT图像循环损失。
进一步地,重建损失的计算公式为:
Figure BDA0002427485880000121
其中,Gh-l为低能CT图像生成器网络。
循环损失的计算公式为:
Figure BDA0002427485880000131
其中,ycyc为循环生成的高能CT图像。
步骤S21:利用损失函数构建第一高能CT图像生成模型。
本实施方式生成高能CT图像模型的训练方法,通过同时输入低能 CT图像和高能CT图像,对循环网络的两个生成器网络同时进行训练。两个生成器网络同时进行训练,进一步提升了循环网络的网络性能。且由于同时输入了高能CT图像对循环网络进行训练,根据所得的损失函数的值对两个生成器网络的参数进行调整和优化更加准确,使得得到第一高能CT图像生成模型性能更加优良,生成的第一高能CT图像金属伪影去除更加彻底,且金属物周围的组织信息保留更好,结构更加清晰,更加逼近真实高能CT图像。
此外,本申请提供的第一高能CT图像生成模型的训练方法,可根据不同图像的处理需求调整循环网络的网络结构,例如是调整特征提取层的数量、上采样的方法等,也可以是增加或减少循环网络的网络结构,例如是去除注意力机制或是改变注意力机制的个数或位置,进而使用相应的样本集对结构调整后的循环网络进行训练,使得训练完毕后的循环网络生成的模型,能够满足相应的图像处理需求,例如是用于提升正电子发射型计算机断层显像(PET)、单光子发射计算机断层成像术(SPECT) 等的图像质量。
参阅图4,图4为本申请一种生成高能CT图像的方法一流程示意图。如图4所示,本申请生成高能CT图像的方法包括:
步骤S31:将待处理低能CT图像输入第一高能CT图像生成模型;
在本实施方式中,第一高能CT图像为采用本申请前述任一实施方式提供的第一高能CT图像生成模型的训练方法训练得到的第一高能CT 图像生成模型。
进一步地,在步骤S31之前,还可以包括:
步骤S30:获取待处理低能CT图像;
在本实施方式中,第一高能CT图像生成模型所运行的设备可以直接接收CT扫描设备发送的待处理低能CT图像,或者也可以直接发送获取命令给CT图像数据库服务器。其中,获取命令包括患者信息、检查时间等。CT图像数据库服务器接收到获取命令之后,根据患者信息、检查时间等信息进行检索以得到对应的待处理低能CT图像,并将检索得到的待处理低能CT图像发送给第一高能CT图像生成模型所运行的设备,使得第一高能CT图像生成模型能够获取待处理低能CT图像并运行生成程序。当然,也可以以人工方式或其他方式将待处理低能CT 图像输入循环网络。
在本实施方式中,通过将待处理低能CT图像输入第一高能CT图像生成模型,能够得到金属伪影去除更为彻底,且金属物附近的一些组织结构保留更为完整的高质量高能CT图像。
共同参阅图5、图6和图7,其中,图5为本申请生成高能CT图像的方法一具体应用场景的流程示意图,图6为图5中特征提取层的结构示意图,图7为图5及图6中第一注意力机制和第二注意力机制的结构示意图。
在该具体应用场景中,第一高能CT图像生成模型所在的设备接收到CT扫描设备发送的待处理低能CT图像,并指令第一高能CT图像生成模型执行生成程序。第一高能CT图像生成模型的下采样层包括三层卷积层,分别为卷积层1、卷积层2和卷积层3。其中,卷积层1为7*7 的卷积层,用以对输入的图像进行浅层特征提取,卷积层2和卷积层3 均为3*3的卷积层,用以将上一层卷积层卷积后的特征图尺寸缩小1/2,同时进一步提取图像特征信息,输出第一特征图。
进一步地,第一特征图被输入到第一高能CT图像生成模型的特征提取层,高能CT图像生成模型包括三个特征提取层,每个特征提取层包括三个残差网络和一个3*3的卷积层。其中,每个残差网络包括两层 3*3的卷积层和两个注意力机制。进一步地,上述两层3*3的卷积层通过跳跃连接构成一个残差块。两个注意力机制包括第一注意力机制和第二注意力机制。其中,第一注意力机制包括一个平均池化层和两层3*3 的卷积层,第二注意力机制包括两层3*3的卷积层。上述残差块与第一注意力机制连接后与第二注意力机制连接。
进一步地,上述两个注意力机制可以均为级联跳跃连接,以避免图像组织结构等特征信息的损失。在每个特征提取层,输入的图像首先通过三个残差网络,然后连接至一个3*3的卷积层,以对图像进行降维处理。在高能CT图像生成器网络中,三个特征提取层跳跃连接至一个3*3 的卷积层,以对通过特征提取层的特征图进行降维处理。降维处理后的特征图通过第一注意力机制,然后再通过第二注意力机制,以凸显特征图中重点关注部分的特征信息,得到第二特征图。将第二特征图与第一特征图结合后输入上采样层。
在该具体应用场景中,上采样层包括4层3*3的卷积层,分别为卷积层1、卷积层2、卷积层3和卷积层4。其中,卷积层1和卷积层3在对输入上采样层的特征图进行卷积之前,先利用双线性插值法将特征图尺寸放大两倍,即利用双线性插值法分别将卷积层1、3卷积之前的特征图尺寸放大两倍后,再通过卷积层1、卷积层3进行卷积,卷积层2 和卷积层4分别与下采样层中的卷积层2和卷积层1进行级联,以融合下采样层的特征图信息。
最后,在该具体应用场景中,上采样层的输出图通过融合输出层输出第一高能CT图像。其中,融合输出层包括一层7*7的卷积层,用以对所有特征图的特征信息进行融合,并输出第一高能CT图像。
参阅图8、图9和图10,其中,图8为双能CT扫描得到的待处理低能CT图像,图9为双能CT扫描得到的与图5对应的高能CT图像,图10为采用本申请第一高能CT图像生成模型生成的高能CT图像。可以看出,采用本申请第一高能CT图像生成模型生成的高能CT图像,金属伪影去除较为彻底,且金属物附近的组织结构保留度较好。
参阅表1,表1为上述待处理低能CT图像与本申请生成的高能CT 图像(重建高能CT图像)的图像质量评估参数表,如表1所示,与待处理低能CT图像相比,采用本申请生成高能CT图像的方法得到的第一高能CT图像,在峰值信噪比(PSNR)和结构相似性(SSIM)上均有明显提升,且归一化均方误差(NMSE)更小,证明了采用本申请生成高能CT图像的方法得到的图像更加逼近真实高能CT图像,从而验证了本申请生成高能CT图像的方法的有效性。
表1:待处理低能CT图像与重建高能CT图像的图像质量评估参数表
评估参数 PSNR SSIM NMSE
低能CT图像 24.71 0.6052 0.1007
重建高能CT图像 27.22 0.6452 0.0552
在本实施例中,第一高能CT图像生成模型包括多个特征提取层和多个跳跃连接,能够深层次提取图像特征信息。同时多个特征提取层包括多个残差网络,能够在去除金属伪影的同时,保留金属物附近的组织信息,提高处理图像的质量。同时,本实施方式通过减少残差网络中卷积层层数降低了网络的复杂度,通过级联跳跃连接避免了图像在多次特征提取后的失真问题,可以在去除金属伪影的同时更好的保留金属物附近的组织细节特征。
参阅图11,图11为本申请一种计算机设备的第一实施方式的结构示意框图。本实施方式的计算机设备40可以是服务器或终端。其中,服务器可以为独立的服务器,也可以是服务器集群。终端可以是手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等电子设备。
如图11所示,本实施方式的计算机设备40包括通过系统总线连接的存储器41和处理器42。其中,存储器41可以存储计算机程序。该计算机程序包括程序指令,该程序指令被处理器42执行时,可使得处理器42执行本申请任意一种生成高能CT图像模型的训练方法,或者执行本申请生成高能CT图像的方法。
其中,处理器42用于提供计算和控制能力,支撑整个计算机设备的运行。处理器42可以是中央处理单元(CPU)。处理器42还可以是其他通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本实施方式中关于计算机设备40的更多功能与作用可以参照上述本申请任意一种生成高能CT图像模型的训练方法或者生成高能CT图像模型的方法的描述。
参阅图12,图12为本申请一种计算机设备的第二实施方式的结构示意框图。
如图12所示,本实施方式的计算机设备50包括下采样模块51、特征提取模块52、图像降维模块53、第一注意力模块54、第二注意力模块55、上采样模块56和融合输出模块57。
其中,下采样模块51用于对输入的图像进行下采样,以提取图像特征信息并缩小图像尺寸,生成第一特征图。特征提取模块52用于对第一特征图进行深层特征提取,以获得具有关键信息的特征图。图像降维模块53用于对上述特征图进行降维处理,以简化计算复杂度。第一注意力模块54和第二注意力模块55用于凸显图像重要特征信息。第一特征图通过特征提取模块、图像降维模块、第一注意力模块和第二注意力模块生成第二特征图。第一特征图和第二特征图结合后输入上采样模块56。上采样模块56用于对结合后的特征图进行上采样,以扩大图像尺寸。融合输出模块57用于融合所有特征图的图像信息,并输出目标图像。
作为分离部件说明的模块可以是也可以不是物理上分开的,同样地,作为模块显示的部件可以是也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施方式的目的。
另外,本实施方式中各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,或者是两个或两个以上单元集成在一个单元中。其中集成的单元可以采用硬件形式实现,也可以采用软件功能单元的形式实现。
本实施方式中关于计算机设备50更多模块或者各模块的更多功能可以参照上述本申请任意一种生成高能CT图像模型的训练方法,或者参照上述本申请生成高能CT图像的方法。
参阅图13,图13为本申请一种计算机可读存储介质的结构示意框图。如图13所示,本申请提供的计算机可读存储介质60存储有程序数据61。其中,程序数据61可存储于计算机程序,且上述程序数据61能够被处理器执行,实现本申请任意一种生成高能CT图像模型的训练方法,或者参照上述本申请生成高能CT图像的方法。
在本申请实施方式中,计算机可读存储介质60可以为前述实施方式中任意一种计算机设备的内部存储单元,例如为前述任意一种计算机设备的硬盘或内存。也可以为前述实施方式中的任意一种计算机设备的外部存储设备,例如为计算机设备上的设备的插接式硬盘、智能存储卡、安全数字卡、闪存卡等。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所做的等效结构或等效流程变换,或直接或间接运用在其他相关技术领域,均同理包括在本申请的专利保护范围内。

Claims (11)

1.一种生成高能CT图像模型的训练方法,其特征在于,所述训练方法包括以下步骤:
将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像、再从所述第一高能CT图像转变为第二低能CT图像的训练,得到损失函数;
利用所述损失函数构建第一高能CT图像生成模型。
2.根据权利要求1所述的方法,其特征在于,
所述将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像、再从所述第一高能CT图像转变为第二低能CT图像的训练,得到损失函数的同时,包括:
将训练用高能CT图像输入所述循环网络进行第二高能CT图像转变为第三低能CT图像、再从所述第三低能CT图像转变为第三高能CT图像的训练,得到所述损失函数。
3.根据权利要求2所述的方法,其特征在于,
所述将训练用低能CT图像输入循环网络进行第一低能CT图像转变为第一高能CT图像,包括:
对所述训练用低能CT图像进行下采样,以得到第一特征图;
对所述第一特征图进行多次特征提取,以得到第二特征图;
将所述第一特征图与所述第二特征图结合后输入上采样层进行上采样,以得到所述第一高能CT图像。
4.根据权利要求3所述的方法,其特征在于,
对所述第一特征图进行多次特征提取,以得到第二特征图,包括:
将所述第一特征图输入多个残差网络,并对所述多个残差网络引入注意力机制;
利用卷积层对所述多次特征提取后的输出图进行级联;
对级联后的新的所述输出图引入注意力机制,以得到所述第二特征图。
5.根据权利要求3所述的方法,其特征在于,
将所述第一特征图与所述第二特征图结合后输入上采样层进行上采样,以得到所述第一高能CT图像,包括:
将所述上采样层与所述下采样中相同尺寸的特征图进行级联;
对级联后的新的所述特征图进行上采样;
对所述上采样层的输出结果进行特征融合,以得到所述第一高能CT图像。
6.根据权利要求2所述的方法,其特征在于,
所述再从所述第一高能CT图像转变为第二低能CT图像,包括:
所述第一高能CT图像转变为所述第二低能CT图像的网络结构与所述第一低能CT图像转变为第一高能CT图像的网络结构相同。
7.根据权利要求2所述的方法,其特征在于,
所述利用所述损失函数构建第一高能CT图像生成模型,包括:
利用所述第一高能CT图像的生成损失和所述第二低能CT图像的生成损失、所述第一高能CT图像的判别损失和所述第二低能CT图像的判别损失、所述第一高能CT图像的重建损失和所示第二低能CT图像的重建损失、所述第一低能CT图像的循环损失构建损失函数;和/或,
利用所述第三低能CT图像的生成损失和所述第三高能CT图像的生成损失、所述第三低能CT图像的判别损失和所述第三高能CT图像的判别损失、所述第三低能CT图像的重建损失和所示第三高能CT图像的重建损失、所述第三高能CT图像的循环损失构建损失函数。
8.根据权利要求2所述的方法,其特征在于,
所述利用所述损失函数构建第一高能CT图像生成模型,包括:
利用Adam算法对所述循环网络的各层参数进行迭代优化;
利用样本集对所述循环网络进行训练,以得到所述第一高能CT图像生成模型。
9.一种生成高能CT图像的方法,其特征在于,所述方法包括:
将待处理低能CT图像输入第一高能CT图像生成模型;
其中,所述第一高能CT图像生成模型为采用权利要求1-8任一所述的生成高能CT图像模型的训练方法训练得到的所述第一高能CT图像生成模型。
10.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时实现如权利要求1-8中任一项所述的生成高能CT图像模型的训练方法,或者如权利要求9所述的生成高能CT图像的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1-8中任一所述的生成高能CT图像模型的训练方法,或者如权利要求9所述的生成高能CT图像的方法。
CN202010225463.3A 2020-03-26 2020-03-26 生成高能ct图像模型的训练及生成方法、设备、存储介质 Active CN111489406B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010225463.3A CN111489406B (zh) 2020-03-26 2020-03-26 生成高能ct图像模型的训练及生成方法、设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010225463.3A CN111489406B (zh) 2020-03-26 2020-03-26 生成高能ct图像模型的训练及生成方法、设备、存储介质

Publications (2)

Publication Number Publication Date
CN111489406A true CN111489406A (zh) 2020-08-04
CN111489406B CN111489406B (zh) 2023-11-14

Family

ID=71812492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010225463.3A Active CN111489406B (zh) 2020-03-26 2020-03-26 生成高能ct图像模型的训练及生成方法、设备、存储介质

Country Status (1)

Country Link
CN (1) CN111489406B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034642A (zh) * 2021-03-30 2021-06-25 推想医疗科技股份有限公司 图像重建方法及装置、图像重建模型的训练方法及装置
CN113506353A (zh) * 2021-07-22 2021-10-15 深圳高性能医疗器械国家研究院有限公司 一种图像处理方法、系统及其应用
WO2022027595A1 (zh) * 2020-08-07 2022-02-10 深圳先进技术研究院 利用多尺度特征感知深度网络重建低剂量图像的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016107480A1 (zh) * 2014-12-30 2016-07-07 清华大学 双能射线成像方法和系统
WO2016142796A1 (en) * 2015-03-09 2016-09-15 Koninklijke Philips N.V. Multi-energy (spectral) image data processing
CN109949215A (zh) * 2019-03-29 2019-06-28 浙江明峰智能医疗科技有限公司 一种低剂量ct图像模拟方法
CN110176045A (zh) * 2019-05-05 2019-08-27 东南大学 一种由单能ct图像生成双能ct图像的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016107480A1 (zh) * 2014-12-30 2016-07-07 清华大学 双能射线成像方法和系统
WO2016142796A1 (en) * 2015-03-09 2016-09-15 Koninklijke Philips N.V. Multi-energy (spectral) image data processing
CN109949215A (zh) * 2019-03-29 2019-06-28 浙江明峰智能医疗科技有限公司 一种低剂量ct图像模拟方法
CN110176045A (zh) * 2019-05-05 2019-08-27 东南大学 一种由单能ct图像生成双能ct图像的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENYU YOU ETAL.: "CT Super-resolution GAN Constrained by the Identical, Residual, and Cycle Learning Ensemble(GAN-CIRCLE)" *
WEI ZHAO ETAL.: "Dual-energy CT imaging using a single-energy CT data is feasible via deep learning" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022027595A1 (zh) * 2020-08-07 2022-02-10 深圳先进技术研究院 利用多尺度特征感知深度网络重建低剂量图像的方法
CN113034642A (zh) * 2021-03-30 2021-06-25 推想医疗科技股份有限公司 图像重建方法及装置、图像重建模型的训练方法及装置
CN113034642B (zh) * 2021-03-30 2022-05-27 推想医疗科技股份有限公司 图像重建方法及装置、图像重建模型的训练方法及装置
CN113506353A (zh) * 2021-07-22 2021-10-15 深圳高性能医疗器械国家研究院有限公司 一种图像处理方法、系统及其应用

Also Published As

Publication number Publication date
CN111489406B (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
US11854160B2 (en) CT super-resolution GAN constrained by the identical, residual and cycle learning ensemble (GAN-circle)
JP7179757B2 (ja) ディープ畳み込みニューラルネットワークを使用した医用画像化のための線量低減
CN111325686B (zh) 一种基于深度学习的低剂量pet三维重建方法
US20200294288A1 (en) Systems and methods of computed tomography image reconstruction
US20200210767A1 (en) Method and systems for analyzing medical image data using machine learning
CN111489406B (zh) 生成高能ct图像模型的训练及生成方法、设备、存储介质
CN111179366B (zh) 基于解剖结构差异先验的低剂量图像重建方法和系统
CN112435164B (zh) 基于多尺度生成对抗网络的低剂量ct肺部图像的同时超分辨率和去噪方法
CN107595312B (zh) 模型生成方法、图像处理方法及医学成像设备
Zhou et al. DuDoUFNet: dual-domain under-to-fully-complete progressive restoration network for simultaneous metal artifact reduction and low-dose CT reconstruction
CN111325695B (zh) 基于多剂量等级的低剂量图像增强方法、系统及存储介质
WO2023142781A1 (zh) 图像三维重建方法、装置、电子设备及存储介质
Li et al. Incorporation of residual attention modules into two neural networks for low‐dose CT denoising
KR102472464B1 (ko) 영상처리방법 및 이를 이용한 영상처리장치
CN111340903A (zh) 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统
CN111862255B (zh) 正则化图像重建方法、系统、可读存储介质和设备
CN117813055A (zh) 用于从快速spect扫描和ct图像合成spect图像的多模态和多尺度特征聚合
CN114863225A (zh) 图像处理模型训练方法、生成方法、装置、设备及介质
Trung et al. Dilated residual convolutional neural networks for low-dose CT image denoising
CN114511497A (zh) 应用于锥束ct稀疏采样的成像方法及装置
WO2021189383A1 (zh) 生成高能ct图像模型的训练及生成方法、设备、存储介质
CN110473297B (zh) 图像处理方法、装置、电子设备和存储介质
Shang et al. Short‐Axis PET Image Quality Improvement by Attention CycleGAN Using Total‐Body PET
CN115908610A (zh) 一种基于单模态pet图像获取衰减校正系数图像的方法
Li et al. 4× Super‐resolution of unsupervised CT images based on GAN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant