CN112489158B - 基于cGAN的自适应网络用于低剂量PET图像的增强方法 - Google Patents
基于cGAN的自适应网络用于低剂量PET图像的增强方法 Download PDFInfo
- Publication number
- CN112489158B CN112489158B CN202110042460.0A CN202110042460A CN112489158B CN 112489158 B CN112489158 B CN 112489158B CN 202110042460 A CN202110042460 A CN 202110042460A CN 112489158 B CN112489158 B CN 112489158B
- Authority
- CN
- China
- Prior art keywords
- pet image
- pet
- dose
- network
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/424—Iterative
Abstract
本发明涉及一种基于cGAN的自适应网络用于低剂量PET图像的增强方法,包括以下步骤:对注射符合标准剂量的18F‑FDG示踪剂的患者进行全身扫描,以此获得病人在标准剂量下的全身PET图像;对PET原始数据进行随机部分采样来降低剂量以模拟真实情况下的低剂量示踪剂注射的情况,然后采用与全剂量PET图像重建时相同的重建参数对数据进行重建,包括所有的物理校正;将通过重建后不同剂量的PET图像以及全剂量的标准图像输入到网络中进行训练,使网络能够自动匹配不同低剂量的PET图像并获得接近于标准剂量的图像;对注射有低于标准剂量的示踪剂的患者进行全身扫描,获得低剂量下的PET图像;再将低剂量下的PET图像输入到网络模型中进行增强,即可获得清晰的全身PET图像。
Description
技术领域
本发明涉及一种图像处理和深度学习的方法,具体地说是一种基于cGAN的自适应网络用于低剂量PET图像的增强方法。
背景技术
随着科技的不断发展,人工智能技术越来越多的被应用于医疗诊断,以希望通过人工智能技术帮助医生更好的诊断。正电子发射断层扫描作为一种核医学成像技术,可实现人体代谢过程的可视化。目前该技术已经在临床获得应用,如诊断、分期和治疗监测等。为了获得高质量的用于诊断的PET图像,根据患者的体重,通常给患者注射5~10mCi剂量的18F-FDG示踪剂。然而,PET扫描一般需要较长时间的放射性环境暴露,对患者存在有辐射损伤。临床中对某些病患(例如孕妇或儿童等特殊人群)的辐射剂量需要格外的注意。因此,在临床实践中,人们希望将示踪剂的注射剂量尽可能合理的降低。而降低示踪剂的注射剂量不仅意味着风险的降低,同时还可以降低成像成本,缩短成像时间。但是,示踪剂注射剂量的降低,会导致成像过程中的噪声和伪影的增加,从而降低了PET图像的质量,影响医生对患者的诊断。因此,如果能够从低剂量下的PET图像得到高质量的标准剂量下的PET图像,在临床实践中是非常寄希的。
现有的低剂量PET图像去噪方法虽然表现出较好的去噪性能,但仍存在一定的局限性。对于涉及多模态信息融合的方法,PET图像与MR或者CT不匹配,可能会导致伪影和噪声的增加。并且每种网络都是只针对了单一种类低剂量的PET图像,无法实现在不同剂量上的低剂量PET图像生成,这也大大限制了其应用的广泛程度。
发明内容
本发明的目的就是提供一种基于GAN的自适应网络用于低剂量PET图像的增强方法,以解决现有网络只能针对单一种类低剂量的PET图像而无法实现在不同剂量上均可生成低剂量PET图像的问题。
本发明的目的是这样实现的:一种基于GAN的自适应网络用于低剂量PET图像的增强方法,包括以下步骤:
a、对注射有符合标准剂量的示踪剂的患者进行全身扫描,以此获得患者在标准剂量下的全身的PET图像;
b、对标准剂量下的全身的PET图像的原始数据进行随机部分采样,以模拟真实情况下对患者注射低于标准剂量的示踪剂的情况;
c、采用与标准剂量下的PET图像重建时相同的重建参数,对上述随机部分采样获得的采样数据进行重建,重建包括含有衰减校正、散射校正和随机校正在内的所有物理校正,以此获得若干重建后不同剂量下的PET图像;
d、将通过重建后不同剂量下的PET图像与标准剂量下的PET图像分别输入到网络模型中,通过网络训练,使网络模型能够自动匹配出不同低剂量下的PET图像,并获得接近于标准剂量下的PET图像;
e、对注射有低于标准剂量示踪剂的患者进行全身扫描,以此获得患者在低剂量下的全身的PET图像;再将低剂量下的PET图像输入到网络模型中进行增强,即可输出清晰的PET图像。
所述网络模型包括:
生成器
G,采用Unet网络分别构成解码器和编码器,用于将低剂量下的PET图像X转化为清晰的PET图像
G (X);
判别器
D,采用PatchGAN中所采用的鉴别器,用于判断在整幅PET图像中N×N大小的patch的真伪;以及
自适应模块,用于为生成器
G赋予不同的权重,以对不同剂量下的PET图像均能够进行增强。
所述编码器包括有5个卷积块和4个池化层,其中,卷积块与池化层交叠分布;所述解码器包括有5个卷积块和4个池化层,其中,卷积块与池化层交叠分布。
编码器中的卷积块由两层相同的卷积层组成,卷积层的卷积核为3×3,步长为1,padding为1,以ReLU做激活函数;解码器中的卷积块由两层相同的卷积层组成,卷积层的卷积核为3×3,步长为1,padding为1,以ReLU做激活函数。
解码器中的卷积块进行反卷积操作,输出低剂量下的PET图像的噪声分布,将原有的低剂量下的PET图像减去所获得的对应低剂量下的PET图像的噪声分布,即获取高质量的PET图像;将获取的高质量的PET图像与所对应的低剂量下的PET图像送入卷积核为4、步长为2、padding为1的三层卷积层中,逐步增大其感知视野,然后再使其通过卷积核为4、步长为1的一层卷积层,以映射为一维输出;在此过程中均采用LReLU做激活函数。
所述自适应模块用于为生成器
G中的编码器的卷积层赋予不同的权重,以对不同剂量下的PET图像均能够进行增强。
所述自适应模块的网络结构为:
第一层:采用自适应平均池化层,输出尺寸为16×16,通道数为1;
第二层:采用全连接层,输出为一维数组,大小为512,并且使用RELU作为激活函数;
第三层:采用全连接层,输出为一维数组,大小为5;
第四层:采用sigmoid激活函数层,输出为赋予生成器UNET的编码器的不同尺度卷积层的权重值。
所述网络训练包括以下步骤:
d-1、训练生成器
G,训练次数以生成器
G的参数达到不变时为止;
d-2、训练判别器
D,训练次数以判别器
D的参数达到不变时为止;
d-3、继续训练生成器
G,直到其损失函数
G *达到最小化,即完成对网络模型的训练;
cGAN网络与传统的GAN的主要区别在于添加了一个约束性条件y,cGAN的损失函数如公式1所示
(1)
其中:
E表示期望,
D(
x|y)表示判别器对真实的样本进行判别,z是随机输入的噪声,
G(z|y)表示生成的假数据,
D(
G(z|y))表示判别器对于假数据的判别结果。
生成器的损失函数
G *的计算如公式2所示:
(2)
其中,
min G 是生成器
G的最小化损失函数,
max D 是判别器
D的最大化损失函数,
ƛ 1是…的系数,
Ƚ cGAN (
D,
G)是cGAN的损失函数,
Ƚ L1(
G)是距离L1 Loss,即平均绝对误差。
本发明通过设计一种自适应权重分配模块,可以根据所提供先验知识(所采用的不同剂量)为生成器UNET的编码器的卷积层动态赋予权重,使本发明所提出的网络模型能够对多种剂量的PET图像进行同时去噪,从而得到高质量的PET图像,由此解决了深度学习中所训练的单一模型只能用于单一剂量的PET图像去噪任务的弊端。
实验表明,本发明能够有效地将不同低剂量下的PET图像通过自适应模块,来匹配不同的权重,并生成高质量的PET图像。本发明增强方法可以有效地将不同低剂量下的PET图像生成清晰的PET图像,有助于医生对患者病情的诊断。
本发明解决了深度学习中所训练的单一模型只能用于单一剂量的PET图像去噪任务的弊端,并且对不同低剂量下的PET图像均有很好的增强作用。
附图说明
图1是本发明方法的流程框图。
图2是基础网络框架的结构示意图。
图3是Unet网络结构示意图。
图4是加入自适应模块的生成器网络结构示意图。
图5是判别器的网络结构示意图。
具体实施方式
如图1所示,本发明基于cGAN的自适应网络用于低剂量PET图像的增强方法包括以下步骤:
1、对注射有符合标准剂量的示踪剂的患者进行全身扫描,以此获得患者在标准剂量下的全身的PET图像;
2、对标准剂量下的PET图像的原始数据进行随机部分采样,以模拟真实情况下对患者注射低于标准剂量的示踪剂的情况;
3、采用与标准剂量下的PET图像重建时相同的重建参数,对上述随机部分采样获得的采样数据进行重建,重建包括含有衰减校正、散射校正和随机校正在内的所有物理校正;
4、将通过重建后不同剂量下的PET图像与标准剂量下的PET图像分别输入到网络模型中,通过网络训练,使网络模型能够自动匹配不同低剂量下的PET图像,并获得接近于标准剂量下的PET图像;
5、对注射有低于标准剂量示踪剂的患者进行全身扫描,以此获得患者在低剂量下的全身的PET图像;再将低剂量下的PET图像输入到网络模型中进行增强,即可输出清晰的PET图像。
具体包括以下步骤:
1、数据集的构建:包括训练集的构建和测试集的构建。
训练集包括X和Y两种类型的PET图像;其中,X为低剂量下的PET图像,包括1/4、1/10、1/20剂量下的PET图像;Y为标准剂量下的清晰PET图像。X类型的PET图像与Y类型的PET图像之间存在患者扫描部位一一对应的关系。
测试集只有低剂量下的PET图像,与训练集中的X类型相一致。
2、网络模型的构建:
如图2所示,本发明方法中的基础网络框架为传统的条件生成对抗网络。网络模型包括生成器
G、判别器
D和自适应模块三个组成部分。其中,生成器
G采用Unet网络分别构成解码器和编码器,用于将低剂量下的PET图像X转化为清晰的PET图像
G (X);判别器
D采用PatchGAN中所采用的鉴别器,用于判断在整幅PET图像中N×N大小的patch的真伪;自适应模块用于对生成器
G的Unet中的卷积层赋予不同的权重,以使不同剂量下的PET图像均能够进行增强。生成器
G在训练过程中的目标是制造假的图片,让判别器
D无法判断真假,判别器
D在训练过程中的目标是区分真假PET图像样本。
2.1、生成器
G的详细网络结构是:如图3所示,采用传统的Unet网络分别构成解码器和编码器,其中,编码器包括有5个卷积块和4个池化层,具体是:
第一层为卷积块,输出尺寸为288×288,通道数为32;
第二层为池化层,输出尺寸为144×144,通道数为32;
第三层为卷积块,输出尺寸为144×144,通道数为64;
第四层为池化层,输出尺寸为72×72,通道数为64;
第五层为卷积块,输出尺寸为72×72,通道数为128;
第六层为池化层,输出尺寸为36×36,通道数为128;
第七层为卷积块,输出尺寸为36×36,通道数为256;
第八层为池化层,输出尺寸为18×18,通道数为256;
第九层为卷积块,输出尺寸为18×18,通道数为512。
可见,卷积块与池化层是交叠分布,可输入288×288×1的图像。编码器中的卷积块由两层相同的卷积层组成,卷积层的卷积核为3×3,步长为1,padding为1,以ReLU做激活函数。
解码器也包括有5个卷积块和4个池化层,其结构基本同上,也是卷积块与池化层交叠分布。解码器中的卷积块进行反卷积操作,输出低剂量下的PET图像的噪声分布,将原有的低剂量下的PET图像减去所获得的对应低剂量下的PET图像的噪声分布,即获取高质量的PET图像;将获取的高质量的PET图像与所对应的低剂量下的PET图像送入卷积核为4、步长为2、padding为1的三层卷积层中,逐步增大其感知视野,然后再使其通过卷积核为4、步长为1的一层卷积层,以映射为一维输出;在此过程中均采用LReLU做激活函数。
2.2、判别器
D的详细网络结构(图5)是:判别器
D采取的是PatchGAN中所采用的鉴别器策略。传统GAN网络中的鉴别器是用于感知生成器合成图片与ground-truth的差异,并旨在实现区分出fake or real,其输出结果是一个整体图片的加权值,无法体现出局部图像的特征。而PatchGAN的思路是去判断在整幅图像中N×N大小的patch真伪。
判别器
D将生成的高质量的PET图像与其对应的低剂量的PET图像送入卷积核为4、步长为2、padding为1的三层卷积层中,逐步增大其感知视野,然后再使其通过卷积核为4、步长为1的一层卷积层来映射成为一维输出。在此过程中均采用LReLU做激活函数。
2.3、自适应模块的详细网络结构是(图4):
第一层为自适应平均池化层,其输出尺寸为16×16,通道数为1;
第二层为全连接层,其输出为一维数组,输出尺寸为512,并且使用RELU作为激活函数;
第三层为全连接层,其输出为一维数组,输出尺寸为5;
第四层为sigmoid激活函数层,其输出为赋予生成器UNET的编码器的不同尺度卷积层的权重值。
3、网络训练:
数据主要分为训练集和测试集。使用36368张图片作为训练集,其中27276张图片为低剂量的PET图像,包含1/4、1/10、1/20剂量下的PET图像各9092张,另外9092张为清晰的标准剂量下的PET图像。
测试集使用3895张低剂量下的PET图像。
训练集和测试的图像尺寸都是288×288。所有的实验均是在一个装有NVIDIARTX2080Ti 11G×8的服务器上进行,并且深度学习网络均是基于pytorch实现,训练的所有网络均使用adam优化器。
对于GAN网络的训练,采用的方法为单独交替迭代训练。首先训练生成器
G,将低剂量PET图像输入GAN网络,使生成器
G输出一个假的样本集(此时效果不一定为最佳);固定生成器
G,再训练判别器
D,训练过程为一个有监督的二分类问题,训练次数以判别器
D的参数达到不变时为止。当判别器
D训练达到一定的训练次数后,判别器
D的参数保持不变,继续训练生成器
G;如此循环往复,直到生成器
G的损失函数
G *达到最小化,即完成对网络模型的训练。
利用训练完成的网络模型能够对不同低剂量的PET图像进行增强,并获得清晰的PET图像。最终,通过原有的低剂量PET图像减去所获得的噪声分布来获取最终的高质量的PET图像。
Claims (4)
1.一种基于cGAN的自适应网络用于低剂量PET图像的增强方法,其特征在于,包括以下步骤:
a、对注射有符合标准剂量的示踪剂的患者进行全身扫描,以此获得患者在标准剂量下的全身的PET图像;
b、对标准剂量下的PET图像的原始数据进行随机部分采样,以模拟真实情况下对患者注射低于标准剂量的示踪剂的情况;
c、采用与标准剂量下的PET图像重建时相同的重建参数,对上述随机部分采样获得的采样数据进行重建,重建包括含有衰减校正、散射校正和随机校正在内的物理校正,以此获得若干重建后不同剂量下的PET图像;
d、将通过重建后不同剂量下的PET图像与标准剂量下的PET图像分别输入到网络模型中,通过网络训练,使网络模型能够自动匹配不同低剂量下的PET图像,并获得接近于标准剂量下的PET图像;
e、对注射有低于标准剂量示踪剂的患者进行全身扫描,以此获得患者在低剂量下的全身的PET图像;再将低剂量下的PET图像输入到网络模型中进行增强,即可输出清晰的PET图像,
所述网络模型包括:
生成器G,采用Unet网络分别构成解码器和编码器,用于将低剂量下的PET图像X转化为清晰的PET图像G(X);
判别器D,采用PatchGAN中所采用的鉴别器,用于判断在整幅PET图像中N×N大小的patch的真伪;以及自适应模块,用于为生成器G赋予不同的权重,以对不同剂量下的PET图像均能够进行增强,
解码器中的卷积块进行反卷积操作,输出低剂量下的PET图像的噪声分布,将原有的低剂量下的PET图像减去所获得的对应低剂量下的PET图像的噪声分布,即获取高质量的PET图像;将获取的高质量的PET图像与所对应的低剂量下的PET图像送入卷积核为4、步长为2、padding为1的三层卷积层中,逐步增大其感知视野,然后再使其通过卷积核为4、步长为1的一层卷积层,以映射为一维输出;在此过程中均采用LReLU做激活函数,
所述自适应模块的网络结构为:
第一层:采用自适应平均池化层,输出尺寸为16×16,通道数为1;
第二层:采用全连接层,输出为一维数组,大小为512,并且使用ReLU作为激活函数;
第三层:采用全连接层,输出为一维数组,大小为5;
第四层:采用sigmoid激活函数层,输出为赋予生成器UNET的编码器的不同尺度卷积层的权重值,
所述网络训练包括以下步骤:
d-1、训练生成器G,训练次数以生成器G的参数达到不变时为止;
d-2、训练判别器D,训练次数以判别器D的参数达到不变时为止;
d-3、继续训练生成器G,直到其损失函数G*达到最小化,即完成对网络模型的训练。
2.根据权利要求1所述的基于cGAN的自适应网络用于低剂量PET图像的增强方法,其特征在于,所述编码器包括有5个卷积块和4个池化层,其中,卷积块与池化层交叠分布。
3.根据权利要求2所述的基于cGAN的自适应网络用于低剂量PET图像的增强方法,其特征在于,编码器中的卷积块由两层相同的卷积层组成,卷积层的卷积核为3×3,步长为1,padding为1,以ReLU卷积核为3×3,步长为1,padding为1,以ReLU做激活函数。
4.根据权利要求1所述的基于cGAN的自适应网络用于低剂量PET图像增强的方法,其特征在于,所述自适应模块用于为生成器G中的编码器的卷积层赋予不同的权重,以对不同剂量下的PET图像均能够进行增强。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110042460.0A CN112489158B (zh) | 2021-01-13 | 2021-01-13 | 基于cGAN的自适应网络用于低剂量PET图像的增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110042460.0A CN112489158B (zh) | 2021-01-13 | 2021-01-13 | 基于cGAN的自适应网络用于低剂量PET图像的增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112489158A CN112489158A (zh) | 2021-03-12 |
CN112489158B true CN112489158B (zh) | 2023-05-12 |
Family
ID=74912416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110042460.0A Active CN112489158B (zh) | 2021-01-13 | 2021-01-13 | 基于cGAN的自适应网络用于低剂量PET图像的增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112489158B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298807A (zh) * | 2021-06-22 | 2021-08-24 | 北京航空航天大学 | 一种计算机断层扫描图像处理方法及装置 |
CN113808106B (zh) * | 2021-09-17 | 2023-05-30 | 浙江大学 | 一种基于深度学习的超低剂量pet图像重建系统及方法 |
CN115375583A (zh) * | 2022-09-09 | 2022-11-22 | 深圳先进技术研究院 | 一种pet参数图像的增强方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108897740A (zh) * | 2018-05-07 | 2018-11-27 | 内蒙古工业大学 | 一种基于对抗神经网络的蒙汉机器翻译方法 |
CN110717951A (zh) * | 2019-09-12 | 2020-01-21 | 浙江大学 | 一种基于cGANs的PET图像直接重建方法 |
CN111325686A (zh) * | 2020-02-11 | 2020-06-23 | 之江实验室 | 一种基于深度学习的低剂量pet三维重建方法 |
CN111985340A (zh) * | 2020-07-22 | 2020-11-24 | 深圳市威富视界有限公司 | 基于神经网络模型的人脸识别方法、装置和计算机设备 |
-
2021
- 2021-01-13 CN CN202110042460.0A patent/CN112489158B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108897740A (zh) * | 2018-05-07 | 2018-11-27 | 内蒙古工业大学 | 一种基于对抗神经网络的蒙汉机器翻译方法 |
CN110717951A (zh) * | 2019-09-12 | 2020-01-21 | 浙江大学 | 一种基于cGANs的PET图像直接重建方法 |
CN111325686A (zh) * | 2020-02-11 | 2020-06-23 | 之江实验室 | 一种基于深度学习的低剂量pet三维重建方法 |
CN111985340A (zh) * | 2020-07-22 | 2020-11-24 | 深圳市威富视界有限公司 | 基于神经网络模型的人脸识别方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112489158A (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112489158B (zh) | 基于cGAN的自适应网络用于低剂量PET图像的增强方法 | |
JP7179757B2 (ja) | ディープ畳み込みニューラルネットワークを使用した医用画像化のための線量低減 | |
Zhang et al. | Improving CBCT quality to CT level using deep learning with generative adversarial network | |
CN112424835B (zh) | 用于图像重建的系统和方法 | |
US10964072B2 (en) | Methods, systems, and media for noise reduction in computed tomography images | |
CN112368738B (zh) | 用于图像优化的系统和方法 | |
JP2020036877A (ja) | 反復的画像再構成フレームワーク | |
EP3566207A1 (en) | Deep learning based estimation of data for use in tomographic reconstruction | |
CN113808106B (zh) | 一种基于深度学习的超低剂量pet图像重建系统及方法 | |
CN112381741B (zh) | 基于spect数据采样与噪声特性的断层图像重建方法 | |
CN103136773A (zh) | 一种稀疏角度x射线ct成像方法 | |
CN114723842B (zh) | 基于深度融合神经网络的稀疏视角ct成像方法和设备 | |
Xue et al. | LCPR-Net: low-count PET image reconstruction using the domain transform and cycle-consistent generative adversarial networks | |
CN112470190A (zh) | 用于改进低剂量体积对比增强mri的系统和方法 | |
Shao et al. | A learned reconstruction network for SPECT imaging | |
CN107909618A (zh) | 图像重建系统和方法 | |
CN108596995A (zh) | 一种pet-mri最大后验联合重建方法 | |
CN115205406A (zh) | 用于利用深度学习网络来校正计算机断层摄影检测器中的不良像素的系统和方法 | |
Wang et al. | Texture‐aware dual domain mapping model for low‐dose CT reconstruction | |
Clark et al. | Deep learning based spectral extrapolation for dual‐source, dual‐energy x‐ray computed tomography | |
Khaleghi et al. | Metal artifact reduction in computed tomography images based on developed generative adversarial neural network | |
US20230360312A1 (en) | Systems and methods for image processing | |
Shi et al. | Conversion of the Mayo LDCT data to synthetic equivalent through the diffusion model for training denoising networks with a theoretically perfect privacy | |
Kim et al. | CNN-based CT denoising with an accurate image domain noise insertion technique | |
Amirian et al. | Mitigation of motion‐induced artifacts in cone beam computed tomography using deep convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |