CN113487503A - 一种基于通道注意力生成对抗网络的pet超分辨率方法 - Google Patents

一种基于通道注意力生成对抗网络的pet超分辨率方法 Download PDF

Info

Publication number
CN113487503A
CN113487503A CN202110749087.2A CN202110749087A CN113487503A CN 113487503 A CN113487503 A CN 113487503A CN 202110749087 A CN202110749087 A CN 202110749087A CN 113487503 A CN113487503 A CN 113487503A
Authority
CN
China
Prior art keywords
layer
resolution
convolution
data set
srgan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110749087.2A
Other languages
English (en)
Inventor
周芃
林毅
李学俊
王华彬
韩先君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202110749087.2A priority Critical patent/CN113487503A/zh
Publication of CN113487503A publication Critical patent/CN113487503A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]

Abstract

本发明提供了一种基于通道注意力生成对抗网络的PET超分辨率方法。该方法包括:步骤一.获取高分辨率的训练数据集和测试数据集;步骤二.获取低分辨率的训练数据集和测试数据集;步骤三.在超分辨率生成对抗网络(Super Reso l ut i on Generat i ve Adversar i a l Network,SRGAN)的生成器中用残差通道注意力块取代残差块,得到通道注意力超分辨率生成对抗网络;步骤四.用像素级的均方误差损失改进SRGAN的感知损失;步骤五.对网络进行训练;步骤六.用图像质量评价指标对网络进行评价。本发明在SRGAN的基础上加入了通道注意力机制,使得生成器网络更加关注含有丰富高频信息的通道,增加了卷积神经网络的表征能力。同时,用像素级的均方误差损失改进SRGAN的感知损失,进一步提高了重建图像的质量。

Description

一种基于通道注意力生成对抗网络的PET超分辨率方法
技术领域
本发明属于医学图像处理领域,尤其涉及一种基于通道注意力生成对抗网络的PET图像超分辨率方法。
背景技术
正电子发射断层成像(Positron Emission Tomography,PET),是核医学领域比较先进的临床检查影像技术。PET的大致方法是,将生物生命代谢中必须的某种物质,如:葡萄糖、蛋白质、核酸、脂肪酸等,标记上短寿命的放射性核素(如18F,11C等),注入人体后,通过该物质在代谢中的聚集,来反映生命代谢活动的情况,从而达到医学成像的目的。
清晰的高分辨率的PET图像能够帮助医生更好的诊断疾病,然而受到PET物理成像设备以及核素剂量的限制,生成的PET图像往往是不清晰的。图像超分辨率(SuperResolution,SR)算法可以从软件角度来提高PET图像的分辨率。
传统的图像超分辨率方法主要有基于插值的方法,基于建模的方法和基于机器学习的方法,其中基于插值的方法和基于建模的方法都是根据先验知识来提高图像的分辨率,成像效果往往不太理想,基于机器学习的方法所需样本集过大且重建耗时较长。2014年,Dong等人提出了一个含有三个卷积层的网络-SRCNN(Super ResolutionConvolutional Neural Network),首次将深度学习用于图像超分辨率,此后,基于深度学习的图像超分辨率网络不断出现并改进,如VDSR(Very Deep Convolutional Networksfor Super Resolution),RCAN(Residual Channel Attention Networks)等。这些模型在图像质量评价指标如峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和结构相似性(Structural Similarity,SSIM)上有着不错的效果,但是视觉感知质量比较差。2016,Ledig等人使用生成对抗网络来实现图像的超分辨,提出了SRGAN,然而,SRGAN平等的对待所有通道,忽略了图像中的高频信息,阻碍了卷积神经网络的表征能力,因此SRGAN在恢复图像的高频信息上仍然具有上升空间。
发明内容
本发明的目的在于解决上述现有技术存在的缺陷,提供一种基于通道注意力生成对抗网络的PET超分辨方法,在PET成像过程中,由于受到硬件设备和核素剂量的限制,生成的图像往往是不清晰的,分辨率低且边缘部分比较模糊。
本发明采用如下技术方案:
本发明提供一种基于通道注意力生成对抗网络的PET超分辨率方法,包括如下步骤:
步骤一.获取高分辨率PET数据集,将数据集分为高分辨率训练数据集和高分辨率测试数据集;
步骤二.将步骤一中高分辨率的训练数据集和测试数据集中的PET图像进行双三次下采样,得到低分辨率训练数据集和低分辨率测试数据集;
步骤三.在超分辨率生成对抗网络(Super Resolution Generative AdversarialNetwork,SRGAN)的生成器中,用残差通道注意力块(Residual Channel Attention Block,RCAB)取代残差块,得到通道注意力超分辨率生成对抗网络(Channel Attention SuperResolution Generative Adversarial Network,CA-SRGAN);
步骤四.用像素级的均方误差(Mean Square Error,MSE)损失来改进SRGAN的感知损失,CA-SRGAN的损失函数包括像素级的MSE损失,内容损失和对抗损失三个部分;
步骤五.用步骤一中高分辨率训练数据集和步骤二中低分辨率训练数据集对CA-SRGAN进行训练;
步骤六:用步骤一中高分辨率测试数据集和步骤二中低分辨率测试数据集对所提出的CA-SRGAN进行验证,并用图像质量评价指标对网络进行评价。
进一步的,步骤一中,对高分辨率训练数据集中的PET图像进行随机裁剪来实现数据的增强。
进一步的,步骤二中,采用python中BICUBIC函数对图像进行下采样,同时对低分辨率训练数据集中的图像进行随机裁剪。
进一步的,步骤三中,所述CA-SRGAN包括生成器模块和判别器模块:
所述CA-SRGAN的生成器模块的结构依次为:一个卷积核大小为9×9,个数为64,步长为1的卷积层,一个参数化修正线性单元(Parametric Rectified Linear Unit,PRelu)激活层,6个结构相同的RCAB,一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个批归一化层,一个按元素求和的跳跃连接层,两个上采样层和一个卷积核大小为9×9,个数为1,步长为1的卷积层。
所述CA-SRGAN的判别器模块的结构依次为:一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个带泄露修正线性单元(Leaky Rectified Linear Unit,Leaky Relu)激活层,7个组合层,一个1024维的全连接层,一个Leaky Relu激活层,一个1维的全连接层,一个Sigmoid激活层。
其中,每个组合层由卷积层,批归一化层,激活层组成,卷积层的卷积核的大小均为3×3,卷积核的个数依次为64,128,128,256,256,512,512,步长依次为2,1,2,1,2,1,2。激活层均为Leaky Relu层。
所述RCAB的结构依次为:一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个修正线性单元(Rectified Linear Unit,Relu)激活层,一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个通道注意力层,一个按元素求和跳跃连接层。
所述通道注意力层的结构依次为:一个全局平均池化层,一个卷积核大小1×1,个数为4,步长为1的卷积层,一个Relu激活层,一个卷积核大小为1×1,个数为64,步长为1的卷积层,一个Sigmoid激活层,一个按元素求积跳跃连接层。
所述上采样层结构依次为:一个卷积核大小为3×3,个数为256,步长为1的卷积层,一个2倍上采样的亚像素层,一个PRelu激活层。
进一步的,步骤四中,用像素级的MSE损失来改进SRGAN的感知损失,CA-SRGAN的损失函数LSR表示为:
Figure BDA0003143794120000031
其中,λ,μ为超参数,
Figure BDA0003143794120000041
表示像素级的MSE损失,表示为:
Figure BDA0003143794120000042
其中,r表示放大因子,W,H分别表示图像的宽和高,IHR,ILR分别表示高分辨率图像和低分辨率图像,GθG(ILR)表示生成的超分辨率图像,
Figure BDA0003143794120000043
GθG(ILR)x,y分别表示高分辨率图像和超分辨率图像像素点的值。
Figure BDA0003143794120000044
表示内容损失,使用在VGG19中预训练的模型提取图像特征,得到特征图并计算损失,
Figure BDA0003143794120000045
为使用VGG19网络中第i个最大池化层之前的第j个卷积层操作所得到的损失函数,表示为:
Figure BDA0003143794120000046
其中,Wi,j,Hi,j表示VGG19网络中各个特征图的尺寸,φi,j表示VGG19网络中,第i个最大池化层之前的第j个卷积层操作。
Figure BDA0003143794120000047
表示对抗损失,表示为:
Figure BDA0003143794120000048
其中,DθD(GθG(ILR))表示判别器判别超分辨率图像GθG(ILR)为真实高分辨率图像的概率。
本发明的有益效果:
本发明在SRGAN的基础上,在生成器中加入了通道注意力机制,使得生成器网络更加关注含有丰富高频信息的通道,能够恢复出PET图像更加清晰的边缘部分,便于医生更好的诊断疾病。同时,用像素级的MSE损失来改进SRGAN的感知损失,进一步提高了生成的超分辨率PET图像的质量。
附图说明
图1(a)-图1(b)为CA-SRGAN网络结构图;
图1(a)、图1(b)中,k表示卷积核大小,n表示卷积核的个数,s表示卷积核的步长;
图2为RCAB网络结构图;
图2中,k表示卷积核大小,n表示卷积核的个数,s表示卷积核的步长;
图3(a)-图3(d)是不同超分辨率方法重建的PET图像,图3(e)是高分辨率PET图像;
图3(a)是Nearest,图3(b)是Bicubic,图3(c)是SRGAN,图3(d)是CA-SRGAN,图3(e)是HR PET;
图4为本发明的步骤流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出的一种基于通道注意力生成对抗网络的PET超分辨率方法,在SRGAN的基础上加入了通道注意力机制,使得生成器网络更加关注含有丰富高频信息的通道,增加了卷积神经网络的表征能力。同时,用像素级的MSE损失来改进SRGAN的感知损失,进一步提高了重建图像的质量。
如图1(a)-4所示,本发明提供了一种基于通道注意力生成对抗网络的PET超分辨率方法,包括如下步骤:
步骤一.获取脑PET数据集,并将脑PET数据集分为高分辨率训练数据集和高分辨率测试数据集,其中训练数据集图片3000张,测试数据集图片为100张,同时将训练数据集中的图片进行随机裁剪,裁剪尺寸为88像素×88像素。
步骤二.将步骤一中高分辨率的训练数据集和测试数据集中的PET图像使用python中PIL模块中的BICUBIC函数进行4倍下采样,得到低分辨率训练数据集和低分辨率测试数据集,同时对低分辨率训练数据集中的图像进行88像素×88像素的随机裁剪。
步骤三.在SRGAN的生成器中,用RCAB取代残差块,得到CA-SRGAN。
如图1(a)-图1(b)所示,所述CA-SRGAN的生成器模块的结构依次为:一个卷积核大小为9×9,个数为64,步长为1的卷积层,一个PRelu激活层,6个结构相同的RCAB,一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个批归一化层,一个按元素求和的跳跃连接层,两个上采样层和一个卷积核大小为9×9,个数为1,步长为1的卷积层。
所述CA-SRGAN的判别器模块的结构依次为:一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个Leaky Relu激活层,7个组合层,一个1024维的全连接层,一个LeakyRelu激活层,一个1维的全连接层,一个Sigmoid激活层。
其中,每个组合层由卷积层,批归一化层,激活层组成,卷积层的卷积核的大小均为3×3,卷积核的个数依次为64,128,128,256,256,512,512,步长依次为2,1,2,1,2,1,2。激活层均为Leaky Relu层。
如图2所示,所述RCAB结构依次为:一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个Relu激活层,一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个通道注意力层,一个按元素求和的跳跃连接层。
所述通道注意力层的结构依次为:一个全局平均池化层,一个卷积核大小1×1,个数为4,步长为1的卷积层,一个Relu激活层,一个卷积核大小为1×1,个数为64,步长为1的卷积层,一个Sigmoid激活层,一个按元素求积跳跃连接层。
所述上采样层结构依次为:一个卷积核大小3×3,个数为256,步长为1的卷积层,一个2倍上采样的亚像素层,一个PRelu层。
步骤四:用像素级的MSE损失来改进SRGAN的感知损失,CA-SRGAN的损失函数LSR包括像素级的MSE损失,内容损失和对抗损失三个部分。
Figure BDA0003143794120000061
其中,λ,μ为超参数,LSR表示CA-SRGAN的损失函数,
Figure BDA0003143794120000062
表示像素级的MSE损失,表示为:
Figure BDA0003143794120000071
其中,r表示放大因子,W,H分别表示图像的宽和高,IHR,ILR分别表示高分辨率图像和低分辨率图像,GθG(ILR)表示生成的超分辨率图像,
Figure BDA0003143794120000072
GθG(ILR)x,y分别表示高分辨率图像和超分辨率图像像素点的值。
Figure BDA0003143794120000073
表示内容损失,使用在VGG19中预训练的模型提取图像特征,得到特征图并计算损失,
Figure BDA0003143794120000074
为使用VGG19网络中第i个最大池化层之前的第j个卷积层操作所得到的损失函数,表示为:
Figure BDA0003143794120000075
其中,Wi,j,Hi,j表示VGG19网络中各个特征图的尺寸,φi,j表示VGG19网络中,第i个最大池化层之前的第j个卷积层操作。
Figure BDA0003143794120000076
表示对抗损失,表示为:
Figure BDA0003143794120000077
其中,DθD(GθG(ILR))表示判别器判别超分辨率图像GθG(ILR)为真实高分辨率图像的概率。
步骤五:用步骤一中高分辨率训练数据集和步骤二中低分辨率训练数据集对CA-SRGAN进行训练。其中各类参数设置的情况为:batchsize设置为16,训练轮数为200,损失函数的系数为λ=6×10-3,μ=1×10-3,优化器使用Adam,学习率为1×10-3,β1=0.9,β2=0.999,在pytorch框架和英伟达RTX 2070S平台上训练模型。
步骤六:用步骤一中高分辨率测试数据集和步骤二中低分辨率测试数据集对所提出的CA-SRGAN进行验证,并用图像质量评价指标对网络进行评价。PSNR和SSIM作为图像质量评价指标,能够从客观角度评估图像的质量,同时使用平均意见指数(Mean OpinionScore,MOS)从主观角度评估图像质量,将本方法和基于插值的方法,基于SRGAN的方法进行对比,实验结果如表1所示:
表1 图像质量评价指标值
Nearest Bicubic SRGAN CA-SRGAN
PSNR 34.2820 38.4788 39.6902 39.8650
SSIM 0.9360 0.9665 0.9747 0.9745
MOS 1.5 1.8 3.6 4.1
可以看到,本发明提出的CA-SRGAN不仅在PSNR和SSIM上有着不弱于SRGAN的表现,且在MOS上明显高于其他算法。
不同的超分辨率方法重建图像如图3(a)-图3(d)所示,可以看到,基于最邻近插值法(Nearest),双三次插值法(Bicubic)生成的PET图像质量较差,纹理不清晰,基于SRGAN生成的PET图像质量相较于Nearest和Bicubic有了明显的提升,但是边缘部分比较模糊,本发明提出的CA-SRGAN生成的PET图像纹理清晰,且边缘部分比较明显,证明了该方法的有效性。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (3)

1.一种基于通道注意力生成对抗网络的PET超分辨率方法,其特征在于,包括如下步骤:
步骤一.获取高分辨率PET数据集,将数据集分为高分辨率训练数据集和高分辨率测试数据集;
步骤二.将步骤一中高分辨率的训练数据集和测试数据集中的PET图像进行双三次下采样,得到低分辨率训练数据集和低分辨率测试数据集;
步骤三.在SRGAN的生成器中,用RCAB取代残差块,得到CA-SRGAN;
步骤四.用像素级的MSE损失来改进SRGAN的感知损失,CA-SRGAN的损失函数包括像素级的MSE损失,内容损失和对抗损失三个部分;
步骤五.用步骤一中高分辨率训练数据集和步骤二中低分辨率训练数据集对CA-SRGAN进行训练;
步骤六.用步骤一中高分辨率测试数据集和步骤二中低分辨率测试数据集对所提出的CA-SRGAN进行验证,并用图像质量评价指标对网络进行评价。
2.根据权利要求1所述的基于通道注意力生成对抗网络的PET超分辨率方法,其特征在于,步骤三中,CA-SRGAN的生成器模块的结构依次为:一个卷积核大小为9×9,个数为64,步长为1的卷积层,一个PRelu激活层,6个结构相同的RCAB,一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个批归一化层,一个按元素求和的跳跃连接层,两个上采样层和一个卷积核大小为9×9,个数为1,步长为1的卷积层;
CA-SRGAN的判别器模块的结构依次为:一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个Leaky Relu激活层,7个组合层,一个1024维的全连接层,一个Leaky Relu激活层,一个1维的全连接层,一个Sigmoid激活层;
其中,每个组合层由卷积层,批归一化层,激活层组成,卷积层的卷积核的大小均为3×3,卷积核的个数依次为64,128,128,256,256,512,512,步长依次为2,1,2,1,2,1,2,激活层均为Leaky Relu层;
上采样层结构依次为:一个卷积核大小为3×3,个数为256,步长为1的卷积层,一个2倍上采样的亚像素层,一个PRelu激活层;
所述RCAB结构依次为:一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个Relu激活层,一个卷积核大小为3×3,个数为64,步长为1的卷积层,一个通道注意力层,一个按元素求和跳跃连接层;
所述通道注意力层的结构依次为:一个全局平均池化层,一个卷积核大小为1×1,个数为4,步长为1的卷积层,一个Relu激活层,一个卷积核大小为1×1,个数为64,步长为1的卷积层,一个Sigmoid激活层,一个按元素求积跳跃连接层。
3.根据权利要求1所述的基于通道注意力生成对抗网络的PET超分辨率方法,步骤四中,用像素级的MSE损失来改进SRGAN的感知损失,CA-SRGAN的损失函数LSR表示为:
Figure FDA0003143794110000021
其中,λ,μ为超参数,LSR表示CA-SRGAN的损失函数,
Figure FDA0003143794110000022
表示像素级的MSE损失,表示为:
Figure FDA0003143794110000023
其中,r表示放大因子,W,H分别表示图像的宽和高,IHR,ILR分别表示高分辨率图像和低分辨率图像,GθG(ILR)表示生成的超分辨率图像,
Figure FDA0003143794110000024
GθG(ILR)x,y分别表示高分辨率图像和超分辨率图像像素点的值,
Figure FDA0003143794110000025
表示内容损失,使用在VGG19中预训练的模型提取图像特征,得到特征图并计算损失,
Figure FDA0003143794110000026
为使用VGG19网络中第i个最大池化层之前的第j个卷积层操作所得到的损失函数,表示为:
Figure FDA0003143794110000027
其中,Wi,j,Hi,j表示VGG19网络中各个特征图的尺寸,φi,j表示VGG19网络中,第i个最大池化层之前的第j个卷积层操作,
Figure FDA0003143794110000028
表示对抗损失,表示为:
Figure FDA0003143794110000031
其中,DθD(GθG(ILR))表示判别器判别超分辨率图像GθG(ILR)为真实高分辨率图像的概率。
CN202110749087.2A 2021-07-01 2021-07-01 一种基于通道注意力生成对抗网络的pet超分辨率方法 Pending CN113487503A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110749087.2A CN113487503A (zh) 2021-07-01 2021-07-01 一种基于通道注意力生成对抗网络的pet超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110749087.2A CN113487503A (zh) 2021-07-01 2021-07-01 一种基于通道注意力生成对抗网络的pet超分辨率方法

Publications (1)

Publication Number Publication Date
CN113487503A true CN113487503A (zh) 2021-10-08

Family

ID=77939448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110749087.2A Pending CN113487503A (zh) 2021-07-01 2021-07-01 一种基于通道注意力生成对抗网络的pet超分辨率方法

Country Status (1)

Country Link
CN (1) CN113487503A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115375544A (zh) * 2022-08-08 2022-11-22 中加健康工程研究院(合肥)有限公司 基于注意力和UNet网络生成对抗网络的超分辨率方法
CN115861062A (zh) * 2022-11-29 2023-03-28 安徽大学 多尺度学习小波注意力机制网络及图像超分辨率重建方法
CN115984117A (zh) * 2023-02-13 2023-04-18 西安邮电大学 基于通道注意力的变分自编码图像超分辨率方法及系统
CN117475481A (zh) * 2023-12-27 2024-01-30 四川师范大学 一种基于域迁移的夜间红外图像动物识别方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115375544A (zh) * 2022-08-08 2022-11-22 中加健康工程研究院(合肥)有限公司 基于注意力和UNet网络生成对抗网络的超分辨率方法
CN115861062A (zh) * 2022-11-29 2023-03-28 安徽大学 多尺度学习小波注意力机制网络及图像超分辨率重建方法
CN115984117A (zh) * 2023-02-13 2023-04-18 西安邮电大学 基于通道注意力的变分自编码图像超分辨率方法及系统
CN115984117B (zh) * 2023-02-13 2023-11-24 西安邮电大学 基于通道注意力的变分自编码图像超分辨率方法及系统
CN117475481A (zh) * 2023-12-27 2024-01-30 四川师范大学 一种基于域迁移的夜间红外图像动物识别方法及系统
CN117475481B (zh) * 2023-12-27 2024-03-01 四川师范大学 一种基于域迁移的夜间红外图像动物识别方法及系统

Similar Documents

Publication Publication Date Title
CN108460726B (zh) 一种基于增强递归残差网络的磁共振图像超分辨重建方法
CN113487503A (zh) 一种基于通道注意力生成对抗网络的pet超分辨率方法
Hu et al. Artifact correction in low‐dose dental CT imaging using Wasserstein generative adversarial networks
JP7179757B2 (ja) ディープ畳み込みニューラルネットワークを使用した医用画像化のための線量低減
CN110211045B (zh) 基于srgan网络的超分辨率人脸图像重建方法
Zhao et al. A generative adversarial network technique for high-quality super-resolution reconstruction of cardiac magnetic resonance images
CN111598964B (zh) 一种基于空间自适应网络的定量磁化率图像重建方法
Yang et al. Image super-resolution based on deep neural network of multiple attention mechanism
CN105654425A (zh) 一种应用于医学x光图像的单幅图像超分辨率重建方法
CN114219719A (zh) 基于双重注意力和多尺度特征的cnn医学ct图像去噪方法
Zhang et al. CNN-based medical ultrasound image quality assessment
Jiang et al. CT image super resolution based on improved SRGAN
CN115375711A (zh) 基于多尺度融合的全局上下文关注网络的图像分割方法
Li et al. Learning non-local perfusion textures for high-quality computed tomography perfusion imaging
Qiu et al. Improved generative adversarial network for retinal image super-resolution
Chan et al. An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction
CN112767273B (zh) 一种应用特征解耦的低剂量ct图像修复方法及系统
CN111667407B (zh) 一种深度信息引导的图像超分辨率方法
CN111968108A (zh) 基于智能扫描协议的ct智能成像方法、装置及系统
CN116523739A (zh) 一种无监督的隐式建模盲超分辨重建方法及装置
Tian et al. Retinal fundus image superresolution generated by optical coherence tomography based on a realistic mixed attention GAN
CN114936977A (zh) 一种基于通道注意力和跨尺度特征融合的图像去模糊方法
Liu et al. A Lightweight Low-dose PET Image Super-resolution Reconstruction Method based on Convolutional Neural Network
Sun et al. Clinical ultra‐high resolution CT scans enabled by using a generative adversarial network
Wang et al. A comparison study of deep learning designs for improving low-dose CT denoising

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination