CN114463181A - 一种基于改进生成对抗网络的图像超分辨率方法 - Google Patents

一种基于改进生成对抗网络的图像超分辨率方法 Download PDF

Info

Publication number
CN114463181A
CN114463181A CN202210128444.8A CN202210128444A CN114463181A CN 114463181 A CN114463181 A CN 114463181A CN 202210128444 A CN202210128444 A CN 202210128444A CN 114463181 A CN114463181 A CN 114463181A
Authority
CN
China
Prior art keywords
discriminator
resolution
image
net
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210128444.8A
Other languages
English (en)
Inventor
赵军
王银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202210128444.8A priority Critical patent/CN114463181A/zh
Publication of CN114463181A publication Critical patent/CN114463181A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于改进生成对抗网络的图像超分辨率方法,属于图像处理领域。获取高分辨图像数据集,将数据集分为训练集和测试集;把高分辨率图像训练集进行双三次下采样得到低分辨图像数据集;在ESRGAN的生成器模块中使用RFB模块和残差块,在ESRGAN鉴别器模块中,使用U‑net判别器代替相对判别器;在损失函数中引入LPIPS感知损失和L1损失改进GAN网络的生成损失函数。将训练集中的低分辨率图像输入到生成器G中训练,输出重建的超分辨率图像;将生成器G的输出结果和原始高分辨率图像一起输入到U‑net判别器DU中。本发明可以有效地提高超分辨图像的质量,降低图像中的伪影和不真实的细节。

Description

一种基于改进生成对抗网络的图像超分辨率方法
技术领域
本发明属于图像处理领域,涉及一种基于改进生成对抗网络的图像超分辨率方法。
背景技术
在图像处理领域中,图像超分辨率一直是个值得研究的课题。在互联网时代,图像超分辨在许多方面都有应用。图像超分辨技术能够采用软件的方法提升图像的分辨率,并且能够以大倍数的放大图像,并且保持图像的清晰度。这些优点在互联网通信和存储设备上得到了广泛地关注。图像超分辨技术可以很好地满足用户对图像细节方面的要求,让人类可以获得更好的视觉和交互体验。
但是现有的图像超分辨率算法,或多或少的存在一些问题。目前有三类研究方法,分别是基于插值的算法,基于重建的算法,基于学习的算法。基于插值的算法有:最近领域法、双线性插值法等,这类算法的实时性较好,但是得到的超分辨率图片的效果较差。基于重建的算法有:凸集投影法,最大后验概率等,这类算法需要图像退化的先验知识,实现重建。但得到的超分辨图像的质量会随着放大倍数的增加而急剧下降。基于学习的算法有:基于卷积神经网络的图像超分(SRCNN),基于生成对抗网络的图像超分(SRGAN)等。这类算法,得到的超分图像质量较好,可以实现接近于原图的超分辨率重建。但也存在着一些问题,比如重建后的图片会有一些不真实的纹理和令人不愉快的伪影等。
发明内容
有鉴于此,本发明的目的在于提供一种基于改进生成对抗网络的图像超分辨率方法。
为达到上述目的,本发明提供如下技术方案:
一种基于改进生成对抗网络的图像超分辨率方法,该方法包括以下步骤:
S1:获取高分辨率图像数据集,采用双三次插值的方法下采样,获得相应的低分辨率图像,并随机将其分成训练集和测试集;
S2:在ESRGAN的生成器模块中使用RFB(Receptive Field Block)模块和残差块,在ESRGAN鉴别器模块中,使用U-net判别器代替相对判别器;
S3:在损失函数中引入LPIPS感知损失和L1损失改进GAN网络的的生成损失函数;
S4:将训练集中的低分辨率图像输入到生成器G中训练,输出重建的超分辨率图像;
S5:将生成器G的输出结果和原始高分辨率图像一起输入到U-net判别器DU中。
可选的,所述双三次插值的方法下采样的倍数分别为2倍和4倍。
可选的,所述使用U-net判别器代替相对判别器具体为:把相对判别器D改为U-net判别器DU;U-net判别器判断生成图像的真实性,损失函数为:
Figure BDA0003501552780000021
Figure BDA0003501552780000022
Figure BDA0003501552780000023
其中E为取均值操作,
Figure BDA0003501552780000024
为U-net鉴别器编码器部分的损失函数,
Figure BDA0003501552780000025
为U-net鉴别器解码器部分的损失函数,Lcons为U-net鉴别器的CutMix正则化函数;Denc为U-net鉴别器的编码器部分,Ddnc为U-net鉴别器的解码器部分。
可选的,所述在ESRGAN的生成器模块中使用RFB模块和残差块具体为:
网络的前半段为SCDB残差块,后半段为RFB模块,为加快重建速度,在上采样U-PA模块中使用像素注意力机制模块PA。
可选的,所述S3具体为:
LG=λ1L12LLpips3Lfm4Ladv
式中L1为重建图像HR与原始图像GT像素之间的一范数;LLpips为LPIPS感知损失函数,Lfm为生成器的正则化项,具体为U-net判别器中每层解码器和编码器的差值;Ladv为对抗损失函数;λ1234为平衡各项参数的超参;
Figure BDA0003501552780000026
式中,H,W为图片的高和宽,h,w为patch的高和宽,y,y0分别为HR和GT的特征图;
Figure BDA0003501552780000027
式中,E为取均值操作,z为输入的低清图像LR,Denc为U-net鉴别器的编码器输出,Ddnc为U-net鉴别器的解码器输出,G(z)为生成器的输出的图像HR;
可选的,所述S4具体为:
将输入的低分辨率图像分成设定大小的图像块;
将得到的图像块输入到生成器G中进行训练,输出设定个数的特征图;
将生成器前半部分的若干SCDB残差卷积层输出的特征图输入到后半部分的RFB模块;
将得到的特征图输入到上采样模块U-PA中,经过上采样后得到输出结果。
可选的,所述S5具体为:
S5.1:在U-net判别器中,鉴别器分为两个部分,解码器和编码器,先用大小为3×3的卷积核对输入的生成的超分辨图像和原高分辨率图像对做卷积处理;
S5.2:将得到的特征图经过批量归一化卷积层;
S5.3:将S5.3得到的特征图经过池化层,使其特征图的大小缩小一半;
S5.4:将上一步得到特征图经过LeakyReLU激活函数,输出非线性特征图;
S5.5:将上述S5.2~S5.4步骤重复设定次数,且卷积核都为3×3,卷积核的数量以2倍的速率由64增长到1024;
S5.6:将S5.5得到的特征图输入到一个全连接层,得到编码器输出;
S5.7:将S5.5得到的特征图送入解码器模块中,先将特征图上采样;
S5.8:将S5.7得到的特征图经过一个3×3的卷积层、上采样层、批量归一化层以及LeakyReLU激活函数;
S5.9:将上述S5.7~S5.8步骤重复设定次数,且卷积核都为3×3,卷积核的数量以2倍的速率由1024减少到64;
S5.10:将S5.9得到的特征图输入到一个全连接层中,得到解码器的输出;
S5.11:最后根据编码器和解码器的输出综合判断生成的图像是否真实。
本发明的有益效果在于:本发明可以有效的解决ESRGAN中生成图像的伪影和不真实的细节,使生成的图片看起来更真实。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明实例中基于改进生成对抗网络地图像超分辨率方法流程图;
图2为本发明实施实例中的生成网络模型示意图;
图3为本发明实施实例中的RFB模块;
图4为本发明实施实例中的U-net鉴别器模型示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
如图1所示,本实施例的一种基于改进生成对抗网络的图像超分辨方法,包括:
S1:预处理高分辨率图像,对高分辨率图像进行下采样,得到低分辨率图像,进而形成训练集和测试集。
具体的,在步骤S1中,收集高分辨率图像,并将其分别进行下采样,获得相应的高低分辨率图像对,随机将其分成训练集和测试集。
其中,低分辨率图像的下采样倍数分别为2倍和4倍。
S2:利用改进型ESRGAN结构对图像ILR进行超分辨重建。
S2.1:首先将输入ILR图像分为大小128×128的图像块。
S2.2:参照图2,将得到的图像输入到生成器G中进行训练:输入的低分辨率图像首先经过由两层卷积核为3×3,步长为1,输出为64个特征图的浅层特征提取网络。
S2.3:将上一步输出的特征图输入到一个SC残差块,并把卷积层的特征图跳跃连接到每个SC残差块。
在本发明中,生成器G的网络结构分为两部分,分别为SCDB残差模块和RFB模块。残差模块中包括16个SCDB残差块,每个残差块中有3个1×1卷积核和4个3×3的卷积核。LeakyReLU参数校正线性单是ReLU的改进版本,数学表达式如下所示:
Figure BDA0003501552780000051
其中,ai是(1,+∞),xi是输入,yi是输出结果。
S2.4:上一步输出的特征图进入下一个大小为1×1,步长为1的卷积操作,目的是减少输入特征图的数量以节约计算成本和模型尺寸;
S2.5:最后,将上一层的输出经过LeakyRelu激活后,送入RFB模块,最后输出结果为G(z)。
生成器的损失函数:
LG=λ1L12LLpips3Lfm4Ladv
式中L1为重建图像(HR)与原始图像(GT)像素之间的L1范数。LLpips为LPIPS感知损失函数,Lfm为生成器的正则化项,具体为U-net判别器中每层解码器和编码器的差值。Ladv为对抗损失函数。λ1234为平衡各项参数的超参,这里取λ1=10-22=1,λ3=1,λ4=5×10-3
Figure BDA0003501552780000052
式中,H,W为图片的高和宽,h,w为patch的高和宽,y,y0分别为HR和GT的特征图。
Figure BDA0003501552780000053
式中,E为取均值操作,z为输入的低清图像(LR),Denc为U-net鉴别器的编码器输出,Ddnc为U-net鉴别器的解码器输出,G(z)为生成器的输出的图像(HR)。
所对应的U-net鉴别器的损失函数为:
Figure BDA0003501552780000054
Figure BDA0003501552780000055
Figure BDA0003501552780000056
其中E为取均值操作,
Figure BDA0003501552780000057
为U-net鉴别器编码器部分的损失函数,
Figure BDA0003501552780000058
为U-net鉴别器解码器部分的损失函数,Lcons为U-net鉴别器的CutMix正则化函数。Denc为U-net鉴别器的编码器部分,Ddnc为U-net鉴别器的解码器部分,λ为超参,这里λ=1。
S2.6:最后根据编码器和解码器的输出综合判断生成的图像是否真实。
网络的各类参数设定情况为::batchsize设为16;训练轮数为1000000,初始学习率为1×10-4,每5000轮更新学习率;优化器使用Adam,β1=0.9,β2=0.999;在pytorch框架和RTX 3070GPU平台上训练模型;通过调整参数使得损失函数达到最小,即完成模型训练,得到改进生成对抗网络的图像超分辨率模型。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:该方法包括以下步骤:
S1:获取高分辨率图像数据集,采用双三次插值的方法下采样,获得相应的低分辨率图像,并随机将其分成训练集和测试集;
S2:在ESRGAN的生成器模块中使用RFB(Receptive Field Block)模块和残差块,在ESRGAN鉴别器模块中,使用U-net判别器代替相对判别器;
S3:在损失函数中引入LPIPS感知损失和L1损失改进GAN网络的的生成损失函数;
S4:将训练集中的低分辨率图像输入到生成器G中训练,输出重建的超分辨率图像;
S5:将生成器G的输出结果和原始高分辨率图像一起输入到U-net判别器DU中。
2.根据权利要求1所述的一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:所述双三次插值的方法下采样的倍数分别为2倍和4倍。
3.根据权利要求1所述的一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:所述使用U-net判别器代替相对判别器具体为:把相对判别器D改为U-net判别器DU;U-net判别器判断生成图像的真实性,损失函数为:
Figure FDA0003501552770000011
Figure FDA0003501552770000012
Figure FDA0003501552770000013
其中E为取均值操作,
Figure FDA0003501552770000014
为U-net鉴别器编码器部分的损失函数,
Figure FDA0003501552770000015
为U-net鉴别器解码器部分的损失函数,Lcons为U-net鉴别器的CutMix正则化函数;Denc为U-net鉴别器的编码器部分,Ddnc为U-net鉴别器的解码器部分。
4.根据权利要求1所述的一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:所述在ESRGAN的生成器模块中使用RFB模块和残差块具体为:
网络的前半段为SCDB残差块,后半段为RFB模块,为加快重建速度,在上采样U-PA模块中使用像素注意力机制模块PA。
5.根据权利要求1所述的一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:所述S3具体为:
LG=λ1L12LLpips3Lfm4Ladv
式中L1为重建图像HR与原始图像GT像素之间的一范数;LLpips为LPIPS感知损失函数,Lfm为生成器的正则化项,具体为U-net判别器中每层解码器和编码器的差值;Ladv为对抗损失函数;λ1234为平衡各项参数的超参;
Figure FDA0003501552770000021
式中,H,W为图片的高和宽,h,w为patch的高和宽,y,y0分别为HR和GT的特征图;
Figure FDA0003501552770000022
式中,E为取均值操作,z为输入的低清图像LR,Denc为U-net鉴别器的编码器输出,Ddnc为U-net鉴别器的解码器输出,G(z)为生成器的输出的图像HR。
6.根据权利要求5所述的一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:所述S4具体为:
将输入的低分辨率图像分成设定大小的图像块;
将得到的图像块输入到生成器G中进行训练,输出设定个数的特征图;
将生成器前半部分的若干SCDB残差卷积层输出的特征图输入到后半部分的RFB模块;
将得到的特征图输入到上采样模块U-PA中,经过上采样后得到输出结果。
7.根据权利要求6所述的一种基于改进生成对抗网络的图像超分辨率方法,其特征在于:所述S5具体为:
S5.1:在U-net判别器中,鉴别器分为两个部分,解码器和编码器,先用大小为3×3的卷积核对输入的生成的超分辨图像和原高分辨率图像对做卷积处理;
S5.2:将得到的特征图经过批量归一化卷积层;
S5.3:将S5.3得到的特征图经过池化层,使其特征图的大小缩小一半;
S5.4:将上一步得到特征图经过LeakyReLU激活函数,输出非线性特征图;
S5.5:将上述S5.2~S5.4步骤重复设定次数,且卷积核都为3×3,卷积核的数量以2倍的速率由64增长到1024;
S5.6:将S5.5得到的特征图输入到一个全连接层,得到编码器输出;
S5.7:将S5.5得到的特征图送入解码器模块中,先将特征图上采样;
S5.8:将S5.7得到的特征图经过一个3×3的卷积层、上采样层、批量归一化层以及LeakyReLU激活函数;
S5.9:将上述S5.7~S5.8步骤重复设定次数,且卷积核都为3×3,卷积核的数量以2倍的速率由1024减少到64;
S5.10:将S5.9得到的特征图输入到一个全连接层中,得到解码器的输出;
S5.11:最后根据编码器和解码器的输出综合判断生成的图像是否真实。
CN202210128444.8A 2022-02-11 2022-02-11 一种基于改进生成对抗网络的图像超分辨率方法 Pending CN114463181A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210128444.8A CN114463181A (zh) 2022-02-11 2022-02-11 一种基于改进生成对抗网络的图像超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210128444.8A CN114463181A (zh) 2022-02-11 2022-02-11 一种基于改进生成对抗网络的图像超分辨率方法

Publications (1)

Publication Number Publication Date
CN114463181A true CN114463181A (zh) 2022-05-10

Family

ID=81412948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210128444.8A Pending CN114463181A (zh) 2022-02-11 2022-02-11 一种基于改进生成对抗网络的图像超分辨率方法

Country Status (1)

Country Link
CN (1) CN114463181A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115936983A (zh) * 2022-11-01 2023-04-07 青岛哈尔滨工程大学创新发展中心 基于风格迁移的核磁图像超分辨率方法、装置及计算机存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115936983A (zh) * 2022-11-01 2023-04-07 青岛哈尔滨工程大学创新发展中心 基于风格迁移的核磁图像超分辨率方法、装置及计算机存储介质

Similar Documents

Publication Publication Date Title
CN109118432B (zh) 一种基于快速循环卷积网络的图像超分辨率重建方法
CN111369440B (zh) 模型训练、图像超分辨处理方法、装置、终端及存储介质
CN110599401A (zh) 遥感图像超分辨率重建方法、处理装置及可读存储介质
CN103034973B (zh) 基于双三次插值的自适应图像缩放方法
CN108961186A (zh) 一种基于深度学习的老旧影片修复重制方法
CN103985085A (zh) 图像超分辨率放大的方法和装置
CN112669214B (zh) 一种基于交替方向乘子算法的模糊图像超分辨率重建方法
CN112837224A (zh) 一种基于卷积神经网络的超分辨率图像重建方法
CN111986092B (zh) 一种基于双重网络的图像超分辨率重建方法及系统
CN113538246B (zh) 基于无监督多阶段融合网络的遥感图像超分辨率重建方法
CN115115514A (zh) 基于高频信息特征融合的图像超分辨率重建方法
CN116486074A (zh) 一种基于局部和全局上下文信息编码的医学图像分割方法
CN114463181A (zh) 一种基于改进生成对抗网络的图像超分辨率方法
CN111951203A (zh) 视点合成方法、装置、设备及计算机可读存储介质
CN113096015B (zh) 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
Wu et al. A novel perceptual loss function for single image super-resolution
CN113096032B (zh) 一种基于图像区域划分的非均匀一致模糊去除方法
CN112070669B (zh) 一种针对任意模糊核的超分辨率图像重建方法
CN116188272A (zh) 适用于多模糊核的两阶段深度网络图像超分辨率重建方法
CN107767342B (zh) 一种基于积分平差模型的小波变换超分辨率图像重建方法
CN112348745B (zh) 一种基于残差卷积网络的视频超分辨率重构方法
Zhang et al. Deep residual network based medical image reconstruction
CN113837945A (zh) 一种基于超分辨率重建的显示画质优化方法及系统
Li Image super-resolution algorithm based on RRDB model
Cheng et al. Improved two-stage image inpainting with perceptual color loss and modified region normalization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination