CN111402137A - 一种基于感知损失引导的深度注意力编解码单图像超分辨率算法 - Google Patents

一种基于感知损失引导的深度注意力编解码单图像超分辨率算法 Download PDF

Info

Publication number
CN111402137A
CN111402137A CN202010205303.2A CN202010205303A CN111402137A CN 111402137 A CN111402137 A CN 111402137A CN 202010205303 A CN202010205303 A CN 202010205303A CN 111402137 A CN111402137 A CN 111402137A
Authority
CN
China
Prior art keywords
network
network model
image
loss
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010205303.2A
Other languages
English (en)
Other versions
CN111402137B (zh
Inventor
孙玉宝
施羽旸
周旺平
赵丽玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202010205303.2A priority Critical patent/CN111402137B/zh
Publication of CN111402137A publication Critical patent/CN111402137A/zh
Application granted granted Critical
Publication of CN111402137B publication Critical patent/CN111402137B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,包括以下步骤:构建感知损失引导的深度注意力编解码网络模型;根据网络模型设计感知损失目标函数;预设网络模型超参,根据感知损失目标函数,采用反向传播算法训练网络模型;若网络模型收敛,则输出期望的高分辨率图像,否则返回执行上一步骤,直至网络模型收敛。本发明在网络中加入了残差空间注意力单元用于捕获并重建出更多的低频信息,使用平均绝对误差和结构相似度损失组成的感知损失作为损失函数来优化网络参数,使得网络可以更多地关注视觉敏感区域,以保存视觉信息结构,从而提高重建图像的质量,使得重建图像有着优秀的视觉效果,并且该网络的重建效率极高。

Description

一种基于感知损失引导的深度注意力编解码单图像超分辨率 算法
技术领域
本发明属于图像信息处理技术领域,具体涉及一种基于感知损失引导的深度注意力编解码单图像超分辨率算法。
背景技术
图像超分辨率就是将低分辨率的图像通过一定的算法转提升到高分辨率。高分辨率图像具有更高的像素密度,更多的细节信息,更细腻的画质。要获得高分辨率图像,最直接的办法是采用高分辨率的相机,然而,在实际应用过程中,由于制作工艺和工程成本的考虑,很多场合都不会采用高分辨率、超分辨率的相机来进行图像信号的采集。
超分辨率技术的概念和方法最早是由Harris和Goodman于60年代提出。随后有许多人对其进行了研究,并相继提出了许多复原方法。自2012年以来,深度学习模拟人脑的学习过程,通过多层抽象机制对数据进行抽象表达,能够自主学习数据中的关系模式,受到学术界与产业界的广受关注。但是大多深度学习方法属于监督学习的方式,这些方法需要大量的图像对,由LR图像和相应的HR图像组成,对网络参数进行预训练,限制了这些方法在实际场景中的适用性。在一些实际问题中,很难收集到真实的HR图像,甚至存在无法获取的情况。
发明内容
本发明的目的在于针对上述现有技术中不足,提供了一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,包括以下步骤:
S1:构建感知损失引导的深度注意力编解码网络模型;
S2:根据网络模型,设计用于优化网络模型参数的感知损失目标函数,促使网络能够重建感知质量高的高分辨图像;
S3:预设网络模型超参数,根据感知损失目标函数,采用反向传播算法训练网络模型;
S4:若网络模型收敛,则输出期望的高分辨率图像,否则返回执行S3,直至网络模型收敛。
为优化上述技术方案,采取的具体措施还包括:
进一步地,S1具体为:构建引入了残差空间注意力机制的网络模型,网络主要由一个编码器和一个解码器串联组成,输入经由编码器之后再经过解码器输出得到目标图像,相同级层的编解码器之间还带有残差连接用于传递信息,所述解码器的每一层中都设置有空间注意力单元,以捕获并重建出更多的低频信息,所述网络模型为x=minθ LP(xl-Dfθ(z)),
其中:其中θ为网络参数,LP为感知损失,xl为低分辨率图像,D为下采样,fθ(z)为网络重建图像,z为输入的随机噪声。
进一步地,S2具体为:根据网络模型参数θ,建立感知损失目标函数LP(x),感知损失目标函数的公式为:
LP=αLMAE(x)+(1-α)LSSIM(x)
LSSIM(x)=1-SSIM(x)
其中,α为感知损失中两个不同损失项的比例权重,LMAE为平均绝对误差,
Figure BDA0002418623150000021
Figure BDA0002418623150000022
LSSIM为图像评价指标的结构相似性。
进一步地,S3具体为:
S301:预设网络模型训练超参数,包括训练时的模型学习率1r,迭代次数N,不同损失项的比例权重α,网络的深度与层数,激活函数的类别;
S302:将和高分辨率图像一样大小的随机噪声Z作为网络模型的输入;
S303:通过反向传播算法,计算目标损失函数LN,然后利用Adam优化算法更新网络参数θ,并进行N次迭代;
Figure BDA0002418623150000023
θN=θN-1+Adam(θN-1,L)
S304:每次迭代后生成的高分辨率图像作为下一次迭代中网络的输入,重复S303步骤。
进一步地,S4具体为:
S401、在网络训练迭代过程中,当目标损失函数LN减小,判定网络为收敛;
S402、判断网络模型收敛后,网络模型输出重建图像;
S403、若此次迭代训练不收敛,则返回执行步骤S3,重新预设网络模型训练超参数,再次训练网络,直至网络模型收敛。
本发明的有益效果:
本发明一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,利用超分辨率理论,网络模型引入了残差空间注意力机制,通过输入随机噪声,不断迭代优化网络参数,使得生成的高分辨率图片经过下采样后能够与给定的任务所依赖的低分辨率图像高度匹配。同时,使用了感知损失作为网络的损失函数,使得网络可以更多地关注视觉敏感区域,以保存视觉信息结构,从而提高重建图像的质量,使得重建图像有着优秀的视觉效果,并且该网络的重建效率极高。
附图说明
图1是本发明的流程示意图;
图2是本发明所构建的网络详图;
图3是本发明网络中引入的残差注意力模块图;
图4是各算法4倍重建图像与原图的对比图;
图5是各算法8倍重建图像与原图的对比图;
图6是各算法4倍重建图像情况下的PSNR/SSIM指标对比图;
图7是各算法8倍重建图像情况下的PSNR/SSIM指标对比图。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参考图1,本实施例提供一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,包括:
S1:构建感知损失引导的深度注意力编解码网络模型;
具体为:构建引入了残差空间注意力机制的网络模型,网络主要由一个编码器和一个解码器组成,编解码器呈串联的形式,输入经由编码器之后再经过解码器输出得到目标图像,相同级层的编解码器之间还带有残差连接,所述解码器的每一层中都设置有空间注意力单元,以捕获并重建出更多的低频信息,所述网络模型为x=minθ LP(xl-Dfθ(z)),其中:其中θ为网络参数,LP为感知损失,xl为低分辨率图像,D为下采样,fθ(z)为网络重建图像,z为输入的随机噪声。
S2:根据网络模型,设计用于优化网络模型参数的感知损失目标函数,促使网络能够重建感知质量高的高分辨图像;
具体为:根据网络模型参数θ,建立感知损失目标函数LP(x),感知损失目标函数的公式为:
LP=aLMAE(x)+(1-α)LSSIM(x)
其中,α为感知损失中两个不同损失项的比例权重,LMAE为平均绝对误差(MAE),
Figure BDA0002418623150000041
LSSIM为图像评价指标的结构相似性,由于SSIM指标是越大越好,因此LSSIM(x)=1-SSIM(x)。
S3:预设网络模型超参数,根据感知损失目标函数,采用反向传播算法训练网络模型;
具体为:
S301:预设网络模型训练超参数,包括训练时的模型学习率1r,迭代次数N,不同损失项的比例权重α,网络的深度与层数,激活函数的类别;
S302:将和高分辨率图像一样大小的随机噪声Z作为网络模型的输入;
S303:通过反向传播算法,计算目标损失函数LN,然后利用Adam优化算法更新网络参数θ,并进行N次迭代:
Figure BDA0002418623150000042
θN=θN-1+Adam(θN-1,L),
S304:每次迭代后生成的高分辨率图像作为下一次迭代中网络的输入,重复S303步骤。
S4:若网络模型收敛,则输出期望的高分辨率图像,否则返回执行S3,直至网络模型收敛。
具体为:
S401、在网络训练迭代过程中,当目标损失函数LN减小,判定网络为收敛;
S402、判断网络模型收敛后,网络模型输出重建图像;
S403、若此次迭代训练不收敛,则返回执行步骤S3,重新预设网络模型训练超参数,再次训练网络,直至网络模型收敛。
为验证本发明的效果,对本发明进行实验,输入的噪声大小与期望高分辨率图像一样,通道数为32,在数据集上训练模型,设置相关参数:lr=0.001,N=2000,α=0.16,网络中引入的残差空间注意力机制模块如图2所示。
实验的评价使用定量分析方法;
图4显示出了本发明和Bicubic、DIP两种同样不需要预训练的算法和LapSRN需要预训练的算法分别在4倍重建时的图像重建效果对比。
图5显示出了本发明和Bicubic、DIP两种同样不需要预训练的算法和LapSRN需要预训练的算法分别在4倍重建时的图像重建效果对比。从图5可以看出,对于同样的图像,本发明的重建效果明显优于其他算法。
结合图4和图5可以看出,其中GT为原图,PL-DAN为本发明的方法,通过图片可以直观的看出PL-DAN相对于其他三种现有的算法得到的清晰度最高,且和原图最接近对于同样的图像,由此可见,本发明的重建效果明显优于其他算法。
关于定量分析比较,使用PSNR和SSIM来进行评判图像质量。其中,PSNR为峰值信噪比,SSIM为结构相似性,其计算分别如下:
Figure BDA0002418623150000051
其中,range表示图像像素值的动态范围,μ为均值,σ为方差,c1=(k1L)2,c1=(k1L)2是用来维持稳定的常数,L是像素值的动态范围,k1=0.01,k2=0.03。
作定量比较时,我们对Set14、Set5数据集上所有图片都进行了测试,通过网络模型计算输出重建图像,将重建图像与对应原图像对比,计算出对应的PSNR和SSIM值。图6给了本发明算法和Bicubic、DIP、SRCNN、LapSRN这四种算法在数据集上4倍重建图像的PSNR和SSIM值。图7给出了本发明算法和Bicubic、DIP、LapSRN这三种算法在数据集上8倍重建图像的PSNR和SSIM值。
综上可知,相对于有监督深度学习超分辨率算法需要大量数据支撑,需要进行大量预训练而浪费时间和空间资源的问题。本发明利用无监督深度学习,建立一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,将随机噪声输入网络中,通过迭代不断优化网络参数,使得生成的HR图片经过下采样后能够与给定的任务所依赖的LR图像尽可能匹配。我们在网络中加入了残差空间注意力单元用于捕获并重建出更多的低频信息,并且使用平均绝对误差(MAE)和结构相似度(SSIM)损失组成的感知损失作为损失函数来优化网络参数,使得网络可以更多地关注视觉敏感区域,以保存视觉信息结构,从而提高重建图像的质量,使得重建图像有着优秀的视觉效果,并且该网络的重建效率极高。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (5)

1.一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,其特征在于:包括以下步骤:
S1:构建感知损失引导的深度注意力编解码网络模型;
S2:根据网络模型,设计用于优化网络模型参数的感知损失目标函数,促使网络能够重建感知质量高的高分辨图像;
S3:预设网络模型超参数,根据感知损失目标函数,采用反向传播算法训练网络模型;
S4:若网络模型收敛,则输出期望的高分辨率图像,否则返回执行S3,直至网络模型收敛。
2.根据权利要求1所述的一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,其特征在于:所述S1具体为:
构建引入了残差空间注意力机制的网络模型,网络主要由一个编码器和一个解码器串联组成,输入经由编码器之后再经过解码器输出得到目标图像,相同级层的编码器和解码器之间还带有残差连接用于传递信息,所述解码器的每一层中都设置有空间注意力单元,以捕获并重建出更多的低频信息,所述网络模型为x=minθLP(xl-Dfθ(z));
其中:θ为网络参数,LP为感知损失,xl为低分辨率图像,D为下采样,fθ(z)为网络重建图像,z为输入的随机噪声。
3.根据权利要求2所述的一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,其特征在于:所述S2具体为:
根据网络模型参数θ,建立感知损失目标函数LP(x),感知损失目标函数的公式为:
LP=αLMAE(x)+(1-α)LSSIM(x)
LSSIM(x)=1-SSIM(x)
其中,α为感知损失中两个不同损失项的比例权重,LMAE为平均绝对误差,
Figure FDA0002418623140000011
Figure FDA0002418623140000012
LSSIM为图像评价指标的结构相似性。
4.根据权利要求3所述的一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,其特征在于:所述S3具体为:
S301:预设网络模型训练超参数,包括训练时的模型学习率1r,迭代次数N,网络的深度与层数,激活函数的类别;
S302:将和高分辨率图像一样大小的随机噪声Z作为网络模型的输入;
S303:通过反向传播算法,计算目标损失函数LN,然后利用Adam优化算法更新网络参数θ,并进行N次迭代;
Figure FDA0002418623140000021
θN=θ+Adam(θ,L)
S304:每次迭代后生成的高分辨率图像作为下一次迭代中网络的输入,重复S303步骤。
5.根据权利要求4所述的一种基于感知损失引导的深度注意力编解码单图像超分辨率算法,其特征在于:所述S4具体为:
S401、在网络训练迭代过程中,当目标损失函数LN减小,判定网络为收敛;
S402、判断网络模型收敛后,网络模型输出重建图像;
S403、若此次迭代训练不收敛,则返回执行步骤S3,重新预设网络模型训练超参数,再次训练网络,直至网络模型收敛。
CN202010205303.2A 2020-03-20 2020-03-20 一种基于感知损失引导的深度注意力编解码单图像超分辨率算法 Active CN111402137B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010205303.2A CN111402137B (zh) 2020-03-20 2020-03-20 一种基于感知损失引导的深度注意力编解码单图像超分辨率算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010205303.2A CN111402137B (zh) 2020-03-20 2020-03-20 一种基于感知损失引导的深度注意力编解码单图像超分辨率算法

Publications (2)

Publication Number Publication Date
CN111402137A true CN111402137A (zh) 2020-07-10
CN111402137B CN111402137B (zh) 2023-04-18

Family

ID=71413398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010205303.2A Active CN111402137B (zh) 2020-03-20 2020-03-20 一种基于感知损失引导的深度注意力编解码单图像超分辨率算法

Country Status (1)

Country Link
CN (1) CN111402137B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936073A (zh) * 2021-11-02 2022-01-14 哈尔滨理工大学 一种基于注意力机制的AttISTANet压缩感知磁共振重建方法
CN114549309A (zh) * 2022-01-29 2022-05-27 贵州多彩宝互联网服务有限公司 一种基于深度学习的人脸图像超分辨率计算方法
CN114998683A (zh) * 2022-06-01 2022-09-02 北京理工大学 一种基于注意力机制的ToF多径干扰去除方法
CN116206059A (zh) * 2023-02-13 2023-06-02 北京医智影科技有限公司 损失函数计算方法和模型训练方法
CN114998683B (zh) * 2022-06-01 2024-05-31 北京理工大学 一种基于注意力机制的ToF多径干扰去除方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN109509152A (zh) * 2018-12-29 2019-03-22 大连海事大学 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN109816593A (zh) * 2019-01-18 2019-05-28 大连海事大学 一种基于注意力机制的生成对抗网络的超分辨率图像重建方法
CN109949219A (zh) * 2019-01-12 2019-06-28 深圳先进技术研究院 一种超分辨率图像的重构方法、装置及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN109509152A (zh) * 2018-12-29 2019-03-22 大连海事大学 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN109949219A (zh) * 2019-01-12 2019-06-28 深圳先进技术研究院 一种超分辨率图像的重构方法、装置及设备
CN109816593A (zh) * 2019-01-18 2019-05-28 大连海事大学 一种基于注意力机制的生成对抗网络的超分辨率图像重建方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936073A (zh) * 2021-11-02 2022-01-14 哈尔滨理工大学 一种基于注意力机制的AttISTANet压缩感知磁共振重建方法
CN113936073B (zh) * 2021-11-02 2024-05-14 哈尔滨理工大学 一种基于注意力机制的AttISTANet压缩感知磁共振重建方法
CN114549309A (zh) * 2022-01-29 2022-05-27 贵州多彩宝互联网服务有限公司 一种基于深度学习的人脸图像超分辨率计算方法
CN114998683A (zh) * 2022-06-01 2022-09-02 北京理工大学 一种基于注意力机制的ToF多径干扰去除方法
CN114998683B (zh) * 2022-06-01 2024-05-31 北京理工大学 一种基于注意力机制的ToF多径干扰去除方法
CN116206059A (zh) * 2023-02-13 2023-06-02 北京医智影科技有限公司 损失函数计算方法和模型训练方法
CN116206059B (zh) * 2023-02-13 2023-12-01 北京医智影科技有限公司 模型训练方法

Also Published As

Publication number Publication date
CN111402137B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
Daras et al. Intermediate layer optimization for inverse problems using deep generative models
CN111402137A (zh) 一种基于感知损失引导的深度注意力编解码单图像超分辨率算法
CN111667424B (zh) 一种基于无监督的真实图像去噪方法
CN110728219A (zh) 基于多列多尺度图卷积神经网络的3d人脸生成方法
CN110675321A (zh) 一种基于渐进式的深度残差网络的超分辨率图像重建方法
Wen et al. VIDOSAT: High-dimensional sparsifying transform learning for online video denoising
CN112132959A (zh) 数字岩心图像处理方法、装置、计算机设备及存储介质
Zuo et al. Convolutional neural networks for image denoising and restoration
US20220286696A1 (en) Image compression method and apparatus
KR20220070326A (ko) 비디오 코딩을 위한 변형 가능한 콘볼루션에 의한 예측 프레임 생성
Sonogashira et al. High-resolution bathymetry by deep-learning-based image superresolution
CN111861886B (zh) 一种基于多尺度反馈网络的图像超分辨率重建方法
CN115984117B (zh) 基于通道注意力的变分自编码图像超分辨率方法及系统
CN115880158A (zh) 一种基于变分自编码的盲图像超分辨率重建方法及系统
CN114202459B (zh) 一种基于深度先验的盲图像超分辨率方法
Kim et al. Trends in super-high-definition imaging techniques based on deep neural networks
CN116091893A (zh) 一种基于U-net网络的地震图像反褶积方法及系统
Wang [Retracted] An Old Photo Image Restoration Processing Based on Deep Neural Network Structure
Wen et al. A set-theoretic study of the relationships of image models and priors for restoration problems
CN115601257A (zh) 一种基于局部特征和非局部特征的图像去模糊方法
CN114862679A (zh) 基于残差生成对抗网络的单图超分辨率重建方法
CN110084762B (zh) 一种深度学习逆卷积模型异常值处理方法
CN111260552A (zh) 一种基于递进学习的图像超分辨率方法
Feng et al. RankDVQA-mini: Knowledge Distillation-Driven Deep Video Quality Assessment
Panigrahi et al. Multi-scale based Approach for Denoising Real-World noisy image using Curvelet Thresholding: Scope & Beyond

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant