CN112348745B - 一种基于残差卷积网络的视频超分辨率重构方法 - Google Patents

一种基于残差卷积网络的视频超分辨率重构方法 Download PDF

Info

Publication number
CN112348745B
CN112348745B CN202011350139.0A CN202011350139A CN112348745B CN 112348745 B CN112348745 B CN 112348745B CN 202011350139 A CN202011350139 A CN 202011350139A CN 112348745 B CN112348745 B CN 112348745B
Authority
CN
China
Prior art keywords
network
resolution
image
residual
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011350139.0A
Other languages
English (en)
Other versions
CN112348745A (zh
Inventor
王丽
徐立中
严锡君
沈洁
李东新
李昌利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202011350139.0A priority Critical patent/CN112348745B/zh
Publication of CN112348745A publication Critical patent/CN112348745A/zh
Application granted granted Critical
Publication of CN112348745B publication Critical patent/CN112348745B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种基于残差卷积网络的视频超分辨率重构方法,包括:构建深度学习模型,其包括运动补偿、特征提取、重构网络:训练深度学习模型:训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型;利用训练好的深度学习模型进行视频超分辨率重构。本发明不仅能够加快模型训练的速度,还能充分利用先前卷积层的层级特征;利用残差递归网络作为超分辨重构层,不仅能够减少训练参数,还能恢复高频细节信息;此外,利用感知损失作为额外的损失函数,可以更好地恢复纹理细节和提高图像重构的视觉效果,提升了图像空间超分辨重构效果。

Description

一种基于残差卷积网络的视频超分辨率重构方法
技术领域
本发明属于数字图像领域,涉及视频图像超分辨率重构技术,具体涉及了一种基于残差卷积网络的视频超分辨率重构方法。
背景技术
超分辨率图像重构(Super-Resolution Reconstruction,SRR)是一种通过信号处理方式来实现图像分辨率的提升,以及解决成像密度低和图像噪声等问题的技术。现阶段,由于图像/视频图像采集系统不仅受到传感器密度和尺寸的限制,还受到目标物体运动、光照变化及信号采集和处理过程中的其他干扰,因此,获得的视频空间分辨率较低。通过硬件的改善提高视频空间分辨率是最为简单的方法,但是高精度的视频传感器往往意味着高昂的成本。因此,为了克服硬件方法带来的缺陷,提出了利用软件方法来实现图像空间分辨率的提升。图像超分辨率重构是使用低分辨的单帧或多帧序列图像来重建一张高分辨率图像,高分辨率指图像的像素密度尽可能的高,并且尽可能多的包含图像高频信息。这样的图像可以更好的描述真实目标场景的细节信息,并给予人眼更良好的直观体验。由于计算机视觉发展也极大依赖于图像的采集和分析,因此对低分辨率图像进行超分辨率重构具有十分重要的理论意义和应用价值。
目前,图像超分辨率方法主要集中于单幅图像,对于连续多帧视频图像研究较少,虽然可将一些方法直接用于视频超分辨率重构,但是未能充分利用视频的帧间互补信息,导致超分辨率重构效果差。
发明内容
发明目的:为了克服现有技术中存在的不足,提供一种基于残差卷积网络的视频超分辨率重构方法,能够提升图像空间超分辨重构效果。
技术方案:为实现上述目的,本发明提供一种基于残差卷积网络的视频超分辨率重构方法,包括如下步骤:
S1:构建深度学习模型,其包括如下步骤:
A1:运动补偿:
对输入的低分辨率图像序列,将连续三帧
Figure BDA0002801154470000011
作为模型的输入,然后利用改进的残差密集网络预测上一帧/下一帧相对于中间帧的光流场,再采用双线性插值实现中间帧的运动补偿得到It-1 L′,It+1 L′
A2:特征提取:
将运动补偿得到的两帧图像以及中间帧图像作为特征提取模块的输入,实现深层特征的提取;
A3:重构网络:
将步骤A2中提取的深层特征作为重构网络模块即残差递归网络的输入,最后利用上采样操作实现图像的超分辨率重构;
S2:训练深度学习模型:
将预处理好的训练集中的低分辨视频图像的连续三帧
Figure BDA0002801154470000021
作为深度学习模型的输入,对应的高分辨率视频图像作为目标高分辨图像
Figure BDA0002801154470000022
训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型。
其中,改进的残差密集网络对低分辨视频图像序列进行运动补偿,生成运动补偿图像,并与中间帧进行改进的残差密集网络的损失函数
Figure BDA0002801154470000023
的计算。为了平滑空间位移场,
Figure BDA0002801154470000024
中加入了惩罚项Huber损失
Figure BDA0002801154470000025
残差递归网络将特征提取网络中获得的深层特征作为输入,以重构高分辨率视频图像,与目标高分辨率视频图像进行递归网络损失函数LRe
感知网络中将目标高分辨率视频图像和重构的高分辨率视频图像做感知损失函数Lp计算。深度学习模型进行多次迭代直至稳定后完成训练过程。
S3:利用训练好的深度学习模型进行视频超分辨率重构。
进一步地,所述步骤S2中训练集的预处理过程为:将具有高分辨率的视频图像序列进行数据增强,将原始视频图像序列和增强后的图像序列通过高斯模糊和下采样的过程生成对应的低分辨率图像序列,存储相对应的高分辨图像序列和低分辨率图像序列数据,作为整个网络的训练集。
进一步地,所述步骤S2中深度学习模型的训练过程如下:
A1:使用增益为
Figure BDA0002801154470000026
的正交初始化改进的残差密集网络的增益,使用标准高斯分布初始化残差递归网络权重,偏置均初始化为0;
A2:将连续三帧低分辨率视频图像
Figure BDA0002801154470000027
输入到改进的残差密集网络中,生成与中间帧大小一致的运动补偿图像It-1 L′,It+1 L′,再将运动补偿图像和中间帧级联作为特征提取网络的输入,特征提取网络输出的深层特征图像作为残差递归网络的输入,输出与目标高分辨率视频图像大小一致的输出图像;
A3:将改进的残差密集网络生成的运动补偿图像和中间帧做改进的残差密集网络的损失函数
Figure BDA0002801154470000028
残差递归网络生成的高分辨率图像和目标高分辨率图像分别做残差递归网络的损失函数LRe和感知网络的损失函数Lp,依次迭代使得损失函数降低直至趋于稳定;
A4:训练整个深度学习模型,计算对应网络的损失函数,同时更新整个网络的参数,感知网络参与训练但不更新自身网络参数,直到所有损失函数趋于稳定,得到最终的视频图像超分辨率模型。
进一步地,所述步骤S3中训练好的深度学习模型的目标函数如下:
Figure BDA0002801154470000031
其中,α、β、γ为网络平衡参数,用于调整损失函数之间的比重,LRe为残差递归网络均方误差损失函数,
Figure BDA0002801154470000032
为改进的残差卷积网络损失函数,
Figure BDA0002801154470000033
为Huber损失,Lp为感知损失。
进一步地,所述残差递归网络均方误差损失函数LRe为:
Figure BDA0002801154470000034
其中,r为放大因子,W和H分别为视频图像的高和宽,
Figure BDA0002801154470000035
Figure BDA0002801154470000036
分别为目标高分辨率图像和网络生成的高分辨率图像。
进一步地,所述改进的残差卷积网络损失函数
Figure BDA0002801154470000037
为:
Figure BDA0002801154470000038
其中,
Figure BDA0002801154470000039
表示低分辨率图像中间帧,It+1 L′为通过残差卷积网络生成的相对于中间帧的运动补偿图像。
进一步地,所述Huber损失
Figure BDA00028011544700000310
为:
Figure BDA00028011544700000311
其中,Δt±1表示在t±1时刻对应于x和y方向上的两个特征,∈=0.01。
进一步地,所述感知损失Lp为:
Figure BDA00028011544700000312
其中,
Figure BDA00028011544700000313
表示在ImageNet数据集上预训练好的Vgg19网络。
有益效果:本发明与现有技术相比,使用改进的残差密集网络作为预测上一帧/下一帧相对于中间帧的密集光流场,不仅能够加快模型训练的速度,还能充分利用先前卷积层的层级特征;利用残差递归网络作为超分辨重构层,不仅能够减少训练参数,还能恢复高频细节信息;此外,利用感知损失作为额外的损失函数,可以更好地恢复纹理细节和提高图像重构的视觉效果,提升了图像空间超分辨重构效果。
附图说明
图1是本发明基于残差卷积网络的视频超分辨率方法的原理总框图;
图2是本发明基于改进的残差密集网络的运动补偿模块;
图3是本发明基于卷积网络的特征提取模块;
图4是本发明基于残差递归网络的重构模块;
图5是本发明改进的残差密集块结构图;
图6是本发明重构图像的对比示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明提供一种基于残差卷积网络的视频超分辨率重构方法,如图1所示,其包括如下步骤:
1、训练集预处理:
首先对训练数据集在python软件上进行预处理操作,包括图像增强、高斯模糊和下采样操作,放大因子r可以是×2、×3或×4。然后将训练数据集的输入裁剪为32×32大小的子图像块,相应的目标高分辨图像裁剪为32r×32r。最后将这些处理后的训练数据集用h5py模块打包成h5py格式。
2、构建深度学习模型,其包括如下步骤:
A1:运动补偿:
对输入的低分辨率图像序列,将连续三帧
Figure BDA0002801154470000041
作为模型的输入,然后利用改进的残差密集网络预测上一帧/下一帧相对于中间帧的光流场,再采用双线性插值实现中间帧的运动补偿得到It-1 L′,It+1 L′
A2:特征提取:
将运动补偿得到的两帧图像以及中间帧图像作为特征提取模块的输入,实现深层特征的提取;
A3:重构网络:
将步骤A2中提取的深层特征作为重构网络模块即残差递归网络的输入,最后利用上采样操作实现图像的超分辨率重构;
S2:训练深度学习模型:
将预处理好的训练集中的低分辨视频图像的连续三帧
Figure BDA0002801154470000051
作为深度学习模型的输入,对应的高分辨率视频图像作为目标高分辨图像
Figure BDA0002801154470000052
训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型。本实施例中放大因子可设置为×2、×3或×4。
具体的训练过程如下步骤A1~A4:
A1:使用增益为
Figure BDA0002801154470000053
的正交初始化改进的残差密集网络的增益,使用标准高斯分布初始化残差递归网络权重,偏置均初始化为0;
A2:将连续三帧低分辨率视频图像
Figure BDA0002801154470000054
输入到改进的残差密集网络中,生成与中间帧大小一致的运动补偿图像It-1 L′,It+1 L′,再将运动补偿图像和中间帧级联作为特征提取网络的输入,特征提取网络输出的深层特征图像作为残差递归网络的输入,输出与目标高分辨率视频图像大小一致的输出图像;
A3:将改进的残差密集网络生成的运动补偿图像和中间帧做改进的残差密集网络的损失函数
Figure BDA0002801154470000055
残差递归网络生成的高分辨率图像和目标高分辨率图像分别做残差递归网络的损失函数LRe和感知网络的损失函数Lp,依次迭代使得损失函数降低直至趋于稳定;
A4:训练整个深度学习模型,计算对应网络的损失函数,同时更新整个网络的参数,感知网络参与训练但不更新自身网络参数,直到所有损失函数趋于稳定,得到最终的视频图像超分辨率模型。
本实施例中训练好的深度学习模型的目标函数如下:
Figure BDA0002801154470000056
其中,α、β、γ为网络平衡参数,用于调整损失函数之间的比重,LRe为残差递归网络均方误差损失函数,
Figure BDA0002801154470000057
为改进的残差卷积网络损失函数,
Figure BDA0002801154470000058
为Huber损失,Lp为感知损失。
残差递归网络均方误差损失函数LRe为:
Figure BDA0002801154470000059
其中,r为放大因子,W和H分别为视频图像的高和宽,
Figure BDA00028011544700000510
Figure BDA00028011544700000511
分别为目标高分辨率图像和网络生成的高分辨率图像。
改进的残差卷积网络损失函数
Figure BDA00028011544700000512
为:
Figure BDA0002801154470000061
其中,
Figure BDA0002801154470000062
表示低分辨率图像中间帧,It±1 L′为通过残差卷积网络生成的相对于中间帧的运动补偿图像。
Huber损失
Figure BDA0002801154470000063
为:
Figure BDA0002801154470000064
其中,Δt±1表示在t±1时刻对应于x和y方向上的两个特征,∈=0.01。
感知损失Lp为:
Figure BDA0002801154470000065
其中,
Figure BDA0002801154470000066
表示在ImageNet数据集上预训练好的Vgg19网络。
本实施例中先将级联的三帧利用一个3*3*24的卷积层提取浅层特征,然后将浅层特征输入到如图2所示的改进的残差密集网络中预测光流场,其中3*3表示卷积层滤波器大小,24表示卷积层滤波器个数。改进的残差密集网络是由D个改进的残差密集块(ImprovedResidual Dense Block,IRDB)组成,IRDB具体如图5所示,每个残差密集块包含了两个密集连接的卷积层,每个密集连接的卷积层包含两个卷积滤波器和一个激活操作。卷积层的层数和每层卷积层中滤波器的个数及大小可根据实际情况进行选择设置。同理,改进的残差密集块的个数也可以根据实际情况进行选择设置,最后根据光流场,利用双线性插值算法获得运动补偿的图像。
在如图3所示的特征提取网络(Feature Extraction Network,FFN)模块中,将中间帧,两幅运动补偿图像级联作为特征提取模块的输入。特征提取模块由1个1*1*24卷积滤波器,一个3*3*24的卷积滤波器和一个激活函数组成用于提取补偿帧和中间帧的深层特征作为重构模块的基础。
在如图4所示的基于残差递归网络(Residual Recursive Network,RRN)的重构(Reconstruction)模块中,将提取的深层特征输入到残差递归网络中并通过上采样实现视频图像的超分辨率重构。残差递归网络也是由G个残差递归块(Residual RecursiveBlock,RRB)组成,其中每块是由三个3*3*24的卷积滤波器和两个激活函数构成。每个残差递归块中通过权值共享实现特征的重复提取以减小网络的训练参数,最后通过上采样层输出高分辨率图像
Figure BDA0002801154470000067
在感知网络中,将最终生成的高分辨率图像
Figure BDA0002801154470000068
和目标高分辨率图像
Figure BDA0002801154470000069
输入到预训练好的Vgg19网络中,以提升视觉效果。Vgg19网络模型是在ImageNet数据集上训练,并且已经保存好相应的权值和偏置。
S3:利用训练好的深度学习模型进行视频超分辨率重构。
本实施例中将本发明方法与现有的方法进行试验对比,试验的对比结果数据如表1所示:
表1:在放大因子r=4下比较标准Vid4数据集上的平均PSNR和SSIM值。
Figure BDA0002801154470000071
从表1中可以看出本发明方法相比现有技术中提到的方法在标准测试数据集Vid4上其平均峰值信噪比(PSNR)和结构相似性(SSIM)的值表现更好。(数值越大效果越好)
为了更加直观的体现本发明所提出方法的有效性,可视化数据集calendar下的第40帧图像的结果如图6所示。可以看出,本发明所提出方法与其他的三个方法相比,重构的图像与目标高分辨率图像较为接近且恢复出较好的细节,其感知效果非常好。所以本实施例证明了本发明方法的有效性,并且具备更好的重构效果。

Claims (8)

1.一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,包括如下步骤:
S1:构建深度学习模型,其包括如下步骤:
A1:运动补偿:
对输入的低分辨率图像序列,将连续三帧
Figure FDA0003813232180000011
作为模型的输入,然后利用改进的残差密集网络预测上一帧/下一帧相对于中间帧的光流场,再采用双线性插值实现中间帧的运动补偿得到It-1 L′,It+1 L′
改进的残差密集网络是由D个改进的残差密集块组成,每个残差密集块包含了两个密集连接的卷积层,每个密集连接的卷积层包含两个卷积滤波器和一个激活操作;卷积层的层数和每层卷积层中滤波器的个数及大小可根据实际情况进行选择设置,同理,改进的残差密集块的个数也可以根据实际情况进行选择设置,最后根据光流场,利用双线性插值算法获得运动补偿的图像;
A2:特征提取:
将运动补偿得到的两帧图像以及中间帧图像作为特征提取模块的输入,实现深层特征的提取;
A3:重构网络:
将步骤A2中提取的深层特征作为重构网络模块即残差递归网络的输入,最后利用上采样操作实现图像的超分辨率重构;
S2:训练深度学习模型:
将预处理好的训练集中的低分辨视频图像的连续三帧
Figure FDA0003813232180000012
作为深度学习模型的输入,对应的高分辨率视频图像作为目标高分辨图像
Figure FDA0003813232180000013
训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型;
S3:利用训练好的深度学习模型进行视频超分辨率重构。
2.根据权利要求1所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述步骤S2中训练集的预处理过程为:将具有高分辨率的视频图像序列进行数据增强,将原始视频图像序列和增强后的图像序列通过高斯模糊和下采样的过程生成对应的低分辨率图像序列,存储相对应的高分辨图像序列和低分辨率图像序列数据,作为整个网络的训练集。
3.根据权利要求1所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述步骤S2中深度学习模型的训练过程如下:
A1:初始化改进的残差密集网络的增益,使用标准高斯分布初始化残差递归网络权重,偏置均初始化为0;
A2:将连续三帧低分辨率视频图像
Figure FDA0003813232180000021
输入到改进的残差密集网络中,生成与中间帧大小一致的运动补偿图像It-1 L′,It+1 L′,再将运动补偿图像和中间帧级联作为特征提取网络的输入,特征提取网络输出的深层特征图像作为残差递归网络的输入,输出与目标高分辨率视频图像大小一致的输出图像;
A3:将改进的残差密集网络生成的运动补偿图像和中间帧做改进的残差密集网络的损失函数
Figure FDA0003813232180000022
残差递归网络生成的高分辨率图像和目标高分辨率图像分别做残差递归网络的损失函数LRe和感知网络的损失函数Lp,依次迭代使得损失函数降低直至趋于稳定;
A4:训练整个深度学习模型,计算对应网络的损失函数,同时更新整个网络的参数,感知网络参与训练但不更新自身网络参数,直到所有损失函数趋于稳定,得到最终的视频图像超分辨率模型。
4.根据权利要求2所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述步骤S3中训练好的深度学习模型的目标函数如下:
Figure FDA0003813232180000023
其中,α、β、γ为网络平衡参数,用于调整损失函数之间的比重,LRe为残差递归网络均方误差损失函数,
Figure FDA0003813232180000024
为改进的残差卷积网络损失函数,
Figure FDA0003813232180000025
为Huber损失,Lp为感知损失。
5.根据权利要求3所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述残差递归网络均方误差损失函数LRe为:
Figure FDA0003813232180000026
其中,r为放大因子,W和H分别为视频图像序列的高和宽,
Figure FDA0003813232180000027
Figure FDA0003813232180000028
分别为目标高分辨率图像和网络生成的高分辨率图像。
6.根据权利要求5所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述改进的残差卷积网络损失函数
Figure FDA0003813232180000029
为:
Figure FDA00038132321800000210
其中,
Figure FDA00038132321800000211
表示低分辨率图像中间帧,
Figure FDA00038132321800000212
为通过残差卷积网络生成的相对于中间帧的运动补偿图像。
7.根据权利要求3所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,Huber损失
Figure FDA00038132321800000213
为:
Figure FDA00038132321800000214
其中,Δt±1表示在t±1时刻对应于x和y方向上的两个特征,∈=0.01。
8.根据权利要求5所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,感知损失Lp为:
Figure FDA0003813232180000031
其中,
Figure FDA0003813232180000032
表示在ImageNet数据集上预训练好的Vgg19网络。
CN202011350139.0A 2020-11-26 2020-11-26 一种基于残差卷积网络的视频超分辨率重构方法 Active CN112348745B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011350139.0A CN112348745B (zh) 2020-11-26 2020-11-26 一种基于残差卷积网络的视频超分辨率重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011350139.0A CN112348745B (zh) 2020-11-26 2020-11-26 一种基于残差卷积网络的视频超分辨率重构方法

Publications (2)

Publication Number Publication Date
CN112348745A CN112348745A (zh) 2021-02-09
CN112348745B true CN112348745B (zh) 2022-10-14

Family

ID=74364943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011350139.0A Active CN112348745B (zh) 2020-11-26 2020-11-26 一种基于残差卷积网络的视频超分辨率重构方法

Country Status (1)

Country Link
CN (1) CN112348745B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767386A (zh) * 2018-12-22 2019-05-17 昆明理工大学 一种基于深度学习的快速图像超分辨率重建方法
CN110136063A (zh) * 2019-05-13 2019-08-16 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN111311490A (zh) * 2020-01-20 2020-06-19 陕西师范大学 基于多帧融合光流的视频超分辨率重建方法
CN111754403A (zh) * 2020-06-15 2020-10-09 南京邮电大学 一种基于残差学习的图像超分辨率重构方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767386A (zh) * 2018-12-22 2019-05-17 昆明理工大学 一种基于深度学习的快速图像超分辨率重建方法
CN110136063A (zh) * 2019-05-13 2019-08-16 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN111311490A (zh) * 2020-01-20 2020-06-19 陕西师范大学 基于多帧融合光流的视频超分辨率重建方法
CN111754403A (zh) * 2020-06-15 2020-10-09 南京邮电大学 一种基于残差学习的图像超分辨率重构方法

Also Published As

Publication number Publication date
CN112348745A (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
Lim et al. DSLR: Deep stacked Laplacian restorer for low-light image enhancement
CN110969577B (zh) 一种基于深度双重注意力网络的视频超分辨率重建方法
CN106709875B (zh) 一种基于联合深度网络的压缩低分辨率图像复原方法
CN111028177B (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN111028150B (zh) 一种快速时空残差注意力视频超分辨率重建方法
CN111192200A (zh) 基于融合注意力机制残差网络的图像超分辨率重建方法
CN111311490A (zh) 基于多帧融合光流的视频超分辨率重建方法
CN109035146B (zh) 一种基于深度学习的低质量图像超分方法
CN110796622B (zh) 一种基于串联神经网络多层特征的图像比特增强方法
CN111340744B (zh) 基于注意力双流深度网络的低质量图像降采样方法及其系统
CN108989731B (zh) 一种提高视频空间分辨率的方法
CN111369466B (zh) 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
CN112529776B (zh) 图像处理模型的训练方法、图像处理方法及装置
CN110111251B (zh) 一种结合深度监督自编码和感知迭代反投影的图像超分辨率重建方法
CN110889895A (zh) 一种融合单帧重建网络的人脸视频超分辨率重建方法
CN112102163B (zh) 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法
Li et al. Underwater image high definition display using the multilayer perceptron and color feature-based SRCNN
CN112669214B (zh) 一种基于交替方向乘子算法的模糊图像超分辨率重建方法
CN112270646B (zh) 基于残差密集跳跃网络的超分辨增强方法
CN112164011A (zh) 基于自适应残差与递归交叉注意力的运动图像去模糊方法
CN113379606B (zh) 一种基于预训练生成模型的人脸超分辨方法
CN114022809A (zh) 基于改进自编码网络的视频运动放大方法
CN112348745B (zh) 一种基于残差卷积网络的视频超分辨率重构方法
CN116612009A (zh) 一种多尺度连接生成对抗网络医学图像超分辨率重建方法
CN113674154B (zh) 一种基于生成对抗网络的单幅图像超分辨率重建方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant