CN112348745B - 一种基于残差卷积网络的视频超分辨率重构方法 - Google Patents
一种基于残差卷积网络的视频超分辨率重构方法 Download PDFInfo
- Publication number
- CN112348745B CN112348745B CN202011350139.0A CN202011350139A CN112348745B CN 112348745 B CN112348745 B CN 112348745B CN 202011350139 A CN202011350139 A CN 202011350139A CN 112348745 B CN112348745 B CN 112348745B
- Authority
- CN
- China
- Prior art keywords
- network
- resolution
- image
- residual
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于残差卷积网络的视频超分辨率重构方法,包括:构建深度学习模型,其包括运动补偿、特征提取、重构网络:训练深度学习模型:训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型;利用训练好的深度学习模型进行视频超分辨率重构。本发明不仅能够加快模型训练的速度,还能充分利用先前卷积层的层级特征;利用残差递归网络作为超分辨重构层,不仅能够减少训练参数,还能恢复高频细节信息;此外,利用感知损失作为额外的损失函数,可以更好地恢复纹理细节和提高图像重构的视觉效果,提升了图像空间超分辨重构效果。
Description
技术领域
本发明属于数字图像领域,涉及视频图像超分辨率重构技术,具体涉及了一种基于残差卷积网络的视频超分辨率重构方法。
背景技术
超分辨率图像重构(Super-Resolution Reconstruction,SRR)是一种通过信号处理方式来实现图像分辨率的提升,以及解决成像密度低和图像噪声等问题的技术。现阶段,由于图像/视频图像采集系统不仅受到传感器密度和尺寸的限制,还受到目标物体运动、光照变化及信号采集和处理过程中的其他干扰,因此,获得的视频空间分辨率较低。通过硬件的改善提高视频空间分辨率是最为简单的方法,但是高精度的视频传感器往往意味着高昂的成本。因此,为了克服硬件方法带来的缺陷,提出了利用软件方法来实现图像空间分辨率的提升。图像超分辨率重构是使用低分辨的单帧或多帧序列图像来重建一张高分辨率图像,高分辨率指图像的像素密度尽可能的高,并且尽可能多的包含图像高频信息。这样的图像可以更好的描述真实目标场景的细节信息,并给予人眼更良好的直观体验。由于计算机视觉发展也极大依赖于图像的采集和分析,因此对低分辨率图像进行超分辨率重构具有十分重要的理论意义和应用价值。
目前,图像超分辨率方法主要集中于单幅图像,对于连续多帧视频图像研究较少,虽然可将一些方法直接用于视频超分辨率重构,但是未能充分利用视频的帧间互补信息,导致超分辨率重构效果差。
发明内容
发明目的:为了克服现有技术中存在的不足,提供一种基于残差卷积网络的视频超分辨率重构方法,能够提升图像空间超分辨重构效果。
技术方案:为实现上述目的,本发明提供一种基于残差卷积网络的视频超分辨率重构方法,包括如下步骤:
S1:构建深度学习模型,其包括如下步骤:
A1:运动补偿:
A2:特征提取:
将运动补偿得到的两帧图像以及中间帧图像作为特征提取模块的输入,实现深层特征的提取;
A3:重构网络:
将步骤A2中提取的深层特征作为重构网络模块即残差递归网络的输入,最后利用上采样操作实现图像的超分辨率重构;
S2:训练深度学习模型:
将预处理好的训练集中的低分辨视频图像的连续三帧作为深度学习模型的输入,对应的高分辨率视频图像作为目标高分辨图像训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型。
残差递归网络将特征提取网络中获得的深层特征作为输入,以重构高分辨率视频图像,与目标高分辨率视频图像进行递归网络损失函数LRe。
感知网络中将目标高分辨率视频图像和重构的高分辨率视频图像做感知损失函数Lp计算。深度学习模型进行多次迭代直至稳定后完成训练过程。
S3:利用训练好的深度学习模型进行视频超分辨率重构。
进一步地,所述步骤S2中训练集的预处理过程为:将具有高分辨率的视频图像序列进行数据增强,将原始视频图像序列和增强后的图像序列通过高斯模糊和下采样的过程生成对应的低分辨率图像序列,存储相对应的高分辨图像序列和低分辨率图像序列数据,作为整个网络的训练集。
进一步地,所述步骤S2中深度学习模型的训练过程如下:
A2:将连续三帧低分辨率视频图像输入到改进的残差密集网络中,生成与中间帧大小一致的运动补偿图像It-1 L′,It+1 L′,再将运动补偿图像和中间帧级联作为特征提取网络的输入,特征提取网络输出的深层特征图像作为残差递归网络的输入,输出与目标高分辨率视频图像大小一致的输出图像;
A3:将改进的残差密集网络生成的运动补偿图像和中间帧做改进的残差密集网络的损失函数残差递归网络生成的高分辨率图像和目标高分辨率图像分别做残差递归网络的损失函数LRe和感知网络的损失函数Lp,依次迭代使得损失函数降低直至趋于稳定;
A4:训练整个深度学习模型,计算对应网络的损失函数,同时更新整个网络的参数,感知网络参与训练但不更新自身网络参数,直到所有损失函数趋于稳定,得到最终的视频图像超分辨率模型。
进一步地,所述步骤S3中训练好的深度学习模型的目标函数如下:
进一步地,所述残差递归网络均方误差损失函数LRe为:
其中,Δt±1表示在t±1时刻对应于x和y方向上的两个特征,∈=0.01。
进一步地,所述感知损失Lp为:
有益效果:本发明与现有技术相比,使用改进的残差密集网络作为预测上一帧/下一帧相对于中间帧的密集光流场,不仅能够加快模型训练的速度,还能充分利用先前卷积层的层级特征;利用残差递归网络作为超分辨重构层,不仅能够减少训练参数,还能恢复高频细节信息;此外,利用感知损失作为额外的损失函数,可以更好地恢复纹理细节和提高图像重构的视觉效果,提升了图像空间超分辨重构效果。
附图说明
图1是本发明基于残差卷积网络的视频超分辨率方法的原理总框图;
图2是本发明基于改进的残差密集网络的运动补偿模块;
图3是本发明基于卷积网络的特征提取模块;
图4是本发明基于残差递归网络的重构模块;
图5是本发明改进的残差密集块结构图;
图6是本发明重构图像的对比示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明提供一种基于残差卷积网络的视频超分辨率重构方法,如图1所示,其包括如下步骤:
1、训练集预处理:
首先对训练数据集在python软件上进行预处理操作,包括图像增强、高斯模糊和下采样操作,放大因子r可以是×2、×3或×4。然后将训练数据集的输入裁剪为32×32大小的子图像块,相应的目标高分辨图像裁剪为32r×32r。最后将这些处理后的训练数据集用h5py模块打包成h5py格式。
2、构建深度学习模型,其包括如下步骤:
A1:运动补偿:
A2:特征提取:
将运动补偿得到的两帧图像以及中间帧图像作为特征提取模块的输入,实现深层特征的提取;
A3:重构网络:
将步骤A2中提取的深层特征作为重构网络模块即残差递归网络的输入,最后利用上采样操作实现图像的超分辨率重构;
S2:训练深度学习模型:
将预处理好的训练集中的低分辨视频图像的连续三帧作为深度学习模型的输入,对应的高分辨率视频图像作为目标高分辨图像训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型。本实施例中放大因子可设置为×2、×3或×4。
具体的训练过程如下步骤A1~A4:
A2:将连续三帧低分辨率视频图像输入到改进的残差密集网络中,生成与中间帧大小一致的运动补偿图像It-1 L′,It+1 L′,再将运动补偿图像和中间帧级联作为特征提取网络的输入,特征提取网络输出的深层特征图像作为残差递归网络的输入,输出与目标高分辨率视频图像大小一致的输出图像;
A3:将改进的残差密集网络生成的运动补偿图像和中间帧做改进的残差密集网络的损失函数残差递归网络生成的高分辨率图像和目标高分辨率图像分别做残差递归网络的损失函数LRe和感知网络的损失函数Lp,依次迭代使得损失函数降低直至趋于稳定;
A4:训练整个深度学习模型,计算对应网络的损失函数,同时更新整个网络的参数,感知网络参与训练但不更新自身网络参数,直到所有损失函数趋于稳定,得到最终的视频图像超分辨率模型。
本实施例中训练好的深度学习模型的目标函数如下:
残差递归网络均方误差损失函数LRe为:
其中,Δt±1表示在t±1时刻对应于x和y方向上的两个特征,∈=0.01。
感知损失Lp为:
本实施例中先将级联的三帧利用一个3*3*24的卷积层提取浅层特征,然后将浅层特征输入到如图2所示的改进的残差密集网络中预测光流场,其中3*3表示卷积层滤波器大小,24表示卷积层滤波器个数。改进的残差密集网络是由D个改进的残差密集块(ImprovedResidual Dense Block,IRDB)组成,IRDB具体如图5所示,每个残差密集块包含了两个密集连接的卷积层,每个密集连接的卷积层包含两个卷积滤波器和一个激活操作。卷积层的层数和每层卷积层中滤波器的个数及大小可根据实际情况进行选择设置。同理,改进的残差密集块的个数也可以根据实际情况进行选择设置,最后根据光流场,利用双线性插值算法获得运动补偿的图像。
在如图3所示的特征提取网络(Feature Extraction Network,FFN)模块中,将中间帧,两幅运动补偿图像级联作为特征提取模块的输入。特征提取模块由1个1*1*24卷积滤波器,一个3*3*24的卷积滤波器和一个激活函数组成用于提取补偿帧和中间帧的深层特征作为重构模块的基础。
在如图4所示的基于残差递归网络(Residual Recursive Network,RRN)的重构(Reconstruction)模块中,将提取的深层特征输入到残差递归网络中并通过上采样实现视频图像的超分辨率重构。残差递归网络也是由G个残差递归块(Residual RecursiveBlock,RRB)组成,其中每块是由三个3*3*24的卷积滤波器和两个激活函数构成。每个残差递归块中通过权值共享实现特征的重复提取以减小网络的训练参数,最后通过上采样层输出高分辨率图像
S3:利用训练好的深度学习模型进行视频超分辨率重构。
本实施例中将本发明方法与现有的方法进行试验对比,试验的对比结果数据如表1所示:
表1:在放大因子r=4下比较标准Vid4数据集上的平均PSNR和SSIM值。
从表1中可以看出本发明方法相比现有技术中提到的方法在标准测试数据集Vid4上其平均峰值信噪比(PSNR)和结构相似性(SSIM)的值表现更好。(数值越大效果越好)
为了更加直观的体现本发明所提出方法的有效性,可视化数据集calendar下的第40帧图像的结果如图6所示。可以看出,本发明所提出方法与其他的三个方法相比,重构的图像与目标高分辨率图像较为接近且恢复出较好的细节,其感知效果非常好。所以本实施例证明了本发明方法的有效性,并且具备更好的重构效果。
Claims (8)
1.一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,包括如下步骤:
S1:构建深度学习模型,其包括如下步骤:
A1:运动补偿:
改进的残差密集网络是由D个改进的残差密集块组成,每个残差密集块包含了两个密集连接的卷积层,每个密集连接的卷积层包含两个卷积滤波器和一个激活操作;卷积层的层数和每层卷积层中滤波器的个数及大小可根据实际情况进行选择设置,同理,改进的残差密集块的个数也可以根据实际情况进行选择设置,最后根据光流场,利用双线性插值算法获得运动补偿的图像;
A2:特征提取:
将运动补偿得到的两帧图像以及中间帧图像作为特征提取模块的输入,实现深层特征的提取;
A3:重构网络:
将步骤A2中提取的深层特征作为重构网络模块即残差递归网络的输入,最后利用上采样操作实现图像的超分辨率重构;
S2:训练深度学习模型:
将预处理好的训练集中的低分辨视频图像的连续三帧作为深度学习模型的输入,对应的高分辨率视频图像作为目标高分辨图像训练模型中的改进的残差密集网络、特征提取网络和残差递归网络以获得最优的权值和偏置,得到能够实现低分辨率视频图像到高分辨率重构的深度学习模型;
S3:利用训练好的深度学习模型进行视频超分辨率重构。
2.根据权利要求1所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述步骤S2中训练集的预处理过程为:将具有高分辨率的视频图像序列进行数据增强,将原始视频图像序列和增强后的图像序列通过高斯模糊和下采样的过程生成对应的低分辨率图像序列,存储相对应的高分辨图像序列和低分辨率图像序列数据,作为整个网络的训练集。
3.根据权利要求1所述的一种基于残差卷积网络的视频超分辨率重构方法,其特征在于,所述步骤S2中深度学习模型的训练过程如下:
A1:初始化改进的残差密集网络的增益,使用标准高斯分布初始化残差递归网络权重,偏置均初始化为0;
A2:将连续三帧低分辨率视频图像输入到改进的残差密集网络中,生成与中间帧大小一致的运动补偿图像It-1 L′,It+1 L′,再将运动补偿图像和中间帧级联作为特征提取网络的输入,特征提取网络输出的深层特征图像作为残差递归网络的输入,输出与目标高分辨率视频图像大小一致的输出图像;
A3:将改进的残差密集网络生成的运动补偿图像和中间帧做改进的残差密集网络的损失函数残差递归网络生成的高分辨率图像和目标高分辨率图像分别做残差递归网络的损失函数LRe和感知网络的损失函数Lp,依次迭代使得损失函数降低直至趋于稳定;
A4:训练整个深度学习模型,计算对应网络的损失函数,同时更新整个网络的参数,感知网络参与训练但不更新自身网络参数,直到所有损失函数趋于稳定,得到最终的视频图像超分辨率模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011350139.0A CN112348745B (zh) | 2020-11-26 | 2020-11-26 | 一种基于残差卷积网络的视频超分辨率重构方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011350139.0A CN112348745B (zh) | 2020-11-26 | 2020-11-26 | 一种基于残差卷积网络的视频超分辨率重构方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112348745A CN112348745A (zh) | 2021-02-09 |
CN112348745B true CN112348745B (zh) | 2022-10-14 |
Family
ID=74364943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011350139.0A Active CN112348745B (zh) | 2020-11-26 | 2020-11-26 | 一种基于残差卷积网络的视频超分辨率重构方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112348745B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767386A (zh) * | 2018-12-22 | 2019-05-17 | 昆明理工大学 | 一种基于深度学习的快速图像超分辨率重建方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111311490A (zh) * | 2020-01-20 | 2020-06-19 | 陕西师范大学 | 基于多帧融合光流的视频超分辨率重建方法 |
CN111754403A (zh) * | 2020-06-15 | 2020-10-09 | 南京邮电大学 | 一种基于残差学习的图像超分辨率重构方法 |
-
2020
- 2020-11-26 CN CN202011350139.0A patent/CN112348745B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767386A (zh) * | 2018-12-22 | 2019-05-17 | 昆明理工大学 | 一种基于深度学习的快速图像超分辨率重建方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111311490A (zh) * | 2020-01-20 | 2020-06-19 | 陕西师范大学 | 基于多帧融合光流的视频超分辨率重建方法 |
CN111754403A (zh) * | 2020-06-15 | 2020-10-09 | 南京邮电大学 | 一种基于残差学习的图像超分辨率重构方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112348745A (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lim et al. | DSLR: Deep stacked Laplacian restorer for low-light image enhancement | |
CN110969577B (zh) | 一种基于深度双重注意力网络的视频超分辨率重建方法 | |
CN106709875B (zh) | 一种基于联合深度网络的压缩低分辨率图像复原方法 | |
CN111028177B (zh) | 一种基于边缘的深度学习图像去运动模糊方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN111192200A (zh) | 基于融合注意力机制残差网络的图像超分辨率重建方法 | |
CN111311490A (zh) | 基于多帧融合光流的视频超分辨率重建方法 | |
CN109035146B (zh) | 一种基于深度学习的低质量图像超分方法 | |
CN110796622B (zh) | 一种基于串联神经网络多层特征的图像比特增强方法 | |
CN111340744B (zh) | 基于注意力双流深度网络的低质量图像降采样方法及其系统 | |
CN108989731B (zh) | 一种提高视频空间分辨率的方法 | |
CN111369466B (zh) | 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法 | |
CN112529776B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN110111251B (zh) | 一种结合深度监督自编码和感知迭代反投影的图像超分辨率重建方法 | |
CN110889895A (zh) | 一种融合单帧重建网络的人脸视频超分辨率重建方法 | |
CN112102163B (zh) | 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法 | |
Li et al. | Underwater image high definition display using the multilayer perceptron and color feature-based SRCNN | |
CN112669214B (zh) | 一种基于交替方向乘子算法的模糊图像超分辨率重建方法 | |
CN112270646B (zh) | 基于残差密集跳跃网络的超分辨增强方法 | |
CN112164011A (zh) | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 | |
CN113379606B (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN114022809A (zh) | 基于改进自编码网络的视频运动放大方法 | |
CN112348745B (zh) | 一种基于残差卷积网络的视频超分辨率重构方法 | |
CN116612009A (zh) | 一种多尺度连接生成对抗网络医学图像超分辨率重建方法 | |
CN113674154B (zh) | 一种基于生成对抗网络的单幅图像超分辨率重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |