CN109949217A - 基于残差学习和隐式运动补偿的视频超分辨率重建方法 - Google Patents
基于残差学习和隐式运动补偿的视频超分辨率重建方法 Download PDFInfo
- Publication number
- CN109949217A CN109949217A CN201711384656.8A CN201711384656A CN109949217A CN 109949217 A CN109949217 A CN 109949217A CN 201711384656 A CN201711384656 A CN 201711384656A CN 109949217 A CN109949217 A CN 109949217A
- Authority
- CN
- China
- Prior art keywords
- residual error
- resolution
- motion compensation
- neural networks
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于残差学习和隐式运动补偿的视频超分辨率重建方法。主要包括以下步骤:分别训练不同放大倍数的卷积神经网络模型;将相邻低分辨率视频帧作为输入,通过上一步骤训练的网络模型,得到最终的重建结果。本发明所述方法可以由低分辨率视频帧重建出高质量的高分辨率视频帧,是一种有效的视频超分辨率重建方法。
Description
技术领域
本发明涉及图像分辨率提升技术,具体涉及一种基于残差学习和隐式运动补偿的视频超分辨率重建方法,属于数字图像处理领域。
背景技术
在医学成像,视频监控和遥感成像等许多应用中,都需要捕获高质量的图像和视频。然而,在现实生活中,由于成像设备限制、大气扰动及场景运动变化等因素影响,实际获取的视频往往分辨率较低,给后续的视频处理和分析带来困难,难以满足人们的需求。提升图像和视频分辨率的方法主要有两种:一种是提高成像设备的物理分辨率;另一种是通过软件实现分辨率的提升。提高成像设备分辨率的方法,代价较高,且无法对已经存储的数据进行处理,因此,通过软件实现分辨率提升的超分辨率重建技术成为图像处理领域的一个研究热点。
超分辨率重建是一种从低分辨率图像或视频序列中恢复其高分辨率版本的方法。视频超分辨率重建方法主要分为基于重建的方法和基于学习的方法。其中,基于学习的方法由基于字典和基于卷积神经网络两类方法构成。近年来,随着计算机和智能技术的发展,基于卷积神经网络的方法取得了较大的进展,相比于传统的基于重建的方法,其运行速度快并且能够很好地恢复图像细节。然而,现有的基于卷积神经网络的视频超分辨率重建方法,在重建质量和网络结构有效性等方面还有进一步提升的空间。
发明内容
本发明的目的是结合基于残差学习的卷积神经网络的优点,进而构建一种有效的视频超分辨率重建方法。
本发明提出的基于残差学习和隐式运动补偿的视频超分辨率重建方法(enhancedvideo SR network with residual blocks,EVSR),主要包括以下操作步骤:
(1)分别训练不同放大倍数的卷积神经网络模型;
(2)将相邻低分辨率帧作为输入,通过步骤(1)中训练的网络模型,得到最终的重建结果。
附图说明
图1是本发明基于残差学习和隐式运动补偿的视频超分辨率重建方法的原理框图。其中,(a)为本发明EVSR的训练及重建阶段的框图,(b)为(a)中残差模块结构图,(c)为维度调整层图解说明
图2是本发明与另外七种方法对测试视频“city”重建结果的对比图。其中,(a)为原始高分辨率图像,(b)为Bicubic处理结果,(c)到(h)为方法1到方法6的实验结果,(i)为本发明结果
图3是本发明与七种方法对测试视频“walk”重建结果的对比图。其中,(a)为原始高分辨率图像,(b)为Bicubic处理结果,(c)到(e)为方法1到方法3的实验结果,(f)到(h)为方法5到方法7的实验结果,(i)为本发明结果
图4是本发明与八种方法对测试视频“foliage”重建结果的对比图。其中,(a)为原始高分辨率图像,(b)为Bicubic处理结果,(c)到(i)为方法1到方法7的实验结果,(j)为本发明结果
具体实施方式
下面结合附图对本发明作进一步说明:
图1中,基于残差学习和隐式运动补偿的视频超分辨率重建方法,具体可以分为以下几个步骤:
(1)分别训练不同放大倍数的卷积神经网络模型;
(2)将相邻低分辨率帧作为输入,通过步骤(1)中训练的网络模型,得到最终的重建结果;
具体地,所述步骤(1)中,进行训练的卷积神经网络模型如图1(a)所示。卷积神经网络结构主要包括特征提取、非线性映射和重建三个部分。首先,通过第一层网络对输入的三个相邻低分辨率帧进行特征提取。然后,经非线性映射部分将一个高维特征非线性地映射到另一个高维特征。该操作是提升重建质量的重要部分。最后,使用反卷积层来获得重建结果。网络框架总共有11层,其中包括两个残差单元,一个带维度调整层的长连接和一个反卷积层。我们的深度网络可以充分利用时空信息并且隐式地捕捉相邻帧间的运动关系,所以,不同于以往基于卷积神经网络的视频超分辨率方法,EVSR不需要进行独立的运动补偿操作。另外,由于残差学习在提升收敛速度和网络重建效果方面表现突出,所以本发明使用残差模块和带有维度调整层的长连接来更好地预测高频信息。
通过实验论证,本发明的深度卷积神经网络可以精确地并且隐式地从训练库中学习相邻帧之间的运动关系。如果将运动补偿和卷积神经网络分离,由运动补偿帧带来的估计误差可能会扩散到重建阶段,并影响最终的重建结果。因此,在训练及重建过程中的显式的运动补偿可以省去。此外,在训练和重建阶段,隐式运动补偿还可以在一定程度上减少显式运动补偿所消耗的时间。
残差模块由三个卷积层和三个激励层(Parametric Rectified Linear Unit,PReLU)组成,其中最后一个激励层在求和操作之后,详细结构见图1(b)。残差模块的公式表示如下:
xi+1=p[xi+f(xi,Wi)] (1)
式中,xi是残差模块的第i个输入,Wi={wi,q|1≤q≤Q}是和第i个残差模块相关的一组权重,Q是残差模块中卷积层的数量。f代表残差操作,如图1(b)中虚线框所示。p代表激励函数,在本发明中使用PReLU。PReLU被定义为:
p(z)=max(z,0)+a min(0,z) (2)
式中,z是函数p的输入,a是可以被PReLU学习到的参数。当a是一个固定的很小的非零数时,它可以被看做LeakyReLU;当a=0时,PReLU等价为ReLU。为方便讨论,我们仅给出当z大于0时的分析,其他情况以此类推:
xi+1=xi+f(xi,Wi) (3)
将多个残差模块级联,可得:
从公式(4)中,我们可以得出以下信息:1)在任意模块i和I之间,模型总是残差形式;2)公式(4)是先前残差公式的和。不同于没有残差的网络,xI源自一系列矩阵向量。
公式(4)也有很好的反向传播特性。定义损失函数为Φ,可得:
从公式(5)(6)中可得,梯度可以被分解为两部分,仅有通过卷积层传播信息。带有的项保证信息可以被传播到前面的模块。不可能总是-1,所以不太可能消失。换句话说,即使权重特别小,卷积层的梯度也不会消失。
残差模块能够降低卷积层中梯度消失的风险,而且,拟合残差比拟合原始真实图像更容易。
广义地说,维度调整层用于解决如图1(c)所示的不同数量和尺寸的特征或图像的求和问题。具体来说,假设输入特征的尺寸为s1×s1,个数为k1,输出特征尺寸为s2×s2,个数为k2。如果s1=s2,k1=k2,那么这些特征可以直接相加。但如果不符合上述情况,则需要通过特殊操作,使其维度匹配,进而进行求和操作。所以,我们提出了由卷积层构成的维度调整层来解决此问题。维度调整层的神经元尺寸和个数分别设置为(s2-s1+1)×(s2-s1+1)和k2。在本发明中,为了引入全局残差策略,我们使用维度调整层实现了不同尺寸和数量的输入帧和残差图像的求和。
所述步骤(2)中,将相邻低分辨率帧输入步骤(1)中训练的网络模型,得到最终重建结果。
为了更好地说明本发明的有效性,在常用测试视频库“Videoset4”(包括“walk”、“calendar”、“foliage”和“city”四个视频)和一些其他视频上进行了比较实验。模拟低分辨率视频帧的生成方式:使用双三次插值分别进行2、3和4倍下采样。实验中,选取双三次插值Bicubic及8种典型的单幅图像超分辨率和视频超分辨率算法作为对比方法。
对比的超分辨率重建算法为:
方法1:Dong等人提出的方法,参考文献“C.Dong,C.C.Loy,K.He,and X.Tang,“Image super-resolution using deep convolutional networks,”IEEE transactionson pattern analysis and machine intelligence,vol.38,no.2,pp.295–307,2016.”。
方法2:Dong等人提出的方法,参考文献“C.Dong,C.C.Loy,and X.Tang,“Accelerating the super-resolution convolutional neural network,”in EuropeanConference on Computer Vision.Springer,2016,pp.391–407.”。
方法3:Kim等人提出的方法,参考文献“J.Kim,J.Kwon Lee,and K.Mu Lee,“Accurate image super-resolution using very deep convolutional networks,”inProceedings of the IEEE Conference on Computer Vision and PatternRecognition,2016,pp.1646–1654.”。
方法4:Lai等人提出的方法,参考文献“W.S.Lai,J.B.Huang,N.Ahuja,andM.H.Yang,“Deep laplacian pyramid networks for fast and accurate super-resolution,”in IEEE Conference on Computer Vision and Pattern Recognition,2017.”。
方法5:Infognition Co.Ltd公司开发的一款Video Enhancer软件,参考文献“Infognition.(2010).Video Enhancer[Online].Available:http://www.infognition.com/videoenhancer.”。
方法6:Kappeler等人提出的方法,参考文献“A.Kappeler,S.Yoo,Q.Dai,andA.K.Katsaggelos,“Video super-resolution with convolutional neural networks,”IEEE Transactions on Computational Imaging,vol.2,no.2,pp.109–122,2016.”。
方法7:Caballero等人提出的方法,参考文献“J.Caballero,C.Ledig,A.Aitken,A.Acosta,J.Totz,Z.Wang,and W.Shi,“Real-time video super-resolution withspatio-temporal networks and motion compensation,”pp.2848–2857,2017.”。
方法8:Li等人提出的方法,参考文献“D.Li and Z.Wang,“Video super-resolution via motion compensation and deep residual learning,”IEEETransactions on Computational Imaging,2017.”。
对比实验的内容如下:
实验1,分别用Bicubic,方法1到方法8以及本发明对测试视频库“Videoset4”模拟生成的低分辨率视频帧进行2、3和4倍重建。其中方法7和8的作者没有提供代码和可用的模型,所以直接使用其论文中的数据进行比较。方法4仅提供二倍和四倍的模型。超分辨率重建结果分别如图2、图3和图4所示,重建结果的客观评价参数如表一所示。其中客观评价参数采用PSNR(Peak Signal to Noise Ratio)和SSIM(Structure Similarity Index),两个参数的数值越高表明重建效果越好。
表一
实验2,分别用Bicubic,方法1到方法6以及本发明对“waterfall”、“tempete”、“crew”和“foreman”低分辨率视频帧进行2、3和4倍重建。其中方法7和8的作者没有提供代码和可用的模型,方法4仅提供二倍和四倍的模型。重建结果的客观评价参数如表二所示。其中客观评价参数采用PSNR(Peak Signal to Noise Ratio)和SSIM(StructureSimilarity Index),两个参数的数值越高表明重建效果越好。
表二
从表一及表二所示的客观参数上看,在测试视频“Videoset4”、“waterfall”、“tempete”、“crew”和“foreman”,上本发明都取得了较高的PSNR和SSIM值。
图2、图3及图4展示了“Videoset4”中不同视频帧在2、3、4倍的重建结果。在图2中,由于其他算法的初始化双三次插值放大或不准确的运动补偿,建筑物顶部的窗户产生了模糊。但是本发明在这个部分能够恢复更精确的结构。同样,在图3和图4的轮胎和雪花上,本发明也表现出更好的重建效果。
综上所述,相比于对比方法,本发明的重建结果在主客观评价上都有很大优势。因此,本发明是一种有效的视频超分辨率重建方法。
Claims (4)
1.基于残差学习和隐式运动补偿的视频超分辨率重建方法,其特征在于包括以下步骤:
步骤一:分别训练不同放大倍数的卷积神经网络模型;
步骤二:将相邻低分辨率帧作为输入,通过步骤一中训练的网络模型,得到最终的重建结果。
2.根据权利要求1所述的基于残差学习和隐式运动补偿的视频超分辨率重建方法,其特征在于步骤一中所述的卷积神经网络模型。该网络模型不同于传统基于卷积神经网络的视频超分辨率网络模型,由于本发明的深度卷积神经网络可以充分利用时空信息并且隐式地捕捉相邻帧间的运动关系,所以并不需要进行网络外的运动补偿或在网络中设置单独实现运动补偿的模块,从而省去以往方法中运动估计的时间。
3.根据权利要求1所述的基于残差学习和隐式运动补偿的视频超分辨率重建方法,其特征在于步骤一中所述的卷积神经网络模型。该模型中使用残差模块来提升收敛速度和重建效果,该残差模块由三个卷积层和三个激励层(PReLU)组成。残差模块能够降低卷积层中梯度消失的风险,同时,拟合残差也比拟合原始真实图像更容易。
4.根据权利要求1所述的基于残差学习和隐式运动补偿的视频超分辨率重建方法,其特征在于步骤一中所述的卷积神经网络模型。模型中使用带有维度调整层的长跳连接来预测高频细节。广义来说,维度调整层可以解决不同维度的图像或特征的匹配问题。假设输入特征的尺寸为s1×s1,个数为k1,输出特征尺寸为s2×s2,个数为k2。如果s1=s2,k1=k2,那么这些特征可以直接相加。但如果不符合上述情况,则需要通过特殊操作,使其维度匹配,从而进行求和操作。所以,我们提出了由卷积层构成的维度调整层来解决此问题。维度调整层的神经元尺寸和个数分别设置为s2-s1+1和k2。在本发明中,为了引入全局残差策略,我们使用维度调整层实现了不同尺寸和数量的输入帧和残差图像的求和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711384656.8A CN109949217B (zh) | 2017-12-20 | 2017-12-20 | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711384656.8A CN109949217B (zh) | 2017-12-20 | 2017-12-20 | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109949217A true CN109949217A (zh) | 2019-06-28 |
CN109949217B CN109949217B (zh) | 2023-04-11 |
Family
ID=67004543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711384656.8A Active CN109949217B (zh) | 2017-12-20 | 2017-12-20 | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109949217B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110969577A (zh) * | 2019-11-29 | 2020-04-07 | 北京交通大学 | 一种基于深度双重注意力网络的视频超分辨率重建方法 |
CN111028150A (zh) * | 2019-11-28 | 2020-04-17 | 武汉大学 | 一种快速时空残差注意力视频超分辨率重建方法 |
CN111259841A (zh) * | 2020-01-20 | 2020-06-09 | 深圳云天励飞技术有限公司 | 一种图像处理方法及相关设备 |
CN112070665A (zh) * | 2020-08-03 | 2020-12-11 | 武汉大学 | 生成对抗式视频超分辨率重建及重建图像真伪性鉴别方法 |
CN114387161A (zh) * | 2020-10-16 | 2022-04-22 | 四川大学 | 基于增强深层特征提取和残差上下采样块的视频超分辨率 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007316161A (ja) * | 2006-05-23 | 2007-12-06 | Matsushita Electric Ind Co Ltd | 残差補間を用いた超解像処理方法及び装置 |
CN104718756A (zh) * | 2013-01-30 | 2015-06-17 | 英特尔公司 | 用于下一代视频译码的、利用经修改的参考的内容自适应预测性图片和功能预测性图片 |
CN106846286A (zh) * | 2017-01-05 | 2017-06-13 | 四川大学 | 基于多种互补先验的视频超分辨率重建算法 |
CN107240066A (zh) * | 2017-04-28 | 2017-10-10 | 天津大学 | 基于浅层和深层卷积神经网络的图像超分辨率重建算法 |
CN107274347A (zh) * | 2017-07-11 | 2017-10-20 | 福建帝视信息科技有限公司 | 一种基于深度残差网络的视频超分辨率重建方法 |
CN112070665A (zh) * | 2020-08-03 | 2020-12-11 | 武汉大学 | 生成对抗式视频超分辨率重建及重建图像真伪性鉴别方法 |
CN113837938A (zh) * | 2021-07-28 | 2021-12-24 | 北京大学 | 基于动态视觉传感器重建潜在图像的超分辨率方法 |
-
2017
- 2017-12-20 CN CN201711384656.8A patent/CN109949217B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007316161A (ja) * | 2006-05-23 | 2007-12-06 | Matsushita Electric Ind Co Ltd | 残差補間を用いた超解像処理方法及び装置 |
CN104718756A (zh) * | 2013-01-30 | 2015-06-17 | 英特尔公司 | 用于下一代视频译码的、利用经修改的参考的内容自适应预测性图片和功能预测性图片 |
CN106846286A (zh) * | 2017-01-05 | 2017-06-13 | 四川大学 | 基于多种互补先验的视频超分辨率重建算法 |
CN107240066A (zh) * | 2017-04-28 | 2017-10-10 | 天津大学 | 基于浅层和深层卷积神经网络的图像超分辨率重建算法 |
CN107274347A (zh) * | 2017-07-11 | 2017-10-20 | 福建帝视信息科技有限公司 | 一种基于深度残差网络的视频超分辨率重建方法 |
CN112070665A (zh) * | 2020-08-03 | 2020-12-11 | 武汉大学 | 生成对抗式视频超分辨率重建及重建图像真伪性鉴别方法 |
CN113837938A (zh) * | 2021-07-28 | 2021-12-24 | 北京大学 | 基于动态视觉传感器重建潜在图像的超分辨率方法 |
Non-Patent Citations (3)
Title |
---|
WENJUN WANG ET CL.: ""video super-resolution via residual learning"", 《IEEE ACCESS》 * |
YOUNGHYUN JO ET CL.: ""Deep video super-resolution network using dynamic upsampling filters without explicit motion compensation"", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
肖宿等: "数字图像超分辨率重建技术综述", 《计算机科学》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028150A (zh) * | 2019-11-28 | 2020-04-17 | 武汉大学 | 一种快速时空残差注意力视频超分辨率重建方法 |
CN111028150B (zh) * | 2019-11-28 | 2022-04-15 | 武汉大学 | 一种快速时空残差注意力视频超分辨率重建方法 |
CN110969577A (zh) * | 2019-11-29 | 2020-04-07 | 北京交通大学 | 一种基于深度双重注意力网络的视频超分辨率重建方法 |
CN110969577B (zh) * | 2019-11-29 | 2022-03-11 | 北京交通大学 | 一种基于深度双重注意力网络的视频超分辨率重建方法 |
CN111259841A (zh) * | 2020-01-20 | 2020-06-09 | 深圳云天励飞技术有限公司 | 一种图像处理方法及相关设备 |
CN112070665A (zh) * | 2020-08-03 | 2020-12-11 | 武汉大学 | 生成对抗式视频超分辨率重建及重建图像真伪性鉴别方法 |
CN112070665B (zh) * | 2020-08-03 | 2023-08-18 | 武汉大学 | 生成对抗式视频超分辨率重建及重建图像真伪性鉴别方法 |
CN114387161A (zh) * | 2020-10-16 | 2022-04-22 | 四川大学 | 基于增强深层特征提取和残差上下采样块的视频超分辨率 |
CN114387161B (zh) * | 2020-10-16 | 2023-07-07 | 四川大学 | 一种视频超分辨率重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109949217B (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
Liu et al. | Video super-resolution based on deep learning: a comprehensive survey | |
CN108765296B (zh) | 一种基于递归残差注意力网络的图像超分辨率重建方法 | |
CN109949217A (zh) | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 | |
CN109271933B (zh) | 基于视频流进行三维人体姿态估计的方法 | |
CN107274347A (zh) | 一种基于深度残差网络的视频超分辨率重建方法 | |
CN107492121B (zh) | 一种单目深度视频的二维人体骨骼点定位方法 | |
CN104008538B (zh) | 基于单张图像超分辨率方法 | |
CN108734661B (zh) | 基于图像纹理信息构建损失函数的高分辨率图像预测方法 | |
CN111784619B (zh) | 一种红外和可见光图像的融合方法 | |
CN113177882B (zh) | 一种基于扩散模型的单帧图像超分辨处理方法 | |
CN107123091A (zh) | 一种基于深度学习的近红外人脸图像超分辨率重建方法 | |
CN110111256A (zh) | 基于残差蒸馏网络的图像超分辨重建方法 | |
CN112291570B (zh) | 一种基于轻量级可形变卷积神经网络的实时视频增强方法 | |
CN111062410B (zh) | 基于深度学习的星型信息桥气象预测方法 | |
CN111768354A (zh) | 基于多尺度人脸部位特征字典的人脸图像复原系统 | |
CN115131675A (zh) | 一种基于参考影像纹理迁移的遥感影像压缩方法及系统 | |
Zhao et al. | Deep equilibrium models for video snapshot compressive imaging | |
Cai et al. | Multiscale attentive image de-raining networks via neural architecture search | |
CN108769674B (zh) | 一种基于自适应层次化运动建模的视频预测方法 | |
CN115439849B (zh) | 基于动态多策略gan网络的仪表数字识别方法及系统 | |
Liu et al. | An end-to-end multi-scale residual reconstruction network for image compressive sensing | |
Liu et al. | Dsma: Reference-based image super-resolution method based on dual-view supervised learning and multi-attention mechanism | |
CN114743138A (zh) | 基于3D SE-Densenet网络的视频暴力行为识别模型 | |
Gong et al. | Restoration algorithm of blurred UAV aerial image based on generative adversarial network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |