CN109819321A - 一种视频超分辨率增强方法 - Google Patents
一种视频超分辨率增强方法 Download PDFInfo
- Publication number
- CN109819321A CN109819321A CN201910191471.8A CN201910191471A CN109819321A CN 109819321 A CN109819321 A CN 109819321A CN 201910191471 A CN201910191471 A CN 201910191471A CN 109819321 A CN109819321 A CN 109819321A
- Authority
- CN
- China
- Prior art keywords
- video
- resolution
- super
- network
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种视频超分辨率增强方法,包括:收集训练视频,并按照一定方式处理为训练样本;对于面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,各自按照设定的损失函数结合相应的训练样本进行网络训练;对于待增强的视频,将其拆分为视频帧的形式,并分别输入至训练好的面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,从而获得超分辨率增强后的视频。该方法可以用作低分辨率视频的预处理,在付出一定时间的代价后,可以在对视频分类算法不做任何调整的前提下,提高视频分类算法对低分辨率输入视频的识别准确率。
Description
技术领域
本发明涉及数字图像处理技术领域,尤其涉及一种视频超分辨率增强方法
背景技术
近年来,随着深度学习的迅速发展,计算机的分类能力越来越强:在图像分类方面已经拥有超越人类的识别能力。受此激励,在近些年的研究中,视频分类领域也有了巨大突破。但由于当前的视频分类方法对输入视频的质量(这里主要指目标区域的分辨率)的鲁棒性并不是很强。换而言之,当输入视频的分辨率比较低的时候,分类的准确率会大为降低。为了将计算机强大的识别能力应用到实际生活之中,我们需要一种增强低质量视频的方法。
当前较为常用的处理分辨率差异的方法是基于插值的方法,如最近邻插值,双线性插值和双三次插值。这些方法需要人工设计固定的卷积核并将之应用于给定的低分辨率输入,来得到高分辨率图像。但由于这样的操作过于简单,它们在恢复图像在高频细节的方面效果欠佳。为了更好的恢复图像的高频信息,研究人员们尝试利用卷积神经网络进行视频超分辨率增强。
最近,Tao等人(X.Tao,H.Gao,R.Liao,J.Wang,and J.Jia.Detail-revealingdeep video super-resolution.In ICCV,pages 22–29,2017.)引入亚像素运动补偿操作,运动补偿和上采样相互协作同时进行,从而取得了较高的峰值信噪比。Jo等人(Y.Jo,S.W.Oh,J.Kang,and S.J.Kim.Deep video superresolution network using dynamicupsampling filters without explicit motion compensation.In CVPR,pages 3224–3232,2018.)利用3D卷积,在避免显式运动补偿的同时得到了目前最先进的峰值信噪比性能。上述二例可以看出,现有的视频超分辨率增强方法均以提高峰值信噪比为目标,然而,实验证明峰值信噪比性能与视频可识别性能并不完全正相关,故直接将现有的视频超分辨率增强方法用于低质量视频的增强不能很好地达到提升计算机分类性能的目的。
近期,一些图像超分辨率增强研究者开始将增强的目标定义为图片的感知性能,如:Johnson等人(J.Johnson,A.Alahi,and L.Fei-Fei.Perceptual losses for real-time style transfer and super-resolution.In ECCV,pages 694–711,2016.)定义了感知损失来提升超分辨增强后的图像的视觉质量;Ledig等人(C.Ledig,L.Theis,F.Huszar,J.Caballero,A.Cunningham,A.Acosta,A.P.Aitken,A.Tejani,J.Totz,Z.Wang,etal.Photo-realistic single image super-resolution using a generativeadversarial network.In CVPR,volume 2,pages 4681–4690,2017.)利用对抗生成网络,使用对抗损失来使超分辨率增强后的图像看起来更加逼真。然而,这二例中的感知性能均被定义为有利于人类视觉系统对增强后的图片进行识别,让人看得更清楚的能力,即它们主要是针对人类视觉系统进行增强,而不是以促进计算机识别为目的。而且由于它们是图像超分辨率增强方法,输入输出均为视频的一帧,没有考虑和利用视频多帧的有利信息。
最后,上述不论是图像超分辨率增强方法还是视频超分辨率增强方法,在训练与测试时均只输出视频的一帧,没有考虑视频前后两帧之间的时间连续性,从而产生闪烁效应,影响计算机视觉系统的识别能力。
发明内容
本发明的目的是提供一种视频超分辨率增强方法,通过恢复低质量视频缺失的空间信息和时间信息,来提高计算机视频分类算法的识别能力。
本发明的目的是通过以下技术方案实现的:
一种视频超分辨率增强方法,包括:
收集训练视频,并按照一定方式处理为训练样本;
对于面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,各自按照设定的损失函数结合相应的训练样本进行网络训练;
对于待增强的视频,将其拆分为视频帧的形式,并分别输入至训练好的面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,从而获得超分辨率增强后的视频。
由上述本发明提供的技术方案可以看出,视频超分辨率增强方法可以用作低分辨率视频的预处理,在付出一定时间的代价后,可以在对视频分类算法不做任何调整的前提下,提高视频分类算法对低分辨率输入视频的识别准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种视频超分辨率增强方法的流程图;
图2为本发明实施例提供的收集与处理训练视频的流程图
图3为本发明实施例提供的面向空间的视频超分辨率方法的原理图;
图4为本发明实施例提供的面向时间的视频超分辨率方法的原理图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种视频超分辨率增强方法,其主要目的是为了增强计算机对视频进行分类的能力。由于当前视频分类方法所利用的视频信息主要分为空间信息和时间信息,故本发明考虑了面向空间与面向时间两个方面的视频超分辨率增强,从而达到提高计算机对视频进行分类的能力的目的。如图1所示,本发明所提供的方法主要包括如下步骤:
步骤1、收集训练视频,并按照一定方式处理为训练样本。
如图2所示,本步骤分为两个阶段:收集训练视频(虚线左侧部分)、以及将训练数据处理为训练样本(虚线右侧部分)。
1)收集训练视频。
收集训练视频的优选实施方式为:在互联网上收集自然视频;然后保留自然视频的长宽比,通过插值的方法,处理为与超分辨率增强的目标视频分辨率相近的大小,处理后的视频即为训练视频。
例如在实验中,可以在CDVL视频网站上下载134个视频,它们的分辨率从480×360到1920×1080不等。假如希望得到320×240分辨率的超分辨增强视频,则使用双三次插值,将这134个视频保留长宽比地插值到320×240大小附近。
2)将训练数据处理为训练样本。
由于本发明实施例考虑了面向空间与面向时间两个方面的视频超分辨率增强,因此,对于不同的视频超分辨率增强方案需要引入不同的训练样本。
a、对于面向空间的视频超分辨率网络,通过下述处理方式得到相应的训练样本:
如图2的右上部分所示,从收集的训练视频中随机抽取相邻两帧作为一对高分辨率视频帧,并通过光流预测模块得到二者之间的光流图;
然后,将两通道的光流图通过设定的映射函数,得到一张单通道的权值图像;同时,将第一张高分辨率视频帧通过插值下采样r倍后,再通过插值上采样r倍,得到插值后的低分辨率视频帧;
之后,随机从低分辨率视频帧、权值图像和第一张高分辨率视频帧的相同的位置截取大小为N×N像素的子图像,获得的低分辨率视频帧子图像、权值图像子图像以及高分辨率视频帧子图像作为一个训练样本。
示例性的,可以使用Flownet2.0作为光流预测器,使用双三次插值,取r=4,N=128,得到了136950个训练样本。
本发明实施例中,权值定义为光流的模值,权值图像计算公式为:
其中,u、v分别为光流图中代表光流水平分量和竖直分量的两个通道图。
b、对于面向时间的视频超分辨率网络,通过下述处理方式得到相应的训练样本:
如图2的右下部分所示,从收集的训练视频中随机抽取相邻两帧作为一对高分辨率参考帧,并通过光流预测模块得到二者之间的光流图;
然后,根据一对高分辨率参考帧抽取一对高分辨率视频序列:每个高分辨率视频序列包含以一个高分辨率参考帧为中心位置的2k+1(k≥0)张时间连续的视频帧;示例性的,假设一对高分辨率参考帧是第t帧和第t+1帧,且k=2,则这一对高分辨率视频序列为(t-2,t-1,t,t+1,t+2)帧组成的视频序列和(t-1,t,t+1,t+2,t+3)帧组成的视频序列;
之后,随机从一对高分辨率视频序列、光流图和一对高分辨率参考帧的相同的位置截取大小为N×N像素的子图像,获得一对高分辨率视频子图像序列、光流图子图像以及高分辨率参考帧子图像;再通过插值将一对高分辨率视频子图像序列下采样r倍,变为一对低分辨率视频子图像序列,则一对低分辨率视频子图像序列、光流图子图像以及高分辨率参考帧子图像作为一个训练样本。
示例性的,可以使用TVL1算法进行光流预测,利用双三次插值,取k=3,r=4,N=128,得到了143250个训练样本。
步骤2、对于面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,各自按照设定的损失函数结合相应的训练样本进行网络训练。
如前所述,本发明实施例考虑了面向空间与面向时间两个方面的视频超分辨率增强,因此,实际包含面向空间的视频超分辨率增强方法(SoSR)和面向时间的视频超分辨率增强方法(ToSR)。
本发明实施例中,不限定视频超分辨率网络所使用的网络结构,任何一种适用于图像或视频超分辨率的网络均可在本发明中使用。
在后续的示例中,使用VDSR网络结构实现了后述表1和表2中的SoSR和ToSR1网络;使用VSR-DUF网络结构实现了ToSR2网络。VDSR网络结构是由20个3X3的卷积层组成,除最后一个卷积层外,每个卷积层后都跟着一个Relu激活层;同时VDSR采用残差学习,即仅预测高分辨率标签和插值的低分辨率输入像素值之间的差。VSR-DUF是利用动态滤波器(DynamicUpsampling Filter)的多输入单输出的网络结构:首先,将一组输入低分辨率的视频帧序列送入由2D和3D卷积组成的动态滤波器生成子网络;然后,该子网络输出一系列上采样滤波器,用这些滤波器对输入低分辨率视频帧进行局部滤波,即可得到超分辨增强的结果图。
在训练阶段,对于面向空间的视频超分辨率网络与面向时间的视频超分辨率网络需要各自进行训练,同时,因为面向空间和面向时间的视频超分辨率网络有着各自的侧重,本发明为他们分别设计了相应的损失函数。
1)训练面向空间的视频超分辨率网络。
面向空间的视频超分辨率网络的侧重点在于增强视频每帧的可识别性能。故本发明设计了加权的均方误差损失和高层次图像特征损失,来分别约束超分辨率增强后图像的像素层面相似度以及特征层面相似度。
如图3所示,对于面向空间的视频超分辨率网络,按照设定的损失函数结合相应的训练样本进行网络训练,其优选实施方式为:
将低分辨率视频帧子图像ILR输入至所述面向空间的视频超分辨率网络,输出增强后的图像记为
以权值图像子图像Wof为权,计算增强后的图像与高分辨率视频帧子图像IHR之间的加权均方误差损失;
同时,通过卷积神经网络提取IHR与之间的特征,分别记为FHR和并计算二者之间的高层次图像特征损失;
所设定的损失函数即为加权均方误差损失函数与高层次图像特征损失函数,二者各自用来约束面向空间的超分辨率增强后图像的像素层面相似度与特征层面相似度,表达式如下:
其中,LossWMSE、LossFeature对应的表示加权均方误差损失函数、高层次图像特征损失函数;m与n是高分辨率视频帧子图像IHR的高度和宽度,d表示卷积神经网络提取的特征维度;i,j是图像像素的坐标,s是图像特征的维度;
则面向空间的视频超分辨率网络最终的损失函数表示为:
LossSoSR=(1-α)LossWMSE+αLossFeature;
其中,α为设定的系数。
示例性的,卷积神经网络可以采用VGG16网络,卷积神经网络提取的特征可以使用Conv3_3卷积层经过Relu激活后的特征图。
计算出相应的损失之后,按照常规网络训练方式即可完成网络训练,即:通过错误反向传播算法对面向空间的视频超分辨网络的参数进行修正和更新;将更新参数后的面向空间的视频超分辨网络应用于下一组训练样本,如此反复,直到面向空间的视频超分辨网络在验证集上总损失的数值变得平稳。例如,在本实验中,在将所有训练样本遍历60遍后,验证集的总损失的数值基本不再变化,即代表训练的结束。
2)训练面向时间的视频超分辨率网络。
面向时间的视频超分辨率网络的侧重点在于增强视频各帧之间的时间连续性,这在本发明中是通过重建损失(SR loss)和扭曲损失(warp loss)实现的。
如图4所示,对于面向时间的视频超分辨率网络,按照设定的损失函数结合相应的训练样本进行网络训练,其优选实施方式为:
将一对低分辨率视频子图像序列各自输入至一个面向时间的视频超分辨率网络;两个面向时间的视频超分辨率网络的输出的增强后的图像分别记为和高分辨率参考帧子图像分别记为It和It+1;其中,t表示视频帧的序号;如图4所示,低分辨率视频子图像序列t-k:t+k表示从第t-k帧到t+k帧这样一个视频子图像序列;
本发明实施例中,面向时间的视频超分辨率网络具有相同的网络结构且二者共享参数。
本发明实施例中,希望面向时间的视频超分辨率网络的输出和各自拥有较高的质量,所以使用均方误差(MSE)作为约束,因而,依据图像与It、以及图像与It+1计算相应的重建损失,其公式为:
上式中,分别表示图像与It、图像与It+1的均方误差;
同时,希望输出和保留时间连续性,因而,利用光流图子图像Ft→t+1(下标表示光流的计算方向)通过扭曲层将图像扭曲为图像公式为:
其中,p代表图像像素点的坐标;
再分别计算图像与以及图像与It的均方误差(MSE)作为扭曲损失:
则面向时间的视频超分辨率网络最终的损失函数表示为:
LossToSR=α’LossSR+βLosswarp-SR+γLosswarp-HR
其中,α’、β与γ均为设定的系数。
计算出相应的损失之后,按照常规网络训练方式即可完成网络训练,即:通过错误反向传播算法对面向时间的视频超分辨网络的参数进行修正和更新;将更新参数后的面向时间的视频超分辨网络应用于下一组训练样本,如此反复,直到面向时间的视频超分辨网络在验证集上总损失的数值变得平稳。例如,在本实验中,在将所有训练样本遍历60遍后,验证集的总损失的数值基本不再变化,即代表训练的结束。
步骤3、对于待增强的视频,将其拆分为视频帧的形式,并分别输入至训练好的面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,从而获得超分辨率增强后的视频。
当通过以上方式训练好面向空间的视频超分辨率网络与面向时间的视频超分辨率网络后,就可以对输入的待增强的视频(低分辨率视频)进行增强处理。即:
首先将其拆成视频帧的形式分别送入训练好的面向空间的视频超分辨率网络(SoSR)和面向时间的视频超分辨率网络(ToSR),也就是说将同一个视频针对空间信息和时间的信息分别增强一次。
之后,就可以进行视频分类工作,通常将面向时间的视频超分辨率网络(ToSR)的输出处理成必要的输入形式(如光流图),与面向空间的视频超分辨率网络(SoSR)输出的增强后的视频帧一起送入视频分类网络进行视频分类。
为了说明本发明的性能我们还进行了相关测试。
测试条件:1)数据集:UCF101和HMDB51动作识别数据集;2)视频分类网络:TSN和ST-Resnet;3)基线方法:插值方法双三次插值(Bicubic),图像超分辨率增强方法VDSR和两个视频超分辨率增强方法SPMC和VSR-DUF。
表1与表2报告了用上述两个视频分类网络在两个动作识别数据集上测试所得到的分类正确率,其中表1为用TSN作为分类网络时各个超分辨率增强方法性能对比结果,表2为用ST-Resnet作为分类网络时各个超分辨率增强方法性能对比结果;“Spatial”列和“Temporal”列分别为只利用空间信息和只利用时间信息的分类性能,“Fusion”列为两种信息都用的结果。
表1各个超分辨率增强方法增强TSN网络分类性能对比结果
表2各个超分辨率增强方法增强ST-Resnet网络分类性能对比结果
表1和表2证明了上述本发明实施例方案相对于现有的图像和视频超分辨率增强方法,在提高视频分类网络识别性能方面有明显的提升,并且可以看到在HMDB51数据集上,按照本发明实施例提出方案训练得到的的ToSR2在增强时间信息方面获得了几乎与原始高分辨率视频(表格中的HR行)持平的性能:在TSN上有61.24%V.S.62.16%;在ST-Resnet上有58.73%V.S.59.41%。
最后用一块NVIDIA GTX 1080Ti GPU测试时间花费如下:SoSR耗时1.5229秒/视频;ToSR2耗时1.8271秒/视频;光流计算耗时2.6810秒/视频,TSN分类耗时0.6416秒/视频。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (8)
1.一种视频超分辨率增强方法,其特征在于,包括:
收集训练视频,并按照一定方式处理为训练样本;
对于面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,各自按照设定的损失函数结合相应的训练样本进行网络训练;
对于待增强的视频,将其拆分为视频帧的形式,并分别输入至训练好的面向空间的视频超分辨率网络与面向时间的视频超分辨率网络,从而获得超分辨率增强后的视频。
2.根据权利要求1所述的一种视频超分辨率增强方法,其特征在于,对于面向空间的视频超分辨率网络,通过下述处理方式得到相应的训练样本:
从收集的训练视频中随机抽取相邻两帧作为一对高分辨率视频帧,并通过光流预测模块得到二者之间的光流图;
然后,将两通道的光流图通过设定的映射函数,得到一张单通道的权值图像;同时,将第一张高分辨率视频帧通过插值下采样r倍后,再通过插值上采样r倍,得到插值后的低分辨率视频帧;
之后,随机从低分辨率视频帧、权值图像和第一张高分辨率视频帧的相同的位置截取大小为N×N像素的子图像,获得的低分辨率视频帧子图像、权值图像子图像以及高分辨率视频帧子图像作为一个训练样本。
3.根据权利要求2所述的一种视频超分辨率增强方法,其特征在于,权值定义为光流的模值,权值图像计算公式为:
其中,u、v分别为光流图中代表光流水平分量、竖直分量的两个通道图。
4.根据权利要求1所述的一种视频超分辨率增强方法,其特征在于,对于面向时间的视频超分辨率网络,通过下述处理方式得到相应的训练样本:
从收集的训练视频中随机抽取相邻两帧作为一对高分辨率参考帧,并通过光流预测模块得到二者之间的光流图;
然后,根据一对高分辨率参考帧抽取一对高分辨率视频序列:每个高分辨率视频序列包含以一个高分辨率参考帧为中心位置的2k+1张时间连续的视频帧,其中,k≥0;
之后,随机从一对高分辨率视频序列、光流图和一对高分辨率参考帧的相同的位置截取大小为N×N像素的子图像,获得一对高分辨率视频子图像序列、光流图子图像以及高分辨率参考帧子图像;再通过插值将从一对高分辨率视频子图像序列下采样r倍,变为一对低分辨率视频子图像序列,则一对低分辨率视频子图像序列、光流图子图像以及高分辨率参考帧子图像作为一个训练样本。
5.根据权利要求1或2或3或4所述的一种视频超分辨率增强方法,其特征在于,所述收集训练视频的步骤包括:
在互联网上收集自然视频;然后保留自然视频的长宽比,通过插值的方法,处理为与超分辨率增强的目标视频分辨率相近的大小,处理后的视频即为训练视频。
6.根据权利要求2所述的一种视频超分辨率增强方法,其特征在于,对于面向空间的视频超分辨率网络,按照设定的损失函数结合相应的训练样本进行网络训练,其步骤包括:
将低分辨率视频帧子图像ILR输入至所述面向空间的视频超分辨率网络,输出增强后的图像记为
以权值图像子图像Wof为权,计算增强后的图像与高分辨率视频帧子图像IHR之间的加权均方误差损失;
同时,通过卷积神经网络提取IHR与之间的特征,分别记为FHR和并计算二者之间的高层次图像特征损失;
所设定的损失函数即为加权均方误差损失函数与高层次图像特征损失函数,二者各自用来约束面向空间的超分辨率增强后图像的像素层面相似度与特征层面相似度,表达式如下:
其中,LossWMSE、LossFeature对应的表示加权均方误差损失函数、高层次图像特征损失函数;m与n是高分辨率视频帧子图像IHR的高度和宽度,d表示卷积神经网络提取的特征维度;i,j是图像像素的坐标,s是图像特征的维度;
则面向空间的视频超分辨率网络最终的损失函数表示为:
LossSoSR=(1-α)LossWMSE+αLossFeature;
其中,α为设定的系数;
计算出相应的损失之后,通过错误反向传播算法对面向空间的视频超分辨网络的参数进行修正和更新;将更新参数后的面向空间的视频超分辨网络应用于下一组训练样本,如此反复,直到面向空间的视频超分辨网络在验证集上总损失的数值变得平稳。
7.根据权利要求4所述的一种视频超分辨率增强方法,其特征在于,对于面向时间的视频超分辨率网络,按照设定的损失函数结合相应的训练样本进行网络训练,其步骤包括:
将一对低分辨率视频子图像序列各自输入至一个面向时间的视频超分辨率网络;两个面向时间的视频超分辨率网络的输出的增强后的图像分别记为和高分辨率参考帧子图像分别记为It和It+1;其中,t表示视频帧的序号;
依据图像与It、以及图像与It+1计算相应的重建损失,重建损失使用均方误差作为约束,其公式为:
上式中,分别表示图像与It、图像与It+1的均方误差;
同时,利用光流图子图像Ft→t+1通过扭曲层将图像扭曲为图像公式为:
其中,p代表图像像素点的坐标;再分别计算图像与以及图像与It的扭曲损失:
则面向时间的视频超分辨率网络最终的损失函数表示为:
LossToSR=α’LossSR+βLosswarp-SR+γLosswarp-HR
其中,α’、β与γ均为设定的系数;
计算出相应的损失之后,通过错误反向传播算法对面向时间的视频超分辨网络的参数进行修正和更新;将更新参数后的面向时间的视频超分辨网络应用于下一组训练样本,如此反复,直到面向时间的视频超分辨网络在验证集上总损失的数值变得平稳。
8.根据权利要求1所述的一种视频超分辨率增强方法,其特征在于,该方法还包括:利用超分辨率增强后的视频送入视频分类网络进行视频分类;所述超分辨率增强后的视频包括:训练好的面向空间的视频超分辨率网络输出的针对空间信息增强的视频,以及训练好的面向时间的视频超分辨率网络输出的针对时间的信息增强的视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910191471.8A CN109819321B (zh) | 2019-03-13 | 2019-03-13 | 一种视频超分辨率增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910191471.8A CN109819321B (zh) | 2019-03-13 | 2019-03-13 | 一种视频超分辨率增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109819321A true CN109819321A (zh) | 2019-05-28 |
CN109819321B CN109819321B (zh) | 2020-06-26 |
Family
ID=66609053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910191471.8A Active CN109819321B (zh) | 2019-03-13 | 2019-03-13 | 一种视频超分辨率增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109819321B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378936A (zh) * | 2019-07-30 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 光流计算方法、装置及电子设备 |
CN110738611A (zh) * | 2019-09-20 | 2020-01-31 | 网宿科技股份有限公司 | 一种视频画质增强方法、系统及设备 |
CN111104930A (zh) * | 2019-12-31 | 2020-05-05 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN111246250A (zh) * | 2020-03-13 | 2020-06-05 | 广州市百果园信息技术有限公司 | 视频处理方法、装置、设备及存储介质 |
CN111429357A (zh) * | 2020-03-31 | 2020-07-17 | 广州市百果园信息技术有限公司 | 训练数据确定方法、视频处理方法、装置、设备及介质 |
CN111652147A (zh) * | 2020-06-04 | 2020-09-11 | 中电建路桥集团有限公司 | 减负构件在地下车库空心楼盖施工过程的监控系统及方法 |
CN111839574A (zh) * | 2020-09-08 | 2020-10-30 | 南京安科医疗科技有限公司 | Ct超低剂量自动三维定位扫描方法及系统 |
CN112019861A (zh) * | 2020-07-20 | 2020-12-01 | 清华大学 | 基于关键帧指导超分辨率的视频压缩方法及装置 |
CN112446847A (zh) * | 2020-11-30 | 2021-03-05 | 北京数码视讯技术有限公司 | 增强视频分辨率的方法和装置 |
CN112712537A (zh) * | 2020-12-21 | 2021-04-27 | 深圳大学 | 视频时空超分辨率实现方法及装置 |
CN113301343A (zh) * | 2020-02-21 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 在视频超分辨率中使用解码器信息的系统和方法 |
CN115052187A (zh) * | 2022-04-26 | 2022-09-13 | 复旦大学 | 一种基于在线训练的超分辨率直播系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7218796B2 (en) * | 2003-04-30 | 2007-05-15 | Microsoft Corporation | Patch-based video super-resolution |
CN101345870A (zh) * | 2008-09-04 | 2009-01-14 | 上海交通大学 | 低码率视频超分辨率重构的编码装置和解码装置 |
CN102073866A (zh) * | 2010-12-27 | 2011-05-25 | 清华大学 | 一种利用时空马尔科夫随机场模型的视频超分辨方法 |
CN102222321A (zh) * | 2011-05-24 | 2011-10-19 | 南京航空航天大学 | 一种视频序列盲重建方法 |
CN104539961A (zh) * | 2014-12-12 | 2015-04-22 | 上海交通大学 | 基于分层结构渐进式字典学习的可分级视频编码系统 |
CN105427243A (zh) * | 2015-10-29 | 2016-03-23 | 中国科学院自动化研究所 | 基于自适应插值核学习的视频超分辨率重建方法 |
CN105959705A (zh) * | 2016-05-10 | 2016-09-21 | 武汉大学 | 一种面向可穿戴设备的视频直播方法 |
CN106056540A (zh) * | 2016-07-08 | 2016-10-26 | 北京邮电大学 | 基于鲁棒光流和Zernike不变矩的视频时空超分辨率重建方法 |
CN109118431A (zh) * | 2018-09-05 | 2019-01-01 | 武汉大学 | 一种基于多记忆及混合损失的视频超分辨率重建方法 |
-
2019
- 2019-03-13 CN CN201910191471.8A patent/CN109819321B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7218796B2 (en) * | 2003-04-30 | 2007-05-15 | Microsoft Corporation | Patch-based video super-resolution |
CN101345870A (zh) * | 2008-09-04 | 2009-01-14 | 上海交通大学 | 低码率视频超分辨率重构的编码装置和解码装置 |
CN102073866A (zh) * | 2010-12-27 | 2011-05-25 | 清华大学 | 一种利用时空马尔科夫随机场模型的视频超分辨方法 |
CN102222321A (zh) * | 2011-05-24 | 2011-10-19 | 南京航空航天大学 | 一种视频序列盲重建方法 |
CN104539961A (zh) * | 2014-12-12 | 2015-04-22 | 上海交通大学 | 基于分层结构渐进式字典学习的可分级视频编码系统 |
CN105427243A (zh) * | 2015-10-29 | 2016-03-23 | 中国科学院自动化研究所 | 基于自适应插值核学习的视频超分辨率重建方法 |
CN105959705A (zh) * | 2016-05-10 | 2016-09-21 | 武汉大学 | 一种面向可穿戴设备的视频直播方法 |
CN106056540A (zh) * | 2016-07-08 | 2016-10-26 | 北京邮电大学 | 基于鲁棒光流和Zernike不变矩的视频时空超分辨率重建方法 |
CN109118431A (zh) * | 2018-09-05 | 2019-01-01 | 武汉大学 | 一种基于多记忆及混合损失的视频超分辨率重建方法 |
Non-Patent Citations (2)
Title |
---|
曹茸: "《基于非局部相似的图像/视频信号超分辨率重构算法》", 《中国优秀硕博士学位论文全文数据库》 * |
熊志伟: "《基于范例的高性能图像超分辨率》", 《中国优秀博士学位论文全文数据库》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378936A (zh) * | 2019-07-30 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 光流计算方法、装置及电子设备 |
CN110738611A (zh) * | 2019-09-20 | 2020-01-31 | 网宿科技股份有限公司 | 一种视频画质增强方法、系统及设备 |
CN110738611B (zh) * | 2019-09-20 | 2022-08-16 | 网宿科技股份有限公司 | 一种视频画质增强方法、系统及设备 |
CN111104930A (zh) * | 2019-12-31 | 2020-05-05 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN111104930B (zh) * | 2019-12-31 | 2023-07-11 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN113301343A (zh) * | 2020-02-21 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 在视频超分辨率中使用解码器信息的系统和方法 |
CN111246250A (zh) * | 2020-03-13 | 2020-06-05 | 广州市百果园信息技术有限公司 | 视频处理方法、装置、设备及存储介质 |
CN111246250B (zh) * | 2020-03-13 | 2022-07-01 | 广州市百果园信息技术有限公司 | 视频处理方法、装置、设备及存储介质 |
CN111429357A (zh) * | 2020-03-31 | 2020-07-17 | 广州市百果园信息技术有限公司 | 训练数据确定方法、视频处理方法、装置、设备及介质 |
CN111652147A (zh) * | 2020-06-04 | 2020-09-11 | 中电建路桥集团有限公司 | 减负构件在地下车库空心楼盖施工过程的监控系统及方法 |
CN112019861A (zh) * | 2020-07-20 | 2020-12-01 | 清华大学 | 基于关键帧指导超分辨率的视频压缩方法及装置 |
CN111839574A (zh) * | 2020-09-08 | 2020-10-30 | 南京安科医疗科技有限公司 | Ct超低剂量自动三维定位扫描方法及系统 |
CN111839574B (zh) * | 2020-09-08 | 2023-10-31 | 南京安科医疗科技有限公司 | Ct超低剂量自动三维定位扫描方法及系统 |
CN112446847A (zh) * | 2020-11-30 | 2021-03-05 | 北京数码视讯技术有限公司 | 增强视频分辨率的方法和装置 |
CN112712537A (zh) * | 2020-12-21 | 2021-04-27 | 深圳大学 | 视频时空超分辨率实现方法及装置 |
CN112712537B (zh) * | 2020-12-21 | 2022-10-18 | 深圳大学 | 视频时空超分辨率实现方法及装置 |
CN115052187A (zh) * | 2022-04-26 | 2022-09-13 | 复旦大学 | 一种基于在线训练的超分辨率直播系统 |
CN115052187B (zh) * | 2022-04-26 | 2024-05-03 | 复旦大学 | 一种基于在线训练的超分辨率直播系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109819321B (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109819321A (zh) | 一种视频超分辨率增强方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN110570353B (zh) | 密集连接生成对抗网络单幅图像超分辨率重建方法 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN110287846B (zh) | 一种基于注意力机制的人脸关键点检测方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
Cai et al. | FCSR-GAN: Joint face completion and super-resolution via multi-task learning | |
Kim et al. | Deep residual network with enhanced upscaling module for super-resolution | |
CN111105352A (zh) | 超分辨率图像重构方法、系统、计算机设备及存储介质 | |
CN110232653A (zh) | 快速轻型超分辨率重建密集残差网络 | |
CN110473142B (zh) | 基于深度学习的单幅图像超分辨率重建方法 | |
CN110689482A (zh) | 一种基于有监督逐像素生成对抗网络的人脸超分辨率方法 | |
Xiao et al. | A dual-UNet with multistage details injection for hyperspectral image fusion | |
Cai et al. | HIPA: hierarchical patch transformer for single image super resolution | |
CN109961407A (zh) | 基于人脸相似性的人脸图像修复方法 | |
CN111696033A (zh) | 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法 | |
CN117391938B (zh) | 一种红外图像超分辨率重建方法、系统、设备及终端 | |
CN110782503B (zh) | 一种基于两分支深度相关网络的人脸图像合成方法和装置 | |
CN114612306A (zh) | 一种面向裂缝检测的深度学习超分辨率方法 | |
Muqeet et al. | Hybrid residual attention network for single image super resolution | |
CN118365543A (zh) | 一种基于改进EnlightenGAN的裂缝图像阴影去除方法 | |
CN113112441B (zh) | 基于密集网络和局部亮度遍历算子的多波段低分辨率图像同步融合方法 | |
Zheng et al. | Overwater image dehazing via cycle-consistent generative adversarial network | |
CN112508786B (zh) | 面向卫星图像的任意尺度超分辨率重建方法及系统 | |
CN113096015A (zh) | 基于渐进式感知和超轻量级网络的图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |