CN112801900A - 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 - Google Patents
一种基于双向循环卷积生成对抗网络的视频模糊去除方法 Download PDFInfo
- Publication number
- CN112801900A CN112801900A CN202110082946.7A CN202110082946A CN112801900A CN 112801900 A CN112801900 A CN 112801900A CN 202110082946 A CN202110082946 A CN 202110082946A CN 112801900 A CN112801900 A CN 112801900A
- Authority
- CN
- China
- Prior art keywords
- video
- network
- clear
- current frame
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 21
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 23
- 238000006731 degradation reaction Methods 0.000 claims description 11
- 230000015556 catabolic process Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000008485 antagonism Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 8
- 238000003909 pattern recognition Methods 0.000 description 6
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000002156 mixing Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于双向循环卷积生成对抗网络的视频模糊去除方法:步骤一:利用清晰视频生成网络产生高质量去除模糊的复原视频;步骤二:利用判别网络对复原视频和参考清晰视频进行分类判别;步骤三:构造损失函数对清晰视频生成网络和判别网络两个网络进行训练;输出:用训练好的清晰视频生成网络处理模糊视频。本发明方法以生成对抗网络为基本框架,通过两路沿不同方向传递信息的循环神经网络序列,利用蕴含在其中的时序关系;引入融合重建模块重建当前帧,利用全局残差连接提高网络表达能力和收敛速度;利用内容损失和对抗损失对网络进行训练。本发明可与各类图像和视频应用系统结合,帮助提升所拍摄视频的质量,有广阔市场前景与应用价值。
Description
技术领域
本发明涉及一种基于双向循环卷积生成对抗网络(BTSRNN-WGAN)的视频模糊去除方法,属于数字视频处理、模式识别和计算机视觉领域,主要涉及视频和图像复原技术。在各类基于图像和视频的应用系统中有广阔的应用前景。
背景技术
图像复原技术是指利用单张或多张退化图像及关于退化过程的先验知识得到退化前理想图像的技术。导致图像或视频发生退化的主要原因包括外部成像环境的影响和内部成像设备的影响,退化的主要表现形式为:图像模糊、畸变、噪声等。图像或视频的退化除降低其视觉效果外,还会严重影响相关高级视觉任务,如目标检测、目标跟踪、三维重建等,因此图像复原技术是计算机视觉领域一项重要的预处理技术。在对动态场景进行视频画面的捕捉时,最常见的退化现象是视频图像出现模糊,视频模糊产生的原因包括相机对焦不准产生的失焦模糊,但更常见的是目标和相机在曝光时间内发生相对运动而产生的运动模糊。在暗光环境下拍摄视频时,不得不通过增大曝光时间来拍摄足够亮度的视频,就更容易发生视频运动模糊。此问题是动态场景下视频或图像序列拍摄的常见问题,对所拍摄视频的质量有严重影响。由于视频模糊因素的时空可变性,由模糊视频重建清晰视频仍是一项具有挑战性和研究价值的任务。
一些早期的视频去除模糊的方法基于所谓“幸运帧(lucky frames)”方法,他们认为在一段长曝光视频中,会存在一些相对清晰的帧,借此可以对其他帧进行配准进而重建整个清晰视频。如Matsushita Y等人使用基于图像数据统计的方式找出“幸运帧”并进行视频图像的配准,然后在相邻帧之间进行锐利像素的转移和插值,实现视频模糊去除(参见文献:松下等,带有运动修复的全帧视频稳定.美国电气与电子工程师协会模式分析与机器智能学报,2006,1150-1163.(Matsushita Y,Ofek E,Ge W,et al.Full-frame videostabilization with motion inpainting[J].IEEE Transactions on pattern analysisand Machine Intelligence,2006,28(7):1150-1163.))。后来,基于反卷积的视频去模糊技术被广泛研究,这些研究大多是通过视频的帧间关系估计出模糊核,再通过反卷积技术来实现视频去模糊。如Wulff J等人将图像分割为不同层,再使用不同模糊核对它们进行反卷积,目的是处理随空间变化的模糊参数,使模糊估计更加准确(参见文献:沃尔夫等,模糊视频的多层建模.欧洲计算机视觉学会,2014.(Wulff J,Black M J.Modeling blurredvideo with layers[C]//European Conference on Computer Vision.Springer,Cham,2014:236-252.))。Ren等人采用了像素级分割(参见文献:任文琦等,基于语义分割和像素非线性核的视频去模糊.美国电气与电子工程师学会国际计算机视觉学会.2017,1077-1085.(Ren W,Pan J,Cao X,et al.Video deblurring via semantic segmentation andpixel-wise non-linear kernel[C]//Proceedings of the IEEE InternationalConference on Computer Vision.2017:1077-1085.))。然而,以上这些基于样本的方法具有较大的局限性,计算成本较高,处理速度也较慢,对样本有较高要求,当找不到有效“幸运帧”,或模糊核的估计不准确时,很难得到理想复原结果。
近年来,随着深度学习技术飞速发展,一些基于深度学习的方法也被用在了视频模糊去除领域。Sim H等人设计了一个模糊核学习网络,学习像素级模糊核参数,再通过滤波和线性组合等方式重建清晰视频(参见文献:西姆等,基于单像素自适应核的深度运动去模糊网络.美国电气与电子工程师学会计算机视觉和模式识别学会,2019,0-0.(Sim H,KimM.A deep motion deblurring network based on per-pixel adaptive kernels withresidual down-up and up-down modules[C]//Proceedings of the IEEE Conferenceon Computer Vision and Pattern Recognition Workshops.2019:0-0.));Su S等人提出了一种利用卷积神经网络(CNN)进行视频去模糊的方法,他们的网络输入5个连续视频帧,输出一帧重建清晰图像,为了处理严重模糊,他们使用光流法来对齐输入的5帧视频(参见文献:苏等,对于手持相机的深度视频去模糊.美国电气与电子工程师学会计算机视觉和模式识别学会,2017.(Su S,Delbracio M,Wang J,et al.Deep video deblurring forhand-held cameras[C]//Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition.2017:1279-1288.))。另一方面,一些研究者注意到了循环神经网络(RNN)在处理序列信号时的优越性,尝试使用基于RNN的方法来进行视频模糊去除。KimT H等人通过RNN重用过去时刻提取出视频帧的隐藏特征,并设计一个动态时间混合网络(Dynamic temporal blending network),使得网络输出具有更好的时间一致性(参见文献:吉米等,基于动态时间混合网络的在线视频去模糊,美国电气与电子工程师学会国际计算机视觉学会,2017.(Hyun Kim T,Mu Lee K,Scholkopf B,et al.Online videodeblurring via dynamic temporal blending network[C]//Proceedings of the IEEEInternational Conference on Computer Vision.2017:4038-4047.));Nah S等人在提取图像的特征图时采用帧内迭代的方法更新从过去帧获得的隐藏状态,在不增加网络复杂度的基础上提高网络的性能(参见文献:南等,用于视频去模糊的帧内迭代循环神经网络,美国电气与电子工程师学会计算机视觉和模式识别学会,2019.(Nah S,Son S,Lee KM.Recurrent neural networks with intra-frame iterations for video deblurring[C]//Proceedings of the IEEE Conference on Computer Vision and PatternRecognition.2019:8102-8111.));最近,Zhong Z等人在使用RNN提取图像特征的基础上,设计了一个全局时空注意模块(global spatio-temporal attention module),对多帧图像特征图进行融合,进而重建出一帧清晰图像(参见文献:钟志航等,用于视频去模糊的高效时空循环神经网络,欧洲计算机视觉学会,2020,191-207.(Zhong Z,Gao Y,Zheng Y,etal.Efficient spatio-temporal recurrent neural network for video deblurring[C]//European Conference on Computer Vision.Springer,Cham,2020:191-207.))。
然而,目前基于RNN的视频去模糊方法大多只考虑来自过去的信息,即只用了正向传递的RNN序列,对未来信息利用不够或基本没有利用,导致重建视频清晰度不够。本发明认为未来信息同样具有利用价值,代表当前时刻视频图像可能的变化趋势,因此也可为当前时刻视频图像的重建提供信息。基于此,本发明提出了一种新型视频模糊去除方法:基于双向循环卷积生成对抗网络(BTSRNN-WGAN)的视频模糊去除方法。在本发明中,使用正反双路RNN序列,使得来自过去和未来的信息得到同等程度重视,并用于当前时刻视频图像的重建,可有效提升复原视频质量。
发明内容
针对上述问题,本发明目的在于提供一种基于双向循环卷积生成对抗网络(BTSRNN-WGAN)的视频模糊去除方法,为了更充分地利用视频序列在时间域上的信息,使用两条传播方向相反的RNN序列,再结合基于时空域注意力的融合重建模块,可有效提升视频复原质量和稳定性。
为了实现这个目的,本发明的技术方案整体思路是采用生成对抗网络架构,利用以双向循环神经网络为主体的清晰视频生成网络产生高质量复原清晰视频,再利用判别网络对复原视频和参考清晰视频进行判别,两个网络相互对抗,使清晰视频生成网络的性能不断得到提升。本发明的算法技术思路主要体现在以下四个方面:
1)设计双向循环神经网络模型,充分利用视频序列的时序关系,有效利用过去和未来信息,重建高质量清晰视频。
2)设计融合重建模块,融合当前帧和其相邻帧有效信息,提高当前帧重建质量。
3)使用全局残差连接,提高网络表达能力和收敛速度。
4)使用生成对抗网络架构,利用对抗损失提高网络对视频细节和纹理的复原效果。
本发明涉及一种基于双向循环卷积生成对抗网络的视频模糊去除方法,该方法具体步骤如下:
步骤一:利用清晰视频生成网络产生高质量去除模糊的复原视频。首先使用双向RNN序列对输入视频进行特征提取;再使用时空注意模块提取当前帧和其相邻帧的有效特征并进行融合;随后通过重建模块从融合结果恢复与原输入大小相同的图像;最后通过全局残差连接将当前帧与重建模块的输出相加,得到当前帧的复原结果;将每一帧的复原结果串联起来,得到复原视频。
步骤二:利用判别网络对复原视频和参考清晰视频进行分类判别。判别网络以深度卷积网络提取复原视频和参考清晰视频的特征谱,采用Wasserstein距离衡量对抗损失,提高判别网络的判别性能和稳定性;在判别网络中使用多层实例归一化和修正线性整流激活单元提升网络的判别性能;本步骤中得到的特征谱图将在求取均值之后可在步骤三中进行损失函数中对抗损失的计算。
步骤三:构造损失函数对清晰视频生成网络和判别网络两个网络进行训练。
输出:用训练好的清晰视频生成网络处理模糊视频。在使用训练数据对清晰视频生成网络和判别网络进行充分迭代训练之后,得到训练好的清晰视频生成网络用于去除待处理视频中的模糊退化。
其中,所述步骤一具体如下:
1.1:通过双向RNN序列提取每帧图像的特征图。RNN序列由RNN单元组成,RNN单元的输入是当前帧图像和上一个RNN单元输出的隐藏状态,RNN单元的输出是当前帧的特征图和隐藏状态,特征图用于重建清晰图像,隐藏状态则传向下一个RNN单元,通过隐藏状态在RNN序列中的传递,视频的时序信息得以保留。一般前向传递的RNN序列可以使当前帧特征图中包含过去帧信息,然而本发明认为未来帧信息同样具有利用价值,因此设计了两条RNN序列,分别向前和向后传播,融合它们的输出结果得到当前帧的特征图;
1.2:使用融合重建模块对特征图进行融合和重建。首先利用时空注意模块对特征图进行加权处理,有效保留每张特征图中与当前帧相似的信息,再经过多尺度卷积核对特征进行处理,将得到的结果融合在一起送入重建模块,经2次转置卷积得到与输入相同大小的结果;
1.3:通过全局残差连接得到复原结果。考虑到视频模糊的复杂性,本发明引入全局残差连接帮助重建:将融合重建模块的输出结果与输入的当前帧相加作为最终复原结果,目的是提升网络学习效率和表达能力。将每一帧的复原结果串联起来,得到复原视频。将复原视频和参考清晰视频送入判别网络进行判别。
其中,所述步骤三具体如下:
3.1:清晰视频生成网络的损失函数由两部分组成:复原视频和参考清晰视频之间的均方误差(MSE)构成的内容损失;以及将复原视频输入判别网络计算得到的对抗损失。清晰视频生成网络损失函数的表达式为:LG=α1Ladversarial+α2Lcontent,其中Ladversarial代表对抗损失,Lcontent代表内容损失,α1和α2是它们对应的加权系数,在本发明中分别取0.01和1。内容损失Lcontent的表达式为:其中代表真实数据分布,代表模型数据分布,F,C,W和H分别表示视频序列的帧数、视频图像的通道数、宽度和高度,Yt和表示参考清晰视频和清晰视频生成网络输出的复原视频;对抗损失Ladversarial的表达式是其中D(·)代表判别网络的输出。内容损失的作用是从像素级别对视频进行复原,对抗损失的作用是从更高级别的视频细节和纹理特征等对视频进行复原。清晰视频生成网络在这两项损失函数的共同作用下产生高质量的模糊去除视频;
3.2:判别网络的对抗损失的表达式是:为了优化判别网络的数值分布以提升其判别性能,引入梯度惩罚项对判别网络进行约束,加上了梯度惩罚项之后的判别网络的损失函数的表达式是:其中λ是梯度惩罚项的系数,在本发明中取值为10;
3.3:本发明采用ADAM优化器进行优化,清晰视频生成网络和判别网络的初始学习率均为10-4,每过200个训练周期减半,通过梯度反向传播调整网络参数降低相应的损失函数。为了提高判别网络的性能,使之更好地指导生成网络,本发明采用1∶5的更新策略,即每更新一次生成网络参数,就进行5次判别网络参数更新。
一种基于双向循环卷积生成对抗网络的视频模糊去除系统,其基本结构框架和工作流程如图1所示,其特征在于,包括:
清晰视频生成网络模块,用于产生高质量去除模糊的复原视频。所述的清晰视频生成网络模块进一步包括:
双向RNN序列,用于提取输入视频每一帧的特征图;
融合重建模块,所述的融合重建模块具体包括时空注意模块及重建模块;所述的时空注意模块用于提取当前帧和其相邻帧特征图的有效信息,处理结果经拼接可得到融合结果;重建模块用于从融合结果恢复与原输入大小相同的图像;
所述的清晰视频生成网络模块,通过全局残差连接将当前帧与重建模块的输出相加,得到当前帧的复原结果;将每一帧的复原结果串联起来,得到复原视频;
判别网络模块,用于判别清晰视频生成网络产生的复原视频和参考清晰视频;
损失函数计算模块,用于计算清晰视频生成网络和判别网络的损失函数;
网络训练模块,用于对清晰视频生成网络和判别网络进行充分迭代训练,得到训练好的清晰视频生成网络用于去除待处理视频中的模糊退化。
本发明提出一种基于双向循环卷积生成对抗网络的视频模糊去除方法,以生成对抗网络为基本框架,通过两路沿不同方向传递信息的循环神经网络序列,充分地利用蕴含在视频序列中的时序关系;通过引入基于时空域注意力的融合重建模块,结合相邻帧的有用信息更好地重建当前帧,并利用全局残差连接提高网络表达能力和收敛速度;通过内容损失和对抗损失对网络进行训练,在提高复原视频与参考清晰视频相似度的同时,更好地恢复视频的细节特征。本发明可以与各类基于图像和视频的应用系统相结合,帮助提升所拍摄视频的质量,具有广阔市场前景与应用价值。
附图说明
图1是本发明提出的双向循环卷积生成对抗网络(BTSRNN-WGAN)的基本结构框架和工作流程。
图2是清晰视频生成网络的基本结构。
图3是RNN单元的基本结构。
图4是融合重建模块的基本结构。
图5是判别网络的基本结构。
图6a-f展示了本发明在不同场景下的视频模糊去除效果,其中6a、6c、6e为输入的模糊视频中的某一帧,6b、6d、6f为输出的复原视频中的对应帧。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图对本发明的实施方式作进一步描述。
本发明是一种基于双向循环卷积生成对抗网络的视频模糊去除方法,其算法框架与网络结构如图1所示,各部分具体实施步骤如下:
步骤一:利用清晰视频生成网络产生高质量去除模糊的复原视频,清晰视频生成网络的基本结构如图2所示;
步骤二:利用判别网络对复原视频和参考清晰视频进行分类判别,判别网络的基本结构如图5所示;
步骤三:构造损失函数对清晰视频生成网络和判别网络两个网络进行训练;
输出:用训练好的清晰视频生成网络处理模糊视频。在使用训练数据对清晰视频生成网络和判别网络进行充分迭代训练之后,得到训练好的清晰视频生成网络用于去除待处理视频中的模糊退化;
其中,所述步骤一具体如下:
1.1:通过双向RNN序列提取每帧图像的特征图。RNN序列由RNN单元组成,RNN单元的输入是当前帧图像和上一个RNN单元输出的隐藏状态,RNN单元的输出是当前帧的特征图和隐藏状态,特征图用于重建清晰图像,隐藏状态则传向下一个RNN单元,通过隐藏状态在RNN序列中的传递,视频的时序信息得以保留。RNN单元以残差块为基本结构组成,输入图像首先经过一个卷积核大小为5×5,步长为1的卷积层,接着通过2次卷积核大小为3×3的残差块和卷积核大小为5×5,步长为2的卷积层相组合,目的是对图像进行下采样,得到的结果与来自上一帧的隐藏状态合并,经过9个卷积核大小为3×3的残差块提取特征,得到该帧特征图。同时该帧特征图通过卷积核大小为3×3的2个卷积层和1个残差块减少通道数,得到当前帧的隐藏状态,送入下一个RNN单元。RNN单元的结构如图3所示;
1.2:使用融合重建模块对特征图进行融合和重建。在时空注意模块中,每一个特征图首先与当前帧的特征图相乘,再将其结果通过卷积核大小为7×7的卷积层和Softmax函数得到该特征图的权重矩阵,将该特征图与权重矩阵相乘的结果与该特征图相加,目的是保留它的有效信息,将经过权重处理的特征图与当前帧特征图拼接后,通过1个3×3卷积核、3个1×1卷积核的卷积层对特征图进行进一步处理。将处理结果拼接在一起,得到融合结果。融合结果经过重建模块的2个3×3卷积核,步长为2的转置卷积层和2个卷积核大小为3×3的残差块,再通过卷积核大小5×5的卷积层调整通道数,得到与原始图像相同大小的重建输出。融合重建模块的基本结构如图4所示;
1.3:通过全局残差连接得到复原结果。将融合重建模块的输出结果与输入的原始目标帧相加作为最终的复原结果,有效抑制梯度消失等现象,提高网络表达能力和收敛速度,提升复原结果的质量。将每一帧的复原结果串联起来,得到复原视频。将复原视频和参考清晰视频送入判别网络进行判别。
其中,所述步骤二具体如下:
2.1:将复原视频和参考清晰视频整体输入到判别网络中。传统Wasserstein生成对抗网络判别器的输入是单幅图像,本发明为提高判别网络的判别性能,直接输入复原视频和参考清晰视频,通过时域信息辅助判别复原视频和参考清晰视频。
2.2:由判别网络得到判别结果。判别网络由10层含有不同尺度卷积核的卷积层组成,提取输入视频的多尺度特征图谱;卷积层之间穿插实例归一化和线性整流激活层提升网络判别性能。本步骤中得到的特征谱图将在求取均值之后可在步骤三中进行损失函数中对抗损失的计算。
其中,所述步骤三具体如下:
3.1:清晰视频生成网络的损失函数由两部分组成:复原视频和参考清晰视频之间的均方误差(MSE)构成的内容损失;以及将复原视频输入判别网络计算得到的对抗损失。清晰视频生成网络损失函数的表达式为:LG=α1Ladversarial+α2Lcontent,其中Ladversarial代表对抗损失,Lcontent代表内容损失,α1和α2是它们对应的加权系数,在本发明中分别取0.01和1。内容损失Lcontent的表达式为:其中代表真实数据分布,代表模型数据分布,F,C,W和H分别表示视频序列的帧数、视频图像的通道数、宽度和高度,Yt和表示参考清晰视频和清晰视频生成网络输出的复原视频;对抗损失Ladversarial的表达式是其中D(·)代表判别网络的输出。内容损失的作用是从像素级别对视频进行复原,对抗损失的作用是从更高级别的视频细节和纹理特征等对视频进行复原。清晰视频生成网络在这两项损失函数的共同作用下产生高质量的模糊去除视频;
3.2:判别网络的对抗损失的表达式是:为了优化判别网络的数值分布以提升其判别性能,引入梯度惩罚项对判别网络进行约束,加上了梯度惩罚项之后的判别网络的损失函数的表达式是:其中λ是梯度惩罚项的系数,在本发明中取值为10;
3.3:本发明采用ADAM优化器进行优化,清晰视频生成网络和判别网络的初始学习率均为10-4,每过200个训练周期减半,通过梯度反向传播调整网络参数降低相应的损失函数。为了提高判别网络的性能,使之更好地指导生成网络,本发明采用1∶5的更新策略,即每更新一次生成网络参数,就进行5次判别网络参数更新。
为了从直观上展示本发明的效果,图6a-f展示了本发明在不同场景下的视频模糊去除效果,其中6a、6c、6e为输入的模糊视频中的某一帧,6b、6d、6f为输出的复原视频中的对应帧。从图中可以看出本发明输出的复原图像对输入图像的模糊退化有了十分明显的抑制和缓解效果,图像的清晰度得到显著提高。本发明以生成对抗网络为基本架构,利用双向RNN序列充分利用视频的时序信息,结合基于时空域注意力的融合重建模块和全局残差连接,实现高质量的视频模糊去除,可有效提升各种场景下所拍摄视频的质量,可应用在各类基于图像和视频的应用系统中。
Claims (7)
1.一种基于双向循环卷积生成对抗网络的视频模糊去除方法,其特征在于:该方法具体包括:
步骤一:利用清晰视频生成网络产生高质量去除模糊的复原视频;首先使用双向RNN序列对输入视频进行特征提取;然后对当前帧和其相邻帧特征进行融合;随后通过重建模块从融合的特征图恢复与原输入大小相同的图像;最后通过全局残差连接将当前帧与重建模块的输出相加,得到当前帧的复原结果;将每一帧的复原结果串联起来,得到复原视频;
步骤二:利用判别网络对复原视频和参考清晰视频进行分类判别;
步骤三:构造损失函数对清晰视频生成网络和判别网络两个网络进行训练;
输出:用训练好的清晰视频生成网络处理模糊视频。
2.根据权利要求1所述的一种基于双向循环卷积生成对抗网络的视频模糊去除方法,其特征在于:所述步骤一具体如下:
S1.1:通过双向RNN序列提取每帧图像的特征图;所述的RNN序列由RNN单元组成,RNN单元的输入是当前帧图像和上一个RNN单元输出的隐藏状态,RNN单元的输出是当前帧的特征图和隐藏状态,特征图用于重建清晰图像,隐藏状态则传向下一个RNN单元,通过隐藏状态在RNN序列中的传递,视频的时序信息得以保留;一般前向传递的RNN序列可使当前帧特征图中包含过去帧信息,然而未来帧信息同样具有利用价值,因此设计了两条RNN序列,分别向前和向后传播,融合它们的输出结果得到当前帧的特征图;
S1.2:使用融合重建模块对特征图进行融合和重建;首先利用一个时空注意模块提取当前帧和其前后两帧特征图的有效信息,融合后送入重建模块进行当前帧的重建;
S1.3:通过全局残差连接得到复原结果:引入全局残差连接帮助重建:将融合重建模块的输出结果与输入的当前帧相加作为最终复原结果,提升网络学习效率和表达能力;将每一帧的复原结果串联起来,得到复原视频,将复原视频和参考清晰视频送入判别网络进行判别。
3.根据权利要求2所述的一种基于双向循环卷积生成对抗网络的视频模糊去除方法,其特征在于:所述步骤S1.2还包括:在融合特征图之前,利用时空注意模块对特征图进行加权处理,有效保留每张特征图中与当前帧相似的信息,再经过多尺度卷积核对特征进行处理,将得到的结果融合在一起送入重建模块,经2次转置卷积得到与输入相同大小的结果。
4.根据权利要求1所述的一种基于双向循环卷积生成对抗网络的视频模糊去除方法,其特征在于:所述步骤三具体如下:
S3.1:清晰视频生成网络的损失函数由两部分组成:复原视频和参考清晰视频之间的均方误差构成的内容损失,以及将复原视频输入判别网络计算得到的对抗损失;清晰视频生成网络损失函数的表达式为:LG=α1Ladversarial+α2Lcontent,其中Ladversarial代表对抗损失,Lcontent代表内容损失,α1和α2是它们对应的加权系数;内容损失Lcontent的表达式为:其中代表真实数据分布,代表模型数据分布,F,C,W和H分别表示视频序列的帧数、视频图像的通道数、宽度和高度,Yt和表示参考清晰视频和清晰视频生成网络输出的复原视频;对抗损失Ladversarial的表达式是其中D(·)代表判别网络的输出;内容损失的作用是从像素级别对视频进行复原,对抗损失的作用是从更高级别的视频细节和纹理特征等对视频进行复原;
S3.3:采用ADAM优化器进行优化。
6.一种基于双向循环卷积生成对抗网络的视频模糊去除系统,其特征在于:该系统包括:
清晰视频生成网络模块,用于产生高质量去除模糊的复原视频;
判别网络模块,用于判别清晰视频生成网络产生的复原视频和参考清晰视频;
损失函数计算模块,用于计算清晰视频生成网络和判别网络的损失函数;
网络训练模块,用于对清晰视频生成网络和判别网络进行充分迭代训练,得到训练好的清晰视频生成网络以去除待处理视频中的模糊退化。
7.根据权利要求6所述的一种基于双向循环卷积生成对抗网络的视频模糊去除系统,其特征在于:所述的清晰视频生成网络模块进一步包括:
双向RNN序列,用于提取输入视频每一帧的特征图;
融合重建模块,所述的融合重建模块具体包括时空注意模块及重建模块;所述的时空注意模块用于提取当前帧和其相邻帧特征图的有效信息,处理结果经拼接可得到融合结果;重建模块用于从融合结果恢复与原输入大小相同的图像;
所述的清晰视频生成网络模块,通过全局残差连接将当前帧与重建模块的输出相加,得到当前帧的复原结果;将每一帧的复原结果串联起来,得到复原视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110082946.7A CN112801900B (zh) | 2021-01-21 | 2021-01-21 | 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110082946.7A CN112801900B (zh) | 2021-01-21 | 2021-01-21 | 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112801900A true CN112801900A (zh) | 2021-05-14 |
CN112801900B CN112801900B (zh) | 2023-05-12 |
Family
ID=75811093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110082946.7A Active CN112801900B (zh) | 2021-01-21 | 2021-01-21 | 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112801900B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113313684A (zh) * | 2021-05-28 | 2021-08-27 | 北京航空航天大学 | 一种暗光条件下基于视频的工业缺陷检测系统 |
CN113516168A (zh) * | 2021-05-18 | 2021-10-19 | 西安工业大学 | 基于生成对抗网络的多维电气量连续时间序列生成方法 |
CN114549354A (zh) * | 2022-02-16 | 2022-05-27 | 北京工业大学 | 一种基于参考跨序列图像的mri图像复原方法 |
CN114609631A (zh) * | 2022-03-08 | 2022-06-10 | 电子科技大学 | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 |
WO2022268181A1 (zh) * | 2021-06-23 | 2022-12-29 | 中兴通讯股份有限公司 | 视频增强处理方法、装置、电子设备和存储介质 |
CN116228623A (zh) * | 2022-09-08 | 2023-06-06 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877832A (zh) * | 2018-05-29 | 2018-11-23 | 东华大学 | 一种基于gan的音频音质还原系统 |
US20190124346A1 (en) * | 2017-10-19 | 2019-04-25 | Arizona Board Of Regents On Behalf Of Arizona State University | Real time end-to-end learning system for a high frame rate video compressive sensing network |
CN110223242A (zh) * | 2019-05-07 | 2019-09-10 | 北京航空航天大学 | 一种基于时空域残差生成对抗网络的视频湍流移除方法 |
CN110223259A (zh) * | 2019-06-14 | 2019-09-10 | 华北电力大学(保定) | 一种基于生成式对抗网络的道路交通模糊图像增强方法 |
CN111199522A (zh) * | 2019-12-24 | 2020-05-26 | 重庆邮电大学 | 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法 |
WO2020235861A1 (ko) * | 2019-05-17 | 2020-11-26 | 삼성전자주식회사 | 집중 레이어를 포함하는 생성기를 기반으로 예측 이미지를 생성하는 장치 및 그 제어 방법 |
-
2021
- 2021-01-21 CN CN202110082946.7A patent/CN112801900B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190124346A1 (en) * | 2017-10-19 | 2019-04-25 | Arizona Board Of Regents On Behalf Of Arizona State University | Real time end-to-end learning system for a high frame rate video compressive sensing network |
CN108877832A (zh) * | 2018-05-29 | 2018-11-23 | 东华大学 | 一种基于gan的音频音质还原系统 |
CN110223242A (zh) * | 2019-05-07 | 2019-09-10 | 北京航空航天大学 | 一种基于时空域残差生成对抗网络的视频湍流移除方法 |
WO2020235861A1 (ko) * | 2019-05-17 | 2020-11-26 | 삼성전자주식회사 | 집중 레이어를 포함하는 생성기를 기반으로 예측 이미지를 생성하는 장치 및 그 제어 방법 |
CN110223259A (zh) * | 2019-06-14 | 2019-09-10 | 华北电力大学(保定) | 一种基于生成式对抗网络的道路交通模糊图像增强方法 |
CN111199522A (zh) * | 2019-12-24 | 2020-05-26 | 重庆邮电大学 | 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法 |
Non-Patent Citations (5)
Title |
---|
BOXUAN YUE,JUN LIANG: "Frame prediction using recurrent convolutional encoder with residual learning", 《AIP CONFERENCE PROCEEDINGS》 * |
MEHDI S. M. SAJJADI等: "Frame-Recurrent Video Super-Resolution", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
YAN HUANG等: "Bidirectional Recurrent Convolutional Networks for Multi-Frame Super-Resolution", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 28》 * |
张聪聪;何宁;: "基于关键帧的双流卷积网络的人体动作识别方法", 南京信息工程大学学报(自然科学版) * |
段宾;符祥;江毅;曾接贤;: "结合GAN的轻量级模糊车牌识别算法", 中国图象图形学报 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516168A (zh) * | 2021-05-18 | 2021-10-19 | 西安工业大学 | 基于生成对抗网络的多维电气量连续时间序列生成方法 |
CN113516168B (zh) * | 2021-05-18 | 2024-05-10 | 西安工业大学 | 基于生成对抗网络的多维电气量连续时间序列生成方法 |
CN113313684A (zh) * | 2021-05-28 | 2021-08-27 | 北京航空航天大学 | 一种暗光条件下基于视频的工业缺陷检测系统 |
WO2022268181A1 (zh) * | 2021-06-23 | 2022-12-29 | 中兴通讯股份有限公司 | 视频增强处理方法、装置、电子设备和存储介质 |
CN114549354A (zh) * | 2022-02-16 | 2022-05-27 | 北京工业大学 | 一种基于参考跨序列图像的mri图像复原方法 |
CN114609631A (zh) * | 2022-03-08 | 2022-06-10 | 电子科技大学 | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 |
CN114609631B (zh) * | 2022-03-08 | 2023-12-22 | 电子科技大学 | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 |
CN116228623A (zh) * | 2022-09-08 | 2023-06-06 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
CN116228623B (zh) * | 2022-09-08 | 2024-05-03 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112801900B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112801900A (zh) | 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 | |
Zhang et al. | Dual attention-in-attention model for joint rain streak and raindrop removal | |
CN111199522B (zh) | 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法 | |
CN107844779B (zh) | 一种视频关键帧提取方法 | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN111709895A (zh) | 基于注意力机制的图像盲去模糊方法及系统 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN113592736B (zh) | 一种基于融合注意力机制的半监督图像去模糊方法 | |
CN112164011B (zh) | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 | |
CN113011329B (zh) | 一种基于多尺度特征金字塔网络及密集人群计数方法 | |
CN112884671B (zh) | 一种基于无监督生成对抗网络的模糊图像复原方法 | |
CN112241939B (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN114463218B (zh) | 一种基于事件数据驱动的视频去模糊方法 | |
Chen et al. | A residual learning approach to deblur and generate high frame rate video with an event camera | |
CN114972024A (zh) | 一种基于图表示学习的图像超分辨率重建装置及方法 | |
CN114494050A (zh) | 一种基于事件相机的自监督视频去模糊和图像插帧方法 | |
CN111626944B (zh) | 一种基于时空金字塔网络和对抗自然先验的视频去模糊方法 | |
CN116389912B (zh) | 脉冲相机融合普通相机重构高帧率高动态范围视频的方法 | |
CN112435165A (zh) | 基于生成对抗网络的两阶段视频超分辨率重建方法 | |
Nie et al. | Context and detail interaction network for stereo rain streak and raindrop removal | |
CN116862779A (zh) | 一种真实图像自监督去噪方法和系统 | |
CN111652922A (zh) | 一种基于双目视觉的单目视频深度估计方法及系统 | |
CN116612029A (zh) | 基于时空特征融合和双向循环神经网络的视频去模糊方法 | |
Jaisurya et al. | Attention-based single image dehazing using improved cyclegan | |
CN114841873A (zh) | 一种基于生成对抗网络的图像运动模糊盲去除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |