CN113269682B - 一种结合帧间信息的非均匀运动模糊视频复原方法 - Google Patents

一种结合帧间信息的非均匀运动模糊视频复原方法 Download PDF

Info

Publication number
CN113269682B
CN113269682B CN202110430994.0A CN202110430994A CN113269682B CN 113269682 B CN113269682 B CN 113269682B CN 202110430994 A CN202110430994 A CN 202110430994A CN 113269682 B CN113269682 B CN 113269682B
Authority
CN
China
Prior art keywords
frame
motion vector
length ratio
fuzzy
clear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110430994.0A
Other languages
English (en)
Other versions
CN113269682A (zh
Inventor
陈斌
金岩
詹慧媚
裴景秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hainayun IoT Technology Co Ltd
Qingdao Hainayun Digital Technology Co Ltd
Qingdao Hainayun Intelligent System Co Ltd
Original Assignee
Hainayun IoT Technology Co Ltd
Qingdao Hainayun Digital Technology Co Ltd
Qingdao Hainayun Intelligent System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hainayun IoT Technology Co Ltd, Qingdao Hainayun Digital Technology Co Ltd, Qingdao Hainayun Intelligent System Co Ltd filed Critical Hainayun IoT Technology Co Ltd
Priority to CN202110430994.0A priority Critical patent/CN113269682B/zh
Publication of CN113269682A publication Critical patent/CN113269682A/zh
Application granted granted Critical
Publication of CN113269682B publication Critical patent/CN113269682B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种结合帧间信息的非均匀运动模糊视频复原方法,包括以下步骤:获取需要处理的视频,判断视频帧图像的清晰度,获得模糊帧和最近的对比清晰帧,检测模糊帧与对比清晰帧的特征点,提取清晰图像块和模糊图像块,计算模糊图像块的运动向量长度比,估算模糊帧的光流,计算模糊帧的运动向量长度比,对模糊帧、光流和运动向量长度比进行下采样,建立金字塔模型,固定光流和运动向量长度比,计算潜在清晰帧,固定潜在清晰帧和运动向量长度比,计算光流,固定潜在清晰帧和光流,计算运动向量长度比,计算出最高分辨率的潜在清晰帧、光流和运动向量长度比,将潜在清晰帧替换所述模糊帧,得到复原后的清晰视频。本发明方法复原出的视频帧更清晰。

Description

一种结合帧间信息的非均匀运动模糊视频复原方法
技术领域
本发明涉及图像处理、模式识别技术,尤其是一种结合帧间信息的非均匀运动模糊视频复原方法。
背景技术
运动模糊通常存在于视频中,它严重影响了视频的质量。空间不变模糊通常是在拍摄没有深度变化的静态场景时,曝光时间内相机发生了抖动造成的。空间变化模糊的形成原因有两种,一种是拍摄的静态场景有较大的深度变化,曝光时间内发生了相机抖动;另一种是拍摄场景中有快速运动的物体,视频图像中各像素点的模糊程度不同。
近年来许多学者展开了大量研究来对运动模糊视频进行复原,根据问题求解的方式不同可以分为传统方法和深度学习方法。传统方法多采用最优化算法对视频的清晰帧进行求解,并将相机抖动和物体运动分成了两类问题。早期的研究工作主要研究单帧空间不变模糊图像的复原,首先求解一个空间一致的模糊核,然后利用该模糊核对模糊图像进行反卷积,最后得到复原的清晰图像,比如S.Cho,S.Lee,Fast motion deblurring,AcmTransactions on Graphics,28(5)(2009)1-8.中的ADM算法,S.Cho,H.Cho,Y.W.Tai,Registration based non-uniform motion deblurring,Computer Graphics Forum,31(7)(2012)2183–2192.中的FTVd等算法,这些方法可以一定程度上用于没有深度变化的静态场景的去模糊中;为了解决具有深度变化的场景带来的空间变化模糊问题,C.Paramanand and A.N.Rajagopalan,Non-uniform motion deblurring for bilayerscenes,in Proc.IEEE Conf.ComputerVision and Pattern Recognition,2013,pp.1115-1122.文章提出了多层分割方法来复原这种类型的模糊图像;之后,人们的研究深入到了处理运动物体造成的空间变化模糊,这种方法通常通过计算帧内运动向量进而计算模糊核用于清晰帧复原,X.Deng,Y.Shen,M.Song,Video-based non-uniform object motion blurestimation and deblurring,Neurocomputing,86(4)(2012)170–178.提出了基于特征点匹配和德劳内插值的方法来计算稠密的帧间运动向量,再将帧间运动向量与拍摄时的曝光时间与帧间时间间隔(帧率的倒数)的比值(简称为时间长度比),就可以得到帧内的运动向量;由于插值存在较大的误差,T.H.Kim,K.M.Lee,Generalized video deblurring fordynamic scenes,in Proc.IEEE Conf.Computer Vision and Pattern Recognition,2015,pp.5426-5434.又提出用光流来替代帧间运动向量,这些方法都是基于帧间运动为匀速运动并且每帧曝光时间已知的假设。在实际拍摄中,帧间的相对运动通常不是匀速的,表现为各帧的模糊程度不同,因此帧内运动向量与帧间运动向量模长的比值(简称为运动向量长度比,the ratio ofmotionvector length)不等于时间长度比,除此之外,同一帧中具有不同运动状态的物体,运动向量长度比也是不相等的。因此,使用前面所述的方法用一个统一的时间长度比来计算帧内运动向量会引入误差。
随着深度学习的发展,深度神经网络应用到了视频图像去模糊中,用于解决空间变化的运动模糊视频复原,Kim T H,Lee K M,SchlkopfB,et al.Online VideoDeblurring via Dynamic Temporal Blending Network[J].2017.提出了使用深度神经网络来对模糊视频进行复原。由于神经网络的训练需要大量的数据集,而模糊视频复原的数据集制作又比较特殊,需要使用高速摄像机进行拍摄并人工合成,硬件成本较高,且对于一些难以使用高速摄像机拍摄的场景,就无法制作对应的数据集。此外,受制于人工合成数据的局限性,训练的模型泛化性不高,难以适用于多种复杂场景。因此,深度学习方法难以落地应用到工程中。
鉴于此提出本发明。
发明内容
本发明的目的在于克服现有技术的不足,提出一种结合帧间信息的非均匀运动模糊视频复原方法,该方法可以计算出准确的运动向量长度比,从而精细化模糊核,通过引入运动向量长度比的空间一致性约束项和视频的时间一致性约束项,能显著减小复原帧的振铃效应,并保证复原视频的时域连续性。
为了实现该目的,本发明采用如下技术方案:
一种结合帧间信息的非均匀运动模糊视频复原方法,包括以下步骤:
步骤一、获取需要处理的视频;
步骤二、根据获取的视频,提取视频帧图像,并判断每帧图像的清晰度,若当前帧图像的清晰度大于或等于预设阈值,则判断当前帧为清晰帧,并对下一帧图像进行判断,若当前帧图像的清晰度小于预设阈值,则判断当前帧为模糊帧Bi,并将上一帧图像作为对比清晰帧Lj
步骤三、检测所述对比清晰帧Lj与模糊帧Bi之间的特征点,并对所述特征点进行匹配,然后以匹配的特征点对为中心,分别提取一系列相应的清晰图像块lj,k和模糊图像块bi,k
步骤四、利用投影运动模糊模型和步骤三中提取的图像块,分别计算每个模糊图像块bi,k的运动向量长度比
Figure BDA0003031467100000031
步骤五、利用TV-L1光流算法估算模糊帧Bi的光流ui→j,并利用光流ui→j和步骤四中求得的运动向量长度比
Figure BDA0003031467100000032
结合k-medoids聚类算法和KNN分类方法来计算模糊帧Bi的运动向量长度比s;
步骤六、对模糊帧Bi、光流ui→j和运动向量长度比s进行多次下采样,并建立金字塔模型;
步骤七、固定光流ui→j和运动向量长度比s,计算潜在清晰帧Li
步骤八、固定潜在清晰帧Li和运动向量长度比s,计算光流ui→j
步骤九、固定潜在清晰帧Li和光流ui→j,计算运动向量长度比s;
步骤十、重复执行上述步骤七至步骤九,直到达到金字塔模型的最高分辨率层,计算出最高分辨率的潜在清晰帧Li、光流ui→j和运动向量长度比s;
步骤十一、用步骤十中计算得到的最高分辨率的潜在清晰帧Li替换所述模糊帧Bi,得到复原后的清晰视频。
进一步,所述步骤十还包括:
判断计算出的潜在清晰帧Li的清晰度是否大于或等于预设阈值,
如果大于或等于则执行下一步骤,如果小于预设阈值,则将运动向量长度比s增加一个精度值0.02,并再次执行步骤七至步骤九,直到计算出的潜在清晰帧Li满足大于或等于预设阈值的要求。
进一步,所述步骤二采用CPBD sharpness-metirc计算每一帧的清晰度,所述预设阈值的取值为0.55,或者,在视频中所有帧的清晰度都不能达到0.55时,将预设阈值设置为视频所有帧的清晰度平均值。
进一步,所述步骤三中,体征点匹配的过程为:利用ORB检测算法检测所述对比清晰帧Lj与模糊帧Bi之间的特征点,然后生成BEBLID特征描述子并进行匹配。
进一步,所述步骤四中,所述运动向量长度比
Figure BDA0003031467100000041
的计算方法为:
步骤a1:选取一对匹配的清晰图像块lj,k和模糊图像块bi,k,并计算清晰图像块lj,k的中心点到模糊图像块bi,k中心点的向量
Figure BDA0003031467100000042
所述向量/>
Figure BDA0003031467100000043
的表达式为:/>
Figure BDA0003031467100000044
步骤a2:设定运动向量长度比
Figure BDA0003031467100000045
的精度为0.02,取值范围为0~1,根据/>
Figure BDA0003031467100000046
的取值和向量/>
Figure BDA0003031467100000047
计算出50个对应的单应矩阵,计算公式为:
Figure BDA0003031467100000048
步骤a3:根据步骤a2求解的50个单应矩阵,对清晰图像块lj,k进行单应变换,并依次叠加,得到50个估算的模糊图像块
Figure BDA0003031467100000049
计算公式为:
Figure BDA00030314671000000410
步骤a4:计算估算的模糊图像块
Figure BDA00030314671000000411
与真实模糊图像块bi,k之间的二范数损失,得到最小的对应的N值,计算公式为:
Figure BDA00030314671000000412
步骤a5:根据步骤a4计算的N值,计算出该模糊图像块bi,k的运动向量长度比
Figure BDA00030314671000000413
所述运动向量长度比/>
Figure BDA00030314671000000414
进一步,所述步骤五中,计算模糊帧Bi的运动向量长度比s的方法为:
步骤b1:使用TV-L1算法计算出模糊帧Bi的光流ui→j,并将光流ui→j归一化,记坐标为x(x,y)的像素点的光流为
Figure BDA00030314671000000415
步骤b2:使用k-modoids聚类算法对所有模糊帧Bi中的特征点进行聚类,聚类的特征向量构造为
Figure BDA0003031467100000051
将具有相近光流和运动向量长度比的点分为一类;
步骤b3:计算每一类里所有特征点的运动向量长度比的均值,并将该均值重新赋值给特征点;
步骤b4:使用KNN分类方法,将模糊帧Bi中的其他非特征点划分到步骤b2计算出的类别中心,分类的特征向量构造为[ux,uy,y,u,v],其中,y,u,v为图像归一化后的YUV通道值;
步骤b5:将步骤b3中计算出的运动向量长度比的均值,赋值给步骤b4中划分入对应类别的非特征点,最终得到模糊帧Bi的运动向量长度比s。
进一步,所述步骤七可以通过求解以下第一公式来实现:
Figure BDA0003031467100000052
式中,K(ui→j,s)是模糊核的行向量形式,
Figure BDA0003031467100000053
是一个线性算子,它计算的是水平和垂直方向上的导数,λ、μL是不同损失项的权重;
在计算过程中,为减小噪声的影响,对Li(x)和Lj(x+ui→j)都做一次模糊核为3*3的高斯模糊;
K(ui→j,s)在每个像素点x(x,y)处的值k(x)通过以下公式计算得到:
Figure BDA0003031467100000054
式中,
Figure BDA0003031467100000055
是坐标点x(x,y)运动向量长度比,u(x)是在像素点x(x,y)上的光流,其在x和y方向上的分量分别为u,v;δ(vx-uy)是Dirac冲激函数;
所述第一公式通过以下凸优化方法来对其进行求解:
Figure BDA0003031467100000061
式中,m≥0,代表迭代次数,si和qi是对偶变量,ηL和εL是更新次数,A是空间线性梯度算子,算子Di计算Li(x)和Lj(x+ui→j)之间的时域差距,T代表矩阵的转置,通过共轭梯度法来最小化式中的代价函数,得到
Figure BDA0003031467100000062
进一步,所述步骤八可以通过求解以下第二公式来实现:
Figure BDA0003031467100000063
其中:
Figure BDA0003031467100000064
Figure BDA0003031467100000065
/>
式中,ν是尺度,σI控制该项的权重,
Figure BDA0003031467100000066
是迭代过程中的潜在清晰帧,u0是光流ui→j的初始值;
所述第二公式通过以下凸优化方法来对其进行求解:
Figure BDA0003031467100000067
其中:pi是ui→j的对偶变量,G是对角矩阵G=diag((g(x))),ηu和εu是更新次数,
Figure BDA0003031467100000068
代表/>
Figure BDA0003031467100000069
进一步,所述步骤九通过求解以下第三公式来实现:
Figure BDA0003031467100000071
其中:
Figure BDA0003031467100000072
s0是s的初始值;
所述第三公式通过以下凸优化方法来对其进行求解:
Figure BDA0003031467100000073
式中,ri是si的对偶变量,ηs和εs是更新次数,
Figure BDA0003031467100000074
代表/>
Figure BDA0003031467100000075
采用本发明所述的技术方案后,带来以下有益效果:
本发明通过计算运动向量长度比,提高了模糊核的精度,在非盲复原部分利用运动向量长度比的TV正则项来保证其空间平滑性,非盲复原部分引入了相邻帧时域一致性约束,保证了视频复原的准确性和时域连续性;本发明能够处理大部分摄像机与拍摄场景之间存在相对运动所造成的运动模糊,不再分开讨论模糊核的空间变化和空间不变性,增大了方法的普适性。
附图说明
图1:本发明的流程图;
图2:原始的模糊视频帧图像;
图3:单幅图像复原方法复原后的视频帧图像;
图4:块融合方法复原后的视频帧图像;
图5:双向光流方法复原后的视频帧图像;
图6:本发明复原后的视频帧图像。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详细的描述。
如图1所示,一种结合帧间信息的非均匀运动模糊视频复原方法,包括以下步骤:
步骤一、获取需要处理的视频,所述视频为连续视频。
步骤二、根据获取的视频,提取视频帧图像,并判断每帧图像的清晰度,若当前帧图像的清晰度大于或等于预设阈值,则判断当前帧为清晰帧,并对下一帧图像进行判断,若当前帧图像的清晰度小于预设阈值,则判断当前帧为模糊帧Bi,并将上一帧图像作为对比清晰帧Lj。所述模糊帧Bi和对比清晰帧Lj中的i和j为一变量,且i=j+1,如模糊帧出现在第三帧则标注为B3,相应的对比清晰帧标注为L2
具体地,所述清晰度判断采用CPBD sharpness-metirc计算每一帧的清晰度,所述预设阈值的取值优选为0.55,或者,在视频中所有帧的清晰度都不能达到0.55时,将预设阈值设置为视频所有帧的清晰度平均值。
举例说明,在进行判断时,首先判断视频第一帧清晰度,若第一帧的清晰度大于0.55,则继续对第二帧进行判断,若第二帧清晰度也大于0.55,则继续对第三帧进行判断,若第三帧的清晰度小于0.55,则判断第三帧为模糊帧B3,并将第二帧作为对比清晰帧L2
在该步骤二中,可以通过安装python的CPBD包,直接调用CPBD包里现有的清晰度计算函数完成计算。
步骤三、检测所述对比清晰帧Lj与模糊帧Bi之间的特征点,并对所述特征点进行匹配,然后以匹配的特征点对为中心分别提取一系列相应的清晰图像块lj,k和模糊图像块bi,k
具体地,体征点匹配的过程为:利用ORB检测算法检测所述对比清晰帧Lj与模糊帧Bi之间的特征点,然后生成BEBLID特征描述子并进行匹配,可以匹配出一系列特征点对
Figure BDA0003031467100000081
以特征点为中心,可以提取出相应匹配的清晰图像块lj,k和模糊图像块bi,k
步骤四、利用投影运动模糊模型和步骤三中提取的图像块,分别计算每个模糊图像块bi,k的运动向量长度比
Figure BDA0003031467100000082
步骤五、利用TV-L1光流算法估算模糊帧Bi的光流ui→j,并利用光流ui→j和步骤四中求得的运动向量长度比
Figure BDA0003031467100000083
结合k-medoids聚类算法和KNN分类方法来计算模糊帧Bi的运动向量长度比s,
所述k-medoids聚类算法处理过程为:首先,随机选择k个对象作为初始的k个簇的代表点,将其余对象按与代表点对象的距离分配到最近的簇;然后,反复用非代表点来代替代表点,其中,非代表点是一个簇里距离代表点距离最远的点,以改进聚类质量。
所述KNN分类算法的实现原理:为了判断未知样本的类别,以所有已知类别的样本作为参照,计算未知样本与所有已知样本的距离,从中选取与未知样本距离最近的K个已知样本,根据少数服从多数的投票法则(majority-voting),将未知样本与K个最邻近样本中所属类别占比较多的归为一类。
步骤六、对模糊帧Bi、光流ui→j和运动向量长度比s进行多次下采样,并建立金字塔模型,具体地,所述下采样倍数为2n,下采样方式为均值下采样,n的取值取决于金字塔最顶层图片的大小,本发明中顶层图片的最长边设置为大于64。
步骤七、固定光流ui→j和运动向量长度比s,计算潜在清晰帧Li
步骤八、固定潜在清晰帧Li和运动向量长度比s,计算光流ui→j
步骤九、固定潜在清晰帧Li和光流ui→j,计算运动向量长度比s。
步骤十、重复执行上述步骤七至步骤九,直到达到金字塔模型的最高分辨率层,计算出最高分辨率的潜在清晰帧Li、光流ui→j和运动向量长度比s。
步骤十一、将模糊帧Bi替换为步骤十中计算得到的最高分辨率的潜在清晰帧Li,得到复原后的清晰视频。
优选地,所述步骤十还包括:
判断计算出的潜在清晰帧Li的清晰度是否大于或等于预设阈值,如果大于或等于则执行下一步骤,如果小于预设阈值,说明清晰度依然较低,需要将运动向量长度比s增加一个精度值0.02,并再次执行步骤七至步骤九,直到计算出的潜在清晰帧Li满足大于或等于预设阈值的要求。
具体地,所述步骤四中,所述运动向量长度比
Figure BDA0003031467100000091
的计算方法为:
步骤a1:选取一对匹配的清晰图像块lj,k和模糊图像块bi,k,并计算清晰图像块lj,k的中心点到模糊图像块bi,k中心点的向量
Figure BDA0003031467100000092
所述向量/>
Figure BDA0003031467100000093
的表达式为:/>
Figure BDA0003031467100000094
步骤a2:设定运动向量长度比
Figure BDA0003031467100000095
的精度为0.02,取值范围为0~1,本实施例中运动向量长度比/>
Figure BDA0003031467100000101
的取值为0.02,根据/>
Figure BDA0003031467100000102
的取值和向量/>
Figure BDA0003031467100000103
可以计算出50个对应的单应矩阵,计算公式如下:
Figure BDA0003031467100000104
步骤a3:根据步骤a2求解的50个单应矩阵,对清晰图像块lj,k进行单应变换,并依次叠加,得到50个估算的模糊图像块
Figure BDA0003031467100000105
计算公式为:
Figure BDA0003031467100000106
步骤a4:计算估算的模糊图像块
Figure BDA0003031467100000107
与真实模糊图像块bi,k之间的二范数损失,得到最小的对应的N值,计算公式为:
Figure BDA0003031467100000108
步骤a5:根据步骤a4计算的N值,计算出该模糊图像块bi,k的运动向量长度比
Figure BDA0003031467100000109
所述运动向量长度比/>
Figure BDA00030314671000001010
具体地,所述步骤五中,计算模糊帧Bi的运动向量长度比s的方法为:
步骤b1:使用TV-L1算法计算出模糊帧Bi的光流ui→j,并将光流ui→j归一化,记坐标为x(x,y)的像素点的光流为
Figure BDA00030314671000001011
步骤b2:使用k-modoids聚类算法对所有模糊帧Bi中的特征点进行聚类,聚类的特征向量构造为
Figure BDA00030314671000001012
将具有相近光流和运动向量长度比的点分为一类;
步骤b3:计算每一类里所有特征点的运动向量长度比的均值,并将该均值重新赋值给特征点;
步骤b4:使用KNN分类方法,将模糊帧Bi中的其他非特征点划分到步骤b2计算出的类别中心,分类的特征向量构造为[ux,uy,y,u,v],其中,y,u,v为图像归一化后的YUV通道值;
步骤b5:将步骤b3中计算出的运动向量长度比的均值,赋值给步骤b4中划分入对应类别的非特征点,最终得到模糊帧Bi的运动向量长度比s。
在拍摄视频时,由于不同物体具有不同的运动状态,因此它们之间的运动向量长度比是不相等的,而对于同一物体上的点,其运动状态一致,因此运动向量长度比是相等的,因此模糊帧Bi的运动向量长度比s具有局部的平滑性和全局的不一致性。为了得到更为准确的运动向量长度比s,本发明选择了先聚类、后分类的方法来对其他非特征点的像素点的运动向量长度比进行插值。
具体地,所述步骤七可以通过求解以下第一公式来实现:
Figure BDA0003031467100000111
式中,K(ui→j,s)是模糊核的行向量形式,
Figure BDA0003031467100000112
是一个线性算子,它计算的是水平和垂直方向上的导数,λ、μL是不同损失项的权重;
在计算过程中,为减小噪声的影响,对Li(x)和Lj(x+ui→j)都做了一次模糊核为3*3的高斯模糊;
K(ui→j,s)在每个像素点x(x,y)处的值k(x)通过以下公式计算得到:
Figure BDA0003031467100000113
式中,
Figure BDA0003031467100000114
是坐标点x(x,y)运动向量长度比,u(x)是在像素点x(x,y)上的光流,其在x和y方向上的分量分别为u,v;δ(vx-uy)是Dirac冲激函数;
所述第一公式通过以下凸优化方法来对其进行求解:
Figure BDA0003031467100000121
/>
式中,m≥0,代表迭代次数,si和qi是对偶变量,ηL和εL是更新次数,A是空间线性梯度算子,算子Di计算Li(x)和Lj(x+ui→j)之间的时域差距,T代表矩阵的转置,最后,通过共轭梯度法来最小化式中的代价函数,得到
Figure BDA0003031467100000122
具体地,所述步骤八可以通过求解以下第二公式来实现:
Figure BDA0003031467100000123
其中:
Figure BDA0003031467100000124
Figure BDA0003031467100000125
式中,ν是尺度,σI控制该项的权重,
Figure BDA0003031467100000126
是迭代过程中的潜在清晰帧,u0是光流ui→j的初始值;
所述第二公式通过以下凸优化方法来对其进行求解:
Figure BDA0003031467100000127
其中:pi是ui→j的对偶变量,G是对角矩阵G=diag((g(x))),ηu和εu是更新次数,
Figure BDA0003031467100000128
代表/>
Figure BDA0003031467100000129
具体地,所述步骤九可以通过求解以下第三公式来实现:
Figure BDA0003031467100000131
其中:
Figure BDA0003031467100000132
s0是s的初始值。
所述第三公式通过以下凸优化方法来对其进行求解:
Figure BDA0003031467100000133
式中,ri是si的对偶变量,ηs和εs是更新次数,
Figure BDA0003031467100000134
代表/>
Figure BDA0003031467100000135
本发明方法的计算机仿真分析:
用Python和OpenCV在Windows764位系统,配置为2.0GHz Intel Core i7-8565UCPU及8GB内存的PC机上对本发明方法进行仿真实验。
本发明方法复原出的视频帧(图6)具有更清晰的边缘及更多的细节信息,明显优于传统的单幅图像复原方法(图3)、块融合方法(图4)、双向光流方法(图5)。另外在复原质量的客观评价方面,本发明方法复原出的视频帧具有最高的sharpness-metric值。无论在主观效果还是客观评价方面,本发明方法都具有明显的优势。
以上所述为本发明的实施方式,应当指出,对于本领域的普通技术人员而言,在不脱离本发明原理前提下,还可以做出多种变形和改进,这也应该视为本发明的保护范围。

Claims (4)

1.一种结合帧间信息的非均匀运动模糊视频复原方法,其特征在于,包括以下步骤:
步骤一、获取需要处理的视频;
步骤二、根据获取的视频,提取视频帧图像,并判断每帧图像的清晰度,若当前帧图像的清晰度大于或等于预设阈值,则判断当前帧为清晰帧,并对下一帧图像进行判断,若当前帧图像的清晰度小于预设阈值,则判断当前帧为模糊帧Bi,并将上一帧图像作为对比清晰帧Lj
步骤三、检测所述对比清晰帧Lj与模糊帧Bi之间的特征点,并对所述特征点进行匹配,然后以匹配的特征点对为中心,分别提取一系列相应的清晰图像块lj,k和模糊图像块bi,k
步骤四、利用投影运动模糊模型和步骤三中提取的图像块,分别计算每个模糊图像块bi,k的运动向量长度比
Figure FDA0004014007090000011
其中,所述步骤四中,所述运动向量长度比
Figure FDA0004014007090000012
的计算方法为:
步骤a1:选取一对匹配的清晰图像块lj,k和模糊图像块bi,k,并计算清晰图像块lj,k的中心点到模糊图像块bi,k中心点的向量
Figure FDA0004014007090000013
所述向量
Figure FDA0004014007090000014
的表达式为:
Figure FDA0004014007090000015
步骤a2:设定运动向量长度比
Figure FDA0004014007090000016
的精度为0.02,取值范围为0~1,根据
Figure FDA0004014007090000017
的取值和向量
Figure FDA0004014007090000018
计算出50个对应的单应矩阵,计算公式为:
Figure FDA0004014007090000019
步骤a3:根据步骤a2求解的50个单应矩阵,对清晰图像块lj,k进行单应变换,并依次叠加,得到50个估算的模糊图像块
Figure FDA00040140070900000110
计算公式为:
Figure FDA00040140070900000111
步骤a4:计算估算的模糊图像块
Figure FDA00040140070900000112
与真实模糊图像块bi,k之间的二范数损失,得到最小的对应的N值,计算公式为:
Figure FDA00040140070900000113
步骤a5:根据步骤a4计算的N值,计算出该模糊图像块bi,k的运动向量长度比
Figure FDA0004014007090000021
所述运动向量长度比
Figure FDA0004014007090000022
步骤五、利用TV-L1光流算法估算模糊帧Bi的光流ui→j,并利用光流ui→j和步骤四中求得的运动向量长度比
Figure FDA0004014007090000023
结合k-medoids聚类算法和KNN分类方法来计算模糊帧Bi的运动向量长度比s,
其中,所述步骤五中,计算模糊帧Bi的运动向量长度比s的方法为:
步骤b1:使用TV-L1算法计算出模糊帧Bi的光流ui→j,并将光流ui→j归一化,记坐标为(x,y)的像素点的光流为
Figure FDA0004014007090000024
步骤b2:使用k-modoids聚类算法对所有模糊帧Bi中的特征点进行聚类,聚类的特征向量构造为
Figure FDA0004014007090000025
将具有相近光流和运动向量长度比的点分为一类;
步骤b3:计算每一类里所有特征点的运动向量长度比的均值,并将该均值重新赋值给特征点;
步骤b4:使用KNN分类方法,将模糊帧Bi中的其他非特征点划分到步骤b2计算出的类别中心,分类的特征向量构造为[ux,uy,y,u,v],其中,y,u,v为图像归一化后的YUV通道值;
步骤b5:将步骤b3中计算出的运动向量长度比的均值,赋值给步骤b4中划分入对应类别的非特征点,最终得到模糊帧Bi的运动向量长度比s;
步骤六、对模糊帧Bi、光流ui→j和运动向量长度比s进行多次下采样,并建立金字塔模型;
步骤七、固定光流ui→j和运动向量长度比s,计算潜在清晰帧Li
其中,所述步骤七可以通过求解以下第一公式来实现:
Figure FDA0004014007090000026
式中,K(ui→j,s)是模糊核的行向量形式,
Figure FDA0004014007090000027
是一个线性算子,它计算的是水平和垂直方向上的导数,λ、μL是不同损失项的权重;
在计算过程中,为减小噪声的影响,对Li(x)和Lj(x+ui→j)都做一次模糊核为3*3的高斯模糊;
K(ui→j,s)在每个像素点(x,y)处的值k(x)通过以下公式计算得到:
Figure FDA0004014007090000031
式中,
Figure FDA0004014007090000032
是坐标点(x,y)运动向量长度比,u(x)是在像素点(x,y)上的光流,其在x和y方向上的分量分别为u,v;δ(vx-uy)是Dirac冲激函数;
所述第一公式通过以下凸优化方法来对其进行求解:
Figure FDA0004014007090000033
式中,m≥0,代表迭代次数,si和qi是对偶变量,ηL和εL是更新次数,A是空间线性梯度算子,算子Di计算Li(x)和Lj(x+ui→j)之间的时域差距,T代表矩阵的转置,通过共轭梯度法来最小化式中的代价函数,得到
Figure FDA0004014007090000034
步骤八、固定潜在清晰帧Li和运动向量长度比s,计算光流ui→j
其中,所述步骤八可以通过求解以下第二公式来实现:
Figure FDA0004014007090000035
其中:
Figure FDA0004014007090000036
Figure FDA0004014007090000037
式中,ν是尺度,σI控制该项的权重,
Figure FDA0004014007090000038
是迭代过程中的潜在清晰帧,u0是光流ui→j的初始值;
所述第二公式通过以下凸优化方法来对其进行求解:
Figure FDA0004014007090000041
其中:pi是ui→j的对偶变量,G是对角矩阵G=diag((g(x))),ηu和εu是更新次数,
Figure FDA0004014007090000042
代表
Figure FDA0004014007090000043
步骤九、固定潜在清晰帧Li和光流ui→j,计算运动向量长度比s1
其中,所述步骤九通过求解以下第三公式来实现:
Figure FDA0004014007090000044
其中:
Figure FDA0004014007090000045
s0是s的初始值;
所述第三公式通过以下凸优化方法来对其进行求解:
Figure FDA0004014007090000046
式中,ri是si的对偶变量,ηs和εs是更新次数,
Figure FDA0004014007090000047
代表
Figure FDA0004014007090000048
步骤十、重复执行上述步骤七至步骤九,直到达到金字塔模型的最高分辨率层,计算出最高分辨率的潜在清晰帧Li、光流ui→j和运动向量长度比s2
步骤十一、用步骤十中计算得到的最高分辨率的潜在清晰帧Li替换所述模糊帧Bi,得到复原后的清晰视频。
2.根据权利要求1所述的结合帧间信息的非均匀运动模糊视频复原方法,其特征在于,所述步骤十还包括:
判断计算出的潜在清晰帧Li的清晰度是否大于或等于预设阈值,
如果大于或等于则执行下一步骤,如果小于预设阈值,则将运动向量长度比s增加一个精度值0.02,并再次执行步骤七至步骤九,直到计算出的潜在清晰帧Li满足大于或等于预设阈值的要求。
3.根据权利要求1所述的结合帧间信息的非均匀运动模糊视频复原方法,其特征在于,所述步骤二采用CPBD sharpness-metirc计算每一帧的清晰度,所述预设阈值的取值为0.55,或者,在视频中所有帧的清晰度都不能达到0.55时,将预设阈值设置为视频所有帧的清晰度平均值。
4.根据权利要求1所述的结合帧间信息的非均匀运动模糊视频复原方法,其特征在于,所述步骤三中,体征点匹配的过程为:利用ORB检测算法检测所述对比清晰帧Lj与模糊帧Bi之间的特征点,然后生成BEBLID特征描述子并进行匹配。
CN202110430994.0A 2021-04-21 2021-04-21 一种结合帧间信息的非均匀运动模糊视频复原方法 Active CN113269682B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110430994.0A CN113269682B (zh) 2021-04-21 2021-04-21 一种结合帧间信息的非均匀运动模糊视频复原方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110430994.0A CN113269682B (zh) 2021-04-21 2021-04-21 一种结合帧间信息的非均匀运动模糊视频复原方法

Publications (2)

Publication Number Publication Date
CN113269682A CN113269682A (zh) 2021-08-17
CN113269682B true CN113269682B (zh) 2023-03-24

Family

ID=77227966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110430994.0A Active CN113269682B (zh) 2021-04-21 2021-04-21 一种结合帧间信息的非均匀运动模糊视频复原方法

Country Status (1)

Country Link
CN (1) CN113269682B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546043B (zh) * 2022-03-31 2023-08-18 荣耀终端有限公司 视频处理方法及其相关设备
CN115546042B (zh) * 2022-03-31 2023-09-29 荣耀终端有限公司 视频处理方法及其相关设备
CN115563331B (zh) * 2022-11-11 2023-03-10 芯知科技(江苏)有限公司 适用于影像优化的数据处理方法
CN117422627B (zh) * 2023-12-18 2024-02-20 卓世科技(海南)有限公司 基于图像处理的ai仿真教学方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106443662A (zh) * 2016-10-28 2017-02-22 上海无线电设备研究所 一种低重频体制下速度模糊时的目标稳健关联方法
CN111667442A (zh) * 2020-05-21 2020-09-15 武汉大学 一种基于事件相机的高质量高帧率图像重建方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236889A (zh) * 2010-05-18 2011-11-09 王洪剑 一种基于多帧运动估计和融合的超分辨率重构方法
CN101917550B (zh) * 2010-07-01 2012-11-14 清华大学 高时空分辨率视频去模糊方法及系统
US20170084007A1 (en) * 2014-05-15 2017-03-23 Wrnch Inc. Time-space methods and systems for the reduction of video noise
CN104103050B (zh) * 2014-08-07 2017-03-15 重庆大学 一种基于局部策略的真实视频复原方法
CN106791273B (zh) * 2016-12-07 2019-08-20 重庆大学 一种结合帧间信息的视频盲复原方法
CN107895349B (zh) * 2017-10-23 2021-06-29 电子科技大学 一种基于合成的内窥镜视频去模糊方法
CN110599421B (zh) * 2019-09-12 2023-06-09 腾讯科技(深圳)有限公司 模型训练方法、视频模糊帧转换方法、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106443662A (zh) * 2016-10-28 2017-02-22 上海无线电设备研究所 一种低重频体制下速度模糊时的目标稳健关联方法
CN111667442A (zh) * 2020-05-21 2020-09-15 武汉大学 一种基于事件相机的高质量高帧率图像重建方法

Also Published As

Publication number Publication date
CN113269682A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN113269682B (zh) 一种结合帧间信息的非均匀运动模糊视频复原方法
Chen et al. Robust video content alignment and compensation for rain removal in a cnn framework
Wang et al. Joint filtering of intensity images and neuromorphic events for high-resolution noise-robust imaging
CN108846358B (zh) 一种基于孪生网络进行特征融合的目标跟踪方法
CN111311666A (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
CN112967341B (zh) 基于实景图像的室内视觉定位方法、系统、设备及存储介质
WO2020253618A1 (zh) 一种视频抖动的检测方法及装置
CN110753181A (zh) 一种基于特征跟踪和网格路径运动的视频稳像方法
JP2015095897A (ja) シーンから取得されたビデオを処理する方法
CN111798485B (zh) 一种利用imu增强的事件相机光流估计方法及系统
Parameshwara et al. Diffposenet: Direct differentiable camera pose estimation
CN112465021B (zh) 基于图像插帧法的位姿轨迹估计方法
CN111598775B (zh) 基于lstm网络的光场视频时域超分辨重建方法
CN110827262A (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN111127353B (zh) 一种基于块配准和匹配的高动态图像去鬼影方法
Yang et al. Motion aware double attention network for dynamic scene deblurring
Wang et al. Paul: Procrustean autoencoder for unsupervised lifting
CN116580121B (zh) 一种基于深度学习的单张绘画生成2d模型的方法及系统
CN105913084A (zh) 一种基于密集轨迹和dhog的超声心动视频影像分类方法
CN112270691A (zh) 一种基于动态滤波器网络的单目视频结构和运动预测方法
CN106485734B (zh) 一种基于非局部自相似性的视频运动物体检测方法
CN113177901B (zh) 一种机器人视觉的多帧运动图像融合方法及系统
CN106934818B (zh) 一种手部运动跟踪方法及系统
Li et al. H-vfi: Hierarchical frame interpolation for videos with large motions
Zheng et al. Non-local single image de-raining without decomposition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 266103 Haier Industrial Park, 1 Haier Road, Laoshan District, Shandong, Qingdao

Applicant after: Hainayun IOT Technology Co.,Ltd.

Address before: 266103 Haier Industrial Park, 1 Haier Road, Laoshan District, Shandong, Qingdao

Applicant before: Qingdao hainayun Technology Holding Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230216

Address after: 266101 Haier Industrial Park, 1 Haier Road, Laoshan District, Shandong, Qingdao

Applicant after: Hainayun IOT Technology Co.,Ltd.

Applicant after: Qingdao hainayun Intelligent System Co.,Ltd.

Applicant after: Qingdao hainayun Digital Technology Co.,Ltd.

Address before: 266103 Haier Industrial Park, 1 Haier Road, Laoshan District, Shandong, Qingdao

Applicant before: Hainayun IOT Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant