CN105847804B - 一种基于稀疏冗余表示模型的视频帧率上转换方法 - Google Patents

一种基于稀疏冗余表示模型的视频帧率上转换方法 Download PDF

Info

Publication number
CN105847804B
CN105847804B CN201610335408.3A CN201610335408A CN105847804B CN 105847804 B CN105847804 B CN 105847804B CN 201610335408 A CN201610335408 A CN 201610335408A CN 105847804 B CN105847804 B CN 105847804B
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
mtd
mtr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610335408.3A
Other languages
English (en)
Other versions
CN105847804A (zh
Inventor
李然
郭华平
董喜双
刘宏兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinyang Normal University
Original Assignee
Xinyang Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinyang Normal University filed Critical Xinyang Normal University
Priority to CN201610335408.3A priority Critical patent/CN105847804B/zh
Publication of CN105847804A publication Critical patent/CN105847804A/zh
Application granted granted Critical
Publication of CN105847804B publication Critical patent/CN105847804B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稀疏冗余表示模型的视频帧率上转换方法,其步骤包括:(1)估计前帧ft‑1与后帧ft+1之间任意像素位置(i,j)处前向光流向量vt‑1,t+1(i,j);(2)根据运动对称假设,在前帧ft‑1的前向光流场vt‑1,t+1基础上,逐像素实施双向三维递归搜索,计算当前像素位置(i,j)处的最优光流向量vt,t+1(i,j);(3)逐像素对应光流场vt,t+1中光流向量进行平滑,保证光流在局部区域内的一致性,以抑制错误光流向量出现;(4)利用前帧ft‑1与后帧ft+1、光流场vt,t+1,构造当前帧ft的稀疏重建模型;(5)估计稀疏重建模型中的正则化参数与稀疏表示字典;(6)采用非线性优化方法求解稀疏重建模型,获得当前帧估计与现有技术相比,本发明能够有效提升视频帧率上转换的性能。

Description

一种基于稀疏冗余表示模型的视频帧率上转换方法
技术领域
本发明属于视频编码技术领域,涉及一种视频帧率上转换方法,尤其是提出了利用稀疏冗余表示模型抑制在上转换过程由异常运动向量造成的模糊现象。
背景技术
高帧率视频可带来极佳的视觉体验,其展示画面更接近于真实,是超高清视频制作技术的新趋势。受限于普通电子消费类数码摄像机的采集速率,目前视频节目源帧率一般为每秒30帧,即30fps,它仍不足以流畅地刻画细腻动作,给人眼带来一定停滞感,长时间观看极易疲劳。直接以硬件方式提高设备采集速率,会成倍提高成本,不利于产品推广,因此,需要以软件方式利用低帧率视频源的相关冗余信息作帧率上转换,生成符合具有良好视觉质量的高帧率视频源。
帧率上转换可通过帧复制、帧平均方式实现,但这些简单方法无法较好地描述高速运动,常会产生大量的模糊效应。然而,运动补偿帧率上转换充分利用相邻视频帧间的物体运动轨迹,线性恢复出中间帧运动向量场,获得了良好的内插质量,成为主流的视频帧率上转换技术。块匹配算法因其简单性,常被用于运动补偿帧率上转换,它将视频帧划分为互不重叠的块,寻找到各块在参考帧上与其残差能量最小的匹配块,并确定相对坐标偏移作为最终线性运动向量。由于外部光照条件变化、物体表面相似性模式的存在,残差能量最小准则并不一定可反映真实物体运动,常由于过拟合问题导致内插帧出现边缘模糊、块效应现象。运动向量平滑与提纯可在一定程度上纠正运动向量异常,常用方法是加权中值滤波器,但它以连通区域内运动向量准确为前提假设,而现实情况下异常运动向量常成片出现,因此,运动向量平滑与提纯并无法从根本上抑制异常运动向量出现。由上可知,如何估计物体真实运动轨迹,抑制由异常运动向量引起的不良效应,确保高内插质量的帧率上转换是目前亟待解决的技术问题。
在现有技术中,文献“Direction-Select Motion Estimation for Motion-Compensated Frame Rate Up-Conversion”(Yoo Dong-Gon,Kang Suk-Ju,and Kim YoungHwan,Journal ofDisplay Technology,vol.9,no.10,pp.840-850,2013)针对异常运动向量问题,提出沿着前后向分别估计内插帧的运动向量场,通过增加运动向量候选的方式,提高运动估计可靠性,同时,也提出了二维加权运动向量平滑,进一步改善运动向量场估计精度。尽管该方法在一定程度提高了帧率上转换性能,但是它仍是使用块匹配算法,并以残差能量最小为准测挑选候选运动向量,因此,反映真实运动向量能力仍具有局限性。文献“High Visual Quality Based Frame Rate Up Conversion with AccelerationAssisted Motion Trajectory Calibration”(Tai Tsung-Han,and Lin Hsueh-Yi,Journal ofDisplay Technology,vol.8,no.6,pp.341-351,2012)为了保证运动向量真实性,选择采用单向运动估计,并不再将运动建模为匀速运动,而是增加了加速度参量,以二阶加速模型描述物体运动。然而,该方法造成了大量块重叠与空洞,需要借助后处理手段进行修饰,造成了较多模糊效应。由上可知,研究可确保运动向量真实性的帧率上转换技术,并在内插过程抑制异常运动向量造成的模糊效应,具有重要研究意义和实用价值。
发明内容
技术问题:本发明为提高运动估计准确性并抑制异常运动向量造成的模糊现象,提出了一种基于稀疏冗余表示模型的视频帧率上转换方法。该方法放弃传统的块匹配算法,而是利用光流法估计内插帧的真实运动向量。在内插过程,为了抑制异常运动造成的模糊效应,传统线性运动补偿内插由基于稀疏冗余表示模型的非线性重建方法代替。该方法借助于光流估计与稀疏冗余表示两大分析工具,可有效抑制异常运动向量带来的不良效应,进一步改善运动补偿帧率上转换性能。
技术方案:本发明方法利用光流法估计各像素的运动向量,并以像素为中心形成图像子块,依据图像子块的运动轨迹,建立内插帧的稀疏冗余表示模型,通过非线性最优化方法求解该模型以恢复内插帧。其特征包括如下:
1.前向光流场估计
利用Lucas-Kanade光流算法估计前帧ft-1与后帧ft+1之间任意像素位置(i,j)处前向光流向量vt-1,t+1(i,j)。
2.双向光流场提纯
根据运动对称假设,在前帧ft-1的前向光流场vt-1,t+1基础上,逐像素实施双向三维递归搜索。当前帧ft在像素位置(i,j)处的候选光流向量集合为
CSi,j={vt,t+1(i,j-1),vt,t+1(i-1,j),vt-1,t(i,j),vt-1,t(i,j+1),
vt-1,t(i+1,j),vt,t+1(i-1,j-1)+ua,vt,t+1(i+1,j+1)+ub}
其中vt-1,t=vt-1,t+1/2,ua与ub为更新向量,随机从以下集合中依次选取:
提取以像素位置(i,j)为中心的尺寸为wp×wp区域内所有像素位置组成Ωi,j,计算当前像素位置(i,j)处的最优光流向量vt,t+1(i,j)如下:
其中v为CSi,j中的候选光流向量,s为Ωi,j中的任意像素位置,||·||2为l2范数,τ取为0.3,Ωi,j尺寸wp设置为7。
3.光流场平滑
若当前像素位置(i,j)处的光流向量vt,t+1(i,j)方向与其四连接区域像素的光流向量方向不一致时,就认为vt,t+1(i,j)估计发生错误,并将其方向纠正,保持与四连接区域像素光流向量方向一致。从左至右,从上到下,逐像素对应光流场中光流向量进行平滑,保证光流在局部区域内的一致性,以抑制错误光流向量出现。
4.稀疏重建模型构造
提取当前帧ft在以像素位置(i,j)为中心的尺寸为wp×wp区域Ωi,j内所有像素亮度值,并按列排列为向量xi,j,xi,j为像素位置(i,j)处的图像子块,即满足
xi,j=Ri,jft
其中Ri,j是用于提取ft中像素位置(i,j)处图像子块的矩阵,图像子块尺寸wp设置为7。利用运动对称性,由线性内插法可计算xi,j的估计pi,j如下:
其中pi,j(k)为pi,j的第k个分量,Ωi,j(k)是pi,j(k)在Ωi,j内对应的像素位置。pi,j与xi,j之间存在有一定预测误差,即
pi,j(k)=xi,j(k)+ni,j(k)
其中xi,j(k)为原始图像子块xi,j的第k个分量,ni,j(k)为预测误差项。将ni,j(k)建模为均值为0、方差为σ2 i,j的加性高斯噪声。原始图像子块xi,j稀疏表示建模如下:
xi,j=Di,jαi,j+mi,j
式中Di,j为xi,j的稀疏表示字典,αi,j为xi,j的稀疏表示系数,mi,j为噪声项,其服从均值为0、方差为η2 i,j的加性高斯噪声。考虑ft中所有像素对应的图像子块,可构造出最终的稀疏重建模型如下:
其中正则化参数
上式采用数值计算方法根据如下步骤求解:
步骤1:初始化待求解变量ft (0)为当前帧ft的线性内插估计,设定最大迭代次数为10;
步骤2:固定ft (n),稀疏重建模型化简为
等价于
式中||·||0为l0范数,即向量中非0分量个数,εi,j与μi,j成反比,可按经验固定为0.01。采用正交匹配追踪算法求得αi,j的第n次迭代解αi,j (n)
步骤3:固定αi,j (n),稀疏重建模型化简为
有闭式解如下:
步骤4:重复步骤2至步骤3,直到满足||ft (n)-ft (n-1)||2≤0.001为止,此时迭代解即为当前帧估计。
5.正则化参数估计
正则化参数λi,j由σ2 i,j和η2 i,j决定。对于σ2 i,j,首先计算前后参考帧ft-1与ft+1沿着光流轨迹的亮度值绝对差值如下:
di,j=|ft-1(s+vt,t-1(i,j))-ft+1(s+vt,t+1(i,j))|
其中s代表内插帧ft在位置(i,j)处的像素坐标。利用上式估计σ2 i,j如下:
由数值分析结果分别设定a、b取值为0.75、3.5。对于η2 i,j,在求解稀疏重建模型的每次迭代中进行更新,首先利用第n次迭代的稀疏表示系数αi,j (n)计算图像子块估计如下:
接着,利用图像子块估计的样本方差估计η2 i,j如下
6.字典学习
首先,逐像素抽取前后参考帧ft-1与ft+1内图像子块组成训练集合S,接着,提取S内任意样本梯度值作为特征,利用K-mean算法根据特征将S划分为3个聚类{S1,S2,S3},计算聚类类内所有样本均值,的聚类中心{c1,c2,c3},最后,利用主成份分析算法计算各聚类的主成份,并组成对应于3个聚类的正交变换矩阵{P1,P2,P3}。在求解稀疏重建模型的每次迭代中,利用图像子块xi,j的第n-1次迭代选择学习字典如下:
有益效果:本发明利用光流法估计内插帧的真实运动向量,通过双向光流场提纯与光流场平滑方法抑制当前帧的异常光流向量。在内插过程,采用稀疏冗余表示模型实施非线性重建,减少由异常光流造成的模糊效应。与现有技术相比,本发明借助于光流估计与稀疏冗余表示两大分析工具,有效抑制异常光流向量带来的不良效应,有效提升了运动补偿帧率上转换性能。
附图说明
图1为本发明实施帧内插示例。
图2为本发明实施帧内插流程。
图3为双向光流场提纯采用的候选向量相对空间位置。
图4为异常光流向量示例,其中图4(a)为平滑光流场前的局部光流向量分布,图4(b)为平滑光流场后的局部光流向量分布。
图5为本发明与对比方法内插Foreman第58帧的主观视觉质量对比,其中图5(a)为Yoo et al.方法内插帧,图5(b)为Tai et al.方法内插帧,图5(c)为本发明内插帧。
具体实施方法
以下结合附图和实施例对本发明的技术方案作进一步描述。
如图1所示,本发明方法在获取前帧ft-1与后帧ft+1之间任意像素位置(i,j)处前向光流向量vt-1,t+1(i,j)的前提下,根据双向对称性假设,在时空邻域内搜索出内插帧ft中同一像素位置(i,j)处的前向光流向量vt,t+1(i,j),并利用该预测光流场重建中间帧ft。通过周期性在相邻帧间利用本发明方法插入若干帧,即可实现视频帧率上转换。插帧算法流程如图2所示,首先,通过前向光流场估计生成前后参考帧ft-1与ft+1之间的前向光流场vt-1,t+1,然后,利用双向光流场提纯预测内插帧ft的前向光流场,经光流场平滑后获得最终光流场vt,t+1,接着,根据前向光流场vt,t+1,运行正则化参数估计和字典学习,计算出非线性内插必需的参数,即像素位置(i,j)处的噪声标准差σi,j与稀疏表示字典Di,j;最后,构建稀疏重建模型,设计求解算法,生成内插帧估计本发明提出的插帧算法各组成部分具体实施方法说明如下:
1.前向光流场估计
利用Lucas-Kanade光流算法估计前帧ft-1与后帧ft+1之间任意像素位置(i,j)处前向光流向量vt-1,t+1(i,j)。为了便于描述Lucas-Kanade光流算法实施过程,设ft-1在像素位置(i,j)处取值为
ft-1(i,j)=I(i,j,h) (1)
其中I(i,j,h)代表在时刻h上像素位置(i,j)处的亮度。由于在极短时间间隔中,光流轨迹上像素亮度保持恒定,那么,ft-1(i,j)沿着光流轨迹在后帧ft+1上的匹配像素位置(i′,j′)处取值为
ft+1(i′,j′)=I(i+di,j+dj,h+dh) (2)
且满足光流约束方程
I(i+di,j+dj,h+dh)=I(i,j,h) (3)
其中(di,dj)为像素位移,而dh为时间间隔。将式(3)左侧利用一级泰勒级数展开,可得
对比式(3)与式(4),可得
式(5)左右两侧同时除以dh,整理可得
则式(6)等价于
Iiv1+Ijv2=-Ih (7)
其中(v1,v2)T就是像素位置(i,j)处前向光流向量vt-1,t+1(i,j),即
vt-1,t+1(i,j)=(v1,v2)T (8)
上标T为矩阵转置运算。由于场景中物体总是占据图像某局部区域,因此,在以像素位置(i,j)为中心的局部邻域n=n1×n2内各像素光流均为(v1,v2)T,那么,可得到下列方程组:
则式(9)可记作
A·vt-1,t+1(i,j)=b (10)
由于式(10)为超定线性方程组,因此,利用最小二乘法可得其解为
vt-1,t+1(i,j)=(ATA)-1AT(-b) (11)
2.双向光流场提纯
根据运动对称假设,在前帧ft-1的前向光流场vt-1,t+1基础上,逐像素实施双向三维递归搜索。三维递归搜索包括空间递归和时间递归,即认当前像素与当前帧中的空间相邻像素以及前一帧中时间相邻像素在运动上具有相关性,当前像素的光流向量可由时空相关向量“传播”得来。由于当前像素的光流向量与其时间、空间相邻像素的光流向量相近,但并非完全相同,若所有的候选向量都来自相邻像素光流向量的原始值,则不符合实际情况,因此,给原始光流向量加上一个更新向量,得到的候选光流向量将更接近实际、更准确。根据上述经验,当前帧ft在像素位置(i,j)处的候选光流向量集合为
其中vt-1,t=vt-1,t+1/2,ua与ub为更新向量,随机从以下集合中依次选取:
由此可知,候选的预测向量共有7个,如图3所示,包括:内插帧ft中像素位置(i,j)的左边、上边、左上和右上像素;前帧ft-1中处于(i,j)的像素,及其右边和下边像素。提取以像素位置(i,j)为中心的尺寸为wp×wp区域内所有像素位置组成Ωi,j,计算当前像素位置(i,j)处的最优光流向量vt,t+1(i,j)如下:
其中v为CSi,j中的候选光流向量,s为Ωi,j中的任意像素位置,||·||2为l2范数,τ为常数(按经验取为0.3)。式(14)首先计算相邻两帧中Ωi,j内所有像素的双向绝对差和,再加上依赖于候选向量幅度值的惩罚项,选取双向绝对差和与运动幅度均较小的候选向量为当前像素的光流向量估计。
3.光流场平滑
由于视频帧具有空间结构相似性,在采用式(14)估计当前帧ft的前向运动矢量场vt,t+1时,最小匹配误差并不一定反映了真实光流轨迹,因此,前向运动矢量场vt,t+1中总是存在若干错误估计的光流向量。如图4所示,若当前像素位置(i,j)处的光流向量vt,t+1(i,j)方向与其四连接区域像素的光流向量方向不一致时,就认为vt,t+1(i,j)估计发生错误,并将其方向纠正,保持与四连接区域像素光流向量方向一致。从左至右,从上到下,逐像素对应光流场中光流向量进行平滑,保证光流在局部区域内的一致性,以抑制错误光流向量出现。光流场vt,t+1(i,j)经平滑后即为当前帧ft的前向光流场,根据运动对称性,可获得当前帧ft的后向运动矢量场为
vt,t-1(i,j)=-vt,t+1(i,j) (15)
利用ft-1、ft+1、vt,t+1(i,j)与vt,t-1(i,j)即可构造稀疏重建模型。
4.稀疏重建模型构造
提取当前帧ft在以像素位置(i,j)为中心的尺寸为wp×wp区域Ωi,j内所有像素亮度值,并按列排列为向量xi,j,称其为像素位置(i,j)处的图像子块,即满足
xi,j=Ri,jft (16)
其中Ri,j是用于提取ft中像素位置(i,j)处图像子块的矩阵,图像子块尺寸wp设置为7。利用运动对称性,由线性内插法可计算xi,j的估计pi,j如下:
其中pi,j(k)为pi,j的第k个分量,Ωi,j(k)是pi,j(k)在Ωi,j内对应的像素位置。双向光流场提纯与光流场平滑并无法完全消除异常向量,因此,pi,j与xi,j之间存在有一定预测误差,即
pi,j(k)=xi,j(k)+ni,j(k) (17)
其中xi,j(k)为原始图像子块xi,j的第k个分量,ni,j(k)为预测误差项。将ni,j(k)建模为均值为0、方差为σ2 i,j的加性高斯噪声,即ni,j(k)的概率密度函数为
那么,可推导出pi,j(k)的条件概率密度函数为
由于各噪声项相互独立,因此,可得
式中||·||2为l2范数,N=wp 2。原始图像子块xi,j稀疏表示建模如下:
xi,j=Di,jαi,j+mi,j (21)
式中Di,j为xi,j的稀疏表示字典,αi,j为xi,j的稀疏表示系数,mi,j为噪声项,其服从均值为0、方差为η2 i,j的加性高斯噪声。xi,j的概率密度函数为
Pr[xi,j]=Pr[xi,ji,j]·Pr[αi,j] (22)
其中
式(24)表示αi,j服从参数为θi,j的拉普拉斯分布,即αi,j中0分量出现的概率较大,||·||1为l1范数,因此,式(21)被称作稀疏表示模型。由贝叶斯推论可得
Pr[xi,j|pi,j]∝Pr[pi,j|xi,j]·Pr[xi,j] (25)
由此可得到xi,j的最大后验估计
将式(20)、式(23)和式(24)代入式(26)可得
其中
考虑ft中所有像素对应的图像子块,可构造出最终的稀疏重建模型如下:
式(28)可采用数值计算方法根据如下步骤求解:
步骤1:初始化待求解变量ft (0)为当前帧ft的线性内插估计,设定最大迭代次数为10;
步骤2:固定ft (n),式(28)化简为
式(29)等价于
式中||·||0为l0范数,即向量中非0分量个数,εi,j与μi,j成反比,可按经验固定为0.01。采用正交匹配追踪算法求解式(30),得αi,j的第n次迭代解αi,j (n)
步骤3:固定αi,j (n),式(28)化简为
式(31)有闭式解如下:
步骤4:重复步骤2至步骤3,直到满足||ft (n)-ft (n-1)||2≤0.001为止,此时迭代解即为当前帧估计。
在式(28)数值求解过程中,正则化参数λi,j与字典Di,j将在迭代过程中随迭代解变化而更新,具体更新方法如下叙述。
5.正则化参数估计
正则化参数λi,j由σ2 i,j和η2 i,j决定。σ2 i,j表示原始中间帧ft与其线性内插估计之间预测误差项ni,j的方差,η2 i,j表示图像子块由字典稀疏表示式产生的残留噪声项mi,j的方差。由于缺乏原始中间帧ft的信息,σ2 i,j和η2 i,j无法直接计算。对于σ2 i,j,首先计算前后参考帧ft-1与ft+1沿着光流轨迹的亮度值绝对差值如下:
di,j=|ft-1(s+vt,t-1(i,j))-ft+1(s+vt,t+1(i,j))| (33)
其中s代表内插帧ft在位置(i,j)处的像素坐标。利用式(33)可估计σ2 i,j如下:
由数值分析结果分别设定a、b取值为0.75、3.5。对于η2 i,j,在求解式(28)的每次迭代中进行更新,首先利用第n次迭代的稀疏表示系数αi,j (n)计算图像子块估计如下:
接着利用图像子块估计的样本方差估计η2 i,j如下
6.字典学习
首先,逐像素抽取前后参考帧ft-1与ft+1内图像子块组成训练集合S,接着,提取S内任意样本梯度值作为特征,利用K-mean算法根据特征将S划分为3个聚类{S1,S2,S3},计算聚类类内所有样本均值,的聚类中心{c1,c2,c3},最后,利用主成份分析算法计算各聚类的主成份,并组成对应于3个聚类的正交变换矩阵{P1,P2,P3}。在求解式(28)的每次迭代中,利用图像子块xi,j的第n-1次迭代选择学习字典如下:
本发明的仿真结果
本发明利用MATLAB 7.6进行仿真实验,测试序列包含CIF格式的Foreman、Football、Stefan、Tennis、Mobile、Bus。为了评估内插帧的质量,每个测试序列的前50个偶数帧被移除,接着,它们通过各种帧率上转换方案由前50个奇数帧再次生成,最后,再计算生成内插帧与原始帧之间的峰值信噪比(Peak Signal to Noise Ratio,PSNR)以反映内插帧的客观质量。对比方法分别来自文献“Direction-Select Motion Estimation forMotion-Compensated Frame Rate Up-Conversion”(Yoo Dong-Gon,Kang Suk-Ju,and KimYoung Hwan,Journal of Display Technology,vol.9,no.10,pp.840-850,2013)和文献“High Visual Quality Based Frame Rate Up Conversion with AccelerationAssisted Motion Trajectory Calibration”(Tai Tsung-Han,and Lin Hsueh-Yi,Journal of Display Technology,vol.8,no.6,pp.341-351,2012)。表1列出了不同测试序列下本发明与对比方法重建出内插帧的平均PSNR值,可看出本发明生成的内插帧获得了较高的PSNR值,平均分别比Yoo et al.方法、Tai et al.方法高0.73dB、1.64dB,这说明了本发明可确保上转视频具有良好的客观质量。图5显示了本发明与对比方法重建Foreman第58帧的主观视觉质量对比,可看出本发明抑制了由异常向量造成的模糊效应,尤其是在嘴唇区域,而对比方法不同程度出现了块效应与模糊,这说明了本发明可确保上转视频具有良好的主观质量。
表1不同测试序列下本发明与对比方法生成内插帧的平均PSNR值(dB)

Claims (1)

1.一种基于稀疏冗余表示模型的视频帧率上转换方法,其特征在于该方法包括:双向光流场提纯、光流场平滑、稀疏重建模型构造、正则化参数估计以及字典学习;
双向光流场提纯方法为,根据运动对称假设,在由前帧ft-1到后帧ft+1的前向光流场vt-1,t+1基础上,逐像素实施双向三维递归搜索,当前帧ft在像素位置(i,j)处的候选光流向量集合为
CSi,j={vt,t+1(i,j-1),vt,t+1(i-1,j),vt-1,t(i,j),vt-1,t(i,j+1),
vt-1,t(i+1,j),vt,t+1(i-1,j-1)+ua,vt,t+1(i+1,j+1)+ub}
其中vt-1,t为由前帧ft-1到当前帧ft的前向光流场,vt-1,t在像素位置(i,j)处的光流向量vt-1,t(i,j)按下式计算:
<mrow> <msub> <mi>v</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>t</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>v</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> <mn>2</mn> </mfrac> </mrow>
ua与ub为更新向量,随机从以下集合中依次选取:
<mrow> <mi>U</mi> <mi>S</mi> <mo>=</mo> <mo>{</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mn>2</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mo>-</mo> <mn>2</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mo>-</mo> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>3</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mo>-</mo> <mn>3</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>}</mo> </mrow>
提取以像素位置(i,j)为中心的尺寸为wp×wp区域内所有像素位置组成Ωi,j,计算当前像素位置(i,j)处的最优光流向量vt,t+1(i,j)如下:
<mrow> <msub> <mi>v</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>v</mi> <mo>&amp;Element;</mo> <msub> <mi>CS</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </mrow> </munder> <mo>{</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>&amp;Element;</mo> <msub> <mi>&amp;Omega;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </mrow> </munder> <mo>|</mo> <msub> <mi>f</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>s</mi> <mo>-</mo> <mi>v</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>f</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>s</mi> <mo>+</mo> <mi>v</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>+</mo> <mi>&amp;tau;</mi> <mo>|</mo> <mo>|</mo> <mi>v</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>}</mo> </mrow>
其中v为CSi,j中的候选光流向量,s为Ωi,j中的任意像素位置,ft-1(s-v)是前帧ft-1在像素位置s-v处的像素值,ft+1(s+v)是前帧ft+1在像素位置s+v处的像素值,||·||2为l2范数,τ为取为0.3,Ωi,j尺寸wp设置为7;
光流场平滑方法为,若当前像素位置(i,j)处的光流向量vt,t+1(i,j)方向与其四连接区域像素的光流向量方向不一致时,就认为vt,t+1(i,j)估计发生错误,并将其方向纠正,保持与四连接区域像素光流向量方向一致,从左至右,从上到下,逐像素对应光流场中光流向量进行平滑,保证光流在局部区域内的一致性,以抑制错误光流向量出现;
稀疏重建模型构造方法为,提取当前帧ft在以像素位置(i,j)为中心的尺寸为wp×wp区域Ωi,j内所有像素亮度值,并按列排列为向量xi,j,称xi,j为像素位置(i,j)处的图像子块,即满足
xi,j=Ri,jft
其中Ri,j是用于提取ft中像素位置(i,j)处图像子块的矩阵,图像子块尺寸wp设置为7,利用运动对称性,由线性内插法可计算xi,j的估计pi,j如下:
<mrow> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mrow> <mo>&amp;lsqb;</mo> <mrow> <msub> <mi>f</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>&amp;Omega;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>v</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>f</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <msub> <mi>&amp;Omega;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>v</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mrow>
其中pi,j(k)为pi,j的第k个分量,Ωi,j(k)是pi,j(k)在Ωi,j内对应的像素位置,pi,j与xi,j之间存在有一定预测误差,即
pi,j(k)=xi,j(k)+ni,j(k)
其中xi,j(k)为原始图像子块xi,j的第k个分量,ni,j(k)为预测误差项,将ni,j(k)建模为均值为0、方差为σ2 i,j的加性高斯噪声,原始图像子块xi,j稀疏表示建模如下:
xi,j=Di,jai,j+mi,j
式中Di,j为xi,j的稀疏表示字典,ai,j为xi,j的稀疏表示系数,其服从参数为θi,j的拉普拉斯分布,mi,j为噪声项,其服从均值为0、方差为η2 i,j的加性高斯噪声,考虑ft中所有像素对应的图像子块,可构造出最终的稀疏重建模型如下:
<mrow> <msub> <mrow> <mo>{</mo> <msub> <mover> <mi>f</mi> <mo>^</mo> </mover> <mi>t</mi> </msub> <mo>,</mo> <msub> <mover> <mi>&amp;alpha;</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>}</mo> </mrow> <mrow> <mo>&amp;ForAll;</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>arg</mi> <munder> <mi>min</mi> <mrow> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>,</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </mrow> </munder> <mo>{</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <msub> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>}</mo> </mrow>
其中正则化参数
<mrow> <msub> <mi>&amp;lambda;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfrac> <msubsup> <mi>&amp;eta;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mn>2</mn> </msubsup> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mn>2</mn> </msubsup> </mfrac> <mo>,</mo> <msub> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <msubsup> <mi>&amp;eta;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mn>2</mn> </msubsup> </mrow> <msub> <mi>&amp;theta;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </mfrac> </mrow>
上式采用数值计算方法根据如下步骤求解:
步骤1:初始化待求解变量ft (0)为当前帧ft的线性内插估计,设定最大迭代次数为10;
步骤2:固定ft (n),稀疏重建模型化简为
<mrow> <msub> <mrow> <mo>{</mo> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>}</mo> </mrow> <mrow> <mo>&amp;ForAll;</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </munder> <mo>{</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <msub> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>}</mo> </mrow>
等价于
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mrow> <mo>{</mo> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>}</mo> </mrow> <mrow> <mo>&amp;ForAll;</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </munder> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>0</mn> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>&amp;le;</mo> <msubsup> <mi>&amp;epsiv;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mn>2</mn> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced>
式中||·||0为l0范数,即向量中非0分量个数,εi,j与μi,j成反比,可按经验固定为0.01,采用正交匹配追踪算法求解得ai,j的第n次迭代解ai,j (n)
步骤3:固定ai,j (n),稀疏重建模型化简为
<mrow> <msubsup> <mi>f</mi> <mi>t</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <msub> <mi>f</mi> <mi>t</mi> </msub> </munder> <mo>{</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>t</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>}</mo> </mrow>
有闭式解如下:
<mrow> <msubsup> <mi>f</mi> <mi>t</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </munder> <mrow> <mo>(</mo> <msubsup> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msubsup> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>&amp;lsqb;</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </munder> <mrow> <mo>(</mo> <msubsup> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msubsup> <mi>R</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
其中上标T代表对矩阵进行转置运算,
步骤4:重复步骤2至步骤3,直到满足||ft (n)-ft (n-1)||2≤0.001为止,此时迭代解即为当前帧估计;
正则化参数估计方法为,正则化参数λi,j由σ2 i,j和η2 i,j决定,对于σ2 i,j,首先计算前后参考帧ft-1与ft+1沿着光流轨迹的亮度值绝对差值如下:
di,j=|ft-1(s+vt,t-1(i,j))-ft+1(s+vt,t+1(i,j))|
其中s代表内插帧ft在位置(i,j)处的像素坐标,ft-1、ft及ft+1在s处的像素取值分别为ft-1(s)、ft(s)及ft+1(s),利用上式估计σ2 i,j如下:
<mrow> <msub> <mover> <mi>&amp;sigma;</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>a</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>d</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>+</mo> <mi>b</mi> </mrow> 2
由数值分析结果分别设定a、b取值为0.75、3.5,对于η2 i,j,在求解稀疏重建模型的每次迭代中进行更新,首先利用第n次迭代的稀疏表示系数ai,j (n)计算图像子块估计如下:
<mrow> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> </mrow>
接着,利用图像子块估计的样本方差估计η2 i,j如下
<mrow> <msubsup> <mover> <mi>&amp;eta;</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mn>2</mn> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mi>k</mi> </munder> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mi>k</mi> </munder> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>;</mo> </mrow>
其中N为图像子块xi,j的像素个数
字典学习方法为,首先,逐像素抽取前后参考帧ft-1与ft+1内图像子块组成训练集合S,接着,提取S内任意样本梯度值作为特征,利用K-mean算法根据特征将S划分为3个聚类{S1,S2,S3},计算聚类内所有样本均值作为聚类中心{c1,c2,c3},最后,利用主成份分析算法计算各聚类的主成份,并组成对应于3个聚类的正交变换矩阵{P1,P2,P3},在求解稀疏重建模型的每次迭代中,利用图像子块xi,j的第n-1次迭代选择学习字典如下:
<mrow> <msub> <mi>l</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>q</mi> </munder> <mo>|</mo> <mo>|</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mrow> <mi>n</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msub> <mi>c</mi> <mi>q</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow>
<mrow> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>P</mi> <msub> <mi>l</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </msub> <mo>.</mo> </mrow> 3
CN201610335408.3A 2016-05-18 2016-05-18 一种基于稀疏冗余表示模型的视频帧率上转换方法 Expired - Fee Related CN105847804B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610335408.3A CN105847804B (zh) 2016-05-18 2016-05-18 一种基于稀疏冗余表示模型的视频帧率上转换方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610335408.3A CN105847804B (zh) 2016-05-18 2016-05-18 一种基于稀疏冗余表示模型的视频帧率上转换方法

Publications (2)

Publication Number Publication Date
CN105847804A CN105847804A (zh) 2016-08-10
CN105847804B true CN105847804B (zh) 2017-12-15

Family

ID=56593910

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610335408.3A Expired - Fee Related CN105847804B (zh) 2016-05-18 2016-05-18 一种基于稀疏冗余表示模型的视频帧率上转换方法

Country Status (1)

Country Link
CN (1) CN105847804B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107968946B (zh) * 2016-10-18 2021-09-21 深圳万兴信息科技股份有限公司 视频帧率提升方法及装置
CN107105278B (zh) * 2017-04-21 2019-10-25 中国科学技术大学 运动矢量自动生成的视频编解码系统
CN116708828A (zh) 2017-04-24 2023-09-05 Sk电信有限公司 编解码视频数据的方法、发送编码视频数据比特流的方法
KR102409430B1 (ko) * 2017-04-24 2022-06-15 에스케이텔레콤 주식회사 움직임 보상을 위한 옵티컬 플로우 추정 방법 및 장치
JP7168593B2 (ja) 2017-07-03 2022-11-09 ヴィド スケール インコーポレイテッド 双方向オプティカルフローに基づいた動き補償予測
KR102580910B1 (ko) * 2017-08-29 2023-09-20 에스케이텔레콤 주식회사 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
KR20240025058A (ko) 2017-12-14 2024-02-26 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
CN108040217B (zh) * 2017-12-20 2020-01-24 深圳岚锋创视网络科技有限公司 一种视频解码的方法、装置及相机
CN112166608A (zh) 2018-04-06 2021-01-01 Vid拓展公司 采用简化梯度推导的双向光流方法
CN110392282B (zh) * 2018-04-18 2022-01-07 阿里巴巴(中国)有限公司 一种视频插帧的方法、计算机存储介质及服务器
CN108881952B (zh) * 2018-07-02 2021-09-14 上海商汤智能科技有限公司 视频生成方法及装置、电子设备和存储介质
CN109068083B (zh) * 2018-09-10 2021-06-01 河海大学 一种基于正方形的自适应运动矢量场平滑方法
CN110740330B (zh) * 2018-10-24 2022-03-25 北京达佳互联信息技术有限公司 一种子块运动候选的冗余校验的方法及设备
CN111277863B (zh) * 2018-12-05 2022-06-14 阿里巴巴集团控股有限公司 一种光流插帧方法和装置
JP2022527701A (ja) * 2019-03-20 2022-06-03 ホアウェイ・テクノロジーズ・カンパニー・リミテッド アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置
CN112365555A (zh) * 2020-10-26 2021-02-12 北京计算机技术及应用研究所 基于组稀疏正则化的全变分高能闪光照相密度反演方法
CN113556581B (zh) * 2021-07-20 2023-11-03 深圳市爱协生科技股份有限公司 插值帧的生成方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101453557A (zh) * 2008-12-30 2009-06-10 浙江大学 一种基于运动矢量对消和差分原理的快速全局运动估计方法
CN101877790A (zh) * 2010-05-26 2010-11-03 广西大学 一种面向全景视频编码的快速全局运动估计方法
EP2461565A2 (en) * 2010-12-03 2012-06-06 Vestel Elektronik Sanayi ve Ticaret A.S. Motion estimation method for frame rate up conversion applications
CN102572223A (zh) * 2011-12-06 2012-07-11 上海富瀚微电子有限公司 一种用于视频降噪的相似块搜索方法
CN103824273A (zh) * 2014-03-19 2014-05-28 中科院成都信息技术股份有限公司 基于复合运动和自适应非局部先验的超分辨率重建方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101127912B (zh) * 2007-09-14 2010-11-17 浙江大学 利用动态背景帧的视频编码方法
US8559518B2 (en) * 2008-06-30 2013-10-15 Samsung Electronics Co., Ltd. System and method for motion estimation of digital video using multiple recursion rules
CN102868879B (zh) * 2011-07-05 2015-04-29 北京大学 一种视频帧速率上转换方法及系统
CN102685438B (zh) * 2012-05-08 2015-07-29 清华大学 一种基于时域演变的视频帧率上转换方法
CN102801972B (zh) * 2012-06-25 2017-08-29 北京大学深圳研究生院 基于特征的运动矢量估计和传递方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101453557A (zh) * 2008-12-30 2009-06-10 浙江大学 一种基于运动矢量对消和差分原理的快速全局运动估计方法
CN101877790A (zh) * 2010-05-26 2010-11-03 广西大学 一种面向全景视频编码的快速全局运动估计方法
EP2461565A2 (en) * 2010-12-03 2012-06-06 Vestel Elektronik Sanayi ve Ticaret A.S. Motion estimation method for frame rate up conversion applications
CN102572223A (zh) * 2011-12-06 2012-07-11 上海富瀚微电子有限公司 一种用于视频降噪的相似块搜索方法
CN103824273A (zh) * 2014-03-19 2014-05-28 中科院成都信息技术股份有限公司 基于复合运动和自适应非局部先验的超分辨率重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
图像与视频压缩感知研究;李然;《中国博士学位论文全文数据库 信息科技辑》;20160415;全文 *
基于最佳线性估计的快速压缩感知图像重建算法;李然 等;《电子与信息学报》;20121231;第34卷(第12期);全文 *
自适应PCA稀疏基底的分布式视频压缩感知重建;武明虎;《电视技术》;20150131;第39卷(第2期);全文 *

Also Published As

Publication number Publication date
CN105847804A (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
CN105847804B (zh) 一种基于稀疏冗余表示模型的视频帧率上转换方法
CN110490928B (zh) 一种基于深度神经网络的相机姿态估计方法
Sui et al. Craft: Cross-attentional flow transformer for robust optical flow
CN109064507B (zh) 一种用于视频预测的多运动流深度卷积网络模型方法
KR102235745B1 (ko) 컨볼루션 순환 신경망을 훈련시키는 방법 및 훈련된 컨볼루션 순환 신경망을 사용하는 입력된 비디오의 의미적 세그먼트화 방법
CN111652899B (zh) 一种时空部件图的视频目标分割方法
CN107274347A (zh) 一种基于深度残差网络的视频超分辨率重建方法
Mostafavi et al. Learning to reconstruct hdr images from events, with applications to depth and flow prediction
CN106851046A (zh) 视频动态超分辨率处理方法及系统
CN107483960B (zh) 一种基于空间预测的运动补偿帧率上转换方法
CN111325784A (zh) 一种无监督位姿与深度计算方法及系统
Zhang et al. Weighted convolutional motion-compensated frame rate up-conversion using deep residual network
CN109658361A (zh) 一种顾及运动估计误差的运动场景超分辨率重建方法
CN115187638A (zh) 一种基于光流遮罩的无监督单目深度估计方法
CN105261043A (zh) 基于显著性检测的视频运动物体检测方法
CN114494050A (zh) 一种基于事件相机的自监督视频去模糊和图像插帧方法
CN113096032B (zh) 一种基于图像区域划分的非均匀一致模糊去除方法
WO2024040973A1 (zh) 一种基于堆叠沙漏网络的多尺度融合去雾方法
CN103517078A (zh) 分布式视频编码中边信息生成方法
CN104243991A (zh) 一种边信息生成方法及装置
CN113870129A (zh) 基于空间感知与时间差异学习的视频去雨方法
Mao et al. Aggregating Global and Local Representations via Hybrid Transformer for Video Deraining
CN117689541A (zh) 时间冗余优化的多区域分类视频超分辨率重建方法
CN117392180B (zh) 基于自监督光流学习的交互式视频人物跟踪方法及系统
WO2023025245A1 (zh) 视频图像处理方法、网络训练方法、电子设备、和计算机可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171215

Termination date: 20200518

CF01 Termination of patent right due to non-payment of annual fee