CN103260032B - 一种立体视频深度图序列的帧率提升方法 - Google Patents
一种立体视频深度图序列的帧率提升方法 Download PDFInfo
- Publication number
- CN103260032B CN103260032B CN201310135192.2A CN201310135192A CN103260032B CN 103260032 B CN103260032 B CN 103260032B CN 201310135192 A CN201310135192 A CN 201310135192A CN 103260032 B CN103260032 B CN 103260032B
- Authority
- CN
- China
- Prior art keywords
- current macro
- depth
- information
- power flow
- matching power
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
一种立体视频深度图序列的帧率提升方法,包括以相邻两帧深度图为两个参考帧,构造出中间深度图插入该相邻两帧深度图之间,其中,通过以下步骤获取中间深度图宏块的深度信息:双向运动估计获取当前宏块的匹配代价及初始运动矢量;进行双向运动补偿获取当前宏块的初始深度信息;若最小匹配代价小于设定的阈值,将所述初始深度信息作为当前宏块的深度信息,否则利用所述初始深度信息合成当前宏块对应虚拟视点的纹理块;计算所述纹理块的匹配代价;计算当前宏块和所述纹理块的联合匹配代价,获取最终运动矢量;用最终运动矢量进行双向运动补偿获取当前宏块的深度信息。本方法能使得深度信息更准确可靠,而且能够保证运算复杂度。
Description
技术领域
本发明涉及一种立体视频深度图序列的帧率提升方法,属于计算机视觉领域。
背景技术
近年来,随着经济的飞速发展,人们对视频观赏的需求不断提升,普通的2D视频已经很难满足人们的需求,立体视频以其贴近真实的三维感受获得越来越多人的亲睐。与此同时,计算机应用的飞速发展也使得立体视频的应用成为可能。
立体视频包含双目或者多目视频序列,使得视频的数据量极大地增加,给立体视频存储与传输带来了极大的困难。深度加纹理信息的视频格式则可以极大的降低立体视频的数据量,通过深度信息在显示端合成虚拟视点,也可以给观影者带来较好的三维体验。其中最关键的技术就是深度信息获取,通常采用立体匹配技术可以获得较准确的深度图,但是立体匹配的计算量极大。可以先获取较低帧率(帧率:视频每秒包含的帧数)的深度图序列,再采用帧率提升技术得到高帧率的深度序列信息。
另一方面,随着计算机计算能力提升,网络传输能力的提高,各种终端设备的显示技术提高。其中一个明显的特点便是显示设备的刷新率显著提高(120Hz或更高),进而给观影者带来更加平滑的显示效果,动态场景更加细腻。这也要求相应的视频能够具备更高的帧率。但是高帧率的视频序列获取并不容易,尤其是在某些情况为了降低复杂度可以降低视频帧率,例如前面的深度获取过程,或者原始视频帧率本身就偏低。即便视频本身帧率足够高,但是为了降低网络传输的负担,也会有降低帧率的需求。所以为了不影响显示端的效果,帧率提升技术显得尤其重要。
传统的帧率提升技术,利用视频的时域相关性,采用运动估计的方式,合成虚拟帧进而提高视频的整体帧率,但是对于立体视频中深度图序列的帧率提升,如果仅仅采用双向运动估计等传统的时域插值技术,并不能保证得到的深度信息足够准确,而获取深度信息的根本目的还是虚拟视点的合成,如果能在帧率提升的过程中考虑合成虚拟视点的效果,则使得深度图的可靠性得到极大地提升,也使得合成的立体视频更具观赏性。
发明内容
本发明的目的是提供一种立体视频深度图序列的帧率提升方法,以解决现有帧率提升技术在提升深度图序列时不可靠的技术问题。
为达上述目的,本发明提供的一种立体视频深度图序列的帧率提升方法包括以相邻两帧深度图为两个参考帧,获取中间深度图中每个宏块的深度信息,构造出中间深度图插入该相邻两帧深度图之间,其中,通过以下步骤获取中间深度图中宏块的深度信息:
双向运动估计,获取当前宏块的匹配代价CD(v)、最小匹配代价C1及初始运动矢量vD;
利用初始运动矢量vD进行双向运动补偿,获取当前宏块的初始深度信息;
将最小匹配代价C1与设定的阈值T比较,若小于阈值T,将所述初始深度信息作为当前宏块的深度信息,当前宏块处理结束;否则执行下一步;
利用所述初始深度信息合成当前宏块对应虚拟视点的纹理块;
双向运动估计,计算所述纹理块的匹配代价CP(v);
用当前宏块的匹配代价CD(v)和所述纹理块的匹配代价CP(v),计算联合匹配代价CDP(v),获取最终运动矢量vDP;
用最终运动矢量vDP进行双向运动补偿,获取当前宏块的深度信息。
在上述的立体视频深度图序列的帧率提升方法中,优选地,利用所述初始深度信息合成当前宏块对应虚拟视点的纹理块的方法包括:
通过公式
BDisparity1(m,n)=255-BD1(m,n)
计算视差向量v1=BDisparity1(m,n),其中BD1(m,n)表示当前宏块BD1中像素(m,n)的像素值,即初始深度信息;
通过公式
合成纹理块的纹理信息,其中,表示当前宏块BD1对应虚拟视点的纹理块表示当前宏块BD1对应视点1的纹理块,m和n分别表示像素的横坐标和纵坐标。
在上述的立体视频深度图序列的帧率提升方法中,优选地,通过
CDP(v)=ω1*CD(v)+ω2*CP(v)
计算联合匹配代价CDP(v),以最小联合匹配代价对应的运动矢量作为最终运动矢量,其中ω1和ω2为加权值,ω1和ω2满足ω1=CD(v)/(CD(v)+CP(v))和ω1+ω2=1。
与现有帧率提升技术相比,本发明具有以下优点:
1)根据运动补偿获取的初始深度信息合成虚拟视点的纹理信息,通过计算虚拟视点的匹配代价,优化运动估计结果,从而使得深度信息更准确可靠。
2)在获取运动矢量之后,对结果进行判断,仅对于不可靠的运动估计结果进行优化处理,有效地保证了运算复杂度。
附图说明
图1为纹理图序列和深度图序列的示意图;
图2为一实施例深度图序列帧率提升方法中构造中间深度图的流程图;
图3为获取一个宏块的深度信息的流程图;
图4为双向运动估计的原理图。
具体实施方式
下面结合附图和实施例进一步说明本发明。
图1中第一列和第三列分别表示视点1(View1)和视点2(View2)的纹理图序列,第二列表示合成的虚拟视点(View12)的纹理图序列,第四列表示深度图(DepthMap)序列,其中,实线框表示已有的,虚线框表示合成的(虚拟的),为了叙述方便,用P1,n表示视点1的第n帧图像,P2,n表示视点2的第n帧图像,P12,n表示合成的虚拟视点的第n帧图像,Dn表示第n帧深度图。可以看出,已有的纹理图序列的帧率较高,已有的深度图序列的帧率较低。本发明的帧率提升方法就是在已有的相邻两帧深度图(如D0和D2)之间插入中间深度图(如D1),从而获得高帧率的深度图序列。
图2表示了中间深度图的构造方法。如图2所示,将中间深度图划分为若干固定大小(如16x16像素)的宏块,分别获取每个宏块的深度信息,就得到了中间深度图。
图3表示了获取一个宏块的深度信息的流程。下面结合图3详细说明获取中间深度图中宏块的深度信息的方法。
在步骤1中,进行双向运动估计,获取当前宏块的匹配代价CD(v)、最小匹配代价C1及初始运动矢量vD。
图4示意性地表示了双向运动估计的原理,其中:D1为待合成的虚拟中间深度图,中间的实线矩形表示当前宏块BD1。D0和D2为原始低帧率深度图序列中相邻的两帧深度图,它们中间的实线框分别表示D0和D2中与当前宏块BD1相同位置的深度块BD0(v)和BD2(-v),它们中的虚线框分别表示以深度块BD0(v)、BD2(-v)为中心的搜索区域(SearchRange)。v和-v分别表示前向和后向运动向量。
对当前宏块BD1,在搜索区域内搜索,计算匹配代价CD(v),选取最小匹配代价C1对应的运动向量作为初始运动矢量vD。
匹配代价CD(v)=||BD0(v)-BD2(-v)||2,BD0(v)和BD2(-v)分别是当前宏块BD1按向量v平移后在D0和D2中的对应块。
最小匹配代价C1=min(||BD0(v)-BD2(-v)||2)
初始运动矢量vD=(vD(x),vD(y))满足:vD=argmin(CD(v))。
在步骤2中,利用初始运动矢量vD进行双向运动补偿,获取当前宏块BD1的初始深度信息。
根据步骤1中计算得到的初始运动矢量vD,找到深度图D0和深度图D2中对应的最佳匹配块BD0(vD)和BD2(-vD),逐像素取均值得到当前宏块BD1的各个像素值,从而得到了当前宏块BD1的初始深度信息,用公式可表示为
在步骤3中,将最小匹配代价C1与设定的阈值T比较,若小于阈值T,认为运动估计结果可靠,将步骤2得到的初始深度信息作为当前宏块BD1的深度信息,当前宏块BD1处理完毕;否则,认为运动估计结果不够准确,继续执行步骤4。
在步骤4中,利用步骤2获取的所述初始深度信息合成当前宏块BD1对应虚拟视点的纹理块
根据步骤2获取的当前宏块BD1的初始深度信息及对应视点1的纹理块可以合成当前宏块对应虚拟视点(View12)的纹理块具体方法如下:
根据当前宏块BD1的初始深度信息计算出视差图BDisparity1:
BDisparity1(m,n)=255-BD1(m,n),
从而得到像素点(m,n)对应的视差向量v1=BDisparity1(m,n),其中,BD1(m,n)表示当前宏块BD1中像素点(m,n)的像素值,即初始深度信息。也可以根据深度与视差成反比关系来计算视差向量。
通过公式
计算纹理块中各像素点的像素值,从而得到纹理块其中,表示当前宏块BD1对应虚拟视点(View12)的纹理块,表示当前宏块BD1对应视点1的纹理块,表示纹理块中像素点(m,n)的像素值。
在步骤5中,双向运动估计,计算所述纹理块的匹配代价CP(v)。
在纹理图P12,0和P12,2中,在与纹理块相应的搜索区域内,采用块匹配的方法对纹理块作双向运动估计,计算纹理块的匹配代价CP(v)
和分别是当前纹理块按向量v平移后,在纹理图P12,0和P12,2中的对应块,与图4中所示情形类似。
在步骤6中,用当前宏块BD1的匹配代价CD(v)和所述纹理块的匹配代价CP(v),计算联合匹配代价CDP(v),获取最终运动矢量vDP。
具体地,可以通过公式
CDP(v)=ω1*CD(v)+ω2*CP(v)
计算联合匹配代价CDP(v),其中ω1和ω2为加权值,其取值满足两个公式ω1=CD(v)/(CD(v)+CP(v))和ω1+ω2=1。
找出最小联合匹配代价C2=min(CDP(v)),以及最小联合匹配代价C2对应的运动矢量vDP=argmin(CDP(v)),以最小联合匹配代价C2对应的运动矢量作为当前宏块BD1的最终运动矢量vDP。
在步骤7中,用最终运动矢量vDP进行双向运动补偿,获取当前宏块BD1的深度信息。
根据步骤6中计算得到的最终运动矢量vDP,找到深度图D0和深度图D2中对应的最佳匹配块BD0(vDP)和BD2(-vDP),逐像素取均值得到当前宏块BD1的各个像素值,从而得到了当前宏块BD1的深度信息,用公式表示为
至此,当前宏块处理完毕。
然后检查当前图像所有宏块是否处理完毕,若处理完,则已经获得待合成的中间深度图像,否则进入下一宏块处理。
可以看出,上述帧率提升方法在考虑深度图序列相关性的基础上,同时根据获得的初始深度信息合成新的纹理图,根据纹理信息的匹配程度,反馈控制深度图的插值过程。其充分利用了立体视频的深度和纹理信息,在保证运算复杂度的前提下,提高生成视频的帧率,使得视频中的运动信息更加平滑,提高了观影者的舒适度。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (1)
1.一种立体视频深度图序列的帧率提升方法,该方法包括以相邻两帧深度图为两个参考帧,获取中间深度图中每个宏块的深度信息,构造出中间深度图插入该相邻两帧深度图之间,其特征在于,通过以下步骤获取中间深度图中宏块的深度信息:
双向运动估计,获取当前宏块的匹配代价CD(v)、最小匹配代价C1及初始运动矢量vD;
利用初始运动矢量vD进行双向运动补偿,获取当前宏块的初始深度信息;
将最小匹配代价C1与设定的阈值T比较,若小于阈值T,将所述初始深度信息作为当前宏块的深度信息,当前宏块处理结束;否则执行下一步;
利用所述初始深度信息合成当前宏块对应虚拟视点的纹理块;
双向运动估计,计算所述纹理块的匹配代价CP(v);
用当前宏块的匹配代价CD(v)和所述纹理块的匹配代价CP(v),通过
CDP(v)=ω1*CD(v)+ω2*CP(v)
计算联合匹配代价CDP(v),以最小联合匹配代价对应的运动矢量作为最终运动矢量vDP,其中ω1和ω2为加权值,ω1和ω2满足ω1=CD(v)/(CD(v)+CP(v))和ω1+ω2=1;
用最终运动矢量vDP进行双向运动补偿,获取当前宏块的深度信息;
其中利用所述初始深度信息合成当前宏块对应虚拟视点的纹理块的方法包括:
通过公式
BDisparity1(m,n)=255-BD1(m,n)
计算视差向量v1=BDisparity1(m,n),其中BD1(m,n)表示当前宏块BD1中像素(m,n)的像素值,即初始深度信息;
通过公式
合成纹理块的纹理信息,其中,表示当前宏块BD1对应虚拟视点的纹理块表示当前宏块BD1对应视点1的纹理块,m和n分别表示像素的横坐标和纵坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310135192.2A CN103260032B (zh) | 2013-04-18 | 2013-04-18 | 一种立体视频深度图序列的帧率提升方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310135192.2A CN103260032B (zh) | 2013-04-18 | 2013-04-18 | 一种立体视频深度图序列的帧率提升方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103260032A CN103260032A (zh) | 2013-08-21 |
CN103260032B true CN103260032B (zh) | 2016-07-06 |
Family
ID=48963692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310135192.2A Active CN103260032B (zh) | 2013-04-18 | 2013-04-18 | 一种立体视频深度图序列的帧率提升方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103260032B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105915881B (zh) * | 2016-05-06 | 2017-12-01 | 电子科技大学 | 一种基于显著性检测的立体视频帧率提升方法 |
CN107770511A (zh) * | 2016-08-15 | 2018-03-06 | 中国移动通信集团山东有限公司 | 一种多视点视频的编解码方法、装置和相关设备 |
CN106791768B (zh) * | 2016-12-16 | 2019-01-04 | 浙江大学 | 一种基于图割优化的深度图帧率提升方法 |
CN106954076B (zh) * | 2017-03-13 | 2018-01-12 | 济南大学 | 一种基于视点间关系的多视点视频帧插入方法 |
WO2020051884A1 (zh) * | 2018-09-14 | 2020-03-19 | 深圳市欢太科技有限公司 | 显示控制方法及相关产品 |
WO2020113417A1 (zh) * | 2018-12-04 | 2020-06-11 | 深圳市大疆创新科技有限公司 | 目标场景三维重建方法、系统及无人机 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110096832A1 (en) * | 2009-10-23 | 2011-04-28 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2d video data to 3d video data |
CN102447932A (zh) * | 2011-10-31 | 2012-05-09 | 华中科技大学 | 自由视点视频中视点的重建方法 |
US20120194642A1 (en) * | 2011-02-01 | 2012-08-02 | Wen-Nung Lie | Motion picture depth information processing system and method |
CN102881018A (zh) * | 2012-09-27 | 2013-01-16 | 清华大学深圳研究生院 | 一种图像深度图生成方法 |
-
2013
- 2013-04-18 CN CN201310135192.2A patent/CN103260032B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110096832A1 (en) * | 2009-10-23 | 2011-04-28 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2d video data to 3d video data |
US20120194642A1 (en) * | 2011-02-01 | 2012-08-02 | Wen-Nung Lie | Motion picture depth information processing system and method |
CN102447932A (zh) * | 2011-10-31 | 2012-05-09 | 华中科技大学 | 自由视点视频中视点的重建方法 |
CN102881018A (zh) * | 2012-09-27 | 2013-01-16 | 清华大学深圳研究生院 | 一种图像深度图生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103260032A (zh) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103260032B (zh) | 一种立体视频深度图序列的帧率提升方法 | |
CN101933335B (zh) | 将二维图像数据转换为立体图像数据的方法和系统 | |
US9525858B2 (en) | Depth or disparity map upscaling | |
CN101610421B (zh) | 视频通讯方法、装置及系统 | |
TW521519B (en) | Apparatus and method for converting a two dimensional image to a three dimensional image | |
CN103581650B (zh) | 双目3d视频转多目3d视频的方法 | |
CN104662896A (zh) | 用于图像处理的装置、方法和计算机程序 | |
CN102572485A (zh) | 一种自适应加权立体匹配算法、立体显示采集装置及系统 | |
CN102595145B (zh) | 一种立体视频整帧丢失错误隐藏方法 | |
Po et al. | Automatic 2D-to-3D video conversion technique based on depth-from-motion and color segmentation | |
CN104219533A (zh) | 一种双向运动估计方法和视频帧率上转换方法及系统 | |
CN102881018B (zh) | 一种图像深度图生成方法 | |
CN104506872B (zh) | 一种平面视频转立体视频的方法及装置 | |
CN106791768A (zh) | 一种基于图割优化的深度图帧率提升方法 | |
CN103916658B (zh) | 采用深度传播技术的3dv系统视点间深度图生成方法 | |
JP6033625B2 (ja) | 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体 | |
CN104980726B (zh) | 一种联合运动向量的双目视频立体匹配方法 | |
EP2391135B1 (en) | Method and device for processing depth image sequence | |
CN102325254B (zh) | 一种立体视频的编、解码方法及装置 | |
CN109345444A (zh) | 深度感知增强的超分辨率立体图像构建方法 | |
CN104394399A (zh) | 深度视频编码的三边滤波方法 | |
CN103702120A (zh) | 一种合成视点主观失真估计方法 | |
CN104994365B (zh) | 一种获取非关键帧深度图像的方法以及2d视频立体化方法 | |
Jung et al. | Superpixel matching-based depth propagation for 2D-to-3D conversion with joint bilateral filtering | |
CN102447926B (zh) | 一种无摄像机标定参数的三维图像变换方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili of Tsinghua Patentee after: Shenzhen International Graduate School of Tsinghua University Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili of Tsinghua Patentee before: GRADUATE SCHOOL AT SHENZHEN, TSINGHUA University |