CN102695069A - 一种二维到三维视频转换中的深度传播方法 - Google Patents
一种二维到三维视频转换中的深度传播方法 Download PDFInfo
- Publication number
- CN102695069A CN102695069A CN2012101593768A CN201210159376A CN102695069A CN 102695069 A CN102695069 A CN 102695069A CN 2012101593768 A CN2012101593768 A CN 2012101593768A CN 201210159376 A CN201210159376 A CN 201210159376A CN 102695069 A CN102695069 A CN 102695069A
- Authority
- CN
- China
- Prior art keywords
- depth
- key frame
- pixel
- degree
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供应用于半自动二维转三维系统中的深度传播技术。该技术先通过图像匹配技术将一部分像素的深度从关键帧传播到非关键帧中,然后在非关键帧中,根据深度一致性原理,将问题建模成一个有约束的优化问题,采用最小二乘算法求得此优化问题的最优解。本发明提出的深度传播技术不需用户的任何参与就能得到高质量的深度图视频,从而能转换出高质量的三维视频,在三维内容生成领域有广泛的应用价值。
Description
技术领域
本发明涉及二维视频到三维视频半自动转换系统中的深度传播技术,属于视频、多媒体信号处理技术领域。
背景技术
由于三维视频内容的短缺,二维视频到三维视频的转换技术越来越成为研究热点。自动的转换技术虽然不用人工参与,但是得到的三维效果还不能满足人们的要求,与其相比,半自动的转换技术通过增加少量的人力,却能得到更为准确的深度图,因此,这种方法普遍被人接受。
在半自动的二维视频到三维视频转换系统中,一般的做法是:先是对整个视频提取关键帧,然后人工设定关键帧的深度,最后根据非关键帧与关键帧的相关性,通过深度传播算法得到非关键帧的深度。在这个过程中,深度传播算法至关重要。深度传播性能直接关系到最终深度图的质量。
在深度传播的研究中,假定已经选择了关键帧并且关键帧的深度已知,非关键帧的深度需要通过深度传播算法得到。一些研究者提出采用基于运动矢量进行深度搬移的算法,比如位移双边滤波(SBF)算法,该算法能比较好的解决视频中运动的情况,但是该算法采用像素级别的深度搬移,导致算法很耗时,而且也不能解决物体前后移动的带来的深度误差。也有一些研究者将机器学习算法应用到深度传播当中,采用先学习后预测的思路,但是该算法提出的特征矢量太简单,没能取得很好的性能,而且机器学习算法复杂度太高。还有研究者提出将深度传播问题建模成一个优化问题,此方法与本发明最为接近,能取得比较好的效果。但是整个镜头的所有帧都参与优化,需要优化的未知变量很多,这使得算法需要大量的存储空间,而且优化速度很慢。
本发明针对当前深度传播算法处理速度慢、复杂度高等缺点,提出一种基于优化方法的快速深度传播方法。本发明不仅能取得与SBF算法相似的性能,而且运行速度提高5倍。本发明提供的算法能广泛应用于3D内容生成、3DTV产业、3D广播等相关领域。
发明内容
根据深度一致性原理,本发明将半自动二维转三维系统中的深度传播分解为关键帧与非关键帧之间匹配像素的深度搬移和非匹配像素的深度计算两个部分,具体步骤为:
(1)匹配像素的深度搬移:将关键帧与非关键帧做图像匹配,对于高度匹配的像素,即匹配信度值大的像素,将关键帧中相应像素的深度值直接作为非关键帧中相应像素的深度值;
(2)非匹配像素的深度计算:对于剩余的不高度匹配的像素,通过求解有约束的优化问题得到非关键帧中相应像素的深度值,其中优化问题为最小化当前像素与邻域窗口像素的加权深度值,约束条件为在非关键帧中那些能与关键帧高度匹配上的点被赋值为其对应的深度值。
本发明无需人工参与,能自动的传播出关键帧之间的帧的深度图。得到的深度图质量高,通过基于深度的渲染技术(DIBR)能得到的三维视频完全符合虚拟视点领域对虚拟视频质量的要求。同时,本发明的算法比SBF算法的速度提高5倍,大大加速了二维转三维转换过程,从而节省了处理时间,节约了成本。
附图说明
图1是本发明的方法框图。
图2是本发明针对测试图片得到的深度图。其中(a)是关键帧的彩色图,(b)是非关键帧的彩色图,(c)是将高度匹配像素点搬移之后得到的非关键帧的深度图,(d)是本发明通过优化方法建模得到的最终的深度图。
具体实施方式
本发明将半自动二维转三维系统中的深度传播问题分解为关键帧与非关键帧之间匹配像素的深度搬移和非匹配像素的深度计算两个部分,将非匹配像素的深度计算建模成一个有约束的优化问题,采用最小二乘算法求得问题的最优解。整个过程无需人工参与,全自动化。
根据图1中的方法框图,本发明的深度传播技术包括以下具体步骤:
1.匹配像素的深度搬移,该步骤的实现流程如下:
(1)在非关键帧和关键帧之间做图像匹配,除了遮挡区域之外,非关键帧中的大部分像素点都能在关键帧中找到对应点;
(2)将非关键帧中与关键帧高度匹配上的像素点的深度赋值为关键帧中对应点的深度值,所谓的高度匹配是指匹配信度值大。得到的非关键帧的深度图如图2(c)。由于非关键帧与关键帧之间的高度相关性,非关键帧中的大部分像素点都已传播出深度值;
2.非匹配像素的深度计算,将问题建模成一个有约束的优化问题并求解,具体实现流程如下:
(1)优化问题建模:根据深度一致性原理,即如果相邻像素的颜色值或亮度值类似,那么他们的深度值也要保持一致,本发明将非关键帧剩余像素的深度传播问题建模成一个有约束的优化问题。优化函数通过最小化像素r的深度与其相邻像素的加权深度之间的差异,约束条件是在非关键帧中那些能与关键帧高度匹配上的点被赋值为其对应的深度值。该优化问题的完整的公式表达如下:
约束条件为Dnon-key(ri)=Dkey(ri′) (1)
其中,像素ri和ri′是高度匹配像素
这里Dkey为关键帧的深度,Dnon-key是非关键帧的深度,Dnon-key(r)为非关键帧中像素r的深度值,公式中的像素ri与像素ri′是高度匹配的。N(r)是像素r的邻域窗口,s是r邻域窗口中的像素,wrs是一个归一化的加权函数,该函数有个特点:如果r和s的亮度值越相近那么加权值就越大,反之,加权值就越小。实验中我们采用的加权函数如下:
公式(2)中,Y(r)是指像素r的亮度值,σr是领域窗口的像素灰度值的方差。
(2)采用最小二乘算法求得优化问题(1)的最优解。图2(d)是本发明得到最终的非关键帧的深度图。可以看出算法能得到一个准确的深度图。对于完成时间,本发明平均处理一帧所用的时间是58秒,而位移双边滤波算法(SBF)平均一帧的处理时间是221秒,提高了将近5倍效率。
Claims (2)
1.一种二维到三维视频转换中的深度传播方法,其特征是:
根据深度一致性原理,将半自动二维转三维系统中的深度传播分解为关键帧与非关键帧之间匹配像素的深度搬移和非匹配像素的深度计算两个部分,具体步骤为:
(1)匹配像素的深度搬移:将关键帧与非关键帧做图像匹配,对于高度匹配的像素,即匹配信度值大的像素,将关键帧中相应像素的深度值直接作为非关键帧中相应像素的深度值;
(2)非匹配像素的深度计算:对于剩余的不高度匹配的像素,通过求解有约束的优化问题得到非关键帧中相应像素的深度值,其中优化问题为最小化当前像素与邻域窗口像素的加权深度值,约束条件为在非关键帧中那些能与关键帧高度匹配上的点被赋值为其对应的深度值。
2.根据权利要求1所述的二维到三维视频转换中的深度传播方法,其特征在于:所述步骤(2)的优化问题是采用最小二乘算法求解的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210159376.8A CN102695069B (zh) | 2012-05-22 | 2012-05-22 | 一种二维到三维视频转换中的深度传播方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210159376.8A CN102695069B (zh) | 2012-05-22 | 2012-05-22 | 一种二维到三维视频转换中的深度传播方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102695069A true CN102695069A (zh) | 2012-09-26 |
CN102695069B CN102695069B (zh) | 2014-07-16 |
Family
ID=46860331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210159376.8A Expired - Fee Related CN102695069B (zh) | 2012-05-22 | 2012-05-22 | 一种二维到三维视频转换中的深度传播方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102695069B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916658A (zh) * | 2014-04-18 | 2014-07-09 | 山东大学 | 采用深度传播技术的3dv系统视点间深度图生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
WO2009013682A2 (en) * | 2007-07-26 | 2009-01-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for depth-related information propagation |
-
2012
- 2012-05-22 CN CN201210159376.8A patent/CN102695069B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009013682A2 (en) * | 2007-07-26 | 2009-01-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for depth-related information propagation |
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
Non-Patent Citations (3)
Title |
---|
CHRISTOPH FEHN: "Depth-Image-Based Rendering (DIBR), Compression and Transmission for a New Approach on 3D-TV", 《PROC. OF SPIE-IS&T ELECTRONIC IMAGING, SPIE》 * |
姜太平等: "基于运动估计的深度信息生成技术研究", 《计算机技术与发展》 * |
张鹏等: "基于置信度映射的双向双边深度图生成算法", 《信息技术》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916658A (zh) * | 2014-04-18 | 2014-07-09 | 山东大学 | 采用深度传播技术的3dv系统视点间深度图生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102695069B (zh) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11893780B2 (en) | Method and apparatus for image segmentation | |
CN109086807B (zh) | 一种基于空洞卷积堆叠网络的半监督光流学习方法 | |
CN103702098B (zh) | 一种时空域联合约束的三视点立体视频深度提取方法 | |
CN106686472A (zh) | 一种基于深度学习的高帧率视频生成方法及系统 | |
CN101640809A (zh) | 一种融合运动信息与几何信息的深度提取方法 | |
CN103581650B (zh) | 双目3d视频转多目3d视频的方法 | |
CN110335222B (zh) | 基于神经网络的自修正弱监督双目视差提取方法及装置 | |
CN102881018B (zh) | 一种图像深度图生成方法 | |
CN106056622A (zh) | 一种基于Kinect相机的多视点深度视频复原方法 | |
CN106447718B (zh) | 一种2d转3d深度估计方法 | |
CN101702781A (zh) | 基于光流法的2d转3d方法 | |
CN104980726B (zh) | 一种联合运动向量的双目视频立体匹配方法 | |
CN102368826A (zh) | 双视点视频到多视点视频的实时自适应生成方法 | |
CN112019828A (zh) | 一种视频的2d到3d的转换方法 | |
CN116206133A (zh) | 一种rgb-d显著性目标检测方法 | |
CN103916658B (zh) | 采用深度传播技术的3dv系统视点间深度图生成方法 | |
CN106060509A (zh) | 引入颜色校正的自由视点图像合成方法 | |
CN104933418A (zh) | 一种双像机的人群人数统计方法 | |
CN101557534A (zh) | 一种从视频相近帧中生成视差图的方法 | |
CN103873867A (zh) | 自由视点视频深度图失真预测方法和编码方法 | |
CN102722862B (zh) | 采用优化技术的单张图片半自动二维转三维方法和装置 | |
CN104159098B (zh) | 一种视频的时域一致性半透明边缘提取方法 | |
CN104143203A (zh) | 一种图像编辑传播方法 | |
CN102695069B (zh) | 一种二维到三维视频转换中的深度传播方法 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140716 Termination date: 20150522 |
|
EXPY | Termination of patent right or utility model |