CN103716615A - 基于样本学习和深度图像传播的2d视频立体化方法 - Google Patents

基于样本学习和深度图像传播的2d视频立体化方法 Download PDF

Info

Publication number
CN103716615A
CN103716615A CN201410010043.8A CN201410010043A CN103716615A CN 103716615 A CN103716615 A CN 103716615A CN 201410010043 A CN201410010043 A CN 201410010043A CN 103716615 A CN103716615 A CN 103716615A
Authority
CN
China
Prior art keywords
image
pixels
video
location
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410010043.8A
Other languages
English (en)
Other versions
CN103716615B (zh
Inventor
郑喆坤
焦李成
王磊
马晶晶
马文萍
侯彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201410010043.8A priority Critical patent/CN103716615B/zh
Publication of CN103716615A publication Critical patent/CN103716615A/zh
Application granted granted Critical
Publication of CN103716615B publication Critical patent/CN103716615B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种基于样本学习和深度图像传播的2D视频立体化方法,主要解决现有2D视频立体化过程中计算复杂度高、适用性差的问题。其实现步骤为:(1)输入两帧2D视频图像;(2)利用基于样本学习的方法得到第一帧视频图像各个像素位置的最佳深度值;(3)对最佳深度值进行后处理;(4)利用深度传播技术得到输入的第二帧视频图像在各个像素位置的深度值;(5)利用基于深度图像绘制技术,结合输入的视频图像和得到的各个像素位置的深度值,生成左右格式的3D视频。本发明的计算复杂度低,可得到运动前景突出、边缘清晰、结构自然的高质量深度图像,从而生成立体视觉效果良好的3D视频,可广泛应用于3D电视相关的视频处理中。

Description

基于样本学习和深度图像传播的2D视频立体化方法
技术领域
本发明属于视频处理技术领域,涉及一种视频立体化方法,可用于将2D视频转换为3D立体视频。
背景技术
随着3D电视技术的快速发展,人们可以通过3D电视收看到更加立体逼真的影视节目,但是由于3D资源的匮乏,极大的限制了3D电视的发展。现有技术中通过使用3D立体摄像机拍摄获得3D内容,然而该方法的成本过于昂贵,专业要求较高。因此有人提出了将现有的2D资源转换为3D立体格式,来弥补3D资源的不足。
将2D资源转换为3D立体格式,就是对2D视频立体化,即通过从视频序列中估计深度图像,并通过基于深度图像绘制技术生成3D立体视频的技术。目前,该技术根据是否需要人工操作分为两大类:半自动化技术和自动化技术。半自动技术由于加入了人工操作,得到的深度图像更加的精确,3D立体效果更好,但更加的费时费力;而自动化技术是通过采用各种深度线索来估计深度图像,尽管各个线索都有其局限性,但已经在技术上取得了一定突破,通过优化和硬件实现,可以实时将2D视频转换为3D立体格式,已经在3D数字电视领域获得广泛应用。
现有的将2D资源自动转换为3D立体格式的方法,一般采用两个或者多个深度线索融合的方式来估计深度图像。这些方法可以有效利用多深度线索的优势,提高深度图像估计的准确性,但并不适用于任意场景。
近年来,随着机器学习理论的不断发展,基于学习的视频立体化方法被提出,可以应用于任意图像的深度图像估计。Konrad等人提出了一种基于学习的图像立体化方法,其方法是基于相似结构的图像具有相似的深度图像这一假设,通过特征提取和匹配,从已有的彩色-深度图像对RGB-D的数据库中提取出与输入图像结构相似的彩色图像,然后利用中值滤波技术融合这些彩色图像对应的深度图像。这种方法尽管计算复杂度小,但无法保持深度图像的边界信息,从而引起3D格式的图像边界扭曲变形而失真。同时如果直接将上述方法应用于2D视频的立体化,对每一帧图像都进行处理,需要大量的计算时间,同时由于视频两帧之间的变化,很难保证3D图像在时间上的连续性。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于学习和深度传播的2D视频立体化方法,以保持深度图像的边界信息,提高3D图像的边缘纹理清晰度,并保持3D图像在时间上的一致性,降低计算复杂度。
实现本发明目的的技术方案是:对输入视频的一帧图像提取其方向梯度直方图特征向量,通过特征匹配从已有的彩色-深度图像对RGB-D的数据库中检索出最相似的28幅彩色参考图像和其对应的深度图像;利用中值滤波技术融合得到的参考图像对应的深度图像,得到初始深度图像,并结合运动估计、最小生成树分割和联合双边滤波对初始深度图进行后处理;对于视频的下一帧图像,通过运动补偿方法来估计其深度图像;利用得到的深度图像和对应的视频图像,使用基于深度图像绘制技术来生成左右格式的3D图像,其具体步骤包括如下:
(1)提取图像特征:
1a)输入一帧大小为320×240的2D视频图像I1,并提取其方向梯度直方图特征向量
Figure BDA0000454906930000021
1b)从彩色-深度图像对RGB-D数据库中提取出大小为320×240的所有彩色图像
Figure BDA0000454906930000022
1≤i≤N,N为数据库中彩色图像的数量,并提取这些彩色图像
Figure BDA0000454906930000023
的方向梯度直方图特征向量
Figure BDA0000454906930000024
(2)从RGB-D数据库中检索相似的参考图像:
2a)分别计算输入的视频图像I1与RGB-D数据库中各个彩色图像
Figure BDA0000454906930000025
的特征向量的欧式距离:
Figure BDA0000454906930000026
其中,1≤i≤N;
2b)将得到的所有距离Si按从小到大的顺序排列,取前28个值所对应的彩色图像作为参考图像Jk,其中,1≤k≤28;
(3)利用中值滤波方法,从得到的28幅参考图像Jk对应的深度图像Dk中,确定输入的视频图像I1中各个像素位置的最佳深度值:d1(x)=median{Dk(x)},1≤k≤28,其中d1(x)表示输入的视频图像I1在像素位置x处的最佳深度值,median表示中值滤波运算;
(4)对输入的视频图像I1中各个像素位置的最佳深度值d1(x)进行后处理:
4a)对输入的视频图像I1与其下一帧视频图像I2,利用稠密光流估计方法计算出视频图像I1在像素位置x的运动矢量V(x)=(ux,vx),并计算像素位置x的运动强度m(x),
Figure BDA0000454906930000031
其中,ux表示像素位置x处的水平方向的运动分量,vx表示像素位置x处的垂直方向的运动分量;
4b)设置运动强度阈值T1=20,根据像素位置x的最佳深度值d1(x)和运动强度m(x)计算该像素位置的基于运动改进的深度值d2(x):
若m(x)大于阈值T1,则d2(x)=w1×d1(x)+w2×m(x),其中,权重w1=0.6,w2=0.4,
若该处的运动强度m(x)小于阈值T1,则d2(x)=d1(x);
4c)将输入的视频图像I1分为大小为4×4的块,以各个块作为结点U,相临两个块的灰度值的差的绝对值作为这两个块的边E,构建一个有权无向图G(U,E),将G(U,E)利用克鲁斯卡尔方法构建最小生成树,将最小生成树中大于2.5的边E断开,得到的各个连通的子树即为各个分割区域Rb,1≤b≤B,B为得到的分割区域的数量;
4d)计算像素位置x的基于分割改进的深度值d3(x):
d 3 ( x ) = S b num ( R b ) , x ∈ R b
其中,Sb表示分割区域Rb内的所有像素位置的深度值之和
Figure BDA0000454906930000033
表示分割区域Rb内的像素个数;
4e)根据输入的视频图像I1和像素位置x的深度值d3(x),利用联合双边滤波方法,计算像素位置x的基于滤波改进的深度值d4(x);
(5)根据步骤4a)中得到的运动矢量V(x)和步骤4e)得到的像素位置x的深度值d4(x),得到下一帧视频图像I2在像素位置x的深度值:d5(x)=d4(x-V(x));
(6)利用深度图像绘制技术,生成输入视频图像I1和下一帧视频图像I2的左右格式的3D视图:
6a)利用上述参数分别计算视频图像I1和下一帧视频图像I2在像素位置x处的左眼视点L1(x)和L2(x):
L 1 ( x ) = I 1 ( x + t 2 × d 4 ( x ) f ) , L 2 ( x ) = I 2 ( x + t 2 × d 5 ( x ) f ) ,
其中,f表示估计的拍摄输入视频的摄像机的焦距,f=300,t表示人的两只眼睛的间距,t=6;
6b)根据各个像素位置的左眼视点得到左眼视图Lz,以输入的视频图像Iz为右眼视图,得到左右格式的3D视图{Lz,Iz},z=1,2。
本发明与现有技术相比具有以下特点:
1.本发明通过从RGB-D数据库中利用样本学习得到输入视频图像各个像素位置的最佳深度值,并利用运动强度、最小生成树分割和联合双边滤波对最佳深度值进行改进,可以突出运动前景,并保持边缘清晰、内部平滑,进而提高3D图像的边缘纹理清晰度;
2.本发明在得到输入的一帧视频图像各个像素位置的深度值后,利用视频图像前后两帧之间的相似性,通过运动补偿得到下一帧视频图像各个像素位置的深度值,可以减小计算复杂度,并保持深度在时间上的一致性,进而保持3D图像在时间上的一致性;
3.本发明通过扩充或者优化RGB-D数据库来提高得到的深度值的精度,能克服传统方法对输入视频图像兼容性不强的问题。
仿真实验结果表明,本发明结合样本学习和深度传播,能获得具有清晰边缘、内部平滑,前景突出的深度图像,进而生成视觉效果良好的左右格式的3D视图,计算复杂度低,是一种鲁棒性良好的视频立体化方法。
附图说明
图1是本发明的流程图;
图2是本发明中对各个像素位置的深度值后处理子流程图;
图3是本发明仿真实验中使用的两个测试视频图像;
图4是利用本发明方法得到的测试视频图像的深度图像;
图5是利用现有方法和本发明方法生成的测试视频图像的深度图像对比图。
具体实施方式
参照图1,本发明的实现步骤如下:
步骤1、提取图像特征
1a)输入两帧大小为320×240的2D视频图像I1和I2,并提取视频图像I1的方向梯度直方图特征向量
Figure BDA0000454906930000051
具体步骤如下:
(1a1)将视频图像I1分为大小为40×40的单元,每个单元内统计9个方向的梯度直方图,相邻的四个单元组成一个大小为80×80块,连接一个块内四个单元的梯度直方图得到该块的梯度直方图特征向量;
(1a2)连接所有块的梯度直方图特征向量,得到的视频图像I1的方向梯度直方图特征向量
Figure BDA0000454906930000052
1b)从彩色-深度图像对RGB-D数据库中提取出大小为320×240的所有彩色图像
Figure BDA0000454906930000053
1≤i≤N,N为数据库中彩色图像的数量,并提取这些彩色图像
Figure BDA0000454906930000054
的方向梯度直方图特征向量
Figure BDA0000454906930000055
具体步骤如下:
(1b1)将彩色图像
Figure BDA00004549069300000510
分为大小为40×40的单元,每个单元内统计9个方向的梯度直方图,相邻的四个单元组成一个大小为80×80块,连接一个块内四个单元的梯度直方图得到该块的梯度直方图特征向量;
(1b2)连接所有块的梯度直方图特征向量,得到的彩色图像
Figure BDA0000454906930000056
的方向梯度直方图特征向量
Figure BDA0000454906930000057
1≤i≤N,N为数据库中彩色图像的数量。
步骤2、利用特征匹配从RGB-D数据库中检索相似的参考图像
2a)分别计算输入的视频图像I1与RGB-D数据库中各个彩色图像
Figure BDA0000454906930000058
的特征向量的欧式距离:
Figure BDA0000454906930000059
其中,1≤i≤N;
2b)将得到的所有距离Si按从小到大的顺序排列,取前28个值所对应的彩色图像作为参考图像Jk,其中,1≤k≤28。
步骤3、计算像素位置x的最佳深度值d1(x)。
利用中值滤波方法,从得到的28幅参考图像Jk对应的深度图像Dk中,确定输入的视频图像I1中像素位置x的最佳深度值d1(x):
d1(x)=median{Dk(x)},1≤k≤28,
其中,median表示中值滤波运算;
步骤4、对最佳深度值d1(x)进行后处理
参照图2,本步骤的具体实现如下:
4a)利用运动强度计算像素位置x的基于运动改进的深度值:
(4a1)对输入的视频图像I1与其下一帧视频图像I2,利用稠密光流估计方法计算出视频图像I1在像素位置x的运动矢量V(x)=(ux,vx),并计算像素位置x的运动强度m(x),
Figure BDA0000454906930000062
其中,ux表示像素位置x处的水平方向的运动分量,vx表示像素位置x处的垂直方向的运动分量;
(4a2)设置运动强度阈值T1=20,根据像素位置x的最佳深度值d1(x)和运动强度m(x)计算该像素位置的基于运动改进的深度值d2(x):
若m(x)大于阈值T1,则d2(x)=w1×d1(x)+w2×m(x),其中,权重w1=0.6,w2=0.4;
若该处的运动强度m(x)小于阈值T1,则d2(x)=d1(x);
4b)利用最小生成树分割计算像素位置x的基于分割改进的深度值d3(x):
(4b1)将输入的视频图像I1分为大小为4×4的块,以各个块作为结点U,相临两个块的灰度值的差的绝对值作为这两个块的边E,构建一个有权无向图G(U,E),将G(U,E)利用克鲁斯卡尔方法构建最小生成树,将最小生成树中大于2.5的边E断开,得到的各个连通的子树即为各个分割区域Rb,1≤b≤B,B为得到的分割区域的数量;
(4b2)计算像素位置x的基于分割改进的深度值d3(x):
d 3 ( x ) = S b num ( R b ) , x ∈ R b
其中,Sb表示分割区域Rb内的所有像素位置的深度值之和,表示分割区域Rb内的像素个数;
4c)利用联合双边滤波方法,计算像素位置x的基于滤波改进的深度值d4(x):
(4c1)根据输入的视频图像I1,以像素位置x为中心取大小为5×5的窗口Ω(x),对Ω(x)内的像素位置xj,1≤j≤25,计算像素位置xj与像素位置x的距离权重w3(xj)和灰度值权重w4(xj):
w 3 ( x j ) = e - 0.5 × | x j - x | 2 σ 1 2 ,
w 4 ( x j ) = e - 0.5 × | I 1 ( x j ) - I 1 ( x ) | 2 σ 2 2 ,
其中,σ1表示距离的标准差σ1=12,σ2表示灰度值的标准差σ2=0.05;
(4c2)将窗口Ω(x)内的所有像素位置的深度值进行加权平均,得到像素位置x的基于滤波改进的深度值d4(x):
d 4 ( x ) = 1 N ( x ) × Σ x j ∈ Ω ( x ) d 3 ( x j ) × w 3 ( x j ) × w 4 ( x j ) ,
其中,N(x)表示滤波的归一化系数,
步骤5、利用运动补偿,计算下一帧视频图像I2在像素位置x的深度值d5(x)。
根据步骤4a1)中得到的运动矢量V(x)和步骤4c2)得到的像素位置x的深度值d4(x),计算下一帧视频图像I2在像素位置x的深度值d5(x):
d5(x)=d4(x-V(x))。
步骤6、利用基于深度图像绘制技术,生成左右格式的3D图像。
6a)根据步骤4c2)中得到的视频图像I1在像素位置x的深度值d4(x)和步骤5)中得到的下一帧视频图像I2在像素位置x的深度值d5(x),分别计算视频图像I1和下一帧视频图像I2在像素位置x处的左眼视点L1(x)和L2(x):
L 1 ( x ) = I 1 ( x + t 2 × d 4 ( x ) f ) ,
L 2 ( x ) = I 2 ( x + t 2 × d 5 ( x ) f ) ,
其中,f表示估计的拍摄输入视频的摄像机的焦距,f=50,t表示人的两只眼睛的间距,t=6;
6b)根据各个像素位置的左眼视点得到左眼视图Lz,以输入的视频图像Iz为右眼视图,得到左右格式的3D视图{Lz,Iz},z=1,2。
本发明的效果可以通过以下仿真实验进一步说明:
1.仿真条件:
在CPU为Intel(R)CoreTM2核处理器E6550:主频2.33GHZ,内存2G,操作系统:WINDOWS7,仿真平台:Qt4。
仿真选择图3所示的两个测试视频图像,其中:
图3(a)为第一测试视频图像中的第一帧视频图像,
图3(b)为第一测试视频图像中的第二帧视频图像,
图3(c)为第二测试视频图像中的第一帧视频图像,
图3(d)为第二测试视频图像中的第二帧视频图像。
2.仿真内容:
仿真实验中,利用本发明方法与现有的Konrad’sMethod方法在测试视频图像上进行2D视频立体化仿真。
Konrad,’sMethod参见文献:J.Konrad,M.Wang,P.Ishwar,“2D-to-3Dimage conversionby learning depth from examples.In CVPR Workshops’12,pp.16—22,2012
仿真1,利用本发明方法分别对图3所示的第一测试视频图像和第二测试视频图像进行仿真,得到两个测试视频图像的深度图像如图4所示,其中:
图4(a)为使用本发明方法对图3(a)生成的深度图像,
图4(b)为使用本发明方法对图3(b)生成的深度图像,
图4(c)为使用本发明方法对图3(c)生成的深度图像,
图4(d)为使用本发明方法对图3(d)生成的深度图像。
由图4(a)与图4(b)和图4(c)与图4(d)对比可见,本发明方法在得到一帧视频图像的深度图像后,利用视频图像前后两帧之间的相似性,通过运动补偿得到下一帧视频图像的深度图像,避免对下一帧视频图像进行重复计算,减小计算复杂度,并保持深度在时间上的一致性,进而保持3D图像在时间上的一致性。
仿真2,利用本发明方法与现有的Konrad’s Method方法分别对图3(a)所示的第一测试视频图像和图3(c)所示的第二测试视频图像进行仿真,得到两个测试视频图像的深度图像如图5所示,其中:
图5(a)为使用现有的Konrad’s Method方法对图3(a)生成的深度图像,
图5(b)为使用现有的Konrad’s Method方法对图3(c)生成的深度图像,
图5(c)为用本发明方法对图3(a)生成的深度图像,
图5(d)为用本发明方法对图3(c)生成的深度图像。
由图5(a)与图5(c)和图5(b)与图5(d)的对比可见,本发明方法得到的深度图像边缘清晰,深度效果更加自然,能有效的分离出视频图像中前景和背景的深度;而Konrad’sMethod方法得到的深度图像缺失前景和边缘信息,导致得到的深度图像存在大量冗余失真,特别是前景物体的深度与背景的深度融为一体,导致3D视觉效果的失真。

Claims (4)

1.一种基于样本学习和深度图像传播的2D视频立体化方法,其特征在于,包括如下步骤:
(1)提取图像特征:
1a)输入一帧大小为320×240的2D视频图像I1,并提取其方向梯度直方图特征向量
Figure FDA0000454906920000011
1b)从彩色-深度图像对RGB-D数据库中提取出大小为320×240的所有彩色图像
Figure FDA0000454906920000012
1≤i≤N,N为数据库中彩色图像的数量,并提取这些彩色图像
Figure FDA0000454906920000013
的方向梯度直方图特征向量
Figure FDA0000454906920000014
(2)从RGB-D数据库中检索相似的参考图像:
2a)分别计算输入的视频图像I1与RGB-D数据库中各个彩色图像
Figure FDA0000454906920000015
的特征向量的欧式距离:其中,1≤i≤N;
2b)将得到的所有距离Si按从小到大的顺序排列,取前28个值所对应的彩色图像作为参考图像Jk,其中,1≤k≤28;
(3)利用中值滤波方法,从得到的28幅参考图像Jk对应的深度图像Dk中,确定输入的视频图像I1中各个像素位置的最佳深度值:d1(x)=median{Dk(x)},1≤k≤28,其中d1(x)表示输入的视频图像I1在像素位置x处的最佳深度值,median表示中值滤波运算;
(4)对输入的视频图像I1中各个像素位置的最佳深度值d1(x)进行后处理:
4a)对输入的视频图像I1与其下一帧视频图像I2,利用稠密光流估计方法计算出视频图像I1在像素位置x的运动矢量V(x)=(ux,vx),并计算像素位置x的运动强度m(x),其中,ux表示像素位置x处的水平方向的运动分量,vx表示像素位置x处的垂直方向的运动分量;
4b)设置运动强度阈值T1=20,根据像素位置x的最佳深度值d1(x)和运动强度m(x)计算该像素位置的基于运动改进的深度值d2(x):
若m(x)大于阈值T1,则d2(x)=w1×d1(x)+w2×m(x),其中,权重w1=0.6,w2=0.4,
若该处的运动强度m(x)小于阈值T1,则d2(x)=d1(x);
4c)将输入的视频图像I1分为大小为4×4的块,以各个块作为结点U,相临两个块的灰度值的差的绝对值作为这两个块的边E,构建一个有权无向图G(U,E),将G(U,E)利用克鲁斯卡尔方法构建最小生成树,将最小生成树中大于2.5的边E断开,得到的各个连通的子树即为各个分割区域Rb,1≤b≤B,B为得到的分割区域的数量;
4d)计算像素位置x的基于分割改进的深度值d3(x):
d 3 ( x ) = S b num ( R b ) , x ∈ R b
其中,Sb表示分割区域Rb内的所有像素位置的深度值之和表示分割区域Rb内的像素个数;
4e)根据输入的视频图像I1和像素位置x的深度值d3(x),利用联合双边滤波方法,计算像素位置x的基于滤波改进的深度值d4(x);
(5)根据步骤4a)中得到的运动矢量V(x)和步骤4e)得到的像素位置x的深度值d4(x),得到下一帧视频图像I2在像素位置x的深度值:d5(x)=d4(x-V(x));
(6)利用深度图像绘制技术,生成输入视频图像I1和下一帧视频图像I2的左右格式的3D视图:
6a)利用上述参数分别计算视频图像I1和下一帧视频图像I2在像素位置x处的左眼视点L1(x)和L2(x):
L 1 ( x ) = I 1 ( x + t 2 × d 4 ( x ) f ) , L 2 ( x ) = I 2 ( x + t 2 × d 5 ( x ) f ) ,
其中,f表示估计的拍摄输入视频的摄像机的焦距,f=50,t表示人的两只眼睛的间距,t=6;
6b)根据各个像素位置的左眼视点得到左眼视图Lz,以输入的视频图像Iz为右眼视图,得到左右格式的3D视图{Lz,Iz},z=1,2。
2.根据权利要求1所述的基于样本学习和深度图像传播的2D视频立体化方法,其中所述步骤(1a)中提取2D视频图像I1的方向梯度直方图特征向量
Figure FDA0000454906920000031
按如下步骤进行:
(1a1)将视频图像I1分为大小为40×40的单元,每个单元内统计9个方向的梯度直方图,相邻的四个单元组成一个大小为80×80块,连接一个块内四个单元的梯度直方图得到该块的梯度直方图特征向量;
(1a2)连接所有块的梯度直方图特征向量,得到的视频图像I1的方向梯度直方图特征向量
Figure FDA0000454906920000032
3.根据权利要求1所述的基于样本学习和深度图像传播的2D视频立体化方法,其中所述步骤(1b)中提取RGB-D数据库中彩色图像
Figure FDA0000454906920000036
的方向梯度直方图特征向量
Figure FDA0000454906920000033
按如下步骤进行:
(1b1)将彩色图像分为大小为40×40的单元,每个单元内统计9个方向的梯度直方图,相邻的四个单元组成一个大小为80×80块,连接一个块内四个单元的梯度直方图得到该块的梯度直方图特征向量;
(1b2)连接所有块的梯度直方图特征向量,得到的彩色图像的方向梯度直方图特征向量1≤i≤N,N为数据库中彩色图像的数量。
4.根据权利要求1所述的基于样本学习和深度图像传播的2D视频立体化方法,其中,步骤(4e)所述的利用联合双边滤波方法,计算像素位置x的基于滤波改进的深度值d4(x),按如下步骤进行:
(4e1)根据输入的视频图像I1,以像素位置x为中心取大小为5×5的窗口Ω(x),对Ω(x)内的像素位置xj,1≤j≤25,计算像素位置xj与像素位置x的距离权重w3(xj)和灰度值权重w4(xj):
w 3 ( x j ) = e - 0.5 × | x j - x | 2 σ 1 2 ,
w 4 ( x j ) = e - 0.5 × | I 1 ( x j ) - I 1 ( x ) | 2 σ 2 2 ,
其中,σ1表示距离的标准差σ1=12,σ2表示灰度值的标准差σ2=0.05;
(4e2)将窗口Ω(x)内的所有像素位置的深度值进行加权平均,得到基于滤波改进的深度值d4(x):
d 4 ( x ) = 1 N ( x ) × Σ x j ∈ Ω ( x ) d 3 ( x j ) × w 3 ( x j ) × w 4 ( x j )
其中,N(x)表示滤波的归一化系数,
Figure FDA0000454906920000044
CN201410010043.8A 2014-01-09 2014-01-09 基于样本学习和深度图像传播的2d视频立体化方法 Expired - Fee Related CN103716615B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410010043.8A CN103716615B (zh) 2014-01-09 2014-01-09 基于样本学习和深度图像传播的2d视频立体化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410010043.8A CN103716615B (zh) 2014-01-09 2014-01-09 基于样本学习和深度图像传播的2d视频立体化方法

Publications (2)

Publication Number Publication Date
CN103716615A true CN103716615A (zh) 2014-04-09
CN103716615B CN103716615B (zh) 2015-06-17

Family

ID=50409132

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410010043.8A Expired - Fee Related CN103716615B (zh) 2014-01-09 2014-01-09 基于样本学习和深度图像传播的2d视频立体化方法

Country Status (1)

Country Link
CN (1) CN103716615B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008366A (zh) * 2014-04-17 2014-08-27 深圳市唯特视科技有限公司 一种3d生物智能识别方法及系统
CN107452033A (zh) * 2017-08-17 2017-12-08 万维云视(上海)数码科技有限公司 一种生成深度图的方法和装置
WO2018053952A1 (zh) * 2016-09-26 2018-03-29 浙江工商大学 一种基于场景样本库的影视图像深度提取方法
WO2018119808A1 (zh) * 2016-12-29 2018-07-05 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN109241342A (zh) * 2018-07-23 2019-01-18 中国科学院计算技术研究所 基于深度线索的视频场景检索方法和系统
CN111292369A (zh) * 2020-03-10 2020-06-16 中车青岛四方车辆研究所有限公司 激光雷达的伪点云数据生成方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101657839A (zh) * 2007-03-23 2010-02-24 汤姆森许可贸易公司 用于对2d图像进行区域分类以进行2d至3d转换的系统和方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101657839A (zh) * 2007-03-23 2010-02-24 汤姆森许可贸易公司 用于对2d图像进行区域分类以进行2d至3d转换的系统和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. KONRAD等: "2D-to-3D image conversion by learning depth from examples", 《2012 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 *
KONRAD, J.等: "Learning-Based, Automatic 2D-to-3D Image and Video Conversion", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008366A (zh) * 2014-04-17 2014-08-27 深圳市唯特视科技有限公司 一种3d生物智能识别方法及系统
WO2018053952A1 (zh) * 2016-09-26 2018-03-29 浙江工商大学 一种基于场景样本库的影视图像深度提取方法
WO2018119808A1 (zh) * 2016-12-29 2018-07-05 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
US10542249B2 (en) 2016-12-29 2020-01-21 Zhejiang Gongshang University Stereoscopic video generation method based on 3D convolution neural network
CN107452033A (zh) * 2017-08-17 2017-12-08 万维云视(上海)数码科技有限公司 一种生成深度图的方法和装置
CN107452033B (zh) * 2017-08-17 2020-03-06 万维云视(上海)数码科技有限公司 一种生成深度图的方法和装置
CN109241342A (zh) * 2018-07-23 2019-01-18 中国科学院计算技术研究所 基于深度线索的视频场景检索方法和系统
CN109241342B (zh) * 2018-07-23 2022-04-19 中国科学院计算技术研究所 基于深度线索的视频场景检索方法和系统
CN111292369A (zh) * 2020-03-10 2020-06-16 中车青岛四方车辆研究所有限公司 激光雷达的伪点云数据生成方法
CN111292369B (zh) * 2020-03-10 2023-04-28 中车青岛四方车辆研究所有限公司 激光雷达的伪点云数据生成方法

Also Published As

Publication number Publication date
CN103716615B (zh) 2015-06-17

Similar Documents

Publication Publication Date Title
CN103716615B (zh) 基于样本学习和深度图像传播的2d视频立体化方法
US8718356B2 (en) Method and apparatus for 2D to 3D conversion using scene classification and face detection
CN102223553B (zh) 一种二维视频到三维视频的自动转换方法
CN103152600B (zh) 一种立体视频质量评价方法
Jung et al. A novel 2D-to-3D conversion technique based on relative height-depth cue
CN102609950B (zh) 一种二维视频深度图的生成方法
CN110570457B (zh) 一种基于流数据的三维物体检测与跟踪方法
CN103581650B (zh) 双目3d视频转多目3d视频的方法
WO2012058490A3 (en) Minimal artifact image sequence depth enhancement system and method
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
WO2018053952A1 (zh) 一种基于场景样本库的影视图像深度提取方法
CN102761768A (zh) 一种实现立体成像的方法及装置
US20170064279A1 (en) Multi-view 3d video method and system
CN106447718B (zh) 一种2d转3d深度估计方法
CN104200453A (zh) 基于图像分割和可信度的视差图像校正方法
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
CN102708570A (zh) 获取深度图的方法及装置
KR20160039447A (ko) 스테레오 카메라를 이용한 공간분석시스템
Zhang et al. An interactive system of stereoscopic video conversion
CN109040747B (zh) 基于卷积自编码器的立体图像舒适度质量评价方法及系统
Jung et al. Superpixel matching-based depth propagation for 2D-to-3D conversion with joint bilateral filtering
Guo et al. Robust Full-Fov Depth Estimation in Tele-Wide Camera System
Appia et al. Fully automatic 2D to 3D conversion with aid of high-level image features
KR101231661B1 (ko) 컬러세그먼트 추출과 깊이지도를 활용한 입체영상 제작 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150617

Termination date: 20200109

CF01 Termination of patent right due to non-payment of annual fee