CN101312539B - 用于三维电视的分级图像深度提取方法 - Google Patents

用于三维电视的分级图像深度提取方法 Download PDF

Info

Publication number
CN101312539B
CN101312539B CN2008100628104A CN200810062810A CN101312539B CN 101312539 B CN101312539 B CN 101312539B CN 2008100628104 A CN2008100628104 A CN 2008100628104A CN 200810062810 A CN200810062810 A CN 200810062810A CN 101312539 B CN101312539 B CN 101312539B
Authority
CN
China
Prior art keywords
image
zone
depth
point
coupling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008100628104A
Other languages
English (en)
Other versions
CN101312539A (zh
Inventor
石冰
李东晓
张明
谢贤海
冯雅美
骆凯
何赛军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D display technology (Shenzhen) Co., Ltd.
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2008100628104A priority Critical patent/CN101312539B/zh
Publication of CN101312539A publication Critical patent/CN101312539A/zh
Application granted granted Critical
Publication of CN101312539B publication Critical patent/CN101312539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种用于三维电视的分级图像深度提取方法。包括以下步骤:(1)利用两个平行放置的摄像机分别拍摄得到左、右两个视频序列;(2)对图像的边缘点进行特征匹配,得到边缘点的深度值;(3)根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度;(4)对每个块边界进行滤波以去除块效应,使块边界过渡平滑。本发明利用的特征匹配和区域匹配相结合的方法,避免了单独适用两种匹配而导致的不足,得到一个精确而高密度的视差场;同时分级块大小的匹配,可以很好地实现在处理速度和精确度上的折衷。

Description

用于三维电视的分级图像深度提取方法
技术领域
本发明涉及一种用于三维电视的分级图像深度提取方法。
背景技术
立体视频和多视点视频可以应用在包括自由视点视频/电视(FVV/FTV)、三维电视(3DTV)等场合,它的提出体现了下一代多媒体应用网络化、交互性和真实感的发展方向。但多视点视频的数据量随着相机数目的增加而成倍地增加,要实现大量数据的有效压缩,在目前广泛采用的主要有两类压缩方法。一类是多视点视频编码(Multi-view Video Coding,MVC),它利用各个视点之间相关性来进行压缩,但是当视点数目增加时,所需要传输的数据量就会随之显著增加。另一类是采用二维视频加深度信息的方法来对多视点视频进行压缩编码。
相对于MVC,利用深度信息进行立体或多视点视频压缩编码的优点是所需要传输的数据量不会随着视点数目的增加而显著增加,而在解码器端,可根据深度信息来恢复出多个视点的视频。因此采用这种方法,可以显著节省网络带宽。
深度信息有两种获取方式。第一种是采用特殊的摄像机,通过红外线扫描等方式,在拍摄的同时直接测量出深度信息,如ATTEST组织采用的摄像机Zcam。该摄像机由一个传统的摄像机,加上一个高速脉冲红外线光源组成,摄像机在拍摄的同时发射出红外线脉冲,通过测量红外线来回的时间获取每个像素的深度信息。另一种方式是通过立体或多路视频恢复出深度信息。深度值的精确度直接影响解码器端立体或多视点视频恢复的精确度,从而影响立体视频的观赏效果和立体视觉效果。因此在第二种方式中,采用适当的算法以精确地恢复出深度信息非常重要。
理想情况下的深度值Z可以由公式(1)得到:
Z = bf d - - - ( 1 )
其中,b为相机间距,f为相机焦距,d为视差。b和f都是可以确定的,因此可以看出,恢复深度信息的要点和难点就是从立体视频或多视点视频中,精确地为每一幅图像中每一个像素在另外几个视点的图像中寻找到匹配点,计算出视差,从而恢复深度信息。
双目立体视觉的视差原理如图1。图中的模型采用最简单的双摄像机平行光轴成像,IL和IR分别表示左右像平面,OL和OR是左右摄像机的光心,b是左右摄像机光心之间的距离,称为体视基线。P(x,y,z)为三维空间中的一点,PL,PR分别表示P(x,y,z)在左右像平面上的投影点。投影线POL和POR所确定的平面称为核心平面,它与左右像平面的交线称为核心线或极线(Epipolar line)。由于两个摄像机的光轴与像平面垂直,Y轴互相平行,将右边图像的平面坐标系平移到左像平面,这样左右两个摄像机坐标系完全重合,则PR在左平面坐标系上成为P′R。视差即为PL和P′R之间的距离,即:
d=|PL-P′R|                  (2)
立体匹配的主要任务,就是将同一个空间物理点在不同图像中的映像点对应起来。它主要考虑三个问题:基元选择,匹配准则和算法结构。
在匹配基元选择上,常见的匹配基元有点状特征、线状特征和区域特征等。点状特征定位准确,检测和描述容易,精确度高;但它在图像中数目多,包含的信息量少,因此在匹配时需要较强的约束准则和匹配策略。而在一般应用时,由于点在图像中的数目非常多,因此往往并不是对每个点都进行匹配,而是选择特征点进行匹配,如边缘点或角点,这类匹配称为特征匹配。特征匹配并不直接利用灰度值进行匹配,而是利用灰度的梯度等特征进行比配,因此抗干扰性好;但是由于特征在图像上的稀疏性决定了特征匹配只能得到稀疏的视差场,并且匹配精度收到特征提取精度的影响。而线状特征和区域特征含有更丰富的图像信息,在图像中数目较少,易于实现快速匹配;但是它们的定位精度较差。
在匹配中要遵循一定的匹配准则。唯一性约束要求一幅图像上的每个特征点最多只能与另一幅图像上的一个特征点对应。连续性约束要求物体表面上各点的视差是连续的,因此深度场也是连续的,但在物体边界两侧的两个点,视差是突变的。相容性约束要求物体表面上的一点或者一块区域在两幅或多幅图像上的投影点在灰度、灰度梯度和几何形状上相似。极线约束规定一幅图像上的任一点,在另一幅图像上的对应点只可能唯一该点的外极线上。顺序一致性约束要求两幅或多幅图像对应极线上的对应点之间的排列顺序是不变的。
匹配的算法结构是立体匹配中最重要的部分,它与基元的选择相对应,主要分为基于特征的匹配和基于区域的匹配。
采用基于特征的匹配时,主要分三个步骤:
第一步,找出图像中的特征点,如图像中的边缘点、角点等灰度不连续点。常用的边缘点检测算子有Roberts、Sobel、Previtt、LOG等。角点提取算子有Beaudet、Dreschler、Nagel、Kichen、Rosenfeld、Zuniga、Hrarik等。
第二步,相似性检验。设左图中任一边缘像素为PL(x,y),该像素在右图中的候选匹配边缘像素为PR(sn,tn),n=0,1,…,PR(sn,tn)要满足:
(1)搜索范围:为避免误选,将极线约束的条件从一条极线放宽为核心带,可能匹配点的坐标(sn,tn)应满足:
{(sn,tn)|x-Hmax≤sn≤x+Hmax,y-Vmax≤tn≤y+Vmax}       (3)
其中,Hmax是最大水平视差,Vmax为核心带高度,x,y为PL(x,y)的坐标。
(2)图像间对应边缘像素应该有相似的边缘差分值:
|gL(x,y)-gR(sn,tn)|<ε               (4)
其中,gL(x,y)和gR(sn,tn)分别是左右图像中边缘点的差分值,ε是确定图像间对应边缘像素差分值相似程度的阈值。
(3)图像间对应边缘像素应该有相似的边缘梯度方向值:
L(x,y)-θR(sn,tn)|<δ                 (5)
其中,θL(x,y)和θR(sn,tn)分别是左右图像中边缘点的梯度方向值,δ是确定图像间对应边缘像素梯度方向值相似程度的阈值。
以上是从左边图像到右边图像的初始匹配。在完成了上述步骤后,再以同样的过程进行从右图到左图的初始匹配。
第三步,兼容性检验。经过初始匹配后,每个边缘像素在另一幅图像对应一个候选的匹配像素集合,存在匹配的多义性和模糊性。因此要根据视差连续性约束,进行兼容性检验。
定义视差之差为D和支持函数S分别为:
D(dab,dcd)=|dab-dcd|,PLc(,)∈Wa,PRd(,)∈Wb,PRd(,)∈SPLc(,) (6)
S(dab,dcd)=[D(dab,dcd)+1]-1                                      (7)
其中,PLa(x,y)表示左图中一个边缘像素a,Wa表示以a为中心的邻域,PLc(x,y)表示左图中一个边缘像素c,它在a的邻域Wa中,SPLc(x,y)是c的候选匹配集。PLb(x,y)表示右图中一个边缘像素b,且PLb(sn,tn)∈SPLa(x,y),即b是a的一个候选匹配像素,Wb表示以b为中心的邻域,PRd(x,y)表示左图中一个边缘像素d,它在b的邻域Wb中,并且d是c的一个候选匹配像素。dab表示点a,b之间的视差,dcd表示点c,d之间的视差。
当与匹配像素对相邻的像素,经过匹配后的视差与其视差保持连续时,D(,)=0,S(,)=1;反之,S(,)<1。
在此基础上定义评价检验函数:
V k ( P La , P Rb ) = Σ P Lc ∈ W a , P Rd ∈ SP Lc [ max C ( P La , P Rb , P Lc , P Rd ) × S ( d ab , d cd ) ]
+ Σ P Rd ∈ W b , P Lc ∈ SP Rd [ max C ( P La , P Rb , P Lc , P Rd ) × S ( d ab , d cd ) ] - - - ( 8 )
其中,k为迭代次数,S为支持函数,C(PLa,PRb,PLc,PRd)为兼容检验加权系数:
Figure S2008100628104D00043
对每个边缘像素进行兼容性检验,当满足:
Vk(PLa,PRb)>Vk(PLa,PRi), ∀ P Ri , P Ri ∈ SP La PRi∈SPLa
和Vk(PLa,PRb)>Vk(PLj,PRb), ∀ P Lj , P Lj ∈ SP Rb PLj∈SPRb                                           (10)
时,则像素对(PLa,PRb)为唯一兼容匹配,从而可以得到视差dab。其中,PRi是a的匹配像素集中的任意一点,而PLj是b的匹配像素集中的任意一点。
区域匹配直接利用像素灰度值,使用一定的约束条件来寻找立体图像对中像素点的对应关系进行匹配。其基本思想是假设两幅图像对应点的小邻域内具有相似的灰度分布。把一幅图像中某一像素的灰度邻域作为模板,在另一幅图像中搜索具有相同或类似灰度值分布的对应点邻域,从而实现两幅图像的匹配。
设Il和Ir为两幅立体图像对,Pl和Pr分别为两幅图像中的像素点,(2W+1)为匹配区域的宽度,R(Pl)是Ir中与Pl相关的搜索区域,Ψ(u,v)是两个像素值u,v的相关函数。对于Il中的每个像素Pl=[i,j]有,计算相关值:
C ( d ) = Σ k - W W Σ l = - W W ψ ( I l ( i + k , j + l ) , I r ( i + k - d 1 , j + l - d 2 ) ) - - - ( 11 )
其中,d1,d2为视差矢量为d的x,y分量,W表示匹配区域的大小。Pl的视差就是在R(Pl)中使C(d)最大的矢量d。
欧洲出版号WO2007020570公开了一个根据单路视频运动矢量获取深度信息的方法。该方法利用图像内物体的运动特征从单路视频获得深度信息,首先从视频中获得运动矢量的信息,然后根据是物体运动的越快,则深度越小的原则,计算出深度值,但是该方法只适用于静态场景。
中国公开号1153362公开了一种从二维运动图像获得深度信息以产生三维图像的方法。首先选取适当的帧以计算深度信息或间断计算,并用深度信息进行图象处理,通过块匹配等方式取出屏上目标的运动信息。随后,计算三维目标的真实运动。由于取景器图像是空间投影,可根据大量代表点的运动通过逆变换获得目标的初始三维运动,得到目标的三维坐标,从而获得目标的深度信息。但是该方法无法恢复出每个像素精确的深度信息,并且计算复杂,不适合三维电视中实时深度提取。
中国公开号101051386公开了一种从多幅深度图像的匹配方法,首先判断边界点、噪声点和孤立点,去掉噪声较大的点后,在不同深度图像的重叠区域选择参考点,并搜索参考点的对应点。然后采用迭代方法,逐步优化整体配准精确度,在每次迭代过程中,首先为每个参考点在对应点缓冲区中搜索最近点作为对应点;然后使用伪逆矩阵最小化所述的对应点之间的误差,如此多次迭代,直到误差小于所要求的阈值为止。但该方法只对特征点进行匹配,获得一个稀疏的深度场。
本发明提出的用于三维电视的分级图像深度提取方法,利用双路视频,采用特征匹配与区域匹配相结合的方法,克服了以上原有几种方法的缺点,可以快速精确地获得高密度的动态场景的深度场。
发明内容
本发明的目的是克服现有技术的不足,提供一种用于三维电视的分级图像深度提取方法。
它包括如下步骤:
1)利用两个平行放置的摄像机分别拍摄得到左、右两个视频序列;
2)对图像的边缘点进行特征匹配,得到边缘点的深度值;
3)根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度;
4)对每个块边界进行滤波以去除块效应,使块边界过渡平滑。
所述的对图像的边缘点进行特征匹配,得到边缘点的深度值步骤:
(a)利用边缘点检测Sobel算法分别提取出左右图像中边缘像素点;
(b)对边缘点采用特征匹配的方法在左右图像中寻找出所有边缘匹配点对;
(c)根据匹配边缘点对在左右两幅图像的像素坐标,计算出视差;
(d)根据匹配边缘点对的视差值计算边缘点的深度值。
所述的根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度步骤:
(e)根据边缘点的深度值,将图像分成几个不同深度层次的区域;
(f)在左右图像之间对每个区域,根据边缘点匹配的结果进行亮度值校正;
(g)将每个区域分成若干个16×16块,在区域内部16×16块匹配中,确定搜索区域;
(h)对每个16×16块,以差值的平方和为匹配准则,进行基于块的区域匹配;
(i)当16×16块匹配中得到的差值平方和大于某个阈值1时,将16×16块分割成16个4×4块,对每个4×4块进行块匹配;
(j)当4×4块匹配中得到的差值平方和大于某个阈值2时,将4×4块进一步分割成4个2×2块,对每个2×2块进行块匹配;
(k)对于区域边缘非完整块进行块匹配和深度值加权。
本发明适用于三维电视中通过两路视频提取高密度的深度场。在深度提取中,单独使用特征匹配只能形成一个稀疏的视差场,而只使用区域匹配会导致匹配的抗干扰性和精确度下降,而本专利中利用的特征匹配和区域匹配相结合的立体匹配方法可以有效地避免单独使用两种匹配而导致的不足,得到一个精确而高密度的视差场。同时分级块大小的匹配,可以很好地实现在处理速度和精确度上的折衷。
附图说明
图1是双目立体视觉的视差原理图;
图2是立体视频获取中相机的摆放位置图;
图3是利用Sobel算子检测边缘点时相邻像素点的加权系数图;
图4是对于左边图像的块,在右边图像中块匹配的搜索范围图;
图5是对区域边界的未匹配点,通过将周围像素加权平均以计算深度值时,周围像素的加权系数分配图;
图6是块边界滤波时6种相邻块的组合的示意图;
图7是两个16×16块相邻时滤波方法和滤波顺序的示意图;
图8是16×16块与4×4块相邻时滤波方法和滤波顺序的示意图;
图9是两个4×4块相邻时滤波方法和滤波顺序的示意图;
图10是4×4块与2×2块相邻时滤波方法和滤波顺序的示意图。
具体实施方法
用于三维电视的分级图像深度提取方法包括如下步骤:
1)利用两个平行放置的摄像机分别拍摄得到左、右两个视频序列;
相机的摆放位置如图2。左右相机平行放置,它们的光轴Zl和Zr相互平行,相机间距为b,即左右相机的光心Ol和Or之间的距离为b。相机的焦距相等,都为f。
2)对图像的边缘点进行特征匹配,得到边缘点的深度值;
3)根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度;
4)对每个块边界进行滤波以去除块效应,使块边界过渡平滑。
所述的对图像的边缘点进行特征匹配,得到边缘点的深度值步骤:
(a)利用边缘点检测Sobel算法分别提取出左右图像中边缘像素点;
用边缘点检测Sobel算法提取出相邻像素灰度变换的大小和方向。Sobel算子是一种一阶微分算子。对于数字图像的每个像素点,相邻像素点灰度的加权和可以用来表示相邻像素灰度的变化,加权系数如图3。通过式(13)来计算出相邻像素的灰度变化:
g(i,j)=[f(i-1,j-1)+2f(i-1,j)+f(i-1,j+1)]
                                                    (15)
-[f(i+1,j-1)+2f(i+1,j)+f(i+1,j+1)]
当某像素点的g(i,j)大于一定阈值时,将这个点确定为图像中的边缘点。
(b)对边缘点采用特征匹配的方法在左右图像中寻找出所有边缘匹配点对;
当用Sobel算子寻找到图像中所有的边缘点之后,用背景技术中介绍的特征匹配的方法,对左边图像中的每个边缘点在右边图像中寻找到匹配点,然后再对右边图像中的每个边缘点,在左边图像中寻找到匹配点,从而得到匹配的边缘点对。
(c)根据匹配边缘点对在左右两幅图像的像素坐标,计算出视差;
(d)根据匹配边缘点对的视差值计算边缘点的深度值。
所述的根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度步骤:
(e)根据边缘点的深度值,将图像分成几个不同深度层次的区域;
经过特征匹配后,可以得到一个稀疏的物体轮廓的深度场。根据边缘点的深度值,将图像分成几个不同深度层次的区域。在每个区域内,采用基于块的区域匹配(或称块匹配)。
(f)在左右图像之间对每个区域,根据边缘点匹配的结果进行亮度值校正;
立体视频采用两个摄像机分别拍摄左右两路视频,由于摄像机之间的位置,以及它们的内、外部参数的影响,会造成左右两个视频之间在角度、对比度和亮度上有差异。而区域匹配直接利用区域内所有像素的灰度值进行匹配,所以这种方法对于图像的亮度和对比度的变化比较敏感。因此,在进行区域匹配之前首先要对区域内像素的灰度值进行校正,以增加匹配的精确度。
在本设计中利用区域边缘像素的灰度值来进行校正。在之前的特征匹配中,已经对区域的每个边缘像素点进行了匹配。而由于特征匹配是利用像素的梯度等特征值进行匹配,而不是直接利用像素的灰度值进行匹配,因此特征匹配的抗干扰性较好,受到左右图像之间亮度和对比度变化的影响很小。
对某个区域R内部,利用区域边缘像素进行校正的方法是:
①计算出该区域R在左右图像中边缘匹配像素对灰度之差的均值Δp:
Δ p ‾ = 1 n Σ i = 1 n ( P li s - P ri s ) - - - ( 14 )
其中Pli s和Pri s为左右图像中的一个匹配边缘像素对,n为该区域R的所有边缘像素的总数。
②左边图像像素的灰度值不变,对右边图像中的区域R进行灰度校正。对于右边图像区域内的每个非边缘像素Pr,其校正后的灰度值P′r为:
P′r=Pr+Δp                 (15)
对区域内的非边缘像素进行了灰度校正后,开始对区域内进行基于块的立体匹配。
(g)将每个区域分成若干个16×16块,在区域内部16×16块匹配中,确定搜索区域;
对于左边图像某一个区域R,首先将该区域分割成若干16×16块,对于左边图像的每个16×16块,用类似运动估计的方法进行匹配,在右边图像中找到匹配块。
设该区域R的边缘点视差的平均值为d=[d1,d2],d由式(16)得到:
d ‾ = 1 n Σ i = 1 n d i s - - - ( 16 )
其中,di s为该区域某个边缘匹配像素对的视差。
对于左边图像中的每个16×16块,其搜索区域的中心为该16×16的坐标平移矢量d之后的16×16块,而搜索窗口W的宽度为-min{16,4d1}~+min(16,4d1},高度为-min{8,4d2}~+min{8,4d2},搜索区域S为W∩R。如图4中,对于左边图像Il某区域R中的一个16×16块A,在右边图像Ir中的搜索范围为右边图中的阴影区域。
(h)对每个16×16块,以差值的平方和为匹配准则,进行基于块的区域匹配;
在确定了左图中一个16×16块的搜索区域后,在右图的该搜索区域范围S内,寻找与左图中16×16块的灰度分布最相似的16×16块。匹配准则采用差值的平方和(Sum of Squared Difference,SSD):
SSD 16 = Σ i = 0 15 Σ j = 0 15 ( P l , i , j - P r , i + d 1 , j + d 2 ) 2 - - - ( 17 )
其中,Pl,Pr分别为左右两幅图像中的像素。最佳匹配的16×16块就是在搜索区域中使得SSD16最小视差矢量d=[d1,d2]所指向的16×16块,即:
d = arg min d ∈ S { SSD 16 ( d ) } - - - ( 18 )
当这个最小的SSD16小于或等于一个预设的阈值ε1时,匹配结束,得到该16×16块的视差矢量为该d=[d1,d2],然后通过公式(1)来计算出该16×16块的深度值,再开始对下一个16×16块进行匹配。
否则,当这个最小的SSD16大于ε1时,进入步骤i。
(i)当16×16块匹配中得到的差值平方和大于某个阈值1时,将16×16块分割成16个4×4块,对每个4×4块进行块匹配;
将该16×16块分割成16个4×4块,对每个4×4块进行匹配,匹配准则仍然采用16×16块匹配中使用的差值的平方和SSD:
SSD 4 = Σ i = 0 3 Σ j = 0 3 ( P l , i , j - P r , i + d 1 , j + d 2 ) 2 - - - ( 19 )
最佳匹配的4×4块就是在搜索区域中使得SSD4最小视差矢量d=[d1,d2]所指向的4×4块,即:
d = arg min d ∈ S { SSD 4 ( d ) } - - - ( 20 )
当SSD4小于或等于阈值ε2时,该4×4块的匹配结束,同样得到一个视差矢量d,并计算出该4×4块的深度值。否则,当SSD4仍然大于阈值ε2时,进入步骤j。
(j)当4×4块匹配中得到的差值平方和大于某个阈值2时,将4×4块进一步分割成4个2×2块,对每个2×2块进行块匹配;
将该4×4块分割成4个2×2块,对每个2×2块进行匹配,匹配准则仍然采用上述差值的平方和SSD:
SSD 2 = Σ i = 0 1 Σ j = 0 1 ( P l , i , j - P r , i + d 1 , j + d 2 ) 2 - - - ( 21 )
最佳匹配的2×2块就是在搜索区域中使得SSD2最小视差矢量d=[d1,d2]所指向的2×2块,即:
d = arg min d ∈ S { SSD 2 ( d ) } - - - ( 22 )
得到该2×2块的视差矢量d,并根据视差d计算出该2×2块的深度值。
(k)对于区域边缘非完整块进行块匹配和深度值加权。
经过分级匹配之后,为区域内每个完整的16×16块都找到了相应的匹配块,得到它们的视差矢量和深度值。但是当区域的边界非规则时,区域的边缘会出现非完整的16×16块,即一个16×16块的一部分属于当前区域,而它的另外部分属于其它的区域。对于这些块,采用下列过程匹配:
①判断是否存在完整的4×4块在区域R内部。若存在,则对这些4×4块按照步骤i的方法进行匹配,并计算出该4×4块的深度值;
②对于剩下的像素,再判断是否存在完整的2×2块在区域R内部。若存在,则对这些2×2块按照步骤j的方法进行匹配,并计算出该2×2块的深度值;
③若经过2×2块匹配后,仍然有未匹配的点,对于这些点,通过将周围像素的深度值加权平均来得到它的深度值。如图5中,若p是待计算的像素,它的深度值由相邻像素{ai,i=0…7}的深度值经过加权平均后得到。其中,a1,a3,a4,a6与p直接相邻,其加权系数为2,而a0,a2,a5,a7与p对角相邻,加权系数为1。则p的深度为:
Figure S2008100628104D00103
其中,加权系数wi的取值为:
w i = 2 , i = 1,3,4,6 1 , i = 0 , 2 , 5 , 7 - - - ( 24 )
经过上述过程,区域边界上非完整块的所有像素也都得到了深度值,从而区域R内的所有像素都得到了相应的深度值。
所述的对每个块边界进行滤波以去除块效应,使块边界过渡平滑:
在区域R内的大部分像素都是以块为整体进行匹配和深度值计算的,因此在每个块内深度值相同,而在块的边界深度值有可能是突变的。而根据连续性约束要求,由于物体表面一般来说是平滑的,因此物体表面上各点的视差和深度值也应该是连续的,所以还要采用一定的块边界滤波方法去除块效应,使块边界深度过度平滑。
滤波之前,每个块内像素深度的初始值即为其所属块的深度值。滤波的方法根据不同的相邻块大小(如图6)而略有差别,一共有6种相邻块的组合,除此之外,还有16×16块,4×4块和2×2块处于区域R边缘的3种情况。采用如下的滤波步骤:
①两个16×16相邻块滤波
当两个16×16块相邻时,首先对垂直边界(即水平相邻的两个16×16块的边界)进行滤波,即图7中的过程①。垂直边界滤波时,将处于同一行的每16个点(即pli,i=0…7,p17以及pri,i=0…7)的深度值同时进行滤波,滤波的方法如式(25)(26):
Z p li ′ = Z p r 7 - Z p l 7 15 · ( 7 - i ) + Z p l 7 , i = 0 . . . 7 - - - ( 25 )
Z p ri ′ = Z p r 7 - Z p l 7 15 · ( 8 + i ) + Z p l 7 , i = 0 . . . 7 - - - ( 26 )
对所有的垂直边界滤波完成后,再进行水平边界(即上下相邻的两个16×16块)滤波,即图7中的过程②。水平边界滤波的方法与垂直边界滤波方法相同,将处于同一列的16个点(即pui,i=0…7,p17以及pdi,i=0…7)的深度值同时进行滤波,滤波的方法如式(27)(28):
Z p ui ′ ′ = Z p d 7 ′ - Z p u 7 ′ 15 · ( 7 - i ) + Z p u 7 ′ , i = 0 . . . 7 - - - ( 27 )
Z p di ′ ′ = Z p d 7 ′ - Z p u 7 ′ 15 · ( 8 + i ) + Z p u 7 ′ , i = 0 . . . 7 - - - ( 28 )
待所有两个16×16块相邻的情况都滤波完成以后,进入第②步。
②16×16块与4×4块相邻情况的滤波
当16×16块与4×4块相邻时,同样也是首先对垂直边界进行滤波,即图8中的过程①。垂直边界滤波时,将16×16块中处于同一行的每8个点(即pli,i=0…7)与4×4块中处于相同行的2个点(pri,i=0,1)的深度值同时进行滤波,滤波的方法如式(29)(30):
Z p li ′ = Z p r 1 - Z p l 7 14 · ( 7 - i ) + Z p l 7 , i = 0 . . . 7 - - - ( 29 )
Z p ri ′ = Z p l 7 + Z p r 1 2 , i = 0 Z p r 1 , i = 1 - - - ( 30 )
对所有的垂直边界滤波完成后,再进行水平边界滤波,即图8中的过程②,如式(31)(32):
Z p ui ′ ′ = Z p d 1 ′ - Z p u 7 ′ 14 · ( 7 - i ) + Z p u 7 ′ , i = 0 . . . 7 - - - ( 31 )
Z p di ′ ′ = Z p u 7 ′ + Z p d 1 ′ 2 , i = 0 Z p d 1 ′ , i = 1 - - - ( 32 )
待所有16×16块与4×4块相邻的情况都滤波完成以后,进入第③步。
③16×16块与2×2块相邻情况,以及16×16块处于区域R边缘情况的滤波
当16×16块与2×2块相邻时,只对16×16块的像素滤波,而2×2块的像素不进行滤波。滤波时同样也是首先对垂直边界进行滤波。垂直边界滤波时,将16×16块中处于同一行的每8个点(即pli,i=0…7)的深度值同时进行滤波,滤波的方法如式(33):
Z p li ′ = Z p r 0 - Z p l 7 14 · ( 7 - i ) + Z p l 7 , i = 0 . . . 7 - - - ( 33 )
对所有的垂直边界滤波完成后,再进行水平边界滤波,如式(34):
Z p ui ′ ′ = Z p d 0 ′ - Z p u 7 ′ 14 · ( 7 - i ) + Z p u 7 ′ , i = 0 . . . 7 - - - ( 34 )
对于16×16块处于区域R边缘的情况,也采用式(33)(34)的滤波方法,但式中的
Figure S2008100628104D00132
Figure S2008100628104D00133
由边缘像素的深度值代替。待所有16×16块与2×2块相邻的情况,以及16×16块处于区域R边缘的情况都滤波完成以后,进入第④步。
④两个4×4相邻块滤波
当两个4×4块相邻时,同样也是首先对垂直边界进行滤波,即图9中的过程①。垂直边界滤波时,将4×4块中处于同一行的每4个点(即pli,i=0,1与pri,i=0,1)的深度值同时进行滤波,滤波的方法如式(35)(36):
Z p li ′ = Z p r 1 - Z p l 1 3 · ( 1 - i ) + Z p l 1 , i = 0 , 1 - - - ( 35 )
Z p li ′ = Z p r 1 - Z p l 1 3 · ( 2 + i ) + Z p l 1 , i = 0,1 - - - ( 36 )
对所有的垂直边界滤波完成后,再进行水平边界滤波,即图9中的过程②,如式(37)(38):
Z p li ′ ′ = Z p r 1 ′ - Z p l 1 ′ 3 · ( 1 - i ) + Z p l 1 ′ , i = 0,1 - - - ( 37 )
Z p li ′ ′ = Z p r 1 ′ - Z p l 1 ′ 3 · ( 2 + i ) + Z p l 1 ′ , i = 0,1 - - - ( 38 )
待所有两个4×4块相邻的情况都滤波完成以后,进入第⑤步。
⑤4×4块与2×2块相邻,以及4×4块处于区域R边缘情况的滤波
当4×4块与2×2块相邻时,只对4×4块的像素滤波,而2×2块的像素不进行滤波(如图10)。垂直边界先进行滤波,然后再对水平边界滤波。滤波时,只对4×4块边缘像素(即图10中的pl0和pu0)滤波,如式(39)(40):
Z p l 0 ′ = Z p r 0 + Z p l 1 2 - - - ( 39 )
Z p u 0 ′ ′ = Z p d 0 ′ + Z p u 1 ′ 2 - - - ( 40 )
对于4×4块处于区域R边缘的情况,也采用式(39)(40)的滤波方法,但式中的
Figure S2008100628104D001310
Figure S2008100628104D001311
由边缘像素的深度值代替。待所有4×4块与2×2块相邻的情况,以及4×4块处于区域R边缘的情况都滤波完成以后,进入第⑥步。
⑥两个2×2相邻块的情况
对于两个2×2块相邻的情况,不采用块边界滤波。
经过滤波后,可以得到图像的一个完整的高密度的深度场。在编码端,只需要对左边视频或者右边视频中的一路视频,以及该深度场进行编码和传输。而在解码端可以根据单路视频和该深度场来恢复出另一路视频,甚至可以内插出多个视点的视频。

Claims (1)

1.一种用于三维电视的分级图像深度提取方法,其特征在于包括如下步骤:
1)利用两个平行放置的摄像机分别拍摄得到左、右两个视频序列;
2)对图像的边缘点进行特征匹配,得到边缘点的深度值;
3)根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度;
4)对每个块边界进行滤波以去除块效应,使块边界过渡平滑;
所述的对图像的边缘点进行特征匹配,得到边缘点的深度值步骤包括:
(a)利用边缘点检测Sobel算法分别提取出左右图像中边缘像素点;
(b)对边缘点采用特征匹配的方法在左右图像中寻找出所有边缘匹配点对;
(c)根据匹配边缘点对在左右两幅图像的像素坐标,计算出视差;
(d)根据匹配边缘点对的视差值计算边缘点的深度值;
所述的根据边缘点的深度值,将图像分成几个不同深度层次的区域,在每个区域内,采用基于块的分级块大小的区域匹配,并计算每个块的深度步骤包括:
(e)根据边缘点的深度值,将图像分成几个不同深度层次的区域;
(f)在左右图像之间对每个区域,根据边缘点匹配的结果进行亮度值校正;
(g)将每个区域分成若干个16×16块,在区域内部16×16块匹配中,确定搜索区域;
(h)对每个16×16块,以差值的平方和为匹配准则,进行基于块的区域匹配;
(i)当16×16块匹配中得到的差值平方和大于某个阈值时,将16×16块分割成16个4×4块,对每个4×4块进行块匹配;
(j)当4×4块匹配中得到的差值平方和大于某个阈值时,将4×4块进一步分割成4个2×2块,对每个2×2块进行块匹配;
(k)对于区域边缘非完整块进行块匹配和深度值加权。
CN2008100628104A 2008-07-03 2008-07-03 用于三维电视的分级图像深度提取方法 Active CN101312539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008100628104A CN101312539B (zh) 2008-07-03 2008-07-03 用于三维电视的分级图像深度提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008100628104A CN101312539B (zh) 2008-07-03 2008-07-03 用于三维电视的分级图像深度提取方法

Publications (2)

Publication Number Publication Date
CN101312539A CN101312539A (zh) 2008-11-26
CN101312539B true CN101312539B (zh) 2010-11-10

Family

ID=40100931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100628104A Active CN101312539B (zh) 2008-07-03 2008-07-03 用于三维电视的分级图像深度提取方法

Country Status (1)

Country Link
CN (1) CN101312539B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4903240B2 (ja) * 2009-03-31 2012-03-28 シャープ株式会社 映像処理装置、映像処理方法及びコンピュータプログラム
CN101566784B (zh) * 2009-06-02 2011-07-27 华映光电股份有限公司 立体影像的景深数据建立方法及其系统
US8872900B2 (en) 2009-06-26 2014-10-28 Lg Electronics Inc. Image display apparatus and method for operating the same
CN101699512B (zh) * 2009-10-30 2011-09-21 无锡景象数字技术有限公司 一种基于背景差异抠图和稀疏光流法的深度的生成方法
US20130222535A1 (en) * 2010-04-06 2013-08-29 Koninklijke Philips Electronics N.V. Reducing visibility of 3d noise
CN102156987A (zh) * 2011-04-25 2011-08-17 深圳超多维光电子有限公司 获取场景深度信息的方法及装置
CN102231841A (zh) * 2011-06-23 2011-11-02 康佳集团股份有限公司 基于双视点立体数据裸眼立体显示电视及实现方法
CN103828361B (zh) * 2011-09-21 2015-04-29 富士胶片株式会社 图像处理装置、方法,立体图像获取装置,便携式电子设备,打印机和立体图像播放器装置
CN103139577B (zh) 2011-11-23 2015-09-30 华为技术有限公司 一种深度图像滤波方法、获取深度图像滤波阈值的方法和装置
CN102521876B (zh) * 2011-11-29 2016-09-28 康佳集团股份有限公司 一种实现3d用户界面立体效果的方法及系统
KR101706216B1 (ko) 2012-04-03 2017-02-13 한화테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
CN104584545B (zh) * 2012-08-31 2017-05-31 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
KR101985674B1 (ko) * 2012-09-18 2019-06-04 삼성전자 주식회사 비접촉식 사용자 인터페이스 동작 인식 방법 및 그 장치
CN103179405B (zh) * 2013-03-26 2016-02-24 天津大学 一种基于多级感兴趣区域的多视点视频编码方法
CN104933755B (zh) * 2014-03-18 2017-11-28 华为技术有限公司 一种静态物体重建方法和系统
CN105120255B (zh) * 2015-09-15 2018-11-20 Tcl集团股份有限公司 一种视差图的平滑方法、装置及电子设备
CN106815865A (zh) * 2015-11-30 2017-06-09 展讯通信(上海)有限公司 图像深度估计方法、深度图生成方法及装置
CN106331672B (zh) * 2016-08-19 2018-12-25 深圳奥比中光科技有限公司 视点图像的获得方法、装置及系统
CN109478326B (zh) * 2017-05-26 2021-11-05 深圳配天智能技术研究院有限公司 一种图像处理方法、终端设备及计算机存储介质
CN108564604B (zh) * 2018-03-26 2020-07-03 北京邮电大学 基于平面约束和三角剖分的双目视觉立体匹配方法及装置
CN109640066B (zh) * 2018-12-12 2020-05-22 深圳先进技术研究院 高精度稠密深度图像的生成方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0714077A2 (en) * 1994-11-22 1996-05-29 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
CN1153362A (zh) * 1995-03-29 1997-07-02 三洋电机株式会社 产生三维图象计算深度信息和用其进行图象处理的方法
CN1723476A (zh) * 2003-01-06 2006-01-18 皇家飞利浦电子股份有限公司 用于数字图像的深度排序的方法和设备
WO2007020570A2 (en) * 2005-08-17 2007-02-22 Nxp B.V. Video processing method and device for depth extraction
CN101051386A (zh) * 2007-05-23 2007-10-10 北京航空航天大学 多幅深度图像的精确配准方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0714077A2 (en) * 1994-11-22 1996-05-29 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
CN1153362A (zh) * 1995-03-29 1997-07-02 三洋电机株式会社 产生三维图象计算深度信息和用其进行图象处理的方法
CN1723476A (zh) * 2003-01-06 2006-01-18 皇家飞利浦电子股份有限公司 用于数字图像的深度排序的方法和设备
WO2007020570A2 (en) * 2005-08-17 2007-02-22 Nxp B.V. Video processing method and device for depth extraction
CN101051386A (zh) * 2007-05-23 2007-10-10 北京航空航天大学 多幅深度图像的精确配准方法

Also Published As

Publication number Publication date
CN101312539A (zh) 2008-11-26

Similar Documents

Publication Publication Date Title
CN101312539B (zh) 用于三维电视的分级图像深度提取方法
Li et al. Simultaneous video defogging and stereo reconstruction
CN103996174B (zh) 一种对Kinect深度图像进行空洞修复的方法
Tam et al. 3D-TV content generation: 2D-to-3D conversion
CN107481261A (zh) 一种基于深度前景跟踪的彩色视频抠图方法
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN107240073B (zh) 一种基于梯度融合与聚类的三维视频图像修复方法
CN101287143A (zh) 基于实时人机对话的平面视频转立体视频的方法
CN104065947A (zh) 一种集成成像系统的深度图获取方法
CN110414385A (zh) 一种基于单应性变换和特征窗口的车道线检测方法及系统
CN103581650A (zh) 双目3d视频转多目3d视频的方法
CN109064505A (zh) 一种基于滑动窗口张量提取的深度估计方法
CN102609950A (zh) 一种二维视频深度图的生成方法
CN109194888B (zh) 一种针对低质量深度图的dibr自由视点合成方法
CN103679739A (zh) 基于遮挡区域检测的虚拟视图生成方法
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
Guo et al. 2D to 3D convertion based on edge defocus and segmentation
CN115330684A (zh) 基于双目视觉与线结构光的水下构筑物表观缺陷检测方法
Krauß et al. Enhancment of dense urban digital surface models from vhr optical satellite stereo data by pre-segmentation and object detection
Um et al. Three-dimensional scene reconstruction using multiview images and depth camera
Xie et al. Performance analysis of DIBR-based view synthesis with kinect azure
Akimov et al. Single-image depth map estimation using blur information
Zhang et al. A compact stereoscopic video representation for 3D video generation and coding
CN102447932B (zh) 自由视点视频中视点的重建方法
Wei et al. Dense and occlusion-robust multi-view stereo for unstructured videos

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160614

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Zhejiang Road, No. 38

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160901

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: New 101 building, the wind and cloud mansion of West Road 5 unit B of 518000 Shenzhen City, Guangdong Province Nanshan District Xi Li neighbourhood committees

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: The 2 of 518000 FengYun Science building, No. 5 Industry Zone, Bei Huan Road, NanShan District, Shenzhen City, GuangDong Prov mansion 101

Patentee before: World wide technology (Shenzhen) Limited

TR01 Transfer of patent right