CN102819843A - 基于边界控制置信传播的立体图像视差估计方法 - Google Patents

基于边界控制置信传播的立体图像视差估计方法 Download PDF

Info

Publication number
CN102819843A
CN102819843A CN2012102811736A CN201210281173A CN102819843A CN 102819843 A CN102819843 A CN 102819843A CN 2012102811736 A CN2012102811736 A CN 2012102811736A CN 201210281173 A CN201210281173 A CN 201210281173A CN 102819843 A CN102819843 A CN 102819843A
Authority
CN
China
Prior art keywords
parallax
point
overbar
pixel
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102811736A
Other languages
English (en)
Other versions
CN102819843B (zh
Inventor
雷建军
罗成志
张海龙
王来花
胡光龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201210281173.6A priority Critical patent/CN102819843B/zh
Publication of CN102819843A publication Critical patent/CN102819843A/zh
Application granted granted Critical
Publication of CN102819843B publication Critical patent/CN102819843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明属于图像处理、立体视觉技术领域。研究立体图像中正负视差的甄别及精确估计方法,为立体图像视差控制、立体显示等奠定基础,为达到上述目的,本发明采取的技术方案是,立体图像视差估计方法,包括如下步骤:(1)正负视差甄别与视差范围估计(2)像素级视差估计(3)交叉稳定性检测(4)基于图像分割控制的BP算法使用BP算法最小化能量函数,得出使得能量函数取得最小值的视差场。本发明主要应用于图像处理。

Description

基于边界控制置信传播的立体图像视差估计方法
技术领域
本发明属于图像处理、立体视觉技术领域,具体讲本发明涉及一种双视点立体图像的视差估计方法。
背景技术
视差估计的基本原理是,利用从两个视点观察同一场景获取的立体像图对,以其中一个视点的图像作为基准,匹配出两幅图像中的对应像点,从而估计参考视图中每一像素点的视差。根据使用的约束信息的不同,可以将视差估计算法分为两类:1)局部匹配算法,这类方法利用的是对应点本身以及邻近的局部区域的约束信息,局部算法的优点是效率高,但在遮挡区域、边界区域以及缺失纹理的区域会产生较大的误差。根据匹配特征和匹配方式的不同,局部匹配算法主要分为基于特征的方法和基于区域的方法。基于特征的方法具有较好的抗干扰性能,但它只能获得稀疏的视差场,要得到稠密的视差场必须辅之以复杂的插值过程。区域法能产生稠密的视差场,算法简单、有效、易于实现,缺点是精度不高,易受噪声的影响。2)全局匹配算法,这类方法利用了图像的全局约束信息,在整个图像上定义一个包含数据误差、光滑程度以及遮挡在内的能量函数,把问题转化成优化问题来解决,全局算法对局部图像的模糊不敏感,但是它的计算代价很高。全局匹配算法包括非线性融合算法、基于动态规划的算法和基于遗传算法的方法等。
图割算法和置信传播算法,充分利用水平方向和垂直方向的二维约束,可以获取高精度的稠密视差图,是当前公认的两种较好的视差估计算法。这两种算法都以马尔可夫随机场为理论基础,图割算法将能量极小化问题转换为赋权图的最小割问题,进而采用最大流算法求解,置信传播算法则采用消息传递机制实现能量极小化。Lee发展了置信传播算法,提出了两点改进视差估计的方法:一是关于匹配代价的计算,使用块匹配替代了像素级匹配;二是利用四叉树区域分割改进视差估计。由于准确的搜索范围可以保证估计精度,将图像分割为不同区域改善了视差估计,取得了较好的效果。
在我国,葛亮等提出一种改进的立体图像对稠密匹配算法,该算法首先利用区域增长技术找到图像中的纹理单一区域,然后将整个区域作为匹配基元以得到纹理单一区域的稠密视差图。云挺等人把偏微分方程理论运用于机器视觉中,提出了一种新的基于能量函数获取稠密视差图的方法。郑志刚等提出一种基于区域间协同优化的立体匹配算法,该算法首先对参考图像进行分割,利用相关法得到各分割区域的初始匹配。然后用平面模型对各区域的视差进行拟合,得到各区域的视差平面参数。最后,基于协同优化的思想,采用局部优化的方法对各区域的视差平面参数进行迭代优化,得到合理的视差图。
发明内容
本发明旨在克服现有技术的不足,针对当前视差估计算法主要基于平行立体图像的只具有单向负水平视差的现状,研究立体图像中正负视差的甄别及精确估计方法,为立体图像视差控制、立体显示等奠定基础,为达到上述目的,本发明采取的技术方案是,立体图像视差估计方法,包括如下步骤:
(1)正负视差甄别与视差范围估计
首先用mean shift算法分别对立体图像对的左右两个视图进行分割,窗口的形状和大小都与图像本身的特征与性质相关,把分割后的不规则区域作为匹配基元;采用基于区域的相关窗法,甄别每个区域的正负视差,并确定每个区域的视差范围;以相似性测度函数度量准则,当两个窗口包含相同的特征信息时,图像的一致性度量将达到最大值,同时用相似性测度计算出的匹配代价将达到最小;代价函数采用SD(Squared Difference)和图像梯度信息结合的代价函数C(p,)定义如下:
C ( p , p ‾ d ) = w × C SD ( p , p ‾ d ) + ( 1 - w ) × C GRAD ( p , p ‾ d )
C SD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | I c ( p ) - I c ( p ‾ d ) | 2
C GRAD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | ▿ x I c ( p ) - ▿ x I c ( p ‾ d ) | 2 + Σ c ∈ { r , g , b } | ▿ y I c ( p ) - ▿ y I c ( p ‾ d ) | 2
其中,d代表水平视差,p,
Figure BDA00001989288200025
为两个视点视图中的待匹配点,
Figure BDA00001989288200026
Figure BDA00001989288200027
分别代表图像横向和纵向梯度,w是介于0和1之间的权值,基于前述方法完成对右视图的分割后,以右视图坐标为基准获取右视图各区域的视差范围;
(2)像素级视差估计
采用以上所述的代价函数C(p,
Figure BDA00001989288200028
),计算每个像素的匹配代价,以像素点为中心,取正方形邻域作为该像素点的代价累积窗口,采用自适应权值法累积匹配代价,得到更鲁棒的匹配代价,相关窗口内的加权累积后的匹配代价函数为:
C ′ ( p , p ‾ d ) = Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d ) C ( q , q ‾ d ) Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d )
其中,Np
Figure BDA000019892882000210
分别为p点和
Figure BDA000019892882000211
点的累积窗口,q点和
Figure BDA000019892882000212
点分别为Np
Figure BDA000019892882000213
中的任意点,w(p,q)、
Figure BDA000019892882000214
分别为p点与
Figure BDA000019892882000215
点邻域内的点相对于中心的权值;
采用WTA(winner takes all)算法,对每个像素,在已经确定的视差范围[dc-δ,dc+δ]内,选择令匹配代价C′(p,
Figure BDA000019892882000216
)最小的视差作为该点的视差,得到初始视差图;
(3)交叉稳定性检测
用上述方法获得另一视图的初始视差图,设两视差图分别为
Figure BDA000019892882000217
根据左右视差一致性原则进行交叉检测:
Figure BDA000019892882000219
其中表示像素点(xL,yL)的视差值,表示(xL,yL)的匹配点的视差值,把两个视差图中视差值不一致的点标记为遮挡点,视差值一致的点标记为匹配点;
再对匹配点进行匹配稳定性检测,标记出稳定匹配点,方法如下:对于视差范围[dc-δ,dc+δ],比较某一像素点p的匹配代价函数C′(p,
Figure BDA000019892882000222
),记其中最小值为
Figure BDA000019892882000223
记其中次小值为
Figure BDA000019892882000224
Figure BDA000019892882000225
大于一个预设的阈值时,把该点标记为稳定点,否则标记为不稳定点;
(4)基于图像分割控制的BP算法
构造能量函数如下:
E ( d ) = Σ p ∈ P C p ( d p ) + Σ ( q , p ) ∈ N w pq f ( d p , d q )
其中,P为所有点的集合,p为集合中的任意点,Cp(dp)为p点视差为dp时的匹配代价,f(dp-dq)表示相邻两点p、q的视差分别为dp、dq时的能量,wpq表示权值,使用4连接邻域系统,即一个像素点的视差只与相邻的四个像素的视差有关;
使用BP算法最小化能量函数,得出使得能量函数取得最小值的视差场。
采取的视差甄别与初始视差估计流程细化如下:
1)根据区域分割结果,选取右视图中第m个分割区域Lm作为第m个相关窗口,m=1,2,3...M;
2)预估视差范围[dmin,dmax],这里拟设定dmin<0,dmax>0,即对相关窗口Lm双向滑动,以甄别正负视差,运用已定义的代价函数C(p,
Figure BDA00001989288200032
)寻找左视图中的匹配区域,随着相关窗口Lm的逐步移动,累计Lm窗口与相关区域间所有像素点的匹配代价,当匹配代价最小时,记录此时的视差值为dc,并确定该区域的视差范围为[dc-δ,dc+δ],重复以上步骤直至右视图中所有分割区域的视差范围计算完毕。
权值w(p,q)大小的计算法方法如下:
考虑区域分割结果对权值的影响,采用分割算法分别对左右视图进行分割,分割后的每个区域用序号来标识,利用立体图像对的区域分割结果设置匹配权值,并假设同一个分割区域内视差是一致的,权值计算公式设计如下:
w ( p , q ) = 1 q ∈ S p 0 q ∉ S p
其中Sp为点p所在的区域,当p和q处于同一区域时,两点视差相似,所以设置权值为1,当两点处于不同的区域,设置权值为0;
采用WTA(winner takes all)算法,对每个像素,在已经确定的视差范围[dc-δ,dc+δ]内,选择令匹配代价C′(p,
Figure BDA00001989288200034
)最小的视差作为该点的视差,得到初始视差图。
根据wpq的变化,把BP算法分为两个阶段进行;第一个阶段,根据分割信息和遮挡信息确定wpq
wpq=ScuepqOcuepq
其中,Scuepq为分割信息,计算公公如下:
Scue pq = 0 p ∉ S ( q ) 1 p ∈ S ( q )
其中,Sp是点p所在的图像区域,根据视差分段平滑假设,当p和q处于同一区域时,两像素视差相似,令wpq等于1,允许信息传播;当p和q处于不同区域时,两像素视差没有关联,令wpq等于0,不允许信息传播;
把遮挡区域的右边界作为的遮挡区域与前景的边界,得出的遮挡信息为:
Ocue pq = 0 p ∈ S occ , q ∈ S nonocc 1 others ,
其中,Socc为遮挡区域,Snonocc为非遮挡区域,具p点在q点的左边;
BP算法的第二阶段,令所有的wpq等于1,即允许任意相邻两点间传播信息。
本发明的技术特点及效果:
本发明在像素级匹配之前,先甄别正负视差并确定视差范围,对于视差范围较大,同时包含正视差和负视差场景的立体图像对,能够缩小视差搜索范围,提高视差的准确性。本发明还利用图像分割控制BP算法,对于视差不连续区域有较好的效果。
附图说明
图1为用于测试的双视点立体图像对。
图2为由初始视差图经交叉稳定性检测得出的遮挡区域图。
图3为本发明得出的视差图。
图4为技术方案的流程图。
具体实施方式
为克服现有技术的不足,本发明提供了一种立体图像视差估计方法,其特征在于,所述方法包括以下步骤:
1.正负视差甄别与视差范围估计
首先用mean shift算法分别对立体图像对的左右两个视图进行分割,窗口的形状和大小都与图像本身的特征与性质相关,把分割后的不规则区域作为匹配基元。采用基于区域的相关窗法,甄别每个区域的正负视差,并确定每个区域的视差范围。以相似性测度函数度量准则,当两个窗口包含相同的特征信息时,图像的一致性度量将达到最大值,同时用相似性测度计算出的匹配代价将达到最小。代价函数采用AD(Absolute  Difference)和图像梯度信息结合的代价函数C(p,
Figure BDA00001989288200042
)定义如下:
C ( p , p ‾ d ) = w × C SD ( p , p ‾ d ) + ( 1 - w ) × C GRAD ( p , p ‾ d )
其中,d代表水平视差,p,
Figure BDA00001989288200044
为两个视点视图中的待匹配点,w是介于0和1之间的权值,CSD(p,
Figure BDA00001989288200045
)为SD代价函数,CGRAD(p,
Figure BDA00001989288200046
)为梯度代价函数,分别定义如下:
C SD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | I c ( p ) - I c ( p ‾ d ) | 2
其中,Ic表示c通道的亮度值,r、g、b表示红、绿、蓝三个颜色通道。
C GRAD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | ▿ x I c ( p ) - ▿ x I c ( p ‾ d ) | 2 + Σ c ∈ { r , g , b } | ▿ y I c ( p ) - ▿ y I c ( p ‾ d ) | 2
其中
Figure BDA00001989288200051
Figure BDA00001989288200052
分别代表图像横向和纵向梯度。基于前述方法完成对右视图的分割后,以右视图坐标为基准获取右视图各区域的视差范围。
2.像素级视差估计
采用以上所述的代价函数C(p,
Figure BDA00001989288200053
),计算每个像素的匹配代价。以像素点为中心,取正方形邻域作为该像素点的代价累积窗口,采用自适应权值法累积匹配代价,得到更鲁棒的匹配代价,相关窗口内的加权累积后的匹配代价函数为:
C ′ ( p , p ‾ d ) = Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d ) C ( q , q ‾ d ) Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d )
其中,Np
Figure BDA00001989288200055
分别为p点和点的累积窗口,q点和
Figure BDA00001989288200057
点分别为Np
Figure BDA00001989288200058
中的任意点,w(p,q)、
Figure BDA00001989288200059
分别为p点与
Figure BDA000019892882000510
点邻域内的点相对于中心的权值。
采用WTA(winner takes all)算法,对每个像素,在已经确定的视差范围[dc-δ,dc+δ]内,选择令匹配代价C′(p,)最小的视差作为该点的视差,得到初始视差图。
3.交叉稳定性检测
用上述方法获得另一视图的初始视差图,设两视差图分别为
Figure BDA000019892882000513
根据左右视差一致性原则进行交叉检测:
Figure BDA000019892882000514
其中
Figure BDA000019892882000515
表示像素点(xL,yL)的视差值,
Figure BDA000019892882000516
表示(xL,yL)的匹配点的视差值。把两个视差图中视差值不一致的点标记为遮挡点,视差值一致的点标记为匹配点。
再对匹配点进行匹配稳定性检测,标记出稳定匹配点。方法如下:对于视差范围d=[dc-δ,dc+δ],比较某一像素点p的匹配代价函数C′(p,
Figure BDA000019892882000517
),记其中最小值为
Figure BDA000019892882000518
记其中次小值为
Figure BDA000019892882000519
大于一个预设的阈值时,把该点标记为稳定点,否则标记为不稳定点。
4.基于图像分割控制的BP算法。
构造能量函数如下:
E ( d ) = Σ p ∈ P C p ( d p ) + Σ ( q , p ) ∈ N w pq f ( d p , d q )
其中,P为所有点的集合,p为集合中的任意点,Cp(dp)为p点视差为dp时的匹配代价,f(dp-dq)表示相邻两点p、q的视差分别为dp、dq时的能量,wpq表示权值。为了使算法易于实现,使用4连接邻域系统,即一个像素点的视差只与相邻的四个像素的视差有关。
使用BP算法最小化能量函数,得出使得能量函数取得最小值的视差场。根据wpq的变化,把BP算法分为两个阶段进行。第一个阶段,根据分割信息和遮挡信息确定wpq
wpq=ScuepqOcuepq
其中Scuepq为分割信息,Ocuepq为遮挡信息。第二阶段,令所有的wpq等于1,即允许任意相邻两点间传播信息。
下面通过双视点立体图像对的视差估计过程进一步详细说明本发明:
1.正负视差甄别与视差范围估计
首先用mean shift算法分别对立体图像对的左右两个视图进行分割,窗口的形状和大小都与图像本身的特征与性质相关,把分割后的不规则区域作为匹配基元。采用基于区域的相关窗法,甄别每个区域的正负视差,并确定每个区域的视差范围。以相似性测度函数度量准则,当两个窗口包含相同的特征信息时,图像的一致性度量将达到最大值,同时用相似性测度计算出的匹配代价将达到最小。代价函数采用SD(Squared Difference)和图像梯度信息结合的代价函数C(p,)定义如下:
C ( p , p ‾ d ) = w × C SD ( p , p ‾ d ) + ( 1 - w ) × C GRAD ( p , p ‾ d )
其中,d代表水平视差,p,
Figure BDA00001989288200063
为两个视点视图中的待匹配点,w是介于0和1之间的权值,CSD(p,
Figure BDA00001989288200064
)为SD代价函数,CGRAD(p,)为梯度代价函数,定义如下:
C SD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | I c ( p ) - I c ( p ‾ d ) | 2
其中,Ic表示c通道的亮度值,r、g、b表示红、绿、蓝三个颜色通道。
C GRAD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | ▿ x I c ( p ) - ▿ x I c ( p ‾ d ) | 2 + Σ c ∈ { r , g , b } | ▿ y I c ( p ) - ▿ y I c ( p ‾ d ) | 2
其中
Figure BDA00001989288200068
Figure BDA00001989288200069
分别代表图像横向和纵向梯度。基于前述方法完成对右视图的分割后,以右视图坐标为基准获取右视图各区域的视差范围。采取的视差甄别与初始视差估计流程如下:
1)根据区域分割结果,选取右视图中第m个分割区域Lm作为第m个相关窗口,m=1,2,3...M;
2)预估视差范围d=[dmin,dmax],这里拟设定dmin<0,dmax>0,即对相关窗口Lm双向滑动,以甄别正负视差。运用已定义的代价函数C(p,
Figure BDA000019892882000610
)寻找左视图中的匹配区域,随着相关窗口Lm的逐步移动,累计Lm窗口与相关区域间所有像素点的匹配代价,当匹配代价最小时,记录此时的d=dc,并确定该区域的视差范围为[dc-δ,dc+δ],重复以上步骤直至右视图中所有分割区域的视差范围计算完毕。
2.像素级视差估计
对于参考视图中的每个像素,构造一个正方形邻域支持窗口,并且在匹配目标视图上在[dc-δ,dc+δ]范围内移动窗口。采用以上所述的代价函数C(p,
Figure BDA000019892882000611
),计算窗口内每个像素的匹配代价,用自适应权值法累积匹配代价,得到更鲁棒的匹配代价,相关窗口内的加权累积后的匹配代价函数为:
C ′ ( p , p ‾ d ) = Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d ) C ( q , q ‾ d ) Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d )
其中Np分别为p点和
Figure BDA000019892882000614
点的累积窗口,q点和
Figure BDA000019892882000615
点分别为Np
Figure BDA000019892882000616
中的任意点,w(p,q)、分别为p点与
Figure BDA000019892882000618
点邻域内的点相对于中心的权值。权值w(p,q)大小的计算法方法如下:
考虑区域分割结果对权值的影响,采用分割算法分别对左右视图进行分割,分割后的每个区域用序号来标识,利用立体图像对的区域分割结果设置匹配权值,并假设同一个分割区域内视差是一致的。
权值计算公式设计如下:
w ( p , q ) = 1 q ∈ S p 0 q ∉ S p
其中Sp为点p所在的区域,当p和q处于同一区域时,两点视差相似,所以设置权值为1,当两点处于不同的区域,设置权值为0。
采用WTA(winner takes all)算法,对每个像素,在已经确定的视差范围[dc-δ,dc+δ]内,选择令匹配代价C′(p,
Figure BDA00001989288200072
)最小的视差作为该点的视差,得到初始视差图。
3.交叉稳定性检测
用同样的方法获得另一视图的初始视差图,设两视差图分别为
Figure BDA00001989288200073
Figure BDA00001989288200074
根据左右视差一致性原则进行交叉检测:
Figure BDA00001989288200075
其中
Figure BDA00001989288200076
表示像素点(xL,yL)的视差值,则其匹配点在另一视图的坐标为
Figure BDA00001989288200077
所以
Figure BDA00001989288200078
是(xL,yL)的匹配点的视差值,在只有水平视差的情况下,两个匹配点的视差互为相反数。以此为检测标准,把两个视差图中视差值不一致的点标记为遮挡点,视差值一致的点标记为匹配点。
再对匹配点进行匹配稳定性检测,标记出稳定匹配点。方法如下:对于视差范围d=[dc-δ,dc+δ],比较某一像素点p的匹配代价函数C′(p,
Figure BDA00001989288200079
),记其中最小值为
Figure BDA000019892882000710
记其中次小值为
Figure BDA000019892882000711
大于一个预设的阈值时,把该点标记为稳定点,否则标记为不稳定点。
4.基于图像分割控制的BP算法
BP算法基于稠密视差场的连续性假设,即视差在大部区域比较平滑,但是会在物体边界上产生剧烈变化,将稠密视差场抽象为一种马尔可夫场,该马尔可夫随机场的每个节点对应参考视图的一个像素。相邻像素的视差信息通过置信传播在马尔可夫网络上相互传递,通过迭代计算最终得到全局最优的视差估计结果。马尔可夫随机场模型既能反映图像的随机性,又能反映图像的潜在结构,又可以有效地描述图像的性质。令P为参考视图中所有点的集合,对于每一个点p∈P,其视差值为dp,构造能量函数如下:
E ( d ) = Σ p ∈ P C p ( d p ) + Σ ( q , p ) ∈ N f ( d p , d q )
其中,Cp(dp)为p点视差为dp时的能量,f(dp,dq)表示相邻两点p、q的视差分别为dp、dq时的能量。N代表本发明使用的4连接邻域系统,一个像素点的视差只与相邻的四个像素的视差有关。
使用BP最小化该能量函数。BP是一个迭代推测的算法,它在网络中传递信息,其具体步骤如下:
a)初始化BP算法,初始化点p能量函数Cp(dp),把稳定匹配点的能量函数初始化为该点的的匹配代价函数C′(p,
Figure BDA00001989288200081
),把不稳定匹配点和遮挡点的能量函数初始化为常值函数。令
Figure BDA00001989288200082
为第t次迭代p传递到q的信息量,初始化所有信息
Figure BDA00001989288200083
为常值。
b)按t=1:T迭代按照一定的顺序更新信息
Figure BDA00001989288200084
m p → q t ( d q ) = min ( w pq f ( d p - d q ) + C p ( d p ) + Σ s ∈ N ( p ) \ q m s → p t - 1 ( d p ) )
其中,N(p)\q表示除q外与p相邻的点,wpq表示该代价的权值,t表示当前迭代次数,T表示最大迭代次数。
c)当迭代到一定程度后,信息量
Figure BDA00001989288200086
收敛,计算每一结点的置信度:
b p ( d p ) = C p ( d p ) + Σ k ∈ N ( p ) m k → p ( d p )
其中,N(p)表示与p相邻的点。
d)得出每一结点的视差:对每个节点p,bp(dp)向量中最小的元素对应的dp就是节点p在MRF中的解:
dp=argmin(bp(dp))
由于视差剧烈变化总是发生在物体的边界,所以在边界上两像素的视差关联性很小,甚至没有关联,BP算法传递的视差信息也有所变化,本发明利用mean shift算法分割得到物体边界,作为控制wpq变化的依据,从而控制BP算法的信息传递。把BP算法分为两个阶段进行。第一个阶段,根据分割信息和遮挡信息确定wpq
wpq=ScuepqOcuepq
其中,Scuepq为分割信息:
Scue pq = 0 p ∉ S ( q ) 1 p ∈ S ( q )
其中,Sp是点p所在的图像区域,根据视差分段平滑假设,当p和q处于同一区域时,两像素视差相似,令wpq等于1,允许信息传播;当p和q处于不同区域时,两像素视差没有关联,令wpq等于0,不允许信息传播。
遮挡信息根据图三得出,把遮挡区域的右边界作为的遮挡区域与前景的边界,得出的遮挡信息为:
Ocue pq = 0 p ∈ S occ , q ∈ S nonocc 1 others ,
其中,Socc为遮挡区域,Snonocc为非遮挡区域,具p点在q点的左边。
在第一阶段中,BP算法迭代一定次数,使得视差信息在各区域内充分传递后,开始第二阶段,令所有的wpq等于1,即允许任意相邻两点间传播信息,以平滑孤立的视差值,最终得到分段平滑的视差图。

Claims (4)

1.一种基于边界控制置信传播的立体图像视差估计方法,其特征是,包括如下步骤:
(1)正负视差甄别与视差范围估计
首先用mean shift算法分别对立体图像对的左右两个视图进行分割,窗口的形状和大小都与图像本身的特征与性质相关,把分割后的不规则区域作为匹配基元;采用基于区域的相关窗法,甄别每个区域的正负视差,并确定每个区域的视差范围;以相似性测度函数度量准则,当两个窗口包含相同的特征信息时,图像的一致性度量将达到最大值,同时用相似性测度计算出的匹配代价将达到最小;代价函数采用SD(Squared Difference)和图像梯度信息结合的代价函数C(p,)定义如下:
C ( p , p ‾ d ) = w × C SD ( p , p ‾ d ) + ( 1 - w ) × C GRAD ( p , p ‾ d )
C SD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | I c ( p ) - I c ( p ‾ d ) | 2
C GRAD ( p , p ‾ d ) = Σ c ∈ { r , g , b } | ▿ x I c ( p ) - ▿ x I c ( p ‾ d ) | 2 + Σ c ∈ { r , g , b } | ▿ y I c ( p ) - ▿ y I c ( p ‾ d ) | 2
其中,d代表水平视差,p,
Figure FDA00001989288100015
为两个视点视图中的待匹配点,
Figure FDA00001989288100016
分别代表图像横向和纵向梯度,w是介于0和1之间的权值,基于前述方法完成对右视图的分割后,以右视图坐标为基准获取右视图各区域的视差范围;
(2)像素级视差估计
采用以上所述的代价函数C(p,
Figure FDA00001989288100018
),计算每个像素的匹配代价,以像素点为中心,取正方形邻域作为该像素点的代价累积窗口,采用自适应权值法累积匹配代价,得到更鲁棒的匹配代价,相关窗口内的加权累积后的匹配代价函数为:
C ′ ( p , p ‾ d ) = Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d ) C ( q , q ‾ d ) Σ q ∈ N p , q ‾ d ∈ N p ‾ d w ( p , q ) w ( p ‾ d , q ‾ d )
其中,Np
Figure FDA000019892881000110
分别为p点和
Figure FDA000019892881000111
点的累积窗口,q点和点分别为Np
Figure FDA000019892881000113
中的任意点,w(p,q)、
Figure FDA000019892881000114
分别为p点与
Figure FDA000019892881000115
点邻域内的点相对于中心的权值;采用WTA(winner takes all)算法,对每个像素,在已经确定的视差范围[dc-δ,dc+δ]内,选择令匹配代价C′(p,
Figure FDA000019892881000116
)最小的视差作为该点的视差,得到初始视差图;
(3)交叉稳定性检测
用上述方法获得另一视图的初始视差图,设两视差图分别为
Figure FDA000019892881000117
Figure FDA000019892881000118
根据左右视差一致性原则进行交叉检测:
Figure FDA000019892881000119
其中表示像素点(xL,yL)的视差值,
Figure FDA000019892881000121
表示(xL,yL)的匹配点的视差值,把两个视差图中视差值不一致的点标记为遮挡点,视差值一致的点标记为匹配点;
再对匹配点进行匹配稳定性检测,标记出稳定匹配点,方法如下:对于视差范围[dc-δ,dc+δ],比较某一像素点p的匹配代价函数C′(p,),记其中最小值为
Figure FDA000019892881000123
记其中次小值为
Figure FDA000019892881000124
Figure FDA000019892881000125
大于一个预设的阈值时,把该点标记为稳定点,否则标记为不稳定点;
(4)基于图像分割控制的BP算法
构造能量函数如下:
E ( d ) = Σ p ∈ P C p ( d p ) + Σ ( q , p ) ∈ N w pq f ( d p , d q )
其中,P为所有点的集合,p为集合中的任意点,Cp(dp)为p点视差为dp时的匹配代价,f(dp-dq)表示相邻两点p、q的视差分别为dp、dq时的能量,wpq表示权值,使用4连接邻域系统,即一个像素点的视差只与相邻的四个像素的视差有关;
使用BP算法最小化能量函数,得出使得能量函数取得最小值的视差场。
2.如权利要求1所述的基于边界控制置信传播的立体图像视差估计方法,其特征是,采取的视差甄别与初始视差估计流程细化如下:
1)根据区域分割结果,选取右视图中第m个分割区域Lm作为第m个相关窗口,m=1,2,3...M;
2)预估视差范围[dmin,dmax],这里拟设定dmin<0,dmax>0,即对相关窗口Lm双向滑动,以甄别正负视差,运用已定义的代价函数C(p,
Figure FDA00001989288100022
)寻找左视图中的匹配区域,随着相关窗口Lm的逐步移动,累计Lm窗口与相关区域间所有像素点的匹配代价,当匹配代价最小时,记录此时的视差值为dc,并确定该区域的视差范围为[dc-δ,dc+δ],重复以上步骤直至右视图中所有分割区域的视差范围计算完毕。
3.如权利要求1所述的基于边界控制置信传播的立体图像视差估计方法,其特征是,权值w(p,q)大小的计算法方法如下:
考虑区域分割结果对权值的影响,采用分割算法分别对左右视图进行分割,分割后的每个区域用序号来标识,利用立体图像对的区域分割结果设置匹配权值,并假设同一个分割区域内视差是一致的,权值计算公式设计如下:
w ( p , q ) = 1 q ∈ S p 0 q ∉ S p
其中Sp为点p所在的区域,当p和q处于同一区域时,两点视差相似,所以设置权值为1,当两点处于不同的区域,设置权值为0;
采用WTA(winner takes all)算法,对每个像素,在已经确定的视差范围[dc-δ,dc+δ]内,选择令匹配代价C′(p,)最小的视差作为该点的视差,得到初始视差图。
4.如权利要求1所述的基于边界控制置信传播的立体图像视差估计方法,其特征是,根据wpq的变化,把BP算法分为两个阶段进行;第一个阶段,根据分割信息和遮挡信息确定wpq
wpq=ScuepqOcuepq
其中,Scuepq为分割信息,计算公公如下:
Scue pq = 0 p ∉ S ( q ) 1 p ∈ S ( q )
其中,Sp是点p所在的图像区域,根据视差分段平滑假设,当p和q处于同一区域时,两像素视差相似,令wpq等于1,允许信息传播;当p和q处于不同区域时,两像素视差没有关联,令wpq等于0,不允许信息传播;
把遮挡区域的右边界作为的遮挡区域与前景的边界,得出的遮挡信息为:
Ocue pq = 0 p ∈ S occ , q ∈ S nonocc 1 others ,
其中,Socc为遮挡区域,Snonocc为非遮挡区域,具p点在q点的左边;
BP算法的第二阶段,令所有的wpq等于1,即允许任意相邻两点间传播信息。
CN201210281173.6A 2012-08-08 2012-08-08 基于边界控制置信传播的立体图像视差估计方法 Active CN102819843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210281173.6A CN102819843B (zh) 2012-08-08 2012-08-08 基于边界控制置信传播的立体图像视差估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210281173.6A CN102819843B (zh) 2012-08-08 2012-08-08 基于边界控制置信传播的立体图像视差估计方法

Publications (2)

Publication Number Publication Date
CN102819843A true CN102819843A (zh) 2012-12-12
CN102819843B CN102819843B (zh) 2014-10-29

Family

ID=47303946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210281173.6A Active CN102819843B (zh) 2012-08-08 2012-08-08 基于边界控制置信传播的立体图像视差估计方法

Country Status (1)

Country Link
CN (1) CN102819843B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104079912A (zh) * 2013-03-29 2014-10-01 索尼公司 图像处理装置和图像处理方法
CN104200453A (zh) * 2014-09-15 2014-12-10 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
CN104240219A (zh) * 2013-06-13 2014-12-24 株式会社理光 配置视差值的方法和系统
CN104966303A (zh) * 2015-07-21 2015-10-07 兰州理工大学 一种基于马尔可夫随机场的视差图精化方法
CN105007478A (zh) * 2015-07-08 2015-10-28 南京信息工程大学 一种基于mean shift立体匹配的视图合成方法
CN106097336A (zh) * 2016-06-07 2016-11-09 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法
CN107133977A (zh) * 2017-05-18 2017-09-05 华中科技大学 一种基于概率产生模型的快速立体匹配方法
CN107316326A (zh) * 2017-06-29 2017-11-03 海信集团有限公司 应用于双目立体视觉的基于边的视差图计算方法和装置
CN108062741A (zh) * 2017-12-15 2018-05-22 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置和电子设备
CN109903379A (zh) * 2019-03-05 2019-06-18 电子科技大学 一种基于点云优化采样的三维重建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060120594A1 (en) * 2004-12-07 2006-06-08 Jae-Chul Kim Apparatus and method for determining stereo disparity based on two-path dynamic programming and GGCP
US20100007720A1 (en) * 2008-06-27 2010-01-14 Beddhu Murali Method for front matching stereo vision
CN102223556A (zh) * 2011-06-13 2011-10-19 天津大学 一种多视点立体图像零视差校正方法
CN102592275A (zh) * 2011-12-16 2012-07-18 天津大学 虚拟视点绘制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060120594A1 (en) * 2004-12-07 2006-06-08 Jae-Chul Kim Apparatus and method for determining stereo disparity based on two-path dynamic programming and GGCP
US20100007720A1 (en) * 2008-06-27 2010-01-14 Beddhu Murali Method for front matching stereo vision
CN102223556A (zh) * 2011-06-13 2011-10-19 天津大学 一种多视点立体图像零视差校正方法
CN102592275A (zh) * 2011-12-16 2012-07-18 天津大学 虚拟视点绘制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
QINGXIONG YANG 等: "Stereo Matching with Color-Weighted Correlation, Hierarchical Belief Propagation,and Occlusion Handling", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
SUMIT SRIVASTAVA 等: "STEREO MATCHING USING ADAPTIVE BELIEF PROPAGATION ALONG AMBIGUITY GRADIENT", 《17TH EUROPEAN SIGNAL PROCESSING CONFERENCE (EUSIPCO 2009)》 *
杨嘉琛 等: "基于人眼视觉特征的立体图像质量客观评价方法", 《天津大学学报》 *
殷虎 等: "一种基于彩色图像分割的立体匹配算法", 《红外技术》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104079912A (zh) * 2013-03-29 2014-10-01 索尼公司 图像处理装置和图像处理方法
US9684964B2 (en) 2013-03-29 2017-06-20 Sony Corporation Image processing apparatus and image processing method for determining disparity
CN104240219A (zh) * 2013-06-13 2014-12-24 株式会社理光 配置视差值的方法和系统
CN104240219B (zh) * 2013-06-13 2017-08-08 株式会社理光 配置视差值的方法和系统
CN104200453B (zh) * 2014-09-15 2017-01-25 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
CN104200453A (zh) * 2014-09-15 2014-12-10 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
CN105007478A (zh) * 2015-07-08 2015-10-28 南京信息工程大学 一种基于mean shift立体匹配的视图合成方法
CN104966303A (zh) * 2015-07-21 2015-10-07 兰州理工大学 一种基于马尔可夫随机场的视差图精化方法
CN104966303B (zh) * 2015-07-21 2018-02-06 兰州理工大学 一种基于马尔可夫随机场的视差图精化方法
CN106097336A (zh) * 2016-06-07 2016-11-09 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法
CN106097336B (zh) * 2016-06-07 2019-01-22 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法
CN107133977A (zh) * 2017-05-18 2017-09-05 华中科技大学 一种基于概率产生模型的快速立体匹配方法
CN107316326A (zh) * 2017-06-29 2017-11-03 海信集团有限公司 应用于双目立体视觉的基于边的视差图计算方法和装置
CN107316326B (zh) * 2017-06-29 2020-10-30 海信集团有限公司 应用于双目立体视觉的基于边的视差图计算方法和装置
CN108062741A (zh) * 2017-12-15 2018-05-22 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置和电子设备
CN108062741B (zh) * 2017-12-15 2021-08-06 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置和电子设备
CN109903379A (zh) * 2019-03-05 2019-06-18 电子科技大学 一种基于点云优化采样的三维重建方法

Also Published As

Publication number Publication date
CN102819843B (zh) 2014-10-29

Similar Documents

Publication Publication Date Title
CN102819843B (zh) 基于边界控制置信传播的立体图像视差估计方法
CN102074020B (zh) 对视频进行多体深度恢复和分割的方法
CN103310421B (zh) 针对高清图像对的快速立体匹配方法及视差图获取方法
CN102136136B (zh) 基于自适应Census变换的光度不敏感立体匹配方法
CN101383054B (zh) 一种基于图像与扫描数据的混合三维重建方法
CN103996174B (zh) 一种对Kinect深度图像进行空洞修复的方法
CN102184540B (zh) 基于尺度空间的亚像素级立体匹配方法
CN104867133B (zh) 一种快速的分步立体匹配方法
CN103456038A (zh) 一种井下环境三维场景重建方法
CN103236082A (zh) 面向捕获静止场景的二维视频的准三维重建方法
CN104318576B (zh) 一种超像素级别的图像全局匹配方法
CN103646396A (zh) 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN104065947A (zh) 一种集成成像系统的深度图获取方法
CN103702103B (zh) 基于双目相机的光栅立体印刷图像合成方法
CN103383776A (zh) 一种基于分段匹配和贝叶斯估计的递进式立体匹配算法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN104156957A (zh) 一种稳定高效的高分辨率立体匹配方法
CN102496183A (zh) 基于互联网照片集的多视角立体重构方法
CN103458261A (zh) 一种基于立体视觉的视频场景变化检测方法
CN103106651A (zh) 一种基于三维hough变换的获取视差平面的方法
CN103971366A (zh) 一种基于双权重聚合的立体匹配方法
CN102609950A (zh) 一种二维视频深度图的生成方法
CN103714549A (zh) 基于快速局部匹配的立体图像对象分割方法
CN108830895A (zh) 一种立体匹配中基于分割的局部扩张移动方法
CN103295229A (zh) 视频深度信息恢复的全局立体匹配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant