CN104166987B - 一种基于改进的自适应加权和置信度传播的视差估计方法 - Google Patents

一种基于改进的自适应加权和置信度传播的视差估计方法 Download PDF

Info

Publication number
CN104166987B
CN104166987B CN201410323405.9A CN201410323405A CN104166987B CN 104166987 B CN104166987 B CN 104166987B CN 201410323405 A CN201410323405 A CN 201410323405A CN 104166987 B CN104166987 B CN 104166987B
Authority
CN
China
Prior art keywords
pixel
parallax
formula
disparity map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410323405.9A
Other languages
English (en)
Other versions
CN104166987A (zh
Inventor
荣宪伟
薛远洋
于晓艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Normal University
Original Assignee
Harbin Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Normal University filed Critical Harbin Normal University
Priority to CN201410323405.9A priority Critical patent/CN104166987B/zh
Publication of CN104166987A publication Critical patent/CN104166987A/zh
Application granted granted Critical
Publication of CN104166987B publication Critical patent/CN104166987B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

一种基于改进的自适应加权和置信度传播的视差估计方法,属于计算机立体视觉技术领域。本发明为了解决现有的匹配算法计算的视差在遮挡区域、深度不连续区域匹配精度低;高精度匹配算法的计算量大,可实施性差;基于分割的细化方法视差平面评估不准确的问题。本发明的技术要点为:利用加权等级变换方法计算匹配像素间的相关值;通过改进的自适应加权方法对遮挡像素进行重新匹配;利用改进的置信度传播算法对视差图进行全局优化;利用细化模块对视差图进行精细化;再次利用改进的置信度传播算法和相关值和视差图进行全局优化。本发明可应用于立体图像分割、立体视频编码、机器人视觉,目标跟踪等领域。

Description

一种基于改进的自适应加权和置信度传播的视差估计方法
技术领域
本发明涉及一种视差估计方法,尤其涉及一种基于改进的自适应加权和置信度传播的视差估计方法,属于计算机立体视觉技术领域。
背景技术
视差评估是计算机立体视觉的基础,近年来随着计算机性能的提升,视差评估越来越受人们关注,在军事、航空、机器人导航等领域有着广泛的应用前景。目前已有的视差估计算法可以分为局部算法和全局算法两大类。通常来讲,局部算法的计算速度快,但视差计算精度低,而全局算法的视差计算精度高,但算法的复杂度大,难于实施。通过对现有技术文献的检索发现,精度较高的局部匹配算法有Yoon在2006年提出的自适应加权算法。该算法通过利用颜色相似度和空间邻近度为匹配窗口内像素分配合理的权重值,提高了视差图的精度,但该算法在图像的遮挡区域匹配精度不高。
遮挡像素的处理是立体匹配过程中最为困难的问题之一。一些算法通过左右一致性检测方法标记遮挡像素,然后利用全局算法或视差细化方法来减少遮挡区域的误匹配。例如置信度传播算法可通过多次迭代将可靠的信息传递给不可靠的信息,但重复的迭代过程,使算法不利于实施。
基于分割的细化方法被广泛的用于立体匹配算法,该类细化方法过于依赖分割算法的精准度,但是一组分割算法的系数不能适用于各种类型的匹配图像。分割算法系数选择过小会导致图像被过分割。系数选择过大,会导致图像被欠分割,这都会使视差平面的评估不准确。
发明内容
本发明的目的在于提供一种基于改进的自适应加权和置信度传播的视差估计方法,以解决针对现有的匹配算法计算的视差在遮挡区域、深度不连续区域匹配精度低;高精度匹配算法的计算量大,可实施性差;基于分割的细化方法视差平面评估不准确的问题。
本发明为解决上述技术问题所采用的技术方案是:
本发明所述的一种基于改进的自适应加权和置信度传播的视差估计方法,包括以下步骤:步骤一、利用加权等级变换方法计算匹配像素间的相关值CL
步骤二、利用左右一致性检测方法检测图像中的遮挡像素,并通过改进的自
适应加权方法对遮挡像素进行重新匹配,生成初始视差图D1和初始相关值C1
其中,自适应加权方法的改进过程如下:
假设f(x,y)代表参考图像中某一点,f(x+i,y+j)代表以像素f(x,y)为中心的匹配窗口内的像素,窗口内像素权重的计算如公式(1)所示:
W x , y f ( i , j ) = exp ( - ( Δ C x , y f ( i , j ) β aw + Δ G x , y f ( i , j ) γ aw ) ) - - - ( 1 )
其中,f代表参考图像(左图像)的像素值,βaw和γaw分别为颜色相似度和空间邻近度的计算系数,ΔC代表中心像素f(x,y)与周围像素f(x+i,y+j)在Lab颜色空间的欧几里得距离,c代表Lab颜色通道,通过公式(2)计算,ΔG代表f(x,y)与f(x+i,y+j)间的空间距离,通过公式(3)计算:
Δ C x , y f ( i , j ) = Σ c ∈ { Lab } ( f c ( x + i , y + j ) - f c ( x , y ) ) 2 - - - ( 2 )
Δ G x , y f ( i , j ) = i 2 + j 2 - - - ( 3 )
计算目标窗口的像素权重;
步骤三、利用改进的置信度传播算法对视差图D1进行全局优化,生成新的视差图D2
其中,置信度传播算法的改进过程如下:
在第t次迭代时刻,节点p传递到周围节点q的信息的计算如公式(10)所示:
m p → q t ( d ) = max d φ p ( d ) ψ p , q ( I , d ) Π s ∈ N ( p ) \ q m s → p t - 1 ( d ) - - - ( 10 )
其中,N(p)\q代表除q以外的p的周围节点,φp(d)代表节点q的局部匹配代价的聚合,利用相关值C1放大αbp倍后计算e的指数得到,如公式(11)所示:
φp(d)=exp(αbp×Cp(d)) (11)
其中,αbp为恒定的算法系数,通过经验获得;
Ψp,q(I,d)代表平滑函数,当周围临近的像素违背平滑约束的时候做出惩罚,本发明结合像素的亮度差和视差差来定义置信度传播算法的平滑函数,改进后如公式(12):
ψp,q(I,d)=exp(-h1(ΔIpq)×h2(Δdpq)) (12)
其中I代表像素的亮度值,d代表像素的视差,p和q代表两个相邻的像素,当周围临近的像素违背平滑约束的时候做出惩罚,其中函数h1和h2分别通过公式(13)、(14)表示:
h 1 ( Δ I pq ) = μ bp , ifΔ I pq > β bp λ bp × μ bp , otherwise - - - ( 13 )
h2(Δdpq)=min(γbp,|Δdpq|)+δbp (14)
公式中ΔIpq代表图像中p和q的像素亮度差,βbp代表像素亮度差的阈值,λbp和μbp代表平滑惩罚系数,通过经验获得,Δdpq代表p和q视差的差,γbp和δbp为恒定的系数,通过经验获得,γbp代表截断阈值,用于限制平滑强度的,而δbp的设置用于保证一定量的平滑强度;
步骤四、利用细化模块对视差图D2进行精细化,并生成相关值C2,视差图D3
步骤五、再次利用改进的置信度传播算法和相关值C2和视差图D3进行全局优化,得到最终的视差图Df
本发明的有益效果是:
一、遮挡区域容易产生误匹配,是立体匹配的难点,本发明对自适应加权算法进行改进,使改进的自适应加权算法在遮挡区域的误匹配减少,其中改进算法针对Tsukuba图像的遮挡区误匹配率减少了69.8%,而对于Venus图像、Teddy图像和Cones图像,在遮挡区误匹配率分别减少了28.7%、15.9%和20.9%,提高了视差图的质量和匹配的效率。
二、置信度传播算法在全局优化时需要多次迭代,算法计算量大,本发明将置信度传播算法改进,使改进的置信度传播算法的信息传递效率高,生成的视差图质量更好,针对Tsukuba图像、Venus图像、Teddy图像和Cones图像的匹配精确度分别提高了1.63%、1.42%、1.6%、1.02%,并且收敛速度快,只需要一次迭代就可完成收敛,从而减少了该算法的计算量。
三、本发明提出的细化方法和可信度检测方法利用不同的分割算法系数分割两次的策略,使分割算法分割不准确导致的视差评估错误的问题得到解决,并且能够简便快速的获得可信视差。
附图说明
图1为本发明的算法流程图。图2为细化模块中的可信度检测方法的流程图。图3为实验时采用的标准立体图像对的左图像,它们从左至右依次分别是Tsukuba图像、Venus图像、Teddy图像和Cones图像。图4为图3中四幅立体图像的真实视差图。图5中,图5(a)为本发明产生的最终视差图,图5(b)为视差图的误匹配像素,其中灰色为遮挡区域的误匹配像素,黑色为普通区域的误匹配像素,误匹配阈值设为1。
图6显示了在变化的窗口尺寸的条件下,改进的自适应加权算法与原自适应加权算法利用Venus图像产生的视差图在非遮挡区域(nonocc)、全部区域(all)和深度不连续区域(disc)的误匹配率,其中菱形折线代表非遮挡区域,圆形折线代表全部区域,三角形折线代表深度不连续区域,实线代表改进算法,虚线代表自适应加权算法,横坐标代表窗口尺寸,纵坐标代表误匹配率。
图7显示了在变化的窗口尺寸条件下,改进的自适应加权算法与原自适应加权算法针对Venus图像在遮挡区域的误匹配率比较,实线代表改进算法,虚线代表原算法,横坐标代表窗口尺寸,纵坐标代表误匹配率。
图8显示了在不同迭代次数条件下改进的置信度传播算法与原置信度传播算法的性能比较,其中横坐标代表置信度传播算法的迭代次数,纵坐标代表在图像全部区域的误匹配率。在第0次迭代时的误匹配率为经过加权Rank变换和遮挡处理后视差图D1的误匹配率。三角形和圆形折线代表改进的置信度传播算法分别在δbp设为3和0时的误匹配率,菱形折线代表原置信度传播算法的误匹配率。
具体实施方式
下面结合附图对本发明的视差估计方法作进一步的描述。
具体实施方式一:本发明所述的一种基于改进的自适应加权和置信度传播的视差估计方法,包括以下步骤:
步骤一、利用加权等级变换方法计算匹配像素间的相关值CL
步骤二、利用左右一致性检测方法检测图像中的遮挡像素,并通过改进的自
适应加权方法对遮挡像素进行重新匹配,生成初始视差图D1和初始相关值C1
其中,自适应加权方法的改进过程如下:
假设f(x,y)代表参考图像中某一点,f(x+i,y+j)代表以像素f(x,y)为中心的匹配窗口内的像素,窗口内像素权重的计算如公式(1)所示:
W x , y f ( i , j ) = exp ( - ( Δ C x , y f ( i , j ) β aw + Δ G x , y f ( i , j ) γ aw ) ) - - - ( 1 )
其中,f代表参考图像(左图像)的像素值,βaw和γaw分别为颜色相似度和空间邻近度的计算系数,ΔC代表中心像素f(x,y)与周围像素f(x+i,y+j)在Lab颜色空间的欧几里得距离,c代表Lab颜色通道,通过公式(2)计算,ΔG代表f(x,y)与f(x+i,y+j)间的空间距离,通过公式(3)计算:
Δ C x , y f ( i , j ) = Σ c ∈ { Lab } ( f c ( x + i , y + j ) - f c ( x , y ) ) 2 - - - ( 2 )
Δ G x , y f ( i , j ) = i 2 + j 2 - - - ( 3 )
计算目标窗口的像素权重;
步骤三、利用改进的置信度传播算法对视差图D1进行全局优化,生成新的视差图D2
其中,置信度传播算法的改进过程如下:
在第t次迭代时刻,节点p传递到周围节点q的信息的计算如公式(10)所示:
m p → q t ( d ) = max d φ p ( d ) ψ p , q ( I , d ) Π s ∈ N ( p ) \ q m s → p t - 1 ( d ) - - - ( 10 )
其中,N(p)\q代表除q以外的p的周围节点,φp(d)代表节点q的局部匹配代价的聚合,利用相关值C1放大αbp倍后计算e的指数得到,如公式(11)所示:
φp(d)=exp(αbp×Cp(d)) (11)
其中,αbp为恒定的算法系数,通过经验获得;
Ψp,q(I,d)代表平滑函数,当周围临近的像素违背平滑约束的时候做出惩罚,本发明结合像素的亮度差和视差差来定义置信度传播算法的平滑函数,改进后如公式(12):
ψp,q(I,d)=exp(-h1(ΔIpq)×h2(Δdpq)) (12)
其中I代表像素的亮度值,d代表像素的视差,p和q代表两个相邻的像素,当周围临近的像素违背平滑约束的时候做出惩罚,其中函数h1和h2分别通过公式(13)、(14)表示:
h 1 ( Δ I pq ) = μ bp , ifΔ I pq > β bp λ bp × μ bp , otherwise - - - ( 13 )
h2(Δdpq)=min(γbp,|Δdpq|)+δbp (14)
公式中ΔIpq代表图像中p和q的像素亮度差,βbp代表像素亮度差的阈值,λbp和μbp代表平滑惩罚系数,通过经验获得,Δdpq代表p和q视差的差,γbp和δbp为恒定的系数,通过经验获得,γbp代表截断阈值,用于限制平滑强度的,而δbp的设置用于保证一定量的平滑强度;
步骤四、利用细化模块对视差图D2进行精细化,并生成相关值C2,视差图D3
步骤五、再次利用改进的置信度传播算法和相关值C2和视差图D3进行全局优化,得到最终的视差图Df。结合图1理解本实施方式。
具体实施方式二:本实施方式与具体实施方式一不同的是:步骤二所述的对遮挡像素进行重新匹配过程为:
参考匹配窗口与目标匹配窗口的初始匹配代价的计算如公式(6)所示:
TAD x , y , d ( i , j ) = min { Σ c ∈ { RGB } | f c ( x + i , y + j ) - g c ( x - d + i , y + j ) | , δ aw } - - - ( 6 )
其中c代表RGB颜色通道,g代表目标图像的像素值,δaw代表截断阈值,d代表像素的视差;
参考像素与目标像素间的不相似度E通过公式(7)计算:
E x , y ( d ) = Σ i = - n n Σ j = - n n W x , y f ( i , j ) W x - d , y g ( i , j ) TAD x , y , d ( i , j ) Σ i = - n n Σ j = - n n W x , y f ( i , j ) W x - d , y g ( i , j ) - - - ( 7 )
其中参考窗口的像素权重与目标窗口的像素权重分别通过公式(1)计算;
最后利用赢者带走全部方法(Winner take all)选择不相似度最小的值所对应的视差值作为像素的视差,将视差图DL更新,生成新的视差图D1,如公式(8)所示:
dx,y=argminEx,y(d) (8)
公式中dx,y代表(x,y)点的视差;
通过公式(7)计算遮挡像素的不相似度,然后按照公式(9)更新遮挡像素的相关值,将相关值CL更新,并生成新的相关值C1
Cx,y(d)=λawexp(-Ex,y(d)) (9)
其中λaw为恒定的算法系数,通过经验获得。结合图2理解本实施方式。其它步骤与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一不同的是:步骤二所述的计算目标窗口的像素权重的过程为:
计算目标窗口的中心像素g(x-d,y)与周围像素g(x-d+i,y+j)在Lab颜色空间的欧几里得距离,如公式(4)所示:
Δ C x - d , y g ( i , j ) = Σ c ∈ { Lab } ( g c ( x - d + i , y + j ) - g c ( x - d , y ) ) 2 - - - ( 4 )
其中g代表目标图像(右图像)的像素值,d代表视差;
对目标窗口像素权重计算进行改进,进而对遮挡像素进行重新匹配:
在计算目标窗口的中心像素g(x-d,y)与周围像素g(x-d+i,y+j),在Lab颜色空间的欧几里得距离时,将目标像素的中心g(x-d,y)利用参考像素中心f(x,y)代替,改进后如公式(5):
Δ C x - d , y g ( i , j ) = Σ c ∈ { Lab } ( g c ( x - d + i , y + j ) - f c ( x , y ) ) 2 - - - ( 5 ) .
其它步骤与具体实施方式二相同。
具体实施方式四:本实施方式与具体实施方式一不同的是:步骤三所述的新的视差图D2的生成过程为:
经过Tbp次迭代后节点q的可信度bq(d)通过公式(15)计算:
b q ( d ) = φ q ( d ) Π p ∈ N ( q ) m p → q T bp ( d ) - - - ( 15 )
将迭代次数Tbp设为1,节点q的视差dq通过公式(16)计算,并生成新的视差图D2
dq=argmaxbq(d) (16)。
其它步骤与具体实施方式三相同。
具体实施方式五:本实施方式与具体实施方式一不同的是:步骤四所述的利用细化模块对像素视差进行精细化,是由如下步骤实现的:
步骤四(一)、利用均值漂移分割方法对原图像的左图像(参考图像)进行两种不同算法系数的分割计算,分别为:过分割一次(使用较小的算法系数),欠分割一次(使用较大的算法系数),分别产生过分割图像和欠分割图像;
步骤四(二)、通过平面拟合方法,利用分割两次的结果和步骤三生成的视差图D2,分别进行视差平面拟合,生成两个平面拟合结果(视差平面)DO和DU
步骤四(三)、利用可信度检测确定可信视差;
将图像中每个像素的两次平面拟合结果(视差平面)做绝对差,如果绝对差值小于设定的阈值则认为是可信视差,选择DU作为视差图,如果大于则认为是不可信视差,需要判断该像素是否为遮挡像素,如果是遮挡像素则选择DU,非遮挡像素选择步骤二产生的视差图(D1)作为视差,生成新的视差图D3;并且利用视差图D3更新相关值C1(步骤二生成的结果),生成新的相关值C2,如公式(17):
C 2 = C 1 - ( α cc × ( d R - D 3 ) ) β cc if | D o - D u | > λ cc C 1 - α cc × ( d R - D 3 ) if otherwise - - - ( 17 )
其中,dR为图像的视差范围,αcc和βcc分别为恒定系数,通过经验获得,λcc设为立体图像对的视差比例。其它步骤与具体实施方式四相同。
本发明的实验验证如下:
图3为实验时采用的标准立体图像对的左图像,它们从左至右依次分别是Tsukuba图像、Venus图像、Teddy图像和Cones图像。其中Tsukuba的分辨率为384×288,视差范围为[0,15],由于该图中场景物体较多,并且有较多的深度不 连续区域和弱纹理区域,给利用局部算法计算视差带来一定困难。Venus的分辨率为434×383,视差范围为[0,19],图像的背景含有较多的弱纹理区域,前景是杂志和报纸。Teddy图像的分辨率为450×375,视差范围为[0,59],该图像含有较多的遮挡像素和重复纹理的区域。Cones图像的分辨率为450×375,视差范围为[0,59],该图像的前景物体是锥形体,并且部分区域的背景与前景物体的颜色较为接近。
图4为图3中四幅立体图像的真实视差图。
图5(a)为本发明产生的最终视差图。图5(b)为视差图误匹配像素,其中灰色为遮挡区域的误匹配像素,黑色为普通区域的误匹配像素,误匹配阈值设为1。可以看出本发明算法生成的视差图质量较高,在图像的弱纹理区域和深度不连续区域的误匹配像素较少。
图6显示了在变化的窗口尺寸的条件下,改进的自适应加权算法与原自适应加权算法利用Venus图像产生的视差图在非遮挡区域(nonocc)、全部区域(all)和深度不连续区域(disc)的误匹配率,其中菱形折线代表非遮挡区域,圆形折线代表全部区域,三角形折线代表深度不连续区域,实线代表改进的自适应加权算法,虚线代表原自适应加权算法,横坐标代表窗口尺寸,纵坐标代表误匹配率。从图6中可以看出改进的自适应加权算法在图像中各个区域的误匹配率都有不同程度的减小。
图7显示了在变化的窗口尺寸条件下,改进的自适应加权算法与原自适应加权算法针对Venus图像在遮挡区域的误匹配率比较,实线代表改进算法,虚线代表原自适应加权算法,横坐标代表窗口尺寸,纵坐标代表误匹配率。可以看出与原自适应加权算法相比,改进的自适应加权算法在图像的遮挡区域的误匹配率明显减少。
图8显示了在不同迭代次数条件下改进的置信度传播算法与原置信度传播算法的性能比较,其中横坐标代表置信度传播算法的迭代次数,纵坐标代表在图像全部区域的误匹配率。在第0次迭代时的误匹配率为经过加权Rank变换和遮挡处理后视差图D1的误匹配率。三角形和圆形折线代表改进的置信度传播算法分别在δbp设为3和0时的误匹配率,菱形折线代表原置信度传播算法的误匹配率。可以看出,与原置信度传播算法算法相比,改进的置信度传播算法生成的视 差图误匹配率更低;改进的置信度传播算法在通过第一次迭代后,误匹配率几乎没有再次降低,说明一次迭代可以完成收敛,收敛速度快,计算量小;δbp为0时,在第一次迭代后误匹配率没有降到最小值,并且最终的误匹配率较大,这说明本发明提出的改进的置信度传播算法的δbp的设置对节点间信息传递的速度和信息量的大小起促进作用。

Claims (5)

1.一种基于改进的自适应加权和置信度传播的视差估计方法,其特征在于所述方法是按照以下步骤实现的:
步骤一、利用加权等级变换方法计算匹配像素间的相关值CL
步骤二、利用左右一致性检测方法检测图像中的遮挡像素,并通过改进的自适应加权方法对遮挡像素进行重新匹配,生成初始视差图D1和初始相关值C1
其中,自适应加权方法的改进过程如下:
假设f(x,y)代表参考图像中某一点,f(x+i,y+j)代表以像素f(x,y)为中心的匹配窗口内的像素,窗口内像素权重的计算如公式(1)所示:
W x , y f ( i , j ) = exp ( - ( ΔC x , y f ( i , j ) β a w + ΔG x , y f ( i , j ) γ a w ) ) - - - ( 1 )
其中,f代表参考图像的像素值,βaw和γaw分别为颜色相似度和空间邻近度的计算系数,ΔC代表中心像素f(x,y)与周围像素f(x+i,y+j)在Lab颜色空间的欧几里得距离,通过公式(2)计算,其中c代表Lab颜色通道,ΔG代表f(x,y)与f(x+i,y+j)间的空间距离,通过公式(3)计算:
ΔC x , y f ( i , j ) = Σ c ∈ { L a b } ( f c ( x + i , y + j ) - f c ( x , y ) ) 2 - - - ( 2 )
ΔG x , y f ( i , j ) = i 2 + j 2 - - - ( 3 )
计算目标窗口的像素权重;
步骤三、利用改进的置信度传播算法对视差图D1进行全局优化,生成新的视差图D2
其中,置信度传播算法的改进过程如下:
在第t次迭代时刻,节点p传递到周围节点q的信息的计算如公式(10)所示:
m p → q t ( d ) = m a x d φ p ( d ) ψ p , q ( I , d ) Π s ∈ N ( p ) \ q m s → p t - 1 ( d ) - - - ( 10 )
其中,N(p)\q代表除q以外的p的周围节点,φp(d)代表节点q的局部匹配代价的聚合,利用相关值C1放大αbp倍后计算e的指数得到,如公式(11)所示:
φp(d)=exp(αbp×Cp(d)) (11)
其中,αbp为恒定的算法系数,通过经验获得;
Ψp,q(I,d)代表平滑函数,当周围临近的像素违背平滑约束的时候做出惩罚,改进后如公式(12):
ψp,q(I,d)=exp(-h1(△Ipq)×h2(△dpq)) (12)
其中I代表像素的亮度值,d代表像素的视差,p和q代表两个相邻的像素,当周围临近的像素违背平滑约束的时候做出惩罚,其中函数h1和h2分别通过公式(13)、(14)表示:
h 1 ( ΔI p q ) = μ b p , ifΔI p q > β b p λ b p × μ b p , o t h e r w i s e - - - ( 13 )
h2(△dpq)=min(γbp,|△dpq|)+δbp (14)
公式中ΔIpq代表图像中p和q的像素亮度差,βbp代表像素亮度差的阈值,λbp和μbp代表平滑惩罚系数,通过经验获得,Δdpq代表p和q视差的差,γbp和δbp为恒定的系数,通过经验获得,γbp代表截断阈值,用于限制平滑强度的,而δbp的设置用于保证一定量的平滑强度;
步骤四、利用细化模块对视差图D2进行精细化,并生成相关值C2,视差图D3
步骤五、再次利用改进的置信度传播算法和相关值C2和视差图D3进行全局优化,得到最终的视差图Df
2.如权利要求1所述的一种基于改进的自适应加权和置信度传播的视差估计方法,其特征在于步骤二所述的对遮挡像素进行重新匹配过程为:
参考匹配窗口与目标匹配窗口的初始匹配代价的计算如公式(6)所示:
TAD x , y , d ( i , j ) = m i n { Σ c ∈ { L a b } | f c ( x + i , y + j ) - g c ( x - d + i , y + j ) | , δ a w } - - - ( 6 )
其中c代表Lab颜色通道,g代表目标图像的像素值,δaw代表截断阈值,d代表像素的视差;
参考像素与目标像素间的不相似度E通过公式(7)计算:
E x , y ( d ) = Σ i = - n n Σ j = - n n W x , y f ( i , j ) W x - d , y g ( i , j ) TAD x , y , d ( i , j ) Σ i = - n n Σ j = - n n W x , y f ( i , j ) W x - d , y g ( i , j ) - - - ( 7 )
其中参考窗口的像素权重与目标窗口的像素权重分别通过公式(1)计算;
最后利用赢者带走全部方法选择不相似度最小的值所对应的视差值作为像素的视差,将视差图DL更新,生成新的视差图D1,如公式(8)所示:
dx,y=arg min Ex,y(d) (8)
公式中dx,y代表(x,y)点的视差;
通过公式(7)计算遮挡像素的不相似度,然后按照公式(9)更新遮挡像素的相关值,将相关值CL更新,并生成新的相关值C1
Cx,y(d)=λaw exp(-Ex,y(d)) (9)
其中λaw为恒定的算法系数,通过经验获得。
3.如权利要求2所述的一种基于改进的自适应加权和置信度传播的视差估计方法,其特征在于步骤二所述的计算目标窗口的像素权重的过程为:
计算目标窗口的中心像素g(x-d,y)与周围像素g(x-d+i,y+j)在Lab颜色空间的欧几里得距离,如公式(4)所示:
ΔC x - d , y g ( i , j ) = Σ c ∈ { L a b } ( g c ( x - d + i , y + j ) - g c ( x - d , y ) ) 2 - - - ( 4 )
其中g代表目标图像的像素值,d代表视差;
对目标窗口像素权重计算进行改进,进而对遮挡像素进行重新匹配:
在计算目标窗口的中心像素g(x-d,y)与周围像素g(x-d+i,y+j),在Lab颜色空间的欧几里得距离时,将目标像素的中心g(x-d,y)利用参考像素中心f(x,y)代替,改进后如公式(5):
ΔC x - d , y g ( i , j ) = Σ c ∈ { L a b } ( g c ( x - d + i , y + j ) - f c ( x , y ) ) 2 - - - ( 5 ) .
4.如权利要求3所述的一种基于改进的自适应加权和置信度传播的视差估计方法,其特征在于步骤三所述的新的视差图D2的生成过程为:
经过Tbp次迭代后节点q的可信度bq(d)通过公式(15)计算:
b q ( d ) = φ q ( d ) Π p ∈ N ( q ) m p → q T b p ( d ) - - - ( 15 )
将迭代次数Tbp设为1,节点q的视差dq通过公式(16)计算,并生成新的视差图D2
dq=arg max bq(d) (16)。
5.如权利要求4所述的一种基于改进的自适应加权和置信度传播的视差估计方法,其特征在于步骤四所述的利用细化模块对像素视差进行精细化,是由如下步骤实现的:
步骤四(一)、利用均值漂移分割方法对原图像的左图像进行两种不同算法系数的分割计算,分别为:过分割一次,欠分割一次,分别产生过分割图像和欠分割图像;
步骤四(二)、通过平面拟合方法,利用分割两次的结果和步骤三生成的视差图D2,分别进行视差平面拟合,生成两个平面拟合结果(视差平面)DO和DU
步骤四(三)、利用可信度检测确定可信视差;
将图像中每个像素的两次平面拟合结果做绝对差,如果绝对差值小于设定的阈值则认为是可信视差,选择DU作为视差图,如果大于则认为是不可信视差,需要判断该像素是否为遮挡像素,如果是遮挡像素则选择DU,非遮挡像素选择步骤二产生的视差图(D1)作为视差,生成新的视差图D3;并且利用视差图D3更新相关值C1,生成新的相关值C2,如公式(17):
C 2 = C 1 - ( α c c × ( d R - D 3 ) ) β c c i f | D o - D u | > λ c c C 1 - α c c × ( d R - D 3 ) i f o t h e r w i s e - - - ( 17 )
其中,dR为图像的视差范围,αcc和βcc分别为恒定系数,通过经验获得,λcc设为立体图像对的视差比例。
CN201410323405.9A 2014-07-08 2014-07-08 一种基于改进的自适应加权和置信度传播的视差估计方法 Expired - Fee Related CN104166987B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410323405.9A CN104166987B (zh) 2014-07-08 2014-07-08 一种基于改进的自适应加权和置信度传播的视差估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410323405.9A CN104166987B (zh) 2014-07-08 2014-07-08 一种基于改进的自适应加权和置信度传播的视差估计方法

Publications (2)

Publication Number Publication Date
CN104166987A CN104166987A (zh) 2014-11-26
CN104166987B true CN104166987B (zh) 2017-01-25

Family

ID=51910778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410323405.9A Expired - Fee Related CN104166987B (zh) 2014-07-08 2014-07-08 一种基于改进的自适应加权和置信度传播的视差估计方法

Country Status (1)

Country Link
CN (1) CN104166987B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139401A (zh) * 2015-08-31 2015-12-09 山东中金融仕文化科技股份有限公司 一种深度图中深度的可信度的评估方法
KR101684194B1 (ko) * 2015-12-17 2016-12-07 재단법인 다차원 스마트 아이티 융합시스템 연구단 초점 맞는 피사체 거리 스캔(focusing distance scan)을 통하여 깊이 정확도를 향상시키는 멀티 애퍼처 카메라 시스템
CN105812769B (zh) * 2016-04-06 2018-04-03 四川大学 基于相位相关的高精度视差跟踪器
CN106548490B (zh) * 2016-09-27 2019-03-05 温州大学 一种基于局部线性模型的光照不敏感快速立体匹配方法
CN106530333B (zh) * 2016-10-10 2019-06-21 天津大学 基于捆绑约束的分级优化立体匹配方法
CN107204013B (zh) * 2017-05-22 2020-04-24 海信集团有限公司 应用于双目立体视觉中的像素点视差值计算方法及装置
CN108230338B (zh) * 2018-01-11 2021-09-28 温州大学 一种基于卷积神经网络的立体图像分割方法
CN112435267B (zh) * 2020-11-17 2023-03-17 哈尔滨工程大学 一种高分辨率城市卫星立体图像的视差图计算方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853508A (zh) * 2010-06-08 2010-10-06 浙江工业大学 基于方向集的泛化置信度传播的双目立体视觉匹配方法
CN101901483A (zh) * 2010-06-08 2010-12-01 浙江工业大学 泛化置信度传播的双目立体视觉匹配方法
CN102609936A (zh) * 2012-01-10 2012-07-25 四川长虹电器股份有限公司 基于置信度传播的图像立体匹配方法
EP2744207A1 (en) * 2011-10-13 2014-06-18 Sony Corporation Image processing device, image processing unit, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853508A (zh) * 2010-06-08 2010-10-06 浙江工业大学 基于方向集的泛化置信度传播的双目立体视觉匹配方法
CN101901483A (zh) * 2010-06-08 2010-12-01 浙江工业大学 泛化置信度传播的双目立体视觉匹配方法
EP2744207A1 (en) * 2011-10-13 2014-06-18 Sony Corporation Image processing device, image processing unit, and program
CN102609936A (zh) * 2012-01-10 2012-07-25 四川长虹电器股份有限公司 基于置信度传播的图像立体匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
融合自适应权重和置信传播的立体匹配算法;张永平等;《杭州电子科技大学学报》;20120430;第32卷(第2期);全文 *

Also Published As

Publication number Publication date
CN104166987A (zh) 2014-11-26

Similar Documents

Publication Publication Date Title
CN104166987B (zh) 一种基于改进的自适应加权和置信度传播的视差估计方法
US8644596B1 (en) Conversion of monoscopic visual content using image-depth database
CN102999913B (zh) 一种基于可信点传播的局部立体匹配方法
CN103226821B (zh) 基于视差图像素分类校正优化的立体匹配方法
De-Maeztu et al. Stereo matching using gradient similarity and locally adaptive support-weight
US9509971B2 (en) Image processing device, image processing method, and program
CN102074014B (zh) 一种利用基于图论的图像分割算法的立体匹配方法
CN101271578B (zh) 一种平面视频转立体视频技术中的深度序列生成方法
CN103310421B (zh) 针对高清图像对的快速立体匹配方法及视差图获取方法
CN105528785A (zh) 一种双目视觉图像立体匹配方法
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CN103106651A (zh) 一种基于三维hough变换的获取视差平面的方法
CN104065946B (zh) 基于图像序列的空洞填充方法
CN105551035A (zh) 一种基于弱边缘与纹理分类的立体视觉匹配方法
CN103646396A (zh) 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN104867133A (zh) 一种快速的分步立体匹配方法
CN106952304B (zh) 一种利用视频序列帧间相关性的深度图像计算方法
CN106600632A (zh) 一种改进匹配代价聚合的立体匹配算法
CN104835146A (zh) 基于深度信息和图切割的立体图像中显著对象分割方法
JP2012253666A (ja) 画像理装置および方法、並びにプログラム
CN102447917A (zh) 立体图像匹配方法及其设备
CN103985128A (zh) 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN105023263B (zh) 一种基于区域生长的遮挡检测和视差校正的方法
US7602966B2 (en) Image processing method, image processing apparatus, program and recording medium
CN108629809A (zh) 一种精确高效的立体匹配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170125

Termination date: 20180708