CN103226821B - 基于视差图像素分类校正优化的立体匹配方法 - Google Patents

基于视差图像素分类校正优化的立体匹配方法 Download PDF

Info

Publication number
CN103226821B
CN103226821B CN201310153607.9A CN201310153607A CN103226821B CN 103226821 B CN103226821 B CN 103226821B CN 201310153607 A CN201310153607 A CN 201310153607A CN 103226821 B CN103226821 B CN 103226821B
Authority
CN
China
Prior art keywords
pixel
parallax
disparity map
value
parallax value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310153607.9A
Other languages
English (en)
Other versions
CN103226821A (zh
Inventor
张丽红
何树成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi University
Original Assignee
Shanxi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanxi University filed Critical Shanxi University
Priority to CN201310153607.9A priority Critical patent/CN103226821B/zh
Publication of CN103226821A publication Critical patent/CN103226821A/zh
Application granted granted Critical
Publication of CN103226821B publication Critical patent/CN103226821B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及立体视觉技术领域,具体为一种立体匹配方法,解决现有立体匹配方法存在视差校正优化不够精确的问题。一种基于视差图像素分类校正优化的立体匹配方法,包括如下步骤:(Ⅰ)以左、右视图为参考,基于灰度差和梯度相结合的方法来进行代价聚合,得到左、右视差图,并经过左右一致性检测生成初始可靠视差图;(Ⅱ)进行相关置信度检测和弱纹理区域检测,将像素分类为稳定匹配像素点、不稳定匹配像素点、闭塞区域像素点、弱纹理区域像素点;(Ⅲ)对不稳定匹配点采用基于改进的自适应权重算法进行校正,对闭塞区域点和弱纹理区域点采用误匹配像素校正方法进行校正;(Ⅳ)将校正完的视差图再通过基于分割的算法进行优化,得到稠密视差图。

Description

基于视差图像素分类校正优化的立体匹配方法
技术领域
本发明涉及立体视觉技术领域,具体为一种基于视差图像素分类校正优化的立体匹配方法。
背景技术
立体匹配是机器视觉研究领域的热点和难点,在立体视觉领域中有着广泛的应用和前景。立体匹配是通过对三维空间中的同一场景在不同视点下的立体图像建立一一对应关系,来得到该场景视差映射的过程。
立体匹配的难点主要是消除匹配图像的歧义性和模糊性。歧义性和模糊性是由于采集图像时的噪声以及场景自身的剧烈变化、弱纹理以及重复纹理区域造成的。为了应对这些病态的问题,立体匹配算法采用了不同的优化方式,依据优化方式的分类目前主要有两种不同算法:局部匹配算法和全局匹配算法。全局匹配算法是建立一个全局的能量代价函数,它由数据项、平滑项和依据不同的场景加入的一些其他惩罚项构成,经过全局信息约束,在全局范围内进行能量函数的最优化求解,得到全局视差图,它具有对局部信息敏感性小且有很高的精确性的特点,但是存在计算代价大、计算耗时多的缺点;局部匹配算法在选定的窗口内进行,建立只包含数据项的能量代价函数,再进行优化求解,该方法具有耗时少、计算简单的优点,但是由于窗口大小、形状以及代价函数设定具有局限性,所以会造成在图像深度不连续区域、闭塞区域以及弱纹理重复纹理区域出现误匹配的情况。
所以,现有的立体匹配方法中存在视差校正优化不够精确的缺点,因此,为改善匹配精度,有必要对现有的立体匹配方法进行改进。
发明内容
本发明为了解决现有的立体匹配方法存在的视差校正优化不够精确的问题,提供了一种基于视差图像素分类校正优化的立体匹配方法。
本发明是采用如下技术方案实现的:
一种基于视差图像素分类校正优化的立体匹配方法,包括如下步骤:
(Ⅰ)、进行初始视差值的估计:分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,得出左、右视差图,再经过左右一致性检测(交叉验证)剔除误匹配点,得到初始可靠视差图。
具体如下:
分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,并依据场景调节它们的权重,具体如式(1):C(x,y,d)=ω1*CSAD(x,y,d)+ω2*CGRAD(x,y,d),    (1)
其中:
C SAD ( x , y , d ) = Σ ( i , j ) ∈ N ( x , y ) | I 1 ( i , j ) - I 2 ( i + d , j ) | , - - - ( 2 )
C GRAD ( x , y , d ) = Σ ( i , j ) ∈ Nx ( x , y ) | ▿ x I 1 ( i , j ) - ▿ x I 2 ( i + d , j ) | + Σ ( i , j ) ∈ Ny ( x , y ) | ▿ y I 1 ( i , j ) - ▿ y I 2 ( i + d , j ) |
(3)
在式(2)和式(3)中,C(x,y,d)为聚合代价,CSAD(x,y,d)为灰度差聚合项,CGRAD(x,y,d)为基于梯度聚合项,ω1和ω2为权重,依据场景特征设置。d为初始设置的视差值,d∈[dmin,dmax];N(x,y)表示像素点(x,y)的聚合窗,I1(i,j)为参考图(x,y)的灰度值,I2(i,j)为目标图(x,y)的灰度值,分别表示在此点指向右和底部的梯度值,Nx(x,y)和Ny(x,y)为它们的区间;依据匹配代价计算方式,在d∈[dmin,dmax]范围内进行聚合代价的计算,采用胜者为王策略(Winner Take All,WTA)评价结果,通过式(4)得到点(x,y)处视差值,
d ( x , y ) = arg min d ∈ [ d min , d max ] ( C ( x , y , d ) ) , - - - ( 4 ) ;
由此分别得到左、右视差图d12(x,y)、d21(x,y)。
对得到的左、右视差图采用左右一致性检测(即交叉验证),具体如式(5):
|d12(x,y)-d21(x+d12(x,y),y)|<T(T取值为1),    (5);
对于左视差图的每一个像素点,如果满足上式,则说明满足左右一致性检测,否则设置此点的视差值为0;
经过交叉验证检测后,得到初始可靠视差图。
(Ⅱ)、进行匹配像素的分类:对得到的初始可靠视差图中满足交叉验证的像素点进行相关置信度检测,得到视差值稳定匹配像素点和视差值不稳定匹配像素点;对初始可靠视差图中不满足交叉验证的像素点进行弱纹理区域检测,得到闭塞区域像素点和弱纹理区域像素点。
具体如下:
相关置信度检测:假设像素点的最优视差的匹配代价为次最优视差的匹配代价为则相关置信度定义为式(6):
T CC = | C L 1 - C L 2 C L 1 | , - - - ( 6 )
设αs为阈值;如果TCCs,则认为此匹配点是稳定匹配像素点,视差值稳定可靠;否则被认为是不稳定匹配像素点,它的视差值也被认为是不稳定的;
弱纹理区域检测:首先使用均值漂移进行图像分割(分割步骤着重在基于分割的视差优化过程中介绍),得到不同区域的图像,并取区域的像素点数Ns,然后采用式(7)检测:
F ( R s ) = Var ( R grayscale ) Var ( R disparity ) + &delta; , - - - ( 7 )
其中Rs是第s个分割区域,Var(Rgrayscale)表示灰度方差,Var(Rdisparity)表示视差值方差,δ是调节参数,设置为0.01;根据式(7),计算每个区域的F值和点数Ns,并设置阈值FT和Nt,F小于FT且Ns大于Nt时,该区域为弱纹理区域;对于不满足左右一致性检测的匹配点,如果其位于弱纹理区域,就认为是由弱纹理特性引起的误匹配,分类为弱纹理区域像素点;其它则认为是由于闭塞遮挡引起的,分类为闭塞区域像素点。
经过上述相关置信度检测和弱纹理区域检测后,将初始可靠视差图的像素分为稳定匹配像素点、不稳定匹配像素点、闭塞区域像素点、弱纹理区域像素点。
(Ⅲ)、对分类后的像素分别进行校正:对于视差值需要校正的像素点,搜索其周围可靠视差值,形成可能视差值集vp,不稳定视差的像素点通过改进的自适应权重算法进行校正;闭塞区域和弱纹理区域造成的误匹配像素点,采用其周围可靠视差值传播的方法进行校正。
具体如式(8)
对于初始可靠视差图中误匹配的像素点,如果像素p的错误视差是由闭塞遮挡引起的,即是闭塞区域像素,算法采用集合vp中次最小的视差值seclow来代替;如果像素p的错误视差是由弱纹理特性引起的,采用集合vp的中值median来代替它的视差值。
对于初始可靠视差图中视差值不稳定匹配像素点,采用改进的自适应权重算法ASW,像素q对像素p的支持权重只依据像素间的颜色差别,如式(9):
w(p,q)=k*exp(-Δcpq/rs),    (9)
Δcpq=||I(p)-I(q)||2,    (10)
其中式rs是核大小,表示颜色带宽;式(10)中||·||2是二阶范式,I(·)是灰度值;则自适应权重的代价聚合为式(11):
C ASW ( p , p d &prime; ) = &Sigma; q &Element; N S s ( p ) , q d &prime; NSs ( P d &prime; ) w ( p , q ) &CenterDot; w ( p d &prime; ) ( q d &prime; ) &CenterDot; | I ( q ) - I ( q d &prime; ) | &Sigma; q &Element; N S s ( p ) , q d &prime; &Element; NSs ( p d &prime; ) w ( p , q ) &CenterDot; w ( p d &prime; , q d &prime; ) , d &Element; v p - - - ( 11 )
其中可能视差值d只在vp中搜寻,即d∈vp;p′d和q′d是视差为d时,左、右视图对应的像素点;NSs(p)分别为p和p′d的邻域;然后进行胜者为王策略(Winner Take All,WTA)选取最优视差值,完成校正过程。
(Ⅳ)、对校正后的视差图进行优化:采用基于图像分割的算法进行视差值的优化,剔除奇异值,得到分段平滑的最终视差图。
具体如下:
采用基于均值漂移分割的优化算法,在得到分割区域Rs后,对分割区域内视差值进行优化,把每个区域当作一个前置的窗口,使用胜者为王策略,计算它们的平均视差值d',于是对每一个像素(x,y)∈Rs,如果|d(x,y)-d'|<th,那么这个像素的视差值不变;否则,该像素就被优化为该区域的中值;其中th为阈值。
经过优化后即得到分段平滑的最终视差图。
基于上述立体匹配方法,验证效果如下:
如图3中(a)(b)(c)(d)(e)(f)所示,使用matlab2008a版本进行仿真实验,实验中主要参数:基于Mean-Shift均值漂移算法的参数有空间带宽hr=30,颜色带宽hc=7,以及最小分割区域像素点数min=30;匹配代价的权重ω1为1,ω2为5;弱纹理区域检测阈值FT为0.2,Nt=50;寻找支持像素的聚合窗口大小为7*7;自适应权重参数颜色带宽rs同样采用7。使用的测试图像为标准测试图像对,从立体匹配测试平台下载,并对算法进行对比测试。
图4中(a1)(a2)(a3)(a4)为本发明所述的立体匹配方法在Venus标准测试图集上的结果;图4中(b1)(b2)(b3)(b4)为本发明所述的立体匹配方法在Teedy标准测试图集上的结果;图4中(c1)(c2)(c3)(c4)为本发明所述的立体匹配方法在Cones标准测试图集上的结果。
从图3和图4可看出,本方法能有效地消除由普通弱纹理、重复纹理造成的匹配歧义,并对闭塞遮挡造成的复杂歧义也有很好的改善。产生误匹配现象主要出现在斜面弱纹理区域,如图4中Venus,Teedy的左视图标注有方框的区域,分析产生这种误匹配的原因主要是:斜面本身的视差是不连续的,但经过弱纹理区域检测的校正方法将此区域的视差值进行了统一,所以造成了匹配误差。
另外,表1为本方法和其他多种经典方法对标准测试图集进行实验的结果。此结果使用误匹配率作为评价指标。其他方法主要包括自适应权重算法(ASW)、分割支持(Seg-Sup)、优化的SAD(SAD-IGMCT)、漂移窗口(SSD+MF)、基于相位(Phase)以及扫描线优化(SO)等经典算法。表中Tsukuba、Venus、Teddy、Cones分别为四个标准的立体匹配测试图像集,nonocc为非闭塞遮挡区域的误匹配率,disc.为不连续区域的误匹配率,nonocc计算方式如式(14):
nonocc = 1 | R non | &Sigma; ( x , y ) &Element; Rnon [ | d ture ( x , y ) - d ( x , y ) | > &delta; error ] , - - - ( 14 )
其中Rnon为非闭塞遮挡区域,|Rnon|取区域的像素点数,dture为真实视差,d为算法估计视差,δerror为误差门限,取δerror=2。disc.和平均误匹配率的计算方式与式(14)相似。
表1不同方法实验结果对比
表1中是多种算法误匹配率的情况,能更精确地反应立体匹配方法在不同区域误匹配的情况。分析可得本方法在非闭塞遮挡区域的误匹配率(nonocc)相对传统经典算法(SAD、SSD、SO等)有了较大的改进,在深度不连续区域的误匹配率(disc.)也有较为理想的结果,并且在平均误匹配率上接近经典的自适应权重(ASW)和分割支持(Seg-Sup)算法,能得到精度较高的稠密视差图。
为改善匹配精度,本方法通过融合像素分类、校正优化以及自适应权重,在粗细精度调节的策略下,提出了一种基于像素分类校正优化的立体匹配方法,主要是采用基于灰度差和梯度共同作用的方式提高了聚合效果,使代价聚合函数更具鲁棒性,能应用于更为广泛的场景;并采用一种相关置信度检测和弱纹理区域检测相结合的方法对像素进行分类,使分类结果更精细;在视差校正过程中,应用改进的自适应权重算法和误匹配像素点校正方法,提高了校正的精度,将可靠稳定的像素视差估计值传播至误匹配和不稳定的视差估计点上,在像素级别上将视差值估计的更加精确。实验结果表明,本方法能够有效处理弱纹理区域和闭塞遮挡区域误匹配象素点,在深度不连续区域也有比较理想的结果,相比传统经典算法提高了匹配精度、减小了误匹配率,为机器人导航、工业检测、视觉测量等工作提供了精确的视差图。
本方法主要优点在于:(1)对局部立体匹配的聚合代价函数进行改进,使用基于灰度差值和梯度相结合的方法,改善图像灰度变化不敏感和采集图像时相机镜头畸变等引起的情况;(2)提出新的匹配像素的分类方法,更加细化视差图中的匹配像素,使得匹配精度更精确;(3)对分类的像素采用不同方法来校正,并进行优化,使得所得视差图更加平滑。
本发明设计合理,该方法所得的视差图为三维重建和深度测量提供了很好的准备,可以应用在机器人导航、工业检测、视觉测量等领域,解决了现有的立体匹配方法存在的视差校正优化不够精确的问题。
附图说明
图1是本发明所述方法的流程框图。
图2是像素分类模型图。
图3(a)是Tsukuba的标准左视图。
图3(b)是由左右一致性检测得到的初始可靠视差图,图中黑色像素为不满足左右一致性检测的像素点,被认为是误匹配像素。
图3(c)是经过相关置信度检测和弱纹理区域检测后的像素分类情况,图中,黑色像素为闭塞区域引起的误匹配,白色像素为弱纹理区域引起的误匹配像素,不稳定视差的像素点在实验标签中记录。
图3(d)是经过分割优化滤波后的最终视差图。
图3(e)是Tsukuba的真实视差图。
图3(f)是使用测试平台对比真实视差图所得到的本发明结果的误差图,图中,黑色像素点表示错误视差估计点,白色像素表示准确的视差估计点。
图4(a1)是Venus的标准左视图。
图4(a2)是Venus的真实视差图。
图4(a3)是经过本发明后的最终视差图。
图4(a4)使用测试平台对比真实视差图所得到的本发明结果的误差图。
图4(b1)是Teedy的标准左视图。
图4(b2)是Teedy的真实视差图。
图4(b3)是经过本发明后的最终视差图。
图4(b4)使用测试平台对比真实视差图所得到的本发明结果的误差图。
图4(c1)是Cones的标准左视图。
图4(c2)是Cones的真实视差图。
图4(c3)是经过本发明后的最终视差图。
图4(c4)使用测试平台对比真实视差图所得到的本发明结果的误差图。
具体实施方式
下面对本发明的具体实施例进行详细说明。
一种基于视差图像素分类校正优化的立体匹配方法,包括如下步骤:
(Ⅰ)、进行初始视差值的估计:分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,得出左、右视差图,再经过左右一致性检测(交叉验证)剔除误匹配点,得到初始可靠视差图。
具体如下:
初始可靠视差图的形成是由局部立体匹配算法得到的,它要求有一个匹配核和聚合窗口,并通过视差估计得到。匹配核即匹配代价,通常是采用像素灰度值差的平方和像素灰度值差的绝对值,这两种方式受到图像的颜色亮度约束,对亮度的变化敏感。其他匹配代价计算可依据像素的梯度和无参数估计等鲁棒性强的函数核进行,它们可以很好地改善相机镜头畸变或者场景本身弱纹理区域带来的影响。因此本发明方法分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,并依据场景调节它们的权重,具体如式(1):
C(x,y,d)=ω1*CSAD(x,y,d)+ω2*CGRAD(x,y,d),    (1)
其中:
C SAD ( x , y . d ) = &Sigma; ( i , j ) &Element; N ( x , y ) | I 1 ( i , j ) - I 2 ( i + d , j ) | , - - - ( 2 )
C GRAD ( x , y , d ) = &Sigma; ( i , j ) &Element; Nx ( x , y ) | &dtri; x I 1 ( i , j ) - &dtri; x I 2 ( i + d , j ) | + &Sigma; ( i , j ) &Element; Ny ( x , y ) | &dtri; y I 1 ( i , j ) - &dtri; y I 2 ( i + d , j ) | - - - ( 3 )
在式(2)和式(3)中,C(x,y,d)为聚合代价,CSAD(x,y,d)为灰度差聚合项,CGRAD(x,y,d)为基于梯度聚合项,ω1和ω2为权重,依据场景特征设置。d为初始设置的视差值,d∈[dmin,dmax];N(x,y)表示像素点(x,y)的聚合窗,I1(i,j)为参考图(x,y)的灰度值,I2(i,j)为目标图(x,y)的灰度值,分别表示在此点指向右和底部的梯度值,Nx(x,y)和Ny(x,y)为它们的区间;依据代价匹配计算方式,在d∈[dmin,dmax]范围内进行代价的计算,采用胜者为王策略(WinnerTake All,WTA)评价结果,点(x,y)处视差值如式(4):
d ( x , y ) = arg min d &Element; [ d min , d max ] ( C ( x , y , d ) ) , - - - ( 4 ) ;
由此分别得到左、右视差图d12(x,y)、d21(x,y)。
为初步提高视差值的精度,采用左右一致性检测(即交叉验证),它要求左、右视差图的视差值是一致的,如式(5):
|d12(x,y)-d21(x+d12(x,y),y)|<T(T取值为1),    (5);
对于左视差图的每一个像素点,如果满足上式,则说明满足左右一致性检测;否则设置此点的视差值为0。
经过交叉验证检测后,得到了初始可靠视差图。
(Ⅱ)、进行匹配像素的分类,如图2所示:对得到的初始可靠视差图中满足交叉验证的像素点进行相关置信度检测,得到视差值稳定匹配像素点和视差值不稳定匹配像素点;对初始可靠视差图中不满足交叉验证的像素点进行弱纹理区域检测,得到闭塞区域像素点和弱纹理区域像素点。
具体如下:
对于初始可靠的视差图,绝大多数的像素是满足左右一致性检测(即交叉验证)的,通常满足左右一致性检测的像素点是被认为匹配正确的,但是依据相关检测,仍可分为稳定和不稳定的匹配点;并且不满足左右一致性检测的像素点是误匹配点,被认为是闭塞像素。然而,在弱纹理区域由于弱纹理的特性,也会造成误匹配的现象。
相关置信度检测:相关置信度检测表征了相关计算值的特点,它能反映数据极值的独特程度。假设像素点的最优视差的匹配代价为次最优视差的匹配代价为则相关置信度定义为式(6):
T CC = | C L 1 - C L 2 C L 1 | , - - - ( 6 )
设αs为阈值,通常取值为0.04;如果TCCs,则认为此匹配点是稳定匹配像素点,视差值稳定可靠;否则被认为是不稳定匹配像素点,它的视差值也被认为是不稳定的。
弱纹理区域检测:弱纹理区域是图像中没有明显的颜色和灰度变化的区域,它的灰度值方差趋近于0,导致很难在另一幅图像中找到其匹配点,所以弱纹理区域的视差值是不稳定的,它的视差值方差就很大,并且造成误匹配的弱纹理区域通常是比较大的区域。根据这两个方差的特性以及区域大小的特性,采用一种弱纹理检测方式,首先使用均值漂移进行图像分割,得到不同区域的图像,并取区域的像素点数Ns,然后采用式(7)检测:
F ( R s ) = Var ( R grayscale ) Var ( R disparity ) + &delta; , - - - ( 7 )
其中Rs是第s个分割区域,Var(Rgrayscale)表示灰度方差,Var(Rdisparity)表示视差值方差,δ是调节参数,设置为0.01;根据式(7),计算每个区域的F值和点数Ns,并设置阈值FT和Nt,F小于FT且Ns大于Nt时,该区域为弱纹理区域;对于不满足左右一致性检测的匹配点,如果其位于弱纹理区域,就认为是由弱纹理特性引起的误匹配,分类为弱纹理区域像素点;其它则认为是由于闭塞遮挡引起的,分类为闭塞区域像素点。
经过上述相关置信度检测和弱纹理区域检测后,将初始可靠视差图的像素分为稳定匹配像素点、不稳定匹配像素点、闭塞区域像素点、弱纹理区域像素点。
(Ⅲ)、对分类后的像素分别进行校正:对于视差值需要校正的像素点,搜索其周围可靠视差值,形成可能视差值集vp,不稳定视差的像素点通过改进的自适应权重算法进行校正;闭塞区域和弱纹理区域造成的误匹配像素点,采用其周围可靠视差值传播的方法进行校正。
具体如式(8)
对于初始可靠视差图中误匹配的像素点,如果像素p的错误视差是由闭塞遮挡引起的,即是闭塞区域像素,算法采用集合vp中次最小的视差值seclow来代替;如果像素p的错误视差是由弱纹理特性引起的,采用集合vp的中值median来代替它的视差值。
对于初始视差图中视差值不稳定的像素点,由于其常出现于深度不连续的区域,即是颜色变化较大的区域,所以采用改进的自适应权重算法ASW,像素q对像素p的支持权重只依据像素间的颜色差别,如式(9):
w(p,q)=k*exp(-Δcpq/rs),    (9)
Δcpq=||I(p)-I(q)||2,    (10)
其中式rs是核大小,表示颜色带宽;式(10)中||·||2是二阶范式,I(·)是灰度值;则自适应权重的聚合代价为式(11):
C ASW ( p , p d &prime; ) = &Sigma; q &Element; N S s ( p ) , q d &prime; NSs ( P d &prime; ) w ( p , q ) &CenterDot; w ( p d &prime; , q d &prime; ) &CenterDot; | I ( q ) - I ( q d &prime; ) | &Sigma; q &Element; N S s ( p ) , q d &prime; &Element; NSs ( p d &prime; ) w ( p , q ) &CenterDot; w ( p d &prime; , q d &prime; ) , d &Element; v p - - - ( 11 )
其中可能视差值d只在vp中搜寻,即d∈vp;p′d和q′d是视差为d时,左、右视图对应的像素点;NSs(p)分别为p和p′d的邻域。
然后进行胜者为王策略选取最优视差值,完成校正过程。
(Ⅳ)、对校正后的视差图进行优化:采用基于图像分割的算法进行视差值的优化,剔除奇异值,得到分段平滑的最终视差图。
具体如下:
采用常规的基于均值漂移的算法进行图像的分割,它首先进行初始兴趣区域的选择,并确定初始质心,兴趣区域中心向确定的初始质心移动,并计算新的质心;迭代的进行区域移动和质心计算,直到稳定。最终的位置概率密度函数达到局部极大,形成局部模态。当像素点趋于同一个局部模态就形成一个区域,完成了分割图像的目的。所以均值漂移算法主要依赖于兴趣区域的大小和形状,如式(12)为它的核函数:
K(x)=c*K(||(x-xi)/h||2),    (12)
式(12)中xi为空间某点;c为常数;h表征核函数的大小,称为带宽,它的物理意义就是控制兴趣区域的大小。在分割图像的时,将图像的空间坐标以及色彩灰度值空间统一到空‐值联合域中,就产生两个径向对称核函数,如式(13):
Khshr(x)=c*K(||(x-xi)/hr||2)*K(||(x-xi)/hc||2),    (13)
式(13)中hr表示空间上大小,hc表示在色彩上的相近程度。另外为了避免分割的图像过小,区域过多,还有个最小分割区域像素点数min。
采用基于均值漂移分割的优化算法,在得到分割区域Rs后,把每个区域当作一个前置的窗口,使用胜者为王策略,计算它们的平均视差值d',于是对每一个像素(x,y)∈Rs,如果|d(x,y)-d'|<th,那么这个像素的视差值不变;否则,该像素就被优化为该区域的中值;其中th为阈值3。
经过优化后即得到分段平滑的最终视差图。

Claims (2)

1.一种基于视差图像素分类校正优化的立体匹配方法,其特征在于:包括如下步骤:
(Ⅰ)、进行初始视差值的估计:分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,得出左、右视差图,再经过左右一致性检测剔除误匹配点,得到初始可靠视差图;
具体如下:
分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,并依据场景调节它们的权重,具体如式(1):
C(x,y,d)=ω1*CSAD(x,y,d)+ω2*CGRAD(x,y,d),  (1)
其中:
C SAD ( x , y , d ) = &Sigma; ( i , j ) &Element; N ( x , y ) | I 1 ( i , j ) - I 2 ( i + d , j ) | , - - - ( 2 )
C GRAD ( x , y , d ) = &Sigma; ( i , j ) &Element; Nx ( x , y ) | &dtri; x I 1 ( i , j ) - &dtri; x I 2 ( i + d , j ) | + &Sigma; ( i , j ) &Element; Ny ( x , y ) | &dtri; y I 1 ( i , j ) - &dtri; y I 2 ( i + d , j ) | , - - - ( 3 )
在式(2)和式(3)中,C(x,y,d)为聚合代价,CSAD(x,y,d)为灰度差聚合项,CGRAD(x,y,d)为基于梯度聚合项,ω1和ω2为权重,依据场景特征设置;d为初始设置的视差值,d∈[dmin,dmax];N(x,y)表示像素点(x,y)的聚合窗,I1(i,j)为参考图(x,y)的灰度值,I2(i,j)为目标图(x,y)的灰度值,▽xI(i,j)和▽yI(i,j)分别表示在此点指向右和底部的梯度值,Nx(x,y)和Ny(x,y)为它们的区间;依据匹配代价计算方式,在d∈[dmin,dmax]范围内进行聚合代价的计算,采用胜者为王策略评价结果,通过式(4)得到点(x,y)处视差值,
d ( x , y ) = arg min d &Element; [ d min , d max ] ( C ( x , y , d ) ) , - - - ( 4 ) ;
由此分别得到左、右视差图d12(x,y)、d21(x,y);
对得到的左、右视差图d12(x,y)、d21(x,y)采用左右一致性检测,如式(5),
|d12(x,y)-d21(x+d12(x,y),y)|<T,T取值为1,  (5);
对于左视差图的每一个像素点,如果满足上式,则说明满足左右一致性检测,否则设置此点的视差值为0;
经过交叉验证检测后,得到了初始可靠视差图;
(Ⅱ)、进行匹配像素的分类:对得到的初始可靠视差图中满足交叉验证的像素点进行相关置信度检测,得到视差值稳定匹配像素点和视差值不稳定匹配像素点;对初始可靠视差图中不满足交叉验证的像素点进行弱纹理区域检测,得到闭塞区域像素点和弱纹理区域像素点;
具体如下:
相关置信度检测:假设像素点的最优视差的匹配代价为次最优视差的匹配代价为则相关置信度定义为式(6):
T CC = | C L 1 - C L 2 C L 1 | , - - - ( 6 )
设αs为阈值;如果TCCs,则认为此匹配点是稳定匹配像素点,视差值稳定可靠;否则被认为是不稳定匹配像素点,它的视差值也被认为是不稳定的;
弱纹理区域检测:首先使用均值漂移进行图像分割,得到不同区域的图像,并取区域的像素点数Ns,然后采用式(7)检测:
F ( R s ) = Var ( R grayscale ) Var ( R disparity ) + &delta; - - - ( 7 )
其中Rs是第s个分割区域,Var(Rgrayscale)表示灰度方差,Var(Rdisparity)表示视差值方差,δ是调节参数,设置为0.01;根据式(7),计算每个区域的F值和点数Ns,并设置阈值FT和Nt,F小于FT且Ns大于Nt时,该区域为弱纹理区域;对于不满足左右一致性检测的匹配点,如果其位于弱纹理区域,就认为是由弱纹理特性引起的误匹配,分类为弱纹理区域像素点;其它则认为是由于闭塞遮挡引起的,分类为闭塞区域像素点;
经过上述相关置信度检测和弱纹理区域检测后,将初始可靠视差图的像素分为稳定匹配像素点、不稳定匹配像素点、闭塞区域像素点、弱纹理区域像素点;
(Ⅲ)、对分类后的像素分别进行校正:对于视差值需要校正的像素点,搜索其周围可靠视差值,形成可能视差值集vp,不稳定视差的像素点通过改进的自适应权重算法进行校正;闭塞区域和弱纹理区域造成的误匹配像素点,采用其周围可靠视差值传播的方法进行校正;
具体如式(8)
对于初始可靠视差图中误匹配的像素点,如果像素p的错误视差是由闭塞遮挡引起的,即是闭塞区域像素,算法采用集合vp中次最小的视差值seclow来代替;如果像素p的错误视差是由弱纹理特性引起的,采用集合vp的中值median来代替它的视差值;
对于初始可靠视差图中视差值不稳定匹配像素点,采用改进的自适应权重算法ASW,像素q对像素p的支持权重只依据像素间的颜色差别,如式(9):
w(p,q)=k*exp(-Δcpq/rs),  (9)
Δcpq=||I(p)-I(q)||2,  (10)
其中式(9)中rs是核大小,表示颜色带宽;式(10)中||·||2是二阶范式,I(·)是灰度值;则自适应权重的代价聚合为式(11):
C ASW ( p , p d &prime; ) = &Sigma; q &Element; NS s ( p ) , q d &prime; &Element; NS S ( p d &prime; ) w ( p , q ) &CenterDot; w ( p d &prime; , q d &prime; ) &CenterDot; | I ( q ) - I ( q d &prime; ) | &Sigma; q &Element; NS s ( p ) , q d &prime; &Element; NS S ( p d &prime; ) w ( p , q ) &CenterDot; w ( p d &prime; , q d &prime; ) , d &Element; v p - - - ( 11 )
其中可能视差值d只在vp中搜寻,即d∈vp;p′d和q′d是视差为d时,左、右视图对应的像素点;NSs(p)分别为p和p'd的邻域;
然后进行胜者为王策略选取最优视差值,完成校正过程;
(Ⅳ)、对校正后的视差图进行优化:采用基于图像分割的算法进行视差值的优化,剔除奇异值,得到分段平滑的最终视差图;
具体如下:
采用基于均值漂移分割的优化算法,在得到分割区域Rs后,对分割区域内视差值进行优化,把每个区域当作一个前置的窗口,使用胜者为王策略,计算它们的平均视差值d',于是对每一个像素(x,y)∈Rs,如果|d(x,y)-d'|<th,那么这个像素的视差值不变;否则,该像素就被优化为该区域的中值;其中th为阈值;
经过上述优化后即得到分段平滑的最终视差图。
2.根据权利要求1所述的基于视差图像素分类校正优化的立体匹配方法,其特征在于:步骤(Ⅱ)中的阈值αs=0.04,FT=0.2,Nt=50;步骤(Ⅳ)中的阈值th=3。
CN201310153607.9A 2013-04-27 2013-04-27 基于视差图像素分类校正优化的立体匹配方法 Expired - Fee Related CN103226821B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310153607.9A CN103226821B (zh) 2013-04-27 2013-04-27 基于视差图像素分类校正优化的立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310153607.9A CN103226821B (zh) 2013-04-27 2013-04-27 基于视差图像素分类校正优化的立体匹配方法

Publications (2)

Publication Number Publication Date
CN103226821A CN103226821A (zh) 2013-07-31
CN103226821B true CN103226821B (zh) 2015-07-01

Family

ID=48837256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310153607.9A Expired - Fee Related CN103226821B (zh) 2013-04-27 2013-04-27 基于视差图像素分类校正优化的立体匹配方法

Country Status (1)

Country Link
CN (1) CN103226821B (zh)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463183B (zh) * 2013-09-13 2017-10-10 株式会社理光 聚类中心选取方法和系统
CN103971366B (zh) * 2014-04-18 2017-08-11 天津大学 一种基于双权重聚合的立体匹配方法
US9195904B1 (en) * 2014-05-08 2015-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for detecting objects in stereo images
CN104091339B (zh) * 2014-07-17 2017-01-11 清华大学深圳研究生院 一种图像快速立体匹配方法及装置
CN104639933A (zh) * 2015-01-07 2015-05-20 前海艾道隆科技(深圳)有限公司 一种立体视图的深度图实时获取方法及系统
CN104966303B (zh) * 2015-07-21 2018-02-06 兰州理工大学 一种基于马尔可夫随机场的视差图精化方法
CN105120255B (zh) * 2015-09-15 2018-11-20 Tcl集团股份有限公司 一种视差图的平滑方法、装置及电子设备
CN105354838B (zh) * 2015-10-20 2018-04-10 努比亚技术有限公司 图像中弱纹理区域的深度信息获取方法及终端
CN105427297B (zh) * 2015-11-12 2018-12-18 广州视源电子科技股份有限公司 一种图像校准方法及装置
CN105631887B (zh) * 2016-01-18 2019-10-25 武汉理工大学 基于自适应支持权重匹配算法的两步视差改良方法及系统
CN105869167A (zh) * 2016-03-30 2016-08-17 天津大学 基于主被动融合的高分辨率深度图获取方法
CN105812769B (zh) * 2016-04-06 2018-04-03 四川大学 基于相位相关的高精度视差跟踪器
CN105847783B (zh) * 2016-05-17 2018-04-13 武汉鸿瑞达信息技术有限公司 基于流媒体的3d视频显示与交互方法及装置
CN106023189B (zh) * 2016-05-17 2018-11-09 北京信息科技大学 一种基于匹配优化的光场数据深度重建方法
CN108537871B (zh) * 2017-03-03 2024-02-20 索尼公司 信息处理设备和信息处理方法
CN107146248A (zh) * 2017-04-27 2017-09-08 杭州电子科技大学 一种基于双流卷积神经网络的立体匹配方法
CN108513120A (zh) * 2017-05-18 2018-09-07 苏州纯青智能科技有限公司 一种基于左右视线的立体图像匹配方法
CN107330932B (zh) * 2017-06-16 2020-08-14 海信集团有限公司 一种修补视差图中噪点的方法及装置
CN107155100B (zh) * 2017-06-20 2019-07-12 国家电网公司信息通信分公司 一种基于图像的立体匹配方法及装置
CN107316326B (zh) * 2017-06-29 2020-10-30 海信集团有限公司 应用于双目立体视觉的基于边的视差图计算方法和装置
CN107240083B (zh) * 2017-06-29 2020-06-09 海信集团有限公司 一种修补视差图中噪点的方法及装置
CN107590831B (zh) * 2017-08-30 2021-02-05 电子科技大学 一种基于深度学习的立体匹配方法
CN109961417B (zh) * 2017-12-26 2021-04-06 广州极飞科技有限公司 图像处理方法、装置及移动装置控制方法
CN108154529B (zh) * 2018-01-04 2021-11-23 北京大学深圳研究生院 一种双目图像的立体匹配方法及系统
CN108230338B (zh) * 2018-01-11 2021-09-28 温州大学 一种基于卷积神经网络的立体图像分割方法
TWI719440B (zh) * 2018-04-02 2021-02-21 聯發科技股份有限公司 立體匹配方法及相應立體匹配裝置
CN108734776B (zh) * 2018-05-23 2022-03-25 四川川大智胜软件股份有限公司 一种基于散斑的三维人脸重建方法及设备
CN110533663B (zh) * 2018-05-25 2022-03-04 杭州海康威视数字技术股份有限公司 一种图像视差确定方法、装置、设备及系统
CN108681753B (zh) * 2018-05-29 2021-03-30 武汉环宇智行科技有限公司 一种基于语义分割及神经网络的图像立体匹配方法及系统
CN109461128B (zh) * 2018-10-24 2021-09-28 福州大学 一种基于梯度保持的结构一致立体图像颜色校正方法
CN109859253A (zh) * 2018-12-17 2019-06-07 深圳市道通智能航空技术有限公司 一种立体匹配方法、装置和电子设备
CN111382591B (zh) * 2018-12-27 2023-09-29 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN109816711B (zh) * 2019-01-07 2020-10-27 华南理工大学 一种采用自适应结构的立体匹配方法
CN110021043A (zh) * 2019-02-28 2019-07-16 浙江大学 一种基于立体匹配和置信度传播的场景深度获取方法
CN109919985A (zh) * 2019-03-01 2019-06-21 北京市商汤科技开发有限公司 数据处理方法和装置、电子设备和计算机存储介质
CN109961092B (zh) * 2019-03-04 2022-11-01 北京大学深圳研究生院 一种基于视差锚点的双目视觉立体匹配方法及系统
CN110443186B (zh) * 2019-07-31 2022-04-15 深圳市道通智能航空技术股份有限公司 立体匹配方法、图像处理芯片及移动载具
CN110533703B (zh) * 2019-09-04 2022-05-03 深圳市道通智能航空技术股份有限公司 一种双目立体视差确定方法、装置及无人机
CN111243000A (zh) * 2020-01-13 2020-06-05 北京工业大学 多约束代价计算与聚合的立体匹配方法
CN111652901B (zh) * 2020-06-02 2021-03-26 山东大学 一种基于置信度和特征融合的无纹理三维物体跟踪方法
CN112053394A (zh) * 2020-07-14 2020-12-08 北京迈格威科技有限公司 图像处理方法、装置、电子设备及存储介质
CN111914913B (zh) * 2020-07-17 2023-10-31 三峡大学 一种新型立体匹配优化方法
CN112070694B (zh) * 2020-09-03 2022-08-19 深兰人工智能芯片研究院(江苏)有限公司 双目立体视觉视差图后处理方法和装置
CN112233164B (zh) * 2020-09-18 2022-09-27 南京理工大学 一种视差图错误点识别与校正方法
CN113395504B (zh) * 2021-03-31 2023-04-04 北京迈格威科技有限公司 视差图优化方法、装置、电子设备及计算机可读存储介质
CN113516699A (zh) * 2021-05-18 2021-10-19 哈尔滨理工大学 一种基于超像素分割的立体匹配系统
CN113627429A (zh) * 2021-08-12 2021-11-09 深圳市爱培科技术股份有限公司 一种图像的低纹理区域识别方法、装置、存储介质及设备
CN114723967B (zh) * 2022-03-10 2023-01-31 合肥的卢深视科技有限公司 视差图优化方法、人脸识别方法、装置、设备及存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Adaptive Support-Weight Approach for Correspondence Search;Kuk-Jin Yoon et al;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20060430;第28卷(第4期);全文 *
Real-Time Correlation-Based Stereo Vision with Reduced Border Errors;Heiko Hirschmuller et al;《International Journal of Computer Vision》;20020430;第47卷(第1-3期);全文 *
Segment-Based Stereo Matching Using Belief Propagation and a Self-Adapting Dissimilarity Measure;Andreas Klaus et al;《18th International Conference on Pattern Recognition》;20061231;第3卷;全文 *
Stereo Vision in Structured Environments by Consistent Semi-Global Matching;Heiko Hirschmuller;《IEEE Conference on Computer Vision and Pattern Recognition》;20060622;全文 *
基于分割稳健而快速的局部立体匹配及医学应用;刘天亮 等;《计算机辅助设计与图形学学报》;20100131;第22卷(第1期);全文 *
基于自适应聚合的立体视觉合作算法;李鸣翔 等;《软件学报》;20080731;第19卷(第7期);全文 *

Also Published As

Publication number Publication date
CN103226821A (zh) 2013-07-31

Similar Documents

Publication Publication Date Title
CN103226821B (zh) 基于视差图像素分类校正优化的立体匹配方法
CN105528785B (zh) 一种双目视觉图像立体匹配方法
CN103177451B (zh) 基于图像边缘的自适应窗口和权重的立体匹配算法
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN106504276A (zh) 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
CN103310421B (zh) 针对高清图像对的快速立体匹配方法及视差图获取方法
CN109255811A (zh) 一种基于可信度图视差优化的立体匹配方法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN103996202A (zh) 一种基于混合匹配代价和自适应窗口的立体匹配方法
CN113763269B (zh) 一种用于双目图像的立体匹配方法
CN106384363B (zh) 一种快速自适应权重立体匹配方法
CN109544599A (zh) 一种基于相机位姿估计的三维点云配准方法
CN109887021A (zh) 基于跨尺度的随机游走立体匹配方法
WO2022116218A1 (zh) 一种用于复杂表面的线结构光中心提取方法
CN108520534A (zh) 一种自适应多模融合立体匹配算法
CN102903111B (zh) 基于图像分割的大面积低纹理区立体匹配算法
CN110322572A (zh) 一种基于双目视觉的水下涵隧内壁三维信息恢复方法
CN102447917A (zh) 立体图像匹配方法及其设备
CN104599288A (zh) 一种基于肤色模板的特征跟踪方法及装置
CN102740096A (zh) 一种基于时空结合的动态场景立体视频匹配方法
CN104966290A (zh) 一种基于sift描述子的自适应权重立体匹配方法
CN105761270A (zh) 一种基于外极线距离变换的树型滤波立体匹配方法
CN108629809B (zh) 一种精确高效的立体匹配方法
CN101344967B (zh) 天文图像中弱小动目标的检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150701

Termination date: 20180427