CN103310446B - 一种基于迭代指导滤波的立体匹配方法 - Google Patents

一种基于迭代指导滤波的立体匹配方法 Download PDF

Info

Publication number
CN103310446B
CN103310446B CN201310227453.3A CN201310227453A CN103310446B CN 103310446 B CN103310446 B CN 103310446B CN 201310227453 A CN201310227453 A CN 201310227453A CN 103310446 B CN103310446 B CN 103310446B
Authority
CN
China
Prior art keywords
point
parallax
sigma
overbar
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310227453.3A
Other languages
English (en)
Other versions
CN103310446A (zh
Inventor
门朝光
边继龙
李香
田泽宇
马宁
李昌
门宇博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201310227453.3A priority Critical patent/CN103310446B/zh
Publication of CN103310446A publication Critical patent/CN103310446A/zh
Application granted granted Critical
Publication of CN103310446B publication Critical patent/CN103310446B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及计算机视觉、航空摄影测量及工业自动化领域,具体涉及一种基于迭代指导滤波的立体匹配方法。本发明包括:计算原始匹配成本;根据指导图像的灰度变化为每一待匹配点确定支撑窗口大小;根据支撑窗口大小利用指导滤波累积原始匹配成本;计算视差;根据计算视差图修正原始匹配成本;重复执行步骤(3)直到达到给定的最大迭代次数为止。本发明利用积分图像技术计算自适应窗口及指导滤波,有效提高了立体匹配方法的匹配效率;该方法利用计算视差修正原始匹配成本并用指导滤波进行累积,增强了匹配成本对噪声及辐射差异的鲁棒性,进而提高了视差匹配的准确率。

Description

一种基于迭代指导滤波的立体匹配方法
技术领域
本发明涉及计算机视觉、航空摄影测量及工业自动化领域,具体涉及一种基于迭代指导滤波的立体匹配方法。
背景技术
立体匹配是计算机视觉领域中的一个热点问题,它利用同一场景的两幅或者多幅图像抽取场景的三维信息。目前为止,已经提出了大量的立体匹配方法解决立体对应问题,这些立体匹配方法根据视差选择方式不同可大致分为:局部立体匹配方法和全局立体匹配方法。局部立体匹配方法是利用“胜者全取”方法选择视差,而全局立体匹配方法则是通过全局优化方法选择视差。这些立体匹配方法最终都是通过最小化匹配成本选择视差,因此定义和计算匹配成本是局部及全局立体匹配方法的关键所在。匹配成本的好坏直接影响立体匹配方法的匹配精度,匹配成本的一般计算方法是通过在一个预定义支撑区域内累积原始匹配成本即成本累积。成本累积主要包含两类:一类是基于自适应窗口成本累积方法,另一类是基于自适应权重成本累积方法。基于自适应窗口成本累积方法的主要原理是为每一点选择一个合适的支撑窗口,尽量保证窗口内所有像素点的视差都等于待匹配点的视差,即保证支撑窗口内的局部场景符合“前视平坦”假设。如果当支撑窗口内像素点的视差存在较大变化时,则会导致立体匹配方法产生“粘合”现象。这种现象多发生在物体边界处,这是因为在物体边界处的支撑窗口经常包含了不同视差。基于自适应权重成本累积方法的主要思想是根据指导图像为支撑窗口内的像素点计算权重信息,然后根据其相应的权重信息累积原始匹配成本。该方法可以有效解决立体匹配当中的“粘合”现象及匹配不确定性问题,其匹配准确率接近于全局立体匹配方法,但是该方法的时间复杂度过高。
YoonKJ等人在2006年提出一种基于自适应权重的立体匹配方法,该方法利用双边滤波器累积原始匹配成本,然后通过“胜者全取”方法计算视差值。该方法可以获得高精度的视差图,但是该方法的时间复杂度较高,之后人们陆续提出一些改进措施降低了该方法的时间复杂度。由于基于自适应权重的立体匹配方法具有较高的匹配精度,因此该类方法已成为当前立体匹配研究领域中的一个热点问题。HeKaiming在2010年提出一种指导图像滤波,该方法根据指导图像内容计算滤波输出,指导滤波是一种边保护滤波,它类似于双边滤波,但该方法在边缘附近有更好的效果,而且该方法接近于线性时间复杂度,独立于滤波核大小。HosniA等人在2011年利用HeKaiming提出的指导滤波设计一种基于指导滤波的立体匹配方法,该方法的立体匹配效果优于YoonKJ等人提出的基于自适应权重的立体匹配方法,而且该方法具有线性时间复杂度,累积过程独立于支撑窗口大小。但是由于该方法利用指导滤波计算匹配成本时采用的是固定窗口,因此该方法在物体边界处存在一些“粘合”现象。
发明内容
本发明的目的在于提供一种更有效提高视差图质量,具有更快的匹配速度的基于迭代指导滤波的立体匹配方法。
本发明的目的是这样实现的:
(1)计算原始匹配成本:
构成三维视差空间图c(x,y,d)
c(x,y,d)=(1-α)·min(‖IL(x,y)-IR(x-d,y)‖,τ1)+α·min(‖▽xIL(x,y)-▽xIR(x-d,y)i‖,τ2)
式中,IL(x,y)表示参考图像中(x,y)点的灰度值,IR(x,y)表示匹配图像中(x,y)点的灰度值,α(<=1)表示权重比,d表示视差,▽x(·)表示函数在x方向的梯度变化,τ1和τ2分别表示灰度和梯度截断阈值;
(2)根据指导图像的灰度变化为每一待匹配点确定支撑窗口大小:
其中,表示(x,y)点的最优支撑窗口大小,W表示窗口选择范围,λ表示预定义灰度变化阈值,Ew(IL(x,y))表示IL在支撑窗口w内的均值,
E w ( I L ( x , y ) ) = Σ p = - w / 2 w / 2 Σ q = - w / 2 w / 2 I L ( x + p , y + q ) | w | ,
表示在支撑窗口w内的均值:
E w ( I L ( x , y ) 2 ) = Σ p = - w / 2 w / 2 Σ q = - w / 2 w / 2 I L 2 ( x + p , y + q ) | w | ,
其中,|w|表示支撑窗口w内的像素个数;
(3)根据支撑窗口大小利用指导滤波累积原始匹配成本:
根据支撑窗口大小及原始匹配成本,利用指导滤波进行累积,获得累积后的视差空间图C(x,y,d),滤波输出q与指导图像I在局部范围内符合线性模型:
q i = a k I i + b k , ∀ i ∈ w k ;
其中,ak,bk分别表示线性系数,wk表示以k点为中心的局部支撑窗口,Ii表示指导图像I在i点的灰度值,利用最小二乘法求解模型参数ak,bk
a k = 1 | w | Σ i ∈ w k I i p i - μ k p ‾ k σ k 2 + ϵ
b k = p ‾ k - a k μ k
pi表示i点的滤波输入,μk分别表示指导图像I在以k点为中心的支撑窗口wk内的均值及方差,|w|表示支撑窗口wk内的像素个数,ε表示规范参数以防止ak过大,表示滤波输入p在以k点为中心的支撑窗口wk内的均值:
p ‾ k = 1 | w | Σ i ∈ w k p i ;
对每个像素点i具有|w|个滤波输出求平均,每个像素点i的滤波输出qi
q i = 1 | w | Σ k : i ∈ w k a k I i + b k = a ‾ i I i + b ‾ i , a ‾ i = 1 | w | Σ k ∈ w i a k , b i = 1 | w | Σ k ∈ w i b k
IL为参考图像;
(4)计算视差:
根据累积后的视差空间图C(x,y,d),计算每一点视差d(x,y):
d ( x , y ) = arg min d ∈ D C ( x , y , d )
式中,D表示视差范围;
(5)根据计算视差图修正原始匹配成本:
c ( x , y , d ) = c ( x , y , d ) + | d ( x , y ) - d | D max ,
Dmax表示最大视差范围;
(6)重复执行步骤(3)直到达到给定的最大迭代次数为止。
本发明的有益效果在于:
本发明利用灰度信息及梯度信息计算原始匹配成本,可以有效保证匹配成本能正确反映匹配约束;
本发明利用积分图像技术计算自适应窗口及指导滤波,有效提高了立体匹配方法的匹配效率;
本发明提出一种自适应窗口指导滤波,该方法在弱纹理区域选择较大的支撑窗口,在纹理区域选择较小的支撑窗口,防止支撑窗口跨越视差边界,减少“粘合”现象发生;
本发明提出一种迭代成本累积方法,该方法利用计算视差修正原始匹配成本并用指导滤波进行累积,增强了匹配成本对噪声及辐射差异的鲁棒性,进而提高了视差匹配的准确率。
附图说明
图1为基于迭代指导滤波的立体匹配方法的流程框架图;
图2为本发明的实验效果图。
具体实施方式
下面结合附图和实例对本发明的技术方案做进一步的描述:
图像的灰度变化可以近似反应图像的纹理变化,在弱纹理区域图像的灰度变化相对较小,而在纹理区域图像的灰度变化相对较大;同时立体匹配方法生成的视差图可以被用来修正匹配成本以提高立体匹配方法对噪声及辐射差异的鲁棒性。针对立体匹配当中存在的这些特性,本发明提出一种基于迭代指导滤波的立体匹配方法,该方法可以有效提高视差图质量,并且具有较快的匹配速度,是一种行之有效的立体匹配方法,其具体步骤如下:
(1)计算原始匹配成本;
该步骤中,根据视差范围及左右图像的灰度信息及梯度信息计算原始匹配成本,构成一个三维视差空间图c(x,y,d),其计算公式如下:
c(x,y,d)=(1-α)·min(‖IL(x,y)-IR(x-d,y)‖,τ1)+α·min(▽xIL(x,y)-▽xIR(x-d,y)i‖,τ2)
式中,IL(x,y)表示参考图像中(x,y)点的灰度值,IR(x,y)表示匹配图像中(x,y)点的灰度值,α(<=1)表示权重比,d表示视差,▽x(·)表示函数在x方向的梯度变化,τ1和τ2分别表示灰度和梯度截断阈值。
(2)根据指导图像的灰度变化为每一待匹配点确定支撑窗口大小;
该步骤中,根据指导图像的灰度变化自适应地为每一待匹配点确定支撑窗口大小,在弱纹理区域选择较大的支撑窗口以包含足够的灰度变化范围确定可靠的匹配,在纹理区域选择较小的支撑窗口以防止支撑窗口跨越视差边界导致“粘合“现象发生,其自适应窗口的计算公式如下:
式中,表示(x,y)点的最优支撑窗口大小,W表示窗口选择范围,λ表示预定义灰度变化阈值,Ew(IL(x,y))表示IL在支撑窗口w内的均值,其计算表达式为:
E w ( I L ( x , y ) ) = Σ p = - w / 2 w / 2 Σ q = - w / 2 w / 2 I L ( x + p , y + q ) | w | ,
表示在支撑窗口w内的均值,其计算表达式为:
E w ( I L ( x , y ) 2 ) = Σ p = - w / 2 w / 2 Σ q = - w / 2 w / 2 I L 2 ( x + p , y + q ) | w | ,
其中,|w|表示支撑窗口w内的像素个数。
(3)根据支撑窗口大小利用指导滤波累积原始匹配成本;
该步骤中,根据支撑窗口大小及原始匹配成本,利用指导滤波进行累积,获得累积后的视差空间图C(x,y,d)。指导滤波的主要思想是假设滤波输出q与指导图像I在局部范围内符合线性模型,其线性模型表达式为:
q i = a k I i + b k , ∀ i ∈ w k
式中,ak,bk分别表示线性系数,wk表示以k点为中心的局部支撑窗口,Ii表示指导图像I在i点的灰度值。然后,利用最小二乘法求解模型参数ak,bk,其计算表达式为:
a k = 1 | w | Σ i ∈ w k I i p i - μ k p ‾ k σ k 2 + ϵ
b k = p ‾ k - a k μ k
式中,pi表示i点的滤波输入,μk分别表示指导图像I在以k点为中心的支撑窗口wk内的均值及方差,|w|表示支撑窗口wk内的像素个数,ε表示规范参数以防止ak过大,表示滤波输入p在以k点为中心的支撑窗口wk内的均值,其计算表达式为:
p ‾ k = 1 | w | Σ i ∈ w k p i .
然后将线性模型应用到整幅图像中的所有局部支撑窗口,每个像素点i具有|w|个滤波输出。由于这些滤波输出是在不同的支撑窗口内计算的,因此他们彼此各不相同。为获得一个唯一的滤波输出,需要对这些滤波输出求平均,每个像素点i的滤波输出qi最终计算为:
q i = 1 | w | Σ k : i ∈ w k a k I i + b k = a ‾ i I i + b ‾ i
式中, a ‾ i = 1 | w | Σ k ∈ w i a k , b i = 1 | w | Σ k ∈ w i b k .
本发明利用上述指导滤波思想累积匹配成本,其滤波输入p为视差空间图中的每一视差d所对应的成本矩阵c(x,y,d),指导图像I为参考图像IL,累积成本C(x,y,d)最终计算为:
C ( x , y , d ) = a ‾ i I i + b ‾ i
式中,x,y表示像素点i横纵坐标,
(4)根据“胜者全取”方法计算视差;
该步骤中,根据累积后的视差空间图C(x,y,d),采用“胜者全取”方法计算每一点视差d(x,y),其视差计算公式为:
d ( x , y ) = arg min d ∈ D C ( x , y , d )
式中,D表示视差范围。
(5)根据计算视差图修正原始匹配成本;
该步骤中,根据步骤(4)中计算的视差图d(x,y)修改原始匹配成本c(x,y,d),其计算公式为:
c ( x , y , d ) = c ( x , y , d ) + | d ( x , y ) - d | D max
式中,Dmax表示最大视差范围。然后,转到步骤(3)重复估计匹配成本、计算视差,直到达到给定的最大迭代次数为止。
图1显示了本发明基于迭代指导滤波的立体匹配方法的流程框架图,第一列为立体像对中的参考图像,第二列为真实视差图,第三列为计算视差图,下面结合该流程框架图详细说明每一步骤的具体实现方式:
(1)计算原始匹配成本;
①首先输入最大视差值dmax及左右图像,同时创建三维视差空间图c(x,y,d),并对其进行初始化。
②根据最大视差值dmax及左右图像,利用灰度信息及梯度信息为每一像素点(x,y)计算每一视差d(0≤d≤dmax)所对应的原始匹配成本,其计算公式如下:
c(x,y,d)=(1-α)·min(‖IL(x,y)-IR(x-d,y)‖,τ1)+α·min(▽xIL(x,y)-▽xIR(x-d,y)i‖,τ2)
式中,IL(x,y)表示参考图像中(x,y)点的灰度值,IR(x,y)表示匹配图像中(x,y)点的灰度值,α(<=1)表示权重比,▽x(·)表示函数在x方向的梯度变化,τ1和τ2分别表示灰度和梯度截断阈值。
(2)根据指导图像的灰度变化为每一待匹配点确定支撑窗口大小;
①为IL建立积分图像,其计算公式如下:
inteimage_1(x,y)=IL(x,y)+inteimage_1(x-1,y)+inteimage_1(x,y-1)-inteimage_1(x-1,y-1)
inteimage_2(x,y)=[IL(x,y)]2+inteimage_2(x-1,y)+。inteimage_2(x,y-1)-inteimage_2(x-1,y-1)
②根据积分图像inteimage_1、inteimage_2为每一像素点(x,y)计算表达式Ew(IL)和在每一支撑窗口w∈W上的值,其计算公式如下:
inteimage _ 1 ( x 1 , y 1 ) - inteimage _ 1 ( x 2 - 1 , y 1 ) - E w ( I L ( x , y ) ) = inteimage _ 1 ( x 1 , y 2 - 1 ) + inteimage _ 1 ( x 2 - 1 , y 2 - 1 ) | w |
inteimage _ 2 ( x 1 , y 1 ) - inteimage _ 2 ( x 2 - 1 , y 1 ) - E w ( I L ( x , y ) 2 ) = inteimage _ 2 ( x 1 , y 2 - 1 ) + inteimage _ 2 ( x 2 - 1 , y 2 - 1 ) | w |
式中,W表示窗口选择范围,x1,y1代表支撑窗口的右下角点的坐标,其计算公式为:
x2,y2代表支撑窗口的左上角点的坐标,其计算公式为:
其中,符号表示取整。
③根据步骤①-②的计算结果,利用自适应窗口公式为每一像素点(x,y)计算窗口大小,其计算公式如下:
式中,表示(x,y)点的最优支撑窗口大小,λ表示预定义灰度变化阈值。
(3)根据支撑窗口大小利用指导滤波累积原始匹配成本;
①初始化视差变量d,确定滤波输入p及指导图像I,其计算公式如下:
d=0,I=IL,p=c(:,:,d)
式中,IL表示参考图像,c(:,:,d)表示视差变量d所对应的二维成本矩阵。
②为p及I×p建立积分图像,其计算公式如下:
inteimage_3(x,y)=p(x,y)+inteimage_3(x-1,y)+inteimage_3(x,y-1)-inteimage_3(x-1,y-1)
inteimage_4(x,y)=I(x,y)p(x,y)+inteimage_4(x-1,y)+inteimage_4(x,y-1)-inteimage_4(x-1,y-1)
③根据积分图像inteimage_3、inteimage_4及每一点的支撑窗口大小计算表达式μk,在每一像素点k的值,其计算公式如下:
Σ i ∈ w k I i p i = inteimage _ 4 ( x 1 , y 1 ) - inteimage _ 4 ( x 2 - 1 , y 1 ) - , inteimage _ 4 ( x 1 , y 2 - 1 ) + inteimage _ 4 ( x 2 - 1 , y 2 - 1 )
inteimage _ 1 ( x 1 , y 1 ) - inteimage _ 1 ( x 2 - 1 , y 1 ) - μ k = inteimage _ 1 ( x 1 , y 2 - 1 ) + inteimage _ 1 ( x 2 - 1 , y 2 - 1 ) | w | ,
inteimage _ 3 ( x 1 , y 1 ) - inteimage _ 3 ( x 2 - 1 , y 1 ) - p ‾ k = inteimage _ 3 ( x 1 , y 2 - 1 ) + inteimage _ 3 ( x 2 - 1 , y 2 - 1 ) | w | ,
inteimage _ 1 ( x 1 , y 1 ) - inteimage _ 1 ( x 2 - 1 , y 1 ) - E w ( I L ( x , y ) ) = inteimage _ 1 ( x 1 , y 2 - 1 ) + inteimage _ 1 ( x 2 - 1 , y 2 - 1 ) | w | ,
inteimage _ 2 ( x 1 , y 1 ) - inteimage _ 2 ( x 2 - 1 , y 1 ) - E w ( I L ( x , y ) 2 ) = inteimage _ 2 ( x 1 , y 2 - 1 ) + inteimage _ 2 ( x 2 - 1 , y 2 - 1 ) | w | ,
σ k 2 = E w ( I L 2 ) - [ E w ( I L ) ] 2
式中,x1,y1代表支撑窗口的右下角点的坐标,其计算公式为:
x2,y2代表支撑窗口的左上角点的坐标,其计算公式为:
其中,符号表示取整,x,y表示像素点k的横纵坐标。
④为每一像素点k计算线性系数ak,bk,其计算公式如下:
a k = 1 | w | Σ i ∈ w k I i p i - μ k p ‾ k σ k 2 + ϵ
b k = p ‾ k - a k μ k
式中,ε表示规范参数。
⑤为线性系数a,b创建积分图像,其计算公式如下:
inteimage_a(x,y)=a(x,y)+inteimage_a(x-1,y)+inteimage_a(x,y-1)-inteimage_a(x-1,y-1)
inteimage_b(x,y)=b(x,y)+inteimage_b(x-1,y)+inteimage_b(x,y-1)-inteimage_b(x-1,y-1)
⑥根据每一像素点的支撑窗口大小及积分图像inteimage_a、inteimage_b为每一像素点i计算平均线性系数
a ‾ i = 1 | w | inteimage _ a ( x 1 , y 1 ) - inteimage _ a ( x 2 - 1 , y 1 ) - inteimage _ a ( x 1 , y 2 - 1 ) + inteimage _ a ( x 2 - 1 , y 2 - 1 )
b ‾ i = 1 | w | inteimage _ b ( x 1 , y 1 ) - inteimage _ b ( x 2 - 1 , y 1 ) - inteimage _ b ( x 1 , y 2 - 1 ) + inteimage _ b ( x 2 - 1 , y 2 - 1 )
式中,x1,y1代表支撑窗口的右下角点的坐标,其计算公式为:
x2,y2代表支撑窗口的左上角点的坐标,其计算公式为:
式中,符号表示取整,x,y表示像素点i的横纵坐标。
⑦根据指导滤波公式为每一像素点i计算在不同视差d下的匹配成本C(x,y,d),x,y表示像素点i的横纵坐标,其计算公式为:
C ( x , y , d ) = a ‾ i I i + b ‾ i .
⑧d=d+1,转入步骤①,直到d大于最大视差Dmax为止。
(4)根据“胜者全取”方法计算视差,其视差计算公式为:
d ( x , y ) = arg min d ∈ D C ( x , y , d )
式中,D表示视差范围。
(5)根据计算视差图修正原始匹配成本;
①根据计算视差图d(x,y)修改原始匹配成本c(x,y,d),其计算公式为:
c ( x , y , d ) = c ( x , y , d ) + | d ( x , y ) - d | D max
式中,Dmax表示最大视差范围。
②转到步骤(3)重复估计匹配成本、计算视差,直到达到给定的最大迭代次数为止。

Claims (1)

1.一种基于迭代指导滤波的立体匹配方法,其特征在于:
(1)计算原始匹配成本:
构成视差空间图c(x,y,d)
c(x,y,d)=(1-α)·min(||IL(x,y)-IR(x-d,y)||,τ1)+
α·min(||▽x(IL(x,y))-▽x(IR(x-d,y))||,τ2)
式中,IL(x,y)表示参考图像中(x,y)点的灰度值,IR(x,y)表示匹配图像中(x,y)点的灰度值,α≤1表示权重比,d表示视差,▽x(·)表示函数在x方向的梯度变化,τ1和τ2分别表示灰度和梯度截断阈值;
(2)根据参考图像的灰度变化为每一待匹配点确定支撑窗口大小:
其中,表示(x,y)点的最优支撑窗口大小,W表示窗口选择范围,λ表示预定义灰度变化阈值,Ew(IL(x,y))表示IL(x,y)在支撑窗口w内的均值;
E w ( I L ( x , y ) ) = Σ m = - l / 2 l / 2 Σ n = - l / 2 l / 2 I L ( x + m , y + n ) | w | ,
表示在支撑窗口w内的均值:
E w ( I L 2 ( x , y ) ) = Σ m = - l / 2 l / 2 Σ n = - l / 2 l / 2 I L 2 ( x + m , y + n ) | w | ,
其中,|w|表示支撑窗口w内的像素个数;
(3)根据支撑窗口大小利用指导滤波累积原始匹配成本:
根据支撑窗口大小,利用指导滤波进行累积,获得累积后的视差空间图C(x,y,d),滤波输出q与参考图像IL在局部范围内符合线性模型:
q i = a k I i + b k , ∀ i ∈ w k ;
其中,ak,bk分别表示线性系数,wk表示以k点为中心的局部支撑窗口,Ii表示参考图像IL在i点的灰度值,利用最小二乘法求解模型参数ak,bk
a k = 1 | w k | Σ i ∈ w k I i p i - μ k p ‾ k σ k 2 + ϵ
b k = p ‾ k - a k μ k
pi表示i点的滤波输入,μk分别表示参考图像IL在以k点为中心的支撑窗口wk内的均值及方差,|wk|表示支撑窗口wk内的像素个数,ε表示规范参数以防止ak过大,表示滤波输入p在以k点为中心的支撑窗口wk内的均值:
p ‾ k = 1 | w k | Σ i ∈ w k p i ;
对每个像素点i具有|wi|个滤波输出求平均,得到每个像素点i的滤波输出
q ‾ i = 1 | w i | Σ k : i ∈ w k ( a k I i + b k ) = a ‾ i I i + b ‾ i , a ‾ i = 1 | w i | Σ k ∈ w i a k , b ‾ i = 1 | w i | Σ k ∈ w i b k ;
C ( x , y , d ) = a ‾ i I i + b ‾ i ;
(4)计算视差:
根据累积后的视差空间图C(x,y,d),计算每一点视差d(x,y):
d ( x , y ) = arg min d ∈ D C ( x , y , d )
式中,D表示视差范围;
(5)根据计算视差图修正原始匹配成本:
c ( x , y , d ) = c ( x , y , d ) + | d ( x , y ) - d | D m a x ,
Dmax表示最大视差范围;
(6)重复执行步骤(3)-(5)直到达到给定的最大迭代次数为止。
CN201310227453.3A 2013-06-08 2013-06-08 一种基于迭代指导滤波的立体匹配方法 Expired - Fee Related CN103310446B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310227453.3A CN103310446B (zh) 2013-06-08 2013-06-08 一种基于迭代指导滤波的立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310227453.3A CN103310446B (zh) 2013-06-08 2013-06-08 一种基于迭代指导滤波的立体匹配方法

Publications (2)

Publication Number Publication Date
CN103310446A CN103310446A (zh) 2013-09-18
CN103310446B true CN103310446B (zh) 2016-05-04

Family

ID=49135623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310227453.3A Expired - Fee Related CN103310446B (zh) 2013-06-08 2013-06-08 一种基于迭代指导滤波的立体匹配方法

Country Status (1)

Country Link
CN (1) CN103310446B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632365B (zh) * 2013-11-13 2016-08-17 华北电力大学(保定) 一种立体图像视差估计方法
CN104392449A (zh) * 2014-12-01 2015-03-04 四川大学 快速准确的中值分割引导滤波(msgf)立体匹配方法
CN104376567A (zh) * 2014-12-01 2015-02-25 四川大学 一种基于线性分割引导滤波(lsgf)的立体匹配方法
CN112070694B (zh) * 2020-09-03 2022-08-19 深兰人工智能芯片研究院(江苏)有限公司 双目立体视觉视差图后处理方法和装置
CN112435267B (zh) * 2020-11-17 2023-03-17 哈尔滨工程大学 一种高分辨率城市卫星立体图像的视差图计算方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184540A (zh) * 2011-05-03 2011-09-14 哈尔滨工程大学 基于尺度空间的亚像素级立体匹配方法
CN102831601A (zh) * 2012-07-26 2012-12-19 中北大学 基于联合相似性测度和自适应支持权重的立体匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184540A (zh) * 2011-05-03 2011-09-14 哈尔滨工程大学 基于尺度空间的亚像素级立体匹配方法
CN102831601A (zh) * 2012-07-26 2012-12-19 中北大学 基于联合相似性测度和自适应支持权重的立体匹配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Full-Image Guided Filtering for Fast Stereo Matching;Qingqing Yang等;《IEEE Signal Processing Letters》;20130331;第20卷;第237-240页 *
Real-time local stereo matching using guided image filtering;Hosni A.等;《Multimedia and Expo (ICME),2011 IEEE International Conference on》;20110715;第1-6页 *
吕朝辉等.一种用于立体匹配的边缘检测方法.《上海大学学报(自然科学版)》.2003,第9卷(第3期),第189-192页. *

Also Published As

Publication number Publication date
CN103310446A (zh) 2013-09-18

Similar Documents

Publication Publication Date Title
CN103310446B (zh) 一种基于迭代指导滤波的立体匹配方法
CN102026013B (zh) 基于仿射变换的立体视频匹配方法
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
KR101742120B1 (ko) 영상 처리 장치 및 방법
CN104867133B (zh) 一种快速的分步立体匹配方法
CN102098528B (zh) 一种平面图像的立体转换方法及装置
US9361699B2 (en) Imaging system and method
CN103714573B (zh) 一种生成虚拟视图的方法及装置
CN102819837B (zh) 基于反馈控制的深度图处理方法及装置
CN105528785A (zh) 一种双目视觉图像立体匹配方法
US20120139902A1 (en) Parallax image generating apparatus, stereoscopic picture displaying apparatus and parallax image generation method
US9578312B2 (en) Method of integrating binocular stereo video scenes with maintaining time consistency
CN102523464A (zh) 一种双目立体视频的深度图像估计方法
WO2011155697A3 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
CN102436671A (zh) 一种基于深度值非线性变换的虚拟视点绘制方法
US20130169748A1 (en) System and method for adjusting perceived depth of stereoscopic images
CN103778599A (zh) 一种图像处理方法及系统
CN102096919B (zh) 一种基于双向加权聚合的实时立体匹配方法
CN112991421B (zh) 一种机器人视觉立体匹配方法
CN103458261A (zh) 一种基于立体视觉的视频场景变化检测方法
TWI608447B (zh) 立體影像深度圖產生裝置及方法
CN104200453A (zh) 基于图像分割和可信度的视差图像校正方法
CN104036481A (zh) 一种基于深度信息提取的多聚焦图像融合方法
CN102306393B (zh) 一种基于轮廓匹配的深度扩散方法及装置
CN101557534A (zh) 一种从视频相近帧中生成视差图的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160504