CN104966290B - 一种基于sift描述子的自适应权重立体匹配方法 - Google Patents

一种基于sift描述子的自适应权重立体匹配方法 Download PDF

Info

Publication number
CN104966290B
CN104966290B CN201510325507.9A CN201510325507A CN104966290B CN 104966290 B CN104966290 B CN 104966290B CN 201510325507 A CN201510325507 A CN 201510325507A CN 104966290 B CN104966290 B CN 104966290B
Authority
CN
China
Prior art keywords
mrow
msub
power flow
pixel
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510325507.9A
Other languages
English (en)
Other versions
CN104966290A (zh
Inventor
何凯
王晓文
葛云峰
姚静娴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Bohua Nangang wharf storage Co.,Ltd.
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201510325507.9A priority Critical patent/CN104966290B/zh
Publication of CN104966290A publication Critical patent/CN104966290A/zh
Application granted granted Critical
Publication of CN104966290B publication Critical patent/CN104966290B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

本发明公开了一种基于SIFT描述子的自适应权重立体匹配方法,所述自适应权重立体匹配方法包括以下步骤:通过相似性区域判决准则获得各个中心点的自适应聚合窗口;通过各点SIFT描述子的L1范数进行自适应权重计算,根据初始联合匹配代价、自适应聚合窗口完成匹配代价的优化;对优化后的匹配代价,采用WTA策略选取每点的最优视差值,然后采取左右一致性检测方法对最优视差值进行检测,利用背景填充法对检测出的误匹配点进行填充,得到最终的视差图。本发明实现了立体匹配过程中的匹配代价的聚合,能够得到精度较高的视差图,克服了传统算法在深度不连续区域和低纹理区域匹配精度不高的问题,有广泛的应用前景。

Description

一种基于SIFT描述子的自适应权重立体匹配方法
技术领域
本发明涉及立体匹配领域,尤其涉及一种基于SIFT(尺度不变特征转换)描述子的自适应权重立体匹配方法。
背景技术
立体匹配是从同一场景获得的两幅或者多幅图像中寻找相应的匹配点,利用匹配算法计算图像各点的深度信息,从而达到三维重建的目的。目前,立体匹配技术已经广泛应用于各个领域,例如:视频监控、3D跟踪和机器人控制等,并受到了广泛的关注。
近年来,各国学者在立体匹配领域进行了深入的研究,并提出了许多算法,主要可分为2大类:基于局部约束的立体匹配算法和基于全局约束的立体匹配算法。其中,基于全局约束的立体匹配算法在本质上属于优化算法,它是将立体匹配问题转化为寻找全局能量函数的最优化问题,其代表算法主要有:图割算法、置信度传播算法和协同优化算法等。全局算法能够获得较低的总误匹配率,但算法复杂度较高,不利于在实际工程中使用。
基于局部约束的立体匹配算法主要是利用匹配点周围的局部信息进行计算,由于其涉及到的信息量较少,匹配时间较短,因此受到了广泛关注,其代表算法主要有SAD(绝对差值方法)、SSD(平方差值方法)、NCC(归一化互相关)等。近年来,部分学者提出了一些改进算法。有学者提出利用窗口内像素的颜色信息来自适应计算窗口匹配权值,在一定程度上改善了匹配精度。有学者采用一种自适应窗口大小、形状和权值的方法进行匹配,提高了匹配精度,但参数过多,自适应性较差。不仅如此,还有学者采用了多窗口技术来对兴趣点进行匹配,提到了匹配精度,但在最优窗口的选取上耗时较多。此外,有学者充分结合基于特征匹配的优势,提出了一种基于概率神经网络的特征匹配算法,利用SIFT特征描述子实现匹配过程中兴趣点的自动检测,该算法收敛速度快,同时对二维旋转和尺度变换具有较高的鲁棒性。
上述算法在高纹理区域均能获得比较理想的匹配效果,但是在低纹理区域、遮挡区域,以及物体边界等深度不连续区域,其匹配精度不高,无法满足实际应用中的需要。
发明内容
本发明提供了一种基于SIFT描述子的自适应权重立体匹配方法,本发明提高了低纹理区域和深度不连续区域的匹配精度,详见下文描述:
一种基于SIFT描述子的自适应权重立体匹配方法,所述自适应权重立体匹配方法包括以下步骤:
通过相似性区域判决准则获得各个中心点的自适应聚合窗口;
通过各点SIFT描述子的L1范数进行自适应权重计算,根据初始联合匹配代价、自适应聚合窗口完成匹配代价的优化;
对优化后的匹配代价,采用WTA策略选取每点的最优视差值,然后采取左右一致性检测方法对最优视差值进行检测,利用背景填充法对检测出的误匹配点进行填充,得到最终的视差图。
其中,所述初始联合匹配代价具体为:
采用左右视图梯度域的幅值和相位,对左右视图进行匹配代价的计算,获得初始联合匹配代价。
其中,所述相似性区域判决准则具体为:判定像素点q是否满足以下关系:
Dc(p,q)<ψ,且Ds(p,q)<ξ
其中,Dc(p,q)为中心像素点p与像素点q之间的色彩差异;ψ为阈值;Ds(p,q)表示中心像素点p与像素点q之间的空间距离;ξ为像素点q的最大搜索范围。
进一步地,所述根据初始联合匹配代价、自适应聚合窗口完成匹配代价的优化的步骤具体为:
其中:pij代表聚合窗口内的某个像素点pij(xi,yj),wij表示利用SIFT描述子计算的某个像素点pij的自适应权重;win(p)表示中心点像素p(x,y)基于相似性区域判决准则获得的自适应窗口;C(x,y,d)为初始联合匹配代价;C2(x,y,d)为优化后的匹配代价。
本发明提供的技术方案的有益效果是:本发明将SIFT描述子用于求解自适应权重,并与基于相似性区域判决准则得到的自适应窗口相结合,很好的实现了立体匹配过程中的匹配代价的聚合,能够得到精度较高的视差图,克服了传统算法在深度不连续区域和低纹理区域匹配精度不高的问题,有广泛的应用前景。
附图说明
图1为本发明提供的一种基于SIFT描述子的自适应权重立体匹配方法的流程图;
图2本发明提供的自适应聚合窗口计算过程示意图;
图3本发明针对于测试图片的视差图对比示意图。
其中,图(a)为4幅标准的测试图像;图(b)为4幅标准测试图的真实视差图;图(c)为利用SNCC算法获得的视差图;图(d)为利用VariableCross算法获得的视差图;图(e)为利用HistoAggr算法获得的视差图;图(f)为利用本发明算法获得的视差图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
为了解决背景技术中存在的问题,本发明尝试利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,利用图像各点的SIFT特征描述子的L1范数计算自适应权重,以提高低纹理区域和深度不连续区域的立体匹配效果,详见下文描述:
实施例1
101:通过相似性区域判决准则获得各个中心点的自适应聚合窗口;
102:通过各点SIFT描述子的L1范数进行自适应权重计算,根据初始联合匹配代价、自适应聚合窗口完成匹配代价的优化;
103:对优化后的匹配代价,采用WTA策略选取每点的最优视差值,然后采取左右一致性检测方法对最优视差值进行检测,利用背景填充法对检测出的误匹配点进行填充,得到最终的视差图。
其中,初始联合匹配代价具体为:
采用左右视图梯度域的幅值和相位,对左右视图进行匹配代价的计算,获得初始联合匹配代价。
其中,相似性区域判决准则具体为:判定像素点q是否满足以下关系:
Dc(p,q)<ψ,且Ds(p,q)<ξ
其中,Dc(p,q)为中心像素点p与像素点q之间的色彩差异;ψ为阈值;Ds(p,q)表示中心像素点p与像素点q之间的空间距离;ξ为像素点q的最大搜索范围。
进一步地,根据初始联合匹配代价、自适应聚合窗口完成匹配代价的优化的步骤具体为:
其中:pij代表聚合窗口内的某个像素点pij(xi,yj),wij表示利用SIFT描述子计算的某个像素点pij的自适应权重;win(p)表示中心点像素p(x,y)基于相似性区域判决准则获得的自适应窗口;C(x,y,d)为初始联合匹配代价;C2(x,y,d)为优化后的匹配代价。
综上所述,通过上述101-103步骤的操作,本发明能够有效提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图。
下面结合具体的计算公式、例子详细说明实施例1的操作过程,详见下文描述:
实施例2
201:采用左右视图梯度域的幅值和相位,对左右视图进行匹配代价的计算,获得初始联合匹配代价;
其中,传统的立体匹配算法是利用像素点的颜色差值,或基于census变换、rank变换的方法来计算匹配代价,容易受到噪声和局部光照变化的影响。鉴于梯度域对噪声和局部光照变化具有较强的鲁棒性,本发明实施例采用梯度域的幅值和相位来计算匹配代价,以提高算法的鲁棒性。
对于待匹配视图中任意一个像素点(x,y),当视差值为d时,其基于梯度域的联合匹配代价函数定义为:
C(x,y,d)=α·min(Cc(x,y,d),Tc)+β·min((Cg(x,y,d),Tg)+μ·min(Cp(x,y,d),Tp)) (1)
其中,α,β为常数,且满足关系:α+β=1;μ为权重因子,用于调整梯度域的幅值和相位在计算匹配代价时的贡献大小;d表示左右视差图的可能视差,其取值一般为0到最大视差dmax之间的整数;Cc(x,y,d)表示基于图像像素大小的非相似性测度,Tc为该项的最大阈值;Cg(x,y,d)、Cp(x,y,d)分别表示基于梯度域的幅值和相位的非相似性测度,Tg和Tp分别为对应的最大阈值。
其中,Cc(x,y,d)是基于图像的像素大小进行计算的,它对纹理丰富的区域有优势,但对于低纹理区域效果则较差,其定义式为:
其中,IL k(x,y)、IR k(x-d,y)分别为待匹配左右视图中像素点(x,y)、(x-d,y)的k颜色通道的像素值大小;k∈(R,G,B),分别表示RBG颜色空间的R、G和B通道像素值的大小。
另,Cp(x,y,d)、Cg(x,y,d)是基于图像梯度域的幅值和相位进行计算的,其计算公式为:
其中,f(·)表示反正切函数(即,(·)表示等), 表示左视图中x方向和y方向的梯度,表示右视图中x方向和y方向的梯度。
202:利用相似性区域判决准则获得各个中心点的自适应聚合窗口;
固定窗口的局部算法效果与窗口大小有关,窗口选择过小,则匹配代价区分度过低,在低纹理区域容易出现误匹配;反之,若窗口选择过大,在深度不连续区域又会出现较高的误匹配。为解决上述问题,本发明提出利用相似性区域判决准则来自适应获得各个中心点的矩形聚合窗口,以获得最佳的聚合效果。
本发明采取相互正交的水平和垂直扫描线进行分割,以得到某个中心点p(x,y)的聚合窗口win(p)。本发明根据色彩视差一致性假设提出2个判决准则,以确定某中心点p(x,y)的相似性区域,进而获得聚合窗口左、右、上、下4个端点P1、P2、P3、P4的位置,如图2所示:
以左端点P1点的求解过程为例,首先计算中心点p(x,y)左侧任意一点q(x,y)与中心点p(x,y)的色彩差异,其定义如下:
其中,λ为权衡因子,本发明设为0.8,Ik(p),Ik(q)分别表示中心点及其左侧任意一点在RGB空间中的像素值;分别表示像素点p和q在x方向的导数;
公式(5)中第一项用于限定像素点q与p的像素大小差异性,第二项用于限定左侧任意一点q与中心点p的梯度差异性。
本发明提出的相似性区域判决准则可概括如下:
1)判定左侧任意一像素点q是否满足关系:Dc(p,q)<ψ;
其中,Dc(p,q)为中心像素点p与像素点q之间的色彩差异,ψ为阈值,本发明实施例设ψ为25,具体实现时,可以根据实际应用中的需要进行设定,本发明实施例对此不做限制。
2)判定左侧任意一像素点q是否满足关系:Ds(p,q)<ξ;
其中,Ds(p,q)表示像素点p与q之间的空间距离,ξ为像素点q的最大搜索范围,用于防止出现过平滑现象,经过试验,本发明实施例设ξ为15~30,具体实现时,可以根据实际应用中的需要进行设定,本发明实施例对此不做限制。
选择满足上述2个判定准则的最左像素点q作为左端点P1的位置。同理,分别选择满足上述2个准则的最右点、最上点和最下点分别作为右端点P2,上端点P3和下端点P4的位置。
值得注意的是,当计算上端点P3和下端点P4的位置时,公式(5)中的应改为像素点p和q在y方向的梯度
203:计算各点SIFT描述子,利用各点SIFT描述子的L1范数进行自适应权重计算,完成匹配代价的聚合过程;
其中,SIFT特征描述子是利用特征点邻域图像窗口内梯度方向的统计直方图来构造特征描述向量,该特征描述子对图像的仿射变换具有较强的鲁棒性,鉴于此,本发明实施例提出基于SIFT特征描述子来计算自适应聚合权重,具体作法如下:
以某个像素点(x,y)为中心选取8*8的矩形窗口,计算窗口内每个像素点梯度的幅值和方向:
θ(x,y)=arctan((I(x,y+1)-I(x,y-1))/(I(x+1,y)-I(x-1,y))) (7)
其中,g(x,y)、θ(x,y)分别代表点(x,y)处梯度的幅值和方向,I(x,y)表示点(x,y)处像素值的大小,I(x+1,y)表示点(x+1,y)处像素值的大小,I(x-1,y)表示点(x-1,y)处像素值的大小,以此类推,本发明实施例对其他关于I(.)符号的定义不做赘述。
对窗口内每个像素点梯度的幅值利用标准差为1的高斯函数进行加权,其目的是提高中心像素点的权重。在每个4*4的子窗口将图像梯度方向直方图量化到8个平均分配的方向,即将像素点的梯度投影到离其最近的一个方向上,归一化后生成每个像素点的32维SIFT描述子。
利用各点SIFT描述子的L1范数进行自适应权重计算,完成匹配代价的聚合过程。首先提取待匹配图像中每个像素点的SIFT特征描述子,利用其视觉和光照不变性的特点,实现各像素之间相似性测度的计算。
设win(p)为以点p(x,y)为中心点的聚合窗口,则该聚合窗口内的任意一点pij(xi,yj)的自适应聚合权重,可以通过计算pij与p的SIFT特征描述子的相似性来求解,即:
其中,wij为自适应权重;α、β为权重因子,本发明实施例分别设置为0.9、0.1;S(xi,yj)、S(x,y)分别表示聚合窗口内像素点pij与p的SIFT特征描述子;||S(xi,yj)-S(x,y)||1代表L1范数,用来计算两个SIFT特征描述符的相似性。
计算获得像素点p(x,y)的自适应窗口及聚合权重后,本发明实施例利用权重聚合的方式实现像素点p(x,y)匹配代价的优化,定义如下:
其中:pij代表聚合窗口内的某个像素点pij(i,j),wij表示利用SIFT描述子计算的某个像素点pij的自适应权重;win(p)表示中心点像素p(x,y)基于相似性区域判决准则获得的自适应窗口。
204:采用WTA策略选取每点的最优视差值,然后采取LRC(左右一致性检测方法)策略进行遮挡检测,利用背景填充法对检测出的误匹配点进行填充,得到最终的视差图。
本发明采用WTA(winner-takes-all胜者为王)策略来进行最优视差值得选取,即选择使匹配代价达到最小时对应的视差值作为最优视差值,定义式:
D(x,y)=min(C2(x,y,d)) (10)
采用WTA策略得到的最终视差值中仍然存在误匹配点,本发明通过左右一致性检测方法(LRC)来标记出误匹配点,一致性检测条件为:D(x,y)=-D’(x-D(x,y),y),即将不满足该条件的D(x,y)标记为误匹配点。其中:D(x,y)表示以左图为参考图得到的像素点(x,y)的最优视差值,D’(·)表示以右图为参考图得到的的最优视差值,公式(11)中的D’(x-D(x,y),y)表示像素点(x-D(x,y),y)以右图为参考图得到的最优视差值。
对标记出来的误匹配点利用背景填充法进行替换,得到最终的视差图,具体填充的步骤为本领域技术人员所公告,本发明实施例对此不做赘述。
实施例3
下面结合具体的实例对本发明实施例1和实施例2中的技术方案做进一步详细描述。
本发明选取美国大学Middlebury大学计算机视觉研究中心提供的立体图像数据库:http://vision.middlebury.edu/stereo作为测试图片,该图像库涵盖了容易引起误匹配的各种情况,包含低纹理区域、深度不连续区域、遮挡区域等,以验证本发明方法的有效性。
图3分别为采用VariableCross算法、SNCC算法、HistoAggr算法,以及本发明的实验结果。其中:图(a)为4幅标准的测试图像,图(b)为4幅标准测试图的真实视差图,图(c)为利用SNCC算法获得的视差图,图(d)为利用VariableCross算法获得的视差图,图(e)为利用HistoAggr算法获得的视差图,图(f)为利用本发明算法获得的视差图。主要参数选择为:α=0.9,β=0.1,δs=2。
从图3中可以看出:与3种传统方法相比,本发明在低纹理区域能够获得更好的匹配效果,如:Tsukuba图像的背景墙壁和书架区域,Teddy图像的画布、屋顶部分,以及Cones图像的椎体区域等。
表1是以上几种算法的误匹配率实验数据对比,其中“Nonocc”,“All”,“Disc”分别表示非遮挡区域误匹配像素比、总体误匹配像素比,以及深度不连续区域误匹配像素比。
表1不同算法的误匹配率比较(%)
从表1中可以看出:与3种传统立体匹配算法相比,对于4幅图像,本发明整体误匹配率均较低,尤其是在深度不连续区域的误匹配率,除了Tsukuba图像略低于VariableCross算法以外,其误匹配率都是最低的。在非遮挡区域,本发明除了Tsukuba图像和Venus图像略低于VariableCross算法以外,也都获得了最低的误匹配率。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于SIFT描述子的自适应权重立体匹配方法,其特征在于,所述自适应权重立体匹配方法包括以下步骤:
通过相似性区域判决准则获得各个中心点的自适应聚合窗口;
通过各点SIFT描述子的L1范数进行自适应权重计算,根据自适应权重、初始联合匹配代价、自适应聚合窗口完成匹配代价的优化;
对优化后的匹配代价,采用WTA策略选取每点的最优视差值,然后采取左右一致性检测方法对最优视差值进行检测,利用背景填充法对检测出的误匹配点进行填充,得到最终的视差图;
<mrow> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <mi>&amp;alpha;</mi> <mo>&amp;CenterDot;</mo> <msup> <mi>e</mi> <mfrac> <mrow> <mo>-</mo> <mo>|</mo> <mo>|</mo> <mi>S</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>S</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> </mrow> <msubsup> <mi>&amp;delta;</mi> <mi>s</mi> <mn>2</mn> </msubsup> </mfrac> </msup> <mo>+</mo> <mi>&amp;beta;</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msup> <mi>e</mi> <mfrac> <mrow> <mo>-</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> <msubsup> <mi>&amp;delta;</mi> <mi>d</mi> <mn>2</mn> </msubsup> </mfrac> </msup> </mrow>
其中,wij为自适应权重;α、β为权重因子;S(xi,yj)、S(x,y)分别表示聚合窗口内像素点pij与p的SIFT特征描述子;x、y为中心点的坐标;xi、yj为聚合窗口内的任意一点的坐标。
2.根据权利要求1所述的一种基于SIFT描述子的自适应权重立体匹配方法,其特征在于,所述初始联合匹配代价具体为:
采用左右视图梯度域的幅值和相位,对左右视图进行匹配代价的计算,获得初始联合匹配代价。
3.根据权利要求1所述的一种基于SIFT描述子的自适应权重立体匹配方法,其特征在于,所述相似性区域判决准则具体为:判定像素点q是否满足以下关系:
Dc(p,q)<ψ,且Ds(p,q)<ξ
其中,Dc(p,q)为中心像素点p与像素点q之间的色彩差异;ψ为阈值;Ds(p,q)表示中心像素点p与像素点q之间的空间距离;ξ为像素点q的最大搜索范围。
4.根据权利要求1所述的一种基于SIFT描述子的自适应权重立体匹配方法,其特征在于,所述根据初始联合匹配代价、自适应聚合窗口完成匹配代价的优化的步骤具体为:
<mrow> <msub> <mi>C</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>d</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;Element;</mo> <mi>w</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> </mrow> </munder> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;CenterDot;</mo> <mi>C</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>d</mi> <mo>)</mo> </mrow> </mrow>
其中:pij代表聚合窗口内的某个像素点pij(xi,yj),wij表示利用SIFT描述子计算的某个像素点pij的自适应权重;win(p)表示中心点像素p(x,y)基于相似性区域判决准则获得的自适应窗口;C(x,y,d)为初始联合匹配代价;C2(x,y,d)为优化后的匹配代价;d表示左右视差图的可能视差。
CN201510325507.9A 2015-06-12 2015-06-12 一种基于sift描述子的自适应权重立体匹配方法 Active CN104966290B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510325507.9A CN104966290B (zh) 2015-06-12 2015-06-12 一种基于sift描述子的自适应权重立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510325507.9A CN104966290B (zh) 2015-06-12 2015-06-12 一种基于sift描述子的自适应权重立体匹配方法

Publications (2)

Publication Number Publication Date
CN104966290A CN104966290A (zh) 2015-10-07
CN104966290B true CN104966290B (zh) 2017-12-08

Family

ID=54220321

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510325507.9A Active CN104966290B (zh) 2015-06-12 2015-06-12 一种基于sift描述子的自适应权重立体匹配方法

Country Status (1)

Country Link
CN (1) CN104966290B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295652A (zh) * 2016-07-27 2017-01-04 中测高科(北京)测绘工程技术有限责任公司 一种直线特征匹配方法及系统
CN106384363B (zh) * 2016-09-13 2019-09-06 天津大学 一种快速自适应权重立体匹配方法
CN106355570B (zh) * 2016-10-21 2019-03-19 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN106600632B (zh) * 2016-11-04 2019-09-17 天津大学 一种改进匹配代价聚合的立体图像匹配方法
CN108876841B (zh) * 2017-07-25 2023-04-28 成都通甲优博科技有限责任公司 一种视差图视差求精中插值的方法及系统
CN108062765A (zh) * 2017-12-19 2018-05-22 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置及电子设备
CN109584282B (zh) * 2018-11-24 2022-08-12 天津大学 一种基于sift特征与光流模型的非刚性图像配准方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101521740A (zh) * 2009-04-01 2009-09-02 北京航空航天大学 基于多尺度不变特征的实时运动估计方法
CN101777059A (zh) * 2009-12-16 2010-07-14 中国科学院自动化研究所 一种提取地标性场景摘要的方法
CN103236082A (zh) * 2013-04-27 2013-08-07 南京邮电大学 面向捕获静止场景的二维视频的准三维重建方法
CN103345736A (zh) * 2013-05-28 2013-10-09 天津大学 一种虚拟视点绘制方法
CN103761768A (zh) * 2014-01-22 2014-04-30 杭州匡伦科技有限公司 一种三维重建的立体匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101622344B1 (ko) * 2014-12-16 2016-05-19 경북대학교 산학협력단 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101521740A (zh) * 2009-04-01 2009-09-02 北京航空航天大学 基于多尺度不变特征的实时运动估计方法
CN101777059A (zh) * 2009-12-16 2010-07-14 中国科学院自动化研究所 一种提取地标性场景摘要的方法
CN103236082A (zh) * 2013-04-27 2013-08-07 南京邮电大学 面向捕获静止场景的二维视频的准三维重建方法
CN103345736A (zh) * 2013-05-28 2013-10-09 天津大学 一种虚拟视点绘制方法
CN103761768A (zh) * 2014-01-22 2014-04-30 杭州匡伦科技有限公司 一种三维重建的立体匹配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Image Matching Using SIFT Features and Relaxation Labeling Technique-A Constraint Initializing Method for Dense Stereo Matching;Jyoti Joglekar et al;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;20140930;第25卷(第9期);第5643-5652页 *
Stereo matching using gradient similarity and locally adaptive support-weight;Leonardo De-Maeztu et al;《Pattern Recognition Letters》;20111231;第32卷(第11期);第1643-1651页 *

Also Published As

Publication number Publication date
CN104966290A (zh) 2015-10-07

Similar Documents

Publication Publication Date Title
CN104966290B (zh) 一种基于sift描述子的自适应权重立体匹配方法
Deng et al. Amodal detection of 3d objects: Inferring 3d bounding boxes from 2d ones in rgb-depth images
Chen et al. Improved saliency detection in RGB-D images using two-phase depth estimation and selective deep fusion
Hirschmuller Stereo vision in structured environments by consistent semi-global matching
Concha et al. Using superpixels in monocular SLAM
Yamaguchi et al. Robust monocular epipolar flow estimation
Strasdat et al. Double window optimisation for constant time visual SLAM
Mičušík et al. Multi-view superpixel stereo in urban environments
CN104680510A (zh) Radar视差图优化方法、立体匹配视差图优化方法及系统
Smith et al. Stereo matching with nonparametric smoothness priors in feature space
CN104167000B (zh) 一种仿射不变的宽基线图像密集匹配方法
Li et al. 4FP-structure: A robust local region feature descriptor
CN108388901B (zh) 基于空间-语义通道的协同显著目标检测方法
Kok et al. A review on stereo vision algorithm: Challenges and solutions
Vázquez‐Delgado et al. Real‐time multi‐window stereo matching algorithm with fuzzy logic
CN108629809A (zh) 一种精确高效的立体匹配方法
Kim et al. Multiscale feature extractors for stereo matching cost computation
Guo et al. Robust object detection by cuboid matching with local plane optimization in indoor RGB-D images
Li et al. Efficient methods using slanted support windows for slanted surfaces
Sheng et al. Depth enhancement based on hybrid geometric hole filling strategy
Borisagar et al. Census and segmentation-based disparity estimation algorithm using region merging
Ding et al. Optimum inpainting for depth map based on l 0 total variation
Pagnutti et al. Joint Color and Depth Segmentation based on Region Merging and Surface Fitting.
Liu et al. A novel method for stereo matching using Gabor Feature Image and Confidence Mask
Malathi et al. Estimation of disparity map of stereo image pairs using spatial domain local Gabor wavelet

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210909

Address after: Room 109, no.1866, Bohai 12th Road, Port Economic Zone, Binhai New Area, Tianjin 300452

Patentee after: Tianjin Bohua Xinchuang Technology Co.,Ltd.

Address before: 300072 Tianjin City, Nankai District Wei Jin Road No. 92

Patentee before: Tianjin University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220110

Address after: 300457 No. 6, Nangang 9th Street, Nangang Industrial Zone, economic and Technological Development Zone, Binhai New Area, Tianjin

Patentee after: Tianjin Bohua Nangang wharf storage Co.,Ltd.

Address before: Room 109, no.1866, Bohai 12th Road, Port Economic Zone, Binhai New Area, Tianjin 300452

Patentee before: Tianjin Bohua Xinchuang Technology Co.,Ltd.