CN103489183B - 一种基于边缘分割和种子点的局部立体匹配方法 - Google Patents

一种基于边缘分割和种子点的局部立体匹配方法 Download PDF

Info

Publication number
CN103489183B
CN103489183B CN201310404483.7A CN201310404483A CN103489183B CN 103489183 B CN103489183 B CN 103489183B CN 201310404483 A CN201310404483 A CN 201310404483A CN 103489183 B CN103489183 B CN 103489183B
Authority
CN
China
Prior art keywords
pixel
point
parallax value
seed point
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310404483.7A
Other languages
English (en)
Other versions
CN103489183A (zh
Inventor
赵勇
胡刚
张亚莉
袁誉乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Rui Technology Co., Ltd.
Original Assignee
Shenzhen Rui Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Rui Technology Co Ltd filed Critical Shenzhen Rui Technology Co Ltd
Priority to CN201310404483.7A priority Critical patent/CN103489183B/zh
Publication of CN103489183A publication Critical patent/CN103489183A/zh
Application granted granted Critical
Publication of CN103489183B publication Critical patent/CN103489183B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种基于边缘分割和种子点的局部立体匹配方法,所述的方法包括:A.利用边缘轮廓构造动态变化匹配窗口;B.对视差值进行一致性检测,得到视差种子点;C.基于颜色差异将种子点的视差值传递给周围非种子点;D.基于水平和竖直上的投票方法来消除错误的匹配点。本发明根据边缘提取方法提取边缘轮廓,然后通过边缘分割构建匹配窗口,从而提高了分割的鲁莽性和准确性。通过采用基于颜色差异的种子点视差传递策略和基于投票的优化方法,有利于得到精确的视差图。

Description

一种基于边缘分割和种子点的局部立体匹配方法
技术领域
本发明涉及图像处理领域,尤其涉及基于图像的双目立体匹配方法及其实现。
背景技术
通过给定的两幅图像得到稠密的视差图是计算机视觉领域的研究热点和难点。获得精确的稠密视差图之所以富于挑战,是因为如下因素:1.低纹理信息区域。当进行匹配时,噪声会对匹配结果产生很大影响。2.遮挡问题。当深度不连续时会出现“foregroundfattening”现象。3.高纹理区域。4.重复纹理区域。
早期的立体视觉匹配方法是基于特征的,即它们首先使用兴趣算子或者其它边缘检测器来提取潜在能够匹配的图像位置集合,然后使用基于块的度量在其它图像中搜索对应的位置。因而得到的是稀疏的视差图,如Matthies,Bolles。1996年,Collins提出边缘才是唯一稳定的特征并将其用于立体匹配。这个方向最新的工作是Zhang和Shan在2000年做的工作,他们关注于如何提取出高稳定性的特征并使用它们作为种子以生长出更多的匹配。
因为基于图像的渲染和建模中都需要稠密的视差图,目前的立体匹配方法主要关注于稠密视差图的获取。Scharstein和Szeliski在2002年将立体匹配方法分为以下四个步骤:1.像素点匹配代价的计算。2.匹配代价的聚集。3.视差计算和优化(亚像素)。4.视差求精(refinement)。立体匹配方法大致可以分为两类:局部方法和全局方法。局部方法利用像素周围的匹配窗口来计算匹配代价,并通过WTA方法得到最优的视差值;全局方法主要是采用了全局的优化理论方法估计视差,建立全局能量函数,通过最小化全局能量函数得到最优视差值。
全局方法通常利用平滑性假设,然后求解一个全局优化问题,即求取一个视差赋值来最小化一个包含数据和平滑项的全局代价函数。这些方法间的主要区别在于所使用的最小化过程,例如图割方法(Boykov,Veksler和Zabih在2001年提出),置信传递方法(Sun,Zheng和Shum在2003年提出),期望最大化方法(Birchfield在2007年提出)。总的来说全局方法的精度较高,但是速度较慢。
局部方法是基于匹配窗口的,它在计算一个给定点的视差值时依赖于局部有限窗口内的灰度值。通过计算匹配窗口内总的匹配代价(聚集过程),利用WTA策略选择匹配代价最小的聚集值来确定视差。局部方法的代表有SSD方法,SGBM方法,Adapt.Weights方法,SegmentSup.方法等。总的来说局部方法获得的视差图的精度要差于全局方法,但是速度较快,适合于实时系统。
局部立体匹配方法的关键是找到合适的匹配窗口。最先采用固定窗口(FixedWindow),效果很差。1999年Bobick和Intille引入固定在不同点的多窗口以提高匹配窗口的灵活性。Okutomi等利用自适应大小窗口,根据区域信息动态改变窗口大小,提高了匹配效果。2006年Yoon和Kweon提出了基于彩色分割方法,这是局部方法里一个里程碑式的改进,使得局部方法的精度可以与全局方法相媲美。后来又提出了通过分割的方法得到匹配窗口。
目前已经出现了很多局部立体匹配方法,但是在时间复杂度和视差图精度方面仍然需要进行改进。
发明内容
本申请提供了一种基于边缘分割和种子点的局部立体匹配方法,其特征在于包括:
A.利用边缘轮廓构造动态变化匹配窗口;
B.对视差值进行一致性检测,得到视差种子点;
C.基于颜色差异将种子点的视差值传递给周围非种子点;
D.基于水平和竖直上的投票方法来消除错误的匹配点。
在一些实施例中,在步骤A中利用Canny边缘检测方法提取轮廓,将提取得到的边缘作为条件来构造匹配窗口。
在一些实施例中,将像素点p周围的点分为内点和外点,所有的内点构成p的匹配窗口;匹配窗口的构造过程是寻找所以内点的过程。
在一些实施例中,在步骤A中像素点p的匹配窗口通过如下过程获得:以像素点为起始点,在竖直方向上,在上、下两个方向上标记内点,直到遇到边缘像素点而停止;以竖直方向上得到的内点为起始点,在水平方向上,在左、右两个方向上标记内点,直到遇到边缘像素点而停止;以上标记的所有内点构成该像素点的匹配窗口;匹配窗口最大为31X31,最小为3X3。
在一些实施例中,在所述步骤B之前得到的视差值进行一致性检测;通过了一致性检测的像素点,被标记为种子点;否则,被标记为非种子点。
在一些实施例中,一致性检测方法为:对于左图中的像素点p,通过WTA策略找到右图中与之匹配的像素点q,以及对应的视差值disp(L);对于右图中的像素点q,通过WTA策略找到左图中与之匹配的像素点p’,以及对应的视差值disp(R);如果disp(L)等于disp(R),则通过了一致性检测;否则,未通过。
在一些实施例中,在步骤C中循环地寻找非种子点,一旦找到非种子点,则其视差值通过其周围的种子点的视差值得到。循环直到全部的非种子点视差值都求得之后才结束。所有的非种子点和种子点的视差值构成了完整的稠密视差图。
在一些实施例中,对于非种子点p,我们在水平方向上,p的两侧分别找到距离p点最近的左、右非种子点S1和S2,S1和S2的视差值分别为disp1和disp2。如果disp1<disp2,则像素点p的视差值被赋值为disp1和disp2之间的较小者;否则像素点P的视差值通过颜色差异来得到。
在一些实施例中,颜色差异的方法为:对于非种子点p,我们分别比较p和S1和S2的颜色差异。如果p和S1的颜色差异大于p和S2的颜色差异,则将S2的视差值赋值给p;否则,将S1的视差值赋值给p。颜色差异是像素p和像素q在RGB空间里的R、G、B三通道的灰度值差异的绝对值之和。
在一些实施例中,由步骤C得到的视差图中仍然存在错误的视差值,通过先水平方向上投票、后垂直方向上投票的机制来消除它们;
水平方向上,对任意相邻像素点p和q,若它们的视差值的差值的绝对值大于一个设定的阈值,则在像素点p的两侧构建分割段,其依据为颜色差异的大小。然后在分割段里的所有像素点的视差值进行投票,得到票数最多的视差值赋值给像素点p;
在垂直方向上,在像素点p两侧构建分割段(p,p-N/2)和(p,p+N/2),其中N为分割段的长度。在分割段里进行投票,得到票数最多的视差值将赋值给像素点p。
在一些实施例中,所述先水平方向上投票、后垂直方向上投票重复进行2次。
有益效果:
本发明根据Canny方法得到的边缘轮廓构造局部匹配窗口,通过一致性检测生成一系列的视差种子点;然后通过新的基于颜色差异的传递方法将种子点的视差值赋值给周围的非种子点,从而得到稠密的反映深度信息的视差图。本发明中的方法能够自动地调整局部匹配窗口,通过种子点的视差值传递得到精确的稠密视差图。具有鲁棒性好、精度高、时间复杂度低的优点,得到的视差图可以进一步实现3D重建。
附图说明
图1为本发明的一种基于边缘分割和种子点的立体匹配方法的结构示意图;
图2为本发明的一种立体匹配方法实施例的流程图;
图3为本发明的一种根据边缘轮廓生成局部匹配窗口的原理示意图;
图4为本发明的双目立体视觉系统的结构原理图;
图5为本发明的立体匹配过程中依赖的对极几何原理图。
具体实施方式
下面通过具体实施方式结合附图2对本发明进行详细说明。
立体匹配方法通过匹配两个不同的摄像机视图的像素点,从而获得像素点的视差图和深度信息。这两个视图必须要有一定的重叠区域(否则无法进行匹配),通常可以通过数码相机或者摄像机得到。
在局部立体匹配方法中,为了提高匹配的准确性,需要以像素点为中心构建一个匹配窗口,匹配的时计算匹配窗口内的总的匹配代价。由于在深度不连续的地方,会出现“Foreground flattening”现象,因此动态调整匹配窗口至关重要。
请参考图1,在本发明的一种实施例中,我们通过步骤step1~step8,最终获得了精确的稠密视差图,整个过程包括图像的采集、摄像机的校正、边缘轮廓的提取、匹配窗口的构建、匹配代价的计算、WTA策略、一致性检测、视差值的传递和视差图的优化等部分。具体步骤如下:
Step1:图像的采集和摄像机的标定。
1.图像的采集。通过数码相机或摄像机采集图像,图像之间要有一定的重叠区域。
2.摄像机的标定。得到两台摄像机之间几何关系。
Step2:调整摄像机间的角度和距离,输出行对准的校正图像(左图像和右图像)。行对准指的是两图像在同一个平面上,并且图像的每一行是严格对齐(具有相同的方向和y坐标)。
Step3:通过Canny边缘提取方法提取左右图像的边缘轮廓。Canny边缘提取方法是目前公认性能最好的边缘提取方法之一。我们将提取到的边缘轮廓上的像素点的灰度值设为255,将其它像素点的灰度值设为0,这样就得到了以灰度值255和0标识的边缘轮廓图I1。
Step4:利用Step3中得到的边缘轮廓构造动态变化的匹配窗口。在局部立体匹配中一个关键的因素是如何根据像素周围的信息动态调整匹配窗口的大小,从而使得在匹配窗口中的所有像素具有相同或像素的视差值。本步骤通过边缘分割来构造动态的匹配窗口,原理图如附图3。
对于左图中的任意像素点p(x,y),我们将它周围的像素点分为两类:内点和外点,所有内点(包括像素点p本身)构成像素点p的匹配窗口。接着我们要做的就是寻找像素点p周围的所有内点,方法如下:
1.我们以像素点p为起始点,首先在正y轴(竖直向上的方向)寻找内点。将遇到的所有像素点q(x,y’)标记为内点,直到如下两种情况之一出现为止:一是发现像素点q为边缘轮廓上的一个像素点;二是像素点p和像素点q的距离(因为p和q的横坐标相同,他们的距离就是y轴上的距离)大于L(L是用来限制匹配窗口的最大值,可以设定为10)。同样,在负y轴(竖直向下的方向)上以像素点p为起始点来寻找内点。将遇到的所有像素点q标记为内点,直到上面介绍过的两种情况之一的出现为止。
在具体实施的时候,我们可以根据边缘轮廓图I1中p(x,y)周围的像素点的灰度值来判断是否为边缘点:若q(x,y’)的灰度值为255,则说明q是一个边缘点,此时满足上面情况,内点标记停止;若q(x,y’)的灰度值为0,则说明不是边缘点,应该标记为内点。
2.通过上面的方法,我们已经得到了以像素点p为中心的在竖直方向(y轴)上所有的内点q1,q2,q3...。接下来我们通过y轴方向上的内点构造水平方向上的内点:以这些内点为起始点(例如q1(x,y’),我们在水平向左(x轴负方向)和水平向右(x轴正方向)上将遇到的所以像素点标记为内点,直到如下两种情况之一出现为止:一是发现像素点s(x’,y’)为边缘轮廓上的一个像素点;二是像素点s和像素点q1之间的距离(由于他们的纵坐标相同,他们的距离就是水平距离)大于L(与上面相同,设定为10)。
同样我们根据边缘轮廓图I1中q1(x,y’)周围的像素点的灰度值来判断是否为边缘点,与前面介绍的方法相同。
这样通过1和2我们标记处了像素点p周围的所有内点,包括竖直方向上的内点q1,q2,q3...和以它们为中心标记的水平内点s1,s2,s3...。这些内点构成了像素点p周围的匹配窗口。除去内点之外的所有像素点为外点。
在本实例中,我们可以选择一个二维数组来标识像素点p的匹配窗口:uchar mask[21][21](21=2*L+1)。当mask中的一个元素的值为1时代表的是一个内点,为0代表的是一个外点。一个可能的mask数组的值为:
Mask[21][21]={
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0},
{0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0},
{0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0},
{0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0},
{0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0},
{0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0},
{0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0,0},
{0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,1,1,1,1,1,1,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,1,1,1,1,1,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0},
{0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0}}
可以看到Mask由值为0或者1的元素构成,所有为1的元素是像素p的内点,从而它们构成像素点p的匹配窗口。注意:像素点p对应Mask二维数组中的Mask[10][10], 匹配窗口是以像素点p为中心,在p的周围像素点中找到的。
Step5:在局部匹配窗口中计算匹配代价。匹配窗口内的匹配代价的计算方法有很多种, 如SAD(sum of absolute differences), SSD(sum of squared differences),STAD(sum oftruncated differences)。在本实例中为了提高性能,我们选择STAD方法来计算匹配代价,它的计算公式如下:
Step6:利用WTA选择最优的视差值。对于左图中的像素点p,我们需要在右图中的搜索范围为[0,dmax)(dmax是可能出现的最大的视差值)内寻找匹配代价最小的像素点q(x-d,y),并把此时的视差值d作为像素点p的视差值。不断重复这个过程,我们就能够找到左图像中所有像素点的视差值。
Step7:一致性检测。有上一步得到的视差值中存在着很多错误的匹配点,这是由于遮挡、低纹理和高纹理因素的影响所导致的。这一步我们采用一致性检测来消除这些错误匹配的点,从而得到可信度较高的、可以认为是正确的视差值种子点。具体而言就是:对于左图中的每一个像素点p(x,y),我们找到右图中的匹配点q(x-d1,y),它的视差值为d1;然后以右图中像素点q(x-d1,y)为基准,找到左图中与之最匹配的匹配点p’(x-d1+d2,y),如果p就是p’,这意味着d1==d2,那么我们就说像素点p通过了一致性检测,我们将其标记为视差种子点;否则,我们便将其标记为非种子点。
Step8:将种子点的视差值传递给非种子点。由Step7将左图中所有的像素点分为两类:视差种子点和非视差种子点。视差种子点的视差值具有很高的可信度,我们将其视为正确的视差值。而通过视差种子点构成的视差图是稀疏的视差图,我们需要将这些种子点的视差值传递给周围的非视差种子点,从而构成了稠密的视差图。
有学者提出通过插值法来实现:非种子点的视差值通过周围最近邻的种子点的视差值的插值方法来得到,并对深度不连续的区域和遮挡区域进行特殊处理(选取较小的视差值作为它的非种子点的视差值)。本发明采用另外一种新的视差值传递方法,它采用颜色差异比较来进行传递,具有更好的实现效果。
对于左图中的每一个非种子点p,我们在它水平方向的两端寻找最近邻的种子点(此处我们假设SL,SR分别为左边最近邻种子点和右边最近邻种子点),SL和SR的视差值分别为dL,dR。
我们首先比较dL和dR的大小,如果dL<dR,说明像素点p位于深度信息不连续的区域,而且像素点p极有可能位于遮挡区域。此时我们将点p标记为处于遮挡区域,它的视差值为min(dL,dR)。
如果dL>dR,此时我们通过比较像素点p和SL和SR的颜色差异来选取最终的视差值。具体而言如下:如果p和SL的颜色差异较小,我们选择SL的视差值作为非种子点p的视差值;否则,我们选择SR的视差值作为非种子点p的视差值。
颜色差异的定义如下:它是两个像素点在RGB空间内的灰度值差值的绝对值之和。若两个像素点之间的颜色差异较小,则它们趋向于处于同一个深度平面内,因而具有相同或相似的视差值。通过比较p和左右邻近种子点的颜色差异,我们将颜色差异更小的种子点的视差值赋值给非种子点。
Step9:优化视差图。这一步对所得的稠密视差图进行优化。由上一步得到的视差图中仍然存在一些错误的视差值,这些错误的视差值一方面来自少量的错误种子点,另外一方面来自在种子点视差值传递过程中的一些错误的视差传递。我们采用基于投票方法的来消除这些错误匹配的像素点。
1.水平方向上进行投票。对于视差值不连续的区域(如p(x,y),q(x+1,y),p和q的视差值的差的绝对值大于一个阈值Td,Td我们设为2),我们以像素点p为中心构造分割段:
以p(x,y)为起始点,我们从左、右两个方向上检测像素点,如像素点q,如果p和q的颜色差异值小于阈值Tc(Tc在本实施例中取为10),我们标定q位分割段内的点。一旦发现p和q的颜色差异值大于等于阈值Tc,或者分割段的长度大于设定的最大值Ts(在本实施例中我们设定Ts为41),则停止检测。我们得到分割段[m,n]。注:m,m+1,m+2,...,n都为分割段内的像素点。
在分割段内的所有像素点内进行投票。具体实施如下:我们利用数组votes[dmax]来表示投票结果,votes[i](0<=i<dmax)代表视差值i所获得的总票数。
假设q为分割段内的一个像素点,q的视差值为D(q),那么votes[D(q)]++。
对于每个分割段内的像素点,我们统计视差值在它们中间出现的次数(频率),最后我们将搜索得到票数最多的视差值,将它赋值为像素点p的视差值。
2.竖直方向上进行投票。与水平方向上的投票过程是相同的,只不过是在竖直方向上进行。我们同样遇到视差值不连续的区域,我们首先构造分割段,分割段内的所有像素点与p点的颜色差异小于设定的阈值Tc;然后在分割段内进行投票,统计不同的视差值出现的频率;最后将像素点p的视差值通过拥有票数最多的视差值进行更新。
这两个过程重复2次,就可以基本上消除所有的错误匹配像素点了。
最后我们得到了精确的稠密的视差图。

Claims (9)

1.一种基于边缘分割和种子点的局部立体匹配方法,其特征在于包括:
A.利用边缘轮廓构造动态变化匹配窗口;
B.对视差值进行一致性检测,得到视差种子点;
C.基于颜色差异将种子点的视差值传递给周围非种子点;
D.基于水平和竖直上的投票方法来消除错误的匹配点;
在步骤C中循环地寻找非种子点,一旦找到非种子点,则其视差值通过其周围的种子点的视差值得到,循环直到全部的非种子点视差值都求得之后才结束;所有的非种子点和种子点的视差值构成了完整的稠密视差图;
对于非种子点p,我们在水平方向上,p的两侧分别找到距离p点最近的左、右非种子点S1和S2,S1和S2的视差值分别为disp1和disp2,如果disp1<disp2,则像素点p的视差值被赋值为disp1和disp2之间的较小者,否则像素点P的视差值通过颜色差异来得到。
2.如权利要求1所述的方法,其特征在于,在步骤A中利用Canny边缘检测方法提取轮廓,将提取得到的边缘作为条件来构造匹配窗口。
3.如权利要求1所述的方法,其特征在于,将像素点p周围的点分为内点和外点,所有的内点构成p的匹配窗口;匹配窗口的构造过程是寻找所有内点的过程。
4.如权利要求1所述的方法,其特征在于,在步骤A中像素点p的匹配窗口通过如下过程获得:以像素点为起始点,在竖直方向上,在上、下两个方向上标记内点,直到遇到边缘像素点而停止;以竖直方向上得到的内点为起始点,在水平方向上,在左、右两个方向上标记内点,直到遇到边缘像素点而停止;以上标记的所有内点构成该像素点的匹配窗口;匹配窗口最大为31X31,最小为3X3。
5.如权利要求1中所述的方法,其特征在于,在所述步骤B之前得到的视差值进行一致性检测,通过了一致性检测的像素点,被标记为种子点;否则,被标记为非种子点。
6.如权利要求5所述的方法,其特征在于,一致性检测方法为:对于左图中的像素点p,通过WTA策略找到右图中与之匹配的像素点q,以及对应的视差值disp(L);对于右图中的像素点q,通过WTA策略找到左图中与之匹配的像素点p’,以及对应的视差值disp(R);如果disp(L)等于disp(R),则通过了一致性检测;否则,未通过。
7.如权利要求1所述的方法,其特征在于,颜色差异的方法为:对于非种子点p,我们分别比较p和S1和S2的颜色差异;如果P和S1的颜色差异大 于p和S2的颜色差异,则将S2的视差值赋值给p;否则,将S1的视差值赋值给p;颜色差异是像素p和像素q在RGB空间里的R、G、B三通道的灰度值差异的绝对值之和。
8.如权利要求1所述的方法,其特征在于,由步骤C得到的视差图中仍然存在错误的视差值,通过先水平方向上投票、后垂直方向上投票的机制来消除它们;
水平方向上,对任意相邻像素点p和q,若它们的视差值的差值的绝对值大于一个设定的阈值,则在像素点p的两侧构建分割段,其依据为颜色差异的大小;然后在分割段里的所有像素点的视差值进行投票,得到票数最多的视差值赋值给像素点p;
垂直方向上,在像素点p两侧构建分割段(p,p-N/2)和(p,p+N/2),其中N为分割段的长度;在分割段里进行投票,得到票数最多的视差值将赋值给像素点p。
9.如权利要求8所述的方法,其特征在于,所述先水平方向上投票、后垂直方向上投票的重复进行2次。
CN201310404483.7A 2012-10-17 2013-09-04 一种基于边缘分割和种子点的局部立体匹配方法 Expired - Fee Related CN103489183B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310404483.7A CN103489183B (zh) 2012-10-17 2013-09-04 一种基于边缘分割和种子点的局部立体匹配方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2012103957152 2012-10-17
CN201210395715 2012-10-17
CN201210395715.2 2012-10-17
CN201310404483.7A CN103489183B (zh) 2012-10-17 2013-09-04 一种基于边缘分割和种子点的局部立体匹配方法

Publications (2)

Publication Number Publication Date
CN103489183A CN103489183A (zh) 2014-01-01
CN103489183B true CN103489183B (zh) 2017-10-10

Family

ID=49829381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310404483.7A Expired - Fee Related CN103489183B (zh) 2012-10-17 2013-09-04 一种基于边缘分割和种子点的局部立体匹配方法

Country Status (1)

Country Link
CN (1) CN103489183B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631887B (zh) * 2016-01-18 2019-10-25 武汉理工大学 基于自适应支持权重匹配算法的两步视差改良方法及系统
CN107452008A (zh) * 2016-06-01 2017-12-08 上海东方传媒技术有限公司 图像边缘检测方法及装置
CN106408596B (zh) * 2016-09-06 2019-06-21 电子科技大学 基于边缘的局部立体匹配方法
CN107578389B (zh) * 2017-09-13 2021-01-08 中山大学 一种平面监督的图像色彩深度信息协同修复系统
CN109859253A (zh) * 2018-12-17 2019-06-07 深圳市道通智能航空技术有限公司 一种立体匹配方法、装置和电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102665086A (zh) * 2012-04-26 2012-09-12 清华大学深圳研究生院 利用基于区域的局部立体匹配获取视差的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100762670B1 (ko) * 2006-06-07 2007-10-01 삼성전자주식회사 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102665086A (zh) * 2012-04-26 2012-09-12 清华大学深圳研究生院 利用基于区域的局部立体匹配获取视差的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种基于自适应窗口和图切割的快速立体匹配算法;尹传历 等;《光学精密工程》;20080630;第16卷(第6期);第1119页第3.1节 *
双目立体视觉中的图像匹配技术研究;赵亮亮;《中国优秀硕士学位论文全文数据库 信息科技辑》;20070115;第46页,第52页第5.2.2-5.2.3节,第55-56页第5.2.4节,第58-59页第5.3.1节 *

Also Published As

Publication number Publication date
CN103489183A (zh) 2014-01-01

Similar Documents

Publication Publication Date Title
CN101887589B (zh) 一种基于立体视觉的实拍低纹理图像重建方法
CN101625768B (zh) 一种基于立体视觉的三维人脸重建方法
CN105225482B (zh) 基于双目立体视觉的车辆检测系统和方法
CN105528785A (zh) 一种双目视觉图像立体匹配方法
CN103489183B (zh) 一种基于边缘分割和种子点的局部立体匹配方法
CN103106688B (zh) 基于双层配准方法的室内三维场景重建方法
CN108629812A (zh) 一种基于双目相机的测距方法
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
CN110310320A (zh) 一种双目视觉匹配代价聚合优化方法
CN104867133B (zh) 一种快速的分步立体匹配方法
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
CN106651897B (zh) 一种基于超像素分割的视差修正方法
CN104504688A (zh) 基于双目立体视觉的客流密度估计的方法和系统
CN110288659B (zh) 一种基于双目视觉的深度成像及信息获取方法
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN102665086A (zh) 利用基于区域的局部立体匹配获取视差的方法
CN106408596B (zh) 基于边缘的局部立体匹配方法
CN104318576B (zh) 一种超像素级别的图像全局匹配方法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN103702103B (zh) 基于双目相机的光栅立体印刷图像合成方法
CN104156957A (zh) 一种稳定高效的高分辨率立体匹配方法
CN104182968A (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
CN104331890B (zh) 一种全局视差估计方法和系统
CN113920183A (zh) 基于单目视觉的车前障碍物测距方法
CN108021857B (zh) 基于无人机航拍图像序列深度恢复的建筑物检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
ASS Succession or assignment of patent right

Owner name: SHENZHEN RUIGONG TECHNOLOGY CO., LTD.

Free format text: FORMER OWNER: SHENZHEN GRADUATE SCHOOL OF PEKING UNIVERSITY

Effective date: 20150618

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150618

Address after: 518000 Guangdong city of Shenzhen province Nanshan District high in the four No. 31 EVOC technology building 17B1

Applicant after: Shenzhen Rui Technology Co., Ltd.

Address before: 518055 Guangdong city in Shenzhen Province, Nanshan District City Xili Shenzhen University North Campus

Applicant before: Shenzhen Graduate School of Peking University

C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171010

Termination date: 20180904

CF01 Termination of patent right due to non-payment of annual fee