CN103366354A - 用于立体匹配的方法和系统 - Google Patents
用于立体匹配的方法和系统 Download PDFInfo
- Publication number
- CN103366354A CN103366354A CN2012100926519A CN201210092651A CN103366354A CN 103366354 A CN103366354 A CN 103366354A CN 2012100926519 A CN2012100926519 A CN 2012100926519A CN 201210092651 A CN201210092651 A CN 201210092651A CN 103366354 A CN103366354 A CN 103366354A
- Authority
- CN
- China
- Prior art keywords
- pixel
- disparity
- cost
- parallax
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000004364 calculation method Methods 0.000 claims abstract description 36
- 230000002776 aggregation Effects 0.000 claims abstract description 33
- 238000004220 aggregation Methods 0.000 claims abstract description 33
- 238000005457 optimization Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims 2
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 101100001677 Emericella variicolor andL gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
公开了一种用于立体匹配的方法和系统。该用于立体匹配的方法,包括匹配代价计算步骤、代价聚集步骤、视差计算步骤、以及视差优化步骤,其中匹配代价计算步骤利用左图像和右图像中每个像素的所有分量通道的强度值的水平梯度和竖直梯度,获取左视差空间图像和右视差空间图像。利用本发明,可以快速获取精确的视差图。
Description
技术领域
本发明涉及图像处理领域,更具体地涉及一种用于立体匹配的方法和系统。
背景技术
立体匹配是对某一场景拍摄两个以上图像,通过精确地找出图像间的匹配像素来估计该场景的三维(3D)模型,并且将这些图像间的匹配像素的二维(2D)位置转换为3D深度的处理。在简单的成像配置(例如,两只眼睛或两个相机向前直视的成像配置)中,两只眼睛或两个相机之间的视差与该两只眼睛或两个相机与观察对象之间的距离(即,观察对象在所拍摄的图像中的立体深度)成反比。所以,视差图通常被用来描述所拍摄图像中的像素的立体深度。
在传统的用于立体匹配的算法中,通常将分别由两个眼睛或两个相机获取的两个图像中的一个图像作为参考图像、另一个图像作为目标图像,并且输出目标图像相对于参考图像的视差图。
尽管存在很多用于立体匹配的算法,但是它们一般都包括以下几个步骤:匹配代价计算步骤、代价聚集(cost aggregation)步骤、视差计算步骤、以及视差优化步骤。其中:
匹配代价计算步骤计算与最小视差值(dmin)到最大视差值(dmax)之间的每个视差值相对应的参考图像和目标图像之间的像素差。从dmin到dmax之间的所有视差值和与这些视差值相对应的所有像素差形成了初始的视差空间图像(DSI)。传统的匹配代价计算方法包括:1)计算强度差的平方(SD)的方法和计算光强差的绝对值(AD)的方法(这两种方法对噪声都比较敏感)。2)诸如分级变换和统计变换之类的非参数方法(这些方法对噪声不太敏感,但是计算时间较长)。
代价聚集步骤通过对与每个视差值相对应的匹配代价平面上的支持窗口中的匹配代价求和,来获得更可靠的匹配代价。最常用的代价聚集方法是对匹配代价平面上的固定窗口中的匹配代价求和。但是该方法在很多方面都存在不足,因为1)其忽略了图像上的像素的立体深度的不连续性;以及2)其没有对图像中的模糊区域进行处理。所以,理想的代价聚集方法应该使用这样的支持窗口,该支持窗口包括匹配代价平面上的与同一视差值相对应的尽可能多的点。为此,提出了诸如可移动窗口、多窗口、以及可变窗口之类的支持窗口。但是,所有的这些窗口都不能获得令人满意的结果,并且它们的效率不高。
视差计算步骤根据初始的DSI获取图像的视差图。通常,对于拍摄一个场景所获得的图像上的某个像素点,选择与该像素点相关联的最小匹配代价聚集值所对应的视差值作为该像素点的视差值。
视差优化步骤对所获取的视差值进行后处理,进一步包括子像素优化步骤、遮挡检测步骤、以及遮挡填充步骤。传统的遮挡填充方法包括:1)选择处于同一像素行的在空间上最接近的未被遮挡的像素的最低视差值作为被遮挡的像素的视差值(该方法会产生条纹状的伪像);以及2)使用双边滤波器对被遮挡的区域进行平滑处理(该方法处理速度比较慢)。
发明内容
鉴于以上所述的问题,本发明提供了一种新颖的用于立体匹配的方法和系统。
根据本发明实施例的用于立体匹配的方法,包括匹配代价计算步骤、代价聚集步骤、视差计算步骤、以及视差优化步骤,其中匹配代价计算步骤利用左图像和右图像中每个像素的所有分量通道的强度值的水平梯度和竖直梯度,计算以左图像为参考图像的左视差空间图像和以右图像为参考图像的右视差空间图像。
根据本发明实施例的用于立体匹配的系统,包括匹配代价计算单元、代价聚集单元、视差计算单元、以及视差优化单元,其中匹配代价计算单元用于利用左图像和右图像中每个像素的所有分量通道的强度值的水平梯度和竖直梯度,计算以左图像为参考图像的左视差空间图像和以右图像为参考图像的右视差空间图像。
利用本发明,可以快速获取精确的视差图。
附图说明
从下面结合附图对本发明的具体实施方式的描述中可以更好地理解本发明,其中:
图1示出了根据本发明实施例的用于立体匹配的方法/系统的示意图;
图2示出了由匹配代价计算单元执行的匹配代价计算步骤的示意图;
图3示出了确定左边界像素x1和右边界像素x2的过程;
图4示出了由视差计算单元和视差优化单元执行的视差计算和优化步骤的过程;以及
图5示出了二次多项式的曲线图。
具体实施方式
下面将详细描述本发明各个方面的特征和示例性实施例。下面的描述涵盖了许多具体细节,以便提供对本发明的全面理解。但是,对于本领域技术人员来说显而易见的是,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更清楚的理解。本发明绝不限于下面所提出的任何具体配置和算法,而是在不脱离本发明的精神的前提下覆盖了相关元素、部件和算法的任何修改、替换和改进。
与传统的立体匹配方法一样,本发明提出的用于立体匹配的方法也包括以下四个步骤:匹配代价计算步骤、代价聚集步骤、视差计算步骤、和视差优化步骤。
图1示出了根据本发明实施例的用于立体匹配的方法/系统的示意图。具体地,在根据本发明实施例的用于立体匹配的方法/系统中,使用了能够更好地平衡对噪声的敏感度和计算复杂度的匹配代价计算方法和基于边缘感知(edge aware)的支持窗口的代价聚集方法。另外,在根据本发明实施例的视差优化单元/步骤中,使用二次多项式内插来进行子像素优化处理,使用交叉检查法来进行遮挡检测处理,并且使用边缘感知的中值滤波器来进行遮挡填充处理。
根据本发明实施例的用于立体匹配的方法/系统从一对校正图像(rectified images)生成视差图。在标准的校正几何(rectified geometry)中,视差是一对校正图像中的两个相应像素的x坐标之间的差,但是由于视差与像素深度(下文中可以简称为“深度”)成反比,所以视差通常被用来表示像素深度。由于每个像素都有其自身的深度,所以视差图将形成图像d(x,y)。
具体地,根据本发明实施例的用于立体匹配的方法/系统将左图像、右图像、以及预定的最大视差值dmax和最小视差值dmin作为输入,并且输出左图像的视差图(下面以获取左图像的视差图为例进行说明。但是,相关领域技术人员将明白,可以通过类似的处理获取右图像的视差图)。需要说明的是,这里所说的最大视差值和最小视差值代表预先规定的根据本发明实施例的用于立体匹配的方法能够处理的视差值范围。
下面结合附图,详细描述根据本发明实施例的用于立体匹配的系统中的各个单元所执行的用于立体匹配的方法中的各个步骤。
匹配代价计算
该步骤用于计算两个像素之间的匹配代价,以找出两个像素之间的对应关系。图2示出了根据本发明实施例的匹配代价计算步骤的示意图。如图2所示,对于左图像IL(x,y)和介于最小视差值dmin和最大视差值dmax之间的任一视差值d,匹配代价C0(x,y,d)被如下计算出来:
当x-d≥1时
当x≤d时,
在以上公式中,表示左图像中的像素(x,y)的i通道的强度值,表示右图像中的像素(x-d,y)的i通道的强度值。表示左图转换成的灰度图像在像素(x,y)处的水平梯度,表示右图转换成的灰度图像在像素(x-d,y)处的水平梯度,表示左图转换成的灰度图像在像素(x,y)处的竖直梯度,表示右图转换成的灰度图像在像素(x-d,y)处的竖直梯度。C表示通道数目(对于RGB图像,C=3;对于灰度图像,C=1)。另外,以上公式中的参数被设置如下:
α1=0.75;
α2=0.14;
τ=9/255;
τ1=2/255;
τ2=2/255;
对于右图像IR(x,y),匹配代价C’0(x,y,d)被如下简单地计算出来:
当x+d≤w时,
C′0(x,y,d)=C0(x+d,y,d)
当x+d>w时,
以上计算出的匹配代价将形成尺寸为h*w*(dmax-dmin+1)的两个视差空间图像(DSI),其中h表示做图像和右图像的高度,w表示左图像和右图像的宽度。
代价聚集步骤
该步骤用于通过在DSI中的支持窗口上对匹配代价进行求和或平均来对匹配代价进行聚集。对于每个视差值d,分别沿着水平方向和竖直方向对C0(x,y,d)和C’0(x,y,d)执行双行程一维(two-pass 1D)代价聚集。下面以左视差空间图像(DSI)为例进行说明。对于左视差空间图像(DSI)中与视差值d相对应的匹配代价平面,首先执行水平行程的代价聚集,然后对水平行程产生的结果应用竖直行程的代价聚集。首先,对水平行程的处理过程进行说明。对于左视差空间图像中与视差值d相对应的匹配代价平面中的像素(x,y),其聚集代价是支持窗口(即,代价聚集支持窗口)上的匹配代价的平均值:
其中,x1是支持窗口的左边界像素的横坐标值,x2是支持窗口的右边界像素的横坐标值。理想的支持窗口应该包括与视差值d相对应的匹配代价平面中的同一深度的尽可能多的点。深度在支持窗口的边界处发生改变。根据本发明实施例的用于立体匹配的方法通过梯度累加来检测边界。处于与视差值d相对应的匹配代价平面中的像素(x,y)周围、且横坐标处于以上所述边界像素的横坐标之间的像素将被包括在支持窗口中。
图3示出了确定左边界像素的横坐标值x1和右边界像素的横坐标值x2的过程。首先,对于左边界像素的横坐标值x1,定义以下函数来判断像素(u,y)是否具有与(x,y)相同的深度。如果T1x(u,y)≤0,则认为像素(u,y)与像素(x,y)具有相同的深度,否则不认为它们具有相同的深度。
对于右边界像素,类似地定义以下函数。如果T2x(u,y)≤0,则认为像素(u,y)与像素(x,y)具有相同的深度,否则不认为它们具有相同的深度。
为了使支持窗口包括同一深度的尽可能多的点,使得:
x1=min{u|1≤u<x and T1x(u,y)≤0};
x2=max{u|x<u≤w and T2x(u,y)≤0}。
这样,即得到了针对与视差值d相对应的匹配代价平面中的像素(x,y)的x方向的支持窗口。在支持窗口上进行匹配代价的平均,以得到聚合代价C1(x,y,d)。对于右视差空间图像,也使用相同的方法来获取支持窗口并计算聚合代价C’1(x,y,d)。
实际上,也可以使用递归公式来得到T1x和T2x:
现在,描述竖直行程的处理。具体地,竖直行程的处理被应用于水平行程得到的结果:
其中,
y1=min{v|1≤v<y and T1y(x,v)≤0};
y2=max{v|y<v≤h and T2y(x,v)≤0}。
需要说明的是,这里我们也依据T1y(x,v)≤0和T2y(x,v)≤0来判断像素(x,v)与像素(x,y)具有相同的深度,并且窗口大小是满足这个条件的所有点。
在右视差空间图像(DSI)中执行相同运算,以获取C’(x,y,d)。在遍历包括最小视差值和最大视差值、以及介于最小视差值和最大视差值之间的所有视差值d执行以上步骤后,根据本发明实施例的用于立体匹配的方法进行到下一步骤,即从DSI计算视差并且对视差进行优化。
视差计算和优化
图4示出了视差计算和优化的过程。根据本发明实施例的用于立体匹配的方法简单地选择每个像素处的与最小聚合代价相对应的视差作为该像素的视差值(这被称为胜者全拿(WTA)法)。
其中,d0(x,y)表示左图像中的像素(x,y)的初始视差值,d′0(x,y)表示右图像中的像素(x,y)的初始视差值。
然后,根据本发明实施例的用于立体匹配的方法应用子像素优化来减小由于离散代价函数导致的视差不连续性。根据本发明实施例的用于立体匹配的方法通过二次多项式内插,利用像素(x,y)处的与初始视差值d0及其相邻的两个视差值(d0-1)和(d0+1)相对应的匹配代价来估计像素(x,y)的中间视差值,其中d0是具有最小匹配代价的视差值,另两个视差值是与d0相邻的视差值。
图5示出了以下的二次多项式的曲线图:
f(x)=ax2+bx+c
利用三点可以唯一地确定以上二次多项式表示的抛物线,并且当时,f(x)将具有最小值。给定d0,f(d0),f(d0-1)和f(d0+1)(其中,f(d0),f(d0-1)和f(d0+1)分别是与视差值d0、(d0-1)和(d0+1)相对应的匹配代价),可以如下计算参数a和b:
所以,优化后的视差值为:
另一方面,离散的左视差图和离散的右视差图被用来进行用于遮挡检测的交叉检查。也就是说,如果右图像中的像素(x,y)处的中间视差值与左图像中的像素(x,y)处的中间视差值相同,则认为像素(x,y)处于被遮挡区域。如果使用L(x,y)表示二进制遮挡图(1:被遮挡的像素,0:未遮挡的像素),则
为了填充被遮挡的区域,根据本发明实施例的用于立体匹配的方法使用了边缘感知的中值滤波器(edge-aware median filter)。用于填充被遮挡的区域的处理被分为两个步骤:
步骤1:对于每个被遮挡的像素,找出位于同一条扫描线上的在空间上最接近的未被遮挡的像素的最低视差值:
其中
d1l(x,y)=d1(max{xi|1≤xi<x andL(xi,y)=0},y),
d1r(x,y)=d1(min{xi|x<xi≤w and L(xi,y)=0},y)。
步骤2:将双行程一维边缘感知的中值滤波器应用于这些被遮挡的像素:
这意味着水平窗口上的中值首先被设置为像素的视差值,然后竖直窗口上的中值被设置为最终视差值。用于每个像素的窗口尺寸的计算类似于代价聚集的计算。
由于根据本发明实施例的用于立体匹配的方法所使用的边缘感知的支持窗口比其他代价累加方法更强大(尤其是在边界处),所以根据本发明实施例的用于立体匹配的方法可以产生非常准确的视差图。
另外,由于根据本发明实施例的用于立体匹配的方法计算复杂度较低,所以更加高效。再者,由于根据本发明实施例的用于立体匹配的方法中的所有步骤都是用局部运算符,所以这些步骤可以被并行实现。并且根据本发明实施例的用于立体匹配的方法能够很好地填充遮挡区域。
以上已经参考本发明的具体实施例来描述了本发明,但是本领域技术人员均了解,可以对这些具体实施例进行各种修改、组合和变更,而不会脱离由所附权利要求或其等同物限定的本发明的精神和范围。
根据需要可以用硬件或软件来执行步骤。注意,在不脱离本发明范围的前提下,可向本说明书中给出的流程图添加步骤、从中去除步骤或修改其中的步骤。一般来说,流程图只是用来指示用于实现功能的基本操作的一种可能的序列。
本发明的实施例可利用编程的通用数字计算机、利用专用集成电路、可编程逻辑器件、现场可编程门阵列、光的、化学的、生物的、量子的或纳米工程的系统、组件和机构来实现。一般来说,本发明的功能可由本领域已知的任何手段来实现。可以使用分布式或联网系统、组件和电路。数据的通信或传送可以是有线的、无线的或者通过任何其他手段。
还将意识到,根据特定应用的需要,附图中示出的要素中的一个或多个可以按更分离或更集成的方式来实现,或者甚至在某些情况下被去除或被停用。实现可存储在机器可读介质中的程序或代码以允许计算机执行上述任何方法,也在本发明的精神和范围之内。
此外,附图中的任何信号箭头应当被认为仅是示例性的,而不是限制性的,除非另有具体指示。当术语被预见为使分离或组合的能力不清楚时,组件或者步骤的组合也将被认为是已经记载了。
Claims (10)
1.一种用于立体匹配的方法,包括匹配代价计算步骤、代价聚集步骤、视差计算步骤、以及视差优化步骤,其中所述匹配代价计算步骤利用左图像和右图像中每个像素的所有分量通道的强度值的水平梯度和竖直梯度,获取左视差空间图像和右视差空间图像。
2.根据权利要求1所述的用于立体匹配的方法,其特征在于,所述代价聚集步骤包括:
对于左/右视差空间图像中的与任意视差值d相对应的匹配代价平面中的任意像素(x,y),通过梯度累加方法,利用左/右图像中像素(x,y)周围的多个像素的所有通道的强度值的水平梯度和竖直梯度,确定用于像素(x,y)的代价聚集支持窗口的范围;
利用用于像素(x,y)的代价聚集支持窗口的范围中的像素的匹配代价,计算与视差值d相对应的匹配代价平面中的像素(x,y)处的聚集代价。
3.根据权利要求2所述的用于立体匹配的方法,其特征在于,对于左/右图像中的任意像素(x,y),所述视差计算步骤将与像素(x,y)处的最小聚集代价相对应的视差值作为像素(x,y)的视差值d0。
4.根据权利要求3所述的用于立体匹配的方法,其特征在于,所述视差优化步骤包括:
子像素优化子步骤,用于通过二次多项式内插,利用像素(x,y)的视差值d0、视差值d0的两个相邻视差值(d0-1)和(d0+1)、以及像素(x,y)处的分别与视差值d0、(d0-1)和(d0+1)相对应的匹配代价,估计像素(x,y)的优化视差值d1。
5.根据权利要求3所述的用于立体匹配的方法,其特征在于,所述视差优化步骤包括:
遮挡检测子步骤,用于找出左/右优化视差图中的被遮挡的区域;
遮挡填充子步骤,用于利用左优化视差图和右优化视差图中与被遮挡的每个像素相对应的视差值中较小的一个视差值、以及未被遮挡的每个像素的视差值组成遮挡图,利用中值滤波器对遮挡图中的用于每个被遮挡的像素的代价聚集支持窗口的范围内的像素的视差值进行中值滤波,以获取被遮挡的每个像素的最终视差值。
6.一种用于立体匹配的系统,包括匹配代价计算单元、代价聚集单元、视差计算单元、以及视差优化单元,其中所述匹配代价计算单元用于利用左图像和右图像中每个像素的所有分量通道的强度值的水平梯度和竖直梯度,获取左视差空间图像和右视差空间图像。
7.根据权利要求6所述的用于立体匹配的系统,其特征在于,所述代价聚集单元包括:
窗口获取单元,用于对于左/右视差空间图像中的与任意视差值d相对应的匹配代价平面中的任意像素(x,y),通过梯度累加方法,利用左/右图像中像素(x,y)周围的多个像素的所有通道的强度值的水平梯度和竖直梯度,确定用于像素(x,y)的代价聚集支持窗口的范围;
代价聚集单元,用于利用用于像素(x,y)的代价聚集支持窗口的范围中的像素的匹配代价,计算与视差值d相对应的匹配代价平面中的像素(x,y)处的聚集代价。
8.根据权利要求7所述的用于立体匹配的系统,其特征在于,对于左/右图像中的任意像素(x,y),所述视差计算单元将与像素(x,y)处的最小聚集代价相对应的视差值作为像素(x,y)的视差值d0。
9.根据权利要求8所述的用于立体匹配的系统,其特征在于,所述视差优化单元包括:
子像素优化子单元,用于通过二次多项式内插,利用像素(x,y)的视差值d0、视差值d0的两个相邻视差值(d0-1)和(d0+1)、以及像素(x,y)处的分别与视差值d0、(d0-1)和(d0+1)相对应的匹配代价,估计像素(x,y)的优化视差值d1。
10.根据权利要求8所述的用于立体匹配的系统,其特征在于,所述视差优化单元包括:
遮挡检测子单元,用于找出左/右优化视差图中的被遮挡的区域;
遮挡填充子单元,用于利用左优化视差图和右优化视差图中与被遮挡的每个像素相对应的视差值中较小的一个视差值、以及未被遮挡的每个像素的视差值组成遮挡图,利用中值滤波器对遮挡图中的用于每个被遮挡的像素的代价聚集支持窗口的范围内的像素的视差值进行中值滤波,以获取被遮挡的每个像素的最终视差值。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210092651.9A CN103366354B (zh) | 2012-03-27 | 2012-03-27 | 用于立体匹配的方法和系统 |
US13/800,723 US9020242B2 (en) | 2012-03-27 | 2013-03-13 | Method and system for stereo correspondence |
JP2013064254A JP6142611B2 (ja) | 2012-03-27 | 2013-03-26 | ステレオマッチングのための方法及びステレオマッチングのためのシステム |
EP13161178.2A EP2657910A1 (en) | 2012-03-27 | 2013-03-26 | Method and system for stereo correspondence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210092651.9A CN103366354B (zh) | 2012-03-27 | 2012-03-27 | 用于立体匹配的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103366354A true CN103366354A (zh) | 2013-10-23 |
CN103366354B CN103366354B (zh) | 2016-09-07 |
Family
ID=48050451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210092651.9A Expired - Fee Related CN103366354B (zh) | 2012-03-27 | 2012-03-27 | 用于立体匹配的方法和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9020242B2 (zh) |
EP (1) | EP2657910A1 (zh) |
JP (1) | JP6142611B2 (zh) |
CN (1) | CN103366354B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559858A (zh) * | 2013-11-11 | 2014-02-05 | 西安诺瓦电子科技有限公司 | Led显示屏的包边检测方法 |
CN105096307A (zh) * | 2014-05-08 | 2015-11-25 | 三菱电机株式会社 | 在成对的立体图像中检测物体的方法 |
CN106210691A (zh) * | 2015-05-26 | 2016-12-07 | 韩国电子通信研究院 | 用于生成视差图像的方法和设备 |
CN107045713A (zh) * | 2017-04-12 | 2017-08-15 | 湖南源信光电科技股份有限公司 | 基于census立体匹配的低照度图像增强方法 |
CN107770512A (zh) * | 2016-08-22 | 2018-03-06 | 现代自动车株式会社 | 通过匹配立体图像而产生视差图的系统和方法 |
CN109509218A (zh) * | 2019-01-31 | 2019-03-22 | 深兰人工智能芯片研究院(江苏)有限公司 | 基于fpga获取视差图的方法、装置 |
WO2020215257A1 (zh) * | 2019-04-24 | 2020-10-29 | 深圳市大疆创新科技有限公司 | 图像立体匹配的方法和辅助驾驶装置 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020902B (zh) * | 2011-09-20 | 2016-08-31 | 富士通株式会社 | 用于去雾图像的曝光增强方法和装置 |
EP2848000B1 (en) * | 2012-05-11 | 2018-09-19 | Intel Corporation | Systems and methods for row causal scan-order optimization stereo matching |
DE102013100344A1 (de) * | 2013-01-14 | 2014-07-17 | Conti Temic Microelectronic Gmbh | Verfahren zur Bestimmung von Tiefenkarten aus Stereobildern mit verbesserter Tiefenauflösung im Fernbereich |
JP6121776B2 (ja) * | 2013-03-29 | 2017-04-26 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
EP2887312A1 (en) | 2013-12-18 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
US9390508B2 (en) | 2014-03-03 | 2016-07-12 | Nokia Technologies Oy | Method, apparatus and computer program product for disparity map estimation of stereo images |
CN104915941B (zh) * | 2014-03-11 | 2017-08-04 | 株式会社理光 | 计算视差的方法和装置 |
JP6561511B2 (ja) * | 2014-03-20 | 2019-08-21 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム |
KR102350232B1 (ko) * | 2014-11-20 | 2022-01-13 | 삼성전자주식회사 | 스테레오 영상 매칭 방법 및 장치 |
KR101607504B1 (ko) * | 2014-12-02 | 2016-03-30 | 포항공과대학교 산학협력단 | 합산 영역 테이블 방식을 이용한 스테레오 매칭방법 |
CN104665107B (zh) * | 2015-03-10 | 2017-07-04 | 南京脚度健康科技有限公司 | 一种足底三维数据采集处理系统及数据采集处理方法 |
CN104657561A (zh) * | 2015-03-10 | 2015-05-27 | 南京脚度健康科技有限公司 | 一种运用足底三维数据的制鞋方法 |
US9977998B2 (en) | 2015-04-27 | 2018-05-22 | Sony Corporation | Method and system for processing one or more multi-channel images |
CN104867135B (zh) * | 2015-05-04 | 2017-08-25 | 中国科学院上海微系统与信息技术研究所 | 一种基于指导图像引导的高精度立体匹配方法 |
CN104902260B (zh) * | 2015-06-30 | 2018-04-27 | Tcl集团股份有限公司 | 一种图像视差的获取方法及系统 |
WO2017023210A1 (en) * | 2015-08-06 | 2017-02-09 | Heptagon Micro Optics Pte. Ltd. | Generating a merged, fused three-dimensional point cloud based on captured images of a scene |
US9779328B2 (en) * | 2015-08-28 | 2017-10-03 | Intel Corporation | Range image generation |
KR101692168B1 (ko) * | 2015-12-21 | 2017-01-03 | 연세대학교 산학협력단 | 이종 스테레오 영상 간 매칭 장치 및 방법 |
US10080007B2 (en) * | 2016-03-17 | 2018-09-18 | Texas Instruments Incorporated | Hybrid tiling strategy for semi-global matching stereo hardware acceleration |
CN109314774B (zh) * | 2016-07-06 | 2021-05-25 | 深圳市大疆创新科技有限公司 | 用于立体成像的系统和方法 |
US10574967B2 (en) * | 2017-03-23 | 2020-02-25 | The Boeing Company | Autonomous performance of an operation on an object using a generated dense 3D model of the object |
EP3525167B1 (en) * | 2018-02-08 | 2022-01-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for determining a confidence/uncertainty measure for disparity measurement |
JP6901424B2 (ja) * | 2018-03-12 | 2021-07-14 | 株式会社東芝 | 画像処理装置、及び、画像処理方法 |
CN111681275B (zh) * | 2020-06-16 | 2023-04-18 | 南京莱斯电子设备有限公司 | 一种双特征融合的半全局立体匹配方法 |
CN111833393A (zh) * | 2020-07-05 | 2020-10-27 | 桂林电子科技大学 | 一种基于边缘信息的双目立体匹配方法 |
CN112991421B (zh) * | 2021-03-23 | 2023-08-08 | 湖南大学 | 一种机器人视觉立体匹配方法 |
CN113395504B (zh) * | 2021-03-31 | 2023-04-04 | 北京迈格威科技有限公司 | 视差图优化方法、装置、电子设备及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101808251A (zh) * | 2010-04-06 | 2010-08-18 | 浙江大学 | 立体图像对中遮挡信息的提取方法 |
US20110148868A1 (en) * | 2009-12-21 | 2011-06-23 | Electronics And Telecommunications Research Institute | Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009003110A1 (de) * | 2009-05-14 | 2010-11-18 | Robert Bosch Gmbh | Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern |
-
2012
- 2012-03-27 CN CN201210092651.9A patent/CN103366354B/zh not_active Expired - Fee Related
-
2013
- 2013-03-13 US US13/800,723 patent/US9020242B2/en not_active Expired - Fee Related
- 2013-03-26 JP JP2013064254A patent/JP6142611B2/ja not_active Expired - Fee Related
- 2013-03-26 EP EP13161178.2A patent/EP2657910A1/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110148868A1 (en) * | 2009-12-21 | 2011-06-23 | Electronics And Telecommunications Research Institute | Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection |
CN101808251A (zh) * | 2010-04-06 | 2010-08-18 | 浙江大学 | 立体图像对中遮挡信息的提取方法 |
Non-Patent Citations (3)
Title |
---|
LI LI等: "Local stereo matching with edge-based cost aggregation and occlusion handling", 《IMAGE AND SIGNAL PROCESSING, 2009. CISP’09. 2ND INTERNATIONAL CONGRESS ON》 * |
LI LI等: "Local stereo matching with edge-based cost aggregation and occlusion handling", 《IMAGE AND SIGNAL PROCESSING, 2009. CISP’09. 2ND INTERNATIONAL CONGRESS ON》, 19 October 2009 (2009-10-19), pages 1 - 4, XP031556990 * |
XING MEI等: "On building an accurate stereo matching system on graphics hardware", 《COMPUTER VISION WORKSHOPS (ICCV WORKSHOPS), 2011 IEEE INTERNATIONAL CONFERENCE ON》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559858A (zh) * | 2013-11-11 | 2014-02-05 | 西安诺瓦电子科技有限公司 | Led显示屏的包边检测方法 |
CN103559858B (zh) * | 2013-11-11 | 2015-08-12 | 西安诺瓦电子科技有限公司 | Led显示屏的包边检测方法 |
CN105096307A (zh) * | 2014-05-08 | 2015-11-25 | 三菱电机株式会社 | 在成对的立体图像中检测物体的方法 |
CN105096307B (zh) * | 2014-05-08 | 2018-01-02 | 三菱电机株式会社 | 在成对的立体图像中检测物体的方法 |
CN106210691A (zh) * | 2015-05-26 | 2016-12-07 | 韩国电子通信研究院 | 用于生成视差图像的方法和设备 |
CN107770512A (zh) * | 2016-08-22 | 2018-03-06 | 现代自动车株式会社 | 通过匹配立体图像而产生视差图的系统和方法 |
CN107770512B (zh) * | 2016-08-22 | 2020-11-06 | 现代自动车株式会社 | 通过匹配立体图像而产生视差图的系统和方法 |
CN107045713A (zh) * | 2017-04-12 | 2017-08-15 | 湖南源信光电科技股份有限公司 | 基于census立体匹配的低照度图像增强方法 |
CN109509218A (zh) * | 2019-01-31 | 2019-03-22 | 深兰人工智能芯片研究院(江苏)有限公司 | 基于fpga获取视差图的方法、装置 |
CN109509218B (zh) * | 2019-01-31 | 2019-10-22 | 深兰人工智能芯片研究院(江苏)有限公司 | 基于fpga获取视差图的方法、装置 |
WO2020215257A1 (zh) * | 2019-04-24 | 2020-10-29 | 深圳市大疆创新科技有限公司 | 图像立体匹配的方法和辅助驾驶装置 |
Also Published As
Publication number | Publication date |
---|---|
US20130259360A1 (en) | 2013-10-03 |
JP2013206468A (ja) | 2013-10-07 |
US9020242B2 (en) | 2015-04-28 |
EP2657910A1 (en) | 2013-10-30 |
CN103366354B (zh) | 2016-09-07 |
JP6142611B2 (ja) | 2017-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103366354B (zh) | 用于立体匹配的方法和系统 | |
CN108682026B (zh) | 一种基于多匹配基元融合的双目视觉立体匹配方法 | |
CN102883175B (zh) | 深度图提取、判断视频场景切换及深度图边缘优化方法 | |
US9047681B2 (en) | Depth image conversion apparatus and method | |
US9137512B2 (en) | Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video | |
JP6998388B2 (ja) | 画像特性マップを処理するための方法及び装置 | |
EP3311361B1 (en) | Method and apparatus for determining a depth map for an image | |
CN103003665B (zh) | 立体测距装置 | |
US20070086645A1 (en) | Method for synthesizing intermediate image using mesh based on multi-view square camera structure and device using the same and computer-readable medium having thereon program performing function embodying the same | |
US8818127B2 (en) | Image processing apparatus and image processing method | |
US8837816B2 (en) | Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation | |
EP2811457B1 (en) | Image processing method and apparatus | |
CN110738731B (zh) | 一种用于双目视觉的3d重建方法和系统 | |
US20110032341A1 (en) | Method and system to transform stereo content | |
CN103679680B (zh) | 立体匹配方法和系统 | |
EP2466901B1 (en) | Depth data upsampling | |
CN103458261B (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN102903098A (zh) | 一种基于图像清晰度差异的深度估计方法 | |
CN102436671B (zh) | 一种基于深度值非线性变换的虚拟视点绘制方法 | |
CN104574277A (zh) | 图像插值方法和图像插值装置 | |
CN109493373B (zh) | 一种基于双目立体视觉的立体匹配方法 | |
CN104537627B (zh) | 一种深度图像的后处理方法 | |
WO2004051573A2 (en) | Method and apparatus for removing false edges from a segmented image | |
KR20150141259A (ko) | 이미지 센서 노이즈 모델 기반 필터링 방법 및 이를 적용한 영상 시스템 | |
KR101763376B1 (ko) | 신뢰 기반 재귀적 깊이 영상 필터링 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160907 Termination date: 20190327 |
|
CF01 | Termination of patent right due to non-payment of annual fee |