CN101356831B - 用于确定立体视觉中的分散视差场的方法 - Google Patents

用于确定立体视觉中的分散视差场的方法 Download PDF

Info

Publication number
CN101356831B
CN101356831B CN2005800524966A CN200580052496A CN101356831B CN 101356831 B CN101356831 B CN 101356831B CN 2005800524966 A CN2005800524966 A CN 2005800524966A CN 200580052496 A CN200580052496 A CN 200580052496A CN 101356831 B CN101356831 B CN 101356831B
Authority
CN
China
Prior art keywords
pixel
image
point
window
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2005800524966A
Other languages
English (en)
Other versions
CN101356831A (zh
Inventor
G·弗朗西尼
S·莱普索尼
G·普雷斯蒂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telecom Italia SpA
Original Assignee
Telecom Italia SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telecom Italia SpA filed Critical Telecom Italia SpA
Publication of CN101356831A publication Critical patent/CN101356831A/zh
Application granted granted Critical
Publication of CN101356831B publication Critical patent/CN101356831B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

在立体视觉的系统(100)中包括拍摄同一场景的两个相机(T1,T2),在得知对极几何时执行用于确定分散视差场的方法,包括下述步骤:通过两个相机,从两个不同位置捕获场景的第一和第二图像(IM1,IM2);选择第一图像中的至少一个像素,所述像素与场景中的某点相关联,第二图像包含也同样与场景的上述点相关联的一点;和计算使成本函数最小化的从所述像素到第二图像中的所述点的移位,该成本函数包括依赖于第一和第二图像之间的差别的项和依赖于从对极直线到第二图像中上述点的距离的项,然后核对其是否属于围绕对极直线的子集的可允许区域(其中允许所述点存在),以便在相机校准中考虑误差或不确定性。

Description

用于确定立体视觉中的分散视差场的方法
技术领域
本发明一般涉及用于自动分析立体视觉的图像的方法,尤其涉及用于在对极几何已知时确定分散视差场的方法。
背景技术
自动分析图像中要解决的常见问题是确定在显示利用一个或多个相机从不同视点获得的同一场景的两帧之间存在的视差(disparity)。视差与同一场景元素的两帧的位置有关。现已有计算每个图像像素以及限于像素的子集(即一组点)的视差的算法。前一情形涉及密集视差场,后一情形涉及分散视差场。本发明属于第二类。
用于确定两帧之间存在的分散视差场的普遍技术在于识别和关联相对的相关点,即描述特征图像区域的点。为此,现已有基于识别可在帧之间似真地关联(即降低模糊度)的角度、边缘(egde)、轮廓或任何其它特征的若干算法。这些算法用于跟踪一般帧(也是由一个相机在不同时刻拍摄的)之间的点。
在“计算机视觉”领域,已有很多文献涉及寻求不同帧之间的对应问题。尤其,在立体视觉中,主要目的之一是确定自n(n≥2)个不同视图到描绘的对象之间的距离。当n=2时,为确定对应,考虑描述视觉系统(即相机特征和位置)的参数,使用描述与同一场景有关的两帧之间存在的关系的所谓基本矩阵。该关系意味着,在第一图像(帧)上取一个点,其在第二图像(帧)上的对应点将位于一条直线上(称为对极线)。
基于识别和跟踪图像中具有的特征可被用于计算分散视差场的最著名算法之一是在Carlo Tomasi和Takeo Kanade的“Shape and Motionfrom Image Stream-part 3-Detection and Tracking of Point features”(Technical Report CMU-CS-91-132,April 1991)文中描述的那个算法,本领域中称为KLT(Kanade-Lucas-Tomasi)技术。如该文所述,帧之间的正确点跟踪存在两个要解决的重要问题:如何选择要跟踪的特征(“特征选择”)和如何逐帧跟踪它们(“跟踪”)。该文尤其描述了一种用于通过2×2线性系统(其可在要被最小化的成本函数中变换)进行跟踪的算法,其未知量是两帧之间的点特征的两维移位向量(视差向量)。尽管可与图像顺序有关,KLT技术也可被有效地用于相同场景的同时图像的情形。
基于KLT技术的J.Shi和C.Tomasi的文章“Good features totrack”(IEEE Conference on Computer Vision and PatternRecognition(CVPR94),Seattle,June 1994)提出了一种可对其进行跟踪的特征的选择标准。
J.Mendelsohn、E.Simoncelli和R.Bajcsy的文章“Discrete-TimeRigidity-Constrained Optical Flow”(7th International Conference OnComputer Analysis of Images and Patterns,September 10-12,1997)涉及密集场的计算并且提出视差向量(其构成密集场)指向位于对极直线上的位置。有了该约束,如果准确得知对极直线,则可改进可获得的结果。
H.Najafi和G.Klinker的文章“Model-based Tracking withStereovision for AR”(Proceedings of the Second IEEE and ACMInternational Symposium on Mixed and AugmentedReality(ISMAR),2003)提出利用KLT技术的基本矩阵顺流来移除某些特征,对于这些特征,第二帧中的对应点未处在对极直线上。从而,与两个相机的配置相冲突的视差向量被移除。
发明内容
申请人注意到,KLT技术并未利用基本矩阵知识,这些知识在两个或更多相机的情形中通常是可获得的。
而且,申请人注意到,利用基本矩阵的视差计算技术约束点停留在对极线(epipolar line)上,并且这种约束只在假定精确相机校准的情况下带来正确结果。然而,校准典型地通过估计来获得,并且因而容易有误差或者不准确。
申请人发现,通过适当修改KLT方法以考虑与可通过校准处理计算的基本矩阵有关的信息,可提高提取的视差场的质量。尤其,申请人发现,通过修改点跟踪处理以便考虑基本矩阵(但不设定绝对约束),可任意地影响处理,以便补偿校准系统过程中的误差。
尤其,申请人发现,通过在KLT技术成本函数中引入一个与对极线和搜索点之间距离的平方成正比的项从而允许该设置偏离对极直线,能够在近似校准的情况下获得精确结果。由此获得的结果好于可通过运用原始KLT技术获得的结果和可通过约束识别的点只处于对极直线上的结果。
优选地,为了确定与第一图像的像素相关联的第二图像的点,反复执行成本函数最小化步骤多次,每次均使用在之前的循环中获得的成本函数更新。
而且,申请人发现,可进一步限定相对于对极直线的有效区域,这种限制由半线(对极直线的子集)表示,其导致消除不指向该半线附近的位置的所有视差场。
本发明的优选应用领域是计算机视觉,尤其用于从多视点拍摄的情形。
附图说明
下面将参考示出了本发明的非限制性应用例子的附图来描述本发明。具体地:
图1示意性地示出了用于视频拍摄的系统,其包括两个相机和由本发明中描述的处理组成的块;
图2示意性地示出了两相机摄取的图像,在其中一图像上指出与另一图像的像素相关联的对极线;
图3示出了上述图像,其指出上述对极线和视差向量的可允许区域;
图4和图5示出了从不同角度摄取的同一场景的一对帧,以在本发明的技术和以原始方式执行的KLT技术之间进行对比试验;
图6示出了以原始方式执行的KLT跟踪技术的结果;
图7示出了通过本发明的技术获得的结果;
图8和图9示出了图6和图7中所示结果的对比细节。
具体实施方式
参考图1,100整体上表示一个用于使用多个相机进行视频拍摄的系统。具体而言,系统100能够从同一场景的不同位置拍摄并且确定所拍摄的图像之间的分散视差场。
系统100包括第一相机T1和第二相机T2,两者均能产生同一场景的相应数字图像(或帧)IM1、IM2。可使两相机T1、T2朝向场景的方向为相互平行或相互倾斜。
系统100还包括处理单元PU,其连接到两相机T1、T2并能够按照下述方法处理从两相机T1、T2接收的数字图像IM1和IM2以获得分散视差场。而且,系统100包括相机校准模块CM(最好是处理单元中或单独单元中的软件模块),能够向处理单元提供要用于按照本发明方法的处理的校准数据。
同一场景的两个同时图像之间存在的关系与由一单独相机拍摄的连续图像序列中存在的关系相似。因而可参考KLT跟踪技术来解决确定图像特征移位的问题,如上述文章中Shi和Tomasi所提出地来选取特征。
可用函数F(x,y,t)表示图像序列,其中F指强度(单色情况下是标量1)、x和y是空间坐标(帧中的位置),t是时间。KLT技术也同样基于的常用的近似方法将时刻t和t+τ之间的图像变化仅表示为空间失真。
F(x,y,t)=F(x+u(x,y),y+v(x,y),t+τ)(1)
其中u(x,y)和v(x,y)是两空间方向中的移位量。公式1在文献中称为“亮度变化约束等式”(BCCE)。
这意味着可通过在时刻t将每个图像点移动适当量(称为移位(displacement))获得时刻t+τ中的图像。通过得知图像中每个像素的移位,可构建图像自身的视差场(即一组应用于相关帧的向量),允许在另一时刻构建帧。
实际上,不是严密观察BCBE。只要考虑其中一个图像中的部分隐藏对象就足够了:这些对象不是从一帧“移”到下一帧,而只是出现或不出现。相同问题可在对象进入或离开场景的图像边缘发现。在任何情况中,KLT技术考虑一些特征而不是所有像素,并且能够对特征获得在移位计算下游的BCCE校正的估计。
本发明的技术对属于场景的不同特征单独地计算两(或更多)帧之间存在的视差场(从而其产生分散场)。
简要地,如图1中所示,本发明的方法包括下述步骤,下面将对这些步骤进行详细描述:
-通过计算相机T1、T2的诸如焦距和投影中心之类的固有参数和诸如旋转-平移(roto-translation)矩阵之类的非固有参数来校准相机T1、T2(块110);
-提取图像IM1的特征(块120);
-跟踪第二图像IM2上的特征,考虑校准参数(块130);和
-从计算中移除第二图像IM2中未落入可允许区域内的点,下面进行定义(块140);
在本发明的方法中必须将移除步骤看作是优选的而不是强制的。本方法输出的是第一图像IM1的特征和第二图像IM2的对应点之间的匹配。
如上所述,计算分散视差场的问题可分为两部分:如何选择要跟踪的对象(即图像特征),和如何跟踪选择的对象。本发明影响跟踪操作。
可以下列方式将两时刻t和t+τ的上述函数F表示为两个函数I和J:
I(x)=F(x,y,t)(2)
J(x+d)=F(x+u,y+v,t+τ)(3)
其中d是与具有坐标x=(x,y)的像素相关联并且包含两个分量u和v的移位向量。通过将该置换插入,可以下述方式重写等式(1)表示的BCCE
I(x)=J(x+d)(4)
由于本方法单独地应用于每个选择的点,因此能够考虑以须计算其移动(即在像素x上)的对象为中心的像素窗W。在窗口W中,除了可表示为下式的剩余误差之外,等式(4)是有效的:
ϵ = ∫ W [ I ( x ) - J ( x + d ) ] 2 dx - - - ( 5 )
通过使等式(5)中的误差最小来获得最佳移位向量d。等式(5)不是线性的,为了对其求解,最好将其转换成线性等式。当移位向量d较小时,通过利用在一阶处被截断的泰勒逼近,可完成该转换。
J(x+d)=J(x)+gTd(6)
其中g是在x=(x,y)中所求的函数J的梯度,
g ( x ) = ▿ → J ( x ) - - - ( 7 )
通过使等式(6)对落入窗口W内的所有像素离散化,得到下述等式系:
J x ( p 1 ) u + J y ( p 1 ) v = I ( p 1 ) - J ( p 1 ) · · · · · · J x ( p N ) u + J x ( p N ) v = I ( p N ) - J ( p N ) - - - ( 8 )
其中Jx(pn)和Jy(pn)是一般像素pn中的梯度向量的两个元素,并且N是包含在窗口W中的像素数。
等式系(8)可表示为下述矩阵形式:
J x ( p 1 ) J y ( p 1 ) · · · · · · J x ( p N ) J y ( p N ) u v = I ( p 1 ) - J ( p 1 ) · · · I ( p N ) - J ( p N ) - - - ( 9 )
可将等式(9)重写成紧凑形式Ad=b。矩阵A由落入所应用的窗口内的像素中的第二帧的亮度梯度组成。向量b由同一窗口中的两帧的像素之间的亮度差组成。向量d是要计算的移位。应当理解,移位不必朝向像素(因而具有离散坐标),而是更通常地朝向第二图像的点,其可以在两相邻像素的中间。
通过下述方式(见等式(10))将权重与每个等式相乘,对属于窗口的每个像素分配相对重要性是有利的。
VAd=Vb(10)
其中
V = w 1 · · · w N
因此,分配给一般像素Pn的权重等于wn。权重被用于将较大的重要性赋予位于窗口中心的像素。
该系统是超定(over-determined)的,因为其由N个等式(N>2)和两个未知量组成并且可通过代表最小二乘逼近的法方程求解:
A T WAd = A T Wb ⇒ Gd = e - - - ( 11 )
其中
W=VTV′
G=ATWA′
e=ATWb
KLT技术还包括用于选取要跟踪的点的标准。可利用例如按照Shi-Tomasi的教导的公知技术来完成该选取。选取的标准无论如何必须保证矩阵G的可逆性。
所有上述讨论对于呈现同一场景并且同时摄取的一对帧(例如图1中的帧IM1和IM2)也同样有效。在这种情况下,事实上,两函数I和J分别与第一图像IM1和第二图像IM2相关联。两帧IM1和IM2可满足等式(1)的一个必要条件是两个相机T1、T2被放置为一个足够靠近另一个,使得它们拍摄相同场景部分。
通过对极几何来表示同一场景的两次拍摄之间的关系。两次拍摄均可见的场景中的每个元素在两帧IM1和IM2中投影在遵从简单等式的位置上。该等式的系数包含在由3×3个元素组成的基本矩阵F中。在齐次坐标中指定的两帧中的投影位置是
m 1 = x 1 y 1 1
m 2 = x 2 y 2 1
其中x1、y1、x2、y2是呈现拍摄元素的两帧中的两个像素的坐标。这些坐标必须遵从等式
m 2 T Fm 1 = 0 - - - ( 12 )
因此,给出两帧的第一帧中的一点m1,第二帧中的点m2必须位于其系数由乘积Fm1确定的直线上。对称地,给出第二帧中的一点m2,点m1必须位于具有包含在乘积m2 TF中的系数的直线上。将这些直线称为对极。这些关系构成了完全由基本矩阵F表示的对极几何。
在本说明书中,假定已知确定基本矩阵的固有和非固有的相机校准参数。不过,申请人注意到,由于校准可以被估计错误影响,使用由此提供的信息来作为绝对约束可能是不正确的。
为了关联自校准参数的知识得到的信息,将KLT技术解释为自等式(9)获得的特定函数的最小化是有用的。此等式是超定等式,并且可通过最小二乘逼近来求解;其解对应于找到由Ad-b给出的所谓剩余范数的最小值。因此,可用下式重新描述上述问题:
d=argmin||Ad-b||2(13)
即作为要被最小化的成本函数。考虑等式(10)中引入的权重,等式(13)变成
d=arg min||Gd-e||2(14)
实际上,会出现这种情况:由此获得的向量并不总是正确的,即并不总与从一帧到另一帧的对象移位相对应。例如,当KLT算法基于的线性逼近失效时,这种情况可能发生。
对于两个相机的情况,能够考虑与校准有关的信息,从而改进结果。对极几何提供关于第二帧中的区域(在其中,为计算移位向量d而不得不搜索特征)的指示。
本发明通过将校准数据变换为要被添加到已经包含在等式(14)中的那些约束的约束来利用校准数据。将该约束变换为与对极信息有关的成本项。如果已精确得知几何形状,搜索点应当位于对极直线上。考虑到校准是通过估计获得的,因而易于产生误差或者不准确,更合适的是分配与校准信息有关的价(valence)。因此,必须允许解偏离对极直线,这在本发明中是通过在成本函数(14)中引入与对极线和搜索点之间距离的平方成比例的一项来获得的。
从而,等式(14)采取形式
d=argmin{||Gd-e||22ρ(z+d,L)2}(15)
其中ρ是表示点z+d(即,被量d=[u v]T变换的点z=[x y]T)和L(即,与点z相关联的对极直线)之间的欧几里得距离的函数。λ因子必须预先构建并且可被启发式地确定,这同样取决于分配给基本矩阵的可靠性。λ值越高,越依赖基本矩阵的正确性。λ可增加,直到它实际约束解位于对极直线上。
通过基本矩阵F获得对极直线。在第二帧中,自点z+d的直线距离可表示为
ρ ( z + d , L ) = a ( x + u ) + b ( y + v ) + c a 2 + b 2 - - - ( 16 )
其中系数a、b和c由下式中的乘积给出
a b c = Fz - - - ( 17 )
从而该线上的任意点m=[xm ym 1]T遵从等式
axm+bym+c=0
等式(15)的解可通过法方程获得
G λ p T T G λp T d = G λp T T e λr - - - ( 18 )
其中向量p和r被定义为
p = 1 a 2 + b 2 a b - - - ( 19 )
r = - ( ax + by + c ) a 2 + b 2 - - - ( 20 )
可对等式(11)和(14)进行扩展,以通过每步均提供泰勒级数的更新的迭代计算,获得更精确的结果。在这种情况中,视差向量由多个项组成。在每步均添加项,并且最终的结果可表示为
d = Σ m = 1 K d m - - - ( 21 )
其中每一项是一个向量
d m = u m v m - - - ( 22 )
在第M步中,等式(9)变成
J x ( p 1 + Σ m = 1 M - 1 d m ) J y ( p 1 + Σ m = 1 M - 1 d m ) · · · · · · J x ( p N + Σ m = 1 M - 1 d m ) J y ( p N + Σ m = 1 M - 1 d m ) u M v M = I ( p 1 ) - J ( p 1 + Σ m = 1 M - 1 d m ) · · · I ( p N ) - J ( p N + Σ m = 1 M - 1 d m ) - - - ( 23 )
或者,更紧凑地
AM-1dM=bM-1(24)
从而,在第M次迭代,等式(11)变成
A M - 1 T W A M - 1 d M = A M - 1 T Wb M - 1 ⇓ G M - 1 d M = e M - 1 - - - ( 25 )
在M=1、同时d0=0时初始化迭代。迭代的总次数可预先设定或根据最后添加的项的范数确定。
可通过修改等式(20)中描述的向量r,使得提供等式(15)的解的法方程(18)适合上述迭代处理。在第M次迭代,该向量将采取如下形式
r = - ( a ( x + Σ m = 1 M - 1 u m ) + b ( y + Σ m = 1 M - 1 v m ) + c ) a 2 + b 2 - - - ( 26 )
迄今所述的处理添加关于要计算的移位向量方向的信息,即等式(15)产生与对极几何一致的移位矢量。但是,这对于正确地表征向量本身是不够的,因为对于对极直线的约束带有一定自由度。该自由度由下述事实得出:等式(15)中的第二项将解带向对极直线,但不一定带向第二帧中的真实特征位置。可通过引入对极直线的可允许区域从而将它转换成半线来减小该问题。
该核对基于的事实是:参考图2,可将点P(可在拍摄场景中的无穷远距离处找到)关联到第一帧IM1中的特征A。从而,点B可位于与第二帧IM2相关联的对极直线L上,其是点P的投影。由于投影到点A的任意场景对象位于半线AP上,该对象在第二帧中的投影必须位于作为半线AP的投影的半线S上。因此,该半线是对极直线的子集。
考虑由于不确定的校准可靠性而偏离对极直线的可能性,可将可允许的子集扩展为以B为顶点、包含半线S的可允许区域Z,如图3中可看出。
按照这些讨论,可执行允许有效地移除不遵从场景几何的移位向量的核对。因而,该核对(在点B位于第二帧IM2中的情形时是有用的)允许移除点z+d不处在可允许区域Z中的所有备选{z,d}(特征和移位向量)。区域Z可具有不同形状。必要的是Z是该平面的子集,该平面由经过与之相邻的点B的曲线界定并包含半线S。
可将半线S表示如下:
S = { B + κ · e → : κ ≥ 0 } - - - ( 27 )
其中K是非负因子,
Figure S2005800524966D00122
是与对极直线平行的方向向量。
可通过相机校准参数知识获得用于限定半线S的元素。在这些元素中,两相机的固有参数被包含在矩阵k1和k2中,而将与第二机器相关联的旋转矩阵和变换向量(非固有参数)称为R和t。更多详情请参考Richard Hartley和Andrew Zisserman的“Multiple VisionGeometry”(Cambridge University Press,2000)中第153-156和244页。矩阵R和向量t将属于第二相机的坐标系转换为属于第一相机的坐标系。第一帧中的特征A可用齐次坐标表示为:
A = x y 1
点B(位于无穷远处的点P的投影)可通过A和校准参数表示为:
B = K 2 Rw R 3 w - - - ( 28 )
其中R3表示旋转矩阵R的第三行。向量w从点A获得,为
w = K 1 - 1 A | | K 1 - 1 A | | - - - ( 29 )
方向向量
Figure S2005800524966D00126
可表示为
e → = K 2 ( ( R 3 w ) t - t 3 Rw ) - - - ( 30 )
其中t3是变换向量t的第三个元素。
作为例子,可参考图3,以下述方式定义可允许区域。必须检验其正确性的点的位置由和z+d给出。如果从B开始并且穿过z+d的半线与半线S形成的角度小于特定阈值,则该点属于可允许区域。在这种情况下,在检验下述关系时用向量项来表示其是否属于的核对
( z + d - B ) T e → | | z + d - B | | | | e → | | ≥ θ - - - ( 31 )
其中标准化向量的内积超出了要设定的阈值θ∈[0,1]。最小阈值是0,此时可允许区域是由垂直于点B中的对极直线的直线界定并且包含半线S的半平面。阈值越趋于值1增加,可允许区域越受限。依据上述标准,图3示出了与0和1之间的中间阈值对应的可允许区域,以及一个不可接受的点z+d’的例子。
当作为上述处理的结果从处理单元PU输出时,获得从第一帧IM1提取的特征和在第二帧IM2中找到的对应点之间的关联,从而获得与这些点本身相关的移位向量d。
可在图4-9中看到一些例子。图4和5包含从不同角度拍摄的同一场景的一对帧,已经对其运用了构成本发明的算法。
图6示出了以原始方式执行的KLT跟踪技术的结果,而图7示出了通过本发明的技术获得的结果。两图中指出,为跟踪选取的特征的移位向量为线段。如可观察到的,在图7中这些线段相互间更相干地面对一定方向,这是误差出现得较少的指标。
图8和9示出了其中由本发明带来的益处较明显的一些重要细节。在这些后面的图像的每一个中,左上方块(8a,9a)以由第一帧提取的特征为中心;右上方块(8b,9b)以通过原始KLT技术获得的第二帧中的点为中心;右下方块(8c,9c)以通过本发明获得的第二帧中的点为中心。在两右方块中,示出了与有关特征相关联的对极直线,这使我们能够了解获得的重要改进。

Claims (10)

1.用于确定立体视觉中分散视差场的方法,包括步骤:
●从两个不同位置捕获同一场景的第一和第二图像,使得所述第一图像的至少一组像素与所述第二图像上对应的一组点相关联;
●选择所述第一图像中的至少一个像素;和
●确定与所述像素相关联的所述第二图像的点,其中确定所述点包括使成本函数最小化,所述成本函数以所述像素和所述点之间的视差向量作为变量,并且依赖于以所述像素为中心的窗口中和以要确定的点为中心的对应窗口中第一和第二图像之间的差异;
其特征在于所述成本函数包括一项,该项以单调增加方式依赖于要确定的所述点与和所述像素相关联的所述第二图像中的对极直线的距离。
2.按照权利要求1的方法,其中分别通过第一和第二相机捕获所述第一和第二图像,并且所述项依赖于所述第一和第二相机的校准参数。
3.按照权利要求2的方法,其中根据相机校准数据的不确定性对所述项施加权重。
4.按照权利要求1的方法,其中所述项与所述点和对极线之间的距离平方成比例。
5.按照前述权利要求中任一项的方法,其中确定与所述像素相关联的所述第二图像的点的步骤包括在所述第二图像中界定在所述对极直线周围的所述点的可允许区域。
6.按照权利要求5的方法,其中所述可允许区域包含在由垂直于所述对极直线的直线界定的半平面中。
7.按照权利要求1-4中任一项的方法,其中所述成本函数包括参数,所述参数由以所述第二图像中所述像素为中心的所述窗口的像素中的亮度梯度以及以所述像素为中心的所述窗口的像素与同一窗口中所述第二图像的像素之间的亮度差构成。
8.按照权利要求1-4中任一项的方法,其中确定与所述像素相关联的所述第二图像的点的步骤包括使相对权重与包含在以所述像素为中心的所述窗口中的所有像素相关联。
9.按照权利要求8的方法,其中与以所述像素为中心的所述窗口的中心区域中的像素相关联的权重大于与所述窗口的外部区域中的像素相关联的权重。
10.用于立体视觉的系统,包括适于拍摄同一场景的第一和第二拍摄相机和适于从所述第一和第二相机接收所述场景的相应同时图像的处理单元,所述处理单元被配置用于按照权利要求1-9中任一项来处理所述相应图像。
CN2005800524966A 2005-11-30 2005-11-30 用于确定立体视觉中的分散视差场的方法 Expired - Fee Related CN101356831B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2005/003598 WO2007063352A1 (en) 2005-11-30 2005-11-30 Method for determining scattered disparity fields in stereo vision

Publications (2)

Publication Number Publication Date
CN101356831A CN101356831A (zh) 2009-01-28
CN101356831B true CN101356831B (zh) 2010-09-01

Family

ID=36968909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005800524966A Expired - Fee Related CN101356831B (zh) 2005-11-30 2005-11-30 用于确定立体视觉中的分散视差场的方法

Country Status (5)

Country Link
US (1) US8275195B2 (zh)
EP (1) EP1958458B1 (zh)
JP (1) JP4887374B2 (zh)
CN (1) CN101356831B (zh)
WO (1) WO2007063352A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104685868A (zh) * 2012-10-05 2015-06-03 高通股份有限公司 用于校准成像装置的方法及设备

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101347000B (zh) 2005-12-21 2010-09-01 意大利电信股份公司 用于确定立体视觉中密集差异区的方法
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP3876510A1 (en) 2008-05-20 2021-09-08 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8422766B2 (en) * 2008-06-24 2013-04-16 Thomson Licensing System and method for depth extraction of images with motion compensation
GB2473248A (en) * 2009-09-04 2011-03-09 Sony Corp Determining image misalignment by comparing image characteristics at points along a line
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
SG185500A1 (en) 2010-05-12 2012-12-28 Pelican Imaging Corp Architectures for imager arrays and array cameras
US9148653B2 (en) * 2010-11-05 2015-09-29 Panasonic Intellectual Property Management Co., Ltd. Stereo image processing device and stereo image processing method
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN103080973B (zh) * 2010-12-20 2016-06-15 松下知识产权经营株式会社 立体图像处理装置及立体图像处理方法
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
JP2014521117A (ja) 2011-06-28 2014-08-25 ペリカン イメージング コーポレイション アレイカメラで使用するための光学配列
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
CN102506757B (zh) * 2011-10-10 2014-04-23 南京航空航天大学 双目立体测量系统多视角测量中的自定位方法
KR102131745B1 (ko) 2012-01-04 2020-07-08 인터디지탈 매디슨 페이튼트 홀딩스 3d 이미지 시퀀스의 처리
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9729849B2 (en) 2012-04-19 2017-08-08 Intel Corporation 3D video coding including depth based disparity vector calibration
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
WO2014002725A1 (ja) 2012-06-29 2014-01-03 富士フイルム株式会社 3次元測定方法、装置、及びシステム、並びに画像処理装置
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9426343B2 (en) 2013-11-07 2016-08-23 Pelican Imaging Corporation Array cameras incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9866820B1 (en) * 2014-07-01 2018-01-09 Amazon Technologies, Inc. Online calibration of cameras
KR102214934B1 (ko) 2014-07-18 2021-02-10 삼성전자주식회사 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
US9571819B1 (en) * 2014-09-16 2017-02-14 Google Inc. Efficient dense stereo computation
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
DE102015111120A1 (de) 2015-07-09 2017-01-12 Chromasens Gmbh Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
US9892496B2 (en) 2015-11-05 2018-02-13 Google Llc Edge-aware bilateral image processing
CN107449432A (zh) * 2016-05-31 2017-12-08 华为终端(东莞)有限公司 一种利用双摄像头导航方法、装置和终端
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
CN109242914B (zh) * 2018-09-28 2021-01-01 上海爱观视觉科技有限公司 一种可动视觉系统的立体标定方法
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
CN111351446B (zh) * 2020-01-10 2021-09-21 奕目(上海)科技有限公司 一种用于三维形貌测量的光场相机校准方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991019265A1 (en) * 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
FR2700654B1 (fr) 1993-01-19 1995-02-17 Thomson Csf Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques.
JPH0814828A (ja) * 1994-06-29 1996-01-19 Kobe Steel Ltd ステレオ画像センサのキャリブレーション方法及びその装置
US20020012459A1 (en) 2000-06-22 2002-01-31 Chips Brain Co. Ltd. Method and apparatus for detecting stereo disparity in sequential parallel processing mode
US7444013B2 (en) * 2001-08-10 2008-10-28 Stmicroelectronics, Inc. Method and apparatus for recovering depth using multi-plane stereo and spatial propagation
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
US7570803B2 (en) * 2003-10-08 2009-08-04 Microsoft Corporation Virtual camera translation
JP2005140623A (ja) * 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 画像計測方法、装置、プログラム及び記録媒体
US7512250B2 (en) * 2004-11-24 2009-03-31 Siemens Corporate Research, Inc. System and method for fast illumination-invariant background subtraction using two views
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104685868A (zh) * 2012-10-05 2015-06-03 高通股份有限公司 用于校准成像装置的方法及设备
CN104685868B (zh) * 2012-10-05 2017-10-13 高通股份有限公司 用于校准成像装置的方法及设备
US10104364B2 (en) 2012-10-05 2018-10-16 Qualcomm Incorporated Method and apparatus for bus sharing by multiple imaging sensors

Also Published As

Publication number Publication date
CN101356831A (zh) 2009-01-28
JP4887374B2 (ja) 2012-02-29
US8275195B2 (en) 2012-09-25
JP2009517683A (ja) 2009-04-30
EP1958458A1 (en) 2008-08-20
EP1958458B1 (en) 2016-08-17
US20090207235A1 (en) 2009-08-20
WO2007063352A1 (en) 2007-06-07

Similar Documents

Publication Publication Date Title
CN101356831B (zh) 用于确定立体视觉中的分散视差场的方法
EP2111530B1 (en) Automatic stereo measurement of a point of interest in a scene
CN106682673B (zh) 图像处理装置以及方法
US6353678B1 (en) Method and apparatus for detecting independent motion in three-dimensional scenes
EP3067861B1 (en) Determination of a coordinate conversion parameter
EP3182371B1 (en) Threshold determination in for example a type ransac algorithm
CN105453546B (zh) 图像处理装置、图像处理系统和图像处理方法
US20110293142A1 (en) Method for recognizing objects in a set of images recorded by one or more cameras
CN114119751A (zh) 用于大规模确定rgbd相机姿势的方法和系统
US10771776B2 (en) Apparatus and method for generating a camera model for an imaging system
KR20110002001A (ko) 스테레오-영상 정합 및 변화 검출 시스템 및 방법
US10762654B2 (en) Method and system for three-dimensional model reconstruction
Afzal et al. Rgb-d multi-view system calibration for full 3d scene reconstruction
CN116245937A (zh) 货物堆垛的堆高预测方法及装置、设备、存储介质
US11941827B2 (en) System and method of 3D point cloud registration with multiple 2D images
KR20110025020A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
Nozick Camera array image rectification and calibration for stereoscopic and autostereoscopic displays
Paudel et al. Localization of 2D cameras in a known environment using direct 2D-3D registration
Huang et al. A semi-automatic camera calibration method for augmented reality
Liu et al. Fusion of depth maps based on confidence
CN112014393B (zh) 一种基于目标视觉效果的介质能见度识别方法
Januzi Triple-camera setups for image-based depth estimation
Carrasco et al. Bifocal matching using multiple geometrical solutions
Gama et al. Unsupervised calibration of RGB-NIR capture pairs utilizing dense multimodal image correspondences
CN117665730A (zh) 多传感器联合标定方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100901

Termination date: 20211130

CF01 Termination of patent right due to non-payment of annual fee