CN101996399A - 在左图像与右图像之间估计视差的设备和方法 - Google Patents
在左图像与右图像之间估计视差的设备和方法 Download PDFInfo
- Publication number
- CN101996399A CN101996399A CN2009101654717A CN200910165471A CN101996399A CN 101996399 A CN101996399 A CN 101996399A CN 2009101654717 A CN2009101654717 A CN 2009101654717A CN 200910165471 A CN200910165471 A CN 200910165471A CN 101996399 A CN101996399 A CN 101996399A
- Authority
- CN
- China
- Prior art keywords
- unique point
- parallax
- left image
- value
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
提供一种在左图像与右图像之间估计视差的设备和方法。所述设备包括:特征点提取单元,用于提取左图像和右图像中的特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;区域划分单元,用于基于颜色相似程度将左图像划分为多个区域;匹配代价计算单元,用于计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数;以及视差产生单元,用于在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值;并基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
Description
技术领域
本发明涉及在左图像与右图像之间估计视差的设备和方法,尤其涉及一种在划分的图像区域中,基于特征点及其匹配代价函数来计算亚像素级别视差的设备和方法。
背景技术
视差(即,双目视差)是指在双目视觉中,同一空间点在双目分别看到的左图像和右图像中不同投影之间的位置矢量。实际中,由于人眼对于深度的感觉取决于水平方向的视差,所以视差也可仅仅指位置矢量的水平分量。
如上所述,视差为产生深度感觉的依据,因此,视差估计是计算场景深度、场景三维重建以及三维显示中的核心技术。在现有的视差估计中,通常基于匹配的点或区域得到初始估计值,进而采用渐进式的迭代算法,以得到最高精度为像素级别的视差估计。
上述方法要求拍摄左右图像的相机尽量水平运动,并需要对得到的结果进行校正和优化,特别是当进行全局优化时,计算量非常大,耗时明显。
因此,需要提供一种能够提高视差估计精度的技术方案。此外,随着数字信号处理技术的发展,多核并行处理成为可能,而目前尚无可利用并行处理的能力来提高视差估计效率和速度的技术方案。
发明内容
本发明的目的在于提供一种能够提高视差估计精度的技术方案。此外,可在本发明的视差估计方案中,利用多核并行处理来提高视差估计效率和速度。
根据本发明的一方面,提供一种在左图像与右图像之间估计视差的设备,包括:特征点提取单元,用于提取左图像和右图像中的特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;区域划分单元,用于基于颜色相似程度将左图像划分为多个区域;匹配代价计算单元,用于计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数;以及视差产生单元,用于在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值;并基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
特征点提取单元、区域划分单元和匹配代价计算单元以并行方式进行操作。
特征点提取单元提取的特征点为SURF特征点或SIFT特征点。
对于左图像中的任一特征点,特征点提取单元将右图像中与所述特征点之间的特征矢量距离最短的一特征点确定为匹配的特征点。
特征点提取单元依据以下约束条件中的至少一个对确定的成对匹配特征点进行筛选:A、匹配的成对特征点之间的特征矢量距离需要小于或等于一定特征矢量距离阈值;B、匹配的成对特征点之间的位置矢量大小需要小于或等于一定位置矢量大小阈值;C、匹配的成对特征点之间的位置矢量的方向角需要小于或等于一定位置矢量方向角阈值。
区域划分单元基于颜色相似程度将左图像首先粗略地划分为多个区域,再依次对各个区域进行进一步的细分。
区域划分单元保存最终划分结果以及中间划分结果。
匹配代价计算单元基于经验值或实验值来设置右图像中的所述特定范围。
匹配代价计算单元将左图像中的像素与右图像中的像素之间的匹配代价函数表示为:这两个像素的多个对应邻域之间的相似性距离的加权平均值。
所述相似性距离为基于邻域颜色直方图的EMD距离。
对于多纹理区域中的任一特征点,视差产生单元将该任一特征点的匹配特征点及匹配特征点周围的多个像素点代入所述任一特征点的匹配代价函数,对于得到的多个匹配代价值进行二次多项式拟合,拟合后的曲线的最小值所对应的与所述任一特征点之间的位置矢量被确定为视差值。
视差产生单元基于中间划分结果相应的区域进行二维平面拟合。
当视差产生单元确定其它剩余区域的视差值时,视差产生单元将待确定区域周围的多纹理区域的视差平均值赋予所述待确定区域,作为其视差值。
视差产生单元对产生的左图像的所有视差进行平滑处理。
视差产生单元基于最终划分结果或中间划分结果对产生的左图像的所有视差进行平滑处理。
使用Bilateral滤波器来进行所述平滑处理。
根据本发明的另一方面,提供一种在左图像与右图像之间估计视差的方法,包括:特征点提取步骤:提取左图像和右图像中的特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;区域划分步骤:基于颜色相似程度将左图像划分为多个区域;匹配代价计算步骤:计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数;以及视差产生步骤:在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值;并基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
特征点提取步骤、区域划分步骤和匹配代价计算步骤以并行方式来执行。
特征点提取步骤中提取的特征点为SURF特征点或SIFT特征点。
在特征点提取步骤中,对于左图像中的任一特征点,将右图像中与所述特征点之间的特征矢量距离最短的一特征点确定为匹配的特征点。
在匹配代价计算步骤中,将左图像中的像素与右图像中的像素之间的匹配代价函数表示为:这两个像素的多个对应邻域之间的相似性距离的加权平均值。
在视差产生步骤中,对于多纹理区域中的任一特征点,将该任一特征点的匹配特征点及匹配特征点周围的多个像素点代入所述任一特征点的匹配代价函数,对于得到的多个匹配代价值进行二次多项式拟合,拟合后的曲线的最小值所对应的与所述任一特征点之间的位置矢量被确定为视差值。
视差产生步骤还包括:对产生的左图像的所有视差进行平滑处理。
使用Bilateral滤波器来进行所述平滑处理。
附图说明
通过下面结合附图进行的对实施例的描述,本发明的上述和/或其它目的和优点将会变得更加清楚,其中:
图1是示出根据本发明示例性实施例的视差估计设备的框图;
图2是示出根据本发明示例性实施例的视差估计方法的流程图;
图3示出根据本发明示例性实施例在图像中提取的特征点及其特征矢量的示图;
图4示出根据本发明示例性实施例对图像进行区域划分的示图;
图5示出根据本发明示例性实施例计算左图像中的像素与右图像中的像素之间的匹配代价的示图;
图6示出根据本发明示例性实施例由图1的视差产生单元进行视差估计的流程图;
图7示出根据本发明示例性实施例确定多纹理区域中某个特征点视差值的示图;以及
图8示出分别根据现有技术以及本发明示例性实施例产生的视差估计图的对比示图。
具体实施方式
现将详细参照本发明的实施例,所述实施例的示例在附图中示出,其中,相同的标号始终指的是相同的部件。以下将通过参照附图来说明所述实施例,以便解释本发明。
图1是示出根据本发明示例性实施例的视差估计设备的框图。如图1所示,根据本发明示例性实施例的视差估计设备包括:特征点提取单元10,用于提取左图像和右图像中的特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;区域划分单元20,用于基于颜色相似程度将左图像划分为多个区域;匹配代价计算单元30,用于计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数;以及视差产生单元40,用于在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值;并基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
以下将参照图2来描述利用图1所示的视差估计设备来实现根据本发明的视差估计方法的示例。
图2是示出根据本发明示例性实施例的视差估计方法的流程图。参照图2,在步骤S100,由特征点提取单元10从输入的成对左图像和右图像中提取特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;在步骤S200,由区域划分单元20基于颜色相似程度将左图像划分为多个区域;在步骤S300,由匹配代价计算单元30计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数。作为一种可选方式,上述步骤S100、S200和S300可同时进行。在步骤S400,视差产生单元40基于步骤S100和S200的操作结果,确定特征点较多的多纹理区域,并在确定的多纹理区域中,基于在步骤S100得到的各个特征点的位置矢量和在步骤S300得到的所述特征点的匹配代价函数,估算所述特征点的视差值,对得到的视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值。此外,视差产生单元40基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
以下,将参照图3到图7来详细描述图1所示的视差估计设备的各个构件及其示例性操作。
首先,特征点提取单元10在步骤S100分别从输入的左图像和右图像中提取特征点及其相应的特征矢量。图3示出根据本发明示例性实施例在图像中提取的特征点及其特征矢量的示图,其中,每个特征点具有对应的特征矢量。本领域中公知的任何特征点提取方式(例如,SURF(加速强健特征)、SIFT(尺度不变特征变换)等)均可应用于本发明。假设以SURF特征点为例,在特征点提取单元10分别从输入的左图像和右图像中提取所有SURF特征点并得到相应的特征矢量之后,特征点提取单元10接着查找分别位于左图像与右图像中且相互匹配的成对特征点,具体说来,对于左图像中的任意特征点P,特征点提取单元10计算该特征点P的特征矢量与右图像中各个特征点的特征矢量之间的特征矢量距离,并将右图像中与特征点P之间的特征矢量距离最短的特征点确定为与特征点P匹配的特征点P’。然后,特征点提取单元10计算特征点P与其匹配特征点P’之间的空间位置矢量v。
此外,为了进一步提高特征点匹配的精确度,作为可选步骤,可在搜索到成对的匹配点之后,利用约束条件对其进行进一步的筛选,从而使得匹配的精确度更高。主要可从特征近似程度以及空间位置关系两个方面来加以约束,但是本领域技术人员应该理解:本发明并不受限于此,任何能够提高匹配精度的方式均可等同地应用于本发明。
作为示例,特征点提取单元10可根据以下约束条件中的至少一个对匹配的成对特征点进行筛选:
1、匹配的成对特征点之间的特征矢量距离需要小于或等于一定特征矢量距离阈值,否则,将撤销该对特征点。作为示例,该阈值可被设置为所有匹配特征点对之间的特征矢量距离的平均值。然而,本发明并不受限于此,本领域技术人员可根据不同的实际情况和需要来设置相应的阈值大小。
2、匹配的成对特征点之间的位置矢量大小需要小于或等于一定位置矢量大小阈值,否则,将撤销该对特征点。作为示例,该阈值可被设置为所有匹配特征点对之间的位置矢量大小的平均值。然而,本发明并不受限于此,本领域技术人员可根据不同的实际情况和需要来设置相应的阈值大小。
3、匹配的成对特征点之间的位置矢量的方向角需要小于或等于一定位置矢量方向角阈值,否则,将撤销该对特征点。作为示例,该阈值可被设置为所有匹配特征点对之间的位置矢量方向角的平均值。然而,本发明并不受限于此,本领域技术人员可根据不同的实际情况和需要来设置相应的阈值大小。
如果特征点提取单元10根据上述约束条件中的至少一个对匹配的成对特征点进行了筛选,则只对保留的特征点进行后续处理。
接下来将描述区域划分单元20在步骤S200基于颜色相似程度将左图像划分为多个区域的示例性操作。基于颜色的相似程度来将图像划分为多个区域属于本领域技术人员的公知技术手段,虽然可采用不同的方式来进行划分,但是均可等同地应用于本发明。在进行区域划分时,通常先划分出较大的区域,然后,对划分出的区域进行进一步的细分,得到较小的区域,以此类推,直到满足预定的条件,则停止继续分割。图4示出根据本发明示例性实施例对图像进行区域划分的示图。图4中的(a)示出原始图像,图4中的(b)示出划分为较大区域的图像,而图4中的(c)示出划分为较小区域的图像。作为示例,可采用Pedro F.Felzenszwalb和Daniel P.Hutternlocher在题为“Efficient Graph-Based Image Segmentation”中提到的方法将图像划分为多个区域,其中,以区域内像素颜色值的方差的大小作为终止继续划分的判断条件。
这里,需要说明的是,作为可选步骤,还可额外保存除了最终划分结果之外的中间处理结果,即,如图4中的(b)所示的较大划分区域,以选择性地在某些实施例中用于平滑处理的依据。
接下来将描述匹配代价计算单元30在步骤S300计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数的示例。具体说来,对于左图像中的每一像素,计算其与右图像中特定的多个像素进行匹配的匹配代价。这里,可根据各种方式来设置需要针对右图像中哪些像素来计算匹配代价,其中,选取的像素越多,计算量越大,而匹配的可靠性也越高,因此,具体像素的选取只要满足能够在计算量与可靠性做出合适的折中即可,例如,可按照实验值或经验值来设置,或者根据不同的实际情况和需要来设置。图5示出根据本发明示例性实施例计算左图像中的像素与右图像中的像素之间的匹配代价的示图。在图5中,对于左图像中的像素P1,计算其与右图像中的像素P2进行匹配的匹配代价,其中,将像素P2的位置确定为:P1到P2的矢量大小为d,方向角为α,其中,d和α的值可按照实验值或经验值来设置,或者根据不同的实际情况和需要来设置。作为示例,将P1与P2的匹配代价函数表示为两个像素的N个对应邻域之间的相似性距离的加权平均值,其中,N为大于1的整数,其具体值可根据实验值或经验值来设置,或者根据不同的实际情况和需要来设置。作为一种示例,这里采用基于邻域颜色直方图的EMD(Earth Mover’s Distance)距离作为相似性距离。这里,可选择包围像素的方形区域作为邻域,例如,当N取值3时,所选取的3个邻域分别为第1邻域:像素P1或P2本身;第2邻域:以像素P1或P2为中心的3×3像素构成的邻域;以及第3邻域:以像素P1或P2为中心的5×5像素构成的邻域。将P1像素和P2像素的第n领域之间的基于颜色直方图的EMD距离表示为Disn(P1,P2),则像素P1与P2之间的匹配代价函数为:
其中,n表示邻域的序号,ωn表示权重,其与n值成正比。
通过以上方式,我们可以得到左图像中的任意像素与右图像中的多个像素之间的匹配代价函数,左图像中所有像素的匹配代价函数构成匹配代价图(cost map)。
应注意:作为并行处理方案,上述特征点提取单元10、区域划分单元20和匹配代价计算单元30的处理可同时执行,这样能够充分发挥现有多核处理器结构的优势。然而,本发明并不受限于这种并行处理方式,上述特征点提取单元10、区域划分单元20和匹配代价计算单元30的处理也可依次进行,此时,上述三个单元中,每个单元的操作以及其中某些参数的设定可以参照其它单元的处理结果来设置。例如,匹配代价计算单元30可基于特征点提取单元10中匹配的特征点对之间的位置矢量来设置右图像中需要针对特征点进行匹配计算的像素范围,提高匹配计算的有效性。
接下来将描述视差产生单元40在步骤S400基于特征点提取单元10、区域划分单元20和匹配代价计算单元30的输出来进行视差估计的示例。图6示出根据本发明示例性实施例由图1的视差产生单元进行视差估计的流程图。参照图6,在步骤S410,视差产生单元40将区域划分单元20划分的所有区域中特征点相对较多的一个或多个区域确定为多纹理区域,以便对多纹理区域进行亚像素级别的视差估计。
然后,在步骤S420,视差产生单元20在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值。图7示出根据本发明示例性实施例确定多纹理区域中某个特征点视差值的示图。参照图7,横坐标x表示匹配代价函数中的d值,纵坐标y表示匹配代价。具体说来,对于特定特征点P,特征点提取单元10已经在步骤S100中初步确定了其在右图像中的相应匹配特征点,并计算出两者之间的位置矢量,假设该位置矢量的大小为d0,这里,我们选取d0及其附近的多个d值,例如,d1、d2、d3、d4、d5、d6、d7、d8、d9。将这10个选取的值以及对应的方向角(优选地,可仅选取水平方向来进行匹配代价计算,即,α=0)代入特征点P的匹配代价函数(由匹配代价计算单元30在步骤S300中得到),得到相应的10个匹配代价(如图7中的小圆点所示)。基于这10个匹配代价值进行二次多项式拟合,得到图7所示的拟合后的曲线,该曲线的最小值(如图7中较大的圆点所示)所对应的横坐标即被确定为该特征点的视差值。按照上述方式,视差产生单元40可计算出多纹理区域中所有特征点的视差值。作为可选步骤,此时可对计算出的视差值进行检验,以去除视差值明显区别于周围特征点视差值的杂质点。在得到多纹理区域中所有特征点的视差值之后,视差产生单元40在特征点所处的一定区域内对这些视差值进行二维平面拟合,从而获得该区域内所有像素的视差值。所述一定区域可以等同于相应的多纹理区域,或者,作为替代方式,可选择包括多个多纹理区域的更大范围的区域(例如,区域划分单元20在步骤S200中额外保存的除了最终划分结果之外的中间处理结果)来进行二维平面拟合,从而平面拟合的范围被扩大。
接着,在步骤S430,视差产生单元40确定其它剩余区域的视差值。这里,视差产生单元40将待确定区域周围的多纹理区域的视差平均值赋予所述待确定区域,作为其视差值。
通过以上处理,视差产生单元40基于特征点提取单元10、区域划分单元20和匹配代价计算单元30的输出而产生了图像中所有像素的视差值,即,生成所述图像的视差图。
此外,作为可选步骤S440,视差产生单元40对产生的视差图进行平滑处理,从而使得相邻区域的深度更加平滑。作为示例,视差产生单元40可利用Bilateral滤波器基于区域划分的最终结果或中间结果来进行视差图的平滑处理。
以上示出了根据本发明示例性实施例进行视差估计的设备和方法。图8示出分别根据现有技术以及本发明示例性实施例产生的视差估计图的对比示图。图8中的(a)示出被进行视差估计的图像,图8中的(b)示出根据现有技术(具体为GraphCut方法)得到的视差图,图8中的(c)示出根据本发明示例性实施例得到的视差图。如图8所示,本发明实施例由于实现了亚像素级的视差估计,从而对细节部位的视差估计有明显改善。
根据本发明,能够基于特征点提取、区域划分和匹配代价来有效地估计多纹理区域和其余区域中各个像素的视差。其中,对于多纹理区域,能够实现精度更高的亚像素级的视差估计。此外,特征点提取、区域划分和匹配代价计算这三个处理可并列执行,从而大大提高视差估计的速度。同时,本发明提出的视差估计方法和设备不需要执行现有技术中必须执行的优化处理。
本发明的以上各个实施例仅仅是示例性的,而本发明并不受限于此。本领域技术人员应该理解:由于人眼对深度的感觉仅仅取决于左图像与右图像中对应点的水平运动,所以实际运算中,对于特征点提取中得到的位置矢量,可仅取它的水平分量用于后续的视差估计操作。此外,实施例中涉及的具体操作仅仅是示例性的,在不脱离本发明总体构思的情况下,本领域技术人员完全可以采用等同的技术手段进行替换。例如,任何特征点提取方式均可替代本发明中举例的SURF特征点提取方式;对于邻域数量和形状的选取并不限于实施例中给的具体参数和示例;任何用于平滑处理的方式均可用于对得到的视差图进行平滑等等。也就是说,本领域的技术人员应认识到:在不脱离本发明的原理和精神的情况下,可对这些实施例进行改变,其中,本发明的范围在权利要求及其等同物中限定。
Claims (24)
1.一种在左图像与右图像之间估计视差的设备,包括:
特征点提取单元,用于提取左图像和右图像中的特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;
区域划分单元,用于基于颜色相似程度将左图像划分为多个区域;
匹配代价计算单元,用于计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数;以及
视差产生单元,用于在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值;并基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
2.如权利要求1所述的设备,其中,特征点提取单元、区域划分单元和匹配代价计算单元以并行方式进行操作。
3.如权利要求1所述的设备,其中,特征点提取单元提取的特征点为SURF特征点或SIFT特征点。
4.如权利要求1所述的设备,其中,对于左图像中的任一特征点,特征点提取单元将右图像中与所述特征点之间的特征矢量距离最短的一特征点确定为匹配的特征点。
5.如权利要求4所述的设备,其中,特征点提取单元依据以下约束条件中的至少一个对确定的成对匹配特征点进行筛选:
A、匹配的成对特征点之间的特征矢量距离需要小于或等于一定特征矢量距离阈值;
B、匹配的成对特征点之间的位置矢量大小需要小于或等于一定位置矢量大小阈值;
C、匹配的成对特征点之间的位置矢量的方向角需要小于或等于一定位置矢量方向角阈值。
6.如权利要求1所述的设备,其中,区域划分单元基于颜色相似程度将左图像首先粗略地划分为多个区域,再依次对各个区域进行进一步的细分。
7.如权利要求6所述的设备,其中,区域划分单元保存最终划分结果以及中间划分结果。
8.如权利要求1所述的设备,其中,匹配代价计算单元基于经验值或实验值来设置右图像中的所述特定范围。
9.如权利要求1所述的设备,其中,匹配代价计算单元将左图像中的像素与右图像中的像素之间的匹配代价函数表示为:这两个像素的多个对应邻域之间的相似性距离的加权平均值。
10.如权利要求9所述的设备,其中,所述相似性距离为基于邻域颜色直方图的EMD距离。
11.如权利要求1所述的设备,其中,对于多纹理区域中的任一特征点,视差产生单元将该任一特征点的匹配特征点及匹配特征点周围的多个像素点代入所述任一特征点的匹配代价函数,对于得到的多个匹配代价值进行二次多项式拟合,拟合后的曲线的最小值所对应的与所述任一特征点之间的位置矢量被确定为视差值。
12.如权利要求7所述的设备,其中,视差产生单元基于中间划分结果相应的区域进行二维平面拟合。
13.如权利要求1所述的设备,其中,当视差产生单元确定其它剩余区域的视差值时,视差产生单元将待确定区域周围的多纹理区域的视差平均值赋予所述待确定区域,作为其视差值。
14.如权利要求1所述的设备,其中,视差产生单元对产生的左图像的所有视差进行平滑处理。
15.如权利要求7所述的设备,其中,视差产生单元基于最终划分结果或中间划分结果对产生的左图像的所有视差进行平滑处理。
16.如权利要求14或15所述的设备,其中,使用Bilateral滤波器来进行所述平滑处理。
17.一种在左图像与右图像之间估计视差的方法,包括:
特征点提取步骤:提取左图像和右图像中的特征点,确定分别位于左图像与右图像中且相互匹配的成对特征点,并计算匹配特征点之间的位置矢量;
区域划分步骤:基于颜色相似程度将左图像划分为多个区域;
匹配代价计算步骤:计算左图像中的像素与右图像中的特定范围内的各个像素进行匹配的匹配代价函数;以及
视差产生步骤:在特征点较多的多纹理区域中,基于各个特征点的位置矢量和匹配代价函数得到所述特征点的视差值,对所述视差值进行二维平面拟合,以获得多纹理区域中全部像素的视差值;并基于多纹理区域中像素的视差值来确定其它剩余区域的视差值。
18.如权利要求17所述的方法,其中,特征点提取步骤、区域划分步骤和匹配代价计算步骤以并行方式来执行。
19.如权利要求17所述的方法,其中,特征点提取步骤中提取的特征点为SURF特征点或SIFT特征点。
20.如权利要求17所述的方法,其中,在特征点提取步骤中,对于左图像中的任一特征点,将右图像中与所述特征点之间的特征矢量距离最短的一特征点确定为匹配的特征点。
21.如权利要求17所述的方法,其中,在匹配代价计算步骤中,将左图像中的像素与右图像中的像素之间的匹配代价函数表示为:这两个像素的多个对应邻域之间的相似性距离的加权平均值。
22.如权利要求17所述的方法,其中,在视差产生步骤中,对于多纹理区域中的任一特征点,将该任一特征点的匹配特征点及匹配特征点周围的多个像素点代入所述任一特征点的匹配代价函数,对于得到的多个匹配代价值进行二次多项式拟合,拟合后的曲线的最小值所对应的与所述任一特征点之间的位置矢量被确定为视差值。
23.如权利要求17所述的方法,其中,视差产生步骤还包括:对产生的左图像的所有视差进行平滑处理。
24.如权利要求23所述的方法,其中,使用Bilateral滤波器来进行所述平滑处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101654717A CN101996399A (zh) | 2009-08-18 | 2009-08-18 | 在左图像与右图像之间估计视差的设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101654717A CN101996399A (zh) | 2009-08-18 | 2009-08-18 | 在左图像与右图像之间估计视差的设备和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101996399A true CN101996399A (zh) | 2011-03-30 |
Family
ID=43786520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101654717A Pending CN101996399A (zh) | 2009-08-18 | 2009-08-18 | 在左图像与右图像之间估计视差的设备和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101996399A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800083A (zh) * | 2012-06-19 | 2012-11-28 | 中国农业大学 | 基于双目视觉网格划分匹配算法的农作物喷雾定位方法 |
CN103260043A (zh) * | 2013-04-28 | 2013-08-21 | 清华大学 | 基于学习的双目立体图像匹配方法及系统 |
CN103295223A (zh) * | 2012-02-27 | 2013-09-11 | 三星电子株式会社 | 用于使用可见性能量模型估计视差的设备和方法 |
CN103456000A (zh) * | 2012-05-29 | 2013-12-18 | 财团法人工业技术研究院 | 特征点匹配方法及其装置 |
CN104123715A (zh) * | 2013-04-27 | 2014-10-29 | 株式会社理光 | 配置视差值的方法和系统 |
CN104581182A (zh) * | 2013-10-18 | 2015-04-29 | 浙江大学 | 一种视点合成预测中的深度视差矢量的确定方法和装置 |
CN104915941A (zh) * | 2014-03-11 | 2015-09-16 | 株式会社理光 | 计算视差的方法和装置 |
CN105141937A (zh) * | 2015-06-29 | 2015-12-09 | 西安交通大学 | 一种基于二维经验模式分解的自适应立体视差估计方法 |
CN105469375A (zh) * | 2014-08-28 | 2016-04-06 | 北京三星通信技术研究有限公司 | 处理高动态范围全景图的方法和装置 |
CN105551020A (zh) * | 2015-12-03 | 2016-05-04 | 浙江大华技术股份有限公司 | 一种检测目标物尺寸的方法及装置 |
CN106651833A (zh) * | 2016-10-12 | 2017-05-10 | 成都西纬科技有限公司 | 一种确定最大视差的方法 |
CN107194350A (zh) * | 2017-05-19 | 2017-09-22 | 北京进化者机器人科技有限公司 | 障碍物检测方法、装置及机器人 |
CN107578039A (zh) * | 2017-10-08 | 2018-01-12 | 王奕博 | 基于数字图像处理技术的字迹轮廓比对方法 |
CN108337498A (zh) * | 2018-01-31 | 2018-07-27 | 北京大学深圳研究生院 | 一种曲面拟合的视差计算方法及系统 |
WO2018209969A1 (zh) * | 2017-05-19 | 2018-11-22 | 成都通甲优博科技有限责任公司 | 深度图创建方法与系统及图像虚化方法与系统 |
CN109191515A (zh) * | 2018-07-25 | 2019-01-11 | 北京市商汤科技开发有限公司 | 一种图像视差估计方法及装置、存储介质 |
CN110570467A (zh) * | 2019-07-11 | 2019-12-13 | 华南理工大学 | 一种基于并行队列的立体匹配视差计算方法 |
US10681257B2 (en) | 2015-08-26 | 2020-06-09 | Zhejiang Dahua Technology Co., Ltd. | Methods and systems for traffic monitoring |
CN111382654A (zh) * | 2018-12-29 | 2020-07-07 | 北京市商汤科技开发有限公司 | 图像处理方法和装置以及存储介质 |
CN111488763A (zh) * | 2019-01-26 | 2020-08-04 | 天津大学青岛海洋技术研究院 | W-ltp人脸识别算法 |
CN113141495A (zh) * | 2020-01-16 | 2021-07-20 | 纳恩博(北京)科技有限公司 | 图像处理方法及装置、存储介质、电子装置 |
CN113409364A (zh) * | 2021-06-01 | 2021-09-17 | 诡谷子人工智能科技(深圳)有限公司 | 一种基于像素相似性的立体匹配算法、系统和计算机介质 |
CN115063467A (zh) * | 2022-08-08 | 2022-09-16 | 煤炭科学研究总院有限公司 | 煤矿井下高分辨率图像视差估计方法及装置 |
-
2009
- 2009-08-18 CN CN2009101654717A patent/CN101996399A/zh active Pending
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295223A (zh) * | 2012-02-27 | 2013-09-11 | 三星电子株式会社 | 用于使用可见性能量模型估计视差的设备和方法 |
CN103295223B (zh) * | 2012-02-27 | 2017-08-04 | 三星电子株式会社 | 用于使用可见性能量模型估计视差的设备和方法 |
CN103456000B (zh) * | 2012-05-29 | 2016-04-13 | 财团法人工业技术研究院 | 特征点匹配方法及其装置 |
CN103456000A (zh) * | 2012-05-29 | 2013-12-18 | 财团法人工业技术研究院 | 特征点匹配方法及其装置 |
CN102800083B (zh) * | 2012-06-19 | 2014-12-10 | 中国农业大学 | 基于双目视觉网格划分匹配算法的农作物喷雾定位方法 |
CN102800083A (zh) * | 2012-06-19 | 2012-11-28 | 中国农业大学 | 基于双目视觉网格划分匹配算法的农作物喷雾定位方法 |
CN104123715A (zh) * | 2013-04-27 | 2014-10-29 | 株式会社理光 | 配置视差值的方法和系统 |
CN104123715B (zh) * | 2013-04-27 | 2017-12-05 | 株式会社理光 | 配置视差值的方法和系统 |
CN103260043A (zh) * | 2013-04-28 | 2013-08-21 | 清华大学 | 基于学习的双目立体图像匹配方法及系统 |
CN104581182A (zh) * | 2013-10-18 | 2015-04-29 | 浙江大学 | 一种视点合成预测中的深度视差矢量的确定方法和装置 |
CN104581182B (zh) * | 2013-10-18 | 2019-08-16 | 浙江大学 | 一种视点合成预测中的深度视差矢量的确定方法和装置 |
CN104915941A (zh) * | 2014-03-11 | 2015-09-16 | 株式会社理光 | 计算视差的方法和装置 |
CN104915941B (zh) * | 2014-03-11 | 2017-08-04 | 株式会社理光 | 计算视差的方法和装置 |
CN105469375A (zh) * | 2014-08-28 | 2016-04-06 | 北京三星通信技术研究有限公司 | 处理高动态范围全景图的方法和装置 |
CN105141937A (zh) * | 2015-06-29 | 2015-12-09 | 西安交通大学 | 一种基于二维经验模式分解的自适应立体视差估计方法 |
US11514680B2 (en) | 2015-08-26 | 2022-11-29 | Zhejiang Dahua Technology Co., Ltd. | Methods and systems for traffic monitoring |
US10681257B2 (en) | 2015-08-26 | 2020-06-09 | Zhejiang Dahua Technology Co., Ltd. | Methods and systems for traffic monitoring |
CN105551020A (zh) * | 2015-12-03 | 2016-05-04 | 浙江大华技术股份有限公司 | 一种检测目标物尺寸的方法及装置 |
CN105551020B (zh) * | 2015-12-03 | 2019-03-26 | 浙江大华技术股份有限公司 | 一种检测目标物尺寸的方法及装置 |
CN106651833A (zh) * | 2016-10-12 | 2017-05-10 | 成都西纬科技有限公司 | 一种确定最大视差的方法 |
CN106651833B (zh) * | 2016-10-12 | 2020-07-03 | 成都西纬科技有限公司 | 一种确定最大视差的方法 |
WO2018209969A1 (zh) * | 2017-05-19 | 2018-11-22 | 成都通甲优博科技有限责任公司 | 深度图创建方法与系统及图像虚化方法与系统 |
CN107194350A (zh) * | 2017-05-19 | 2017-09-22 | 北京进化者机器人科技有限公司 | 障碍物检测方法、装置及机器人 |
CN107578039A (zh) * | 2017-10-08 | 2018-01-12 | 王奕博 | 基于数字图像处理技术的字迹轮廓比对方法 |
CN108337498A (zh) * | 2018-01-31 | 2018-07-27 | 北京大学深圳研究生院 | 一种曲面拟合的视差计算方法及系统 |
CN108337498B (zh) * | 2018-01-31 | 2020-04-28 | 北京大学深圳研究生院 | 一种曲面拟合的视差计算方法及系统 |
CN109191515A (zh) * | 2018-07-25 | 2019-01-11 | 北京市商汤科技开发有限公司 | 一种图像视差估计方法及装置、存储介质 |
JP2021531582A (ja) * | 2018-07-25 | 2021-11-18 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. | 画像視差推定 |
JP7108125B2 (ja) | 2018-07-25 | 2022-07-27 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | 画像視差推定 |
WO2020020160A1 (zh) * | 2018-07-25 | 2020-01-30 | 北京市商汤科技开发有限公司 | 图像视差估计 |
CN109191515B (zh) * | 2018-07-25 | 2021-06-01 | 北京市商汤科技开发有限公司 | 一种图像视差估计方法及装置、存储介质 |
CN111382654A (zh) * | 2018-12-29 | 2020-07-07 | 北京市商汤科技开发有限公司 | 图像处理方法和装置以及存储介质 |
CN111382654B (zh) * | 2018-12-29 | 2024-04-12 | 北京市商汤科技开发有限公司 | 图像处理方法和装置以及存储介质 |
CN111488763A (zh) * | 2019-01-26 | 2020-08-04 | 天津大学青岛海洋技术研究院 | W-ltp人脸识别算法 |
CN110570467A (zh) * | 2019-07-11 | 2019-12-13 | 华南理工大学 | 一种基于并行队列的立体匹配视差计算方法 |
CN110570467B (zh) * | 2019-07-11 | 2023-09-19 | 华南理工大学 | 一种基于并行队列的立体匹配视差计算方法 |
CN113141495A (zh) * | 2020-01-16 | 2021-07-20 | 纳恩博(北京)科技有限公司 | 图像处理方法及装置、存储介质、电子装置 |
CN113141495B (zh) * | 2020-01-16 | 2023-03-24 | 纳恩博(北京)科技有限公司 | 图像处理方法及装置、存储介质、电子装置 |
CN113409364A (zh) * | 2021-06-01 | 2021-09-17 | 诡谷子人工智能科技(深圳)有限公司 | 一种基于像素相似性的立体匹配算法、系统和计算机介质 |
CN113409364B (zh) * | 2021-06-01 | 2024-03-29 | 诡谷子人工智能科技(深圳)有限公司 | 一种基于像素相似性的立体匹配算法、系统和计算机介质 |
CN115063467A (zh) * | 2022-08-08 | 2022-09-16 | 煤炭科学研究总院有限公司 | 煤矿井下高分辨率图像视差估计方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101996399A (zh) | 在左图像与右图像之间估计视差的设备和方法 | |
CN101400001B (zh) | 一种视频帧深度图的生成方法及系统 | |
CN103810744B (zh) | 在点云中回填点 | |
Tsai et al. | Block-based vanishing line and vanishing point detection for 3D scene reconstruction | |
CN105279789B (zh) | 一种基于图像序列的三维重建方法 | |
CN107301664A (zh) | 基于相似性测度函数的改进局部立体匹配方法 | |
CN111402311B (zh) | 一种基于知识蒸馏的轻量级立体视差估计方法 | |
CN110070567B (zh) | 一种地面激光点云配准方法 | |
CN104301704A (zh) | 内容感知显示适应方法 | |
CN111260707B (zh) | 一种基于光场epi图像的深度估计方法 | |
KR20170091496A (ko) | 양안 시차 영상의 처리 방법 및 장치 | |
KR102655999B1 (ko) | 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법 | |
CN111583313A (zh) | 一种基于PSMNet改进的双目立体匹配方法 | |
CN109146937A (zh) | 一种基于深度学习的电力巡检影像密集匹配方法 | |
CN103106651A (zh) | 一种基于三维hough变换的获取视差平面的方法 | |
CN112184731B (zh) | 一种基于对抗性训练的多视图立体深度估计方法 | |
CN103384343A (zh) | 一种填补图像空洞的方法及其装置 | |
CN104301706A (zh) | 一种增强裸眼立体显示效果的合成方法 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
Guo et al. | 2D to 3D convertion based on edge defocus and segmentation | |
Hung et al. | Multipass hierarchical stereo matching for generation of digital terrain models from aerial images | |
CN117437363A (zh) | 基于深度感知迭代器的大规模多视图立体方法 | |
Shen et al. | A 3D modeling method of indoor objects using Kinect sensor | |
CN104123715B (zh) | 配置视差值的方法和系统 | |
CN110148168A (zh) | 一种基于大小双基线的三目相机深度图像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20151209 |
|
C20 | Patent right or utility model deemed to be abandoned or is abandoned |