CN106447709A - 一种快速高精度双目视差匹配方法 - Google Patents
一种快速高精度双目视差匹配方法 Download PDFInfo
- Publication number
- CN106447709A CN106447709A CN201610893855.0A CN201610893855A CN106447709A CN 106447709 A CN106447709 A CN 106447709A CN 201610893855 A CN201610893855 A CN 201610893855A CN 106447709 A CN106447709 A CN 106447709A
- Authority
- CN
- China
- Prior art keywords
- constant
- gradual change
- point
- region
- sparse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Image Processing (AREA)
Abstract
一种快速高精度双目视差匹配方法,包括:从双目摄像设备获取一个图像对;使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点;通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;对左图进行密集采样,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围;为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
Description
技术领域
本发明涉及一种计算机视觉技术,尤其是一种快速高精度双目视差匹配方法。
背景技术
人类视觉不仅可以分辨出颜色、外形等特征,还能通过双目所看到的不同图像的差别,分辨出物体的深度信息。双目视觉是机器视觉的一个重要形式,它是基于视差原理并利用不同位置的两台摄像装置拍摄同一场景,通过计算空间点在两幅图像中的视差,来获取物体的三维几何信息的方法。融合两只眼获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来。
根据双目视觉原理,一旦获取了空间点的视差,如果能够在图像坐标系中确定两个匹配点,并知道其各自的图像坐标,那么就可以获得空间点的深度信息。
因此,实现深度信息获取的关键是获得空间点在左右图像平面内的一个匹配对,而立体匹配问题则是实现深度获取的关键。
双目立体匹配问题是一个"病态"问题,双目立体匹配实施要考虑诸多因素,并以计算复杂度和稳定性等总体性能指标来衡量方案实施的可行性和有效性。
立体匹配的算法很多,主要有区域匹配算法、特征匹配算法、基于全局约束算法、图割算法和基于人工智能的算法。
区域匹配算法通过固定尺寸窗口进行代价聚集,运算速度快,但在低纹理和深度不连续区域匹配效果差;特征匹配算法只能得到稀疏的视差场,要获得密集的视差场必须通过复杂的差值过程,往往适用于具有特征信息显著的环境中;基于全局约束算法虽然能够通过构建复杂的能量函数模型得到高精度的匹配结果,但计算速度慢,并且对计算机的内存需求较大;图割算法虽然能获得密集的结果,但是容易产生较大的匹配误差。
视差和深度的关系如下:
参考图1,由于三角形CtMP与三角形CtLPt相似,可得xl/x=F/z,同理根据三角形相似可得xr/(x-B)=F/z。
两个方程可得:z=BF/(xl-xr) ,其中xl-xr为视差,B为两个摄像机的基线的距离,F为相机的焦距。
对于左相机的任意一个点,都要到有图中匹配一个点,假设图像的宽高为(W和H)有图的搜索范围为(H*V),则计算量为W*H*H*V。
通常取值如下:W=1280;H=730;H(水平)= 100;V = 5。计算量会非常大。
为了降低计算量,一般方法都使用外极线约束,把V减小到1,参考图2的左图,可知过场景点和A/B图的该点的投影点的平面被称为外极平面,而该平面与A、B图的交线是一条直线(因为两个摄像机的垂直视差为0),但是由于摄像机的位置不能绝对的水平等误差因素导致了对应点有可能不在外极线上,所以一般使用图像标定然后矫正的方法。
对于不具有典型性的应用环境,运算量和识别精度是一对天然的矛盾,没有算法能够同时在两个方面得到优化。
而对于道路环境图像识别领域来说,所处理的图像具有强烈的典型性,绝大部分图像会满足一种或多种模式。现有技术中没有方案针对道路环境图像识别领域进行差异化专业化的研究,能够实现快速的高精度识别。
因此,提出一种解决现有匹配算法缺点的双目视觉匹配算法是亟待解决的问题。
发明内容
本发明为了解决上述问题,提出了一种快速高精度双目视差匹配方法,包括:步骤1:从双目摄像设备获取一个图像对,包括左摄像设备获得的左图和右摄像设备获取的右图,左图和右图是同时拍摄的;步骤2:使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;步骤3:针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点;步骤4:通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;步骤5:对左图进行密集采样,由于已经得到了场景深度模型,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围;步骤6:为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
优选的,步骤2具体为:分割线可以是等距离的,从而获得的区域是相同大小的区域;或者;分割线也是不等距离的,中间间隔小,两侧间隔大。
优选的,步骤4具体为:步骤11:获得每个区域中所有稀疏采样点在图像中的坐标(x,y),以及该采样点的视差;步骤12:根据采样点坐标对采样点进行排序,第一排序是根据采样点的x轴坐标进行,第二排序是根据采样点y轴坐标进行排序;步骤13:分析x坐标值相同或很接近的采样点的视差与y轴坐标值之间的关系,称作垂直方向关系,存在三种关系:渐变,不变,混乱;步骤14:分析y坐标值相同或很接近的采样点的视差与x轴坐标值之间的关系,称作水平方向关系,存在三种情况:渐变,不变,混乱;步骤15:通过将步骤13和步骤14获得结果,组合成二元关系组合,即(垂直方向关系,水平方向关系),共有9种情况:(渐变,渐变),(渐变,不变),(渐变,混乱),(不变,渐变),(不变,不变),(不变,混乱),(混乱,渐变),(混乱,不变),(混乱,混乱);步骤16:(渐变,不变)设定为模式B,(不变,渐变)设定为模式C,(不变,不变)设定为模式A,其余识别为无特定模式,模式A中的采样点具有相同的初步预测深度;模式B中的采样点的初步预测深度在垂直方向上渐变,在水平方向上不变;模式C中的采样点的初步预测深度在水平方向上渐变,在垂直方向上不变。
优选的,对于步骤16中识别为无特定模式的情况,可以对所对应的区域进行二次稀疏采样,将该区域划分为更小的区域,在每个小区域中进行稀疏采样,针对每个更小的区域执行步骤11-15。
本发明还提供了一种快速高精度双目视差匹配系统,包括:装置1,用于从双目摄像设备获取一个图像对,包括左摄像设备获得的左图和右摄像设备获取的右图,左图和右图是同时拍摄的;装置2,用于使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;装置3,用于针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点;装置4,用于通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;装置5,用于对左图进行密集采样,由于已经得到了场景深度模型,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围;装置6,用于为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
优选的,装置2具体为:分割线可以是等距离的,从而获得的区域是相同大小的区域;或者;分割线也是不等距离的,中间间隔小,两侧间隔大。
优选的,装置4具体为:装置11,用于获得每个区域中所有稀疏采样点在图像中的坐标(x,y),以及该采样点的视差;装置12,用于根据采样点坐标对采样点进行排序,第一排序是根据采样点的x轴坐标进行,第二排序是根据采样点y轴坐标进行排序;装置13,用于分析x坐标值相同或很接近的采样点的视差与y轴坐标值之间的关系,称作垂直方向关系,存在三种关系:渐变,不变,混乱;装置14,用于分析y坐标值相同或很接近的采样点的视差与x轴坐标值之间的关系,称作水平方向关系,存在三种情况:渐变,不变,混乱;装置15,用于通过将装置13和装置14获得结果,组合成二元关系组合,即(垂直方向关系,水平方向关系),共有9种情况:(渐变,渐变),(渐变,不变),(渐变,混乱),(不变,渐变),(不变,不变),(不变,混乱),(混乱,渐变),(混乱,不变),(混乱,混乱);装置16,用于(渐变,不变)设定为模式B,(不变,渐变)设定为模式C,(不变,不变)设定为模式A,其余识别为无特定模式,模式A中的采样点具有相同的初步预测深度;模式B中的采样点的初步预测深度在垂直方向上渐变,在水平方向上不变;模式C中的采样点的初步预测深度在水平方向上渐变,在垂直方向上不变。
优选的,还包括:对于装置16中识别为无特定模式的情况,可以对所对应的区域进行二次稀疏采样,将该区域划分为更小的区域,在每个小区域中进行稀疏采样,针对每个更小的区域再次运行装置11-15。
本发明还提供了一种计算机系统,包括中央处理器,和存储器,存储器包括了计算机指令,该计算机指令由中央处理器执行后,能实现权利要求1-4所述的方法。
本发明还提供了一种计算机程序,用于实现权利要求1-4所述的方法。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是视差和深度的关系的第一个原理图;
图2是视差和深度的关系的第二个原理图;
图3是根据本发明第一个实施例的一种快速高精度双目视差匹配方法的流程图;
图4是根据本发明第二个实施例的一种快速高精度双目视差匹配系统的框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
由于道路环境图像具有如下特点:
1)视差连续性:图像的前景中的物体和背景的视差是连续的,
邻近的图像的像素值很接近,其投影也很相似,视差几乎相等,仅仅是物体和背景之间的边界不适合连续性。例如,图像中出现的汽车图案,往往尺寸上占据图像中较大比率,在这部分图像上的像素值是很接近的。只有在你汽车图案与其他背景图案相互衔接的地方才有明显的像素值差异。
2)在所摄图像的不同的预定位置,出现某类图像元素的概率很高。例如,图像上部往往是天空的图像,图像下部往往是道路的图像,图像的左右两侧一般是建筑物的图像,图像中间往往是车辆的图像。图像元素在图像中的位置会存现某些固定的模式。
3)连续帧图像之间是连续变化的,所以与视差,深度等需要识别的参量也具有连续变化的特性。
实施例1
参考附图1来描述根据本发明第一个实施例的一种快速高精度双目视差匹配方法的基本流程如下:
步骤1:从双目摄像设备获取一个图像对,包括左摄像设备获得的左图和右摄像设备获取的右图,左图和右图是同时拍摄的;
步骤2:使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;
分割线可以是等距离的,从而获得的区域是相同大小的区域,分割线也可以是不等距离,优选的方式是中间间隔小,两侧间隔大。
步骤3:针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点。如何获得匹配点是本领域技术人员熟知的现有技术,主要是通过比较左右两个图中点的像素值的相近程度来得到。
步骤4:通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;
步骤5:对左图进行密集采样,由于已经得到了场景深度模型,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围。从而使得搜索范围缩小很多(快速);同时因为已经有一个大概的视差范围,所以不会出现大的错误(高精度)。
步骤6:为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
通常的道路环境图像中包括了三类典型图像元素。
模式A是与镜头平面基本平行的图像,例如车,人,正面的指示牌。主要体现在某个区域的点具有基本相同的视差。
模式B是与镜头平面的X轴平行的图像,例如路面。主要体现在某个区域水平方向上的点具有基本相同的视差,垂直方向上的点视差存在渐变的情况。
模式C是与镜头平面的Y轴平行的图像,例如墙面。主要体现在某个区域垂直方向上的点具有基本相同的视差,水平方向上的点视差存在渐变的情况。
根据局部区域多个匹配点的视差的相互关系,与上述三种情况进行匹配,从而确定出某个区域的图像属于哪种模式。
所以,步骤4的具体的方法流程是:
步骤11:获得每个区域中所有稀疏采样点在图像中的坐标(x,y),以及该采样点的视差;
步骤12:根据采样点坐标对采样点进行排序,第一排序是根据采样点的x轴坐标进行,第二排序是根据采样点y轴坐标进行排序;
步骤13:分析x坐标值相同或很接近的采样点的视差与y轴坐标值之间的关系,称作垂直方向关系,存在三种关系:渐变,不变,混乱。
步骤14:分析y坐标值相同或很接近的采样点的视差与x轴坐标值之间的关系,称作水平方向关系,存在三种情况:渐变,不变,混乱。
步骤15:通过将步骤13和步骤14获得结果,组合成二元关系组合,即(垂直方向关系,水平方向关系),共有9种情况:(渐变,渐变),(渐变,不变),(渐变,混乱),(不变,渐变),(不变,不变),(不变,混乱),(混乱,渐变),(混乱,不变),(混乱,混乱)。
步骤16:(渐变,不变)设定为模式B,(不变,渐变)设定为模式C,(不变,不变)设定为模式A,其余识别为无特定模式,模式A中的采样点具有相同的初步预测深度;模式B中的采样点的初步预测深度在垂直方向上渐变,在水平方向上不变;模式C中的采样点的初步预测深度在水平方向上渐变,在垂直方向上不变。
优选的,对于步骤16中识别为无特定模式的情况,可以对所对应的区域进行二次稀疏采样,将该区域划分为更小的区域,在每个小区域中进行稀疏采样,针对每个更小的区域执行步骤11-15。
实施例2
参考附图2来描述根据本发明第一个实施例的一种快速高精度双目视差匹配系统的框图如下:
装置1,用于从双目摄像设备获取一个图像对,包括左摄像设备获得的左图和右摄像设备获取的右图,左图和右图是同时拍摄的;
装置2,用于使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;
分割线可以是等距离的,从而获得的区域是相同大小的区域,分割线也可以是不等距离,优选的方式是中间间隔小,两侧间隔大。
装置3,用于针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点。如何获得匹配点是本领域技术人员熟知的现有技术,主要是通过比较左右两个图中点的像素值的相近程度来得到。
装置4,用于通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;
装置5,用于对左图进行密集采样,由于已经得到了场景深度模型,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围。从而使得搜索范围缩小很多(快速);同时因为已经有一个大概的视差范围,所以不会出现大的错误(高精度)。
装置6,用于为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
参考附图4详细描述装置4的细节。
通常的道路环境图像中包括了三类典型图像元素。
模式A是与镜头平面基本平行的图像,例如车,人,正面的指示牌。主要体现在某个区域的点具有基本相同的视差。
模式B是与镜头平面的X轴平行的图像,例如路面。主要体现在某个区域水平方向上的点具有基本相同的视差,垂直方向上的点视差存在渐变的情况。
模式C是与镜头平面的Y轴平行的图像,例如墙面。主要体现在某个区域垂直方向上的点具有基本相同的视差,水平方向上的点视差存在渐变的情况。
根据局部区域多个匹配点的视差的相互关系,与上述三种情况进行匹配,从而确定出某个区域的图像属于哪种模式。
具体的方法流程是:
装置11,用于获得每个区域中所有稀疏采样点在图像中的坐标(x,y),以及该采样点的视差;
装置12,用于根据采样点坐标对采样点进行排序,第一排序是根据采样点的x轴坐标进行,第二排序是根据采样点y轴坐标进行排序;
装置13,用于分析x坐标值相同或很接近的采样点的视差与y轴坐标值之间的关系,称作垂直方向关系,存在三种关系:渐变,不变,混乱。
装置14,用于分析y坐标值相同或很接近的采样点的视差与x轴坐标值之间的关系,称作水平方向关系,存在三种情况:渐变,不变,混乱。
装置15,用于通过将装置13和装置14获得结果,组合成二元关系组合,即(垂直方向关系,水平方向关系),共有9种情况:(渐变,渐变),(渐变,不变),(渐变,混乱),(不变,渐变),(不变,不变),(不变,混乱),(混乱,渐变),(混乱,不变),(混乱,混乱)。
装置16,用于(渐变,不变)设定为模式B,(不变,渐变)设定为模式C,(不变,不变)设定为模式A,其余识别为无特定模式,模式A中的采样点具有相同的初步预测深度;模式B中的采样点的初步预测深度在垂直方向上渐变,在水平方向上不变;模式C中的采样点的初步预测深度在水平方向上渐变,在垂直方向上不变。
优选的,对于装置16中识别为无特定模式的情况,可以对所对应的区域进行二次稀疏采样,将该区域划分为更小的区域,在每个小区域中进行稀疏采样,针对每个更小的区域,装置11-15再次执行。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
上述实施例并不限制本发明,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变化,这些改进和变化也应视为本发明的保护范围之内。
Claims (10)
1.一种快速高精度双目视差匹配方法,包括:
步骤1:从双目摄像设备获取一个图像对,包括左摄像设备获得的左图和右摄像设备获取的右图,左图和右图是同时拍摄的;
步骤2:使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;
步骤3:针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点;
步骤4:通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;
步骤5:对左图进行密集采样,由于已经得到了场景深度模型,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围;
步骤6:为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
2.如权利要求1所述的方法,步骤2具体为:
分割线可以是等距离的,从而获得的区域是相同大小的区域;
或者;
分割线也是不等距离的,中间间隔小,两侧间隔大。
3.如权利要求1所述的方法,步骤4具体为:
步骤11:获得每个区域中所有稀疏采样点在图像中的坐标(x,y),以及该采样点的视差;
步骤12:根据采样点坐标对采样点进行排序,第一排序是根据采样点的x轴坐标进行,第二排序是根据采样点y轴坐标进行排序;
步骤13:分析x坐标值相同或很接近的采样点的视差与y轴坐标值之间的关系,称作垂直方向关系,存在三种关系:渐变,不变,混乱;
步骤14:分析y坐标值相同或很接近的采样点的视差与x轴坐标值之间的关系,称作水平方向关系,存在三种情况:渐变,不变,混乱;
步骤15:通过将步骤13和步骤14获得结果,组合成二元关系组合,即(垂直方向关系,水平方向关系),共有9种情况:(渐变,渐变),(渐变,不变),(渐变,混乱),(不变,渐变),(不变,不变),(不变,混乱),(混乱,渐变),(混乱,不变),(混乱,混乱);
步骤16:(渐变,不变)设定为模式B,(不变,渐变)设定为模式C,(不变,不变)设定为模式A,其余识别为无特定模式,模式A中的采样点具有相同的初步预测深度;模式B中的采样点的初步预测深度在垂直方向上渐变,在水平方向上不变;模式C中的采样点的初步预测深度在水平方向上渐变,在垂直方向上不变。
4.如权利要求3所述的方法,还包括如下步骤:
对于步骤16中识别为无特定模式的情况,可以对所对应的区域进行二次稀疏采样,将该区域划分为更小的区域,在每个小区域中进行稀疏采样,针对每个更小的区域执行步骤11-15。
5.一种快速高精度双目视差匹配系统,包括:
装置1,用于从双目摄像设备获取一个图像对,包括左摄像设备获得的左图和右摄像设备获取的右图,左图和右图是同时拍摄的;
装置2,用于使用水平方向的分割线和垂直方向的分割线对图像进行划分,划分成多个区域;
装置3,用于针对左图的每个区域,在左图中稀疏采样,得到稀疏采样点,并用这些稀疏采样点去右图中匹配得到对应点;
装置4,用于通过匹配点对,计算得到稀疏视差,通过匹配点对与稀疏视差之间的对应关系来估计场景深度模型;
装置5,用于对左图进行密集采样,由于已经得到了场景深度模型,根据每个密集采样点所处于的场景深度模型来确定密集采样的每个点的初步预测深度,根据该初步预测深度对应出一个右图的搜索范围;
装置6,用于为左图的每个密集采样点,在对应的右图的搜索范围内寻找匹配点,从而获得密集采样点的匹配点对,根据该匹配点对计算出最终预测深度。
6.如权利要求5所述的系统,装置2具体为:
分割线可以是等距离的,从而获得的区域是相同大小的区域;
或者;
分割线也是不等距离的,中间间隔小,两侧间隔大。
7.如权利要求5所述的系统,装置4具体为:
装置11,用于获得每个区域中所有稀疏采样点在图像中的坐标(x,y),以及该采样点的视差;
装置12,用于根据采样点坐标对采样点进行排序,第一排序是根据采样点的x轴坐标进行,第二排序是根据采样点y轴坐标进行排序;
装置13,用于分析x坐标值相同或很接近的采样点的视差与y轴坐标值之间的关系,称作垂直方向关系,存在三种关系:渐变,不变,混乱;
装置14,用于分析y坐标值相同或很接近的采样点的视差与x轴坐标值之间的关系,称作水平方向关系,存在三种情况:渐变,不变,混乱;
装置15,用于通过将装置13和装置14获得结果,组合成二元关系组合,即(垂直方向关系,水平方向关系),共有9种情况:(渐变,渐变),(渐变,不变),(渐变,混乱),(不变,渐变),(不变,不变),(不变,混乱),(混乱,渐变),(混乱,不变),(混乱,混乱);
装置16,用于(渐变,不变)设定为模式B,(不变,渐变)设定为模式C,(不变,不变)设定为模式A,其余识别为无特定模式,模式A中的采样点具有相同的初步预测深度;模式B中的采样点的初步预测深度在垂直方向上渐变,在水平方向上不变;模式C中的采样点的初步预测深度在水平方向上渐变,在垂直方向上不变。
8.如权利要求5所述的装置,还包括:
对于装置16中识别为无特定模式的情况,可以对所对应的区域进行二次稀疏采样,将该区域划分为更小的区域,在每个小区域中进行稀疏采样,针对每个更小的区域再次运行装置11-15。
9.一种计算机系统,包括中央处理器,和存储器,存储器包括了计算机指令,该计算机指令由中央处理器执行后,实现权利要求1-4所述的方法。
10.一种计算机程序,用于实现权利要求1-4所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610893855.0A CN106447709A (zh) | 2016-10-13 | 2016-10-13 | 一种快速高精度双目视差匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610893855.0A CN106447709A (zh) | 2016-10-13 | 2016-10-13 | 一种快速高精度双目视差匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106447709A true CN106447709A (zh) | 2017-02-22 |
Family
ID=58173852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610893855.0A Pending CN106447709A (zh) | 2016-10-13 | 2016-10-13 | 一种快速高精度双目视差匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106447709A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107424196A (zh) * | 2017-08-03 | 2017-12-01 | 江苏钜芯集成电路技术股份有限公司 | 一种基于弱标定多目相机的立体匹配方法、装置及系统 |
CN107909616A (zh) * | 2017-12-14 | 2018-04-13 | 元橡科技(北京)有限公司 | 一种双目视觉系统的自动矫正方法 |
CN109631829A (zh) * | 2018-12-17 | 2019-04-16 | 南京理工大学 | 一种自适应快速匹配的双目测距方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102387387A (zh) * | 2010-08-27 | 2012-03-21 | 佳能株式会社 | 图像处理设备和方法 |
CN102831601A (zh) * | 2012-07-26 | 2012-12-19 | 中北大学 | 基于联合相似性测度和自适应支持权重的立体匹配方法 |
US20130266211A1 (en) * | 2012-04-06 | 2013-10-10 | Brigham Young University | Stereo vision apparatus and method |
CN104200517A (zh) * | 2014-08-06 | 2014-12-10 | 北京工业大学 | 一种三维重建方法 |
-
2016
- 2016-10-13 CN CN201610893855.0A patent/CN106447709A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102387387A (zh) * | 2010-08-27 | 2012-03-21 | 佳能株式会社 | 图像处理设备和方法 |
US20130266211A1 (en) * | 2012-04-06 | 2013-10-10 | Brigham Young University | Stereo vision apparatus and method |
CN102831601A (zh) * | 2012-07-26 | 2012-12-19 | 中北大学 | 基于联合相似性测度和自适应支持权重的立体匹配方法 |
CN104200517A (zh) * | 2014-08-06 | 2014-12-10 | 北京工业大学 | 一种三维重建方法 |
Non-Patent Citations (1)
Title |
---|
邓坚瑾,田金文: "基于视差估计的图像双向匹配", 《计算机与数字工程》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107424196A (zh) * | 2017-08-03 | 2017-12-01 | 江苏钜芯集成电路技术股份有限公司 | 一种基于弱标定多目相机的立体匹配方法、装置及系统 |
CN107424196B (zh) * | 2017-08-03 | 2021-02-26 | 江苏钜芯集成电路技术股份有限公司 | 一种基于弱标定多目相机的立体匹配方法、装置及系统 |
CN107909616A (zh) * | 2017-12-14 | 2018-04-13 | 元橡科技(北京)有限公司 | 一种双目视觉系统的自动矫正方法 |
CN109631829A (zh) * | 2018-12-17 | 2019-04-16 | 南京理工大学 | 一种自适应快速匹配的双目测距方法 |
CN109631829B (zh) * | 2018-12-17 | 2022-05-27 | 南京理工大学 | 一种自适应快速匹配的双目测距方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914715B (zh) | 一种基于仿生视觉的智能车目标实时检测与定位方法 | |
CN106960454B (zh) | 景深避障方法、设备及无人飞行器 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN102313536B (zh) | 基于机载双目视觉的障碍物感知方法 | |
CN103279982B (zh) | 鲁棒的快速高深度分辨率的散斑三维重建方法 | |
CN102353340B (zh) | 缸盖毛坯加工尺寸识别方法及装置 | |
CN107977997A (zh) | 一种结合激光雷达三维点云数据的相机自标定方法 | |
CN103093479A (zh) | 一种基于双目视觉的目标定位方法 | |
CN105300316A (zh) | 基于灰度重心法的光条中心快速提取方法 | |
CN106447661A (zh) | 一种深度图快速生成方法 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN113888639B (zh) | 基于事件相机与深度相机的视觉里程计定位方法及系统 | |
Bethmann et al. | Semi-global matching in object space | |
CN105551020A (zh) | 一种检测目标物尺寸的方法及装置 | |
CN111429571B (zh) | 一种基于时空图像信息联合相关的快速立体匹配方法 | |
CN117456114B (zh) | 基于多视图的三维图像重建方法及系统 | |
CN107492107A (zh) | 基于平面与空间信息融合的物体识别与重建方法 | |
CN112150518B (zh) | 一种基于注意力机制的图像立体匹配方法及双目设备 | |
CN106447709A (zh) | 一种快速高精度双目视差匹配方法 | |
CN110702015B (zh) | 输电线路覆冰厚度测量方法及装置 | |
Liu et al. | The applications and summary of three dimensional reconstruction based on stereo vision | |
CN108090930A (zh) | 基于双目立体相机的障碍物视觉检测系统及方法 | |
CN104156973A (zh) | 基于立体匹配的实时三维视频监控方法 | |
CN106548482B (zh) | 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统 | |
CN112033352B (zh) | 多摄像头测距的机器人及视觉测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170222 |