CN106780442B - 一种立体匹配方法及系统 - Google Patents

一种立体匹配方法及系统 Download PDF

Info

Publication number
CN106780442B
CN106780442B CN201611079621.9A CN201611079621A CN106780442B CN 106780442 B CN106780442 B CN 106780442B CN 201611079621 A CN201611079621 A CN 201611079621A CN 106780442 B CN106780442 B CN 106780442B
Authority
CN
China
Prior art keywords
parallax
points
point
stereo matching
supporting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611079621.9A
Other languages
English (en)
Other versions
CN106780442A (zh
Inventor
唐荣富
余勤力
周剑
龙学军
徐一丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Tongjia Youbo Technology Co Ltd
Original Assignee
Chengdu Tongjia Youbo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Tongjia Youbo Technology Co Ltd filed Critical Chengdu Tongjia Youbo Technology Co Ltd
Priority to CN201611079621.9A priority Critical patent/CN106780442B/zh
Priority to PCT/CN2017/070639 priority patent/WO2018098891A1/zh
Publication of CN106780442A publication Critical patent/CN106780442A/zh
Application granted granted Critical
Publication of CN106780442B publication Critical patent/CN106780442B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Abstract

本发明公开了一种立体匹配方法,包括:提取左右图的特征点,并对特征点进行特征点匹配确定支撑点;根据支撑点构建Delaunay三角形;其中,Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;根据Delaunay三角形,视差条件概率及视差置信水平,利用贝叶斯原理计算得到最优后验视差;该方法实现了快速匹配获得高精度视差图,特别适合移动平台或实时性要求高的应用领域;本发明还公开了一种立体匹配系统,具有上述有益效果。

Description

一种立体匹配方法及系统
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种立体匹配方法及系统。
背景技术
立体匹配(stereo dense matching)是指根据所选特征的计算、建立特征间的对应关系,将同一个空间物理点在不同图像中的像点对应起来。立体匹配是计算机视觉研究中一个重要热点和难点,是机器人、医学、人工智能等许多应用中的关键技术之一。近年来,随着移动平台的发展,对立体匹配方法的精度及实时性要求不断提升。立体匹配算法分解为四个步骤:匹配代价计算、匹配代价聚合、视差计算、视差细化。按照约束方式的不同,立体匹配算法可分为局部匹配算法和全局匹配算法。
全局立体匹配算法主要是通过全局的优化理论方法估计视差,建立全局能量函数,再通过最小化全局能量函数来得到最优视差值。一般而言,全局匹配算法得到的结果精度较局部算法高,但其计算量较大、耗时较长,不适合实时应用。主要的算法有图割(graphcuts)、信念传播(belief propagation)、半全局匹配(semi-global matching)、动态规划(dynamic programing)等。目前,立体匹配的一个研究方向为采用卷积神经网络的机器学习的方法,可以获得较经典全局算法相当或更高的精度。
局部匹配算法主要是采用局部优化方法进行视差值估计,与全局立体匹配算法一样,也是通过能量最小化方法进行视差估计,不同的是在能量函数中,局部匹配算法只有数据项,而没有平滑项。由于局部匹配算法对光照强度和对比度的变化比较敏感,当图像存在纹理特征重复、纹理较弱及遮挡现象比较严重的情况下会导致错误匹配概率较高。常用的局部匹配算法主要有SAD(sum of absolute differences算法、CT(census transform)算法、ASW(adaptive support weight)算法、ELAS(efficient large area stereomatching)算法、IDR(iterative dense refinement)算法等。SAD算法是计算局部窗口的对应像素差的绝对值,CT算法是先对窗口区域进行变换,后按Hamming距离度量计算匹配代价。SAD和CT方法实现简单、快速,但精度很低。ASW算法根据生物视觉原理,改变SAD算法单一相同权重的方法,引入自适应权重的思想,获得了很高的匹配精度,但是自适应权重导致的计算量非常大。IDR算法采用双通道(two-pass)的方法简化实现ASW,并增加了迭代改进的方法,从而获得了较高的精度。IDR算法结构非常利于并行处理,在CUDA架构下优化后可以得到很高的运算效率;但IDR算法也存在两个主要不足:在非CUDA架构下运行速度较慢,且内存开销非常大。ELAS算法采用了与上述方法完全不同的思想:其首先采用sobel算子获得图像的强纹理的支撑点;然后使用支撑点几何对图像进行Delaunay三角剖分,获得像素点的视差平面估计;最后采用sobel算子测度计算匹配代价,并利用加权的方法得到视差的最优估计。ELAS算法是目前运行速度最快的立体匹配算法之一,精度也非常高,适于实时应用场合。ELAS算法的主要不足表现为:算法结构不利于并行化实现,且存在某些像素点无法计算视差的情况。
因此,如何在保证算法精度的前提下提高运行效率,仍是立体匹配技术在移动平台应用的一个难点。
发明内容
本发明的目的是提供一种立体匹配方法及系统,实现了快速匹配获得高精度视差图,特别适合移动平台或实时性要求高的应用领域。
为解决上述技术问题,本发明提供一种立体匹配方法,包括:
提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点;
根据所述支撑点构建Delaunay三角形;其中,所述Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;
利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;
根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差。
可选的,提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点,包括:
利用FAST算子对左右图提取特征点,并利用BRIEF进行特征描述;
利用极线约束以及特征描述中的Hamming距离进行特征点匹配,将匹配成功的特征点作为支撑点。
可选的,根据所述支撑点构建Delaunay三角形,包括:
利用分治法对左图的支撑点集合进行Delaunay三角剖分;
利用公式计算得到所述左图像素点与支撑点的最小支撑距离m;
利用高斯模型计算得到所述左图像素点视差的先验概率P(dn|S);
其中,Dp,i为对应像素点与其所在Delaunay三角形的支撑点的欧氏距离,σp=qσ,σ为方差,q为常数参数;dp为由支撑点确定的视差估计,且dp=aup+bvp+c,参数a,b,c通过拟合三个支撑点平面获得,dn为支撑点视差值,up和vp分别为该像素点的横坐标和纵坐标。
可选的,利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平,包括:
利用改进census变换立体匹配算法计算所述左图中像素点的视差条件概率及视差置信水平。
可选的,根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差,包括:
利用公式d*=argminP(dn|S,O)计算得到最优后验视差d*
其中,为视差后验概率,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数,S为支撑点,O为根据某种局部立体匹配算子的匹配代价,α为权重参数。
可选的,该立体匹配方法还包括:
利用左右一致性检测方法检测视差图中误匹配点。
可选的,利用左右一致性检测方法检测视差图中误匹配点之后,还包括:
根据WTA策略,利用所述误匹配点左右两侧的视差值对误差匹配点的视差值进行替换。
本发明还提供一种立体匹配系统,包括:
支撑点确定模块,用于提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点;
Delaunay三角形构建模块,用于根据所述支撑点构建Delaunay三角形;其中,所述Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;
概率计算模块,用于利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;
后验视差计算模块,用于根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差。
可选的,所述Delaunay三角形构建模块,包括:
剖分单元,用于利用分治法对左图的支撑点集合进行Delaunay三角剖分;
距离计算单元,用于利用公式计算得到所述左图像素点与支撑点的最小支撑距离m;
先验概率计算单元,用于利用高斯模型计算得到所述左图像素点视差的先验概率P(dn|S);
其中,Dp,i为对应像素点与其所在Delaunay三角形的支撑点的欧氏距离,σp=qσ,σ为方差,q为常数参数;dp为由支撑点确定的视差估计,且dp=aup+bvp+c,参数a,b,c通过拟合三个支撑点平面获得,dn为支撑点视差值,up和vp分别为该像素点的横坐标和纵坐标。
可选的,所述后验视差计算模块具体为利用公式d*=argminP(dn|S,O)计算得到最优后验视差d*的模块;
其中,为视差后验概率,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数,S为支撑点,O为根据某种局部立体匹配算子的匹配代价,α为权重参数。
本发明所提供的立体匹配方法,包括:提取左右图的特征点,并对特征点进行特征点匹配确定支撑点;根据支撑点构建Delaunay三角形;其中,Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;根据Delaunay三角形,视差条件概率及视差置信水平,利用贝叶斯原理计算得到最优后验视差;该方法利用快速、高精度、具有自适应性的立体匹配方法,实现了快速匹配获得高精度视差图,特别适合移动平台或实时性要求高的应用领域;本发明还提供了一种立体匹配系统,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例所提供的立体匹配方法的流程图;
图2为本发明实施例所提供的立体匹配系统的结构框图。
具体实施方式
本发明的核心是提供一种立体匹配方法及系统,实现了快速匹配获得高精度视差图,特别适合移动平台或实时性要求高的应用领域。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在以下实施例内容的描述中,采用立体匹配的通用术语,以左图为基准图(reference image),并约定左右图已完成单目像机标定(camera calibration)和立体标定(stereo rectification)。
请参考图1,图1为本发明实施例所提供的立体匹配方法的流程图;该方法可以包括:
S100、提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点;
具体的,该步骤主要为了获取支撑点,本实施例并不对具体特征点的提取及匹配算法进行限定。为了快速,高精度完成视差图,这里可以选用具备计算速度快,精度高的相关算法。且进一步为了使该立体匹配算法能够很好的应用于移动平台,选取的算法还应该具有计算逻辑相对简单的特点。例如在进行特征点匹配时可以利用极线约束以及特征点描述子快速进行特征点匹配,匹配成功的特征点称为支撑点(support point)。这里极线约束将匹配搜索从二维降为一维,极大简化了复杂度提高了计算速度。适合移动平台或实时性要求高的应用领域。
优选的,提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点可以包括:
利用FAST算子对左右图提取特征点,并利用BRIEF进行特征描述;
具体的,利用FAST(features from accelerated segment test)算子对左右图提取特征点并用BRIEF(binary robust independent element feature)进行特征描述。
其中,FAST特征点检测是公认的快速有效的特征点提取方法。FAST特征提取主要包括三个步骤:对固定半径(通常半径选为三个像素)圆上的像素进行分割测试,并通过逻辑测试去除大量的非特征候选点;基于分类的角点特征检测,利用ID3分类器根据16个特征判决候选点是否为角点特征;利用非极大值抑制进行角点特征的验证。BRIEF描述子是在特征点周边随机取点对进行灰度计算,直接获得二进制特征描述向量。BRIEF描述子具有两个明显优势:描述子所需字节少,内存开销小;利用Hamming测度进行匹配运算速度非常快。
利用极线约束以及特征描述中的Hamming距离进行特征点匹配,将匹配成功的特征点作为支撑点。
具体的,使用极线约束以及特征点距离快速进行特征点匹配,匹配成功的特征点称为支撑点(support point)。
其中,极线约束将匹配搜索从二维降为一维,极大简化了复杂度。考虑到视差空间(Disp)的限制,左图特征点在右图上的匹配点只能位于对应外极线上的一个小区间。因此,本实施例可以使用WTA(winner takes all)策略,在视差空间内选择匹配代价最小的点作为匹配点,对应的左图像上p点的视差DL(p)为
其中:d(d∈Disp)表示视差空间Disp中的可能视差,其取值一般为0到最大视差dmax之间的整数;H(.)表示对应左右像素BRIEF描述子的Hamming距离。
S110、根据所述支撑点构建Delaunay三角形;其中,所述Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;
具体的,对左图进行Delaunay三角剖分的目的是将图像分割成覆盖整幅图像平面且彼此相连的三角形网格,将视差图描述为一系列具有相同或者相近视差值的三角形区域,三角形网格可以反映出像素点与其邻近像素点间的拓扑连接关系。对于视差平滑区域,在保证边缘细节的前提下,三角形划分应该足够大以减少匹配的歧义性。在视差连续区域,顶点密度、数量应尽量少,以加快匹配速度。在视差不连续区域,为了正确描述物体的形状,顶点数量应该足够多,以便能更好地保证后续视差图匹配的精度。
其中,Delaunay三角网具有以下优点:结构良好,数据结构简单,数据冗余度小,存储效率高,与不规则的地面特征和谐一致,可以表示线性特征,可适应各种分布密度的数据等。
本实施例并不对进行Delaunay三角剖分算法进行限定,用户可以根据自身对结果的要求进行选择,在算法选择时可以考虑计算平台硬件水平,对结果精度和计算速度的需求等。该Delaunay三角剖分算法可以包括有随机增量法、三角网生长法和分治法等。其中,随机增量法的实现简单高效,占用内存较小,但其时间复杂度高;三角网生长法由于效率相对较低,目前采用较少;分治法的效率最高,而且剖分后的三角面片较为平滑,同时很好地保持了物体的边缘特征。因此优选的,本实施例可以使用分治法对支撑点集合进行Delaunay三角剖分。本实施例中Delaunay三角形提供了该三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离(minimum support distance)等信息;具体的,根据所述支撑点构建Delaunay三角形可以包括:
利用分治法对左图的支撑点集合进行Delaunay三角剖分;
利用公式计算得到所述左图像素点与支撑点的最小支撑距离m;
利用高斯模型计算得到所述左图像素点视差的先验概率P(dn|S);
其中,Dp,i为对应像素点与其所在Delaunay三角形的支撑点的欧氏距离,σp=qσ,σ为方差,q为常数参数(可以依据经验值进行设定和修改);dp为由支撑点确定的视差估计,且dp=aup+bvp+c,参数a,b,c通过拟合三个支撑点平面获得,dn为支撑点视差值,up和vp分别为该像素点的横坐标和纵坐标。
具体的,在利用分治法对左图的支撑点集合进行Delaunay三角剖分后,由于已知所有支撑点视差值,因此可在每一个三角形确定的平面内估计包含其中的任一像素点的视差初值dp,并通过几何关系得到该像素与相邻三个支撑点的最小支撑距离m(minimumsupport distance)。
S120、利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;
具体的,该步骤主要为了计算得到左图中任意像素点的视差条件概率及视差置信水平(confidence level),并不对具体的视差计算方法进行限定。由于改进census变换立体匹配算法计算具有结构简单,计算速度快等优点。因此,优选的,利用改进census变换立体匹配算法计算所述左图中像素点的视差条件概率及视差置信水平。
具体的,census变换是一种非参数局部变换。它的缺点是结果过于依赖于中心像素。因此本实施例采用基于邻域信息的改进census变换立体匹配算法(a modified censustransform based on the neighborhood information for stereo matchingalgorithm)。该改进census变换立体匹配算法针对传统census变换在视差不连续区域和噪声干扰情况下误匹配率较高的情况,提出了一种利用邻域相关信息的改进census变换立体匹配算法。应用两位信息来表示像素与中心像素、像素与邻域灰度均值的灰度差异对census变换进行了改进,通过Hamming距计算得到初始匹配代价;经过并行分层权重代价聚合提高匹配精度,并降低代价聚合计算复杂度。
该改进census变换立体匹配算法使中心像素的表示更加精确;使变换后的图像在视差不连续区域的信息表示更为丰富;同时减少了噪声对匹配质量的影响。经测试表明,该算法结构简单,复杂度低,具有较高的鲁棒性,有效地提高了匹配精度。该步骤采用Hamming距离来表示视差条件概率P(O|dn):
其中,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数。从统计学的角度看,视差条件概率表征了视差dn的置信水平。
S130、根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差。最优后验视差即为视差的最优后验估计
具体的,根据Delaunay三角形中的先验概率,最小支撑距离以及视差条件概率及视差置信水平,利用贝叶斯原理获得最优的后验视差(posteriordisparity),即为该像素的最佳视差。根据视差先验概率模型及条件概率模型得到贝叶斯参数估计模型:P(dn|S,O)∝P(dn|S)*P(O|dn),可得如下结果:
其中,为视差后验概率,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数,S为支撑点,O为根据某种局部立体匹配算子的匹配代价,α为权重参数,dn为视差。
需要特别说明的是,本发明提供了最优视差估计的一种贝叶斯立体匹配方法,其中的支撑点提取以及条件概率的算法是可替换的,并调整相应的模型参数。
基于上述技术方案,本发明实施例提供的立体匹配方法,该方法根据条件视差的置信水平、像素点与支撑点的几何拓扑关系,确定先验概率和条件概率的权重参数,可以获得更为精确的视差后验估计。相比与现有技术中ELAS算法经验固化权重参数相比,该方法充分利用了先验视差和条件视差的所包含的信息,模型更加合理。参数具有自适应性。该方法中参数模型的先验概率和条件概率的权重参数是根据置信水平、几何拓扑关系自适应确定的。事实上,参数模型只需要确定经验参数α和σ(可根据试验测定),σp和P(O|dn)是自适应变化的,更具有灵活性。参数模型形式简单,运算高效。即该方法利用快速、高精度、具有自适应性的立体匹配方法,实现了快速匹配获得高精度视差图,特别适合移动平台或实时性要求高的应用领域。
基于上述技术方案,为了提高立体匹配的精度,该方法还可以包括:
利用左右一致性检测方法检测视差图中误匹配点。
具体的,使用左右一致性检测方法检测出误匹配点。利用上述实施例得到的左图和右图的视差图,如果右视差图中的像素点向左偏移与视差值大小相同的单位像素后,与左视差图中相应位置像素点的值相同,则为可靠匹配点,否则为误匹配点。在检测到误匹配点后该方法还可以包括:
根据WTA策略,利用所述误匹配点左右两侧的视差值对误差匹配点的视差值进行替换。
具体的,对于计算出来的误匹配点,通过WTA策略用左右两侧的视差值替换即可。提高立体匹配的精度。
进一步,此时视差图可能仍然存在少数噪点,需要进一步除噪,可以使用快速中值滤波滤除,最后通过插值优化得到亚像素精度的视差,使得视差图更为完整、正确。
基于上述技术方案,本发明实施例提供的立体匹配方法,该方法在构建贝叶斯先验概率模型时,采用了FAST特征提取算子和BRIEF描述算子,提升了支撑点的效率和稠密度,使得先验概率更为精确;在构建贝叶斯条件概率模型时,采用改进CT算法(即改进census变换算法),更加快速精确;更为重要的是,该方法的贝叶斯参数估计模型充分考虑了先验视差的几何拓扑结构和条件概率的置信水平,具有参数自适应性、形式简单、运算高效的特点。
下面对本发明实施例提供的立体匹配系统进行介绍,下文描述的立体匹配系统与上文描述的立体匹配方法可相互对应参照。
请参考图2,图2为本发明实施例所提供的立体匹配系统的结构框图;该系统可以包括:
支撑点确定模块100,用于提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点;
Delaunay三角形构建模块200,用于根据所述支撑点构建Delaunay三角形;其中,所述Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;
概率计算模块300,用于利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;
后验视差计算模块400,用于根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差。
基于上述实施例,所述Delaunay三角形构建模块200可以包括:
剖分单元,用于利用分治法对左图的支撑点集合进行Delaunay三角剖分;
距离计算单元,用于利用公式计算得到所述左图像素点与支撑点的最小支撑距离m;
先验概率计算单元,用于利用高斯模型计算得到所述左图像素点视差的先验概率P(dn|S);
其中,Dp,i为对应像素点与其所在Delaunay三角形的支撑点的欧氏距离,σp=qσ,σ为方差,q为常数参数;dp为由支撑点确定的视差估计,且dp=aup+bvp+c,参数a,b,c通过拟合三个支撑点平面获得,dn为支撑点视差值,up和vp分别为该像素点的横坐标和纵坐标。
基于上述实施例,所述后验视差计算模块400具体为利用公式d*=argminP(dn|S,O)计算得到最优后验视差d*的模块;
其中,为视差后验概率,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数,S为支撑点,O为根据某种局部立体匹配算子的匹配代价,α为权重参数。
基于上述任意实施例,该系统还可以包括:
一致性检测模块,用于利用左右一致性检测方法检测视差图中误匹配点。
基于上述任意实施例,该系统还可以包括:
替换模块,用于根据WTA策略,利用所述误匹配点左右两侧的视差值对误差匹配点的视差值进行替换。
基于上述任意实施例,该系统还可以包括:
除噪模块,用于使用快速中值滤波滤除,最后通过插值优化得到亚像素精度的视差,使得视差图更为完整、正确。
基于上述技术方案,本发明实施例提供的立体匹配系统,采用贝叶斯最大后验估计的思想获得视差最优估计。该系统首先利用支撑点快速匹配获得视差的先验概率(priorprobability),其中先验概率与支撑点视差、像素点几何、最小距离相关;通过改进census变换立体匹配算法计算条件概率(conditional probability),其中条件概率与匹配代价、置信水平相关;最后,根据先验概率和条件概率获得后验概率(posterior probability),通过最大化后验概率获得视差的最优估计。特别地,该系统使用的贝叶斯模型中的参数具有自适应性。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的立体匹配方法及系统进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种立体匹配方法,其特征在于,包括:
提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点;
根据所述支撑点构建Delaunay三角形;其中,所述Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;
利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;
根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差。
2.根据权利要求1所述的立体匹配方法,其特征在于,提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点,包括:
利用FAST算子对左右图提取特征点,并利用BRIEF进行特征描述;
利用极线约束以及特征描述中的Hamming距离进行特征点匹配,将匹配成功的特征点作为支撑点。
3.根据权利要求2所述的立体匹配方法,其特征在于,根据所述支撑点构建Delaunay三角形,包括:
利用分治法对左图的支撑点集合进行Delaunay三角剖分;
利用公式计算得到所述左图像素点与支撑点的最小支撑距离m;
利用高斯模型计算得到所述左图像素点视差的先验概率P(dn|S);
其中,Dp,i为对应像素点与其所在Delaunay三角形的支撑点的欧氏距离,σp=qσ,σ为方差,q为常数参数;dp为由支撑点确定的视差估计,且dp=aup+bvp+c,参数a,b,c通过拟合三个支撑点平面获得,dn为支撑点视差值,up和vp分别为该像素点的横坐标和纵坐标。
4.根据权利要求3所述的立体匹配方法,其特征在于,利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平,包括:
利用改进census变换立体匹配算法计算所述左图中像素点的视差条件概率及视差置信水平。
5.根据权利要求4所述的立体匹配方法,其特征在于,根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差,包括:
利用公式d*=argminP(dn|S,O)计算得到最优后验视差d*
其中,为视差后验概率,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数,S为支撑点,O为根据某种局部立体匹配算子的匹配代价,α为权重参数。
6.根据权利要求1-5任一项所述的立体匹配方法,其特征在于,还包括:
利用左右一致性检测方法检测视差图中误匹配点。
7.根据权利要求6所述的立体匹配方法,其特征在于,利用左右一致性检测方法检测视差图中误匹配点之后,还包括:
利用所述误匹配点左右两侧的视差值对误匹配点的视差值进行替换。
8.一种立体匹配系统,其特征在于,包括:
支撑点确定模块,用于提取左右图的特征点,并对所述特征点进行特征点匹配确定支撑点;
Delaunay三角形构建模块,用于根据所述支撑点构建Delaunay三角形;其中,所述Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;
概率计算模块,用于利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;
后验视差计算模块,用于根据所述Delaunay三角形,所述视差条件概率及所述视差置信水平,利用贝叶斯原理计算得到最优后验视差。
9.根据权利要求8所述的立体匹配系统,其特征在于,所述Delaunay三角形构建模块,包括:
剖分单元,用于利用分治法对左图的支撑点集合进行Delaunay三角剖分;
距离计算单元,用于利用公式计算得到所述左图像素点与支撑点的最小支撑距离m;
先验概率计算单元,用于利用高斯模型计算得到所述左图像素点视差的先验概率P(dn|S);
其中,Dp,i为对应像素点与其所在Delaunay三角形的支撑点的欧氏距离,σp=qσ,σ为方差,q为常数参数;dp为由支撑点确定的视差估计,且dp=aup+bvp+c,参数a,b,c通过拟合三个支撑点平面获得,dn为支撑点视差值,up和vp分别为该像素点的横坐标和纵坐标。
10.根据权利要求9所述的立体匹配系统,其特征在于,所述后验视差计算模块具体为利用公式d*=argminP(dn|S,O)计算得到最优后验视差d*的模块;
其中,为视差后验概率,f(dn)为改进census变换立体匹配算法的Hamming距离,fm(d)为条件视差的置信水平函数,S为支撑点,O为根据某种局部立体匹配算子的匹配代价,α为权重参数。
CN201611079621.9A 2016-11-30 2016-11-30 一种立体匹配方法及系统 Active CN106780442B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201611079621.9A CN106780442B (zh) 2016-11-30 2016-11-30 一种立体匹配方法及系统
PCT/CN2017/070639 WO2018098891A1 (zh) 2016-11-30 2017-01-09 一种立体匹配方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611079621.9A CN106780442B (zh) 2016-11-30 2016-11-30 一种立体匹配方法及系统

Publications (2)

Publication Number Publication Date
CN106780442A CN106780442A (zh) 2017-05-31
CN106780442B true CN106780442B (zh) 2019-12-24

Family

ID=58901184

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611079621.9A Active CN106780442B (zh) 2016-11-30 2016-11-30 一种立体匹配方法及系统

Country Status (2)

Country Link
CN (1) CN106780442B (zh)
WO (1) WO2018098891A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248179A (zh) * 2017-06-08 2017-10-13 爱佩仪中测(成都)精密仪器有限公司 用于视差计算的三维匹配建立方法
CN108876841B (zh) * 2017-07-25 2023-04-28 成都通甲优博科技有限责任公司 一种视差图视差求精中插值的方法及系统
CN107730543B (zh) * 2017-09-08 2021-05-14 成都通甲优博科技有限责任公司 一种半稠密立体匹配的快速迭代计算方法
CN107945217B (zh) * 2017-11-20 2020-07-14 北京宇航系统工程研究所 一种适用于自动装配的图像特征点对快速筛选方法及系统
CN109816710B (zh) * 2018-12-13 2023-08-29 中山大学 一种双目视觉系统高精度且无拖影的视差计算方法
CN109887021B (zh) * 2019-01-19 2023-06-06 天津大学 基于跨尺度的随机游走立体匹配方法
CN111476837B (zh) * 2019-01-23 2023-02-24 上海科技大学 自适应立体匹配优化方法及其装置、设备和存储介质
CN109978934B (zh) * 2019-03-04 2023-01-10 北京大学深圳研究生院 一种基于匹配代价加权的双目视觉立体匹配方法及系统
CN109961092B (zh) * 2019-03-04 2022-11-01 北京大学深圳研究生院 一种基于视差锚点的双目视觉立体匹配方法及系统
CN110533711A (zh) * 2019-09-04 2019-12-03 云南电网有限责任公司带电作业分公司 一种基于加速稳健特征的高效大尺度立体匹配算法
CN110599478B (zh) * 2019-09-16 2023-02-03 中山大学 一种图像区域复制粘贴篡改检测方法
CN111439889A (zh) * 2020-04-01 2020-07-24 吉林建筑大学 一种协同去除地下水中铁锰、氨氮和有机物的水循环处理方法
CN111784753B (zh) * 2020-07-03 2023-12-05 江苏科技大学 自主水下机器人回收对接前景视场三维重建立体匹配方法
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法
CN112116640B (zh) * 2020-09-11 2024-02-23 南京理工大学智能计算成像研究院有限公司 一种基于OpenCL的双目立体匹配方法
CN112163622B (zh) * 2020-09-30 2022-07-05 山东建筑大学 全局与局部融合约束的航空宽基线立体像对线段匹配方法
CN112435282B (zh) * 2020-10-28 2023-09-12 西安交通大学 一种基于自适应候选视差预测网络的实时双目立体匹配方法
CN112308897A (zh) * 2020-10-30 2021-02-02 江苏大学 一种基于邻域信息约束与自适应窗口的立体匹配方法
CN113129313A (zh) * 2021-03-22 2021-07-16 北京中科慧眼科技有限公司 基于超像素的稠密匹配算法、系统和智能终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609936A (zh) * 2012-01-10 2012-07-25 四川长虹电器股份有限公司 基于置信度传播的图像立体匹配方法
CN104091339A (zh) * 2014-07-17 2014-10-08 清华大学深圳研究生院 一种图像快速立体匹配方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7773799B2 (en) * 2004-04-02 2010-08-10 The Boeing Company Method for automatic stereo measurement of a point of interest in a scene
CN103440653A (zh) * 2013-08-27 2013-12-11 北京航空航天大学 双目视觉立体匹配方法
CN106097336B (zh) * 2016-06-07 2019-01-22 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609936A (zh) * 2012-01-10 2012-07-25 四川长虹电器股份有限公司 基于置信度传播的图像立体匹配方法
CN104091339A (zh) * 2014-07-17 2014-10-08 清华大学深圳研究生院 一种图像快速立体匹配方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于贝叶斯模型的快速立体匹配算法;梁峰等;《计算机工程与设计》;20150430;第36卷(第4期);956-961 *

Also Published As

Publication number Publication date
CN106780442A (zh) 2017-05-31
WO2018098891A1 (zh) 2018-06-07

Similar Documents

Publication Publication Date Title
CN106780442B (zh) 一种立体匹配方法及系统
US10706622B2 (en) Point cloud meshing method, apparatus, device and computer storage media
Hamzah et al. Stereo matching algorithm based on per pixel difference adjustment, iterative guided filter and graph segmentation
CN107220997B (zh) 一种立体匹配方法及系统
US9754377B2 (en) Multi-resolution depth estimation using modified census transform for advanced driver assistance systems
Zhang et al. Stereo matching with segmentation-based cooperation
CN109472820B (zh) 单目rgb-d相机实时人脸重建方法及装置
CN107169972B (zh) 一种非合作目标快速轮廓跟踪方法
Ma et al. A modified census transform based on the neighborhood information for stereo matching algorithm
He et al. Occlusion boundary detection using pseudo-depth
CN108629809B (zh) 一种精确高效的立体匹配方法
Brodský et al. Structure from motion: Beyond the epipolar constraint
Chang et al. Disparity map enhancement in pixel based stereo matching method using distance transform
Mordohai The self-aware matching measure for stereo
CN107122782B (zh) 一种均衡的半密集立体匹配方法
Dambreville et al. A geometric approach to joint 2D region-based segmentation and 3D pose estimation using a 3D shape prior
Mukherjee et al. A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision
Chen et al. Patch-based stereo matching using 3D convolutional neural networks
Zhu et al. Hybrid scheme for accurate stereo matching
Wei et al. Dense and occlusion-robust multi-view stereo for unstructured videos
Zhang et al. Multi-view depth estimation with color-aware propagation and texture-aware triangulation
Chen et al. Optimal feature matching for 3D reconstruction by combination of global and local information
Zhang et al. Image edge based efficient stereo matching
CN114511673B (zh) 一种基于改进icp的海底局部环境初步构建方法
Jin et al. Superpixel-based global optimization method for stereo disparity estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant