CN102982334A - 基于目标边缘特征与灰度相似性的稀疏视差获取方法 - Google Patents
基于目标边缘特征与灰度相似性的稀疏视差获取方法 Download PDFInfo
- Publication number
- CN102982334A CN102982334A CN2012104361902A CN201210436190A CN102982334A CN 102982334 A CN102982334 A CN 102982334A CN 2012104361902 A CN2012104361902 A CN 2012104361902A CN 201210436190 A CN201210436190 A CN 201210436190A CN 102982334 A CN102982334 A CN 102982334A
- Authority
- CN
- China
- Prior art keywords
- point
- similarity
- image
- matched
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明涉及一种基于目标边缘特征与灰度相似性的稀疏视差获取方法,属于立体视觉技术领域。本发明方法通过Canny图像边缘检测方法提取图像边缘特征,选取图像中目标的强边缘特征点作为待匹配点,将图像的特征相似性与灰度相似性相结合,运用灰度及灰度Census变换融合的相似性检测方法,通过交叉检测排除误匹配点,进一步提高匹配的正确率。为恢复物体的三维位置和姿态信息,提供必要的稀疏视差信息;具有正确率高、匹配速度快及匹配稳定的特点,能有效的为运用双目视觉系统测量,特别是主动测量物体的姿态信息提供所需要的稀疏视差信息。
Description
技术领域
本发明涉及一种基于目标边缘特征与灰度相似性的稀疏视差获取方法,属于立体视觉技术领域。
背景技术
立体匹配是双目立体视觉中恢复场景三维信息的关键步骤。三维空间场景通过摄像机的透视投影作用形成二维平面图像,在由高维空间向低维空间投影的过程中损失了大量的信息,造成由平面图像恢复三维场景信息的本身的歧义性。受摄像机的参数、场景光照不均、物体表面在不同方向的反射率等因素影响,两幅图像中对应点不可能具有完全一样的灰度和颜色特性,给恢复三维场景信息带来额外的困难。各种挑战性难题使得立体匹配成为制约双目立体视觉三维场景恢复的一个长久性的技术难题。
已有的立体匹配方法主要分为全局对应匹配法和局部模板相关匹配法。全局对应匹配方法以得到图像的稠密视差为目的,将立体匹配问题转化为优化问题,以立体匹配中的各种约束条件建立匹配代价函数,利用动态规划、图切法、模拟退火以及各种仿生智能优化方法寻找使匹配代价函数最小的对应关系作为匹配的结果。全局对应匹配方法将建立起图像中每个像素点的视差,得到稠密视差图,但是具有计算密集、运算时间长等缺点。一般用于对整个三维场景进行恢复和立体重构。
局部模板相关匹配方法以求取图像的稀疏视差为目的,从局部出发,利用对应点局部灰度的相似性,逐像素进行比较,取相似度最高的点作为对应点。局部模板相关法可以根据需要,只针对某些点进行比较,具有运算量小,匹配时间短的优势。特别是选择图像中的特征点作为待匹配点,将匹配点周围的灰度与特征相结合,进一步提高局部相关匹配的准确性。主要用于恢复场景中某些物体的深度、三维姿态等信息。
以恢复场景中目标物体的姿态信息为目的的双目立体匹配方法都采用稀疏匹配方法,已有的稀疏匹配算法普遍存在的问题是正确匹配率不高。
发明内容
本发明为解决待匹配特征点的选取以及准确快速稀疏匹配问题,提出一种基于目标边缘特征与灰度相似性的稀疏视差获取方法,为双目视觉主动测量目标物体的姿态信息提供所需的稀疏视差信息。
本发明方法通过选取图像中目标的强边缘特征点作为待匹配点,将图像的特征相似性与灰度相似性相结合,运用灰度及灰度Census变换融合的相似性检测方法,通过交叉检测排除误匹配点,达到快速、稳定、准确完成立体匹配的目的。
基于目标边缘特征与灰度相似性的稀疏视差获取方法,具体包括如下步骤:
步骤1,通过左右摄像机得到被测场景的立体图像对IL(x,y)和IR(x,y),其中IL(x,y)为左图像,IR(x,y)为右图像,x、y是像素坐标。对IL(x,y)、IR(x,y)进行极线校正,使其只存在水平方向上的视差。
采用Canny图像边缘检测方法对两幅图像分别进行边缘检测,得到左右边缘图像分别为eIL,eIR。
步骤2,确定待匹配特征点。
得到边缘图像eIL,eIR后,以IL(x,y)为参考匹配图像,选择eIL中待匹配物体表面包含边缘点最多的多个边缘连通分量作为多个待匹配边缘特征点,并组成集合EC,其中包含N个待匹配边缘特征点,坐标分别为(x1,y1)、(x2,y2)、......、(xN,yN)。
步骤3,在IR(x,y)中搜索待匹配边缘特征点的对应点,通过边缘特征和灰度相似性匹配方法对每一个对应点进行初始匹配。
已知被测场景的深度范围对应的最小视差为dmin,最大视差为dmax。特征和相似性匹配的具体过程为:
①初始化匹配点的计数参数k=1;
②分别将候选视差d、当前最小相似性代价preCost和匹配得到的视差dM初始化为d=dmin,preCost=∞,dM=0;
③在待匹配边缘特征点集Ec中选择一个未匹配特征点,其在左图像中的像素坐标为(x1,y1);
④若右图像中的候选对应点(xk,yk-d)的左右loc个像素内没有边缘像素,则该点不是可能的对应点,跳到⑧;否则进入下一步;通常取loc小于等于10;
⑤计算待匹配边缘特征点和候选对应点的灰度相似性代价:
其中W表示计算相似性代价时的领域大小,通常取值为2到4,ccorr(k,m,n)是两幅图像对应像素灰度值的绝对差,即
ccorr(k,d,m,n)=|IL(m,n)-IR(m,n-d)|,-W≤m,n≤W
函数ρ(c,λ)=e(-c/λ)是指数函数,λcorr为灰度相似性代价的权重因子。
⑥对分别以待匹配点和候选对应点为中心的领域内的每一点进行Census变换,得到IL(x,y)、IR(x,y)的Census变换cIL(x,y)、cIR(x,y)。计算对应点的Census相似性代价:
其中λcen是Census相似性代价的权重因子,ccen(k,d,m,n)是两幅图像待匹配点和候选对应点的Census变换值的汉明距离,即
ccen(k,m,n)=dH(cIL(m,n),cIR(m,n-d)),-W≤m,n≤W。
所述Census变换具体过程为:以待求取Census变换的像素点(i,j)为中心像素,取宽度为(2Wc+1)像素的正方形区域;将除中心像素外的正方形区域中的每一像素灰度值,与中心像素(i,j)的灰度值进行比较,若小于中心像素灰度值,则对应位置置1;否则,对应位置为0。将比较后得到的只含0和1的窗口按行依次排列,得到只含0和1的二进制位串,即为像素(i,j)的Census变换。
⑦计算总的相似性代价:
C(k,d)=Ccorr(k,d)+Ccen(k,d)
若C(k,d)小于preCost,则dM=d;否则保持dM不变;
⑧令d=d+1,如果d>dmax,取当前dM的值作为当前待匹配像素的视差,取IR(xk,yk-dM)作为IL(xk,yk)的对应点,进入下一步;若d≤dmax,返回到④;
⑨令k=k+1,如果k>N,则结束匹配,将得到的对应点作为初始匹配对应点;否则,跳到第②步。
步骤4,通过交叉检测器排除误匹配点。
由步骤1至步骤3得到的待匹配点的初始匹配对应点中,可能含有误匹配点,利用交叉检测去除误匹配的点,将剔除后剩下的待匹配边缘特征点及其对应点作为稀疏匹配的结果。
交叉检测去除误匹配的点的具体方法为:将由步骤3得到的所有对应点IR(xk,yk-dM)分别作为待匹配点,在左图像中进行匹配搜索,具体的搜索方法采用步骤3所述的特征和相似性匹配方法。若得到的对应点不是IL(xk,yk),则放弃IL(xk,yk)和IR(xk,yk-dM);若得到的对应点即为IL(xk,yk),则保留作为稀疏匹配的结果。
有益效果
本发明能为恢复物体的三维位置和姿态信息,提供必要的稀疏视差信息,解决了双目立体视觉中物体特征点的稀疏匹配问题,并具有以下优点:
(1)采用Canny图像边缘检测算法提取图像边缘特征,选择较强的边缘特征作为待匹配特征点,稳定性好。
(2)选用包含边缘点多的连通分量作为待匹配点且在匹配时运用边缘特征提前排除非匹配点,缩小搜索范围;同时,相似性检测只涉及加减、比较和逻辑运算,很大的提高了稀疏匹配的速度。
(3)采用基于灰度和灰度Census边缘的相似性检测方法,前者直接根据图像局部区域的灰度进行相似性检测,对灰度相似性进行精确的检测,对纹理不规则、不均匀的图像区域能实现比较好的区分;后者将灰度经过Census变换,描述图像局部的结构特征,并用汉明距离来测度灰度的相似性,是灰度相似性的模糊描述,对噪声和环境光照的不均匀性等影响因素不敏感,容易对纹理规则且相似的区域进行区分。将上述两类相似性检测方法通过具有鲁棒性的指数函数进行融合,扬长避短,降低误匹配,使达到最佳的匹配效果。
(4)通过交叉检测,排除误匹配点,进一步提高匹配的正确率。
本发明具有正确率高、匹配速度快及匹配稳定的特点,能有效的为运用双目视觉系统测量,特别是主动测量物体的姿态信息提供所需要的稀疏视差信息。
附图说明
图1为具体实施方式中稀疏立体匹配器的结构框图。
图2为本发明基于图像边缘特征的稀疏立体匹配技术流程图;
图3为实施例中标准测试采用的左图像;
图4为实施例中标准测试采用的右图像;
图5为实施例中以左图像为参考的真实视差图;
图6为实施例中左图像的边缘特征图;
图7为实施例中右图像的边缘特征图;
图8为实施例中待匹配边缘特征点区域选择图;
图9为实施例图8中待匹配边缘特征点区域放大图;
图10为实施例得到的真实匹配的边缘特征点图像。
具体实施方式
为了更好的说明本发明的目的和优点,下面结合具体的实施例加以说明。
本发明方法首先以左图像为参考,右图像为匹配搜索图像进行匹配,利用边缘特征相似性约束来尽快的排除非对应点;然后,利用基于灰度和灰度Census变换的相似性检测方法找到最佳的匹配对应点。最后,将以右图像为参考,左图像为匹配搜索图像对匹配结果进行交叉检测,排除误匹配点,进一步提高匹配的准确性,具体流程如图2所示。
根据本发明方法设计的稀疏立体匹配器的结构如图1所示,包括Canny边缘检测器、边缘特征与灰度相似性匹配器和交叉检测器。首先通过左右摄像机得到双目立体视觉图像对中的左右图像,然后通过Canny边缘检测器得到左右图像的边缘特征,再将左右图像及其边缘特征送入边缘特征与灰度相似性匹配器中得到初始的稀疏匹配结果,最后通过交叉检测剔除误匹配点,对初始匹配结果求精得到以边缘特征点为匹配点的稀疏视差信息。
本实施例运用本发明方法对双目立体视觉标准图像对进行立体匹配。具体匹配过程为:
首先,获得左右图像对,并进行极线校正。本实例采用标准测试图像对,即已经经过极线校正的图像对。其中校正后的左图像如图3,校正后的有图像如图4,其中左图像的真实视差如图5。并通过Canny边缘检测器对校正后的图像对进行边缘检测,得到左右图像的边缘特征分别如图6和图7,其中白色表示边缘特征。
其次,在左图像中选取待匹配的目标区域,本实例选取如图8中矩形框所示的区域为待匹配区域。为了更清楚的观察待匹配区域中的边缘特征点,图9给出了待匹配区域的放大图。矩形框中的所有边缘点构成待匹配边缘特征点集Ec,共有N=334个待匹配边缘特征点。
然后,进行本发明方法中的步骤3,即图2所示,本发明流程图中特征匹配模块部分,dmin=1,dmax=70,λcorr=5,λcen=5,相似性检测邻域窗口大小W取值为2,Census变换时邻域窗口大小Wc取值为2。对每一待匹配点和每一待考察视差处的灰度相似性代价和基于Census变换的相似性代价计算如下:
并计算总的相似性代价如下:
C(k,d)=Ccorr(k,d)+Ccen(k,d)
通过步骤3得到待匹配边缘特征点集Ec的334对匹配结果。
然后,将上一步得到的334对初始匹配结果按照本发明中步骤4的方法进行交叉检测,剔除334对初始匹配结果中可能误匹配的点。经过交叉检测,剔除了124对误匹配点,得到210对匹配结果,如图10所示。
最后,对交叉检测得到的210对匹配结果的正确性进行验证。以图5所示的本实施例图像对的标准视差图作为对照,进行比较,最终表明210对匹配结果完全正确。
本实施例得到的匹配效果为:图9矩形区域中总共的边缘特征点数N=334个,通过交叉检测后,真实匹配的边缘特征点数为210个,正确匹配的边缘特征点数为210个,正确匹配率为100%。图10给出了交叉检测后,真实匹配的210个边缘点,与图9相比,交叉检测剔出了334-210=124个误匹配的点,最终达到完全正确匹配。
本实施例证明本发明能解决图像特征点的稀疏匹配问题,为双目视觉中恢复物体的深度信息和三维姿态信息提供所需的稀疏视差信息。同时,匹配效果非常好,匹配正确率高,能够达到完全正确实现双目图像对稀疏立体匹配。
Claims (3)
1.基于目标边缘特征与灰度相似性的稀疏视差获取方法,其特征在于:包括以下步骤:
步骤1,通过左右摄像机得到被测场景的立体图像对IL(x,y)和IR(x,y),其中IL(x,y)为左图像,IR(x,y)为右图像,x、y是像素坐标;对IL(x,y)、IR(x,y)进行极线校正,使其只存在水平方向上的视差;
采用Canny图像边缘检测方法对两幅图像分别进行边缘检测,得到左右边缘图像分别为eIL,eLR;
步骤2,确定待匹配特征点;
得到边缘图像eIL,eIR后,以IL(x,y)为参考匹配图像,选择eIL中待匹配物体表面包含边缘点最多的多个边缘连通分量作为多个待匹配边缘特征点,并组成集合EC,其中包含N个待匹配边缘特征点,坐标分别为(x1,y1)、(x2,y2)、......、(xN,yN);
步骤3,在IR(x,y)中搜索待匹配边缘特征点的对应点,通过边缘特征和灰度相似性匹配方法对每一个对应点进行初始匹配;
所述特征和相似性匹配的具体过程为:
①初始化匹配点的计数参数k=1;
②分别将候选视差d、当前最小相似性代价preCost和匹配得到的视差dM初始化为d=dmin,preCost=∞,dM=0;其中dmin为被测场景的深度范围对应的最小视差,dmax为最大视差;
③在待匹配边缘特征点集Ec中选择一个未匹配特征点,其在左图像中的像素坐标为(xk,yk);
④若右图像中的候选对应点(xk,yk-d)的左右loc个像素内没有边缘像素,则该点不是可能的对应点,跳到⑧;否则进入下一步;
⑤计算待匹配边缘特征点和候选对应点的灰度相似性代价:
其中W表示计算相似性代价时的领域大小,ccorr(k,m,n)是两幅图像对应像素灰度值的绝对差:
ccorr(k,d,m,n)=|IL(m,n)-IR(m,n-d)|,-W≤m,n≤W
函数ρ(c,λ)=e(-c/λ)是指数函数,λcorr为灰度相似性代价的权重因子;
⑥分别以待匹配点和候选对应点为中心像素,进行Census变换,得到IL(x,y)、IR(x,y)的Census变换cIL(x,y)、cIR(x,y);计算对应点的Census相似性代价:
其中λcen是Census相似性代价的权重因子,ccen(k,d,m,n)是两幅图像待匹配点和候选对应点的Census变换值的汉明距离:
ccen(k,m,n)=dH(cIL(m,n),cIR(m,n-d)),-W≤m,n≤W;
⑦计算总的相似性代价:
C(k,d)=Ccorr(k,d)+Ccen(k,d)
若C(k,d)小于preCost,则dM=d;否则保持dM不变;
⑧令d=d+1,如果d>dmax,取当前dM的值作为当前待匹配像素的视差,取IR(xk,yk-dM)作为IL(xk,yk)的对应点,进入下一步;若d≤dmax,返回到④;
⑨令k=k+1,如果k>N,则结束匹配,将得到的对应点作为初始匹配对应点;否则,跳到第②步;
步骤4,通过交叉检测器排除误匹配点;将剔除后剩下的待匹配边缘特征点及其对应点作为稀疏匹配的结果;
交叉检测去除误匹配点的具体方法为:将由步骤3得到的所有对应点IR(xk,yk-dM)分别作为待匹配点,在左图像中进行匹配搜索,具体的搜索方法采用步骤3所述的特征和相似性匹配方法;若得到的对应点不是IL(xk,yk),则放弃IL(xk,yk)和IR(xk,yk-dM);若得到的对应点即为IL(xk,yk),则保留作为稀疏匹配的结果。
2.根据权利要求1所述的基于目标边缘特征与灰度相似性的稀疏视差获取方法,其特征在于:loc小于等于10。
3.根据权利要求1所述的基于目标边缘特征与灰度相似性的稀疏视差获取方法,其特征在于:所述Census变换具体过程为:以待求取Census变换的像素点(i,j)为中心像素,取宽度为(2Wc+1)像素的正方形区域;将除中心像素外的正方形区域中的每一像素灰度值,与中心像素(i ,j)的灰度值进行比较,若小于中心像素灰度值,则对应位置置1;否则,对应位置为0;将比较后得到的只含0和1的窗口按行依次排列,得到只含0和1的二进制位串,作为像素(i,j)的Census变换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210436190.2A CN102982334B (zh) | 2012-11-05 | 2012-11-05 | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210436190.2A CN102982334B (zh) | 2012-11-05 | 2012-11-05 | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102982334A true CN102982334A (zh) | 2013-03-20 |
CN102982334B CN102982334B (zh) | 2016-04-06 |
Family
ID=47856317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210436190.2A Active CN102982334B (zh) | 2012-11-05 | 2012-11-05 | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102982334B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105374040A (zh) * | 2015-11-18 | 2016-03-02 | 哈尔滨理工大学 | 基于视觉测量的大型机械工件立体匹配方法 |
CN105894499A (zh) * | 2016-03-25 | 2016-08-24 | 华南理工大学 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
CN106548482A (zh) * | 2016-10-19 | 2017-03-29 | 成都西纬科技有限公司 | 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统 |
CN107368792A (zh) * | 2017-06-29 | 2017-11-21 | 广州智慧城市发展研究院 | 一种基于滤波器以及主干边缘的指静脉识别方法及系统 |
CN107797733A (zh) * | 2016-09-01 | 2018-03-13 | 奥多比公司 | 用于选择图像中的对象的技术 |
CN110136188A (zh) * | 2019-05-16 | 2019-08-16 | 东莞职业技术学院 | 一种基于特征的立体图像匹配算法 |
CN112907714A (zh) * | 2021-03-05 | 2021-06-04 | 兰州大学 | 一种基于Census变换和灰度绝对差的混合匹配双目视觉系统 |
CN113256699A (zh) * | 2021-06-24 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
CN114742876A (zh) * | 2022-06-13 | 2022-07-12 | 菏泽市土地储备中心 | 一种土地视觉立体测量方法 |
CN116385976A (zh) * | 2023-05-29 | 2023-07-04 | 杭州芯业电子科技有限公司 | 基于计算机视觉的消防安防一体化监测系统 |
-
2012
- 2012-11-05 CN CN201210436190.2A patent/CN102982334B/zh active Active
Non-Patent Citations (3)
Title |
---|
周春燕: "基于色彩信息与像素特征的立体图像局部匹配算法研究", 《中国优秀硕士学位论文电子期刊网》 * |
周龙,徐贵立,李开宇,王彪,田裕鹏,陈欣: "基于Census变换和改进自适应窗口的立体匹配算法", 《航空学报》 * |
孙立新: "显微立体视觉系统中立体匹配的研究", 《中国优秀硕士学位论文电子期刊网》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105374040A (zh) * | 2015-11-18 | 2016-03-02 | 哈尔滨理工大学 | 基于视觉测量的大型机械工件立体匹配方法 |
CN105894499A (zh) * | 2016-03-25 | 2016-08-24 | 华南理工大学 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
CN105894499B (zh) * | 2016-03-25 | 2018-09-14 | 华南理工大学 | 一种基于双目视觉的空间物体三维信息快速检测方法 |
CN107797733A (zh) * | 2016-09-01 | 2018-03-13 | 奥多比公司 | 用于选择图像中的对象的技术 |
CN106548482A (zh) * | 2016-10-19 | 2017-03-29 | 成都西纬科技有限公司 | 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统 |
CN107368792A (zh) * | 2017-06-29 | 2017-11-21 | 广州智慧城市发展研究院 | 一种基于滤波器以及主干边缘的指静脉识别方法及系统 |
CN110136188A (zh) * | 2019-05-16 | 2019-08-16 | 东莞职业技术学院 | 一种基于特征的立体图像匹配算法 |
CN110136188B (zh) * | 2019-05-16 | 2023-01-17 | 东莞职业技术学院 | 一种基于特征的立体图像匹配算法 |
CN112907714A (zh) * | 2021-03-05 | 2021-06-04 | 兰州大学 | 一种基于Census变换和灰度绝对差的混合匹配双目视觉系统 |
CN112907714B (zh) * | 2021-03-05 | 2023-04-11 | 兰州大学 | 一种基于Census变换和灰度绝对差的混合匹配双目视觉系统 |
CN113256699A (zh) * | 2021-06-24 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
CN114742876A (zh) * | 2022-06-13 | 2022-07-12 | 菏泽市土地储备中心 | 一种土地视觉立体测量方法 |
CN116385976A (zh) * | 2023-05-29 | 2023-07-04 | 杭州芯业电子科技有限公司 | 基于计算机视觉的消防安防一体化监测系统 |
CN116385976B (zh) * | 2023-05-29 | 2023-08-11 | 杭州芯业电子科技有限公司 | 基于计算机视觉的消防安防一体化监测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102982334B (zh) | 2016-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
Vaudrey et al. | Differences between stereo and motion behaviour on synthetic and real-world stereo sequences | |
CN104700414B (zh) | 一种基于车载双目相机的前方道路行人快速测距方法 | |
CN103226821B (zh) | 基于视差图像素分类校正优化的立体匹配方法 | |
CN101398886B (zh) | 一种基于双目被动立体视觉的快速三维人脸识别方法 | |
CN104574393B (zh) | 一种三维路面裂缝图像生成系统和方法 | |
CN105096307B (zh) | 在成对的立体图像中检测物体的方法 | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN110310320A (zh) | 一种双目视觉匹配代价聚合优化方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN105023010A (zh) | 一种人脸活体检测方法及系统 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN103593832A (zh) | 一种基于高斯二阶差分特征检测算子的图像拼接方法 | |
CN104850850A (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN112418288B (zh) | 一种基于gms和运动检测的动态视觉slam方法 | |
CN105913013A (zh) | 双目视觉人脸识别算法 | |
CN108921895A (zh) | 一种传感器相对位姿估计方法 | |
Basha et al. | Structure and motion from scene registration | |
CN104331901A (zh) | 一种基于tld的多视角目标跟踪装置及方法 | |
CN108010075B (zh) | 一种基于多特征联合的局部立体匹配方法 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN106570899A (zh) | 一种目标物体检测方法及装置 | |
CN110443228B (zh) | 一种行人匹配方法、装置、电子设备及存储介质 | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 | |
CN111105451A (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |