CN103093479B - 一种基于双目视觉的目标定位方法 - Google Patents

一种基于双目视觉的目标定位方法 Download PDF

Info

Publication number
CN103093479B
CN103093479B CN201310066637.6A CN201310066637A CN103093479B CN 103093479 B CN103093479 B CN 103093479B CN 201310066637 A CN201310066637 A CN 201310066637A CN 103093479 B CN103093479 B CN 103093479B
Authority
CN
China
Prior art keywords
point
interest
image
histogram
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310066637.6A
Other languages
English (en)
Other versions
CN103093479A (zh
Inventor
刘士荣
章海兵
张波涛
仲朝亮
张会
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201310066637.6A priority Critical patent/CN103093479B/zh
Publication of CN103093479A publication Critical patent/CN103093479A/zh
Application granted granted Critical
Publication of CN103093479B publication Critical patent/CN103093479B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种基于双目视觉的目标定位方法。现有的双目视觉定位算法对硬件要求比较高,且在低成本双目视觉系统上难以实现较高的定位精度。本发明主要包括以下几个方面:(1)利用H-S直方图反向投影,在左图像上获取精度较高的目标特征点;(2)SURF算法实现兴趣点检测与描述以及目标模板图像与左右图像中兴趣点的匹配;(3)在上述关键技术基础上,采用一种结合空间兴趣点筛选、间接立体匹配的特征点寻找方法,实现在右图像目标特征点提取。本算法在构建的低成本双目系统上能够实现很高的定位精度。

Description

一种基于双目视觉的目标定位方法
技术领域
本发明属于机器视觉技术领域,是一种基于双目视觉的目标定位方法。
背景技术
机器人视觉系统模拟了人类视觉的感知功能,具有探测范围宽、目标信息完整等优势,它是移动机器人智能化关键技术之一。双目立体视觉技术是仿照人类双目感知距离的方法,实现对三维信息的感知,在实现上采用基于三角测量的方法,利用两个摄像头对同一景物从不同位置成像,从而从视差中恢复距离信息,是机器人视觉研究的一个重要分支。对于大部分自主移动机器人来说,双目视觉已成为其基本组成部分。由于结构简单、数据采集方便迅速、属于非接触式测量以及可以应用于各种复杂恶劣的环境中,双目视觉被广泛应用于三维检测、机器人导航、医学成像等领域,具有广泛的应用性。
发明内容
本发明针对双目视觉定位中由低成本硬件系统及双目安装所造成的结构误差等问题,根据双目视觉深度测量的特点,提出了一种基于双目视觉的目标定位方法。
一种基于双目视觉的目标定位方法包括如下步骤:
步骤一:输入大小为k×l的彩色左图像,目标模板图像大小为k1×l1,k1≤k,l1≤l,令变量o=k1,p=l1,x=y=0。对目标模板图像的颜色、饱和度概率建模,将目标模板图像转化为H-S直方图,并归一化处理。
步骤二:从输入图像的左上角(x,y)开始,切割一块(x,y)至(k1,l1)的临时图像,生成临时图像的H-S直方图,并归一化处理。
步骤三:将临时图像的H-S直方图和目标模板图像的H-S直方图按式(2)进行相关性对比,对比结果记为C(H1,H2)。
C ( H 1 , H 2 ) = Σ i H ′ 1 ( i ) · H ′ 2 ( i ) Σ i H ′ 1 2 ( i ) · H ′ 2 2 ( i ) - - - ( 2 )
其中,k取值1和2,i=j=1,2,3,…,N,N为直方图中区间的个数,Hk(i)为第k个直方图中第i个区间上的值。
步骤四:将直方图对比结果C(H1,H2)作为反向投影图像(x,y)处的像素值。
步骤五:令y=y+1,l1=l1+1,当l1≤l时,返回步骤二,即按竖直方向切割输入图像。
步骤六:当l1>l时,令y=0,k1=o,l1=p,x=x+1,k1=k1+1,返回步骤二,即一列一列地向右推移切割输入图像。
步骤七:重复步骤二至步骤六,当k1>k时结束,即切割输入图像直至其右下角。
步骤八:兴趣点检测:使用不同尺寸的盒形滤波器对原图像滤波来构建图像金字塔,在不同的尺度空间用Hessian矩阵求极值,然后在其3×3×3的立体领域内进行非极大值抑制,将比上下尺度各9个以及本尺度邻域8个共计26个邻域值都大或都小的极值点作为候选兴趣点,再在尺度空间和图像空间进行插值运算,得到稳定的兴趣点位置及其所在的尺度值。
步骤九:兴趣点描述:对以每一个兴趣点为圆心,半径为6s的邻域内的点分别计算x、y方向上边长为4s的Haar小波响应,s为兴趣点所在的尺度值,然后以兴趣点为中心对响应值进行高斯函数加权,最后采用60°的滑动扇形窗口,计算该扇形处于每个角度时窗口内响应之和,并记录窗口环绕一周所形成的每一个矢量,选择最长矢量的方向作为该兴趣点的主方向。
选定兴趣点主方向后,以兴趣点为中心,按主方向选取边长为20s的正方形区域,将该区域划分为4×4共计16个正方形子区域,对每一个子区域按5s×5s的大小取样,分别计算相对于主方向的水平、垂直方向的Haar小波响应,同时为响应值赋予不同的高斯权重,以增强对几何变形及定位误差的鲁棒性;然后对每个子区域的响应和响应的绝对值求和得到一个四维向量v=(Σdx,Σ|dx|,Σdy,Σ|dy|),dx、dy分为水平和垂直方向的Haar小波响应,|dx|、|dy|分为水平和垂直方向的Haar小波响应的绝对值。对每一个兴趣点,将16个正方形子区域的向量组合起来便形成64维SURF描述子向量,归一化后使描述算子对光照具有一定的鲁棒性。
步骤十:利用SURF算法,将于左图像提取的目标模板与左右图像进行匹配,获得兴趣点对集合Il和Ir
步骤十一:搜索两个兴趣点对集合,在左右两幅图像中寻找与模板图像具有相同匹配点的兴趣点,然后依次将左右图像中这些兴趣点存放在集合Sl和Sr中,集合中元素个数分别有m和n个。
步骤十二:由于存在标定误差,经立体校正后,左右图像中仍然可能存在微小的畸变以及行不对齐,因此兴趣点筛选公式如下:
|v1i-v2i|≤δ      (3)
其中,i=1,2,3,…,n,δ为筛选阈值,v1i、v2i分别表示集合Sl、Sr中第i个元素的纵坐标,即已知左图上的兴趣点(u1i,v1i)与右图上的兴趣点(u2i,v2i),若两个兴趣点所在的极线间的距离小于等于δ个像素,则称该匹配点为有效匹配点。将左右图像中的有效匹配点分别存入集合Slw和Srw中,此时两个集合元素个数相等,都为w个。
步骤十三:由上述匹配点筛选方法获得的有效匹配点集合Slw和Srw中对应的兴趣点对,可以较好地保证对应于目标实物中的相同位置,具有良好的空间位置一致性,由式(4)实现间接匹配:
u ‾ 2 = 1 w Σ i = 1 w ( u ‾ 1 - u 1 i + u 2 i ) v ‾ 2 = v ‾ 1 - - - ( 4 )
其中,为左图像特征点坐标,为间接匹配得到的右图像中特征点坐标,u1i、u2i分别为左右图像上的兴趣点的横坐标,i=1,2,3,…,w,w为有效匹配点个数。
步骤十四:由三角测量原理可得到空间场景点的三维坐标:
X = b ( u 1 - u 0 ) u 1 - u 2 Y = b ( v 1 - v 0 ) u 1 - u 2 Z = bf u 1 - u 2 - - - ( 5 )
其中,b为基线距离,f为两摄像头焦距,(u1,v1)、(u2,v2)为空间点在左右成像平面的图像坐标,即上述步骤中的特征点坐标,(u0,v0)为主点偏置坐标;X,Y,Z分别为目标在摄像头坐标系下的三维坐标。
有益效果:本发明利用H-S直方图反向投影来寻找特征点,使得提取的特征点具有很高的精度,然后再基于SURF算法采用一种结合空间兴趣点筛选、间接立体匹配的特征点寻找方法,实现立体匹配,从而大大减少了只使用H-S直方图反向投影实现立体匹配所消耗的时间,且本方法在构建的低成本双目系统上能够实现很高的定位精度。
附图说明
图1为双目视觉平行光模型;
图2为算法流程图;
图3为H-S直方图反向投影。
具体实施方式:
如图2所示,图中左边虚线框为H-S直方图反向投影获取左图目标特征点部分,右边虚线框部分为SURF算法实现兴趣点检测与匹配。一种基于双目视觉的目标定位方法,包括以下步骤:
步骤一:如图3所示,输入大小为k×l的彩色左图像,目标模板图像大小为k1×l1,k1≤k,l1≤l,令变量o=k1,p=l1,x=y=0。对目标模板图像的颜色、饱和度概率建模,将目标模板图像转化为H-S直方图,并归一化处理。
步骤二:从输入图像的左上角(x,y)开始,切割一块(x,y)至(k1,l1)的临时图像,生成临时图像的H-S直方图,并归一化处理。
步骤三:将临时图像的H-S直方图和目标模板图像的H-S直方图按式(2)进行相关性对比,对比结果记为C(H1,H2)。
C ( H 1 , H 2 ) = Σ i H ′ 1 ( i ) · H ′ 2 ( i ) Σ i H ′ 1 2 ( i ) · H ′ 2 2 ( i ) - - - ( 2 )
其中,k取值1和2,i=j=1,2,3,…,N,N为直方图中区间的个数,Hk(i)为第k个直方图中第i个区间上的值。
步骤四:将直方图对比结果C(H1,H2)作为反向投影图像(x,y)处的像素值。
步骤五:令y=y+1,l1=l1+1,当l1≤l时,返回步骤二,即按竖直方向切割输入图像。
步骤六:当l1>l时,令y=0,k1=o,l1=p,x=x+1,k1=k1+1,返回步骤二,即一列一列地向右推移切割输入图像。
步骤七:重复步骤二至步骤六,当k1>k时结束,即切割输入图像直至其右下角。
步骤八:兴趣点检测:使用不同尺寸的盒形滤波器对原图像滤波来构建图像金字塔,在不同的尺度空间用Hessian矩阵求极值,然后在其3×3×3的立体领域内进行非极大值抑制,将比上下尺度各9个以及本尺度邻域8个共计26个邻域值都大或都小的极值点作为候选兴趣点,再在尺度空间和图像空间进行插值运算,得到稳定的兴趣点位置及其所在的尺度值。
步骤九:兴趣点描述:对以每一个兴趣点为圆心,半径为6s的邻域内的点分别计算x、y方向上边长为4s的Haar小波响应,s为兴趣点所在的尺度值,然后以兴趣点为中心对响应值进行高斯函数加权,最后采用60°的滑动扇形窗口,计算该扇形处于每个角度时窗口内响应之和,并记录窗口环绕一周所形成的每一个矢量,选择最长矢量的方向作为该兴趣点的主方向。
选定兴趣点主方向后,以兴趣点为中心,按主方向选取边长为20s的正方形区域,将该区域划分为4×4共计16个正方形子区域,对每一个子区域按5s×5s的大小取样,分别计算相对于主方向的水平、垂直方向的Haar小波响应,同时为响应值赋予不同的高斯权重,以增强对几何变形及定位误差的鲁棒性;然后对每个子区域的响应和响应的绝对值求和得到一个四维向量v=(Σdx,Σ|dx|,Σdy,Σ|dy|),dx、dy分为水平和垂直方向的Haar小波响应,|dx|、|dy|分为水平和垂直方向的Haar小波响应的绝对值。对每一个兴趣点,将16个正方形子区域的向量组合起来便形成64维SURF描述子向量,归一化后使描述算子对光照具有一定的鲁棒性。
步骤十:利用SURF算法,将于左图像提取的目标模板与左右图像进行匹配,获得兴趣点对集合Il和Ir
步骤十一:搜索两个兴趣点对集合,在左右两幅图像中寻找与模板图像具有相同匹配点的兴趣点,然后依次将左右图像中这些兴趣点存放在集合Sl和Sr中,集合中元素个数分别有m和n个。
步骤十二:由于存在标定误差,经立体校正后,左右图像中仍然可能存在微小的畸变以及行不对齐,因此兴趣点筛选公式如下:
|v1i-v2i|≤δ      (3)
其中,i=1,2,3,…,n,δ为筛选阈值,v1i、v2i分别表示集合Sl、Sr中第i个元素的纵坐标,即已知左图上的兴趣点(u1i,v1i)与右图上的兴趣点(u2i,v2i),若两个兴趣点所在的极线间的距离小于等于δ个像素,则称该匹配点为有效匹配点。将左右图像中的有效匹配点分别存入集合Slw和Srw中,此时两个集合元素个数相等,都为w个。
步骤十三:由上述匹配点筛选方法获得的有效匹配点集合Slw和Srw中对应的兴趣点对,可以较好地保证对应于目标实物中的相同位置,具有良好的空间位置一致性,由式(4)实现间接匹配:
u ‾ 2 = 1 w Σ i = 1 w ( u ‾ 1 - u 1 i + u 2 i ) v ‾ 2 = v ‾ 1 - - - ( 4 )
其中,为左图像特征点坐标,为间接匹配得到的右图像中特征点坐标,u1i、u2i分别为左右图像上的兴趣点的横坐标,i=1,2,3,…,w,w为有效匹配点个数。
步骤十四:由三角测量原理可得到空间场景点的三维坐标:如图1所示:
X = b ( u 1 - u 0 ) u 1 - u 2 Y = b ( v 1 - v 0 ) u 1 - u 2 Z = bf u 1 - u 2 - - - ( 5 )
其中,b为基线距离,f为两摄像头焦距,(u1,v1)、(u2,v2)为空间点在左右成像平面的图像坐标,即上述步骤中的特征点坐标,(u0,v0)为主点偏置坐标;X,Y,Z分别为目标在摄像头坐标系下的三维坐标。

Claims (1)

1.一种基于双目视觉的目标定位方法,其特征在于该方法包括如下步骤:
步骤一:输入大小为k×l的彩色左图像,目标模板图像大小为k1×l1,k1≤k,l1≤l,令变量o=k1,p=l1,x=y=0;对目标模板图像的颜色、饱和度概率建模,将目标模板图像转化为H-S直方图,并归一化处理;
步骤二:从输入图像的左上角(x,y)开始,切割一块(x,y)至(k1,l1)的临时图像,生成临时图像的H-S直方图,并归一化处理;
步骤三:将临时图像的H-S直方图和目标模板图像的H-S直方图按式(2)进行相关性对比,对比结果记为C(H1,H2);
C ( H 1 , H 2 ) = Σ i N H ′ 1 ( i ) · H ′ 2 ( i ) Σ i N H ′ 1 2 ( i ) · H ′ 2 2 ( i ) - - - ( 2 )
其中,k取值1和2,i=j=1,2,3,…,N,N为直方图中区间的个数,Hk(i)为第k个直方图中第i个区间上的值;
步骤四:将直方图对比结果C(H1,H2)作为反向投影图像(x,y)处的像素值;
步骤五:令y=y+1,l1=l1+1,当l1≤l时,返回步骤二,即按竖直方向切割输入图像;
步骤六:当l1>l时,令y=0,k1=o,l1=p,x=x+1,k1=k1+1,返回步骤二,即一列一列地向右推移切割输入图像;
步骤七:重复步骤二至步骤六,当k1>k时结束,即切割输入图像直至其右下角;
步骤八:兴趣点检测:使用不同尺寸的盒形滤波器对原图像滤波来构建图像金字塔,在不同的尺度空间用Hessian矩阵求极值,然后在其3×3×3的立体邻域内进行非极大值抑制,将比上下尺度各9个以及本尺度邻域8个共计26个邻域值都大或都小的极值点作为候选兴趣点,再在尺度空间和图像空间进行插值运算,得到稳定的兴趣点位置及其所在的尺度值;
步骤九:兴趣点描述:对以每一个兴趣点为圆心,半径为6s的邻域内的点分别计算x、y方向上边长为4s的Haar小波响应,s为兴趣点所在的尺度值,然后以兴趣点为中心对响应值进行高斯函数加权,最后采用60°的滑动扇形窗口,计算该扇形处于每个角度时窗口内响应之和,并记录窗口环绕一周所形成的每一个矢量,选择最长矢量的方向作为该兴趣点的主方向;
选定兴趣点主方向后,以兴趣点为中心,按主方向选取边长为20s的正方形区域,将该区域划分为4×4共计16个正方形子区域,对每一个子区域按5s×5s的大小取样,分别计算相对于主方向的水平、垂直方向的Haar小波响应,同时为响应值赋予不同的高斯权重,以增强对几何变形及定位误差的鲁棒性;然后对每个子区域的响应和响应的绝对值求和得到一个四维向量v=(Σdx,Σ|dx|,Σdy,Σ|dy|),dx、dy分别为水平和垂直方向的Haar小波响应|dx|、|dy|分别为水平和垂直方向的Haar小波响应的绝对值;对每一个兴趣点,将16个正方形子区域的向量组合起来便形成64维SURF描述子向量,归一化后使描述算子对光照具有一定的鲁棒性;
步骤十:利用SURF算法,将于左图像提取的目标模板与左右图像进行匹配,获得兴趣点对集合Il和Ir
步骤十一:搜索两个兴趣点对集合,在左右两幅图像中寻找与模板图像具有相同匹配点的兴趣点,然后依次将左右图像中这些兴趣点存放在集合Sl和Sr中,集合中元素个数分别有m和n个;
步骤十二:由于存在标定误差,经立体校正后,左右图像中仍然可能存在微小的畸变以及行不对齐,因此兴趣点筛选公式如下:
|v1i-v2i|≤δ            (3)
其中,i=1,2,3,…,n,δ为筛选阈值,v1i、v2i分别表示集合Sl、Sr中第i个元素的纵坐标,即已知左图上的兴趣点(u1i,v1i)与右图上的兴趣点(u2i,v2i),若两个兴趣点所在的极线间的距离小于等于δ个像素,则称该兴趣点为有效匹配点;将左右图像中的有效匹配点分别存入集合Slw和Srw中,此时两个集合元素个数相等,都为w个;
步骤十三:由上述匹配点筛选方法获得的有效匹配点集合Slw和Srw中对应的兴趣点对,可以较好地保证对应于目标实物中的相同位置,具有良好的空间位置一致性,由式(4)实现间接匹配:
u ‾ 2 = 1 w Σ i = 1 W ( u ‾ 1 - u 1 i + u 2 i ) v ‾ 2 = v ‾ 1 - - - ( 4 )
其中,为左图像特征点坐标,为间接匹配得到的右图像中特征点坐标,u1i、u2i分别为左右图像上的兴趣点的横坐标,i=1,2,3,…,w,w为有效匹配点个数;
步骤十四:由三角测量原理可得到空间场景点的三维坐标:
X = b ( u 1 - u 0 ) u 1 - u 2 Y = b ( v 1 - v 0 ) u 1 - u 2 Z = b f u 1 - u 2 - - - ( 5 )
其中,b为基线距离,f为两摄像头焦距,(u1,v1)为空间点在左成像平面的图像坐标,即上述步骤中的特征点坐标,u2为空间点在右成像平面的图像的横坐标,(u0,v0)为主点偏置坐标;X,Y,Z分别为目标在摄像头坐标系下的三维坐标。
CN201310066637.6A 2013-03-01 2013-03-01 一种基于双目视觉的目标定位方法 Active CN103093479B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310066637.6A CN103093479B (zh) 2013-03-01 2013-03-01 一种基于双目视觉的目标定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310066637.6A CN103093479B (zh) 2013-03-01 2013-03-01 一种基于双目视觉的目标定位方法

Publications (2)

Publication Number Publication Date
CN103093479A CN103093479A (zh) 2013-05-08
CN103093479B true CN103093479B (zh) 2015-11-04

Family

ID=48206010

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310066637.6A Active CN103093479B (zh) 2013-03-01 2013-03-01 一种基于双目视觉的目标定位方法

Country Status (1)

Country Link
CN (1) CN103093479B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104992448B (zh) * 2015-07-30 2018-01-26 佛山科学技术学院 机器人防损伤采摘葡萄的自动定位方法
CN105302135B (zh) * 2015-09-18 2017-10-20 天津鑫隆机场设备有限公司 基于双目视觉的助航灯光光强检测车导航与定位系统
CN106610666A (zh) * 2015-10-22 2017-05-03 沈阳新松机器人自动化股份有限公司 一种基于双目视觉的助理机器人及其控制方法
CN106127117B (zh) * 2016-06-16 2020-01-31 哈尔滨工程大学 基于双目视觉快速高鲁棒性识别、定位的自动跟随行李箱
CN106289187A (zh) * 2016-07-20 2017-01-04 广东大仓机器人科技有限公司 一种通过图像识别实现机器人室内定位的方法
CN106504288B (zh) * 2016-10-24 2019-02-01 北京进化者机器人科技有限公司 一种基于双目视觉目标检测的家居环境下门定位方法
CN106778860A (zh) * 2016-12-12 2017-05-31 中国矿业大学 基于直方图匹配的图像定位方法
CN106846416A (zh) * 2017-02-06 2017-06-13 遂昌县睿鼎科技服务有限公司 单机分束双目被动立体视觉精确重构与细分拟合方法
CN106780494A (zh) * 2017-02-10 2017-05-31 云南电网有限责任公司电力科学研究院 一种验电挂地线机器人视觉定位方法
CN107248171B (zh) * 2017-05-17 2020-07-28 同济大学 一种基于三角剖分的单目视觉里程计尺度恢复方法
CN108090418A (zh) * 2017-11-29 2018-05-29 重庆邮电大学 一种工业环境下工业机器人分层式定位方法
CN108335331B (zh) * 2018-01-31 2020-09-18 华中科技大学 一种钢卷双目视觉定位方法及设备
CN109493313B (zh) * 2018-09-12 2020-07-10 华中科技大学 一种基于视觉的钢卷定位方法及设备
CN111624554B (zh) * 2019-02-27 2023-05-02 北京京东尚科信息技术有限公司 声源定位方法和装置
CN110232711B (zh) * 2019-06-05 2021-08-13 中国科学院自动化研究所 面向海产品抓取的双目视觉实时感知定位方法、系统、装置
CN110458947A (zh) * 2019-08-09 2019-11-15 江苏濠汉信息技术有限公司 一种输电导线弧垂的三维重建方法及系统
CN112284287B (zh) * 2020-09-24 2022-02-11 哈尔滨工业大学 一种基于结构表面灰度特征的立体视觉三维位移测量方法
CN112541471B (zh) * 2020-12-21 2024-02-20 杭州电子科技大学 一种基于多特征融合的遮挡目标识别方法
CN116819229A (zh) * 2023-06-26 2023-09-29 广东电网有限责任公司 一种输电线路的测距方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101782386A (zh) * 2010-01-28 2010-07-21 南京航空航天大学 非视觉几何的摄像机阵列视频定位方法及系统
CN102074005B (zh) * 2010-12-30 2012-09-05 杭州电子科技大学 一种面向兴趣区域的立体匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101782386A (zh) * 2010-01-28 2010-07-21 南京航空航天大学 非视觉几何的摄像机阵列视频定位方法及系统
CN102074005B (zh) * 2010-12-30 2012-09-05 杭州电子科技大学 一种面向兴趣区域的立体匹配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Speeded-Up Robust Features (SURF);Herbert Bay,et al;《Computer Vision and Image Understanding》;20071215;第110卷(第3期);346-359 *
基于双目视觉的目标定位系统设计;时洪光等;《研制与开发》;20100430;45-47 *

Also Published As

Publication number Publication date
CN103093479A (zh) 2013-05-08

Similar Documents

Publication Publication Date Title
CN103093479B (zh) 一种基于双目视觉的目标定位方法
CN104933718B (zh) 一种基于双目视觉的物理坐标定位方法
CN103106688B (zh) 基于双层配准方法的室内三维场景重建方法
CN102313536B (zh) 基于机载双目视觉的障碍物感知方法
CN103049912B (zh) 一种基于任意三面体的雷达-相机系统外部参数标定方法
CN106940704A (zh) 一种基于栅格地图的定位方法及装置
CN105528785A (zh) 一种双目视觉图像立体匹配方法
CN103440653A (zh) 双目视觉立体匹配方法
CN106815594A (zh) 立体匹配方法及装置
CN104539928A (zh) 一种光栅立体印刷图像合成方法
CN104050662A (zh) 一种用光场相机一次成像直接获取深度图的方法
CN107560592A (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN112907573B (zh) 一种基于3d卷积的深度补全方法
CN102542541B (zh) 深度图像后处理的方法
CN112348890A (zh) 一种空间定位方法、装置及计算机可读存储介质
CN111951339A (zh) 利用异构双目相机进行视差计算的图像处理方法
Hamzah et al. The solution of stereo correspondence problem using block matching algorithm in stereo vision mobile robot
Hamzah et al. An obstacle detection and avoidance of a mobile robot with stereo vision camera
Sergiyenko et al. Machine vision sensors
CN103632334A (zh) 一种基于平行光轴结构摄像机的无穷远图像对齐方法
Hamzah et al. A pixel to pixel correspondence and region of interest in stereo vision application
CN105138979A (zh) 基于立体视觉的运动人体头部检测方法
CN112270701A (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN106447709A (zh) 一种快速高精度双目视差匹配方法
Abdellali et al. A direct least-squares solution to multi-view absolute and relative pose from 2D-3D perspective line pairs

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant