CN102682448B - 一种基于双三视张量的立体视觉快速导航定位方法 - Google Patents

一种基于双三视张量的立体视觉快速导航定位方法 Download PDF

Info

Publication number
CN102682448B
CN102682448B CN201210066333.5A CN201210066333A CN102682448B CN 102682448 B CN102682448 B CN 102682448B CN 201210066333 A CN201210066333 A CN 201210066333A CN 102682448 B CN102682448 B CN 102682448B
Authority
CN
China
Prior art keywords
brisk
image
parameter
frame
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210066333.5A
Other languages
English (en)
Other versions
CN102682448A (zh
Inventor
蒋云良
许允喜
刘勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201210066333.5A priority Critical patent/CN102682448B/zh
Publication of CN102682448A publication Critical patent/CN102682448A/zh
Application granted granted Critical
Publication of CN102682448B publication Critical patent/CN102682448B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于视觉导航定位技术领域,公开了一种基于双三视张量的立体视觉快速导航定位方法。该方法利用运动前后立体相机四幅图像的特征点图像坐标建立双三视张量运动约束对3D-3D位姿估计方法的初始运动参数进行优化,参数优化精确高。该方法采用ICCV2011提出的BRISK特征作为跟踪匹配的特征,该特征计算速度快,定位精度高,鲁棒性。立体匹配和前后帧匹配都采用局部描述符U-BRISK,该描述符计算速度快。由于U-BRISK描述符为二进制比特串,所以匹配速度也很快。立体匹配和前后帧匹配都采用U-BRISK描述符进行匹配,鲁棒性和定位的精确度都很高。

Description

一种基于双三视张量的立体视觉快速导航定位方法
技术领域
本发明属于视觉导航定位技术领域,涉及一种基于双三视张量的立体视觉快速导航定位方法,可以应用于智能移动机器人、自主导航车等领域。
背景技术
近年来国内外研究人员对移动机器人的定位方法与技术采用了各种定位传感器,研究出了许多不同的定位系统,主要有里程计法、惯性导航,全球定位导航。里程计法是移动机器人导航技术中最为广泛采用的定位方法。在移动机器人的车轮上装有光电编码器,通过对车轮转动的记录来计算出机器人位置和姿态。这种方法的最大缺点是车轮滑动引起的编码器读数错误。惯性导航法采用陀螺仪和加速度计来实现定位,陀螺仪测量旋转速度,加速度计测量加速度。根据测量值的一次积分和二次积分可得到机器人的位置信息。这种方法的缺点是惯导设备随时间的误差漂移太大。全球定位系统是用于室外移动机器人导航与定位的技术。它是一种以空间卫星为基础的高精度导航与定位系统。可是它在卫星信号封闭或受限的环境下,无法提供可靠的信息。比如在室内、水下、地下、战场、外星球等。
目前,随着计算速度和视觉传感器性价比的不断提高以及图像处理和视觉计算的飞速发展,基于视觉的导航定位技术受到了研究者的广泛关注。该方法依赖硬件设备少、对体积、功耗、载荷等要求低,适用于各种复杂未知环境,且定位精度高,该方法在“勇气”号与“机遇”号火星车上也得到了成功的应用。
视觉的导航定位技术仅依赖视觉输入进行运动估计,其关键是在二维图像序列中追踪视觉特征点进行机器人自身的运动估计。由于单目视觉定位存在尺度模糊性,因此,目前广泛采用立体视觉的定位方法。
立体视觉导航定位方法一般通过特征提取、立体匹配、特征跟踪、运动估计得出智能车运动的距离和方向信息。由于运动前后的特征点可以通过立体匹配的视差计算得到其三维坐标,所以目前的立体视觉运动估计算法一般都采用基于3D-3D特征对应的运动估计算法。3D-3D特征对应的运动估计算法一般采用线性或非线性最小二乘方法使估计的特征点和测量的特征点之间的3D距离最小,但由于特征点(特别对于远距离特征点)3D坐标重建受噪声影响较大,因此这种方法得到的定位精度不高。
发明内容
本发明的目的在于克服现有技术中的不足和缺点,提出一种基于双三视张量的立体视觉快速导航定位方法。该方法包括如下步骤:
步骤一、提取立体相机视频流当前帧左、右图像的BRISK特征点和各BRISK特征点对应图像位置的U-BRISK描述符(参见L.Stefan,C.Margarita,s.Roland.BRISK:Binary RobustInvariant Scalable Keypoints.In Proceedings of the IEEE International Conference on ComputerVision(ICCV),2011)。
步骤二、对当前帧左、右图像的BRISK特征点集进行一一匹配,得到当前帧左、右图像BRISK特征点匹配对,并得到当前帧左、右图像BRISK特征点匹配对的3D坐标。
步骤三、对当前帧左图像或右图像和前一帧左图像或右图像的BRISK特征点集进行一一匹配,并联合步骤二得到前后帧立体图像特征匹配点集。
步骤四、采用RANSAC算法(随机采样一致性算法,参见M.A.Fischler and R.C.Bolles.Random sample consensus:a paradigm for model fitting with applications to image analysis and automatedcartography.Commun.ACM,1981,24(6):381-395.)和基于SVD的位姿估计方法得到匹配内点和当前帧与前一帧之间的立体相机运动参数(即当前帧运动参数);所述运动参数包括相对位置参数、相对姿态参数,所述相对位置参数为平移参数t,所述相对姿态参数为旋转参数R;
步骤五、建立双三视张量运动约束的非线性优化目标函数,采用Levenberg-Marquard算法对该目标函数当前帧运动参数进行迭代优化;运动参数的迭代初值为步骤四计算得到的运动参数值。
步骤六、利用前一帧的全局位姿参数和当前帧的运动参数计算得到当前帧的全局位姿参数,即相对于起始帧的位置和姿态,从而得到立体相机的导航定位信息。
该方法采用ICCV2011提出的BRISK特征作为跟踪匹配的特征,该特征计算速度快,定位精度高,鲁棒性。立体匹配和前后帧匹配都采用局部描述符U-BRISK,该描述符计算速度快。由于U-BRISK描述符为二进制比特串,所以匹配速度也很快。立体匹配和前后帧匹配都采用U-BRISK描述符进行匹配,鲁棒性和定位的精确度都很高。
传统的立体匹配采用如下的方法:首先采用极线校正方法对立体图像对进行校正,使左右图像对应的特征点位于同一水平扫描线上,然后,对采用基于SAD(或NCC)的立体匹配方法沿水平方向极线进行一维搜索匹配,从而得到第一图像的特征在第二图像上的对应图像坐标。该方法的缺点是:需要对立体视频流进行立体极线校正,对立体极线校正方法的精度依赖也较大。
由于初始运动参数精度不高,需要采用优化方法对其进行进一步的优化。传统的3D-3D优化方法在3D空间进行优化,但由于特征点(特别对于远距离特征点)3D坐标重建受噪声影响较大,因此这种方法得到的定位精度不高。本发明通过双三视张量运动约束方程直接采用立体相机的四个图像坐标进行运动参数优化,所以优化精度高。
在本发明的立体视觉快速导航定位方法中,所述步骤一包括以下具体步骤:
(1)、提取立体相机视频流当前帧左、右图像的BRISK特征点,得到当前帧左、右图像的BRISK特征点的图像坐标(uL,k,vL,k)、(uR,k,vR,k);
(2)、计算在图像坐标(uL,k,vL,k)、(uR,k,vR,k)位置上的U-BRISK描述符;
所述步骤二包括以下步骤:
(1)、取当前帧左图像或右图像中的任一个特征点BRISK描述符,和另一图像中在视差阈值范围(0,L1)内的特征点BRISK描述符,计算二者之间的汉明距离,如果汉明距离小于汉明阀值T时则接受这一对特征匹配点为匹配对,否则拒绝。
(2)、利用已标定的立体相机左相机和右相机内部参数矩阵KL和KR以及已标定的右相机相对左相机的旋转矩阵和平移向量Rr和tr,采用线性最小二乘算法可得到当前帧左、右图像BRISK特征点的图像坐标(uL,k,vL,k)、(uR,k,vR,k)相对应的世界点3D坐标Y。
所述步骤三包括以下步骤:
(1)、取当前帧左图像或右图像中的任一个特征点U-BRISK描述符,和前一帧左图像或右图像中在视差阈值范围(-L2,L2)内的特征点U-BRISK描述符,计算二者之间的汉明距离,如果该汉明距离小于汉明阀值T时则接受这一对特征匹配点为匹配点,否则拒绝;
(2)、选择当前帧左、右图像特征匹配、前一帧左、右特征匹配、当前帧和前一帧图像特征匹配的公共匹配点集作为最后的前后帧立体图像特征匹配点集;设前一帧左、右图像BRISK特征点的图像坐标分别为(uL,k-1,vL,k-1)、(uR,k-1,vR,k-1),设前一帧图像BRISK特征点的3D坐标为X。
所述步骤四包括以下步骤:
(1)、在所述步骤三得到的前后帧立体图像特征匹配点集中随机采样3对匹配点;
(2)、利用基于SVD的3D-3D位姿估计算法计算该3对匹配点的运动参数旋转矩阵R和平移向量t;
(3)、利用步骤(2)中获得的该运动参数R和t,计算所有的前后帧特征匹配对在该运动模型下的3D坐标误差,即:
|Y-(RX+t)|<τ    (1)
该误差小于阀值τ的前后帧特征匹配对称为匹配内点,存储匹配内点、运动参数R和t以及匹配内点数;
(4)、重复步骤(1)、  (2)、  (3)多次,选取匹配内点数最多相对应的计算结果作为最后的匹配内点和初始运动参数R0和t0
在本发明的方法中,步骤五所述的双三视张量运动约束的非线性优化目标函数为f(θ)=(P(θ)-m)T(P(θ)-m),采用Levenberg-Marquard算法(参见袁亚湘、孙文瑜编著的《最优化理论与方法》,科学出版社)
…)对该目标函数中当前帧运动参数进行迭代优化的计算步骤如下:
(1)、计算 ∂ θ = ( J T J + λI ) - 1 J T ( P ( θ ) - m ) , θ new = θ + ∂ θ .
其中 J = ∂ P ~ ( θ ) ∂ θ = = ∂ P ~ 1 ( θ ) ∂ θ 1 . . . ∂ P ~ N ( θ ) ∂ θ 6 . . . . . . . . . ∂ P ~ 1 ( x ) ∂ θ 1 . . . ∂ P ~ N ( x ) ∂ θ 6
(2)、若f(θnew)<f(θ)则转向(4);否则进行(3)。
(3)、若停止计算,输出结果。否则置λ=βλ,θ=θnew,转(2)。
(4)、若停止计算,输出结果。否则置λ=λ/β,θ=θnew,转(2)。
在上述运动参数进行迭代优化步骤中,所述运动参数θ=[q1 q2 q3 x y z]T为6维向量;其初始值为旋转矩阵R转化的四元数(q1,q2,q3,q4),其中q1,q2,q3为独立变量,所述平移参数t=[x y z]T
在所述的非线性优化目标函数f(θ)=(P(θ)-m)T(P(θ)-m)中, P ( θ ) = [ P ~ 1 , P ~ 2 , . . . , P ~ n ] T , m=[m1,m2,...,mn]T
其中 P ~ i = P ~ L , k P ~ R , k = u ~ L , k v ~ L , k u ~ R , k v ~ R , k , m i = u L , k v L , k u R , k u R , k . 所述 P ~ R , k = [ h R , 1 h R , 2 h R , 3 ] P L , k - 1 为双三视张量运动约束的点-线-点约束1;为双三视张量运动约束的点-线-点约束2;其中i=1,2,3,i=1,2,3,lR,k-1为经过图像点(uR,k-1,vR,k-1)的直线,其向量坐标为[-1 -1 uR,k-1+vR,k-1]T,PL,k-1为特征点的齐次图像坐标[uL,k-1 vL,k-1 1]T
所述的TR,i为前一帧左图像、前一帧右图像、当前帧右图像组成的三视张量:
T R , i = a i b 4 T - b 4 a i T , i = 1,2,3 - - - ( 2 )
TL,i为前一帧左图像、前一帧右图像、当前帧左图像组成的三视张量为:
T L , i = a i c 4 T - b 4 c i T , i = 1,2,3 - - - ( 3 )
上式(2)、(3)中的a,b,c计算方式如下:
把立体相机的前一帧左相机图像坐标系选为世界坐标系,左相机的3*4的投影矩阵为ML,k-1=KL[I|0],则
前一帧右相机的投影矩阵:MR,k-1=KR[Rr|tr]=[a1 a2 a3 a4]    (4)
当前帧左相机的投影矩阵:ML,k=KL[RL|tL]=[c1 c2 c3 c4]    (5)
上式中RL=Rr T·R,tL=Rr T·t-Rr T·tr
当前帧右相机的投影矩阵:MR,k=KR[R|t]=[b1 b2 b3 b4]    (6)
在本发明的立体视觉快速导航定位方法中,所述步骤六具体为:
利用拍摄当前帧前一帧相对于世界坐标系的旋转参数R和平移参数t、拍摄当前帧摄像头运动参数θ计算得到拍摄当前帧时摄像头相对于世界坐标系的旋转参数R和平移参数t;拍摄当前帧时摄像头相对于世界坐标系的旋转参数和平移参数即为立体相机6个自由度的3D定位信息。
综上所述,本发明具有的有益效果如下:(1)由于立体匹配采用局部特征匹配且采用双三视张量运动约束,所以不需要对立体相机进行立体极线校正,省去了很大的计算量。(2)直接利用运动前后立体相机四幅图像的特征点图像坐标建立双三视张量运动约束,参数优化更精确。(3)、采用了BRISK特征和U-BRISK描述符,该特征和描述符计算复杂度很低,U-BRISK描述符为二进制比特流,所以在特征匹配时采用Hamming距离,匹配速度快。(4)仅利用立体相机得到的视频流进行移动机器人的导航定位,具有完全的自主性。
附图说明
图1为立体匹配过程示意图;
图2为前后帧匹配过程示意图
图3为立体图像特征匹配结果
图4为前后帧图像特征匹配结果
图5为双三视张量运动约束原理示意图。
图6为本发明的导航定位结果
具体实施方式
为了使本发明的技术方案和优点更加清楚,下面结合附图对本发明做进一步的详细描述。
1、提取立体相机视频流当前帧左、右图像的BRISK特征点,得到当前帧左、右图像的BRISK特征点的图像坐标(uL,k,vL,k)和(uR,k,vR,k)。左图像共有n1个BRISK特征点,右图像共有n2个BRISK特征点;在相应图像坐标位置上的提取U-BRISK描述符;
2、取当前帧第一图像中的任一个特征点U-BRISK描述符,和第二图像中在视差阈值范围(0,60)内的特征点U-BRISK描述符,计算二者之间的汉明距离,如果汉明距离小于阀值80则接受这一对特征匹配点为匹配对,否则拒绝;所述第一图像即为左、右图像中任一图像,另一个为第二图像。图3给出了立体图像特征匹配结果。由实验可得:对640×480像素立体图像进行极线校正的时间为340ms,而本发明方法的立体匹配时间只有60ms。
3、利用已标定的立体相机左相机和右相机内部参数矩阵KL和KR以及已标定的右相机相对左相机的旋转矩阵和平移向量Rr和tr,采用线性最小二乘算法可得到当前帧左、右图像BRISK特征点的图像坐标(uL,k,vL,k)、(uR,k,vR,k)相对应的世界点3D坐标Y。
4、(1)取当前帧第一图像中的任一个特征点U-BRISK描述符,和前一帧第一图像中在视差阈值范围(-80,80)内的特征点U-BRISK描述符,计算二者之间的汉明距离,如果汉明距离小于阀值90则接受这一对特征匹配点为匹配对,否则拒绝;图4给出了前后帧图像特征匹配结果。
(2)、选择当前帧左右特征匹配、前一帧左右特征匹配、当前帧和前一帧特征匹配的公共匹配点集作为最后的前后帧立体图像特征匹配点集。设前一帧左右BRISK特征的图像坐标分别为(uL,k-1,vL,k-1)、(uR,k-1,vR,k-1)。设前一帧BRISK特征的3D坐标为X。
5、(1)、在前后帧匹配点集中随机采样3对匹配点;
(2)、采用基于SVD的位姿估计算法计算该3对匹配点的运动参数旋转矩阵R和平移向量t;
(3)、利用步骤(2)中获得的该运动参数R和t,计算所有的前后帧特征匹配对在该运动模型下的3D坐标误差,即:
|Y-(RX+t)|<τ
该误差小于阀值τ的前后帧特征匹配对称为匹配内点。存储匹配内点、运动参数R和t以及匹配内点数。
(4)、重复步骤(1)、(2)、(3)1000次,选取匹配内点数最多相对应的计算结果作为最后的匹配内点和初始运动参数R和t。
6、计算旋转矩阵R相对应的四元素表达(q2,q3,q4),加上步骤四的平移参数t=[x y z]T,则得到6维参数的运动向量θ=[q1 q2 q3 x y z]T
7、计算RL=Rr T·R,tL=Rr T·t-Rr T·tr
8、计算当前帧左相机的投影矩阵:[c1 c2 c3 c4]=KL[RL|tL]。
9、计算当前帧右相机的投影矩阵:[b1 b2 b3 b4]=KR[R|t]。
10、计算由前一帧左图像、前一帧右图像、当前帧右图像组成的三视张量:
T R , i = a i b 4 T - b 4 a i T , i = 1,2,3
计算由前一帧左图像、前一帧右图像、当前帧左图像组成的三视张量:
T L , i = a i c 4 T - b 4 c i T , i = 1,2,3
11、计算 h R , i = T R , i T l R , k - 1 , i = 1,2,3
计算 h L , i = T L , i T l R , k - 1 , i = 1,2,3
其中lR,k-1=[-1 -1 uR,k-1+vR,k-1]T,PL,k-1=[uL,k-1 vL,k-1 1]T
12、计算双三视张量运动约束的点-线-点约束1:
P ~ R , k = h R , 1 h R , 2 h R , 3 P L , k - 1
计算双三视张量运动约束的点-线-点约束2:
P ~ L , k = h L , 1 h L , 2 h L , 3 P L , k - 1
图5给出了双三视张量运动约束原理示意图。
13、计算 J = ∂ P ~ ( θ ) ∂ θ = = ∂ P ~ 1 ( θ ) ∂ θ 1 . . . ∂ P ~ N ( θ ) ∂ θ 6 . . . . . . . . . ∂ P ~ 1 ( x ) ∂ θ 1 . . . ∂ P ~ N ( x ) ∂ θ 6
其中 P ( θ ) = [ P ~ 1 , P ~ 2 , . . . , P ~ n ] T , m=[m1,m2,...,mn]T P ~ i = P ~ L , k P ~ R , k = u ~ L , k v ~ L , k u ~ R , k v ~ R , k , m i = u L , k v L , k u R , k u R , k
14、计算 ∂ θ = ( J T J + λI ) - 1 J T ( P ( θ ) - m ) .
15、计算 θ new = θ + ∂ θ .
16、若f(θnew)<f(θ)则转向步骤18;否则进行步骤17。
17、若转向步骤19。否则置λ=βλ,θ=θnew,转入步骤6。
λ、β、ε分别取0.01、10和0.000001。
18、若转向步骤19。否则置λ=λ/β,θ=θnew,转入步骤6。
19、利用拍摄当前帧前一帧相对于世界坐标系的旋转参数R和平移参数t、拍摄当前帧摄像头运动参数θ计算得到拍摄当前帧时摄像头相对于世界坐标系的旋转参数R和平移参数t;拍摄当前帧时摄像头相对于世界坐标系的旋转参数和平移参数即为立体相机6个自由度的3D定位信息。图6给出了本发明的定位结果。

Claims (4)

1.一种基于双三视张量的立体视觉快速导航定位方法,其特征在于,包括如下步骤:
步骤一、提取立体相机视频流当前帧左、右图像的BRISK 特征点和各BRISK 特征点对应图像位置的U-BRISK 描述符;
步骤二、对当前帧左、右图像的BRISK 特征点集进行一一匹配,得到当前帧左、右图像BRISK 特征点匹配对,并得到当前帧左、右图像BRISK 特征点匹配对的3D 坐标;
步骤三、对当前帧左、右图像和前一帧左、右图像的BRISK 特征点集进行一一匹配,并联合步骤二得到前后帧立体图像特征匹配点集;
步骤四、采用RANSAC 算法和基于SVD 的位姿估计方法得到匹配内点和当前帧与前一帧之间的立体相机运动参数;所述运动参数包括相对位置参数、相对姿态参数,所述相对位置参数为平移参数t,所述相对姿态参数为旋转参数R;
步骤五、建立双三视张量运动约束的非线性优化目标函数,采用Levenberg-Marquard算法对该目标函数当前帧运动参数进行迭代优化;运动参数的迭代初值为步骤四计算得到的运动参数值;
步骤六、利用前一帧的全局位姿参数和当前帧的运动参数计算得到当前帧的全局位姿参数,从而得到立体相机的导航定位信息;
所述步骤二包括以下步骤:
(1)、取当前帧左图像或右图像中的任一个BRISK 特征点对应图像位置的U-BRISK 描述符,和另一图像中在视差阈值范围(0,L1) 内的BRISK 特征点对应图像位置的U-BRISK 描述符,计算二者之间的汉明距离,如果汉明距离小于汉明阈值T 时则接受这一对特征匹配点为匹配对,否则拒绝;
(2)、利用已标定的立体相机左相机和右相机内部参数矩阵KL 和KR 以及已标定的右相机相对左相机的旋转矩阵和平移向量R和tr,采用线性最小二乘算法可得到当前帧左、右图像BRISK 特征点的图像坐标(uL,k,vL,k)、(uR,k,vR,k) 相对应的3D 坐标Y。
2.根据权利要求1 所述的基于双三视张量的立体视觉快速导航定位方法,其特征在于,所述步骤一包括以下步骤:
(1)、提取立体相机视频流当前帧左、右图像的BRISK 特征点,得到当前帧左、右图像的BRISK 特征点的图像坐标(uL,k,vL,k)、(uR,k,vR,k) ;
(2)、计算在图像坐标(uL,k,vL,k)、(uR,k,vR,k) 位置上的U-BRISK 描述符。
 
3.根据权利要求1 所述的基于双三视张量的立体视觉快速导航定位方法,其特征在于, 所述步骤三包括以下步骤:
(1)、取当前帧左图像或右图像中的任一个BRISK 特征点对应图像位置的U-BRISK 描述符,和前一帧左图像或右图像中在视差阈值范围(-L2,L2) 内的BRISK 特征点对应图像位置的U-BRISK 描述符,计算二者之间的汉明距离,如果该汉明距离小于汉明阈值T 时则接受这一对特征匹配点为匹配点,否则拒绝;
(2)、选择当前帧左、右图像特征匹配、前一帧左、右图像特征匹配、当前帧和前一帧图像特征匹配的公共匹配点集作为最后的前后帧立体图像特征匹配点集;设前一帧左、右图像BRISK特征点的图像坐标分别为(uL,k-1,vL,k-1)、(uR,k-1,vR,k-1),设前一帧图像BRISK 特征点的3D坐标为X。
4.根据权利要求3所述的基于双三视张量的立体视觉快速导航定位方法,其特征在于,所述步骤四包括以下步骤:
(1)、在所述步骤三得到的前后帧立体图像特征匹配点集中随机采样3 对匹配点;
(2)、利用基于SVD 的3D-3D 位姿估计算法计算该3 对匹配点的旋转参数R 和平移参数t;
(3)、利用步骤(2)中获得的该旋转参数R和平移参数t,计算所有的前后帧特征匹配点对在运动模型下的3D坐标误差,即:
|Y-(RX+t)|<τ       (1)
该误差小于阈值τ的前后帧特征匹配点对称为匹配内点,存储匹配内点、旋转参数R 和平移参数t 以及匹配内点数;
(4)、重复步骤(1)、(2)、(3)多次,选取匹配内点数最多相对应的计算结果作为最后的匹配内点和当前帧与前一帧之间的立体相机运动参数。
CN201210066333.5A 2012-03-14 2012-03-14 一种基于双三视张量的立体视觉快速导航定位方法 Active CN102682448B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210066333.5A CN102682448B (zh) 2012-03-14 2012-03-14 一种基于双三视张量的立体视觉快速导航定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210066333.5A CN102682448B (zh) 2012-03-14 2012-03-14 一种基于双三视张量的立体视觉快速导航定位方法

Publications (2)

Publication Number Publication Date
CN102682448A CN102682448A (zh) 2012-09-19
CN102682448B true CN102682448B (zh) 2015-03-04

Family

ID=46814313

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210066333.5A Active CN102682448B (zh) 2012-03-14 2012-03-14 一种基于双三视张量的立体视觉快速导航定位方法

Country Status (1)

Country Link
CN (1) CN102682448B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103900555B (zh) * 2012-12-30 2016-12-28 联想(北京)有限公司 一种可移动电子设备的定位方法及可移动电子设备
CN103400388B (zh) * 2013-08-06 2016-12-28 中国科学院光电技术研究所 一种利用RANSAC消除Brisk关键点错误匹配点对的方法
CN105096341B (zh) * 2015-07-27 2018-04-17 浙江大学 基于三焦张量和关键帧策略的移动机器人位姿估计方法
US9551579B1 (en) * 2015-08-07 2017-01-24 Google Inc. Automatic connection of images using visual features
CN105741320B (zh) * 2016-01-27 2021-01-01 北京航空航天大学 一种高实时性机器视觉运动分析方法
CN107167139A (zh) * 2017-05-24 2017-09-15 广东工业大学 一种变电站巡检机器人视觉定位导航方法及系统
CN107633535A (zh) * 2017-09-06 2018-01-26 深圳市易天自动化设备股份有限公司 一种新型机器视觉目标高速定位方法
CN107860346B (zh) * 2017-09-30 2019-12-20 北京卫星制造厂 一种测量坐标系配准方法
CN108364013B (zh) * 2018-03-15 2021-10-29 苏州大学 基于邻域高斯微分分布的图像关键点特征描述符提取方法、系统
CN108519215B (zh) * 2018-03-28 2020-10-16 华勤技术有限公司 瞳距适应性测试系统及方法、测试主机
KR20200142536A (ko) 2019-04-04 2020-12-22 캠브리콘 테크놀로지스 코퍼레이션 리미티드 데이터 처리 장치 및 관련 제품
CN111141274A (zh) * 2019-12-23 2020-05-12 北京中广上洋科技股份有限公司 一种基于计算机视觉的机器人自动定位与导航方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101865656A (zh) * 2010-06-18 2010-10-20 浙江大学 一种使用少数共面点精确定位多摄像头系统位姿的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101865656A (zh) * 2010-06-18 2010-10-20 浙江大学 一种使用少数共面点精确定位多摄像头系统位姿的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BRISK: Binary Robust invariant scalable keypoints;Leutenegger, S.等;《Computer Vision (ICCV), 2011 IEEE International Conference on》;20111113;2548-2555 *
Visual odometry based on stereo image sequences with RANSAC-based outlier rejection scheme;Kitt, B.等;《Intelligent Vehicles Symposium (IV), 2010 IEEE》;20100624;486-492 *
基于广义正交迭代算法的立体视觉定位;许允喜等;《光子学报》;20110831;第40卷(第8期);1225-1230 *

Also Published As

Publication number Publication date
CN102682448A (zh) 2012-09-19

Similar Documents

Publication Publication Date Title
CN102682448B (zh) 一种基于双三视张量的立体视觉快速导航定位方法
CN109991636B (zh) 基于gps、imu以及双目视觉的地图构建方法及系统
CN107564061B (zh) 一种基于图像梯度联合优化的双目视觉里程计算方法
CN102435188B (zh) 一种用于室内环境的单目视觉/惯性全自主导航方法
Heo et al. EKF-based visual inertial navigation using sliding window nonlinear optimization
CN108534782B (zh) 一种基于双目视觉系统的地标地图车辆即时定位方法
CN108648215B (zh) 基于imu的slam运动模糊位姿跟踪算法
CN102607535B (zh) 一种利用视差空间集束调整的高精度实时立体视觉定位方法
CN109029433A (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN105953796A (zh) 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN110617814A (zh) 单目视觉和惯性传感器融合的远距离测距系统及方法
CN102155955A (zh) 立体视觉里程计及测量方法
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与系统
CN103093459A (zh) 利用机载LiDAR点云数据辅助影像匹配的方法
CN102184540A (zh) 基于尺度空间的亚像素级立体匹配方法
CN101762277B (zh) 基于路标导航的六自由度位置姿态确定方法
CN109741372A (zh) 一种基于双目视觉的里程计运动估计方法
CN103345765B (zh) 基于dsp+fpga的移动平台下运动目标检测装置及其方法
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN115307640A (zh) 基于改进人工势场法的无人车双目视觉导航方法
CN112731503B (zh) 一种基于前端紧耦合的位姿估计方法及系统
Panahandeh et al. Exploiting ground plane constraints for visual-inertial navigation
Madhavan et al. Iterative registration of 3d ladar data for autonomous navigation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant