CN103345751A - 一种基于鲁棒特征跟踪的视觉定位方法 - Google Patents

一种基于鲁棒特征跟踪的视觉定位方法 Download PDF

Info

Publication number
CN103345751A
CN103345751A CN2013102746962A CN201310274696A CN103345751A CN 103345751 A CN103345751 A CN 103345751A CN 2013102746962 A CN2013102746962 A CN 2013102746962A CN 201310274696 A CN201310274696 A CN 201310274696A CN 103345751 A CN103345751 A CN 103345751A
Authority
CN
China
Prior art keywords
camera
point
unique point
image
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013102746962A
Other languages
English (en)
Inventor
叶平
柳青
孙汉旭
吉雪
窦仁银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN2013102746962A priority Critical patent/CN103345751A/zh
Publication of CN103345751A publication Critical patent/CN103345751A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像处理及机器视觉的鲁棒特征跟踪与立体视觉定位技术。该技术可以在相机晃动以及室外光照条件下,融合惯性信息和视觉信息,实现可靠的立体视觉定位。通过双目摄像机实时采集图像,同时利用惯性测量单元采集相机旋转信息。利用特征提取算法提取图像中的特征点,并对左右图像中的特征点进行立体匹配。结合惯性信息,通过惯性融合KLT算法跟踪特征点,提高特征跟踪可靠性。利用双视几何原理恢复特征点的三维信息。使用高斯牛顿迭代的方法由特征点位置信息求得相机运动参数。使用RANSIC算法进一步提高视觉定位准确度。整个过程不断迭代,实现相机姿态和位置的实时计算。

Description

一种基于鲁棒特征跟踪的视觉定位方法
技术领域:
本发明是基于图像处理及机器视觉相关领域的鲁棒特征跟踪与立体视觉定位技术。该技术可以在相机晃动以及室外光照条件下,以惯性信息和视觉信息作为输入,实现可靠的立体视觉定位。
背景技术:
在计算机视觉领域,双目立体视觉模拟人类双眼处理景物的方式对空间点进行定位,可以很好地解决非线性误差,是其中一个重要研究方向并且具有广泛的适用性。在移动机器人自主执行任务时进行自定位以及盲人辅助出行定位系统中均可采用双目立体视觉进行定位。在这些系统中,定位的精度及速度直接影响着整个系统的性能和效率。但现有的视觉定位方法存在一定缺陷:
1)当相机在采集图像过程中发生剧烈晃动或旋转,无法在平稳状态下工作时,例如盲人辅助出行系统中相机搭载在使用者身上,随着使用者的行走会发生晃动;搭载有定位系统的自主机器人在崎岖环境中作业时,相机也会发生抖动甚至较大旋转。此时相机采集到的前后连续图像之间视差过大,导致特征点跟踪失败,特征点数量变化剧烈,运动估计误差过大,最终使得定位失败。
2)当环境中存在大量运动物体时,不加区分地将位于动态物体上的特征点带入计算会影响里程计的结果,导致定位精度降低。
3)当视觉定位系统工作环境中存在有大量纹理相似的区域或重复性结构时,左右图像在立体匹配过程中容易发生特征点的误匹配,从而导致定位失败。
4)由于工作环境中光照条件变化,导致特征点误匹配,特征跟踪失败,从而无法准确定位。
为了使视觉定位技术可以在不稳定平台中相机发生大幅晃动的情况下得以应用,需要采用一定的方法来补偿相机晃动对特征点跟踪造成的影响,然而目前的算法,如传统KLT算法,基于一定的假设条件,对图像灰度和图像间的视差变化都有严格的要求,不能同时满足定位的实时性及有效性要求。如何让视觉里程计在相机大幅晃动条件下实时有效地工作成为本专利申请人关注和研究的新课题。
发明内容:
本发明主要用于解决现有视觉定位技术在相机晃动以及室外光照环境中定位不可靠的问题,提出一种惯性信息与视觉信息相融合的视觉定位算法,通过加入惯性信息预测特征点在当前时刻图像中的迭代初始位置,并且结合仿射光度运动模型来实现鲁棒的特征跟踪,进而提高视觉定位的可靠性。本发明的技术方案包括以下步骤:
1:预先标定双目相机内参数,包括:焦距、中心点坐标、基线长度等。
2:将相机与惯性测量单元固连,用于同时采集图像信息和惯性信息(旋转信息)。标定相机坐标系与惯性测量单元坐标系之间的旋转变换矩阵,同步图像数据与惯性信息的采集。
3:用已标定好的双目相机,进行左右图像连续采集。同时使用惯性测量单元采集对应时刻相机的旋转信息。
4:读取当前时刻左右两幅图像和对应的相机旋转变化量,如果当前帧是第一帧,则进入步骤8,提取新特征点;如果当前图像不是第一帧,则根据相机旋转变化量计算出特征点在当前帧中的初始预测位置,使用惯性融合KLT算法对特征点进行跟踪,得出特征点在当前帧中的准确位置。
4-1.根据模板计算海森矩阵。
4-2.根据相机运动变换计算预测运动参数初值。
4-3.根据新输入图像,通过高斯牛顿迭代更新运动参数。
5:左右图像中立体匹配的一组特征点具有相同的ID序号,根据ID序号,对左、右图像中跟踪上的特征点进行筛选,去除其中丢失了匹配点的特征点(即孤立特征点,在另一幅图像的特征点集中找不到相同ID的匹配点),保留立体匹配的特征点,利用双视几何原理求解出特征点在两帧图像中相对于摄像机坐标系的坐标。
6:使用高斯-牛顿迭代算法,以当前时刻和前一时刻的匹配特征点集作为输入量,求解相机在当前时刻相对于前一时刻的位姿变化,同时使用RANSIC算法进一步提高定位准确度。
6-1.在特征点集中随机选择3对特征点,通过迭代算法,进行一次运动估计,得到一个[R T]。
6-2.利用当前的[R T],对所有前一时刻特征点进行投影,对比投影结果与当前观测位置的差,将差值小于阈值的点记为局内点。
6-3.重复6-1、6-2,进行多次迭代,比较每次局内点数目,将局内点数目最大的一组局内点重新构成特征点集。
6-4.利用新的特征点集,使用高斯-牛顿迭代进行运动估计,得到更优的R和T。
7:使用步骤6的结果对全局的位姿变换矩阵[R T]进行更新,得到相机相对于初始坐标系的位置和姿态。
8:如果当前帧剩余的匹配特征点数目小于设定的阈值,使用sobel算子提取图像中的兴趣点,并利用SIFT描述符对这些点进行描述,经过立体匹配得到新的特征点,然后重复步骤4;否则直接重复步骤4。
本发明的优点在于:
1)本发明在利用KLT算法进行特征跟踪时融合了系统的惯性信息,对迭代计算的初始值进行了预测,大大增加了迭代收敛的概率,提升了在相机晃动情况下的特征跟踪性能。
2)本发明采用逆向KLT算法,具体运动模型使用仿射光度变换模型,加入了对光照和运动变换的补偿,同时减少模板更新次数和计算量,兼顾了跟踪性能和运行效率,缩短了程序运行时间,使视觉定位可以在室内以及室外的动态场景中实时有效的工作。
3)本发明在立体匹配过程中采用回环匹配来增加匹配稳定性,减小了因误匹配引入的误差。
4)在视觉定位过程中使用了RANSIC算法,该方法与KLT算法结合使用,提高了视觉定位方法的实时性与有效性。
附图说明:
图1是本发明提出的相机大幅晃动情况下视觉定位方法总体流程图。
图2是本发明中定义的各个坐标系。
图3是本发明中惯性融合KLT算法流程图。
图4是本发明中RANSIC算法流程图。
具体实施方式:
下面结合说明书附图对本发明方法做详细说明:
步骤1:对双目摄像机进行标定,获取相机内外参数,包括:焦距f,基线长度b,图像中心像素位置u0,v0,整幅图像的校正矩阵等。相机内参数矩阵为:
K = f x 0 u 0 0 f y v 0 0 0 0     (式-1)
步骤2:将相机与惯性测量单元固连,确保其不会发生相对运动。标定相机坐标系与惯性测量单元坐标系之间的旋转变换矩阵
Figure BDA00003451112400032
同步图像数据与惯性信息的采集,在采集图像的同时获得此刻IMU测得的旋转信息。
步骤3:开启双目相机同时启动惯性测量单元,用已标定好的双目相机和惯性测量单元进行左右图像连续采集,利用步骤1获取的相机参数对图像进行校正,同时使用惯性测量单元采集对应时刻系统的旋转信息
步骤4:读取当前时刻左图像I1t、右图像I2t、对应的相机旋转信息如果当前输入图像是第一帧,则进入步骤8,提取新特征点;如果当前输入图像不是第一帧,则根据相机旋转变化量计算出特征点在当前帧中的初始预测位置,使用惯性融合KLT算法对特征点进行跟踪,如附图3所示流程,得出特征点在当前帧中的准确位置。
在KLT算法中,采用仿设光度弯曲模型T(x;p)=(α+1)T(Ax+b)+β作为仿设函数w(x;p)的具体形式,函数中一共包含8个参数p=(a1,…,α6,α,β),其中:
A = 1 + a 1 a 2 a 3 1 + a 4 , b = a 5 a 6 , (A,b)用于解决相机转动和移动产生的特殊形变,(α,β)用于补偿光照变化。
步骤4-1.判断当前读入图像是否是第一帧,若是则进入步骤8;若不是则判断特征点数量,如果特征点的数量小于设定的阈值,则进入步骤8选取新的特征点并更新模板T,否则保持模板不变。
步骤4-2.如果模板没有更新,直接进入步骤4-3;如果选取了新模板,则根据新模板重新计算海森矩阵:
计算雅克比矩阵
J = ∂ T ∂ p | p = 0 = ∂ T ∂ a ∂ T ∂ α ∂ T ∂ β = ∂ T ∂ a T 1     (式-2)
计算海森矩阵
H = Σ x J T J     (式-3)
4-3.计算相机旋转变化量
Figure BDA00003451112400039
设t-1时刻和t时刻陀螺仪分别采集到的旋转矩阵为
Figure BDA000034511124000310
则从t-1时刻到t时刻相机发生的旋转变化量为:
Δ R t - 1 t c = R c i · R t - 1 i G · R t - 1 i G · R - 1 c i     (式-4)
4-4.根据相机运动变换计算单应矩阵H。
采集到的图像中特征点的运动可以通过2维单应矩阵H来描述,H是(A,b)的高阶变形。可以从H中提取出运动模型的预测参数。
H = K · Δ R t - 1 t c · K - 1     (式-5)
4-5.遍历全部特征点,利用KLT算法跟踪特征点,得到特征点在当前图像中的坐标位置。
(1)计算各个特征点的预测运动参数:
A pred = H 2 × 2 b pred = x H - x , x H = H x 1 T α pred = β pred = 0     (式-6)
(2)计算运动参数的迭代初始值
Figure BDA00003451112400044
    (式-7)
(3)利用高斯-牛顿迭代法计算运动参数变化量δp。
(4)更新运动参数pt=((A,b)t αt βt):
( A , b ) t ← ( A t - 1 δ A - 1 , b t - 1 - A t - 1 δb ) α t ← ( α t - 1 + 1 ) / ( δα + 1 ) β t ← β t - 1 - ( α t - 1 + 1 ) δβ     (式-8)
(5)计算各个特征点的跟踪质量参数:误差平方和、归一化互相关、剪切度。
(6)判断各个特征点的跟踪质量参数是否低于设定的阈值,如果某个特征点的质量参数小于阈值,则剔除该点,否则记录特征点的当前位置。
(7)统计跟踪成功的特征点个数。
步骤5:左右图像中立体匹配的一组特征点具有相同的ID序号,根据ID序号,对左、右图像中跟踪上的特征点进行筛选,去除其中丢失了匹配点的特征点(即孤立特征点,在另一幅图像的特征点集中找不到相同ID的匹配点),保留立体匹配的特征点,利用双视几何原理求解出特征点在两帧图像中相对于摄像机坐标系的坐标。
5-1.遍历左图像中的特征点,查找在右图中是否有相同ID的特征点,若找到ID相同的特征点,则这组特征点是立体匹配对,可用于计算位姿变换;若某个特征点在右图中没有相同ID的特征点,则此点为孤立点,将其剔除。
5-2.仿照步骤5-1遍历右图像中的特征点,得到立体匹配对,并剔除孤立点。
5-3.根据立体匹配对计算像素点的三维坐标:
X Y Z = ( u - u 0 ) b / d ( v - v 0 ) b / d f × b / d     (式-9)
步骤6:对步骤5得到的三维特征点集结合RANSIC算法与牛顿高-斯迭代进行运动估计,得到旋转和平移矩阵[R T]:
6-1.步骤5已经获得的三维点集包括同一个点在当前时刻和前一时刻在相机坐标系中的坐标,随机选择其中的三个特征点,进行一次运动估计,求解出一个[R T]。
6-2.利用求解出的[R T]对点集
Figure BDA00003451112400051
中的所有点进行投影变化:
u v 1 = f x 0 u 0 0 f y v 0 0 0 1 [ R ( r ) t x y z 1 - s 0 0 ]     (式-10)
其中{x、y、z}为点集中一个点在t-1时刻的三维坐标,点对应的像素位置u、v在实际中均取整数,计算由(式-10)式得到的u、v值与该点在t时刻观测到的u、v值之差。差值小于阈值的点纪录为局内点。遍历当前时刻所有点,得到局内特征点集
Figure BDA00003451112400053
记录局内特征点总数。
6-3.重复步骤6-1、6-2,进行多次迭代,记录每一次迭代中得到的局内特征点数,找出局内特征点数最多的一次,利用所有局内特征点作为输入,进行运动估计,得到更优的[R T]。
其中运动估计算法如下:
(1)将(式-10)展开并对待求未知量tx,ty,tz与rx,ry,rz求偏导数。
(2)利用(1)的结果,若为第一次计算,则首先将(tx,ty,tz,rx,ry,rz)的初值全部设为0,否则以上一次运算的结果作为初值。以Δ表示待求变量估计值与真实值之间的差值,构建标准方程组
b11Δtx+b12Δty+b13Δtz+b14Δrx+b15Δry+b16Δrz=B1
b21Δtx+b22Δty+b23Δtz+b24Δrx+b25Δry+b26Δrz=B2
b31Δtx+b32Δty+b33Δtz+b34Δrx+b35Δry+b36Δrz=B3    (式-11)
b41Δtx+b42Δty+b43Δtz+b44Δrx+b45Δry+b46Δrz=B4
b51Δtx+b52Δty+b53Δtz+b54Δrx+b55Δry+b56Δrz=B5
b61Δtx+b62Δty+b63Δtz+b64Δrx+b65Δry+b66Δrz=B6
其中
Figure BDA00003451112400054
Figure BDA00003451112400055
其中
Figure BDA00003451112400056
表示对(式-10)的第k行对第i个变量求偏导数,其中ai∈(tx,ty,tz,rx,ry,rz)。Ck为特征点在t时刻对应的像素坐标位置。
(3)使用消元法求解(2)中的方程组,可以解出Δi的值。将Δi与初值相加可以求得各个变量的当前估计值。
(4)使用(3)得出的运动参数(tx,ty,tz,rx,ry,rz)将前一时刻空间点三维位置,投影到当前时刻的图像平面,当满足精度要求或达到最大迭代次数时,使用当前的(tx,ty,tz,rx,ry,rz)对运动参数进行更新。
步骤7:使用步骤6的结果转化为4*4的位姿变换矩阵,从初始时刻开始进行累乘,最终得到的结果就是相机当前相对于初始时刻的位姿状态,对全局的[R T]进行更新。
步骤8:如果当前帧剩余的匹配特征点数目小于设定的阈值,提取新的特征点,然后重复步骤4;否则直接重复步骤4。
8-1.使用sobel算子提取图像中的兴趣点,并利用SIFT描述符对这些点进行描述。
8-2.以跟踪上的特征点作为中心在其周围邻域内设置掩膜,去掉距离这些特征点较近的兴趣点。
8-3.然后计算左图像中各个兴趣点与右图像中兴趣点的特征描述符的欧式距离,距离最小的一对兴趣点即为空间中某一点分别在左、右图像中的投影,作为一组立体匹配的新特征点。
8-4.将图像等分为几个大小相同的区块,若某些区块中特征点数量过多,明显多于其他区块,则去掉这些区块中的一些多余特征点,保证每个区块中特征点数量比较平均。
8-5.给左右图像中的同一组新特征点赋予相同的ID序号。每一对特征点的ID序号在整个程序运行过程中是唯一的。
8-6.若当前帧是第一帧,初始化位姿变换矩阵为单位矩阵,并设当前位置为原点。重复步骤4。

Claims (4)

1.一种基于鲁棒特征跟踪的视觉定位方法,其特征在于,包括以下步骤:
步骤一:对双目摄像机进行标定。
步骤二:将相机与惯性测量单元固连,标定相机坐标系与惯性测量单元坐标系之间的旋转变换矩阵。
步骤三:开启相机,进行左右图像与相机旋转信息的同步采集。
步骤四:如果当前图像是第一帧或当前特征点总数小于设定阈值,用sobel算子提取图像中的兴趣点,并用SIFT描述符对兴趣点进行描述,在左右图像之间进行立体匹配,得到特征点匹配对。如果读入的图像不是第一帧,则根据相机旋转变化量计算出特征点在当前帧中的初始预测位置,使用惯性融合KLT算法对特征点进行跟踪,得出特征点在当前帧中的准确位置。
步骤五:通过双目立体视觉原理计算特征点对应的三维坐标位置。
步骤六:使用RANSIC算法进行迭代计算,每次迭代时利用求得的旋转矩阵R和平移矩阵T计算满足该变换的特征点数目,求取包含局内点最多的一组结果,并利用该组中所有局内点求解出精确的R和T。
步骤七:将步骤六求得的结果进行累乘,得到相机在当前时刻相对于初始时刻的位姿变换矩阵。
2.权利要求1所述的一种基于鲁棒特征跟踪的视觉定位方法,其特征在于,所述步骤二中将相机与惯性测量单元固连,利用惯性测量单元采集相机的旋转信息,用于辅助视觉定位。
3.权利要求1所述的一种基于鲁棒特征跟踪的视觉定位方法,其特征在于,所述步骤四中采用惯性融合KTL算法对特征点进行跟踪,结合系统的惯性信息,对运动参数迭代计算的初始值进行了预测,大大增加了迭代收敛的概率,提升了在相机晃动情况下的特征跟踪性能。此外,使用仿射光度变换模型作为运动模型,加入了对光照和运动变换的补偿,减少模板更新次数和计算量,兼顾了跟踪性能和运行效率。
步骤4-1选取新的特征点并更新模板T。
步骤4-2根据步骤4-1中求得的新模板计算海森矩阵。
步骤4-3计算相机旋转变化量。
步骤4-4利用4-3求得的相机旋转变化量计算单应矩阵H,计算运动参数的迭代初始值。
步骤4-5利用高斯-牛顿迭代法计算运动参数变化量,最终更新运动参数。
4.权利要求1所述的一种基于鲁棒特征跟踪的视觉定位方法,其特征在于,使用RANSIC算法,每次先选取三个特征点匹配对计算位姿矩阵[R T],按照计算出的[R T]对所有特征点进行投影,统计局内点数目,经过多次迭代,以局内点数目最多的一组特征点匹配对作为输入,计算得到精确的R和T。
CN2013102746962A 2013-07-02 2013-07-02 一种基于鲁棒特征跟踪的视觉定位方法 Pending CN103345751A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013102746962A CN103345751A (zh) 2013-07-02 2013-07-02 一种基于鲁棒特征跟踪的视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013102746962A CN103345751A (zh) 2013-07-02 2013-07-02 一种基于鲁棒特征跟踪的视觉定位方法

Publications (1)

Publication Number Publication Date
CN103345751A true CN103345751A (zh) 2013-10-09

Family

ID=49280544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013102746962A Pending CN103345751A (zh) 2013-07-02 2013-07-02 一种基于鲁棒特征跟踪的视觉定位方法

Country Status (1)

Country Link
CN (1) CN103345751A (zh)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102866158A (zh) * 2012-07-24 2013-01-09 华北电力大学 面向隧道巡检的输配电线缆检测方法
CN105021184A (zh) * 2015-07-08 2015-11-04 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN105787962A (zh) * 2016-02-25 2016-07-20 哈尔滨工程大学 一种基于uuv水下回收的单目视觉跟踪方法
CN106052683A (zh) * 2016-05-25 2016-10-26 速感科技(北京)有限公司 机器人运动姿态估计方法
WO2017059581A1 (en) * 2015-10-09 2017-04-13 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
CN107092348A (zh) * 2017-03-20 2017-08-25 重庆邮电大学 一种沉浸式虚拟现实漫游系统中的视觉定位标识布局方法
CN107153831A (zh) * 2017-03-28 2017-09-12 宇龙计算机通信科技(深圳)有限公司 智能终端的定位方法、系统及智能终端
CN107341831A (zh) * 2017-07-06 2017-11-10 青岛海通胜行智能科技有限公司 一种imu辅助的视觉特征鲁棒跟踪方法及装置
CN107735797A (zh) * 2015-06-30 2018-02-23 三菱电机株式会社 用于确定第一坐标系与第二坐标系之间的运动的方法
CN107967691A (zh) * 2016-10-20 2018-04-27 株式会社理光 一种视觉里程计算方法和装置
CN108227920A (zh) * 2017-12-26 2018-06-29 中国人民解放军陆军航空兵学院 运动封闭空间追踪方法及追踪系统
CN108481327A (zh) * 2018-05-31 2018-09-04 珠海市微半导体有限公司 一种增强视觉的定位装置、定位方法及机器人
WO2018182524A1 (en) * 2017-03-29 2018-10-04 Agency For Science, Technology And Research Real time robust localization via visual inertial odometry
CN108665488A (zh) * 2018-04-27 2018-10-16 北京汽车集团有限公司 全局运动估计方法和装置
CN109074664A (zh) * 2017-10-26 2018-12-21 深圳市大疆创新科技有限公司 姿态标定方法、设备及无人飞行器
WO2019062291A1 (zh) * 2017-09-29 2019-04-04 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置
CN110675635A (zh) * 2019-10-09 2020-01-10 北京百度网讯科技有限公司 相机外参的获取方法、装置、电子设备及存储介质
WO2020024182A1 (zh) * 2018-08-01 2020-02-06 深圳市大疆创新科技有限公司 一种参数处理方法、装置及摄像设备、飞行器
WO2020172783A1 (zh) * 2019-02-26 2020-09-03 武汉资联虹康科技股份有限公司 一种用于经颅磁刺激诊疗的人头姿态跟踪系统
CN112085794A (zh) * 2020-09-11 2020-12-15 中德(珠海)人工智能研究院有限公司 空间定位方法及应用该空间定位方法的三维重建方法
CN112313707A (zh) * 2019-08-30 2021-02-02 深圳市大疆创新科技有限公司 跟踪方法和可移动平台
CN112950714A (zh) * 2021-02-25 2021-06-11 深圳市慧鲤科技有限公司 定位方法及装置、电子设备和存储介质
CN112966612A (zh) * 2021-03-10 2021-06-15 广东海洋大学 基于牛顿积分神经动力学的北极海冰遥感图像提取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080144925A1 (en) * 2006-08-15 2008-06-19 Zhiwei Zhu Stereo-Based Visual Odometry Method and System
CN103150728A (zh) * 2013-03-04 2013-06-12 北京邮电大学 一种动态环境中的视觉定位方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080144925A1 (en) * 2006-08-15 2008-06-19 Zhiwei Zhu Stereo-Based Visual Odometry Method and System
CN103150728A (zh) * 2013-03-04 2013-06-12 北京邮电大学 一种动态环境中的视觉定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MYUNG HWANGBO ET AL.: "Gyro-aided feature tracking for a moving camera: fusion, auto-calibration and GPU implementation", 《THE INTERNATIONAL JOURNAL OF ROBOTICS RESEARCH》 *
MYUNG HWANGBO ET AL.: "Inertial-Aided KLT Feature Tracking for a Moving Camera", 《THE 2009 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
夏凌楠等: "基于惯性传感器和视觉里程计的机器人定位", 《仪器仪表学报》 *

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102866158A (zh) * 2012-07-24 2013-01-09 华北电力大学 面向隧道巡检的输配电线缆检测方法
CN102866158B (zh) * 2012-07-24 2014-10-08 华北电力大学 面向隧道巡检的输配电线缆检测方法
CN107735797B (zh) * 2015-06-30 2021-03-19 三菱电机株式会社 用于确定第一坐标系与第二坐标系之间的运动的方法
CN107735797A (zh) * 2015-06-30 2018-02-23 三菱电机株式会社 用于确定第一坐标系与第二坐标系之间的运动的方法
CN105021184B (zh) * 2015-07-08 2017-10-24 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN105021184A (zh) * 2015-07-08 2015-11-04 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计系统及方法
CN108139758A (zh) * 2015-10-09 2018-06-08 深圳市大疆创新科技有限公司 基于显著性特征的载运工具定位
WO2017059581A1 (en) * 2015-10-09 2017-04-13 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
US10599149B2 (en) 2015-10-09 2020-03-24 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
CN105787962A (zh) * 2016-02-25 2016-07-20 哈尔滨工程大学 一种基于uuv水下回收的单目视觉跟踪方法
CN105787962B (zh) * 2016-02-25 2018-10-30 哈尔滨工程大学 一种基于uuv水下回收的单目视觉跟踪方法
CN106052683A (zh) * 2016-05-25 2016-10-26 速感科技(北京)有限公司 机器人运动姿态估计方法
CN107967691B (zh) * 2016-10-20 2021-11-23 株式会社理光 一种视觉里程计算方法和装置
CN107967691A (zh) * 2016-10-20 2018-04-27 株式会社理光 一种视觉里程计算方法和装置
CN107092348B (zh) * 2017-03-20 2020-03-17 重庆邮电大学 一种沉浸式虚拟现实漫游系统中的视觉定位标识布局方法
CN107092348A (zh) * 2017-03-20 2017-08-25 重庆邮电大学 一种沉浸式虚拟现实漫游系统中的视觉定位标识布局方法
CN107153831A (zh) * 2017-03-28 2017-09-12 宇龙计算机通信科技(深圳)有限公司 智能终端的定位方法、系统及智能终端
US11747144B2 (en) 2017-03-29 2023-09-05 Agency For Science, Technology And Research Real time robust localization via visual inertial odometry
WO2018182524A1 (en) * 2017-03-29 2018-10-04 Agency For Science, Technology And Research Real time robust localization via visual inertial odometry
CN107341831A (zh) * 2017-07-06 2017-11-10 青岛海通胜行智能科技有限公司 一种imu辅助的视觉特征鲁棒跟踪方法及装置
CN107341831B (zh) * 2017-07-06 2020-10-27 青岛海通胜行智能科技有限公司 一种imu辅助的视觉特征鲁棒跟踪方法及装置
US10989540B2 (en) 2017-09-29 2021-04-27 Goertek Inc. Binocular vision localization method, device and system
WO2019062291A1 (zh) * 2017-09-29 2019-04-04 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置
CN109074664A (zh) * 2017-10-26 2018-12-21 深圳市大疆创新科技有限公司 姿态标定方法、设备及无人飞行器
CN108227920A (zh) * 2017-12-26 2018-06-29 中国人民解放军陆军航空兵学院 运动封闭空间追踪方法及追踪系统
CN108227920B (zh) * 2017-12-26 2021-05-11 中国人民解放军陆军航空兵学院 运动封闭空间追踪方法及追踪系统
CN108665488A (zh) * 2018-04-27 2018-10-16 北京汽车集团有限公司 全局运动估计方法和装置
CN108481327A (zh) * 2018-05-31 2018-09-04 珠海市微半导体有限公司 一种增强视觉的定位装置、定位方法及机器人
CN108481327B (zh) * 2018-05-31 2023-11-07 珠海一微半导体股份有限公司 一种增强视觉的定位装置、定位方法及机器人
WO2020024182A1 (zh) * 2018-08-01 2020-02-06 深圳市大疆创新科技有限公司 一种参数处理方法、装置及摄像设备、飞行器
WO2020172783A1 (zh) * 2019-02-26 2020-09-03 武汉资联虹康科技股份有限公司 一种用于经颅磁刺激诊疗的人头姿态跟踪系统
CN112313707A (zh) * 2019-08-30 2021-02-02 深圳市大疆创新科技有限公司 跟踪方法和可移动平台
WO2021035703A1 (zh) * 2019-08-30 2021-03-04 深圳市大疆创新科技有限公司 跟踪方法和可移动平台
CN110675635B (zh) * 2019-10-09 2021-08-03 北京百度网讯科技有限公司 相机外参的获取方法、装置、电子设备及存储介质
CN110675635A (zh) * 2019-10-09 2020-01-10 北京百度网讯科技有限公司 相机外参的获取方法、装置、电子设备及存储介质
CN112085794A (zh) * 2020-09-11 2020-12-15 中德(珠海)人工智能研究院有限公司 空间定位方法及应用该空间定位方法的三维重建方法
CN112085794B (zh) * 2020-09-11 2022-05-17 中德(珠海)人工智能研究院有限公司 空间定位方法及应用该空间定位方法的三维重建方法
CN112950714A (zh) * 2021-02-25 2021-06-11 深圳市慧鲤科技有限公司 定位方法及装置、电子设备和存储介质
CN112966612A (zh) * 2021-03-10 2021-06-15 广东海洋大学 基于牛顿积分神经动力学的北极海冰遥感图像提取方法

Similar Documents

Publication Publication Date Title
CN103345751A (zh) 一种基于鲁棒特征跟踪的视觉定位方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam系统
CN109084746B (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
WO2021004312A1 (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9946264B2 (en) Autonomous navigation using visual odometry
Peng et al. Ida-3d: Instance-depth-aware 3d object detection from stereo vision for autonomous driving
CN108648215B (zh) 基于imu的slam运动模糊位姿跟踪算法
CN106920259B (zh) 一种定位方法及系统
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
Oskiper et al. Multi-sensor navigation algorithm using monocular camera, IMU and GPS for large scale augmented reality
WO2017077925A1 (en) Method and system for estimating three-dimensional pose of sensor
CN103150728A (zh) 一种动态环境中的视觉定位方法
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
EP3274964B1 (en) Automatic connection of images using visual features
Krombach et al. Feature-based visual odometry prior for real-time semi-dense stereo SLAM
KR20150144731A (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Sappa et al. An efficient approach to onboard stereo vision system pose estimation
CN110827353B (zh) 一种基于单目摄像头辅助的机器人定位方法
CN103218799A (zh) 用于相机跟踪的方法和设备
CN112418288A (zh) 一种基于gms和运动检测的动态视觉slam方法
CN104864849B (zh) 视觉导航方法和装置以及机器人
CN113012224B (zh) 定位初始化方法和相关装置、设备、存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20131009