CN108242079A - 一种基于多特征视觉里程计和图优化模型的vslam方法 - Google Patents

一种基于多特征视觉里程计和图优化模型的vslam方法 Download PDF

Info

Publication number
CN108242079A
CN108242079A CN201711492119.5A CN201711492119A CN108242079A CN 108242079 A CN108242079 A CN 108242079A CN 201711492119 A CN201711492119 A CN 201711492119A CN 108242079 A CN108242079 A CN 108242079A
Authority
CN
China
Prior art keywords
point
robot
pose
feature
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711492119.5A
Other languages
English (en)
Other versions
CN108242079B (zh
Inventor
贾松敏
丁明超
张国梁
李秀智
张祥银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201711492119.5A priority Critical patent/CN108242079B/zh
Publication of CN108242079A publication Critical patent/CN108242079A/zh
Application granted granted Critical
Publication of CN108242079B publication Critical patent/CN108242079B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多特征视觉里程计和图优化模型的VSLAM方法,属于机器人SLAM领域。该方法首先利用FAST(Features from Accelerated Segment Test)和改进的LSD算法提取彩色图像中的点、线特征,进而使用不同的描述符描述特征,之后进行特征匹配,最后使用改进的NICP(Normal Iterative Closest Point)算法和PnL(Perspective n Line)算法估计机器人初始位姿。对图像提取线特征扩大了算法的应用场景,且得到了较好的机器人初始位姿。随后将多特征视觉里程计表示成贝叶斯网络,在贝叶斯网络基础上得到因子图,并利用最大后验概率估计因子图中机器人的全局位姿,使用高斯‑牛顿法求解最大后验概率得到更新后的位姿图。最后,融合位姿图与相应帧的三维点得到重构的三维地图。

Description

一种基于多特征视觉里程计和图优化模型的VSLAM方法
技术领域
本发明属于机器人SLAM(Simultaneous Localization and Mapping)领域。结合改进的LSD(Line Segment Detector)算法,完成对采集图像中特征线段的提取,尤其涉及一种基于图优化模型的三维地图创建方法。
背景技术
近年来,随着计算机视觉设备及方法的飞速发展,基于视觉的同时定位与地图创建(Visual SLAM)方法被广泛应用在机器人人机交互、无人驾驶、无人机、虚拟现实以及增强现实等诸多领域。VSLAM以图像作为环境感知信息源估计摄像机位姿,通过多视图几何理论重构三维地图。
视觉里程计(Visual Odometry)算法是一种重要的位姿估计方法,仅依靠视觉信息,通过连续配准前后两帧数据获得机器人(相机)的绝对位姿。目前广泛使用图像点特征来配准前后两帧数据。但是,基于点特征的视觉里程计计算量较大,以三维点云作为环境地图描述,精度不高且存储地图所需空间较大。此外,点特征很容易受到光线变化及阴影等环境因素的影响,基于点特征重构的三维地图也不利于后续的场景理解及人机交互等应用。而在结构化的人造环境中,线段特征非常丰富,与点特征相比,其受环境影响较小。线段特征能够很好地刻画环境结构信息,建立更高层次的环境地图,且同时能有效减少特征数量,降低计算复杂度。针对特征的提取与描述计算耗时等问题,近年来出现了基于直接法的视觉里程计,其利用像素梯度变化得到相机位姿,省去了计算特征和描述子的时间,可在特征缺失的场合下使用。但是,当机器人运动较大时,依靠基于梯度搜索的直接法计算获取的机器人位姿可靠性较低,所以直接法只适用于机器人运动较小的场合。此外,基于视觉里程计的VSLAM算法经过长时间帧与帧的配准,得到的机器人位姿会有累积误差。传统消除累积误差的方法通常基于概率框架(如卡尔曼滤波),但其计算量较大且主要应用于中小场景中。本发明在GTSAM(Georgia Tech Smoothing and Mapping)图优化模型下,首先利用点、线特征估计机器人位姿,然后构建基于点、线特征的观测模型,最后建立用特征描述约束的点、线段特征数据关联方法及系统状态更新模型。最终,融合位姿图与相应帧的三维点完成机器人的自主定位与高精度建图。
发明内容
本发明的目的是提供一种准确且高效的图像集三维地图创建方法。
本发明采用如下的技术方案:
为了充分利用人造环境的结构信息和提高机器人在环境纹理特征少或图像模糊等情况下的定位精度,提出了基于多特征的视觉里程计方法。该方法首先利用FAST(Features fromAccelerated Segment Test)和改进的LSD算法提取彩色图像中的点、线特征,进而使用不同的描述符描述特征,之后进行特征匹配,最后使用改进的NICP(NormalIterative Closest Point)算法和PnL(Perspective nLine)算法估计机器人初始位姿。对图像提取线特征扩大了算法的应用场景,且得到了较好的机器人初始位姿。随后将多特征视觉里程计表示成贝叶斯网络,在贝叶斯网络基础上得到因子图,并利用最大后验概率估计因子图中机器人的全局位姿,使用高斯-牛顿法求解最大后验概率得到更新后的位姿图。最后,融合位姿图与相应帧的三维点得到重构的三维地图。
本发明的技术特征如下:
(1)基于多特征的视觉里程计
在环境纹理特征少或图像模糊情况下,提取图像特征点不足以得到机器人的位姿,为此,同时提取人造环境中丰富的线段信息以得到较好的机器人位姿。在提取特征时,首先,建立原始图像的5层高斯金字塔,并在其中选取区域极值点或区域内方向一致的线作为所提特征。然后,利用区域极值点或线邻域内像素构成特征的描述子。其次,根据特征的描述子相似性得到匹配的特征。最后,依据多视图几何理论得出匹配特征的旋转平移矩阵,即机器人位姿。基于多特征的视觉里程计具体包括以下四个步骤:
步骤一,提取图像的点、线特征。采用FAST算法提取特征点。而采用改进的LSD算法检测图像线特征,其算法步骤为:
1)对原始图像进行高斯降采样,长宽缩放为原来的0.8倍;
2)计算每个像素点的梯度值及梯度方向;
3)根据梯度值的大小对所有像素点排序,建立状态列表,所有像素点的状态均设为0即未使用;
4)将状态列表中梯度值小于2的像素点的状态设置为1即被使用;
5)取出状态列表中梯度最大的像素点作为种子点,并设置其状态为1即被使用,并做以下计算:
a)以种子点为起点,搜索周围状态为0且梯度方向为正负22.5度内的点,更改状态为1;
b)生成包含所有满足点的矩形;
c)判断矩形内的点密度是否大于阈值0.7,若不满足则分割原矩形为多个小矩形框,直至满足该条件;
d)计算NFA(Number ofFalseAlarms):
NFA(r)=(NM)5/2γB(n(r),k,g) (1)
其中,r代表计算NFA值的矩形框,N和M是采样后图像的行和列,
γ为改变概率阈值的次数,B(n,k,g)符合二项分布,n(r)为矩形框内像素个数,k为满足矩形主方向阈值内的像素个数,g为概率阈值。
e)改变矩形框使NFA的值更小直至小于阈值1,将矩形框加入输出列表。
步骤二,分别使用BRIEF(Binary Robust Independent Elementary Features)算法、LBD(Line Band Descriptor)算法描述步骤一所提取的点与线特征。
步骤三,计算两帧特征描述符的汉明距离,使用BF(Brute Force)和KNN(KNearestNeighbors)算法获得匹配的特征。根据帧间特征的汉明距离,先利用BF算法进行特征粗匹配,之后使用KNN算法获得特征最终匹配结果。
步骤四,计算帧间位姿。根据匹配的特征集合求出3×3的旋转矩阵R和3×1的位移矢量t,使得对于任意的t存在如式(2)的关系。
pi=Rqi+t(2)
其中,pi,qi代表第i组匹配的三维空间特征。然而,在实际中由于误差的存在,需要通过最小化误差来求解R,t。
其中,N为特征最大匹配数量。最终,位姿表示为4×4的矩阵T。
对于匹配的点特征集合,使用改进的NICP算法求解位姿矩阵T,该算法为每个三维空间特征点增添一个用Lab颜色空间表示的向量,即特征点表示为P=(c e f αL αa αb)T,其中,c,e,f分别为特征点的x,y,z轴坐标值,L表示特征点的亮度,a表示特征点从洋红色至绿色变化的颜色值,b表示特征点从黄色至蓝色变化的颜色值。,α为颜色权重,α的取值范围为0.006≤α≤0.03。第k次迭代后的最佳位姿满足以下关系:
其中,Pm和Qn为第m与n个匹配后用Lab颜色空间约束的三维空间特征点,Ωmn为Pm与Qn之间的6×6信息矩阵,是将Qn进行位姿矩阵T变换的运算符号。
对于匹配的线特征,使用PnL算法,即通过优化直线投影误差来获得机器人位姿。
(2)基于GTSAM模型优化位姿图及创建三维地图
SLAM的本质是根据观测数据,计算机器人的运动轨迹与地图。然而,在现实中,误差影响了机器人的自定位与建图精度。为了消除误差的影响,本方法将VSLAM表示为GTSAM模型下的图优化问题。首先,假设机器人的运动与测量模型服从高斯概率分布,之后将机器人运动与测量过程表示成贝叶斯网络。其次,用因子图表示贝叶斯网络,并且使用最大化后验概率优化因子图,之后,利用高斯-牛顿法求解最大后验概率,并更新位姿图。最后,融合位姿图与三维点形成最终的三维地图。具体优化位姿图及创建三维地图步骤如下:
步骤一,将多特征视觉里程计表示成贝叶斯网络,其网络结点有三种类型:机器人位置点、路标点、观测点。网络边表示结点之间的联系,网络边能够由机器人的运动与观测模型得到。假设多特征视觉里程计运动与测量模型服从高斯概率分布,则得贝叶斯网络概率P的计算公式如式(6)所示。
其中,xt为第t时刻机器人的位置,x0为机器人初始位置,ut为第t时刻机器人运动控制输入量,lk为第h处机器人测量值,zk为第h处机器人实际观测量,P(xt|xt-1,ut)表示机器人由位置xt-1处在ut控制下移动到位置xt的概率,P(zh|xth,lh)表示机器人在位置xth处通过测量值lh获得观测值zh的概率,M,H表示机器人运动时刻及观测点最大值。
步骤二,将贝叶斯网络表示成因子图,图结点为机器人位置点或路标点,路标点与位置点之间的边由观测模型给出,位置点间的边由运动模型给出。
步骤三,利用最大化后验概率估计因子图中机器人的位姿,并使用非线性最小二乘法中的高斯-牛顿法求解最大后验概率,得到更新的位姿图。
步骤四,将更新后的位姿图与相应帧的三维点融合形成较高精度的三维地图。设空间点A(x,y,z)与其已知像素坐标B(u,v,d),则根据针孔相机模型推导可得空间点A(x,y,z)计算公式如式(7)所示。
其中,u,v为像素点的图像坐标值,d为像素点的深度数据,fx,fy表示相机在x,y轴上的焦距,cx,cy表示相机在x,y轴上的光圈中心,s表示深度图的缩放因子。
附图说明
图1基于多特征视觉里程计和图优化模型的VSLAM流程图。
图2图像点、线特征提取与匹配效果示意图。
图3基于多特征视觉里程计和图优化模型的VSLAM实际建图效果示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
本发明针对目前VSLAM算法中存在的图像点特征缺失及估计位姿误差累积的问题,提出了一种基于多特征视觉里程计和图优化模型的VSLAM方法。该方法首先利用FAST和改进的LSD算法提取彩色图像中的点、线特征,进而使用不同的描述符描述特征,之后进行特征匹配,最后使用改进的NICP和PnL算法估计机器人初始位姿。在图像中提取线特征扩大了算法应用场景,且得到了较好的机器人初始位姿。之后将多特征视觉里程计表示成贝叶斯网络,并在贝叶斯网络基础上得到因子图,进而利用最大化后验概率估计因子图中机器人的全局位姿,并使用高斯-牛顿法求解最大化后验概率得到更新后的位姿图。最后,融合位姿图与对应的三维点得到重构的三维地图。所涉及的方法整体流程如附图1所示,具体实施过程分为以下步骤:
步骤一,利用Kinect相机得到环境的彩色与深度图像集。
步骤二,使用FAST算法、改进的LSD算法提取彩色图像中的点与线特征。
步骤三,使用BRIEF算法、LBD算法对提取的点与线特征进行描述,进而得到特征的描述子。
步骤四,先利用BF算法粗匹配提取的特征,之后使用KNN算法得到较精确的匹配特征。
步骤五,使用改进的NICP算法、PnL算法计算匹配的点与线段特征得到机器人初始位姿。
步骤六,在GTSAM图优化模型下优化机器人位姿,得到更新后的位姿图。
步骤七,融合更新后的全局位姿图与相应帧的三维点,得到最终的三维地图。
下面为本发明在VSLAM领域中的一个应用实例。
在实验室环境下对本发明所提方法进行实验验证,实验设备为架设有Kinectv1相机的先锋3机器人移动平台。首先,利用FAST及改进的LSD算法提取彩色图像中的点、线特征。按照上述具体实施步骤得到图像特征的描述符,随后使用BF算法得到两帧图像特征粗匹配结果,最后使用KNN算法得到最终匹配结果。图像点、线特征提取与匹配效果示意图参见说明书附图2。
按照具体实施步骤可以计算得到机器人的初始位姿,之后构建以图像帧空间坐标为节点,帧间估计位姿为边的因子图,并使用高斯-牛顿法求解因子图的最大后验概率得到更新后的机器人全局位姿。最后,融合更新后的位姿图与相应帧的三维点云得到最终的三维地图,完成三维地图创建。对实验室场景使用基于多特征视觉里程计算法和图优化模型的VSLAM方法进行地图创建,所得实际效果示意图参见说明书附图3。

Claims (2)

1.一种基于多特征视觉里程计和图优化模型的VSLAM方法,其特征在于:
为了充分利用人造环境的结构信息和提高机器人在环境纹理特征少或图像模糊等情况下的定位精度,提出了基于多特征的视觉里程计方法。该方法首先利用FAST(FeaturesfromAccelerated Segment Test)和改进的LSD算法提取彩色图像中的点、线特征,进而使用不同的描述符描述特征,之后进行特征匹配,最后使用改进的NICP(Normal IterativeClosest Point)算法和PnL(Perspective n Line)算法估计机器人初始位姿。对图像提取线特征扩大了算法的应用场景,且得到了较好的机器人初始位姿。随后将多特征视觉里程计表示成贝叶斯网络,在贝叶斯网络基础上得到因子图,并利用最大后验概率估计因子图中机器人的全局位姿,使用高斯-牛顿法求解最大后验概率得到更新后的位姿图。最后,融合位姿图与相应帧的三维点得到重构的三维地图。
本方法的实现过程如下:(1)基于多特征的视觉里程计
在环境纹理特征少或图像模糊情况下,提取图像特征点不足以得到机器人的位姿,为此,同时提取人造环境中丰富的线段信息以得到较好的机器人位姿。在提取特征时,首先,建立原始图像的5层高斯金字塔,并在其中选取区域极值点或区域内方向一致的线作为所提特征。然后,利用区域极值点或线邻域内像素构成特征的描述子。其次,根据特征的描述子相似性得到匹配的特征。最后,依据多视图几何理论得出匹配特征的旋转平移矩阵,即机器人位姿。基于多特征的视觉里程计具体包括以下四个步骤:
步骤一,提取图像的点、线特征。采用FAST算法提取特征点。而采用改进的LSD算法检测图像线特征,其算法步骤为:
1)对原始图像进行高斯降采样,长宽缩放为原来的0.8倍;
2)计算每个像素点的梯度值及梯度方向;
3)根据梯度值的大小对所有像素点排序,建立状态列表,所有像素点的状态均设为0即未使用;
4)将状态列表中梯度值小于2的像素点的状态设置为1即被使用;
5)取出状态列表中梯度最大的像素点作为种子点,并设置其状态为1即被使用,并做以下计算:
a)以种子点为起点,搜索周围状态为0且梯度方向为正负22.5度内的点,更改状态为1;
b)生成包含所有满足点的矩形;
c)判断矩形内的点密度是否大于阈值0.7,若不满足则分割原矩形为多个小矩形框,直至满足该条件;
d)计算NFA(Number of False Alarms):
NFA(r)=(NM)5/2γB(n(r),k,g) (1)
其中,r代表计算NFA值的矩形框,N和M是采样后图像的行和列,γ为改变概率阈值的次数,B(n,k,g)符合二项分布,n(r)为矩形框内像素个数,k为满足矩形主方向阈值内的像素个数,g为概率阈值。
e)改变矩形框使NFA的值更小直至小于阈值1,将矩形框加入输出列表。
步骤二,分别使用BRIEF(Binary Robust Independent Elementary Features)算法、LBD(Line Band Descriptor)算法描述步骤一所提取的点与线特征。
步骤三,计算两帧特征描述符的汉明距离,使用BF(Brute Force)和KNN(K NearestNeighbors)算法获得匹配的特征。根据帧间特征的汉明距离,先利用BF算法进行特征粗匹配,之后使用KNN算法获得特征最终匹配结果。
步骤四,计算帧间位姿。根据匹配的特征集合求出3×3的旋转矩阵R和3×1的位移矢量t,使得对于任意的t存在如式(2)的关系。
pi=Rqi+t (2)
其中,pi,qi代表第i组匹配的三维空间特征。然而,在实际中由于误差的存在,需要通过最小化误差来求解R,t。
其中,N为特征最大匹配数量。最终,位姿表示为4×4的矩阵T。
对于匹配的点特征集合,使用改进的NICP算法求解位姿矩阵T,该算法为每个三维空间特征点增添一个用Lab颜色空间表示的向量,即特征点表示为P=(c e f αL αa αb)T,其中,c,e,f分别为特征点的x,y,z轴坐标值,L表示特征点的亮度,a表示特征点从洋红色至绿色变化的颜色值,b表示特征点从黄色至蓝色变化的颜色值。,α为颜色权重,α的取值范围为0.006≤α≤0.03。第k次迭代后的最佳位姿满足以下关系:
其中,Pm和Qn为第m与n个匹配后用Lab颜色空间约束的三维空间特征点,Ωmn为Pm与Qn之间的6×6信息矩阵,是将Qn进行位姿矩阵T变换的运算符号。
对于匹配的线特征,使用PnL算法,即通过优化直线投影误差来获得机器人位姿。
(2)基于GTSAM模型优化位姿图及创建三维地图
SLAM的本质是根据观测数据,计算机器人的运动轨迹与地图。然而,在现实中,误差影响了机器人的自定位与建图精度。为了消除误差的影响,本方法将VSLAM表示为GTSAM模型下的图优化问题。首先,假设机器人的运动与测量模型服从高斯概率分布,之后将机器人运动与测量过程表示成贝叶斯网络。其次,用因子图表示贝叶斯网络,并且使用最大化后验概率优化因子图,之后,利用高斯-牛顿法求解最大后验概率,并更新位姿图。最后,融合位姿图与三维点形成最终的三维地图。
2.根据权利要求1所述的一种基于多特征视觉里程计和图优化模型的VSLAM方法,其特征在于:
具体优化位姿图及创建三维地图步骤如下,
步骤一,将多特征视觉里程计表示成贝叶斯网络,其网络结点有三种类型:机器人位置点、路标点、观测点。网络边表示结点之间的联系,网络边能够由机器人的运动与观测模型得到。假设多特征视觉里程计运动与测量模型服从高斯概率分布,则得贝叶斯网络概率P的计算公式如式(6)所示。
其中,xt为第t时刻机器人的位置,x0为机器人初始位置,ut为第t时刻机器人运动控制输入量,lk为第h处机器人测量值,zk为第h处机器人实际观测量,P(xt|xt-1,ut)表示机器人由位置xt-1处在ut控制下移动到位置xt的概率,P(zh|xth,lh)表示机器人在位置xth处通过测量值lh获得观测值zh的概率,M,H表示机器人运动时刻及观测点最大值。
步骤二,将贝叶斯网络表示成因子图,图结点为机器人位置点或路标点,路标点与位置点之间的边由观测模型给出,位置点间的边由运动模型给出。
步骤三,利用最大化后验概率估计因子图中机器人的位姿,并使用非线性最小二乘法中的高斯-牛顿法求解最大后验概率,得到更新的位姿图。
步骤四,将更新后的位姿图与相应帧的三维点融合形成较高精度的三维地图。设空间点A(x,y,z)与其已知像素坐标B(u,v,d),则根据针孔相机模型推导可得空间点A(x,y,z)计算公式如式(7)所示。
其中,u,v为像素点的图像坐标值,d为像素点的深度数据,fx,fy表示相机在x,y轴上的焦距,cx,cy表示相机在x,y轴上的光圈中心,s表示深度图的缩放因子。
CN201711492119.5A 2017-12-30 2017-12-30 一种基于多特征视觉里程计和图优化模型的vslam方法 Active CN108242079B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711492119.5A CN108242079B (zh) 2017-12-30 2017-12-30 一种基于多特征视觉里程计和图优化模型的vslam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711492119.5A CN108242079B (zh) 2017-12-30 2017-12-30 一种基于多特征视觉里程计和图优化模型的vslam方法

Publications (2)

Publication Number Publication Date
CN108242079A true CN108242079A (zh) 2018-07-03
CN108242079B CN108242079B (zh) 2021-06-25

Family

ID=62698393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711492119.5A Active CN108242079B (zh) 2017-12-30 2017-12-30 一种基于多特征视觉里程计和图优化模型的vslam方法

Country Status (1)

Country Link
CN (1) CN108242079B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087393A (zh) * 2018-07-23 2018-12-25 汕头大学 一种构建三维地图的方法
CN109166149A (zh) * 2018-08-13 2019-01-08 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109345578A (zh) * 2018-10-15 2019-02-15 深圳步智造科技有限公司 基于贝叶斯优化的点云配准方法、系统及可读存储介质
CN109443320A (zh) * 2019-01-10 2019-03-08 轻客小觅智能科技(北京)有限公司 基于直接法和线特征的双目视觉里程计及测量方法
CN109493384A (zh) * 2018-09-20 2019-03-19 顺丰科技有限公司 相机位姿估计方法、系统、设备及存储介质
CN109523595A (zh) * 2018-11-21 2019-03-26 南京链和科技有限公司 一种建筑工程直线棱角间距视觉测量方法
CN109977907A (zh) * 2019-04-04 2019-07-05 厦门商集网络科技有限责任公司 基于票据识别的费用报销方法及其系统
CN110044358A (zh) * 2019-04-29 2019-07-23 清华大学 基于现场场线特征的移动机器人定位方法
CN110163902A (zh) * 2019-05-10 2019-08-23 北京航空航天大学 一种基于因子图的逆深度估计方法
CN110189366A (zh) * 2019-04-17 2019-08-30 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN110260866A (zh) * 2019-07-19 2019-09-20 闪电(昆山)智能科技有限公司 一种基于视觉传感器的机器人定位与避障方法
CN110428461A (zh) * 2019-07-30 2019-11-08 清华大学 结合深度学习的单目slam方法及装置
CN110782494A (zh) * 2019-10-16 2020-02-11 北京工业大学 一种基于点线融合的视觉slam方法
CN111260725A (zh) * 2020-01-15 2020-06-09 浙江大学 一种面向动态环境的轮速计辅助的视觉里程计方法
CN111461141A (zh) * 2020-03-30 2020-07-28 歌尔科技有限公司 一种设备位姿计算方法装置及设备
CN111578959A (zh) * 2020-05-19 2020-08-25 鲲鹏通讯(昆山)有限公司 一种基于改进Hector SLAM算法的未知环境自主定位方法
CN112070175A (zh) * 2020-09-04 2020-12-11 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
CN112087728A (zh) * 2020-07-21 2020-12-15 华为技术有限公司 获取Wi-Fi指纹空间分布的方法、装置和电子设备
CN112612034A (zh) * 2020-12-24 2021-04-06 哈尔滨工业大学芜湖机器人产业技术研究院 基于激光帧和概率地图扫描的位姿匹配方法
CN112907580A (zh) * 2021-03-26 2021-06-04 东南大学 一种应用于弱纹理场景下的综合点线特征的图像特征提取和匹配算法
CN113822996A (zh) * 2021-11-22 2021-12-21 之江实验室 机器人的位姿估计方法及装置、电子设备、存储介质
WO2023273057A1 (zh) * 2021-06-30 2023-01-05 深圳市优必选科技股份有限公司 一种机器人定位方法、装置、机器人及存储介质
CN112070175B (zh) * 2020-09-04 2024-06-07 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247075A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于变分机制的室内环境三维重建方法
CN105606104A (zh) * 2016-03-17 2016-05-25 北京工业大学 基于航向辅助分布式slam的机器人自主导航方法
CN105737832A (zh) * 2016-03-22 2016-07-06 北京工业大学 基于全局最优数据融合的分布式slam方法
WO2016162568A1 (en) * 2015-04-10 2016-10-13 The European Atomic Energy Community (Euratom), Represented By The European Commission Method and device for real-time mapping and localization
US20170064287A1 (en) * 2015-08-24 2017-03-02 Itseez3D, Inc. Fast algorithm for online calibration of rgb-d camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247075A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于变分机制的室内环境三维重建方法
WO2016162568A1 (en) * 2015-04-10 2016-10-13 The European Atomic Energy Community (Euratom), Represented By The European Commission Method and device for real-time mapping and localization
US20170064287A1 (en) * 2015-08-24 2017-03-02 Itseez3D, Inc. Fast algorithm for online calibration of rgb-d camera
CN105606104A (zh) * 2016-03-17 2016-05-25 北京工业大学 基于航向辅助分布式slam的机器人自主导航方法
CN105737832A (zh) * 2016-03-22 2016-07-06 北京工业大学 基于全局最优数据融合的分布式slam方法

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087393A (zh) * 2018-07-23 2018-12-25 汕头大学 一种构建三维地图的方法
CN109166149A (zh) * 2018-08-13 2019-01-08 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109166149B (zh) * 2018-08-13 2021-04-02 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109493384B (zh) * 2018-09-20 2021-03-09 顺丰科技有限公司 相机位姿估计方法、系统、设备及存储介质
CN109493384A (zh) * 2018-09-20 2019-03-19 顺丰科技有限公司 相机位姿估计方法、系统、设备及存储介质
CN109345578A (zh) * 2018-10-15 2019-02-15 深圳步智造科技有限公司 基于贝叶斯优化的点云配准方法、系统及可读存储介质
CN109523595A (zh) * 2018-11-21 2019-03-26 南京链和科技有限公司 一种建筑工程直线棱角间距视觉测量方法
CN109523595B (zh) * 2018-11-21 2023-07-18 南京链和科技有限公司 一种建筑工程直线棱角间距视觉测量方法
CN109443320A (zh) * 2019-01-10 2019-03-08 轻客小觅智能科技(北京)有限公司 基于直接法和线特征的双目视觉里程计及测量方法
CN109977907A (zh) * 2019-04-04 2019-07-05 厦门商集网络科技有限责任公司 基于票据识别的费用报销方法及其系统
CN109977907B (zh) * 2019-04-04 2021-08-27 厦门商集网络科技有限责任公司 基于票据识别的费用报销方法及其系统
CN110189366A (zh) * 2019-04-17 2019-08-30 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN110189366B (zh) * 2019-04-17 2021-07-06 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN110044358A (zh) * 2019-04-29 2019-07-23 清华大学 基于现场场线特征的移动机器人定位方法
CN110163902A (zh) * 2019-05-10 2019-08-23 北京航空航天大学 一种基于因子图的逆深度估计方法
CN110163902B (zh) * 2019-05-10 2021-05-04 北京航空航天大学 一种基于因子图的逆深度估计方法
CN110260866A (zh) * 2019-07-19 2019-09-20 闪电(昆山)智能科技有限公司 一种基于视觉传感器的机器人定位与避障方法
CN110428461A (zh) * 2019-07-30 2019-11-08 清华大学 结合深度学习的单目slam方法及装置
CN110428461B (zh) * 2019-07-30 2022-07-05 清华大学 结合深度学习的单目slam方法及装置
CN110782494A (zh) * 2019-10-16 2020-02-11 北京工业大学 一种基于点线融合的视觉slam方法
CN111260725A (zh) * 2020-01-15 2020-06-09 浙江大学 一种面向动态环境的轮速计辅助的视觉里程计方法
CN111260725B (zh) * 2020-01-15 2022-04-19 浙江大学 一种面向动态环境的轮速计辅助的视觉里程计方法
CN111461141A (zh) * 2020-03-30 2020-07-28 歌尔科技有限公司 一种设备位姿计算方法装置及设备
CN111461141B (zh) * 2020-03-30 2023-08-29 歌尔科技有限公司 一种设备位姿计算方法装置及设备
CN111578959B (zh) * 2020-05-19 2023-12-29 鲲鹏通讯(昆山)有限公司 一种基于改进Hector SLAM算法的未知环境自主定位方法
CN111578959A (zh) * 2020-05-19 2020-08-25 鲲鹏通讯(昆山)有限公司 一种基于改进Hector SLAM算法的未知环境自主定位方法
CN112087728A (zh) * 2020-07-21 2020-12-15 华为技术有限公司 获取Wi-Fi指纹空间分布的方法、装置和电子设备
CN112087728B (zh) * 2020-07-21 2022-01-14 华为技术有限公司 获取Wi-Fi指纹空间分布的方法、装置和电子设备
CN112070175A (zh) * 2020-09-04 2020-12-11 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
CN112070175B (zh) * 2020-09-04 2024-06-07 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
CN112612034B (zh) * 2020-12-24 2023-10-13 长三角哈特机器人产业技术研究院 基于激光帧和概率地图扫描的位姿匹配方法
CN112612034A (zh) * 2020-12-24 2021-04-06 哈尔滨工业大学芜湖机器人产业技术研究院 基于激光帧和概率地图扫描的位姿匹配方法
CN112907580A (zh) * 2021-03-26 2021-06-04 东南大学 一种应用于弱纹理场景下的综合点线特征的图像特征提取和匹配算法
CN112907580B (zh) * 2021-03-26 2024-04-19 东南大学 一种应用于弱纹理场景下的综合点线特征的图像特征提取和匹配算法
WO2023273057A1 (zh) * 2021-06-30 2023-01-05 深圳市优必选科技股份有限公司 一种机器人定位方法、装置、机器人及存储介质
CN113822996A (zh) * 2021-11-22 2021-12-21 之江实验室 机器人的位姿估计方法及装置、电子设备、存储介质

Also Published As

Publication number Publication date
CN108242079B (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
CN108242079A (zh) 一种基于多特征视觉里程计和图优化模型的vslam方法
CN110956651B (zh) 一种基于视觉和振动触觉融合的地形语义感知方法
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
Wang et al. Learning depth from monocular videos using direct methods
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
CN109631855B (zh) 基于orb-slam的高精度车辆定位方法
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN109307508A (zh) 一种基于多关键帧的全景惯导slam方法
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
CN109544636A (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN108682027A (zh) 基于点、线特征融合的vSLAM实现方法及系统
CN110108258A (zh) 一种单目视觉里程计定位方法
CN111899280B (zh) 采用深度学习和混合型位姿估计的单目视觉里程计方法
CN108615246A (zh) 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法
CN112053447A (zh) 一种增强现实三维注册方法及装置
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
Peng et al. Globally-optimal contrast maximisation for event cameras
Wen et al. Hybrid semi-dense 3D semantic-topological mapping from stereo visual-inertial odometry SLAM with loop closure detection
Budvytis et al. Large scale joint semantic re-localisation and scene understanding via globally unique instance coordinate regression
CN110070578B (zh) 一种回环检测方法
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN113361499A (zh) 基于二维纹理和三维姿态融合的局部对象提取方法、装置
CN104463962B (zh) 基于gps信息视频的三维场景重建方法
Jo et al. Mixture density-PoseNet and its application to monocular camera-based global localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant