CN112652020B - 一种基于AdaLAM算法的视觉SLAM方法 - Google Patents
一种基于AdaLAM算法的视觉SLAM方法 Download PDFInfo
- Publication number
- CN112652020B CN112652020B CN202011538205.7A CN202011538205A CN112652020B CN 112652020 B CN112652020 B CN 112652020B CN 202011538205 A CN202011538205 A CN 202011538205A CN 112652020 B CN112652020 B CN 112652020B
- Authority
- CN
- China
- Prior art keywords
- algorithm
- matching
- point
- adalam
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000000007 visual effect Effects 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 230000033001 locomotion Effects 0.000 claims abstract description 9
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 7
- 230000008859 change Effects 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims abstract description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 3
- 238000013341 scale-up Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000009827 uniform distribution Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 4
- 238000005286 illumination Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于AdaLAM算法的视觉SLAM方法,包括步骤A:通过相机采集视频或图像;步骤B:计算机对图像进行读取,并对图像的大小和分辨率预处理以满足后期的图像处理;步骤C:利用AdaLAM算法对图像中的特征进行提取并进行匹配;步骤D:利用PnP算法对相机运动位姿进行求解;步骤E:将计算结果交给g2o进行非线性优化;步骤F:根据优化结果建立环境稀疏地图;步骤G:回环检测贯穿于整个过程中。本发明将改进后的AdaLAM算法与视觉SLAM相结合,将其用于前端的特征提取和匹配,该算法能够作为一种快速而又准确的外点过滤器,有效提高系统在纹理稀疏、光照变化、物体移动等场景跟踪定位的实时性、准确性与鲁棒性。
Description
技术领域
本发明涉及计算机视觉和移动机器人定位技术领域,特别涉及一种基于AdaLAM算法的视觉SLAM方法。
背景技术
机器人如何在无法借助其他定位系统(如全球定位系统)的情况下,对未知环境进行探测与地图构建具有重要的现实意义,例如灾难现场、深空探测、甚至水下或战场环境等。视觉同时定位与建图(Visual Simultaneous Localization and Mapping,VSLAM)技术为此提供了一种有效手段,也成为了自主机器人的研究热点问题之一。
VSLAM问题可以描述为:机器人在没有先验信息的条件下,以初始状态为位姿坐标起点,通过搭载的视觉传感器对外部环境进行探测,并结合自身初始位姿的估计值进行后续运动状态的计算,最后根据任务要求建立相应的全局环境地图。
然而基于特征点的传统VSLAM算法在特征提取与匹配环节存在准确度低、鲁棒性低且时延高等问题,经常出现误提取、误匹配,使得VSLAM技术不能完成精准定位,特别是在一些纹理稀疏、物体移动等场景往往发生跟踪失败的情况。
为了应对上述问题,目前急需一种实时性好、精度高、鲁棒性好的基于特征点法的视觉SLAM方法
发明内容
为了克服现有技术中的不足,本发明提供一种基于AdaLAM算法的视觉SLAM方法。
为了达到上述发明目的,解决其技术问题所采用的技术方案如下:
一种基于AdaLAM算法的视觉SLAM方法,包括以下步骤:
步骤A:通过相机采集视频或图像;
步骤B:计算机对图像进行读取,并对图像的大小和分辨率预处理以满足后期的图像处理;
步骤C:利用AdaLAM算法对图像中的特征进行提取并进行匹配;
步骤D:利用PnP算法对相机运动位姿进行求解;
步骤E:将计算结果交给g2o进行非线性优化;
步骤F:根据优化结果建立环境稀疏地图;
步骤G:回环检测贯穿于整个过程中。
进一步的,步骤A中通过单目RGB相机进行采集信号,若采集的是视频素材,则将其分解为图像帧的形式来处理。
进一步的,步骤B中先将RGB图像转换为灰度图像,再将图像分辨率调整为640×480。
进一步的,步骤C中利用AdaLAM算法对图像特征点进行提取和匹配的具体方法为:
步骤C1:根据最近邻算法从相邻两帧图像之间找到所有初始匹配点集M;
步骤C2:在初始匹配集M中挑选有限数量的置信度高且分布较好的匹配点作为种子点集
步骤C3:分别以这些种子点为圆心设定圆形区域,在第i个邻域内寻找可以支持第i号种子点匹配的初始匹配点集集合Ni中的匹配对必须满足以下约束关系:
其中,任意匹配对(p1,p2)=((x1,d1,σ1,α1),(x2,d2,σ2,α2))∈M,x为点坐标,d为特征描述子,σ为尺度因子,α为缩放因子,α=α2-α1为旋转变换角度,为尺度变换比例,为第i号种子点;
步骤C4:基于局部仿射变换假设,使用RANSAC算法对最小点集采样,并迭代j次去拟合由第i号种子点Si得到的仿射矩阵然后滤除匹配集Ni中置信度低的匹配对,匹配点对/>产生的残差为:
并将残差集合R内的rk映射为置信度ck:
其中,正样本计数P=|l:rl≤rk|为假定匹配点k是最差内点的内点数量,Ho为具有均匀分布的外点对应关系的假设,为P在该假设下的期望,R2为在第二幅图像中的采样半径;
当置信度大于设定阈值,表示该模型对该匹配关系拟合的较好,视该匹配被视为内点,否则为外点。
进一步的,所述种子点选取的具体方法为:将检比法得到的最优次优比作为匹配点的匹配置信度,选择那些在半径内匹配置信度最大的点作为种子点,由于每个匹配点都是独立的,此时采用GPU对该过程进行并行加速。
进一步的,所述利用RANSAC算法对最小点集采样并迭代的具体方法为:每次迭代需要更新残差rk和置信度ck以及内点集Ni,后一次利用前一次得到的内点去拟合新的仿射矩阵,然后做校验,直至达到最大迭代次数,最后输出内点。
进一步的,步骤D中所述利用PnP算法的具体求解方法:通过将PnP问题构建成一个关于重投影误差的非线性最小二乘问题来求解。
进一步的,所述的非线性最小二乘问题的具体表达式为:
其中,T为相机位姿的李群表示,Pi=[Xi,Yi,Zi]T为点pi在世界坐标系下的坐标,ui=[ui,vi]T为点pi在像素坐标系下的坐标,K为相机的内参矩阵,si为点pi的深度。
进一步的,步骤E中所述的后端利用g2o实现非线性优化的具体方法:采用高斯牛顿法来求解非线性问题,并利用Schur消元法和Huber核函数提高求解的速度和鲁棒性。
进一步的,所述Huber核函数的具体形式为:
其中,e为误差,δ为阈值。
进一步的,步骤F中所述的稀疏地图建立的具体方法:利用路标点建立稀疏点云地图。
进一步的,所述稀疏点云地图的具体方法:将前端匹配到的正确特征点全部逆投影至三维全局地图中,构建稀疏路标地图。
进一步的,步骤G中所述回环检测的具体方法:利用DBoW模型进行回环检测。
进一步的,所述DBoW模型的具体形式:
步骤G1:利用K叉树来表达词典的结构;
步骤G2:利用TF-IDF算法来计算单词之间的相似度;
步骤G3:设立回环缓存机制来验证回环检测的正确性。
进一步的,步骤G3中所述的回环缓存机制的具体方法:单次检测到的回环并不能确定为正确回环,必须在一段时间内持续检测到回环才能验证为是正确回环。
本发明由于采用以上技术方案,使之与现有技术相比,具有以下的优点和积极效果:
本发明将改进后的AdaLAM算法与视觉SLAM相结合,将其用于前端的特征提取和匹配。该算法可视为一种快速而又准确的外点过滤器,相比于其他算法(如GMS算法),能够有效提高系统在纹理稀疏、光照变化、物体移动等场景跟踪定位的实时性、准确性与鲁棒性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图中:
图1为本发明的系统框架图;
图2为AdaLAM算法流程图;
图3为PnP的批量图优化示意图;
图4为AdaLAM算法的实例效果图;
图5为GMS算法的实例效果图;
图6为本发明的位姿图优化实际运行效果图;
图7为本发明建立的稀疏点云地图。
具体实施方式
以下将结合本发明的附图,对本发明实施例中的技术方案进行清楚、完整的描述和讨论,显然,这里所描述的仅仅是本发明的一部分实例,并不是全部的实例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
为解决基于特征点法的视觉SLAM在快速运动过程中出现相机跟踪失败等问题,提出了一种基于AdaLAM算法的视觉SLAM方法。该方法将改进后的AdaLAM算法与视觉SLAM相结合,将其用于前端的特征提取和匹配。该算法可视为一种快速而又准确的外点过滤器,相比于其他算法(如GMS算法),能够有效提高系统在纹理稀疏、光照变化、物体移动等场景跟踪定位的实时性、准确性与鲁棒性。
如图1所示,本实施例公开了一种基于AdaLAM(Adaptive Locally-AffineMatching,自适应局部仿射匹配)算法的视觉SLAM方法,包括以下步骤:
步骤A:通过相机采集视频或图像;
进一步的,步骤A中通过单目RGB相机进行采集信号,若采集的是视频素材,则将其分解为图像帧的形式来处理。
步骤B:计算机对图像进行读取,并对图像的大小和分辨率预处理以满足后期的图像处理;
进一步的,步骤B中先将RGB图像转换为灰度图像,再将图像分辨率调整为640×480。
步骤C:利用AdaLAM算法对图像中的特征进行提取并进行匹配;
进一步的,步骤C中的AdaLAM算法的流程图如图2所示,具体步骤如下:
步骤C1:根据最近邻算法从相邻两帧图像之间找到所有初始匹配点集M;
步骤C2:在初始匹配集M中挑选有限数量的置信度高且分布较好的匹配点作为种子点集
步骤C3:分别以这些种子点为圆心设定圆形区域,在第i个邻域内寻找可以支持第i号种子点匹配的初始匹配点集集合Ni中的匹配对必须满足以下约束关系:
其中,任意匹配对(p1,p2)=((x1,d1,σ1,α1),(x2,d2,σ2,α2))∈M,x为点坐标,d为特征描述子,σ为尺度因子,α为缩放因子,α=α2-α1为旋转变换角度,为尺度变换比例,为第i号种子点;
步骤C4:基于局部仿射变换假设,使用RANSAC算法对最小点集采样,并迭代j次去拟合由第i号种子点Si得到的仿射矩阵然后滤除匹配集Ni中置信度低的匹配对,匹配点对/>产生的残差为:
并将残差集合R内的rk映射为置信度ck:
其中,正样本计数P=|l:rl≤rk|为假定匹配点k是最差内点的内点数量,Ho为具有均匀分布的外点对应关系的假设,为P在该假设下的期望,R2为在第二幅图像中的采样半径;
当置信度大于设定阈值,表示该模型对该匹配关系拟合的较好,视该匹配被视为内点,否则为外点。
其中,所述种子点选取的具体方法为:将检比法(ratio-test)得到的最优次优比作为匹配点的匹配置信度,选择那些在半径内匹配置信度最大的点作为种子点,由于每个匹配点都是独立的,此时采用GPU对该过程进行并行加速。
其中,所述利用RANSAC算法对最小点集采样并迭代的具体方法为:每次迭代需要更新残差rk和置信度ck以及内点集Ni,后一次利用前一次得到的内点去拟合新的仿射矩阵,然后做校验,直至达到最大迭代次数,最后输出内点。
AdaLAM算法与GMS算法在特征匹配上的实际效果如图4和5所示,可以很明显的看出GMS算法在图像右侧存在许多错误匹配,这表明AdaLAM算法具有很高的精度和鲁棒性。
步骤D:利用PnP算法对相机运动位姿进行求解;
进一步的,步骤D中所述利用PnP算法的具体求解方法:通过将PnP问题构建成一个关于重投影误差的非线性最小二乘问题来求解,本方法的PnP求解位姿示意图可见图3。
所述的非线性最小二乘问题的具体表达式为:
其中,T为相机位姿的李群表示,Pi=[Xi,Yi,Zi]T为点pi在世界坐标系下的坐标,ui=[ui,vi]T为点pi在像素坐标系下的坐标,K为相机的内参矩阵,si为点pi的深度。
本方法利用g2o作位姿图优化的实际效果可见图6。
步骤E:将计算结果交给g2o进行非线性优化;
进一步的,步骤E中所述的后端利用g2o实现非线性优化的具体方法:采用高斯牛顿法来求解非线性问题,并利用Schur消元法和Huber核函数提高求解的速度和鲁棒性。
进一步的,所述Huber核函数的具体形式为:
其中,e为误差,δ为阈值。
步骤F:根据优化结果建立环境稀疏地图;
进一步的,步骤F中所述的稀疏地图建立的具体方法:利用路标点建立稀疏点云地图。
其中,所述稀疏点云地图的具体方法:将前端匹配到的正确特征点(路标点)全部逆投影至三维全局地图中,构建稀疏路标地图。
本方法建立环境稀疏点云地图的实际效果可见图7。
步骤G:回环检测贯穿于整个过程中。
进一步的,步骤G中所述回环检测的具体方法:利用DBoW模型进行回环检测。
其中,所述DBoW模型的具体形式:
步骤G1:利用K叉树来表达词典的结构;
步骤G2:利用TF-IDF(Term Frequency-Inverse Document Frequency,词频-逆文本频率指数)算法来计算单词之间的相似度;
步骤G3:设立回环缓存机制来验证回环检测的正确性。
进一步的,步骤G3中所述的回环缓存机制的具体方法:单次检测到的回环并不能确定为正确回环,必须在一段时间内持续检测到回环才能验证为是正确回环。
上述方法的公式参数具体设置如下:
1)种子点选择的半径R设置为非最大抑制圆的面积和图像的面积之间的固定比率ro,具体公式如下:
其中,通常将ro=100;w,h为图像的宽度和高度;
2)设置比例λ=4;
3)RANSAC的迭代次数固定为128次;
4)尺度和缩放因子的阈值设定为tσ=1.5,tα=30°。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (12)
1.一种基于AdaLAM算法的视觉SLAM方法,其特征在于,包括以下步骤:
步骤A:通过相机采集视频或图像;
步骤B:计算机对图像进行读取,并对图像的大小和分辨率预处理以满足后期的图像处理;
步骤C:利用AdaLAM算法对图像中的特征进行提取并进行匹配;
步骤C中利用AdaLAM算法对图像特征点进行提取和匹配的具体方法为:
步骤C1:根据最近邻算法从相邻两帧图像之间找到所有初始匹配点集M;
步骤C2:在初始匹配集M中挑选有限数量的置信度高且分布较好的匹配点作为种子点集
步骤C3:分别以这些种子点为圆心设定圆形区域,在第i个邻域内寻找可以支持第i号种子点匹配的初始匹配点集集合Ni中的匹配对必须满足以下约束关系:
其中,任意匹配对(p1,p2)=((x1,d1,σ1,α1),(x2,d2,σ2,α2))∈M,x为点坐标,d为特征描述子,σ为尺度因子,α为缩放因子,α=α2-α1为旋转变换角度,为尺度变换比例,为第i号种子点;
步骤C4:基于局部仿射变换假设,使用RANSAC算法对最小点集采样,并迭代j次去拟合由第i号种子点Si得到的仿射矩阵然后滤除匹配集Ni中置信度低的匹配对,匹配点对/>产生的残差为:
并将残差集合R内的rk映射为置信度ck:
其中,正样本计数P=|l:rl≤rk|为假定匹配点k是最差内点的内点数量,Ho为具有均匀分布的外点对应关系的假设,为P在该假设下的期望,R2为在第二幅图像中的采样半径;
当置信度大于设定阈值,表示该模型对该匹配关系拟合的较好,视该匹配被视为内点,否则为外点;
所述种子点选取的具体方法为:将检比法得到的最优次优比作为匹配点的匹配置信度,选择那些在半径内匹配置信度最大的点作为种子点,由于每个匹配点都是独立的,此时采用GPU对该过程进行并行加速;
所述利用RANSAC算法对最小点集采样并迭代的具体方法为:每次迭代需要更新残差rk和置信度ck以及内点集Ni,后一次利用前一次得到的内点去拟合新的仿射矩阵,然后做校验,直至达到最大迭代次数,最后输出内点;
步骤D:利用PnP算法对相机运动位姿进行求解;
步骤E:将计算结果交给g2o进行非线性优化;
步骤F:根据优化结果建立环境稀疏地图;
步骤G:回环检测贯穿于整个过程中。
2.根据权利要求1所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤A中通过单目RGB相机进行采集信号,若采集的是视频素材,则将其分解为图像帧的形式来处理。
3.根据权利要求1所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤B中先将RGB图像转换为灰度图像,再将图像分辨率调整为640×480。
4.根据权利要求1所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤D中所述利用PnP算法的具体求解方法:通过将PnP问题构建成一个关于重投影误差的非线性最小二乘问题来求解。
5.根据权利要求4所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,所述的非线性最小二乘问题的具体表达式为:
其中,T为相机位姿的李群表示,Pi=[Xi,Yi,Zi]T为点pi在世界坐标系下的坐标,ui=[ui,vi]T为点pi在像素坐标系下的坐标,K为相机的内参矩阵,si为点pi的深度。
6.根据权利要求1所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤E中所述的后端利用g2o实现非线性优化的具体方法:采用高斯牛顿法来求解非线性问题,并利用Schur消元法和Huber核函数提高求解的速度和鲁棒性。
7.根据权利要求6所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,所述Huber核函数的具体形式为:
其中,e为误差,δ为阈值。
8.根据权利要求1所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤F中所述的稀疏地图建立的具体方法:利用路标点建立稀疏点云地图。
9.根据权利要求8所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,所述稀疏点云地图的具体方法:将前端匹配到的正确特征点全部逆投影至三维全局地图中,构建稀疏路标地图。
10.根据权利要求1所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤G中所述回环检测的具体方法:利用DBoW模型进行回环检测。
11.根据权利要求10所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,所述DBoW模型的具体形式:
步骤G1:利用K叉树来表达词典的结构;
步骤G2:利用TF-IDF算法来计算单词之间的相似度;
步骤G3:设立回环缓存机制来验证回环检测的正确性。
12.根据权利要求11所述的一种基于AdaLAM算法的视觉SLAM方法,其特征在于,步骤G3中所述的回环缓存机制的具体方法:单次检测到的回环并不能确定为正确回环,必须在一段时间内持续检测到回环才能验证为是正确回环。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011538205.7A CN112652020B (zh) | 2020-12-23 | 2020-12-23 | 一种基于AdaLAM算法的视觉SLAM方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011538205.7A CN112652020B (zh) | 2020-12-23 | 2020-12-23 | 一种基于AdaLAM算法的视觉SLAM方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112652020A CN112652020A (zh) | 2021-04-13 |
CN112652020B true CN112652020B (zh) | 2024-01-30 |
Family
ID=75359481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011538205.7A Active CN112652020B (zh) | 2020-12-23 | 2020-12-23 | 一种基于AdaLAM算法的视觉SLAM方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112652020B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298146A (zh) * | 2021-05-25 | 2021-08-24 | 上海海洋大学 | 一种基于特征检测的图像匹配方法、装置、设备及介质 |
CN113744236B (zh) * | 2021-08-30 | 2024-05-24 | 阿里巴巴达摩院(杭州)科技有限公司 | 回环检测方法、装置、存储介质及计算机程序产品 |
CN116823949B (zh) * | 2023-06-13 | 2023-12-01 | 武汉天进科技有限公司 | 一种小型化无人机机载实时图像处理装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108303099A (zh) * | 2018-06-14 | 2018-07-20 | 江苏中科院智能科学技术应用研究院 | 基于三维视觉slam的无人机室内自主导航方法 |
CN110108258A (zh) * | 2019-04-09 | 2019-08-09 | 南京航空航天大学 | 一种单目视觉里程计定位方法 |
WO2020000395A1 (en) * | 2018-06-29 | 2020-01-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Systems and methods for robust self-relocalization in pre-built visual map |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
-
2020
- 2020-12-23 CN CN202011538205.7A patent/CN112652020B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108303099A (zh) * | 2018-06-14 | 2018-07-20 | 江苏中科院智能科学技术应用研究院 | 基于三维视觉slam的无人机室内自主导航方法 |
WO2020000395A1 (en) * | 2018-06-29 | 2020-01-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Systems and methods for robust self-relocalization in pre-built visual map |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN110108258A (zh) * | 2019-04-09 | 2019-08-09 | 南京航空航天大学 | 一种单目视觉里程计定位方法 |
Non-Patent Citations (2)
Title |
---|
吴铮铮 ; 寇展 ; .基于单目多视角影像的场景三维重建.光学与光电技术.2020,(05),全文. * |
张毅 ; 沙建松 ; .基于图优化的移动机器人视觉SLAM.智能系统学报.2017,(02),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN112652020A (zh) | 2021-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322500B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN112652020B (zh) | 一种基于AdaLAM算法的视觉SLAM方法 | |
CN108986037B (zh) | 基于半直接法的单目视觉里程计定位方法及定位系统 | |
CN106940704B (zh) | 一种基于栅格地图的定位方法及装置 | |
CN111429533B (zh) | 一种相机镜头畸变参数估计装置及方法 | |
WO2022156755A1 (zh) | 一种室内定位方法、装置、设备和计算机可读存储介质 | |
CN110009732B (zh) | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 | |
CN111462207A (zh) | 一种融合直接法与特征法的rgb-d同时定位与地图创建方法 | |
CN108776989B (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
CN112396595B (zh) | 一种动态环境下基于点线特征的语义slam方法 | |
CN109974743B (zh) | 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计 | |
US10152828B2 (en) | Generating scene reconstructions from images | |
CN109325995B (zh) | 基于人手参数模型的低分辨率多视角手部重建方法 | |
JP5833507B2 (ja) | 画像処理装置 | |
CN110349212B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN112435193B (zh) | 一种点云数据去噪的方法、装置、存储介质和电子设备 | |
CN110570474B (zh) | 一种深度相机的位姿估计方法及系统 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN111105460B (zh) | 一种室内场景三维重建的rgb-d相机位姿估计方法 | |
CN113140036A (zh) | 一种三维建模方法、装置、设备及存储介质 | |
CN112967340A (zh) | 同时定位和地图构建方法、装置、电子设备及存储介质 | |
CN110070578B (zh) | 一种回环检测方法 | |
CN116129037B (zh) | 视触觉传感器及其三维重建方法、系统、设备及存储介质 | |
CN111829522B (zh) | 即时定位与地图构建方法、计算机设备以及装置 | |
CN114494150A (zh) | 一种基于半直接法的单目视觉里程计的设计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |