CN109859266A - 一种基于预变换的大视角变化下视觉同时定位与绘图方法 - Google Patents

一种基于预变换的大视角变化下视觉同时定位与绘图方法 Download PDF

Info

Publication number
CN109859266A
CN109859266A CN201910080610.XA CN201910080610A CN109859266A CN 109859266 A CN109859266 A CN 109859266A CN 201910080610 A CN201910080610 A CN 201910080610A CN 109859266 A CN109859266 A CN 109859266A
Authority
CN
China
Prior art keywords
visual angle
angle change
matrix
model
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910080610.XA
Other languages
English (en)
Other versions
CN109859266B (zh
Inventor
刘伟
刘丁
祁亮亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201910080610.XA priority Critical patent/CN109859266B/zh
Publication of CN109859266A publication Critical patent/CN109859266A/zh
Application granted granted Critical
Publication of CN109859266B publication Critical patent/CN109859266B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于预变换的大视角变化下视觉同时定位与绘图方法,具体为:在SLAM系统中,输入大视角变化下相机获取的图像信息;对图像进行预变换,建立相邻图像之间的对应关系,粗略地估计两帧之间的相机运动和场景结构;利用获得的信息构建局部地图;对地图进行全局优化,生成场景的稀疏三维重建结果。本发明针对视觉同步定位与地图构建系统性能下降的问题,基于ASIFT原理,对相机旋转造成的经度角及纬度角进行模拟,提出了一种基于ORB的抗视角变化图像特征匹配算法,能在视角发生较大变化情况下有效地估计相机运动轨迹并生成以关键帧为场景的稀疏三维重建结果。

Description

一种基于预变换的大视角变化下视觉同时定位与绘图方法
技术领域
本发明属于视觉同步定位与地图构建(SLAM)技术领域,涉及一种基于预变换的大视角变化下视觉同时定位与绘图方法。
背景技术
随着人工智能技术的快速发展,智能机器人开始广泛应用于工业生产、军事作战以及居民生活的方方面面。同步定位与地图构建,它是指搭载特定传感器的主体,在没有环境先验信息的情况下,于运动过程中建立环境的模型,并同时估计自己的运动,这是实现真正智能化和完全自主移动的关键技术。视觉传感器因其成本低、探测范围宽、信息量大、图像特征易于提取等特点,已被广泛地应用在基于视觉的同步定位与地图构建(Visual-based Simultaneous Localization and Mapping,V-SLAM)中。但是在移动机器人进行SLAM的过程中,往往由于复杂环境中光照、地形等外部环境条件的影响,机器人位姿变化会使图像观测视角发生较大变化,以致相邻帧图像之间特征点匹配数目骤减,匹配精度降低,导致系统性能下降甚至失效,严重时会发生相机同步定位和地图构建的失败。针对上述问题,如何来对大视角变化下的图像进行特征检测和匹配以及构建大视角的V-SLAM系统就具有非常重要的意义。
发明内容
本发明的目的是提供一种基于预变换的大视角变化下视觉同时定位与绘图方法,解决了基于视觉特征点匹配的SLAM方法在大视角变化下可靠性较差、不够稳定的技术问题。
本发明所采用的技术方案是,一种基于预变换的大视角变化下视觉同时定位与绘图方法,具体按以下步骤实施:
步骤1,在SLAM系统中,输入大视角变化下相机获取的图像信息;
步骤2,对图像进行预变换,建立相邻图像之间的对应关系,粗略地估计两帧之间的相机运动和场景结构;
步骤3,利用步骤2获得的信息构建局部地图;
步骤4,对地图进行全局优化,生成场景的稀疏三维重建结果。
本发明的特点还在于,
步骤1中图像信息包括连续的多帧单目灰度图像及其所对应的时间戳。
步骤2具体为:
2.1对于大视角变化下的图像,利用仿射相机模型矩阵采样,来模拟相机在不同视角下成像的方法来获取模拟图像序列集;
2.2对获取的模拟图像集中不同视角的图像两两进行特征检测,提取ORB特征,最终获得所有正确的相互匹配的特征点,使其具备完全仿射不变性;
2.3在得到匹配信息之后,求初始相机位姿和确定较为准确的3D点;
2.4实时跟踪特征点,实时输出相机位姿和筛选的关键帧。
步骤2.1中,仿射相机模型矩阵为:
其中,θ和ψ分别为对应光轴的纬度和经度;tx、ty为两方向的平移变量;对应相机绕光轴的自旋角度;s为尺度,指距离引起的缩放;
其采样规则是:引入倾斜度来表示图像u(x,y)在x方向发生斜率为t的形变,为了能均匀的模拟仿射变换的图像集,纬度可按等比数列t=1,a,a2…an(a>1)取值,最优值为经度可按等差数列取值,最优值b=72°,其中k为的最大正整数。
步骤2.3具体为:采用随机采样一致法同时计算单应性矩阵模型H和基础矩阵模型F,分别得到两个矩阵的最优矩阵,然后选择合适的矩阵模型,恢复相机运动;
最优矩阵H/F模型选择机制如下:
采用M代表矩阵模型,首先给每个模型M计算一个分值SM,以评估哪个模型更合适,计算的方法如下所示,其中SM统一表示SH和SF
其中是匹配点对经过模型M在c当前帧上的投影误差;是其对称误差;TM是无效数据的排除阈值,其中TH=5.99,TF=3.84;τ与TH的值相等;
模型M越准,所有匹配点对的重投影误差越小,SM的值就越大。从单应矩阵和基本矩阵的计算中选择分值最高的,分别记作为SH和SF
当场景是一个平面、或近似为一个平面、或者视差较小的时候,可以使用单应性矩阵H;而使用基础矩阵F恢复运动,需要场景是一个非平面、视差大的场景。此时使用下面所示的机制,来判断如何选择两个模型:
如果RH>0.45,表示二维平面和低视差的情况,选择计算单应矩阵;其他的情况,选择基础矩阵;
选择好模型后,使用奇异值分解和八点法恢复相机的旋转矩阵R和平移向量t;
同时,采用线性三角形法中的齐次方法进行三角测量恢复匹配点对应的3D信息。
步骤2.4具体为:
2.4.1利用恒速运动模型,首先假设相机恒速,即旋转矩阵R和平移向量t与上一帧相同,通过PnP方法估计相机位姿,进行一次BA算法,通过最小二乘法优化相机的位姿;
2.4.2如果匹配点数目较少,说明恒速模型失效,则按照参考帧模型来进行跟踪,即尝试和最近一个关键帧去做匹配,根据两帧之间的约束关系来求解位估算位姿。
关键帧是指其与当前帧至少匹配到了50个Mappoint。
步骤3具体为:把关键帧插入到3D地图点中,并对局部地图进行BA优化。
步骤4具体为:
4.1对地图进行回环检测
首先离线训练大量的基于ORB描述的词袋,计算关键帧和在共视图中与其相连关键帧的词袋之间的相似度;然后对每一个候选关键帧检测其与之前回环的一致性,通过连续三次的关键帧对应相同的候选闭环帧,则认为该帧为闭环帧。
4.2 Sim3优化
将当前关键帧地图点和闭环关键帧地图点进行Bow匹配,匹配上的两组3D点集之间用RANSAS求解Sim3变换,从而获得当前关键帧相对于闭环关键帧的Sim3,然后传播到相连关键帧,并调整地图点,从而完成闭环调整;
4.3本质图优化
使用本质图优化位姿图,将闭环的误差分散到整个图中。
本发明的有益效果是,本发明一种基于预变换的大视角变化下视觉同时定位与绘图方法,在视角发现较大变化的情况下,针对视觉同步定位与地图构建系统性能下降的问题,基于ASIFT原理,对相机旋转造成的经度角及纬度角进行模拟,提出了一种基于ORB的抗视角变化图像特征匹配算法。本发明方法能在视角发生较大变化情况下有效地估计相机运动轨迹并生成以关键帧为场景的稀疏三维重建结果,解决了基于视觉特征点匹配的SLAM方法在大视角变化下(大于60°)可靠性较差、不够稳定的技术问题。
附图说明
图1是一种基于预变换的大视角变化下视觉同时定位与绘图方法过程示意图;
图2是模拟图像集的采样示意图;
图3是系统初始化模型选择流程图;
图4是实时跟踪特征点和建图流程图;
图5是传统方法与本发明方法在大视角变化图像特征匹配中的结果图,其中图a、b为传统方法视角变化为40°和80°的特征匹配结果,图c、d本发明方法视角变化为40°和80°的特征匹配结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种基于预变换的大视角变化下视觉同时定位与绘图方法,其流程如图1所示,包含四个部分:输入、前端、后端以及最终轨迹与地图。输入为连续的多帧图像及其所对应的时间戳,所述图像为单目灰度图像;前端主要负责对大视角变化下相机获取的图像信息进行预变换,通过基于ORB的抗视角变化图像特征提取及匹配算法来建立相邻图像之间的对应关系,粗略地估计两帧之间的相机运动和场景结构;后端主要对位姿进行优化以及闭环检测;最后得到在大视角变化下的相机轨迹以及场景的稀疏的三维重建结果。
具体按照以下步骤实施:
步骤1,在SLAM系统中,输入大视角变化下相机获取的连续的多帧单目灰度图像及其所对应的时间戳;
步骤2,对图像进行预变换:
本发明采用基于ORB的抗视角变化图像特征提取及匹配算法来建立相邻图像之间的对应关系,粗略地估计两帧之间的相机运动和场景结构,包括:大视角变化下的特征检测与匹配,根据上一帧进行初始位姿估计,然后跟踪已经重建的局部地图,进行位姿优化,再根据一些规则确定新的关键帧。
具体步骤如下:
2.1对于大视角变化下的图像,通过定义经度角和纬度角的概念,利用仿射相机模型矩阵采样,来模拟相机在不同视角下成像的方法来获取模拟图像序列集;
仿射相机模型矩阵为:
其中,θ和ψ分别为对应光轴的纬度和经度,引起图像的纵向切变与旋转;tx、ty为两方向的平移变量;对应相机绕光轴的自旋角度;s为尺度,指距离引起的缩放。
模拟采样采样点的获取方法如图2所示。
其采样规则是:引入倾斜度来表示图像u(x,y)在x方向发生斜率为t的形变,为了能均匀的模拟仿射变换的图像集,纬度可按等比数列t=1,a,a2…an(a>1)取值,最优值为经度可按等差数列取值,最优值b=72°,其中k为的最大正整数。
2.2对获取的模拟图像集中不同视角的图像两两进行特征检测,提取ORB特征,最终获得所有正确的相互匹配的特征点,使其具备完全仿射不变性。
2.3在得到匹配信息之后,系统进行初始化,其目的是求初始相机位姿和确定较为准确的3D点(即mappoint)。其流程如图3所示,具体为:
采用随机采样一致法(RANSAC)同时计算两个模型:用于平面场景的单应性矩阵H和用于非平面场景的基础矩阵F,并行计算单应性矩阵模型和基础矩阵模型,通过一个评分规则来选取最优的模型,然后确定采用哪个模型用以恢复相机的旋转矩阵R和平移向量t。
H和F分别满足下列关系:
xc=Hxr
其中xc,xr是空间中任意点x分别在两图像的投影坐标,为xr的转置。基础矩阵表达了立体像对的像点之间的对应关系,单应性矩阵描述处于共同平面上的一些点在两张图像之间的变换关系,即B′=HB,变换式如下:
其中,(x',y')是参考图像的点,(x,y)是待匹配图像中与(x',y')相对应的点。
最优矩阵H/F模型选择机制如下:
首先给每个模型M(H表示单应矩阵,F表示基本矩阵)计算一个分值SM,以评估哪个模型更合适。计算的方法如下所示,其中SM统一表示SH和SF
其中是匹配点对经过模型M在c当前帧上的投影误差;是其对称误差。TM(其中TH=5.99,TF=3.84)是无效数据的排除阈值,τ与TH的值相等。模型M越准,所有匹配点对的重投影误差越小,SM的值就越大。从单应矩阵和基本矩阵的计算中选择分值最高的,分别记作为SH和SF
当场景是一个平面、或近似为一个平面、或者视差较小的时候,可以使用单应性矩阵H,而使用基础矩阵F恢复运动,需要场景是一个非平面、视差大的场景。这个时候,使用下面所示的一个机制,来判断如何选择两个模型:
如果RH>0.45,这表示二维平面和低视差的情况,我们将选择计算单应矩阵。其他的情况,我们选择基础矩阵。选择好模型后,使用奇异值分解和八点法恢复相机运动。
同时,采用线性三角形法中的齐次方法(DLT)进行三角测量恢复匹配点对应的3D信息。
2.4实时跟踪特征点,实时输出相机位姿和筛选的关键帧,其流程如图4所示:
2.4.1利用恒速运动模型,首先假设相机恒速,即旋转矩阵R和平移向量t与上一帧相同,通过PnP方法估计相机位姿,进行一次BA算法,通过最小二乘法优化相机的位姿。
2.4.2如果匹配点数目较少,说明恒速模型失效,则按照参考帧模型来进行跟踪。即尝试和最近一个关键帧(与当前帧至少匹配到了50个Mappoint)去做匹配,根据两帧之间的约束关系来求解位估算位姿。
步骤3,局部地图构建:
局部地图构建的主要任务就是等待跟踪过程判断是否应该插入一个新的关键帧,并把关键帧插入到3D地图点中,并对局部地图进行BA优化。
步骤4,对地图进行全局优化,生成场景的稀疏三维重建结果:
4.1对地图进行回环检测(Loop closure detection)
在没有回环检测的时候,误差将对后续计算产生影响,当入回环检测之后,整个运动过程之间就增加了约束,因此,误差就相对减少了。
闭环条件的检测,离线训练了大量的基于ORB描述的词袋,计算关键帧和在共视图中与其相连关键帧的词袋(BOW)之间的相似度。
对每一个候选关键帧检测其与之前回环的一致性。主要就是通过连续三次的关键帧对应相同的候选闭环帧,则认为该帧为闭环帧。
4.2 Sim3优化
单目SLAM一般都会发生尺度漂移,其优化的目标是矫正尺度因子,使得其尺度一致。将当前关键帧地图点和闭环关键帧地图点进行Bow匹配,匹配上的两组3D点集之间可以用RANSAS求解Sim3变换,从而获得当前关键帧相对于闭环关键帧的Sim3,然后传播到相连关键帧,并调整地图点,从而完成闭环调整。
4.3本质图优化
为了有效地完成闭环,使用本质图(Essential Graph)去优化位姿图。这样就可以将闭环的误差分散到整个图中。
下面采用具体测试实例来说明。
下表为测试数据集:
表1
表2是大视角变化下特征匹配算法的正确率对比表,正确的匹配率计算如下:
表2
由表2可知,本发明方法的特征匹配正确率可达90%以上,可见本发明方法较好的保持了ASIFT算法的仿射不变性。
表3为本发明方法与ASIFT算法的耗时比对结果
表3
由表3中数据可知,ASIFT耗时约为本发明方法的2倍,故本发明方法在实时性方面更具优势。
图5是分别采用传统方法和本发明方法进行两组不同的图像在大视角变换下的特征点对匹配结果,其中左侧图(a和c))视角变化为40°,右侧图(b和d)的视角变化为80°,可明显看出,在同样的角度变换下,本发明方法能提取到更多的特征点并且可以正确的匹配说明本发明所提方法相比传统ORB算法具有良好的抗视角变化能力。

Claims (9)

1.一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,具体按以下步骤实施:
步骤1,在SLAM系统中,输入大视角变化下相机获取的图像信息;
步骤2,对图像进行预变换,建立相邻图像之间的对应关系,粗略地估计两帧之间的相机运动和场景结构;
步骤3,利用步骤2获得的信息构建局部地图;
步骤4,对地图进行全局优化,生成场景的稀疏三维重建结果。
2.根据权利要求1所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤1中图像信息包括连续的多帧单目灰度图像及其所对应的时间戳。
3.根据权利要求1所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤2具体为:
2.1对于大视角变化下的图像,利用仿射相机模型矩阵采样,来模拟相机在不同视角下成像的方法来获取模拟图像序列集;
2.2对获取的模拟图像集中不同视角的图像两两进行特征检测,提取ORB特征,最终获得所有正确的相互匹配的特征点,使其具备完全仿射不变性;
2.3在得到匹配信息之后,求初始相机位姿和确定较为准确的3D点;
2.4实时跟踪特征点,实时输出相机位姿和筛选的关键帧。
4.根据权利要求3所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤2.1中,仿射相机模型矩阵为:
其中,θ和ψ分别为对应光轴的纬度和经度;tx、ty为两方向的平移变量;对应相机绕光轴的自旋角度;s为尺度,指距离引起的缩放;
其采样规则是:引入倾斜度来表示图像u(x,y)在x方向发生斜率为t的形变,为了能均匀的模拟仿射变换的图像集,纬度可按等比数列t=1,a,a2…an(a>1)取值,最优值为经度可按等差数列取值,最优值b=72°,其中k为的最大正整数。
5.根据权利要求3所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤2.3具体为:采用随机采样一致法同时计算单应性矩阵模型H和基础矩阵模型F,分别得到两个矩阵的最优矩阵,然后选择合适的矩阵模型,恢复相机运动;
最优矩阵H/F模型选择机制如下:
采用M代表矩阵模型,首先给每个模型M计算一个分值SM,以评估哪个模型更合适,计算的方法如下所示,其中SM统一表示SH和SF
其中是匹配点对经过模型M在c当前帧上的投影误差;是其对称误差;TM是无效数据的排除阈值,其中TH=5.99,TF=3.84;τ与TH的值相等;
模型M越准,所有匹配点对的重投影误差越小,SM的值就越大。从单应矩阵和基本矩阵的计算中选择分值最高的,分别记作为SH和SF
当场景是一个平面、或近似为一个平面、或者视差较小的时候,可以使用单应性矩阵H;而使用基础矩阵F恢复运动,需要场景是一个非平面、视差大的场景。此时使用下面所示的机制,来判断如何选择两个模型:
如果RH>0.45,表示二维平面和低视差的情况,选择计算单应矩阵;其他的情况,选择基础矩阵;
选择好模型后,使用奇异值分解和八点法恢复相机的旋转矩阵R和平移向量t;
同时,采用线性三角形法中的齐次方法进行三角测量恢复匹配点对应的3D信息。
6.根据权利要求3所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤2.4具体为:
2.4.1利用恒速运动模型,首先假设相机恒速,即旋转矩阵R和平移向量t与上一帧相同,通过PnP方法估计相机位姿,进行一次BA算法,通过最小二乘法优化相机的位姿;
2.4.2如果匹配点数目较少,说明恒速模型失效,则按照参考帧模型来进行跟踪,即尝试和最近一个关键帧去做匹配,根据两帧之间的约束关系来求解位估算位姿。
7.根据权利要求6所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述关键帧是指其与当前帧至少匹配到了50个Mappoint。
8.根据权利要求3所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤3具体为:把关键帧插入到3D地图点中,并对局部地图进行BA优化。
9.根据权利要求3所述的一种基于预变换的大视角变化下视觉同时定位与绘图方法,其特征在于,所述步骤4具体为:
4.1对地图进行回环检测
首先离线训练大量的基于ORB描述的词袋,计算关键帧和在共视图中与其相连关键帧的词袋之间的相似度;然后对每一个候选关键帧检测其与之前回环的一致性,通过连续三次的关键帧对应相同的候选闭环帧,则认为该帧为闭环帧。
4.2Sim3优化
将当前关键帧地图点和闭环关键帧地图点进行Bow匹配,匹配上的两组3D点集之间用RANSAS求解Sim3变换,从而获得当前关键帧相对于闭环关键帧的Sim3,然后传播到相连关键帧,并调整地图点,从而完成闭环调整;
4.3本质图优化
使用本质图优化位姿图,将闭环的误差分散到整个图中。
CN201910080610.XA 2019-01-28 2019-01-28 一种基于预变换的大视角变化下视觉同时定位与绘图方法 Active CN109859266B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910080610.XA CN109859266B (zh) 2019-01-28 2019-01-28 一种基于预变换的大视角变化下视觉同时定位与绘图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910080610.XA CN109859266B (zh) 2019-01-28 2019-01-28 一种基于预变换的大视角变化下视觉同时定位与绘图方法

Publications (2)

Publication Number Publication Date
CN109859266A true CN109859266A (zh) 2019-06-07
CN109859266B CN109859266B (zh) 2022-11-25

Family

ID=66896393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910080610.XA Active CN109859266B (zh) 2019-01-28 2019-01-28 一种基于预变换的大视角变化下视觉同时定位与绘图方法

Country Status (1)

Country Link
CN (1) CN109859266B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458951A (zh) * 2019-08-15 2019-11-15 广东电网有限责任公司 一种电网杆塔的建模数据获取方法及相关装置
CN110473258A (zh) * 2019-07-24 2019-11-19 西北工业大学 基于点线统一框架的单目slam系统初始化算法
CN110487274A (zh) * 2019-07-30 2019-11-22 中国科学院空间应用工程与技术中心 用于弱纹理场景的slam方法、系统、导航车及存储介质
CN111127584A (zh) * 2019-11-19 2020-05-08 奇点汽车研发中心有限公司 建立视觉地图的方法和装置、电子设备和存储介质
CN111582022A (zh) * 2020-03-26 2020-08-25 深圳大学 一种移动视频与地理场景的融合方法、系统及电子设备
CN113137968A (zh) * 2020-01-16 2021-07-20 浙江舜宇智能光学技术有限公司 基于多传感器融合的重定位方法、重定位装置和电子设备
CN113532420A (zh) * 2021-06-29 2021-10-22 浙江大学 一种融合点线特征的视觉惯性里程计方法
CN113611143A (zh) * 2021-07-29 2021-11-05 同致电子科技(厦门)有限公司 一种新型记忆泊车系统及其建图系统
CN115937011A (zh) * 2022-09-08 2023-04-07 安徽工程大学 一种基于时滞特征回归的关键帧位姿优化视觉slam方法、存储介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140320593A1 (en) * 2013-04-30 2014-10-30 Qualcomm Incorporated Monocular visual slam with general and panorama camera movements
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140320593A1 (en) * 2013-04-30 2014-10-30 Qualcomm Incorporated Monocular visual slam with general and panorama camera movements
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张剑华等: "单目同时定位与建图中的地图恢复融合技术", 《中国图象图形学报》 *
胡凌燕等: "基于RGB-D图像的三维同步定位与建图研究", 《系统仿真学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473258B (zh) * 2019-07-24 2022-05-13 西北工业大学 基于点线统一框架的单目slam系统初始化算法
CN110473258A (zh) * 2019-07-24 2019-11-19 西北工业大学 基于点线统一框架的单目slam系统初始化算法
CN110487274A (zh) * 2019-07-30 2019-11-22 中国科学院空间应用工程与技术中心 用于弱纹理场景的slam方法、系统、导航车及存储介质
CN110458951A (zh) * 2019-08-15 2019-11-15 广东电网有限责任公司 一种电网杆塔的建模数据获取方法及相关装置
CN111127584A (zh) * 2019-11-19 2020-05-08 奇点汽车研发中心有限公司 建立视觉地图的方法和装置、电子设备和存储介质
CN113137968B (zh) * 2020-01-16 2023-03-14 浙江舜宇智能光学技术有限公司 基于多传感器融合的重定位方法、重定位装置和电子设备
CN113137968A (zh) * 2020-01-16 2021-07-20 浙江舜宇智能光学技术有限公司 基于多传感器融合的重定位方法、重定位装置和电子设备
CN111582022A (zh) * 2020-03-26 2020-08-25 深圳大学 一种移动视频与地理场景的融合方法、系统及电子设备
CN111582022B (zh) * 2020-03-26 2023-08-29 深圳大学 一种移动视频与地理场景的融合方法、系统及电子设备
CN113532420A (zh) * 2021-06-29 2021-10-22 浙江大学 一种融合点线特征的视觉惯性里程计方法
CN113532420B (zh) * 2021-06-29 2024-01-30 浙江大学 一种融合点线特征的视觉惯性里程计方法
CN113611143A (zh) * 2021-07-29 2021-11-05 同致电子科技(厦门)有限公司 一种新型记忆泊车系统及其建图系统
CN115937011A (zh) * 2022-09-08 2023-04-07 安徽工程大学 一种基于时滞特征回归的关键帧位姿优化视觉slam方法、存储介质及设备
CN115937011B (zh) * 2022-09-08 2023-08-04 安徽工程大学 一种基于时滞特征回归的关键帧位姿优化视觉slam方法、存储介质及设备

Also Published As

Publication number Publication date
CN109859266B (zh) 2022-11-25

Similar Documents

Publication Publication Date Title
CN109859266A (zh) 一种基于预变换的大视角变化下视觉同时定位与绘图方法
Bogo et al. Dynamic FAUST: Registering human bodies in motion
Song et al. Mis-slam: Real-time large-scale dense deformable slam system in minimal invasive surgery based on heterogeneous computing
CN109671120A (zh) 一种基于轮式编码器的单目slam初始化方法及系统
US11263443B2 (en) Centimeter human skeleton pose estimation
US9613420B2 (en) Method for locating a camera and for 3D reconstruction in a partially known environment
CN109544636A (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN110288712B (zh) 室内场景的稀疏多视角三维重建方法
CN112001926B (zh) 基于多维语义映射rgbd多相机标定方法、系统及应用
CN104537709A (zh) 一种基于位姿变化的实时三维重建关键帧确定方法
CN103745474A (zh) 基于惯性传感器和摄像机的图像配准方法
CN110009674A (zh) 基于无监督深度学习的单目图像景深实时计算方法
CN113256698B (zh) 一种具有深度预测的单目3d重建方法
KR20210058686A (ko) 동시적 위치 추정 및 맵 작성을 구현하는 장치 및 방법
Zhao et al. RTSfM: Real-time structure from motion for mosaicing and DSM mapping of sequential aerial images with low overlap
CN104268880A (zh) 基于特征和区域匹配相结合的深度信息获取方法
CN108053445A (zh) 特征融合的rgb-d相机运动估计方法
Hallquist et al. Single view pose estimation of mobile devices in urban environments
Ruchay et al. Accurate reconstruction of the 3D indoor environment map with a RGB-D camera based on multiple ICP
Xia et al. Cascaded 3d full-body pose regression from single depth image at 100 fps
Liu et al. 6d object pose estimation without pnp
CN101718548A (zh) 基于平面标志物的位姿处理方法
CN112200917A (zh) 一种高精度增强现实方法及系统
CN110490973A (zh) 一种模型驱动的多视图鞋模型三维重建方法
US20200184656A1 (en) Camera motion estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant