CN111709997A - 一种基于点与平面特征的slam实现方法及系统 - Google Patents
一种基于点与平面特征的slam实现方法及系统 Download PDFInfo
- Publication number
- CN111709997A CN111709997A CN202010615004.6A CN202010615004A CN111709997A CN 111709997 A CN111709997 A CN 111709997A CN 202010615004 A CN202010615004 A CN 202010615004A CN 111709997 A CN111709997 A CN 111709997A
- Authority
- CN
- China
- Prior art keywords
- plane
- point
- new
- features
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于点与平面特征的SLAM实现方法及系统,所述SLAM实现方法包括:跟踪步骤,对传感器数据进行ORB特征和平面特征提取并关联,基于关联结果进行帧间位姿优化确定新关键帧;局部建图步骤,由所述新关键帧产生对应的新地图点和新平面,基于所述新关键帧、新地图点和新平面实现局部优化;回环检测步骤,基于ORB特征的词袋模型对每个关键帧进行回环检测,实现全局优化。与现有技术相比,本发明具有定位精度高等优点。
Description
技术领域
本发明涉及一种机器人同时定位与地图构建技术领域,尤其是涉及一种基于点与平面特征的SLAM实现方法及系统。
背景技术
自仿生学与智能机器人技术的出现以来,研究者们就渴望有朝一日,机器人能够像人类一样,通过眼睛去观察和理解周围的世界,并能够能在自然环境中灵巧地自主行走,实现人机和谐共融。其中,一个重要而基本的问题是,如何通过二维的图像信息分析景物的三维结构,确定相机在其中的位置。这个问题的解决,离不开一项基本技术的研究:同时定位与地图构建(Simultaneous-Localizationand-Mapping,SLAM),特别是基于视觉的SLAM技术。
视觉SLAM主要分为基于灰度的直接法和基于特征的间接法两类。其中基于灰度的直接法在某些情况下表现良好,不需要进行特征提取与匹配,只需进行灰度梯度的跟踪,因此会节省大量的计算时间,并且这种方法在特征较少的区域能够增强视觉SLAM的连续性。但同时,由于直接法单单使用像素的梯度来进行帧间的匹配及运动跟踪,因此该方法受光照强度、噪声干扰等影响较为强烈。基于特征的间接法虽然会占用部分计算资源,但是由于硬件水平的提高,其占用的计算资源大大降低,且提取的特征为人工设计的,具有较为稳定的特性,并且能够进行特征跟踪、构图、闭环检测,能够完成机器人同时定位与地图构建的全过程,因此基于特征的视觉SLAM方法逐渐成为了SLAM技术研究的主流。平面特征是普遍存在且稳定的结构特征,但仅使用平面特征会导致SLAM系统在平面特征较少时跟踪失败。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于点与平面特征的SLAM实现方法及系统,以提高定位精度。
本发明的目的可以通过以下技术方案来实现:
一种基于点与平面特征的SLAM实现方法,包括:
跟踪步骤,对传感器数据进行ORB特征和平面特征提取并关联,基于关联结果进行帧间位姿优化确定新关键帧;
局部建图步骤,由所述新关键帧产生对应的新地图点和新平面,基于所述新关键帧、新地图点和新平面实现局部优化;
回环检测步骤,基于ORB特征的词袋模型对每个关键帧进行回环检测,实现全局优化。
进一步地,所述传感器数据包括深度图和彩色RGB图,所述跟踪步骤中对每一时刻的图像对并行提取ORB特征和平面特征。
进一步地,所述平面特征的提取具体包括:
对由深度图生成的点云进行法向量提取,将法向量夹角小于法向量夹角阈值threshnormal且平面参数d的差小于距离阈值threshd的点标记为同一标签,得到平滑表面标签图,对所述平滑表面标签图中的每个分段进行最小二乘平面拟合,当平面的内点数量大于设置的阈值min_inliers时,为对应分段生成一个平面方程,提取获得一个平面。
进一步地,所述平面特征的提取还包括:
计算平面的曲率,过滤所述曲率大于最大曲率阈值max_curvature的平面。
进一步地,所述关联具体为:
使用点到平面的距离来表示两平面之间的距离dis,当dis小于阈值disth时判断两平面法向量夹角是否小于阈值θth,则两平面为同一平面。
进一步地,所述帧间位姿优化中通过非线性优化ORB特征点的重投影误差和平面误差来计算位姿。
进一步地,所述局部优化和全局优化均通过重投影误差和平面误差对关键帧、地图点和平面路标进行优化。
本发明还提供一种基于点与平面特征的SLAM实现系统,包括:
跟踪模块,对传感器数据进行ORB特征和平面特征提取并关联,基于关联结果进行帧间位姿优化确定新关键帧;
局部建图模块,由所述新关键帧产生对应的新地图点和新平面,基于所述新关键帧、新地图点和新平面实现局部优化;
回环检测模块,基于ORB特征的词袋模型对每个关键帧进行回环检测,实现全局优化。
进一步地,所述平面特征的提取具体包括:
对由深度图生成的点云进行法向量提取,将法向量夹角小于法向量夹角阈值threshnormal且平面参数d的差小于距离阈值threshd的点标记为同一标签,得到平滑表面标签图,对所述平滑表面标签图中的每个分段进行最小二乘平面拟合,当平面的内点数量大于设置的阈值min_inliers时,为对应分段生成一个平面方程,提取获得一个平面。
进一步地,所述平面特征的提取还包括:
计算平面的曲率,过滤所述曲率大于最大曲率阈值max_curvature的平面。
与现有技术相比,本发明具有如下有益效果:
1、本发明将点特征和平面特征相结合,在公开数据集ICL-NUIM上的结果表明,在仅增加少量处理时间的情况下,能够有效的利用场景的结构信息,提高定位精度。
2、采用最近点(Closest Point,CP)表示平面,该表示方法既避免了过参数化问题又有实际的物理意义。
附图说明
图1为本发明的流程示意图;
图2为ICL-NUIM数据集起居室场景;
图3为起居室场景平面提取示例图,其中,(3a)-(3d)分别对应lr_00、lr_01、lr_02和lr_03序列;
图4为起居室场景路径图,其中,(4a)-(4d)分别对应lr_00、lr_01、lr_02和lr_03序列。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本发明提供一种基于点与平面特征的SLAM实现方法PP-SLAM,包括跟踪步骤(跟踪线程)、局部建图步骤(局部建图线程)和回环检测步骤(闭环检测线程),具体地:
(1)跟踪线程:该线程对输入的传感器数据进行预处理,传感器数据包括深度图和彩色RGB图。由于PP-SLAM使用的ORB特征提取算法与平面提取算法均满足实时性的要求,对每一时刻的图像对(彩色图和深度图)并行提取ORB特征和平面特征,并进行数据关联,通过最小化重投影误差和平面误差优化位姿并决定该帧是否作为关键帧加入局部地图。
(2)局部建图线程:当跟踪线程插入关键帧后,通过最小化重投影误差和平面误差同时优化局部地图中关键帧的点、平面和相机位姿,并根据误差大小删除空间中可能误匹配的点和平面,剔除具有冗余信息的关键帧。
(3)闭环检测线程:PP-SLAM系统使用基于ORB特征的词袋模型对关键帧进行回环检测,检测到回环时进行全局优化。
上述三个线程可并行处理。
PP-SLAM采用ORB-SLAM2进行点提取和匹配,并维护本地映射检测循环;采用最近点(Closest Point,CP)表示平面,该表示方法既避免了过参数化问题又有实际的物理意义;从RGB图像提取特征点并进行特征匹配,同时根据深度信息提取平面,并通过点到平面的距离和法向量夹角进行平面关联;在跟踪线程中,使用重投影和平面误差来进行帧间位姿优化;在局部建图线程中,通过重投影误差和平面误差优化平面参数、地图点的位置和关键帧位姿。
1、平面提取与坐标转换
由于每帧深度图生成的点云,具有类似图像的网格结构,同时考虑平面提取算法的实时要求和精度要求,平面提取算法使用Hessian平面表示形式,首先对点云进行法向量提取,接着通过设置法向量夹角阈值threshnormal和距离阈值threshd将法向量夹角小于阈值且平面参数d的差小于阈值的点标记为同一标签。为点云中的所有点标记标签后,得到了对应的平滑表面标签图。最后,尝试对每个分段进行最小二乘平面拟合,当这些平面的内点数量大于设置的阈值min_inliers,则为每个大分段得出一个平面方程。为了确保所得分段实际上是平面的,还计算了曲率,并使用最大曲率阈值max_curvature过滤掉了平滑但不是平面的片段。这些阈值的设定能够有效过滤掉曲面及面积较小的平面,曲面和这些小平面可能导致错误的数据关联,影响系统的精度和稳定性。
平面提取后,在帧间跟踪过程中,将空间点和平面在世界坐标系和当前帧坐标系进行相互转换。
2、跟踪环节
当传感器采集到图片数据,跟踪线程提取ORB特征,并使用平面提取算法对每帧深度图点云进行平面提取。特征提取结束后,需对提取的ORB特征和平面特征进行数据关联(即特征匹配)。快速而准确的数据关联是鲁棒且准确的姿势估计的保障。在平面关联方法上,本文提出使用点到平面的距离来表示两平面之间的距离dis,当dis小于阈值disth时则判断两平面法向量夹角的大小。若两平面法向量夹角小于阈值θth,则两平面为同一平面。
数据关联成功后,PP-SLAM在每一帧的跟踪计算中通过非线性优化ORB特征点的重投影误差和平面误差来计算位姿矩阵,整体的目标函数如下:
其中,误差函数fpoint为点特征的重投影误差由式(2)计算,它的Jacobians矩阵由式(3)求得,Hpoint为对应的鲁棒核函数。
fplane为平面关联误差函数由式(4)计算,Hplane为对应的鲁棒核函数。
πw为当前帧平面πc所关联的世界坐标系下平面路标参数,p(π)将Hessian形式的平面参数转化成CP表示形式。该优化过程,通过g2o图优化库和高斯牛顿法或者Levenberg-Marquardt方法计算增量迭代求解。
3、局部优化与全局优化
当局部建图线程获得新关键帧时,PP-SLAM会在跟踪地图中加入新关键帧以及由新关键帧产生的新地图点和新平面,然后对部分关键帧、地图点以及平面进行局部优化,该优化问题如下式:
Pw为世界坐标系下地图点的坐标,Tcw为当前帧到世界坐标系得变换矩阵,fpoint为点特征的重投影误差,fplane为平面误差。
由于此处需要同时对关键帧位姿与地图点坐标进行优化,故既需要计算该误差函数对地图点的Jacobians矩阵。当使用CP表示时,该平面误差对平面参数的Jacobians矩阵如下:
Πw为平面特征在世界坐标系下的CP表示,dc、ncx、ncy、ncz为平面特征在当前帧相机坐标系下的平面参数,nw、dw为平面特征在世界坐标系下的平面参数,I为单位矩阵。
4、回环检测
回环检测线程使用基于ORB特征的词袋模型对每个关键帧进行回环检测,若检测到回环,进行关联地图融合,最后对所有关键帧、地图点和平面路标进行优化。该优化函数与局部优化相同,只是优化目标从局部地图扩展至全局地图。
实施例
1、数据集与评估指标
为了评估PP-SLAM系统的有效性,实验在ICL-NUIM数据集上进行。ICL-NUIM数据集起居室场景如图2所示,场景中包含丰富且稳定的平面特征,该场景分别提供四个图片序列及真实相机位姿,可以方便的评估定位结果。
实验使用绝对轨迹均方根误差ATE RMSE(Absolute Trajectory Root-mean-square error)评估定位结果。ATE RMSE通过计算估计位姿与真实位姿之间的欧式距离,得到绝对轨迹误差的均方根误差。由于多线程会造成实验结果的非确定性,实验在每个视频序列上都运行五次,得到平均轨迹精度。
2、实验环境与相关参数
实验在内存为8GB,CPU为CoreTM i7-8750H,携带了GTX 1060的笔记本电脑上进行。在整个ICL-NUIM数据集中,PP-SLAM系统使用最近点作为平面表示方法,它的阈值为disth=10,θth=30°,即当世界平面中心到当前帧平面的距离小于10cm且世界平面法向量与当前帧平面法向量夹角小于30°时,两平面匹配成功。为了避免系统受噪声及非平面的影响,系统运行时将对平面的大小进行限制,平面点数量小于一定阈值时则判断为非平面。数据集帧率设为30Hz。
3、实验结果与分析
(1)平面检测实验
PP-SLAM在起居室场景lr_00、lr_01、lr_02和lr_03序列中检测到的平均平面数量分别为11、14、14和10。各序列中平面提取与平面关联情况如图3所示。
图3中,左图为真实场景中的RGB图,中图为对应点云平面提取情况,不同平面用不同颜色在单帧点云中表示,右图为PP-SLAM中平面的点云表示,同一平面用同一颜色表示。从图中可以看出,大面积平面没有错误关联的现象,在定位精度较差的lr_01序列中,也没有出现错误关联的平面。该平面数据关联方法即使在位姿经历了一定程度的漂移后仍能成功检测到对应的平面。PP-SLAM中的平面筛选会去除部分面积较小的平面以防止错误关联,如图(3b)中凳子上的平面和图(3c)中沙发靠背平面。此外,该平面提取算法筛除了曲面,如图(3a)、图(3b)以及图(3c)中的台灯。
(2)跟踪精度实验
PP-SLAM与经典的ORB-SLAM2(见文献Mur-Artal R,Montiel J M M,Tardos JD.ORB-SLAM2:An Open-Source SLAM System for Monocular,Stereo,and RGB-D Cameras[J].IEEE Transactions on Robotics,2017,33(5):1-8)在起居室场景中的ATE RMSE结果如表1所示。其中,ORB-SLAM2结果由作者提供的开源代码与本系统在相同测试环境下运行得到。
表1起居室场景的ATE RMSE(m)
可以看到,相较于ORB-SLAM2系统,PP-SLAM系统在四个序列上跟踪精度均有提升,定位误差分别下降了14.3%、71.1%、45%和28.6%。实验结果显示,在平面特征丰富且稳定的环境下,加入平面特征,能够有效的提升系统精度。其中,在序列lr_01上,由于相机运动范围较大,跟踪成功的点数量较少,故基于点的SLAM系统效果较差,加入平面特征约束后则提升了系统的精度。而在在序列lr_03中由于出现了回环,ORB-SLAM2和PP-SLAM由于都具有回环检测和全局优化模块,极大的降低了累积误差,获得了较好的定位效果。
PP-SLAM在起居室场景下的跟踪路径如图4所示,包括真实相机轨迹、PP-SLAM的跟踪轨迹和ORB-SLAM2的跟踪轨迹。可以看到在lr_00序列中,ORB-SLAM2和PP-SLAM都十分贴近真实轨迹。在lr_01、lr_01和lr_03序列中,PP-SLAM和ORB-SLAM2相比更为贴近真实轨迹。
(3)实时性实验
为了比较SLAM系统的实时性,在表2中比较了PP-SLAM系统、PB-SLAM系统和ORB-SLAM2的平均跟踪时间。
表2平均跟踪时间(ms)
由表2可以看出,加入平面特征的PP-SLAM系统相较于ORB-SLAM2系统平均跟踪时间略有增加,但由于使用C++多线程编程技术,平均跟踪时间仅增加了1~2毫秒,但仍能达到约36Hz的运行帧率,满足实时要求。实验结果证明了使用CP表示的PP-SLAM系统在保证实时性的前提下,能够有效提升系统精度。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于点与平面特征的SLAM实现方法,其特征在于,包括:
跟踪步骤,对传感器数据进行ORB特征和平面特征提取并关联,基于关联结果进行帧间位姿优化确定新关键帧;
局部建图步骤,由所述新关键帧产生对应的新地图点和新平面,基于所述新关键帧、新地图点和新平面实现局部优化;
回环检测步骤,基于ORB特征的词袋模型对每个关键帧进行回环检测,实现全局优化。
2.根据权利要求1所述的基于点与平面特征的SLAM实现方法,其特征在于,所述传感器数据包括深度图和彩色RGB图,所述跟踪步骤中对每一时刻的图像对并行提取ORB特征和平面特征。
3.根据权利要求1所述的基于点与平面特征的SLAM实现方法,其特征在于,所述平面特征的提取具体包括:
对由深度图生成的点云进行法向量提取,将法向量夹角小于法向量夹角阈值threshnormal且平面参数d的差小于距离阈值threshd的点标记为同一标签,得到平滑表面标签图,对所述平滑表面标签图中的每个分段进行最小二乘平面拟合,当平面的内点数量大于设置的阈值min_inliers时,为对应分段生成一个平面方程,提取获得一个平面。
4.根据权利要求3所述的基于点与平面特征的SLAM实现方法,其特征在于,所述平面特征的提取还包括:
计算平面的曲率,过滤所述曲率大于最大曲率阈值max_curvature的平面。
5.根据权利要求1所述的基于点与平面特征的SLAM实现方法,其特征在于,所述关联具体为:
使用点到平面的距离来表示两平面之间的距离dis,当dis小于阈值disth时判断两平面法向量夹角是否小于阈值θth,则两平面为同一平面。
6.根据权利要求1所述的基于点与平面特征的SLAM实现方法,其特征在于,所述帧间位姿优化中通过非线性优化ORB特征点的重投影误差和平面误差来计算位姿。
7.根据权利要求1所述的基于点与平面特征的SLAM实现方法,其特征在于,所述局部优化和全局优化均通过重投影误差和平面误差对关键帧、地图点和平面路标进行优化。
8.一种基于点与平面特征的SLAM实现系统,其特征在于,包括:
跟踪模块,对传感器数据进行ORB特征和平面特征提取并关联,基于关联结果进行帧间位姿优化确定新关键帧;
局部建图模块,由所述新关键帧产生对应的新地图点和新平面,基于所述新关键帧、新地图点和新平面实现局部优化;
回环检测模块,基于ORB特征的词袋模型对每个关键帧进行回环检测,实现全局优化。
9.根据权利要求8所述的基于点与平面特征的SLAM实现系统,其特征在于,所述平面特征的提取具体包括:
对由深度图生成的点云进行法向量提取,将法向量夹角小于法向量夹角阈值threshnormal且平面参数d的差小于距离阈值threshd的点标记为同一标签,得到平滑表面标签图,对所述平滑表面标签图中的每个分段进行最小二乘平面拟合,当平面的内点数量大于设置的阈值min_inliers时,为对应分段生成一个平面方程,提取获得一个平面。
10.根据权利要求3所述的基于点与平面特征的SLAM实现系统,其特征在于,所述平面特征的提取还包括:
计算平面的曲率,过滤所述曲率大于最大曲率阈值max_curvature的平面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010615004.6A CN111709997B (zh) | 2020-06-30 | 2020-06-30 | 一种基于点与平面特征的slam实现方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010615004.6A CN111709997B (zh) | 2020-06-30 | 2020-06-30 | 一种基于点与平面特征的slam实现方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111709997A true CN111709997A (zh) | 2020-09-25 |
CN111709997B CN111709997B (zh) | 2023-03-24 |
Family
ID=72543920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010615004.6A Active CN111709997B (zh) | 2020-06-30 | 2020-06-30 | 一种基于点与平面特征的slam实现方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111709997B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112197764A (zh) * | 2020-12-07 | 2021-01-08 | 广州极飞科技有限公司 | 实时位姿确定方法、装置及电子设备 |
CN114415648A (zh) * | 2020-10-10 | 2022-04-29 | 杭州海康威视数字技术股份有限公司 | 确定地面平面的方法、装置及设备 |
CN114677439A (zh) * | 2022-03-29 | 2022-06-28 | Oppo广东移动通信有限公司 | 相机的位姿确定方法、装置、电子设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018049581A1 (zh) * | 2016-09-14 | 2018-03-22 | 浙江大学 | 一种同时定位与地图构建方法 |
CN108776989A (zh) * | 2018-06-08 | 2018-11-09 | 北京航空航天大学 | 基于稀疏slam框架的低纹理平面场景重建方法 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN110782494A (zh) * | 2019-10-16 | 2020-02-11 | 北京工业大学 | 一种基于点线融合的视觉slam方法 |
-
2020
- 2020-06-30 CN CN202010615004.6A patent/CN111709997B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018049581A1 (zh) * | 2016-09-14 | 2018-03-22 | 浙江大学 | 一种同时定位与地图构建方法 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN108776989A (zh) * | 2018-06-08 | 2018-11-09 | 北京航空航天大学 | 基于稀疏slam框架的低纹理平面场景重建方法 |
CN110782494A (zh) * | 2019-10-16 | 2020-02-11 | 北京工业大学 | 一种基于点线融合的视觉slam方法 |
Non-Patent Citations (1)
Title |
---|
王化友等: "CFD-SLAM:融合特征法与直接法的快速鲁棒SLAM系统", 《高技术通讯》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114415648A (zh) * | 2020-10-10 | 2022-04-29 | 杭州海康威视数字技术股份有限公司 | 确定地面平面的方法、装置及设备 |
CN112197764A (zh) * | 2020-12-07 | 2021-01-08 | 广州极飞科技有限公司 | 实时位姿确定方法、装置及电子设备 |
CN114677439A (zh) * | 2022-03-29 | 2022-06-28 | Oppo广东移动通信有限公司 | 相机的位姿确定方法、装置、电子设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111709997B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | 3d hand pose tracking and estimation using stereo matching | |
Meng et al. | Backtracking regression forests for accurate camera relocalization | |
CN111709997B (zh) | 一种基于点与平面特征的slam实现方法及系统 | |
Luo et al. | Real-time dense monocular SLAM with online adapted depth prediction network | |
CN109815847B (zh) | 一种基于语义约束的视觉slam方法 | |
Bešić et al. | Dynamic object removal and spatio-temporal RGB-D inpainting via geometry-aware adversarial learning | |
AU2020300067B2 (en) | Layered motion representation and extraction in monocular still camera videos | |
CN111882546A (zh) | 基于弱监督学习的三分支卷积网络织物疵点检测方法 | |
Liu et al. | A SLAM-based mobile augmented reality tracking registration algorithm | |
Xu et al. | Integrated approach of skin-color detection and depth information for hand and face localization | |
CN111582232A (zh) | 一种基于像素级语义信息的slam方法 | |
CN111582036B (zh) | 可穿戴设备下基于形状和姿态的跨视角人物识别方法 | |
Xie et al. | Semi-direct multimap SLAM system for real-time sparse 3-D map reconstruction | |
Yu et al. | Drso-slam: A dynamic rgb-d slam algorithm for indoor dynamic scenes | |
Zhang et al. | A visual-inertial dynamic object tracking SLAM tightly coupled system | |
Li et al. | A SLAM system based on RGBD image and point-line feature | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
Liang et al. | DIG-SLAM: an accurate RGB-D SLAM based on instance segmentation and geometric clustering for dynamic indoor scenes | |
Wen et al. | CD-SLAM: A Real-Time Stereo Visual-Inertial SLAM for Complex Dynamic Environments With Semantic and Geometric Information | |
Ji et al. | DRV-SLAM: An Adaptive Real-Time Semantic Visual SLAM Based on Instance Segmentation Toward Dynamic Environments | |
Chen et al. | Visual SLAM based on dynamic object detection | |
Zhao et al. | A review of visual SLAM for dynamic objects | |
Chen et al. | 360orb-slam: A visual slam system for panoramic images with depth completion network | |
Xu et al. | DOS-SLAM: A real-time dynamic object segmentation visual SLAM system | |
Lu et al. | A geometric convolutional neural network for 3d object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |