CN110070578A - 一种回环检测方法 - Google Patents
一种回环检测方法 Download PDFInfo
- Publication number
- CN110070578A CN110070578A CN201910199002.0A CN201910199002A CN110070578A CN 110070578 A CN110070578 A CN 110070578A CN 201910199002 A CN201910199002 A CN 201910199002A CN 110070578 A CN110070578 A CN 110070578A
- Authority
- CN
- China
- Prior art keywords
- vector
- obtained according
- detection method
- feature vector
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机图形,具体涉及一种回环检测方法,获取相机图像与数据库图像;根据数据库图像得到离线词典;根据相机图像得到关键帧图像特征向量与当前帧图像特征向量;根据关键帧图像特征向量与离线词典得到第一词汇映射向量;根据当前帧图像特征向量与离线词典的到第二词汇映射向量;根据第一词汇映射向量和第二词汇映射向量得到重投影误差,并将重投影误差与预设误差阈值作比较判断是否检测到回环。本发明的回环检测方法有效的降低了回环检测中的误匹配,且本发明具有良好的鲁棒性。
Description
技术领域
本发明属于计算机图形,具体涉及一种回环检测方法。
背景技术
近年来,随着计算机处理性能的大幅提升与视觉传感器的更新换代,计算机视觉发展迅速。其中一个重要的分支——基于视觉的同步定位与地图构建(VSLAM,VisualSimultaneous Localization And Mapping)更是受到广泛关注。
VSLAM即将视觉传感器输入的图像数据进行处理并分析计算,获取视觉传感器的位姿并记录,在构建增量式地图的同时实现对自身的定位。与传统的基于激光传感器的SLAM方法相比,基于视觉的SLAM方法使用的视觉传感器比激光传感器性价比更高,通用性较好,并且可以获得更多的环境信息。
VSLAM所使用的视觉传感器主要有单目相机、双目相机与RGB-D相机三种。基于单目相机的SLAM利用相邻帧图像进行匹配计算得到相机位姿的变换,在两个视角上进行三角测距又可以得出对应点的深度信息,通过这样迭代的过程可以实现定位及建图。虽然单目SLAM只使用一支摄像头就可以完成SLAM,成本低配置简单,但是如此计算得出的是相对深度,缺少真实尺度信息,无法得到机器人运动轨迹以及地图的真实大小。
与单目相比,双目立体相机可以通过两个相机之间的基线,估计空间点的位置,与单目不同的是,双目相机不仅能够在运动时计算深度,同样可在静止时计算深度,如此解决了单目SLAM只能在运动时才能估计深度的问题。Danshi双目立体相机配置与标定均较为复杂,其深度量程也随双目的基线与分辨率限制,通过双目图像计算像素距离,计算量较大。
RGB-D相机是2010年左右开始兴起的一种相机,它最大的特点是可以通过红外结构光或飞行时间原理,直接测出图像中各像素离相机的距离。因此,它比传统相机能够提供更丰富的信息,也不必像单目或双目那样费时费力地计算深度。目前常用的RGB-D相机包括Kinect/Kinect V2、Xtion等。
基于RGB-D相机的VSLAM主要包括前端和后端两部分,前端包括关键帧筛选、相机位姿估计与回环检测,后端包括图优化、点云融合与表面重建。在SLAM中跟踪得到的相机位姿都是有误差的,随着路径的不断延伸,之前帧的误差会一直传递到后面去,导致最后一帧的位姿在世界坐标系里的误差有可能非常大,因此需要使用回环检测来识别已经过的场景形成闭环,从而对相机位姿进行局部优化和全局优化来使地图更准确。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种回环检测方法。本发明要解决的技术问题通过以下技术方案实现:
一种回环检测方法,方法步骤如下:
获取相机图像与数据库图像;
根据所述数据库图像得到离线词典;
根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量;
根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量;
根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量;
根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,并将所述重投影误差与预设误差阈值作比较判断是否检测到回环。
在本发明的一个实施例中,根据数据库图像得到离线词典,包括:
根据所述数据库图像得到SIFT特征向量集合;
根据所述SIFT特征向量构建树型数据结构;
根据所述树型数据结构与所述SIFT特征向量得到离线词典。
在本发明的一个实施例中,获取所述相机图像的拍摄设备为RGB-D相机。
在本发明的一个实施例中,根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量之前,还包括:
获取相机图像的当前帧图像和上一帧图像的RGB图像和深度图;
根据所述当前帧图像和所述上一帧图像的RGB图像和深度图得到相机位姿相对运动距离;
将所述相机位姿相对运动距离与预设运动距离阈值作对比,判断是否可以进行回环检测。
在本发明的一个实施例中,根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量,包括:
根据所述关键帧图像特征向量和所述离线词典得到第一叶节点标号信息;
根据所述第一叶节点标号信息得到第一词汇映射向量。
在本发明的一个实施例中,根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量,包括:
根据所述当前帧图像特征向量和所述离线词典得到第二叶节点标号信息;
根据所述第二叶节点标号信息得到第二词汇映射向量。
在本发明的一个实施例中,根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,包括:
根据所述第一词汇映射向量和所述第二词汇映射向量得到重合度,以将所述重合度与预设重合度阈值作对比得到对比结果;
根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿;
根据所述相机位姿得到重投影误差。
在本发明的一个实施例中,所述预设误差阈值等于2像素。
在本发明的一个实施例中,所述预设运动距离阈值Dτ=0.3。
在本发明的一个实施例中,所述预设重合度阈值为0.9。
本发明的有益效果:
本发明通过根据数据库图像建立离线词典,将相机图像的关键帧图像特征与当前帧图像特征分别和离线词典得到第一词汇映射向量和第二词汇映射向量,第一词汇映射向量和第二词汇映射向量得到重投影误差误差,根据重投影误差与预设误差阈值作比较判断是否检测到回环。本发明的回环检测方法有效的降低了回环检测中的误匹配,且本发明具有良好的鲁棒性。
附图说明
图1是本发明实施例提供的一种回环检测方法的流程图;
图2是本发明实施例提供的一种回环检测方法中生成离线词典的流程图;
图3是本发明实施例提供的一种回环检测方法中判断是否可进行回环检测的方法流程图;
图4是本发明实施例提供的一种回环检测方法中得到第一词汇映射向量的方法流程图;
图5是本发明实施例提供的一种回环检测方法中得到第二词汇映射向量的方法流程图;
图6是本发明实施例提供的一种回环检测方法中检测回环的方法流程图;
图7是本发明实施例提供的一种回环检测方法的另一种流程图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
请参见图1与图7,图1是本发明实施例提供的一种回环检测方法的流程图,图7是本发明实施例提供的一种回环检测方法的另一种流程图,本发明实施例提供了一种回环检测方法,方法步骤如下:
获取相机图像与数据库图像;
根据所述数据库图像得到离线词典;
根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量;
根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量;
根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量;
根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,并将所述重投影误差与预设误差阈值作比较判断是否检测到回环。
请参见图2,图2是本发明实施例提供的一种回环检测方法中生成离线词典的流程图,在本发明的一个实施例中,根据数据库图像得到离线词典,包括:
根据所述数据库图像得到SIFT特征向量集合;
根据所述SIFT特征向量构建树型数据结构;
根据所述树型数据结构与所述SIFT特征向量得到离线词典。
在一个实施例中,从数据库图像提取所有图片的SIFT(Scale-invariant featuretransform,尺度不变特征变换)特征,得到特征向量集合;构建一颗K层L个分支的树型数据结构的词汇树,对SIFT特征描述子进行K-means聚类,将聚类中心作为视觉词汇放入词汇树的节点中。词汇树的节点数M为:在词汇树的每一个节点加入词频向量权值ωi,即得到nid为视觉词汇在图像d中出现的次数,nid表示图像d的词汇总数,N表示数据库图像总数,Ni表示经过此节点的图像的描述子的个数,nid/nd表示词汇在图像d的出现频率—词频TF,其中L=6,K=10。将大规模图像库中提取的每个特征向量与每层节点内的聚类中心进行点积计算,点积计算结果越大,则说明两个向量越接近,在最接近的节点下的L个分支继续进行同样的点积计算,直到词汇树的叶节点,每一个叶节点成为视觉词汇,所有叶节点构成离线词典。
在本发明的一个实施例中,获取所述相机图像的拍摄设备为RGB-D相机。
请参见图3,图3是本发明实施例提供的一种回环检测方法中判断是否可进行回环检测的方法流程图,在本发明的一个实施例中,在进行所述根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量前,还包括:
获取相机图像的当前帧图像和上一帧图像的RGB图像和深度图;
根据所述当前帧图像和所述上一帧图像的RGB图像和深度图得到相机位姿相对运动距离;
将所述相机位姿相对运动距离与预设运动距离阈值作对比,判断是否可以进行回环检测。
进一步地,根据RGB-D相机获取的每一帧RGB图像和深度图进行反投影得到当前帧的点云数据,并且对上一帧图像的RGB图像和深度图进行反投影得到生意帧图像的点云数据,当前帧图像的点云数据与上一帧图像的点云数据进行匹配得到相机位姿,判断相机位姿相对运动大小,公式如下:其中R和T分别代表相机位姿的旋转和平移矩阵,r(R)将旋转矩阵转换为3x1的轴角表示,当Dij大于预设运动距离阈值Dτ时,则执行回环检测;当Dij小于或等于Dτ时,则继续对当前帧图像进行如上操作,直至Dij大于预设运动距离阈值Dτ。
请参见图4,图4是本发明实施例提供的一种回环检测方法中得到第一词汇映射向量的方法流程图,在本发明的一个实施例中,根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量,包括:
根据所述关键帧图像特征向量和所述离线词典得到第一叶节点标号信息;
根据所述第一叶节点标号信息得到第一词汇映射向量。
进一步地,根据当前帧图像特征向量在离线词典中找出与关键帧图像特征向量相关联的第一叶节点标号信息组成第一词汇映射向量。
请参见图5,图5是本发明实施例提供的一种回环检测方法中得到第二词汇映射向量的方法流程图,在本发明的一个实施例中,根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量,包括:
根据所述当前帧图像特征向量和所述离线词典得到第二叶节点标号信息;
根据所述第二叶节点标号信息得到第二词汇映射向量。
进一步地,提取当前关键帧图像的特征点,得到特征向量集合。将每一个特征向量与离线词典中的节点向量进行点积计算,每一个特征向量都可以在离线词典与之向量距离最近的视觉词汇,将对应的视觉词汇在词典中的编号保存为第二词汇映射向量用来表示该关键帧图像。
请参见图6,图6是本发明实施例提供的一种回环检测方法中检测回环的方法流程图,在本发明的一个实施例中,根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,包括:
根据所述第一词汇映射向量和所述第二词汇映射向量得到重合度,以将所述重合度与预设重合度阈值作对比得到对比结果;
根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿;
根据所述相机位姿得到重投影误差。
进一步地,当第一词汇映射向量与第二词汇映射向量的重合度小于预设重合度阈值时,则需要重新获取新的当前帧图像,并根据新的当前帧图像与离线词典得到新的第二词汇映射向量,新的第二词汇映射向量再与第一词汇映射向量进行对比,得到新的重合度;第一词汇映射向量与第二词汇映射向量的重合度大于预设重合度阈值时,则认为关键帧与当前帧相似,根据两个帧的深度图得到点云数据,利用ICP算法进行点云匹配得到相机位姿。将当前帧点云根据相机位姿投影到已有的关键帧上计算重投影误差,当重投影误差小于预设误差阈值时则认为检测到回环,并将当前关键帧加入已有关键帧队列中,否则没有检测到回环。
在本发明的一个实施例中,所述预设误差阈值等于2像素。
在本发明的一个实施例中,所述预设运动距离阈值Dτ=0.3。
在本发明的一个实施例中,所述预设重合度阈值为0.9。
具体的,本发明的回环检测方法利用RGB-D相机二维图像信息与三维点云信息相融合的方式,有效地降低了回环检测中的误匹配,具有良好的鲁棒性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种回环检测方法,其特征在于,方法步骤如下:
获取相机图像与数据库图像;
根据所述数据库图像得到离线词典;
根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量;
根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量;
根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量;
根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,并将所述重投影误差与预设误差阈值作比较判断是否检测到回环。
2.根据权利要求1所述的一种回环检测方法,其特征在于,根据数据库图像得到离线词典,包括:
根据所述数据库图像得到SIFT特征向量集合;
根据所述SIFT特征向量构建树型数据结构;
根据所述树型数据结构与所述SIFT特征向量得到离线词典。
3.根据权利要求1所述的一种回环检测方法,其特征在于,获取所述相机图像的拍摄设备为RGB-D相机。
4.根据权利要求3所述的一种回环检测方法,其特征在于,根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量之前,还包括:
获取相机图像的当前帧图像和上一帧图像的RGB图像和深度图;
根据所述当前帧图像和所述上一帧图像的RGB图像和深度图得到相机位姿相对运动距离;
将所述相机位姿相对运动距离与预设运动距离阈值作对比,判断是否可以进行回环检测。
5.根据权利要求1所述的一种回环检测方法,其特征在于,所述根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量,包括:
根据所述关键帧图像特征向量和所述离线词典得到第一叶节点标号信息;
根据所述第一叶节点标号信息得到第一词汇映射向量。
6.根据权利要求1所述的一种回环检测方法,其特征在于,根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量,包括:
根据所述当前帧图像特征向量和所述离线词典得到第二叶节点标号信息;
根据所述第二叶节点标号信息得到第二词汇映射向量。
7.根据权利要求1所述的一种回环检测方法,其特征在于,根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,包括:
根据所述第一词汇映射向量和所述第二词汇映射向量得到重合度,以将所述重合度与预设重合度阈值作对比得到对比结果;
根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿;
根据所述相机位姿得到重投影误差。
8.根据权利要求1所述的一种回环检测方法,其特征在于,所述预设误差阈值等于2像素。
9.根据权利要求1或4所述的一种回环检测方法,其特征在于,所述预设运动距离阈值Dτ=0.3。
10.根据权利要求1或7所述的一种回环检测方法,其特征在于,所述预设重合度阈值为0.9。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199002.0A CN110070578B (zh) | 2019-03-15 | 2019-03-15 | 一种回环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199002.0A CN110070578B (zh) | 2019-03-15 | 2019-03-15 | 一种回环检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110070578A true CN110070578A (zh) | 2019-07-30 |
CN110070578B CN110070578B (zh) | 2023-07-18 |
Family
ID=67366276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910199002.0A Active CN110070578B (zh) | 2019-03-15 | 2019-03-15 | 一种回环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110070578B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443887A (zh) * | 2019-07-31 | 2019-11-12 | 广州市百果园信息技术有限公司 | 特征点定位方法、装置、重建方法、系统、设备及介质 |
CN110849367A (zh) * | 2019-10-08 | 2020-02-28 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN111986313A (zh) * | 2020-08-21 | 2020-11-24 | 浙江商汤科技开发有限公司 | 回环检测方法及装置、电子设备和存储介质 |
CN112052862A (zh) * | 2020-09-11 | 2020-12-08 | 重庆邮电大学 | 基于k-svd字典学习的移动机器人视觉slam回环检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886129A (zh) * | 2017-11-13 | 2018-04-06 | 湖南大学 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
CN108090958A (zh) * | 2017-12-06 | 2018-05-29 | 上海阅面网络科技有限公司 | 一种机器人同步定位和地图构建方法和系统 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
EP3333538A1 (en) * | 2016-12-07 | 2018-06-13 | Hexagon Technology Center GmbH | Scanner vis |
CN109242899A (zh) * | 2018-09-03 | 2019-01-18 | 北京维盛泰科科技有限公司 | 一种基于在线视觉词典的实时定位与地图构建方法 |
-
2019
- 2019-03-15 CN CN201910199002.0A patent/CN110070578B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3333538A1 (en) * | 2016-12-07 | 2018-06-13 | Hexagon Technology Center GmbH | Scanner vis |
CN107886129A (zh) * | 2017-11-13 | 2018-04-06 | 湖南大学 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
CN108090958A (zh) * | 2017-12-06 | 2018-05-29 | 上海阅面网络科技有限公司 | 一种机器人同步定位和地图构建方法和系统 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
CN109242899A (zh) * | 2018-09-03 | 2019-01-18 | 北京维盛泰科科技有限公司 | 一种基于在线视觉词典的实时定位与地图构建方法 |
Non-Patent Citations (2)
Title |
---|
OGUZHAN GUCLU, AHMET BURAK CAN: ""Fast and Effective Loop Closure Detection to Improve SLAM Performance"", 《COMPUTER SCIENCE JOURNAL OF INTELLIGENT & ROBOTIC SYSTEMS》 * |
李同等: "基于ORB词袋模型的SLAM回环检测研究", 《信息通信》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443887A (zh) * | 2019-07-31 | 2019-11-12 | 广州市百果园信息技术有限公司 | 特征点定位方法、装置、重建方法、系统、设备及介质 |
CN110443887B (zh) * | 2019-07-31 | 2023-06-16 | 广州市百果园信息技术有限公司 | 特征点定位方法、装置、重建方法、系统、设备及介质 |
CN110849367A (zh) * | 2019-10-08 | 2020-02-28 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN111986313A (zh) * | 2020-08-21 | 2020-11-24 | 浙江商汤科技开发有限公司 | 回环检测方法及装置、电子设备和存储介质 |
CN112052862A (zh) * | 2020-09-11 | 2020-12-08 | 重庆邮电大学 | 基于k-svd字典学习的移动机器人视觉slam回环检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110070578B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103646391B (zh) | 一种针对动态变化场景的实时摄像机跟踪方法 | |
WO2021196294A1 (zh) | 一种跨视频人员定位追踪方法、系统及设备 | |
US9761002B2 (en) | Stereo-motion method of three-dimensional (3-D) structure information extraction from a video for fusion with 3-D point cloud data | |
CN110070578A (zh) | 一种回环检测方法 | |
CN108229416B (zh) | 基于语义分割技术的机器人slam方法 | |
Tang et al. | ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans | |
CN109682385A (zh) | 一种基于orb特征的即时定位与地图构建的方法 | |
KR102098687B1 (ko) | 영상 모서리 정렬 기반 영상 항법 및 장치 | |
Tao et al. | Indoor 3D semantic robot VSLAM based on mask regional convolutional neural network | |
Cao et al. | Tracking registration algorithm for augmented reality based on template tracking | |
CN116468786A (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
Zhu et al. | PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios | |
CN109785419A (zh) | 基于orbslam的无人机视频影像实时定向与生成稀疏点云的方法 | |
CN110009683B (zh) | 基于MaskRCNN的实时平面上物体检测方法 | |
Jin et al. | Keyframe-based dynamic elimination SLAM system using YOLO detection | |
CN114972491A (zh) | 视觉slam方法、电子设备、存储介质及产品 | |
CN110910418B (zh) | 基于旋转不变性图像特征描述子的目标跟踪算法 | |
Ji et al. | Dense reconstruction from monocular SLAM with fusion of sparse map-points and CNN-inferred depth | |
Zhang et al. | GPS-assisted aerial image stitching based on optimization algorithm | |
Pears et al. | Mobile robot visual navigation using multiple features | |
Porzi et al. | An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone | |
Kaveti et al. | Removing dynamic objects for static scene reconstruction using light fields | |
Zhang et al. | Semantic segmentation based dense rgb-d slam in dynamic environments | |
Li et al. | Vision-based indoor localization via a visual SLAM approach | |
Wenzhi et al. | FVLoc-NeRF: Fast Vision-Only Localization within Neural Radiation Field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |