CN110070578B - 一种回环检测方法 - Google Patents
一种回环检测方法 Download PDFInfo
- Publication number
- CN110070578B CN110070578B CN201910199002.0A CN201910199002A CN110070578B CN 110070578 B CN110070578 B CN 110070578B CN 201910199002 A CN201910199002 A CN 201910199002A CN 110070578 B CN110070578 B CN 110070578B
- Authority
- CN
- China
- Prior art keywords
- obtaining
- frame image
- vector
- camera
- vocabulary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机图形,具体涉及一种回环检测方法,获取相机图像与数据库图像;根据数据库图像得到离线词典;根据相机图像得到关键帧图像特征向量与当前帧图像特征向量;根据关键帧图像特征向量与离线词典得到第一词汇映射向量;根据当前帧图像特征向量与离线词典的到第二词汇映射向量;根据第一词汇映射向量和第二词汇映射向量得到重投影误差,并将重投影误差与预设误差阈值作比较判断是否检测到回环。本发明的回环检测方法有效的降低了回环检测中的误匹配,且本发明具有良好的鲁棒性。
Description
技术领域
本发明属于计算机图形,具体涉及一种回环检测方法。
背景技术
近年来,随着计算机处理性能的大幅提升与视觉传感器的更新换代,计算机视觉发展迅速。其中一个重要的分支——基于视觉的同步定位与地图构建(VSLAM,VisualSimultaneous Localization And Mapping)更是受到广泛关注。
VSLAM即将视觉传感器输入的图像数据进行处理并分析计算,获取视觉传感器的位姿并记录,在构建增量式地图的同时实现对自身的定位。与传统的基于激光传感器的SLAM方法相比,基于视觉的SLAM方法使用的视觉传感器比激光传感器性价比更高,通用性较好,并且可以获得更多的环境信息。
VSLAM所使用的视觉传感器主要有单目相机、双目相机与RGB-D相机三种。基于单目相机的SLAM利用相邻帧图像进行匹配计算得到相机位姿的变换,在两个视角上进行三角测距又可以得出对应点的深度信息,通过这样迭代的过程可以实现定位及建图。虽然单目SLAM只使用一支摄像头就可以完成SLAM,成本低配置简单,但是如此计算得出的是相对深度,缺少真实尺度信息,无法得到机器人运动轨迹以及地图的真实大小。
与单目相比,双目立体相机可以通过两个相机之间的基线,估计空间点的位置,与单目不同的是,双目相机不仅能够在运动时计算深度,同样可在静止时计算深度,如此解决了单目SLAM只能在运动时才能估计深度的问题。Danshi双目立体相机配置与标定均较为复杂,其深度量程也随双目的基线与分辨率限制,通过双目图像计算像素距离,计算量较大。
RGB-D相机是2010年左右开始兴起的一种相机,它最大的特点是可以通过红外结构光或飞行时间原理,直接测出图像中各像素离相机的距离。因此,它比传统相机能够提供更丰富的信息,也不必像单目或双目那样费时费力地计算深度。目前常用的RGB-D相机包括Kinect/Kinect V2、Xtion等。
基于RGB-D相机的VSLAM主要包括前端和后端两部分,前端包括关键帧筛选、相机位姿估计与回环检测,后端包括图优化、点云融合与表面重建。在SLAM中跟踪得到的相机位姿都是有误差的,随着路径的不断延伸,之前帧的误差会一直传递到后面去,导致最后一帧的位姿在世界坐标系里的误差有可能非常大,因此需要使用回环检测来识别已经过的场景形成闭环,从而对相机位姿进行局部优化和全局优化来使地图更准确。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种回环检测方法。本发明要解决的技术问题通过以下技术方案实现:
一种回环检测方法,方法步骤如下:
获取相机图像与数据库图像;
根据所述数据库图像得到离线词典;
根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量;
根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量;
根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量;
根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,并将所述重投影误差与预设误差阈值作比较判断是否检测到回环。
在本发明的一个实施例中,根据数据库图像得到离线词典,包括:
根据所述数据库图像得到SIFT特征向量集合;
根据所述SIFT特征向量构建树型数据结构;
根据所述树型数据结构与所述SIFT特征向量得到离线词典。
在本发明的一个实施例中,获取所述相机图像的拍摄设备为RGB-D相机。
在本发明的一个实施例中,根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量之前,还包括:
获取相机图像的当前帧图像和上一帧图像的RGB图像和深度图;
根据所述当前帧图像和所述上一帧图像的RGB图像和深度图得到相机位姿相对运动距离;
将所述相机位姿相对运动距离与预设运动距离阈值作对比,判断是否可以进行回环检测。
在本发明的一个实施例中,根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量,包括:
根据所述关键帧图像特征向量和所述离线词典得到第一叶节点标号信息;
根据所述第一叶节点标号信息得到第一词汇映射向量。
在本发明的一个实施例中,根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量,包括:
根据所述当前帧图像特征向量和所述离线词典得到第二叶节点标号信息;
根据所述第二叶节点标号信息得到第二词汇映射向量。
在本发明的一个实施例中,根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,包括:
根据所述第一词汇映射向量和所述第二词汇映射向量得到重合度,以将所述重合度与预设重合度阈值作对比得到对比结果;
根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿;
根据所述相机位姿得到重投影误差。
在本发明的一个实施例中,所述预设误差阈值等于2像素。
在本发明的一个实施例中,所述预设运动距离阈值Dτ=0.3。
在本发明的一个实施例中,所述预设重合度阈值为0.9。
本发明的有益效果:
本发明通过根据数据库图像建立离线词典,将相机图像的关键帧图像特征与当前帧图像特征分别和离线词典得到第一词汇映射向量和第二词汇映射向量,第一词汇映射向量和第二词汇映射向量得到重投影误差误差,根据重投影误差与预设误差阈值作比较判断是否检测到回环。本发明的回环检测方法有效的降低了回环检测中的误匹配,且本发明具有良好的鲁棒性。
附图说明
图1是本发明实施例提供的一种回环检测方法的流程图;
图2是本发明实施例提供的一种回环检测方法中生成离线词典的流程图;
图3是本发明实施例提供的一种回环检测方法中判断是否可进行回环检测的方法流程图;
图4是本发明实施例提供的一种回环检测方法中得到第一词汇映射向量的方法流程图;
图5是本发明实施例提供的一种回环检测方法中得到第二词汇映射向量的方法流程图;
图6是本发明实施例提供的一种回环检测方法中检测回环的方法流程图;
图7是本发明实施例提供的一种回环检测方法的另一种流程图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
请参见图1与图7,图1是本发明实施例提供的一种回环检测方法的流程图,图7是本发明实施例提供的一种回环检测方法的另一种流程图,本发明实施例提供了一种回环检测方法,方法步骤如下:
获取相机图像与数据库图像;
根据所述数据库图像得到离线词典;
根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量;
根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量;
根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量;
根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,并将所述重投影误差与预设误差阈值作比较判断是否检测到回环。
请参见图2,图2是本发明实施例提供的一种回环检测方法中生成离线词典的流程图,在本发明的一个实施例中,根据数据库图像得到离线词典,包括:
根据所述数据库图像得到SIFT特征向量集合;
根据所述SIFT特征向量构建树型数据结构;
根据所述树型数据结构与所述SIFT特征向量得到离线词典。
在一个实施例中,从数据库图像提取所有图片的SIFT(Scale-invariant featuretransform,尺度不变特征变换)特征,得到特征向量集合;构建一颗K层L个分支的树型数据结构的词汇树,对SIFT特征描述子进行K-means聚类,将聚类中心作为视觉词汇放入词汇树的节点中。词汇树的节点数M为:在词汇树的每一个节点加入词频向量权值ωi,即得到/>nid为视觉词汇在图像d中出现的次数,nid表示图像d的词汇总数,N表示数据库图像总数,Ni表示经过此节点的图像的描述子的个数,nid/nd表示词汇在图像d的出现频率—词频TF,其中L=6,K=10。将大规模图像库中提取的每个特征向量与每层节点内的聚类中心进行点积计算,点积计算结果越大,则说明两个向量越接近,在最接近的节点下的L个分支继续进行同样的点积计算,直到词汇树的叶节点,每一个叶节点成为视觉词汇,所有叶节点构成离线词典。
在本发明的一个实施例中,获取所述相机图像的拍摄设备为RGB-D相机。
请参见图3,图3是本发明实施例提供的一种回环检测方法中判断是否可进行回环检测的方法流程图,在本发明的一个实施例中,在进行所述根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量前,还包括:
获取相机图像的当前帧图像和上一帧图像的RGB图像和深度图;
根据所述当前帧图像和所述上一帧图像的RGB图像和深度图得到相机位姿相对运动距离;
将所述相机位姿相对运动距离与预设运动距离阈值作对比,判断是否可以进行回环检测。
进一步地,根据RGB-D相机获取的每一帧RGB图像和深度图进行反投影得到当前帧的点云数据,并且对上一帧图像的RGB图像和深度图进行反投影得到生意帧图像的点云数据,当前帧图像的点云数据与上一帧图像的点云数据进行匹配得到相机位姿,判断相机位姿相对运动大小,公式如下:其中R和T分别代表相机位姿的旋转和平移矩阵,r(R)将旋转矩阵转换为3x1的轴角表示,当Dij大于预设运动距离阈值Dτ时,则执行回环检测;当Dij小于或等于Dτ时,则继续对当前帧图像进行如上操作,直至Dij大于预设运动距离阈值Dτ。
请参见图4,图4是本发明实施例提供的一种回环检测方法中得到第一词汇映射向量的方法流程图,在本发明的一个实施例中,根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量,包括:
根据所述关键帧图像特征向量和所述离线词典得到第一叶节点标号信息;
根据所述第一叶节点标号信息得到第一词汇映射向量。
进一步地,根据当前帧图像特征向量在离线词典中找出与关键帧图像特征向量相关联的第一叶节点标号信息组成第一词汇映射向量。
请参见图5,图5是本发明实施例提供的一种回环检测方法中得到第二词汇映射向量的方法流程图,在本发明的一个实施例中,根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量,包括:
根据所述当前帧图像特征向量和所述离线词典得到第二叶节点标号信息;
根据所述第二叶节点标号信息得到第二词汇映射向量。
进一步地,提取当前关键帧图像的特征点,得到特征向量集合。将每一个特征向量与离线词典中的节点向量进行点积计算,每一个特征向量都可以在离线词典与之向量距离最近的视觉词汇,将对应的视觉词汇在词典中的编号保存为第二词汇映射向量用来表示该关键帧图像。
请参见图6,图6是本发明实施例提供的一种回环检测方法中检测回环的方法流程图,在本发明的一个实施例中,根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,包括:
根据所述第一词汇映射向量和所述第二词汇映射向量得到重合度,以将所述重合度与预设重合度阈值作对比得到对比结果;
根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿;
根据所述相机位姿得到重投影误差。
进一步地,当第一词汇映射向量与第二词汇映射向量的重合度小于预设重合度阈值时,则需要重新获取新的当前帧图像,并根据新的当前帧图像与离线词典得到新的第二词汇映射向量,新的第二词汇映射向量再与第一词汇映射向量进行对比,得到新的重合度;第一词汇映射向量与第二词汇映射向量的重合度大于预设重合度阈值时,则认为关键帧与当前帧相似,根据两个帧的深度图得到点云数据,利用ICP算法进行点云匹配得到相机位姿。将当前帧点云根据相机位姿投影到已有的关键帧上计算重投影误差,当重投影误差小于预设误差阈值时则认为检测到回环,并将当前关键帧加入已有关键帧队列中,否则没有检测到回环。
在本发明的一个实施例中,所述预设误差阈值等于2像素。
在本发明的一个实施例中,所述预设运动距离阈值Dτ=0.3。
在本发明的一个实施例中,所述预设重合度阈值为0.9。
具体的,本发明的回环检测方法利用RGB-D相机二维图像信息与三维点云信息相融合的方式,有效地降低了回环检测中的误匹配,具有良好的鲁棒性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (9)
1.一种回环检测方法,其特征在于,方法步骤如下:
获取相机图像与数据库图像;
根据所述数据库图像得到离线词典;
根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量;
根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量;
根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量;
根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,并将所述重投影误差与预设误差阈值作比较判断是否检测到回环;
所述根据所述第一词汇映射向量和所述第二词汇映射向量得到重投影误差,包括:
根据所述第一词汇映射向量和所述第二词汇映射向量得到重合度,以将所述重合度与预设重合度阈值作对比得到对比结果;
根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿;
根据所述相机位姿得到重投影误差;
所述根据所述对比结果对关键帧图像与当前帧图像的点云进行匹配计算得到相机位姿,包括:当第一词汇映射向量与第二词汇映射向量的重合度小于预设重合度阈值时,则需要重新获取新的当前帧图像,并根据新的当前帧图像与离线词典得到新的第二词汇映射向量,新的第二词汇映射向量再与第一词汇映射向量进行对比,得到新的重合度;第一词汇映射向量与第二词汇映射向量的重合度大于预设重合度阈值时,则认为关键帧与当前帧相似,根据两个帧的深度图得到点云数据,利用ICP算法进行点云匹配得到相机位姿;
将当前帧点云根据相机位姿投影到已有的关键帧上计算重投影误差,当重投影误差小于预设误差阈值时则认为检测到回环,并将当前关键帧加入已有关键帧队列中,否则没有检测到回环。
2.根据权利要求1所述的一种回环检测方法,其特征在于,根据数据库图像得到离线词典,包括:
根据所述数据库图像得到SIFT特征向量集合;
根据所述SIFT特征向量构建树型数据结构;
根据所述树型数据结构与所述SIFT特征向量得到离线词典。
3.根据权利要求1所述的一种回环检测方法,其特征在于,获取所述相机图像的拍摄设备为RGB-D相机。
4.根据权利要求3所述的一种回环检测方法,其特征在于,根据所述相机图像得到关键帧图像特征向量与当前帧图像特征向量之前,还包括:
获取相机图像的当前帧图像和上一帧图像的RGB图像和深度图;
根据所述当前帧图像和所述上一帧图像的RGB图像和深度图得到相机位姿相对运动距离;
将所述相机位姿相对运动距离与预设运动距离阈值作对比,判断是否可以进行回环检测。
5.根据权利要求1所述的一种回环检测方法,其特征在于,所述根据所述关键帧图像特征向量与所述离线词典得到第一词汇映射向量,包括:
根据所述关键帧图像特征向量和所述离线词典得到第一叶节点标号信息;
根据所述第一叶节点标号信息得到第一词汇映射向量。
6.根据权利要求1所述的一种回环检测方法,其特征在于,根据所述当前帧图像特征向量与所述离线词典的到第二词汇映射向量,包括:
根据所述当前帧图像特征向量和所述离线词典得到第二叶节点标号信息;
根据所述第二叶节点标号信息得到第二词汇映射向量。
7.根据权利要求1所述的一种回环检测方法,其特征在于,所述预设误差阈值等于2像素。
8.根据权利要求4所述的一种回环检测方法,其特征在于,所述预设运动距离阈值Dτ=0.3。
9.根据权利要求1所述的一种回环检测方法,其特征在于,所述预设重合度阈值为0.9。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199002.0A CN110070578B (zh) | 2019-03-15 | 2019-03-15 | 一种回环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199002.0A CN110070578B (zh) | 2019-03-15 | 2019-03-15 | 一种回环检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110070578A CN110070578A (zh) | 2019-07-30 |
CN110070578B true CN110070578B (zh) | 2023-07-18 |
Family
ID=67366276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910199002.0A Active CN110070578B (zh) | 2019-03-15 | 2019-03-15 | 一种回环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110070578B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443887B (zh) * | 2019-07-31 | 2023-06-16 | 广州市百果园信息技术有限公司 | 特征点定位方法、装置、重建方法、系统、设备及介质 |
CN110849367B (zh) * | 2019-10-08 | 2021-12-10 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN111986313A (zh) * | 2020-08-21 | 2020-11-24 | 浙江商汤科技开发有限公司 | 回环检测方法及装置、电子设备和存储介质 |
CN112052862A (zh) * | 2020-09-11 | 2020-12-08 | 重庆邮电大学 | 基于k-svd字典学习的移动机器人视觉slam回环检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886129A (zh) * | 2017-11-13 | 2018-04-06 | 湖南大学 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
CN108090958A (zh) * | 2017-12-06 | 2018-05-29 | 上海阅面网络科技有限公司 | 一种机器人同步定位和地图构建方法和系统 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
EP3333538A1 (en) * | 2016-12-07 | 2018-06-13 | Hexagon Technology Center GmbH | Scanner vis |
CN109242899A (zh) * | 2018-09-03 | 2019-01-18 | 北京维盛泰科科技有限公司 | 一种基于在线视觉词典的实时定位与地图构建方法 |
-
2019
- 2019-03-15 CN CN201910199002.0A patent/CN110070578B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3333538A1 (en) * | 2016-12-07 | 2018-06-13 | Hexagon Technology Center GmbH | Scanner vis |
CN107886129A (zh) * | 2017-11-13 | 2018-04-06 | 湖南大学 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
CN108090958A (zh) * | 2017-12-06 | 2018-05-29 | 上海阅面网络科技有限公司 | 一种机器人同步定位和地图构建方法和系统 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
CN109242899A (zh) * | 2018-09-03 | 2019-01-18 | 北京维盛泰科科技有限公司 | 一种基于在线视觉词典的实时定位与地图构建方法 |
Non-Patent Citations (2)
Title |
---|
"Fast and Effective Loop Closure Detection to Improve SLAM Performance";Oguzhan Guclu, Ahmet Burak Can;《Computer Science Journal of Intelligent & Robotic Systems》;20171010;全文 * |
基于ORB词袋模型的SLAM回环检测研究;李同等;《信息通信》;20171015(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110070578A (zh) | 2019-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sahu et al. | Artificial intelligence (AI) in augmented reality (AR)-assisted manufacturing applications: a review | |
US10977818B2 (en) | Machine learning based model localization system | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN108416840B (zh) | 一种基于单目相机的三维场景稠密重建方法 | |
KR102662201B1 (ko) | 콘볼루셔널 이미지 변환을 사용하여 동시 로컬화 및 맵핑을 수행하기 위한 방법 및 시스템 | |
CN110070578B (zh) | 一种回环检测方法 | |
WO2022188094A1 (zh) | 一种点云匹配方法及装置、导航方法及设备、定位方法、激光雷达 | |
CN108369741B (zh) | 用于配准数据的方法和系统 | |
CN108229416B (zh) | 基于语义分割技术的机器人slam方法 | |
CN109472828B (zh) | 一种定位方法、装置、电子设备及计算机可读存储介质 | |
CN110533720B (zh) | 基于联合约束的语义slam系统及方法 | |
US10554957B2 (en) | Learning-based matching for active stereo systems | |
CN109272577B (zh) | 一种基于Kinect的视觉SLAM方法 | |
CN115035260A (zh) | 一种室内移动机器人三维语义地图构建方法 | |
CN110751097A (zh) | 一种半监督的三维点云手势关键点检测方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN114494150A (zh) | 一种基于半直接法的单目视觉里程计的设计方法 | |
CN116643291A (zh) | 一种视觉与激光雷达联合剔除动态目标的slam方法 | |
CN111444768A (zh) | 一种用于反光地面场景的微小障碍物发现方法 | |
CN115008454A (zh) | 一种基于多帧伪标签数据增强的机器人在线手眼标定方法 | |
Tamaazousti et al. | The constrained SLAM framework for non-instrumented augmented reality: Application to industrial training | |
CN114140527A (zh) | 一种基于语义分割的动态环境双目视觉slam方法 | |
CN117726747A (zh) | 补全弱纹理场景的三维重建方法、装置、存储介质和设备 | |
CN116843754A (zh) | 一种基于多特征融合的视觉定位方法及系统 | |
WO2023178951A1 (zh) | 图像分析方法、模型的训练方法、装置、设备、介质及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |