CN109272577B - 一种基于Kinect的视觉SLAM方法 - Google Patents

一种基于Kinect的视觉SLAM方法 Download PDF

Info

Publication number
CN109272577B
CN109272577B CN201811001614.6A CN201811001614A CN109272577B CN 109272577 B CN109272577 B CN 109272577B CN 201811001614 A CN201811001614 A CN 201811001614A CN 109272577 B CN109272577 B CN 109272577B
Authority
CN
China
Prior art keywords
matching
distance
sift
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811001614.6A
Other languages
English (en)
Other versions
CN109272577A (zh
Inventor
陈宇翔
李新乐
洪冯
韩世杰
宋�莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Computer Technology and Applications
Original Assignee
Beijing Institute of Computer Technology and Applications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Computer Technology and Applications filed Critical Beijing Institute of Computer Technology and Applications
Priority to CN201811001614.6A priority Critical patent/CN109272577B/zh
Publication of CN109272577A publication Critical patent/CN109272577A/zh
Application granted granted Critical
Publication of CN109272577B publication Critical patent/CN109272577B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于Kinect的视觉SLAM方法,涉及计算机视觉技术领域。采用本发明基于Kinect的视觉SLAM方法,在视觉里程计环节通过结合主成分分析法将传统的SIFT算法降维得到PCA‑SIFT算法,并将匹配时的所用的欧式距离改为街区距离和棋盘距离的线性组合,提高了整体视觉SLAM的实时性。在回环检测中,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环精确回环检测,提高了回环检测的鲁棒性。

Description

一种基于Kinect的视觉SLAM方法
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于Kinect的视觉SLAM方法。
背景技术
增强现实的主要技术之一SLAM(Simultaneous localization and mapping),即时定位与地图构建技术。SLAM方法通过物体自身传感器获取到的信息,在运动过程中,计算自己的位置,同时对周围的环境地图进行构建。传统的视觉SLAM方法计算过程分为三个阶段,前端视觉里程计、后端优化、回环检测。其中,前端视觉里程计增量式地计算摄像头的位置与两个时刻间的相对运动(相对运动估计)。后端则是通过与前几帧做比较,不断修正视觉里程计环节中的累积误差。回环检测则是通过判断是否出现回环,即摄像头是否已检测过该位置,来修正机器人的位置与姿态。
尺度不变特征变换算法SIFT(Scale InvariantFeature Transform),是一种检测图像局部特征的算法,通过尺度空间找出一幅图中的极值点,以及与极值点有关的极值范围和特征方向,最终得以提取到位置、尺度和旋转不变的特征点并进行图像特征点匹配。
g2o(Generalized Graph Optimizer)即通用图优化求解器,是近年来很流行的一个图优化求解软件包。g2o的内核里带有各种各样的求解器,而它的顶点、边的类型则多种多样。只要一个优化问题能够表达成图,那么通过自定义顶点和边,就可以用g2o去求解它。
Prewitt算子是一种滤波算子,对图像中的每个点进行卷积运算,取最大值作为输出,结果是一幅轮廓幅度的图像。
在用增强现实技术进行装备维修的实际研究中,有两个问题:一是三维场景建模速度慢;二是当维修员将视线移开已建模场景再将移动视线回到原位置会出现虚拟信息漂移的现象。这是因为在把增强现实技术用于装备维修时所用的头戴设备硬件资源受限,计算能力不足,因此不能满足实时性。另一方面,相比于移动机器人领域,在增强现实技术领域中,使用的摄像头运动更加快速,自由度变得更加多样。所面对的真实环境中纹理更加复杂,对光照条件更加苛刻。
传统的视觉SLAM中,在视觉里程计环节所提取图像的特征算法为SIFT算法,得到的特征描述符为128维,在特征匹配时的距离为欧式距离,从而匹配时间很长,实时性很差。在回环检测中,如果是随机对前面的关键帧进行相似性检测,则实时性提高,但回环检测的鲁棒性不高。如果对所有的关键帧都进行相似性检测,则回环检测的鲁棒性提高,但实时性差。
在获取到每两帧之间的运动估计后,将运行中所获取到的图像两两进行匹配得到运动估计之后把点云图拼接起来,得到最后摄像机的运动轨迹和最终的场景点云图。但是在视觉里程计环节中误差累积,随着运动的累计,这个误差会越来越大,从而造成严重的漂移。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:针对增强现实用于装备维修时所需要的实时性和回环检测需求,如何解决增强现实领域地图构建,尺度漂移问题。
(二)技术方案
为了解决上述技术问题,本发明提供了一种基于Kinect的视觉SLAM方法,包括以下步骤:
在利用摄像机Kinect同时获取物体的彩色图像和深度图像后,执行如下步骤:
步骤一,基于PCA-SIFT和线性距离组合的视觉里程计环节
在视觉里程计环节采用PCA-SIFT算法,且在特征匹配时用街区距离和棋盘距离的线性组合代替欧式距离,以实时得到关键帧的特征点,进行匹配;
步骤二、利用图优化方法减小步骤一的视觉里程计环节中累计的误差;
步骤三、基于步骤一的结果,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环回环检测。
优选地,步骤一分为以下四个阶段:
第一阶段:提取关键帧的SIFT特征
首先,构建一个尺度空间;然后利用高斯差分算子DoG计算出关键点;之后求出关键点的主方向;最后生成关键点描述子,作为关键帧的SIFT特征,这个描述子是128维的,关键帧相当于角度转过一定角度或者平移超过一定距离的帧,所述关键点描述子为SIFT描述符;
第二阶段:结合主成分分析法得到关键帧的PCA-SIFT特征
首先输入待匹配图像的所有SIFT描述符,假设有M个特征点,其特征向量Xi的维数是128维的,i=1,2,3,…,128,构造一个样本矩阵X,其中Xij表示第j个特征点的第i维特征向量的值,0<j≤M;
然后计算上述样本矩阵X的协方差矩阵,得到一个128*128的协方差矩阵Z,计算过程如下:先对Xi求平均,得到
Figure BDA0001783096130000041
再对每一个Xi,计算Xi-Xav,这样得到的矩阵记为C=Xi-Xav;得到协方差矩阵Z=C*CT
之后计算这个协方差矩阵Z的特征值与对应的特征向量,求出128个特征值和对应的特征向量,然后按照特征值从大到小的顺序排列,取出前T’个较大的特征值对应的特征向量,把其构建成一个128*T’的矩阵,记为S;
最后把SIFT描述符投影到子空间中,从而得到PCA-SIFT描述符,作为PCA-SIFT特征;用样本矩阵X乘以特征矩阵S,得到一个M*T’大小的矩阵,将原有的128维SIFT特征降维成T’维向量;
第三阶段:用街区距离和棋盘距离的线性组合代替欧氏距离进行对两幅关键帧中的SIFT特征匹配,找到两幅关键帧中的匹配特征点
欧式距离为:
Figure BDA0001783096130000042
街区距离D1和棋盘距离D的定义为:
Figure BDA0001783096130000051
Figure BDA0001783096130000052
然后用街区距离D1和棋盘距离D的线性组合α(D1(x,y)+D(x,y))代替欧氏距离,街区距离和棋盘距离的加减运算;
第四阶段:用RANSAC算法消除误匹配
首先对匹配点进行初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离,其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点,然后采取RANSAC算法对匹配的特征点进行一致性检测。
优选地,T’取20以内的整数。
优选地,第四阶段中,n为偶数时,
Figure BDA0001783096130000053
n为奇数时,
Figure BDA0001783096130000054
优选地,步骤二具体为:
第一步,构建一个求解器globalOptimizer,并写明其使用的算法;
然后,在求解器内添加点和边:在所构建的图里,点是关键帧时相机的位姿,边则是相机运动间的变换矩阵,也即这两个点的变换,并在程序运行过程中不断作帧间检测;
最后,通过选择一些优化参数完成优化并存储优化结果,优化完毕后读取每个节点的估计值,得到优化后的运动轨迹,其中,选择不同的迭代策略得到对应的优化参数。
优选地,求解器globalOptimizer使用的算法为LM算法。
优选地,所述迭代策略为Gauss-Newton法或Levenberg-Marquardt。
优选地,步骤三具体包括:
第一阶段:轮廓匹配进行初步筛选
首先通过遍历深度图中每个像素,获得深度值和物体标记,提取处在一定范围内的深度图像,从而提取图像前端区域,然后利用Prewitt算子对Kinect提取的彩色图像和深度图像进行轮廓提取,并进行优化,最后利用轮廓的Hu矩进行轮廓的匹配;
第二阶段:利用词袋模型进行回环检测
首先利用PCA-SIFT算法从包括原图像以及利用轮廓匹配筛选得到的图像中提取视觉词汇向量,这些向量代表的是图像中局部不变的特征点;然后将所有特征点向量集合到一块,利用K-Means算法合并词义相近的视觉词汇,构造一个包含K个视觉单词的视觉表;之后统计视觉表中每个视觉单词在图像中出现的次数,从而将每一副图像表示成为一个K维数值的向量;最后利用这个K维数值的向量去求当前图像与其他图像的相关性,得到相关性系数,如果这个系数超过预设的阈值,那么认为发生了回环,则去优化运动估计,得到优化后的运动估计;若没有超过阈值,表示没有发生回环现象,则不做处理。
(三)有益效果
本发明针对传统视觉SLAM实时性不高的缺点,提出了提高视觉SLAM实时性的方法,本发明将SIFT算法与主成分分析方法结合为PCA-SIFT算法,对提取的特征降到小于20维。并对特征匹配中的距离判断进行简化,减少运算量。另一方面,利用Kinect能够同时获取物体的彩色图像和深度图像的优势,对场景提取轮廓并优化。之后利用场景的轮廓去完成两件事:一是关键帧的提取,二是在回环检测中先进行轮廓粗匹配以减少词袋模型中用于聚类的特征描述子的数量。采用本发明基于Kinect的视觉SLAM方法,在视觉里程计环节通过结合主成分分析法将传统的SIFT算法降维得到PCA-SIFT算法,并将匹配时的所用的欧式距离改为街区距离和棋盘距离的线性组合,提高了整体视觉SLAM的实时性。进一步,在回环检测中,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环精确回环检测,提高了回环检测的鲁棒性。
附图说明
图1是基于Kinect的视觉SLAM方法基本流程图;
图2是本发明的方法中Ransac算法的流程图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明提供的一种基于kinect的视觉SLAM的基本流程图如图1所示,分视觉里程计环节、图优化环节和回环检测环节三个环节。具体过程为,在利用摄像机Kinect同时获取物体的彩色图像和深度图像后,执行如下步骤如下:
步骤一,基于PCA-SIFT和线性距离组合的视觉里程计环节
在视觉里程计环节采用PCA-SIFT算法,且在特征匹配时用街区距离和棋盘距离的线性组合代替欧式距离,以实时得到关键帧的特征点,快速匹配。主要分为以下四个阶段:
第一阶段:提取关键帧的SIFT特征
首先,构建一个尺度空间;然后利用高斯差分算子DoG计算出关键点;之后求出关键点的主方向;最后生成关键点描述子,作为关键帧的SIFT特征,这个描述子是128维的。关键帧相当于角度转过一定角度或者平移超过一定距离的帧。所述关键点描述子为SIFT描述符;
第二阶段:结合主成分分析法得到关键帧的PCA-SIFT特征
首先输入待匹配图像的所有SIFT描述符,假设有M个特征点,其特征向量Xi(i=1,2,3,…,128)的维数是128维的。构造一个样本矩阵X,其中Xij表示第j(0<j≤M)个特征点的第i维特征向量的值。
然后计算上述样本矩阵X的协方差矩阵,得到一个128*128的协方差矩阵Z。计算过程如下:先对Xi求平均,得到
Figure BDA0001783096130000081
再对每一个Xi,计算Xi-Xav,这样得到的矩阵记为C=Xi-Xav;得到协方差矩阵Z=C*CT
之后计算这个协方差矩阵Z的特征值与对应的特征向量,理论上会求出128个特征值和对应的特征向量。然后按照特征值从大到小的顺序排列,取出前T’个较大的特征值对应的特征向量,把其构建成一个128*T’的矩阵,记为S。
最后把SIFT描述符投影到子空间中,从而得到PCA-SIFT描述符,作为PCA-SIFT特征。用样本矩阵X乘以上述特征矩阵S,得到一个M*T’大小的矩阵,将原有的128维SIFT特征降维成T’维向量,T’取20以内的整数。
第三阶段:用街区距离和棋盘距离的线性组合代替欧氏距离进行对两幅关键帧中的SIFT特征(描述符)匹配,找到两幅关键帧中的匹配特征点
为了使得在匹配时的速度更快,复杂度更小,匹配过程中使用街区距离和棋盘距离。
欧式距离为:
Figure BDA0001783096130000091
街区距离D1和棋盘距离D的定义为:
Figure BDA0001783096130000092
Figure BDA0001783096130000093
然后用两者的线性组合α(D1(x,y)+D(x,y))代替欧氏距离,街区距离和棋盘距离的加减运算,相对于欧式距离计算过程中的平方与开方运算快得多。
其中,n为偶数时,
Figure BDA0001783096130000094
n为奇数时,
Figure BDA0001783096130000095
第四阶段:用RANSAC算法消除误匹配
如图2所示,是用RANSAC算法消除误匹配的主要流程图。
为了消除这些误匹配项,首先对匹配点进行初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离。其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点。然后采取图2所示的RANSAC算法对匹配的特征点进行一致性检测。
步骤二,基于g2o的图优化
利用图优化方法减小步骤一的视觉里程计环节中累计的误差。基于g2o的图优化主要由以下步骤实现:
第一步,构建一个求解器:globalOptimizer,并写明其使用的算法,比如Gauss-Newton算法或LM算法。本发明选用LM算法。
然后,在求解器内添加点和边:在本发明中构建的图里,点是关键帧时相机的位姿,边则是相机运动间的变换矩阵,也即这两个点的变换。并在程序运行过程中不断作帧间检测。
最后,通过选择一些优化参数完成优化并存储优化结果。优化完毕后读取每个节点的估计值,得到优化后的运动轨迹。其中,选择不同的迭代策略得到对应的优化参数,所述迭代策略为Gauss-Newton(GN)法或Levenberg-Marquardt(LM)。
步骤三,基于轮廓匹配和词袋模型的回环检测
第一阶段:轮廓匹配进行初步筛选
首先通过遍历深度图中每个像素,获得深度值和物体标记,提取处在预设范围内的深度图像,从而提取图像前端区域。然后利用Prewitt算子对Kinect提取的彩色图像和深度图像进行轮廓提取,并进行优化。最后利用轮廓的Hu矩(归一化中心矩阵的线性组合,代表图像某个特征)进行轮廓的匹配,从而减少回环检测中做相似性检测的关键帧个数。
第二阶段:利用词袋模型进行回环检测
首先利用PCA-SIFT算法从包括原图像以及利用轮廓匹配筛选得到的图像中提取视觉词汇向量,这些向量代表的是图像中局部不变的特征点;然后将所有特征点向量集合到一块,利用K-Means算法合并词义相近的视觉词汇,构造一个包含K个视觉单词的视觉表;之后统计视觉表中每个视觉单词在图像中出现的次数,从而将每一副图像表示成为一个K维数值的向量;最后利用这个K维数值的向量去求当前图像与其他图像的相关性,得到相关性系数,如果这个系数超过预设的阈值,那么认为发生了回环,则去优化运动估计(即优化所求出的相机运动的位移和角度),得到优化后的运动估计;若没有超过阈值,表示没有发生回环现象,则不做处理。
第三环节中,利用第一环节求出的关键帧的特征描述符,即对于每一个新检测到的关键帧,都通过与之前关键帧的特征描述符进行匹配,从而判断回环检测与否。
可以看出,本发明针对传统视觉SLAM实时性不高的缺点,提出了提高视觉SLAM实时性的方法:传统视觉里程计环节里特征匹配使用SIFT算法,特征取128维,本发明将SIFT算法与主成分分析方法结合为PCA-SIFT算法,对提取的特征降到小于20维。并对特征匹配中的距离判断进行简化,减少运算量。另一方面,利用Kinect能够同时获取物体的彩色图像和深度图像的优势,对场景提取轮廓并优化。之后利用场景的轮廓去完成两件事:一是关键帧的提取,二是在回环检测中先进行轮廓粗匹配以减少词袋模型中用于聚类的特征描述子的数量。
采用本发明基于Kinect的视觉SLAM方法,在视觉里程计环节通过结合主成分分析法将传统的SIFT算法降维得到PCA-SIFT算法,并将匹配时的所用的欧式距离改为街区距离和棋盘距离的线性组合,提高了整体视觉SLAM的实时性。在回环检测中,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环精确回环检测,提高了回环检测的鲁棒性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (7)

1.一种基于Kinect的视觉SLAM方法,其特征在于,包括以下步骤:
在利用摄像机Kinect同时获取物体的彩色图像和深度图像后,执行如下步骤:
步骤一,基于PCA-SIFT和线性距离组合的视觉里程计环节
在视觉里程计环节采用PCA-SIFT算法,且在特征匹配时用街区距离和棋盘距离的线性组合代替欧式距离,以实时得到关键帧的特征点,进行匹配;
步骤二、利用图优化方法减小步骤一的视觉里程计环节中累积的误差;
步骤三、基于步骤一的结果,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环检测;
步骤一分为以下四个阶段:
第一阶段:提取关键帧的SIFT特征
首先,构建一个尺度空间;然后利用高斯差分算子DoG计算出关键点;之后求出关键点的主方向;最后生成关键点描述子,作为关键帧的SIFT特征,这个描述子是128维的,关键帧相当于角度转过一定角度或者平移超过一定距离的帧,所述关键点描述子为SIFT描述符;
第二阶段:结合主成分分析法得到关键帧的PCA-SIFT特征
首先输入待匹配图像的所有SIFT描述符,假设有M个特征点,其特征向量Xi的维数是128维的,i=1,2,3,…,128,构造一个样本矩阵X,其中Xij表示第j个特征点的第i维特征向量的值,0<j≤M;
然后计算上述样本矩阵X的协方差矩阵,得到一个128*128的协方差矩阵Z,计算过程如下:先对Xi求平均,得到
Figure FDA0003896658240000021
再对每一个Xi,计算Xi-Xav,这样得到的矩阵记为C=Xi-Xav;得到协方差矩阵Z=C*CT
之后计算这个协方差矩阵Z的特征值与对应的特征向量,求出128个特征值和对应的特征向量,然后按照特征值从大到小的顺序排列,取出前T’个较大的特征值对应的特征向量,把其构建成一个128*T’的矩阵,记为S;
最后把SIFT描述符投影到子空间中,从而得到PCA-SIFT描述符,作为PCA-SIFT特征;用样本矩阵X乘以特征矩阵S,得到一个M*T’大小的矩阵,将原有的128维SIFT特征降维成T’维向量;
第三阶段:用街区距离和棋盘距离的线性组合代替欧氏距离进行对两幅关键帧中的SIFT特征匹配,找到两幅关键帧中的匹配特征点
欧式距离为:
Figure FDA0003896658240000022
街区距离D1和棋盘距离D的定义为:
Figure FDA0003896658240000023
Figure FDA0003896658240000024
然后用街区距离D1和棋盘距离D的线性组合α(D1(x,y)+D(x,y))代替欧氏距离,街区距离和棋盘距离的加减运算;
第四阶段:用RANSAC算法消除误匹配
首先对匹配点进行初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离,其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点,然后采取RANSAC算法对匹配的特征点进行一致性检测。
2.如权利要求1所述的方法,其特征在于,T’取20以内的整数。
3.如权利要求1所述的方法,其特征在于,第四阶段中,n为偶数时,
Figure FDA0003896658240000031
n为奇数时,
Figure FDA0003896658240000032
4.如权利要求1所述的方法,其特征在于,步骤二具体为:
第一步,构建一个求解器globalOptimizer,并写明其使用的算法;
然后,在求解器内添加点和边:在所构建的图里,点是关键帧时相机的位姿,边则是相机运动间的变换矩阵,也即这两个点的变换,并在程序运行过程中不断作帧间检测;
最后,通过选择一些优化参数完成优化并存储优化结果,优化完毕后读取每个节点的估计值,得到优化后的运动轨迹,其中,选择不同的迭代策略得到对应的优化参数。
5.如权利要求4所述的方法,其特征在于,求解器globalOptimizer使用的算法为LM算法。
6.如权利要求4所述的方法,其特征在于,所述迭代策略为Gauss-Newton法或Levenberg-Marquardt。
7.如权利要求1所述的方法,其特征在于,步骤三具体包括:
第一阶段:轮廓匹配进行初步筛选
首先通过遍历深度图像中每个像素,获得深度值和物体标记,提取处在一定范围内的深度图像,从而提取图像前端区域,然后利用Prewitt算子对Kinect提取的彩色图像和深度图像进行轮廓提取,并进行优化,最后利用轮廓的Hu矩进行轮廓的匹配;
第二阶段:利用词袋模型进行回环检测
首先利用PCA-SIFT算法从包括原图像以及利用轮廓匹配筛选得到的图像中提取视觉词汇向量,这些向量代表的是图像中局部不变的特征点;然后将所有特征点向量集合到一块,利用K-Means算法合并词义相近的视觉词汇,构造一个包含K个视觉单词的视觉表;之后统计视觉表中每个视觉单词在图像中出现的次数,从而将每一副图像表示成为一个K维数值的向量;最后利用这个K维数值的向量去求当前图像与其他图像的相关性,得到相关性系数,如果这个系数超过预设的阈值,那么认为发生了回环,则去优化步骤一得到的两个时刻的相对运动估计,得到优化后的运动估计;若没有超过阈值,表示没有发生回环现象,则不做处理。
CN201811001614.6A 2018-08-30 2018-08-30 一种基于Kinect的视觉SLAM方法 Active CN109272577B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811001614.6A CN109272577B (zh) 2018-08-30 2018-08-30 一种基于Kinect的视觉SLAM方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811001614.6A CN109272577B (zh) 2018-08-30 2018-08-30 一种基于Kinect的视觉SLAM方法

Publications (2)

Publication Number Publication Date
CN109272577A CN109272577A (zh) 2019-01-25
CN109272577B true CN109272577B (zh) 2023-02-03

Family

ID=65154558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811001614.6A Active CN109272577B (zh) 2018-08-30 2018-08-30 一种基于Kinect的视觉SLAM方法

Country Status (1)

Country Link
CN (1) CN109272577B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945856B (zh) * 2019-02-18 2021-07-06 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN110031880B (zh) * 2019-04-16 2020-02-21 杭州易绘科技有限公司 基于地理位置定位的高精度增强现实方法及设备
CN110335319B (zh) * 2019-06-26 2022-03-18 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110766024B (zh) * 2019-10-08 2023-05-23 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN117496189B (zh) * 2024-01-02 2024-03-22 中国石油大学(华东) 一种基于深度相机的矩形托盘孔识别方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182373B1 (en) * 2015-12-17 2019-06-19 STMicroelectronics S.A. Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN108108764B (zh) * 2017-12-26 2021-12-24 东南大学 一种基于随机森林的视觉slam回环检测方法

Also Published As

Publication number Publication date
CN109272577A (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
Labbé et al. Cosypose: Consistent multi-view multi-object 6d pose estimation
CN109272577B (zh) 一种基于Kinect的视觉SLAM方法
Hodan et al. Bop: Benchmark for 6d object pose estimation
Rock et al. Completing 3d object shape from one depth image
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
CN108369741B (zh) 用于配准数据的方法和系统
Kendall et al. Posenet: A convolutional network for real-time 6-dof camera relocalization
Zhu et al. Single image 3D object detection and pose estimation for grasping
Aubry et al. Painting-to-3D model alignment via discriminative visual elements
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
Azad et al. Stereo-based 6d object localization for grasping with humanoid robot systems
CN108229416B (zh) 基于语义分割技术的机器人slam方法
Alhamzi et al. 3d object recognition based on local and global features using point cloud library
CN113298934B (zh) 一种基于双向匹配的单目视觉图像三维重建方法及系统
Prokaj et al. 3-D model based vehicle recognition
Gedik et al. 3-D rigid body tracking using vision and depth sensors
Hinterstoisser et al. N3m: Natural 3d markers for real-time object detection and pose estimation
Donoser et al. Robust planar target tracking and pose estimation from a single concavity
Ekekrantz et al. Adaptive iterative closest keypoint
CN105139013A (zh) 一种融合形状特征和兴趣点的物体识别方法
Kanaujia et al. Part segmentation of visual hull for 3d human pose estimation
Svedman et al. Structure from stereo vision using unsynchronized cameras for simultaneous localization and mapping
Alhwarin Fast and robust image feature matching methods for computer vision applications
Huang Learning a 3D descriptor for cross-source point cloud registration from synthetic data
Xu Stereo Visual Odometry with Windowed Bundle Adjustment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant