CN109272577A - 一种基于Kinect的视觉SLAM方法 - Google Patents
一种基于Kinect的视觉SLAM方法 Download PDFInfo
- Publication number
- CN109272577A CN109272577A CN201811001614.6A CN201811001614A CN109272577A CN 109272577 A CN109272577 A CN 109272577A CN 201811001614 A CN201811001614 A CN 201811001614A CN 109272577 A CN109272577 A CN 109272577A
- Authority
- CN
- China
- Prior art keywords
- distance
- sift
- matching
- point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Abstract
本发明涉及一种基于Kinect的视觉SLAM方法,涉及计算机视觉技术领域。采用本发明基于Kinect的视觉SLAM方法,在视觉里程计环节通过结合主成分分析法将传统的SIFT算法降维得到PCA‑SIFT算法,并将匹配时的所用的欧式距离改为街区距离和棋盘距离的线性组合,提高了整体视觉SLAM的实时性。在回环检测中,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环精确回环检测,提高了回环检测的鲁棒性。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于Kinect的视觉SLAM方法。
背景技术
增强现实的主要技术之一SLAM(Simultaneous localization and mapping),即时定位与地图构建技术。SLAM方法通过物体自身传感器获取到的信息,在运动过程中,计算自己的位置,同时对周围的环境地图进行构建。传统的视觉SLAM方法计算过程分为三个阶段,前端视觉里程计、后端优化、回环检测。其中,前端视觉里程计增量式地计算摄像头的位置与两个时刻间的相对运动(相对运动估计)。后端则是通过与前几帧做比较,不断修正视觉里程计环节中的累积误差。回环检测则是通过判断是否出现回环,即摄像头是否已检测过该位置,来修正机器人的位置与姿态。
尺度不变特征变换算法SIFT(Scale InvariantFeature Transform),是一种检测图像局部特征的算法,通过尺度空间找出一幅图中的极值点,以及与极值点有关的极值范围和特征方向,最终得以提取到位置、尺度和旋转不变的特征点并进行图像特征点匹配。
g2o(Generalized Graph Optimizer)即通用图优化求解器,是近年来很流行的一个图优化求解软件包。g2o的内核里带有各种各样的求解器,而它的顶点、边的类型则多种多样。只要一个优化问题能够表达成图,那么通过自定义顶点和边,就可以用g2o去求解它。
Prewitt算子是一种滤波算子,对图像中的每个点进行卷积运算,取最大值作为输出,结果是一幅轮廓幅度的图像。
在用增强现实技术进行装备维修的实际研究中,有两个问题:一是三维场景建模速度慢;二是当维修员将视线移开已建模场景再将移动视线回到原位置会出现虚拟信息漂移的现象。这是因为在把增强现实技术用于装备维修时所用的头戴设备硬件资源受限,计算能力不足,因此不能满足实时性。另一方面,相比于移动机器人领域,在增强现实技术领域中,使用的摄像头运动更加快速,自由度变得更加多样。所面对的真实环境中纹理更加复杂,对光照条件更加苛刻。
传统的视觉SLAM中,在视觉里程计环节所提取图像的特征算法为SIFT算法,得到的特征描述符为128维,在特征匹配时的距离为欧式距离,从而匹配时间很长,实时性很差。在回环检测中,如果是随机对前面的关键帧进行相似性检测,则实时性提高,但回环检测的鲁棒性不高。如果对所有的关键帧都进行相似性检测,则回环检测的鲁棒性提高,但实时性差。
在获取到每两帧之间的运动估计后,将运行中所获取到的图像两两进行匹配得到运动估计之后把点云图拼接起来,得到最后摄像机的运动轨迹和最终的场景点云图。但是在视觉里程计环节中误差累积,随着运动的累计,这个误差会越来越大,从而造成严重的漂移。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:针对增强现实用于装备维修时所需要的实时性和回环检测需求,如何解决增强现实领域地图构建,尺度漂移问题。
(二)技术方案
为了解决上述技术问题,本发明提供了一种基于Kinect的视觉SLAM方法,包括以下步骤:
在利用摄像机Kinect同时获取物体的彩色图像和深度图像后,执行如下步骤:
步骤一,基于PCA-SIFT和线性距离组合的视觉里程计环节
在视觉里程计环节采用PCA-SIFT算法,且在特征匹配时用街区距离和棋盘距离的线性组合代替欧式距离,以实时得到关键帧的特征点,进行匹配;
步骤二、利用图优化方法减小步骤一的视觉里程计环节中累计的误差;
步骤三、基于步骤一的结果,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环回环检测。
优选地,步骤一分为以下四个阶段:
第一阶段:提取关键帧的SIFT特征
首先,构建一个尺度空间;然后利用高斯差分算子DoG计算出关键点;之后求出关键点的主方向;最后生成关键点描述子,作为关键帧的SIFT特征,这个描述子是128维的,关键帧相当于角度转过一定角度或者平移超过一定距离的帧,所述关键点描述子为SIFT描述符;
第二阶段:结合主成分分析法得到关键帧的PCA-SIFT特征
首先输入待匹配图像的所有SIFT描述符,假设有M个特征点,其特征向量Xi的维数是128维的,i=1,2,3,…,128,构造一个样本矩阵X,其中Xij表示第j个特征点的第i维特征向量的值,0<j≤M;
然后计算上述样本矩阵X的协方差矩阵,得到一个128*128的协方差矩阵Z,计算过程如下:先对Xi求平均,得到再对每一个Xi,计算Xi-Xav,这样得到的矩阵记为C=Xi-Xav;得到协方差矩阵Z=C*CT;
之后计算这个协方差矩阵Z的特征值与对应的特征向量,求出128个特征值和对应的特征向量,然后按照特征值从大到小的顺序排列,取出前T’个较大的特征值对应的特征向量,把其构建成一个128*T’的矩阵,记为S;
最后把SIFT描述符投影到子空间中,从而得到PCA-SIFT描述符,作为PCA-SIFT特征;用样本矩阵X乘以特征矩阵S,得到一个M*T’大小的矩阵,将原有的128维SIFT特征降维成T’维向量;
第三阶段:用街区距离和棋盘距离的线性组合代替欧氏距离进行对两幅关键帧中的SIFT特征匹配,找到两幅关键帧中的匹配特征点
欧式距离为:
街区距离D1和棋盘距离D∞的定义为:
然后用街区距离D1和棋盘距离D∞的线性组合α(D1(x,y)+D∞(x,y))代替欧氏距离,街区距离和棋盘距离的加减运算;
第四阶段:用RANSAC算法消除误匹配
首先对匹配点进行初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离,其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点,然后采取RANSAC算法对匹配的特征点进行一致性检测。
优选地,T’取20以内的整数。
优选地,第四阶段中,n为偶数时,n为奇数时,
优选地,步骤二具体为:
第一步,构建一个求解器globalOptimizer,并写明其使用的算法;
然后,在求解器内添加点和边:在所构建的图里,点是关键帧时相机的位姿,边则是相机运动间的变换矩阵,也即这两个点的变换,并在程序运行过程中不断作帧间检测;
最后,通过选择一些优化参数完成优化并存储优化结果,优化完毕后读取每个节点的估计值,得到优化后的运动轨迹,其中,选择不同的迭代策略得到对应的优化参数。
优选地,求解器globalOptimizer使用的算法为LM算法。
优选地,所述迭代策略为Gauss-Newton法或Levenberg-Marquardt。
优选地,步骤三具体包括:
第一阶段:轮廓匹配进行初步筛选
首先通过遍历深度图中每个像素,获得深度值和物体标记,提取处在一定范围内的深度图像,从而提取图像前端区域,然后利用Prewitt算子对Kinect提取的彩色图像和深度图像进行轮廓提取,并进行优化,最后利用轮廓的Hu矩进行轮廓的匹配;
第二阶段:利用词袋模型进行回环检测
首先利用PCA-SIFT算法从包括原图像以及利用轮廓匹配筛选得到的图像中提取视觉词汇向量,这些向量代表的是图像中局部不变的特征点;然后将所有特征点向量集合到一块,利用K-Means算法合并词义相近的视觉词汇,构造一个包含K个视觉单词的视觉表;之后统计视觉表中每个视觉单词在图像中出现的次数,从而将每一副图像表示成为一个K维数值的向量;最后利用这个K维数值的向量去求当前图像与其他图像的相关性,得到相关性系数,如果这个系数超过预设的阈值,那么认为发生了回环,则去优化运动估计,得到优化后的运动估计;若没有超过阈值,表示没有发生回环现象,则不做处理。
(三)有益效果
本发明针对传统视觉SLAM实时性不高的缺点,提出了提高视觉SLAM实时性的方法,本发明将SIFT算法与主成分分析方法结合为PCA-SIFT算法,对提取的特征降到小于20维。并对特征匹配中的距离判断进行简化,减少运算量。另一方面,利用Kinect能够同时获取物体的彩色图像和深度图像的优势,对场景提取轮廓并优化。之后利用场景的轮廓去完成两件事:一是关键帧的提取,二是在回环检测中先进行轮廓粗匹配以减少词袋模型中用于聚类的特征描述子的数量。采用本发明基于Kinect的视觉SLAM方法,在视觉里程计环节通过结合主成分分析法将传统的SIFT算法降维得到PCA-SIFT算法,并将匹配时的所用的欧式距离改为街区距离和棋盘距离的线性组合,提高了整体视觉SLAM的实时性。进一步,在回环检测中,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环精确回环检测,提高了回环检测的鲁棒性。
附图说明
图1是基于Kinect的视觉SLAM方法基本流程图;
图2是本发明的方法中Ransac算法的流程图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明提供的一种基于kinect的视觉SLAM的基本流程图如图1所示,分视觉里程计环节、图优化环节和回环检测环节三个环节。具体过程为,在利用摄像机Kinect同时获取物体的彩色图像和深度图像后,执行如下步骤如下:
步骤一,基于PCA-SIFT和线性距离组合的视觉里程计环节
在视觉里程计环节采用PCA-SIFT算法,且在特征匹配时用街区距离和棋盘距离的线性组合代替欧式距离,以实时得到关键帧的特征点,快速匹配。主要分为以下四个阶段:
第一阶段:提取关键帧的SIFT特征
首先,构建一个尺度空间;然后利用高斯差分算子DoG计算出关键点;之后求出关键点的主方向;最后生成关键点描述子,作为关键帧的SIFT特征,这个描述子是128维的。关键帧相当于角度转过一定角度或者平移超过一定距离的帧。所述关键点描述子为SIFT描述符;
第二阶段:结合主成分分析法得到关键帧的PCA-SIFT特征
首先输入待匹配图像的所有SIFT描述符,假设有M个特征点,其特征向量Xi(i=1,2,3,…,128)的维数是128维的。构造一个样本矩阵X,其中Xij表示第j(0<j≤M)个特征点的第i维特征向量的值。
然后计算上述样本矩阵X的协方差矩阵,得到一个128*128的协方差矩阵Z。计算过程如下:先对Xi求平均,得到再对每一个Xi,计算Xi-Xav,这样得到的矩阵记为C=Xi-Xav;得到协方差矩阵Z=C*CT。
之后计算这个协方差矩阵Z的特征值与对应的特征向量,理论上会求出128个特征值和对应的特征向量。然后按照特征值从大到小的顺序排列,取出前T’个较大的特征值对应的特征向量,把其构建成一个128*T’的矩阵,记为S。
最后把SIFT描述符投影到子空间中,从而得到PCA-SIFT描述符,作为PCA-SIFT特征。用样本矩阵X乘以上述特征矩阵S,得到一个M*T’大小的矩阵,将原有的128维SIFT特征降维成T’维向量,T’取20以内的整数。
第三阶段:用街区距离和棋盘距离的线性组合代替欧氏距离进行对两幅关键帧中的SIFT特征(描述符)匹配,找到两幅关键帧中的匹配特征点
为了使得在匹配时的速度更快,复杂度更小,匹配过程中使用街区距离和棋盘距离。
欧式距离为:
街区距离D1和棋盘距离D∞的定义为:
然后用两者的线性组合α(D1(x,y)+D∞(x,y))代替欧氏距离,街区距离和棋盘距离的加减运算,相对于欧式距离计算过程中的平方与开方运算快得多。
其中,n为偶数时,n为奇数时,
第四阶段:用RANSAC算法消除误匹配
如图2所示,是用RANSAC算法消除误匹配的主要流程图。
为了消除这些误匹配项,首先对匹配点进行初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离。其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点。然后采取图2所示的RANSAC算法对匹配的特征点进行一致性检测。
步骤二,基于g2o的图优化
利用图优化方法减小步骤一的视觉里程计环节中累计的误差。基于g2o的图优化主要由以下步骤实现:
第一步,构建一个求解器:globalOptimizer,并写明其使用的算法,比如Gauss-Newton算法或LM算法。本发明选用LM算法。
然后,在求解器内添加点和边:在本发明中构建的图里,点是关键帧时相机的位姿,边则是相机运动间的变换矩阵,也即这两个点的变换。并在程序运行过程中不断作帧间检测。
最后,通过选择一些优化参数完成优化并存储优化结果。优化完毕后读取每个节点的估计值,得到优化后的运动轨迹。其中,选择不同的迭代策略得到对应的优化参数,所述迭代策略为Gauss-Newton(GN)法或Levenberg-Marquardt(LM)。
步骤三,基于轮廓匹配和词袋模型的回环检测
第一阶段:轮廓匹配进行初步筛选
首先通过遍历深度图中每个像素,获得深度值和物体标记,提取处在预设范围内的深度图像,从而提取图像前端区域。然后利用Prewitt算子对Kinect提取的彩色图像和深度图像进行轮廓提取,并进行优化。最后利用轮廓的Hu矩(归一化中心矩阵的线性组合,代表图像某个特征)进行轮廓的匹配,从而减少回环检测中做相似性检测的关键帧个数。
第二阶段:利用词袋模型进行回环检测
首先利用PCA-SIFT算法从包括原图像以及利用轮廓匹配筛选得到的图像中提取视觉词汇向量,这些向量代表的是图像中局部不变的特征点;然后将所有特征点向量集合到一块,利用K-Means算法合并词义相近的视觉词汇,构造一个包含K个视觉单词的视觉表;之后统计视觉表中每个视觉单词在图像中出现的次数,从而将每一副图像表示成为一个K维数值的向量;最后利用这个K维数值的向量去求当前图像与其他图像的相关性,得到相关性系数,如果这个系数超过预设的阈值,那么认为发生了回环,则去优化运动估计(即优化所求出的相机运动的位移和角度),得到优化后的运动估计;若没有超过阈值,表示没有发生回环现象,则不做处理。
第三环节中,利用第一环节求出的关键帧的特征描述符,即对于每一个新检测到的关键帧,都通过与之前关键帧的特征描述符进行匹配,从而判断回环检测与否。
可以看出,本发明针对传统视觉SLAM实时性不高的缺点,提出了提高视觉SLAM实时性的方法:传统视觉里程计环节里特征匹配使用SIFT算法,特征取128维,本发明将SIFT算法与主成分分析方法结合为PCA-SIFT算法,对提取的特征降到小于20维。并对特征匹配中的距离判断进行简化,减少运算量。另一方面,利用Kinect能够同时获取物体的彩色图像和深度图像的优势,对场景提取轮廓并优化。之后利用场景的轮廓去完成两件事:一是关键帧的提取,二是在回环检测中先进行轮廓粗匹配以减少词袋模型中用于聚类的特征描述子的数量。
采用本发明基于Kinect的视觉SLAM方法,在视觉里程计环节通过结合主成分分析法将传统的SIFT算法降维得到PCA-SIFT算法,并将匹配时的所用的欧式距离改为街区距离和棋盘距离的线性组合,提高了整体视觉SLAM的实时性。在回环检测中,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环精确回环检测,提高了回环检测的鲁棒性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (8)
1.一种基于Kinect的视觉SLAM方法,其特征在于,包括以下步骤:
在利用摄像机Kinect同时获取物体的彩色图像和深度图像后,执行如下步骤:
步骤一,基于PCA-SIFT和线性距离组合的视觉里程计环节
在视觉里程计环节采用PCA-SIFT算法,且在特征匹配时用街区距离和棋盘距离的线性组合代替欧式距离,以实时得到关键帧的特征点,进行匹配;
步骤二、利用图优化方法减小步骤一的视觉里程计环节中累积的误差;
步骤三、基于步骤一的结果,首先提取关键帧的轮廓进行轮廓匹配缩减所需要进行相似性检测的关键帧数量,然后利用词袋模型进行二次回环回环检测。
2.如权利要求1所述的方法,其特征在于,步骤一分为以下四个阶段:
第一阶段:提取关键帧的SIFT特征
首先,构建一个尺度空间;然后利用高斯差分算子DoG计算出关键点;之后求出关键点的主方向;最后生成关键点描述子,作为关键帧的SIFT特征,这个描述子是128维的,关键帧相当于角度转过一定角度或者平移超过一定距离的帧,所述关键点描述子为SIFT描述符;
第二阶段:结合主成分分析法得到关键帧的PCA-SIFT特征
首先输入待匹配图像的所有SIFT描述符,假设有M个特征点,其特征向量Xi的维数是128维的,i=1,2,3,…,128,构造一个样本矩阵X,其中Xij表示第j个特征点的第i维特征向量的值,0<j≤M;
然后计算上述样本矩阵X的协方差矩阵,得到一个128*128的协方差矩阵Z,计算过程如下:先对Xi求平均,得到再对每一个Xi,计算Xi-Xav,这样得到的矩阵记为C=Xi-Xav;得到协方差矩阵Z=C*CT;
之后计算这个协方差矩阵Z的特征值与对应的特征向量,求出128个特征值和对应的特征向量,然后按照特征值从大到小的顺序排列,取出前T’个较大的特征值对应的特征向量,把其构建成一个128*T’的矩阵,记为S;
最后把SIFT描述符投影到子空间中,从而得到PCA-SIFT描述符,作为PCA-SIFT特征;用样本矩阵X乘以特征矩阵S,得到一个M*T’大小的矩阵,将原有的128维SIFT特征降维成T’维向量;
第三阶段:用街区距离和棋盘距离的线性组合代替欧氏距离进行对两幅关键帧中的SIFT特征匹配,找到两幅关键帧中的匹配特征点
欧式距离为:
街区距离D1和棋盘距离D∞的定义为:
然后用街区距离D1和棋盘距离D∞的线性组合α(D1(x,y)+D∞(x,y))代替欧氏距离,街区距离和棋盘距离的加减运算;
第四阶段:用RANSAC算法消除误匹配
首先对匹配点进行初步筛选,筛选标准是对当前所有匹配点的匹配距离进行排列,找出最小的匹配距离,其他匹配距离如果超过最小匹配距离的4倍,表明这两个点的匹配度相对于其他剩下的点相对较差,则过滤掉这些点,然后采取RANSAC算法对匹配的特征点进行一致性检测。
3.如权利要求2所述的方法,其特征在于,T’取20以内的整数。
4.如权利要求2所述的方法,其特征在于,第四阶段中,n为偶数时,n为奇数时,
5.如权利要求1所述的方法,其特征在于,步骤二具体为:
第一步,构建一个求解器globalOptimizer,并写明其使用的算法;
然后,在求解器内添加点和边:在所构建的图里,点是关键帧时相机的位姿,边则是相机运动间的变换矩阵,也即这两个点的变换,并在程序运行过程中不断作帧间检测;
最后,通过选择一些优化参数完成优化并存储优化结果,优化完毕后读取每个节点的估计值,得到优化后的运动轨迹,其中,选择不同的迭代策略得到对应的优化参数。
6.如权利要求5所述的方法,其特征在于,求解器globalOptimizer使用的算法为LM算法。
7.如权利要求5所述的方法,其特征在于,所述迭代策略为Gauss-Newton法或Levenberg-Marquardt。
8.如权利要求1所述的方法,其特征在于,步骤三具体包括:
第一阶段:轮廓匹配进行初步筛选
首先通过遍历深度图像中每个像素,获得深度值和物体标记,提取处在一定范围内的深度图像,从而提取图像前端区域,然后利用Prewitt算子对Kinect提取的彩色图像和深度图像进行轮廓提取,并进行优化,最后利用轮廓的Hu矩进行轮廓的匹配;
第二阶段:利用词袋模型进行回环检测
首先利用PCA-SIFT算法从包括原图像以及利用轮廓匹配筛选得到的图像中提取视觉词汇向量,这些向量代表的是图像中局部不变的特征点;然后将所有特征点向量集合到一块,利用K-Means算法合并词义相近的视觉词汇,构造一个包含K个视觉单词的视觉表;之后统计视觉表中每个视觉单词在图像中出现的次数,从而将每一副图像表示成为一个K维数值的向量;最后利用这个K维数值的向量去求当前图像与其他图像的相关性,得到相关性系数,如果这个系数超过预设的阈值,那么认为发生了回环,则去优化步骤一得到的两个时刻的相对运动估计,得到优化后的运动估计;若没有超过阈值,表示没有发生回环现象,则不做处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811001614.6A CN109272577B (zh) | 2018-08-30 | 2018-08-30 | 一种基于Kinect的视觉SLAM方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811001614.6A CN109272577B (zh) | 2018-08-30 | 2018-08-30 | 一种基于Kinect的视觉SLAM方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109272577A true CN109272577A (zh) | 2019-01-25 |
CN109272577B CN109272577B (zh) | 2023-02-03 |
Family
ID=65154558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811001614.6A Active CN109272577B (zh) | 2018-08-30 | 2018-08-30 | 一种基于Kinect的视觉SLAM方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109272577B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110031880A (zh) * | 2019-04-16 | 2019-07-19 | 杭州易绘科技有限公司 | 基于地理位置定位的高精度增强现实方法及设备 |
CN110335319A (zh) * | 2019-06-26 | 2019-10-15 | 华中科技大学 | 一种语义驱动的相机定位与地图重建方法和系统 |
CN110766024A (zh) * | 2019-10-08 | 2020-02-07 | 湖北工业大学 | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 |
CN117496189A (zh) * | 2024-01-02 | 2024-02-02 | 中国石油大学(华东) | 一种基于深度相机的矩形托盘孔识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3182373A1 (en) * | 2015-12-17 | 2017-06-21 | STmicroelectronics SA | Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm |
CN107590827A (zh) * | 2017-09-15 | 2018-01-16 | 重庆邮电大学 | 一种基于Kinect的室内移动机器人视觉SLAM方法 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
-
2018
- 2018-08-30 CN CN201811001614.6A patent/CN109272577B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3182373A1 (en) * | 2015-12-17 | 2017-06-21 | STmicroelectronics SA | Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm |
CN107590827A (zh) * | 2017-09-15 | 2018-01-16 | 重庆邮电大学 | 一种基于Kinect的室内移动机器人视觉SLAM方法 |
CN108108764A (zh) * | 2017-12-26 | 2018-06-01 | 东南大学 | 一种基于随机森林的视觉slam回环检测方法 |
Non-Patent Citations (1)
Title |
---|
蔡军等: "基于Kinect的改进移动机器人视觉SLAM", 《智能系统学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN109945856B (zh) * | 2019-02-18 | 2021-07-06 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110031880A (zh) * | 2019-04-16 | 2019-07-19 | 杭州易绘科技有限公司 | 基于地理位置定位的高精度增强现实方法及设备 |
CN110335319A (zh) * | 2019-06-26 | 2019-10-15 | 华中科技大学 | 一种语义驱动的相机定位与地图重建方法和系统 |
CN110335319B (zh) * | 2019-06-26 | 2022-03-18 | 华中科技大学 | 一种语义驱动的相机定位与地图重建方法和系统 |
CN110766024A (zh) * | 2019-10-08 | 2020-02-07 | 湖北工业大学 | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 |
CN110766024B (zh) * | 2019-10-08 | 2023-05-23 | 湖北工业大学 | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 |
CN117496189A (zh) * | 2024-01-02 | 2024-02-02 | 中国石油大学(华东) | 一种基于深度相机的矩形托盘孔识别方法及系统 |
CN117496189B (zh) * | 2024-01-02 | 2024-03-22 | 中国石油大学(华东) | 一种基于深度相机的矩形托盘孔识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109272577B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109272577A (zh) | 一种基于Kinect的视觉SLAM方法 | |
Peng et al. | Visda: The visual domain adaptation challenge | |
CN111126202B (zh) | 基于空洞特征金字塔网络的光学遥感图像目标检测方法 | |
CN108229468B (zh) | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 | |
CN108717531B (zh) | 基于Faster R-CNN的人体姿态估计方法 | |
CN108038420B (zh) | 一种基于深度视频的人体行为识别方法 | |
CN101877143B (zh) | 一种二维图像组的三维场景重建方法 | |
CN106534616B (zh) | 一种基于特征匹配与运动补偿的视频稳像方法及系统 | |
CN112435325A (zh) | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 | |
CN110070580B (zh) | 基于局部关键帧匹配的slam快速重定位方法及图像处理装置 | |
CN107329962B (zh) | 图像检索数据库生成方法、增强现实的方法及装置 | |
CN108805151B (zh) | 一种基于深度相似性网络的图像分类方法 | |
CN112562081B (zh) | 一种用于视觉分层定位的视觉地图构建方法 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN108416751A (zh) | 一种基于深度辅助全分辨率网络的新视点图像合成方法 | |
CN104063871B (zh) | 可穿戴设备的图像序列场景分割方法 | |
CN107609571A (zh) | 一种基于lark特征的自适应目标跟踪方法 | |
CN112668550A (zh) | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 | |
Hao et al. | Recognition of basketball players’ action detection based on visual image and Harris corner extraction algorithm | |
Zhang et al. | Dual-modality space-time memory network for RGBT tracking | |
CN112861808B (zh) | 动态手势识别方法、装置、计算机设备及可读存储介质 | |
Yang et al. | AI-Generated Images as Data Source: The Dawn of Synthetic Era | |
CN110009683B (zh) | 基于MaskRCNN的实时平面上物体检测方法 | |
Wang et al. | 3D object detection algorithm for panoramic images with multi-scale convolutional neural network | |
CN116703996A (zh) | 基于实例级自适应深度估计的单目三维目标检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |