CN107590827A - 一种基于Kinect的室内移动机器人视觉SLAM方法 - Google Patents

一种基于Kinect的室内移动机器人视觉SLAM方法 Download PDF

Info

Publication number
CN107590827A
CN107590827A CN201710835285.4A CN201710835285A CN107590827A CN 107590827 A CN107590827 A CN 107590827A CN 201710835285 A CN201710835285 A CN 201710835285A CN 107590827 A CN107590827 A CN 107590827A
Authority
CN
China
Prior art keywords
point
matching
point cloud
points
kinect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710835285.4A
Other languages
English (en)
Inventor
蔡军
陈科宇
曹慧英
陈晓雷
郭鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201710835285.4A priority Critical patent/CN107590827A/zh
Publication of CN107590827A publication Critical patent/CN107590827A/zh
Pending legal-status Critical Current

Links

Abstract

本发明请求保护一种基于Kinect的室内移动机器人视觉SLAM方法,包括以下步骤:S1,利用Kinect相机采集室内环境的彩色RGB数据与Depth数据;S2,对RGB数据进行特征检测,并实现相邻帧图像之间的快速有效匹配;S3,结合标定后Kinect相机的内参与像素点深度值将2D图像点转换为三维空间点,建立三维点云对应关系;S4,利用RANSAC算法剔除点云匹配中的外点,完成点云粗匹配;S5,采用一种拥有欧氏距离与角度阈值双重限制的ICP算法完成点云的精匹配;S6,在关键帧选取中引入权重,并利用g2o算法对机器人位姿进行优化,最终获取机器人运行轨迹,生成三维点云地图。本发明能够解决视觉SLAM系统中点云配准部分存在易陷入局部最优,匹配误差大等问题,提高点云配准精度。

Description

一种基于Kinect的室内移动机器人视觉SLAM方法
技术领域
本发明属于移动机器人视觉SLAM领域,尤其是一种点云精确配准方法。
背景技术
随着SLAM研究的不断深入,使三维重建成为了机器人研究领域的热潮。从本质上来说,SLAM所有的计算都是对传感器数据的处理,因此,不同传感器的基本方程的参数化有很大的差别。常见的SLAM传感器有IMU、激光和相机。IMU通常包含陀螺仪和加速度计,陀螺仪具有良好的动态响应,但会产生累计误差;加速度计虽不会产生累计误差,但易受到机器运行时的振动干扰;激光传感器精度高、探测范围广,但价格昂贵、功耗大;相机主要分为单目相机、双目相机和RGB-D相机,单目相机无法直接获取图像深度信息,需要通过移动相机来产生深度;双目相机通过视差计算深度,在推算图像中物体距离时计算量大,实时性较差;典型的RGB-D相机,如Kinect,具有价格低廉、信息丰富、更新速度快、能直接获取图像深度等诸多优点,使其成为了RGB-D SLAM系统的主流视觉传感器,受到广大视觉SLAM研究者的青睐。
视觉里程计是RGB-D SLAM系统中尤为重要的部分。视觉里程计的作用是估计相机运动,其中包括特征点检测与提取、相邻帧间配准、迭代最近点等。在视觉里程计部分,通常采用ICP算法去估计相机的运动。然而传统的ICP算法搜寻对应点对相当耗时,且容易出现大量误匹配点对。
发明内容
本发明旨在解决现有ICP算法进行点云配准过程中存在易陷入局部最优、匹配误差大的问题。提出了一种实时性好,鲁棒性强的视觉SLAM。本发明的技术方案如下:
一种基于Kinect的室内移动机器人视觉SLAM方法,其包括以下步骤:
S1、利用Kinect相机采集室内环境的RGB彩色数据与Depth深度数据;
S2、对步骤S1的RGB数据进行特征检测,对相邻帧图像进行匹配;
S3、结合标定后Kinect相机的内参与像素点深度值将2D图像点转换为三维空间点,建立三维点云对应关系;
S4、利用RANSAC随机抽样一致性算法剔除步骤S3中点云匹配的外点,完成点云粗匹配;
S5、采用一种拥有欧氏距离与角度阈值双重限制的ICP迭代最近点算法完成点云的精匹配;
S6、在关键帧选取中引入权重,并利用g2o通用图优化算法对机器人位姿进行优化,最终获取机器人运行轨迹,生成三维点云地图。
进一步的,所述步骤S2对步骤S1的RGB数据进行特征检测,对相邻帧图像进行匹配的过程为:采用具有旋转和尺度不变性的SURF特征对图像关键点进行检测,使用图像“金字塔”构建尺度空间,然后对关键点进行定位,并确定每个关键点的主方向,生成特征描述子,运用FLANN算法对特征描述子进行匹配。
进一步的,所述步骤S3将2D图像点转换为三维空间点的方法为:
图像中任意一点(u,v),结合该点深度值与相机内参得到其对应的三维空间点坐标(x,y,z),转换公式如下:
d=z·s
其中,fx和fy分别表示相机在x、y轴上的焦距,cx和cy表示相机的光圈中心,s表示深度图的缩放因子,d表示深度数据。
进一步的,所述s为1000,fx、fy、cx、cy被定义为相机的内参矩阵C,
进一步的,所述步骤S4采用RANSAC随机抽样一致性算法剔除步骤S3中点云匹配中的外点,完成点云粗匹配具体包括步骤:
通过预设一个阈值d将全部匹配点对区分为内点和外点,剔除大于此阈值的匹配点对即剔除了外点对粗匹配的影响,将筛选后的内点进行最小二乘算法下对Kinect相机的初始位姿估计,将源点集A大致配准到目标点集B,粗匹配后的两片点云分别记为P和Q,相机在第i时刻的位姿Pi与第i+1时刻的位姿Pi+1的位姿转换关系为:
Pi+1=PiTi i+1
进一步的,所述步骤S5点云精匹配过程为:1.在点集P中选择初始点集Pi0;2.在目标点集Q中搜索与点集Pi0距离最近的点集,使用欧式距离阈值法剔除噪声点,得到配对点云Pi0与Qi0;3.应用角度阈值法剔除误匹配点对,得到精配对点集Pi1和Qi1;4.采用SVD算法求得点集Pi1和Qi1之间的旋转矩阵R与平移矩阵t;5.根据式Pi2=RPi1+t计算点集Pi1经一次刚体变换后得到的数据点集Pi2;6.重复步骤3~5,直到满足下式:
其中ε为大于零的阈值,用于判断迭代是否收敛,若收敛则迭代结束。
进一步的,所述欧式距离阈值法为:在粗匹配后,配对点云P中的任一点与其邻点,在另一个配对点云Q中的也应是邻近点,欧氏距离限制如下:
|pi-qj|<u
其中pi与pinei分别表示配对点云P”中的任意一点与其邻点,qj与qjnei分别表示pi与pinei在另一配对点云Q”中对应的点,u表示粗匹配后匹配点对间的平均欧式距离,δ表示距离阈值。
进一步的,所述角度阈值法为:采用点到切平面的最近搜索算法,对于给定点pi及其对应点qj,通过其邻近点集拟合平面,并求出各自的近似法向量,然后采用角度阈值限制,角度阈值限制如下:
其中ni和nj分别为点pi和qj的近似法向量,θ为两匹配点对近似法向量的夹角,为经欧氏距离去噪后的点对与所在同一坐标系原点O的夹角,ω和τ为设定的夹角阈值。
进一步的,所述步骤S6在关键帧选取中引入权重,方法为:在相机旋转出现微小变化或平移相对大一段距离后添加关键帧,当新帧到来时,检测其图像特征并与前一关键帧进行变换计算,如果变换超过阈值则添加关键帧,反之,则丢弃,具体选取标准如下:
其中(△x,△y,△z)为平移向量,(α,β,γ)为相对欧拉角,λ1为平移权重参数,λ2为欧拉角权重参数。并利用g2o算法对机器人位姿进行优化,最终获取机器人运行轨迹,生成三维点云地图。
本发明的优点及有益效果如下:
本文针对传统ICP(迭代最近点)算法下存在大量错误匹配点对,算法易陷入局部最优,甚至不能收敛等问题,提出了一种改进的ICP(迭代最近点)算法。在精匹配过程中,粗匹配的结果作为精匹配的初值,采用点对间欧式距离阈值法和角度阈值法对误匹配点对进行剔除,以筛选出满足阈值条件的点对,进行精确相机位姿估计。点对间欧式距离阈值法,可去除小于平均点对距离的匹配,且认为同一片点云下任一点与其邻点的拓扑结构不会随刚体变换而变化。经过欧式距离阈值法可剔除大部分点云数据噪声点。再结合角度阈值法,能进一步检测点对匹配的正确性,提高点云初值选取的正确率。此外,在关键帧选取中引入权重概念,大大减少了冗余关键帧。
附图说明
图1是本发明的优选实施例的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明提供了一种基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,包括以下步骤:
S1,利用Kinect相机采集室内环境的彩色RGB数据与Depth数据。
S2,对RGB数据采用具有旋转和尺度不变性的SURF特征进行图像关键点检测,使用图像“金字塔”构建尺度空间,然后对关键点进行定位,并确定每个关键点的主方向,生成特征描述子,运用FLANN算法实现相邻帧图像之间的快速有效匹配。
S3,结合标定后Kinect相机的内参与像素点深度值将2D图像点转换为三维空间点,建立三维点云对应关系。2D图像点到三维空间点的转换公式如下:
d=z·s
其中,fx和fy分别表示深度相机在x、y轴上的焦距,cx和cy表示相机的光圈中心,s表示深度图的缩放因子,即深度图数据与实际距离的比例,由于深度图中都是以毫米为单位,因此通常为1000。通常情况下fx、fy、cx、cy被定义为相机的内参矩阵C,C的矩阵形式为:
S4,利用RANSAC算法剔除点云匹配中的外点,完成点云粗匹配。点云粗匹配的过程为:通过预设一个阈值d将全部匹配点对区分为内点和外点,剔除大于此阈值的匹配点对即剔除了外点对粗匹配的影响,将筛选后的内点进行最小二乘算法下对Kinect相机的初始位姿估计,可将源点集A大致配准到目标点集B,粗匹配后的两片点云分别记为P和Q。相机在第i时刻的位姿Pi与第i+1时刻的位姿Pi+1的位姿转换关系为:
Pi+1=PiTi i+1
S5,采用一种拥有欧氏距离与角度阈值双重限制的ICP算法完成点云的精匹配。点云精匹配过程为:1.在点集P中选择初始点集Pi0;2.在目标点集Q中搜索与点集Pi0距离最近的点集,使用欧式距离阈值法剔除噪声点,得到配对点云Pi0与Qi0;3.应用角度阈值法进一步剔除误匹配点对,得到精配对点集Pi1和Qi1;4.采用SVD算法求得点集Pi1和Qi1之间的旋转矩阵R与平移矩阵t;5.根据式Pi2=RPi1+t计算点集Pi1经一次刚体变换后得到的数据点集Pi2。6.重复步骤3~5,直到满足下式:
其中ε为大于零的阈值,用于判断迭代是否收敛,若收敛则迭代结束。
所述欧式距离阈值法为:去除小于平均点对距离的匹配,且认为同一片点云下任一点与其邻点的拓扑结构不会随着刚体变换而变化。因此在粗匹配后,配对点云P中的任一点与其邻点,在另一个配对点云Q中的也应是邻近点。欧氏距离限制如下:
|pi-qj|<u
其中pi与pinei分别表示配对点云P”中的任意一点与其邻点,qj与qjnei分别表示pi与pinei在另一配对点云Q”中对应的点。u表示粗匹配后匹配点对间的平均欧式距离,δ表示距离阈值。
所述角度阈值法为:采用点到切平面的最近搜索算法,对于给定点pi及其对应点qj,通过其邻近点集拟合平面,并求出各自的近似法向量,然后采用角度阈值限制进一步提高点云初值选取的正确率。角度阈值限制如下:
其中ni和nj分别为点pi和qj的近似法向量,θ为两匹配点对近似法向量的夹角,为经欧氏距离去噪后的点对与所在同一坐标系原点O的夹角,ω和τ为设定的夹角阈值。
S6,在关键帧选取中引入权重,方法为:在相机旋转出现微小变化或平移相对大一段距离后添加关键帧。当新帧到来时,检测其图像特征并与前一关键帧进行变换计算,如果变换超过阈值则添加关键帧,反之,则丢弃。具体选取标准如下:
其中(△x,△y,△z)为平移向量,(α,β,γ)为相对欧拉角,λ1为平移权重参数,λ2为欧拉角权重参数。并利用g2o算法对机器人位姿进行优化,最终获取机器人运行轨迹,生成三维点云地图。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (9)

1.一种基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,包括以下步骤:
S1、利用Kinect相机采集室内环境的RGB彩色数据与Depth深度数据;
S2、对步骤S1的RGB数据进行特征检测,对相邻帧图像进行匹配;
S3、结合标定后Kinect相机的内参与像素点深度值将2D图像点转换为三维空间点,建立三维点云对应关系;
S4、利用RANSAC随机抽样一致性算法剔除步骤S3中点云匹配中的外点,完成点云粗匹配;
S5、采用一种拥有欧氏距离与角度阈值双重限制的ICP迭代最近点算法完成点云的精匹配;
S6、在关键帧选取中引入权重,并利用g2o通用图优化算法对机器人位姿进行优化,最终获取机器人运行轨迹,生成三维点云地图。
2.根据权利要求1所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述步骤S2对步骤S1的RGB数据进行特征检测,对相邻帧图像进行匹配的过程为:采用具有旋转和尺度不变性的SURF特征对图像关键点进行检测,使用图像“金字塔”构建尺度空间,然后对关键点进行定位,并确定每个关键点的主方向,生成特征描述子,运用FLANN算法对特征描述子进行匹配。
3.根据权利要求1或2所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述步骤S3将2D图像点转换为三维空间点的方法为:
图像中任意一点(u,v),结合该点深度值与相机内参得到其对应的三维空间点坐标(x,y,z),转换公式如下:
<mrow> <mi>v</mi> <mo>=</mo> <mfrac> <mrow> <mi>y</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>f</mi> <mi>y</mi> </msub> </mrow> <mi>z</mi> </mfrac> <mo>+</mo> <msub> <mi>c</mi> <mi>y</mi> </msub> </mrow>
<mrow> <mi>u</mi> <mo>=</mo> <mfrac> <mrow> <mi>x</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>f</mi> <mi>x</mi> </msub> </mrow> <mi>z</mi> </mfrac> <mo>+</mo> <msub> <mi>c</mi> <mi>x</mi> </msub> </mrow>
d=z·s
其中,fx和fy分别表示相机在x、y轴上的焦距,cx和cy表示相机的光圈中心,s表示深度图的缩放因子,d表示深度数据。
4.根据权利要求3所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述s为1000,fx、fy、cx、cy被定义为相机的内参矩阵C,
<mrow> <mi>C</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>f</mi> <mi>x</mi> </msub> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>c</mi> <mi>x</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <msub> <mi>f</mi> <mi>y</mi> </msub> </mtd> <mtd> <msub> <mi>c</mi> <mi>y</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>.</mo> </mrow>
5.根据权利要求3所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述步骤S4采用RANSAC随机抽样一致性算法剔除步骤3中点云匹配中的外点,完成点云粗匹配具体包括步骤:
通过预设一个阈值d将全部匹配点对区分为内点和外点,剔除大于此阈值的匹配点对即剔除了外点对粗匹配的影响,将筛选后的内点进行最小二乘算法下对Kinect相机的初始位姿估计,将源点集A大致配准到目标点集B,粗匹配后的两片点云分别记为P和Q,相机在第i时刻的位姿Pi与第i+1时刻的位姿Pi+1的位姿转换关系为:
Pi+1=PiTi i+1
6.根据权利要求5所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述步骤S5点云精匹配过程为:1.在点集P中选择初始点集Pi0;2.在目标点集Q中搜索与点集Pi0距离最近的点集,使用欧式距离阈值法剔除噪声点,得到配对点云Pi0与Qi0;3.应用角度阈值法剔除误匹配点对,得到精配对点集Pi1和Qi1;4.采用SVD算法求得点集Pi1和Qi1之间的旋转矩阵R与平移矩阵t;5.根据式Pi2=RPi1+t计算点集Pi1经一次刚体变换后得到的数据点集Pi2;6.重复步骤3~5,直到满足下式:
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>d</mi> <mi>m</mi> </msub> <mo>-</mo> <msub> <mi>d</mi> <mrow> <mi>m</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>&lt;</mo> <mi>&amp;epsiv;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>d</mi> <mi>m</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <mo>|</mo> <mo>|</mo> <msub> <mi>Q</mi> <mrow> <mi>i</mi> <mi>m</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mrow> <mi>i</mi> <mi>m</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中ε为大于零的阈值,用于判断迭代是否收敛,若收敛则迭代结束。
7.根据权利要求6所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述欧式距离阈值法为:在粗匹配后,配对点云P中的任一点与其邻点,在另一个配对点云Q中的也应是邻近点,欧氏距离限制如下:
|pi-qj|<u
<mrow> <mo>|</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mi>n</mi> <mi>e</mi> <mi>i</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <mo>-</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>q</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>q</mi> <mrow> <mi>j</mi> <mi>n</mi> <mi>e</mi> <mi>i</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>p</mi> <mrow> <mi>i</mi> <mi>n</mi> <mi>e</mi> <mi>i</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <mo>+</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>q</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>q</mi> <mrow> <mi>j</mi> <mi>n</mi> <mi>e</mi> <mi>i</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> <mo>|</mo> <mo>=</mo> <mi>&amp;delta;</mi> </mrow>
其中pi与pinei分别表示配对点云P”中的任意一点与其邻点,qj与qjnei分别表示pi与pinei在另一配对点云Q”中对应的点,u表示粗匹配后匹配点对间的平均欧式距离,δ表示距离阈值。
8.根据权利要求6所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述角度阈值法为:采用点到切平面的最近搜索算法,对于给定点pi及其对应点qj,通过其邻近点集拟合平面,并求出各自的近似法向量,然后采用角度阈值限制,角度阈值限制如下:
<mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mi>&amp;theta;</mi> <mo>=</mo> <mfrac> <mrow> <mover> <msub> <mi>n</mi> <mi>i</mi> </msub> <mo>&amp;RightArrow;</mo> </mover> <mo>&amp;times;</mo> <mover> <msub> <mi>n</mi> <mi>j</mi> </msub> <mo>&amp;RightArrow;</mo> </mover> </mrow> <mrow> <mo>|</mo> <mover> <msub> <mi>n</mi> <mi>i</mi> </msub> <mo>&amp;RightArrow;</mo> </mover> <mo>|</mo> <mo>&amp;times;</mo> <mo>|</mo> <mover> <msub> <mi>n</mi> <mi>j</mi> </msub> <mo>&amp;RightArrow;</mo> </mover> <mo>|</mo> </mrow> </mfrac> <mo>&gt;</mo> <mi>&amp;omega;</mi> </mrow>
其中ni和nj分别为点pi和qj的近似法向量,θ为两匹配点对近似法向量的夹角,为经欧氏距离去噪后的点对与所在同一坐标系原点O的夹角,ω和τ为设定的夹角阈值。
9.根据权利要求8所述的基于Kinect的室内移动机器人视觉SLAM方法,其特征在于,所述步骤S6在关键帧选取中引入权重,方法为:在相机旋转出现微小变化或平移相对大一段距离后添加关键帧,当新帧到来时,检测其图像特征并与前一关键帧进行变换计算,如果变换超过阈值则添加关键帧,反之,则丢弃,具体选取标准如下:
其中(△x,△y,△z)为平移向量,(α,β,γ)为相对欧拉角,λ1为平移权重参数,λ2为欧拉角权重参数。并利用g2o算法对机器人位姿进行优化,最终获取机器人运行轨迹,生成三维点云地图。
CN201710835285.4A 2017-09-15 2017-09-15 一种基于Kinect的室内移动机器人视觉SLAM方法 Pending CN107590827A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710835285.4A CN107590827A (zh) 2017-09-15 2017-09-15 一种基于Kinect的室内移动机器人视觉SLAM方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710835285.4A CN107590827A (zh) 2017-09-15 2017-09-15 一种基于Kinect的室内移动机器人视觉SLAM方法

Publications (1)

Publication Number Publication Date
CN107590827A true CN107590827A (zh) 2018-01-16

Family

ID=61048089

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710835285.4A Pending CN107590827A (zh) 2017-09-15 2017-09-15 一种基于Kinect的室内移动机器人视觉SLAM方法

Country Status (1)

Country Link
CN (1) CN107590827A (zh)

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428255A (zh) * 2018-02-10 2018-08-21 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN108460779A (zh) * 2018-02-12 2018-08-28 浙江大学 一种动态环境下的移动机器人图像视觉定位方法
CN108550166A (zh) * 2018-03-26 2018-09-18 北京航空航天大学 一种空间目标图像匹配方法
CN108550141A (zh) * 2018-03-29 2018-09-18 上海大学 一种基于深度视觉信息的运动车斗自动识别与定位方法
CN108594825A (zh) * 2018-05-31 2018-09-28 四川斐讯信息技术有限公司 基于深度相机的扫地机器人控制方法及系统
CN108648219A (zh) * 2018-04-08 2018-10-12 浙江大承机器人科技有限公司 一种基于双目的障碍物与可行区域检测方法
CN108734654A (zh) * 2018-05-28 2018-11-02 深圳市易成自动驾驶技术有限公司 绘图与定位方法、系统及计算机可读存储介质
CN108830191A (zh) * 2018-05-30 2018-11-16 上海电力学院 基于改进emm及orb算法的移动机器人slam方法
CN108846867A (zh) * 2018-08-29 2018-11-20 安徽云能天智能科技有限责任公司 一种基于多目全景惯导的slam系统
CN108873001A (zh) * 2018-09-17 2018-11-23 江苏金智科技股份有限公司 一种精准评判机器人定位精度的方法
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN108921895A (zh) * 2018-06-12 2018-11-30 中国人民解放军军事科学院国防科技创新研究院 一种传感器相对位姿估计方法
CN108955687A (zh) * 2018-05-31 2018-12-07 湖南万为智能机器人技术有限公司 移动机器人的综合定位方法
CN109100730A (zh) * 2018-05-18 2018-12-28 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109106373A (zh) * 2018-07-24 2019-01-01 燕山大学 一种婴儿抬头角度测量方法及系统
CN109166140A (zh) * 2018-07-27 2019-01-08 长安大学 一种基于多线激光雷达的车辆运动轨迹估计方法及系统
CN109272577A (zh) * 2018-08-30 2019-01-25 北京计算机技术及应用研究所 一种基于Kinect的视觉SLAM方法
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
CN109462746A (zh) * 2018-10-26 2019-03-12 北京双髻鲨科技有限公司 一种图像去抖的方法及装置
CN109493375A (zh) * 2018-10-24 2019-03-19 深圳市易尚展示股份有限公司 三维点云的数据匹配及合并方法、装置、可读介质
CN109636897A (zh) * 2018-11-23 2019-04-16 桂林电子科技大学 一种基于改进RGB-D SLAM的Octomap优化方法
CN109631887A (zh) * 2018-12-29 2019-04-16 重庆邮电大学 基于双目、加速度与陀螺仪的惯性导航高精度定位方法
CN109658388A (zh) * 2018-11-29 2019-04-19 湖南视比特机器人有限公司 基于视觉和主动交互的包装箱分割错误的检测与矫正方法
CN109697753A (zh) * 2018-12-10 2019-04-30 智灵飞(北京)科技有限公司 一种基于rgb-d slam的无人机三维重建方法、无人机
CN110060329A (zh) * 2019-01-15 2019-07-26 叠境数字科技(上海)有限公司 一种基于彩色深度视频流数据的移动端人体模型重建方法
CN110120093A (zh) * 2019-03-25 2019-08-13 深圳大学 一种多元特征混合优化的rgb-d室内三维测图方法及系统
CN110125945A (zh) * 2018-11-29 2019-08-16 重庆智田科技有限公司 一种收获机器人的植株行跟随方法
CN110243390A (zh) * 2019-07-10 2019-09-17 北京华捷艾米科技有限公司 位姿的确定方法、装置及里程计
CN110264502A (zh) * 2019-05-17 2019-09-20 华为技术有限公司 点云配准方法和装置
CN110427520A (zh) * 2019-07-04 2019-11-08 重庆邮电大学 一种基于自适应局部和分组关联策略的slam数据关联方法
CN110543871A (zh) * 2018-09-05 2019-12-06 天目爱视(北京)科技有限公司 基于点云的3d比对测量方法
CN110807818A (zh) * 2019-10-29 2020-02-18 北京影谱科技股份有限公司 基于关键帧的rgb-dslam方法和装置
CN110866939A (zh) * 2019-10-17 2020-03-06 南京师范大学 基于相机位姿估计和深度学习的机器人运动状态识别方法
CN110956651A (zh) * 2019-12-16 2020-04-03 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
CN111144349A (zh) * 2019-12-30 2020-05-12 中国电子科技集团公司信息科学研究院 一种室内视觉重定位方法及系统
CN111179327A (zh) * 2019-12-30 2020-05-19 青岛联合创智科技有限公司 一种深度图的计算方法
CN111609854A (zh) * 2019-02-25 2020-09-01 北京奇虎科技有限公司 基于多个深度相机的三维地图构建方法及扫地机器人
CN111639147A (zh) * 2020-04-24 2020-09-08 视辰信息科技(上海)有限公司 一种地图压缩方法、系统及计算机可读存储介质
CN111765882A (zh) * 2020-06-18 2020-10-13 浙江大华技术股份有限公司 激光雷达定位方法及其相关装置
CN111915517A (zh) * 2020-07-23 2020-11-10 同济大学 一种适用于室内光照不利环境下rgb-d相机全局定位方法
CN112017229A (zh) * 2020-09-06 2020-12-01 桂林电子科技大学 一种相机相对位姿求解方法
CN112307917A (zh) * 2020-10-21 2021-02-02 国网上海市电力公司 一种融合视觉里程计及imu的室内定位方法
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112950706A (zh) * 2019-12-11 2021-06-11 北京海益同展信息科技有限公司 可移动设备定位数据处理方法、装置、设备及存储介质
CN112991449A (zh) * 2021-03-22 2021-06-18 华南理工大学 一种agv定位与建图方法、系统、装置及介质
CN113227713A (zh) * 2018-12-13 2021-08-06 大陆汽车有限责任公司 生成用于定位的环境模型的方法和系统
CN113390409A (zh) * 2021-07-09 2021-09-14 广东机电职业技术学院 一种机器人全程自主探索导航实现slam技术的方法
CN113739786A (zh) * 2021-07-30 2021-12-03 国网江苏省电力有限公司电力科学研究院 一种面向四足机器人的室内环境感知方法、装置及设备
CN113781559A (zh) * 2021-08-31 2021-12-10 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN113961013A (zh) * 2021-11-10 2022-01-21 吉林省春城热力股份有限公司 一种基于rgb-d slam的无人机路径规划方法
CN115393432A (zh) * 2022-08-11 2022-11-25 安徽工程大学 消除静态特征误匹配的机器人定位方法、存储介质及设备
CN115984591A (zh) * 2022-12-29 2023-04-18 北京朗视仪器股份有限公司 实时扫描匹配方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105957082A (zh) * 2016-05-04 2016-09-21 广东锐视智能检测有限公司 一种基于面阵相机的印刷质量在线监测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105957082A (zh) * 2016-05-04 2016-09-21 广东锐视智能检测有限公司 一种基于面阵相机的印刷质量在线监测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
付梦印等: "基于RGB-D数据的实时SLAM算法", 《机器人》 *
张毅等: "室内环境下移动机器人三维视觉SLAM", 《智能系统学报》 *
权美香等: "视觉SLAM综述", 《智能系统学报》 *
辛菁等: "基于Kinect的移动机器人大视角3维V-SLAM", 《机器人》 *

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428255A (zh) * 2018-02-10 2018-08-21 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN108428255B (zh) * 2018-02-10 2022-04-12 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN108460779A (zh) * 2018-02-12 2018-08-28 浙江大学 一种动态环境下的移动机器人图像视觉定位方法
CN108460779B (zh) * 2018-02-12 2021-09-24 浙江大学 一种动态环境下的移动机器人图像视觉定位方法
CN108550166A (zh) * 2018-03-26 2018-09-18 北京航空航天大学 一种空间目标图像匹配方法
CN108550166B (zh) * 2018-03-26 2022-04-15 北京航空航天大学 一种空间目标图像匹配方法
CN108550141A (zh) * 2018-03-29 2018-09-18 上海大学 一种基于深度视觉信息的运动车斗自动识别与定位方法
CN108648219B (zh) * 2018-04-08 2022-02-22 浙江大承机器人科技有限公司 一种基于双目的障碍物与可行区域检测方法
CN108648219A (zh) * 2018-04-08 2018-10-12 浙江大承机器人科技有限公司 一种基于双目的障碍物与可行区域检测方法
CN108921893B (zh) * 2018-04-24 2022-03-25 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN109100730B (zh) * 2018-05-18 2022-05-24 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109100730A (zh) * 2018-05-18 2018-12-28 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN108734654A (zh) * 2018-05-28 2018-11-02 深圳市易成自动驾驶技术有限公司 绘图与定位方法、系统及计算机可读存储介质
CN108830191B (zh) * 2018-05-30 2022-04-01 上海电力学院 基于改进环境测量模块emm及orb算法的移动机器人slam方法
CN108830191A (zh) * 2018-05-30 2018-11-16 上海电力学院 基于改进emm及orb算法的移动机器人slam方法
CN108594825A (zh) * 2018-05-31 2018-09-28 四川斐讯信息技术有限公司 基于深度相机的扫地机器人控制方法及系统
CN108955687A (zh) * 2018-05-31 2018-12-07 湖南万为智能机器人技术有限公司 移动机器人的综合定位方法
CN108921895A (zh) * 2018-06-12 2018-11-30 中国人民解放军军事科学院国防科技创新研究院 一种传感器相对位姿估计方法
CN108921895B (zh) * 2018-06-12 2021-03-02 中国人民解放军军事科学院国防科技创新研究院 一种传感器相对位姿估计方法
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
CN109106373A (zh) * 2018-07-24 2019-01-01 燕山大学 一种婴儿抬头角度测量方法及系统
CN109166140B (zh) * 2018-07-27 2021-10-01 长安大学 一种基于多线激光雷达的车辆运动轨迹估计方法及系统
CN109166140A (zh) * 2018-07-27 2019-01-08 长安大学 一种基于多线激光雷达的车辆运动轨迹估计方法及系统
CN108846867A (zh) * 2018-08-29 2018-11-20 安徽云能天智能科技有限责任公司 一种基于多目全景惯导的slam系统
CN109272577A (zh) * 2018-08-30 2019-01-25 北京计算机技术及应用研究所 一种基于Kinect的视觉SLAM方法
CN110543871A (zh) * 2018-09-05 2019-12-06 天目爱视(北京)科技有限公司 基于点云的3d比对测量方法
CN110543871B (zh) * 2018-09-05 2022-01-04 天目爱视(北京)科技有限公司 基于点云的3d比对测量方法
CN108873001A (zh) * 2018-09-17 2018-11-23 江苏金智科技股份有限公司 一种精准评判机器人定位精度的方法
CN109493375B (zh) * 2018-10-24 2021-01-12 深圳市易尚展示股份有限公司 三维点云的数据匹配及合并方法、装置、可读介质
CN109493375A (zh) * 2018-10-24 2019-03-19 深圳市易尚展示股份有限公司 三维点云的数据匹配及合并方法、装置、可读介质
CN109462746A (zh) * 2018-10-26 2019-03-12 北京双髻鲨科技有限公司 一种图像去抖的方法及装置
CN109636897B (zh) * 2018-11-23 2022-08-23 桂林电子科技大学 一种基于改进RGB-D SLAM的Octomap优化方法
CN109636897A (zh) * 2018-11-23 2019-04-16 桂林电子科技大学 一种基于改进RGB-D SLAM的Octomap优化方法
CN109658388B (zh) * 2018-11-29 2021-03-30 湖南视比特机器人有限公司 基于视觉和主动交互的包装箱分割错误的检测与矫正方法
CN110125945A (zh) * 2018-11-29 2019-08-16 重庆智田科技有限公司 一种收获机器人的植株行跟随方法
CN109658388A (zh) * 2018-11-29 2019-04-19 湖南视比特机器人有限公司 基于视觉和主动交互的包装箱分割错误的检测与矫正方法
CN109697753A (zh) * 2018-12-10 2019-04-30 智灵飞(北京)科技有限公司 一种基于rgb-d slam的无人机三维重建方法、无人机
CN109697753B (zh) * 2018-12-10 2023-10-03 智灵飞(北京)科技有限公司 一种基于rgb-d slam的无人机三维重建方法、无人机
CN113227713A (zh) * 2018-12-13 2021-08-06 大陆汽车有限责任公司 生成用于定位的环境模型的方法和系统
CN109631887A (zh) * 2018-12-29 2019-04-16 重庆邮电大学 基于双目、加速度与陀螺仪的惯性导航高精度定位方法
CN110060329A (zh) * 2019-01-15 2019-07-26 叠境数字科技(上海)有限公司 一种基于彩色深度视频流数据的移动端人体模型重建方法
CN111609854A (zh) * 2019-02-25 2020-09-01 北京奇虎科技有限公司 基于多个深度相机的三维地图构建方法及扫地机器人
CN110120093A (zh) * 2019-03-25 2019-08-13 深圳大学 一种多元特征混合优化的rgb-d室内三维测图方法及系统
CN110264502B (zh) * 2019-05-17 2021-05-18 华为技术有限公司 点云配准方法和装置
CN110264502A (zh) * 2019-05-17 2019-09-20 华为技术有限公司 点云配准方法和装置
CN110427520A (zh) * 2019-07-04 2019-11-08 重庆邮电大学 一种基于自适应局部和分组关联策略的slam数据关联方法
CN110427520B (zh) * 2019-07-04 2022-08-23 重庆邮电大学 一种基于自适应局部和分组关联策略的slam数据关联方法
CN110243390A (zh) * 2019-07-10 2019-09-17 北京华捷艾米科技有限公司 位姿的确定方法、装置及里程计
CN110243390B (zh) * 2019-07-10 2021-07-27 北京华捷艾米科技有限公司 位姿的确定方法、装置及里程计
CN110866939A (zh) * 2019-10-17 2020-03-06 南京师范大学 基于相机位姿估计和深度学习的机器人运动状态识别方法
CN110807818A (zh) * 2019-10-29 2020-02-18 北京影谱科技股份有限公司 基于关键帧的rgb-dslam方法和装置
CN112950706A (zh) * 2019-12-11 2021-06-11 北京海益同展信息科技有限公司 可移动设备定位数据处理方法、装置、设备及存储介质
CN112950706B (zh) * 2019-12-11 2023-11-03 京东科技信息技术有限公司 可移动设备定位数据处理方法、装置、设备及存储介质
CN110956651B (zh) * 2019-12-16 2021-02-19 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
CN110956651A (zh) * 2019-12-16 2020-04-03 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
CN111144349A (zh) * 2019-12-30 2020-05-12 中国电子科技集团公司信息科学研究院 一种室内视觉重定位方法及系统
CN111179327A (zh) * 2019-12-30 2020-05-19 青岛联合创智科技有限公司 一种深度图的计算方法
CN111144349B (zh) * 2019-12-30 2023-02-24 中国电子科技集团公司信息科学研究院 一种室内视觉重定位方法及系统
CN111639147A (zh) * 2020-04-24 2020-09-08 视辰信息科技(上海)有限公司 一种地图压缩方法、系统及计算机可读存储介质
CN111639147B (zh) * 2020-04-24 2021-02-05 视辰信息科技(上海)有限公司 一种地图压缩方法、系统及计算机可读存储介质
CN111765882A (zh) * 2020-06-18 2020-10-13 浙江大华技术股份有限公司 激光雷达定位方法及其相关装置
CN111915517B (zh) * 2020-07-23 2024-01-26 同济大学 适用于室内光照不利环境下rgb-d相机全局定位方法
CN111915517A (zh) * 2020-07-23 2020-11-10 同济大学 一种适用于室内光照不利环境下rgb-d相机全局定位方法
CN112017229B (zh) * 2020-09-06 2023-06-27 桂林电子科技大学 一种相机相对位姿求解方法
CN112017229A (zh) * 2020-09-06 2020-12-01 桂林电子科技大学 一种相机相对位姿求解方法
CN112307917A (zh) * 2020-10-21 2021-02-02 国网上海市电力公司 一种融合视觉里程计及imu的室内定位方法
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112991449B (zh) * 2021-03-22 2022-12-16 华南理工大学 一种agv定位与建图方法、系统、装置及介质
CN112991449A (zh) * 2021-03-22 2021-06-18 华南理工大学 一种agv定位与建图方法、系统、装置及介质
CN113390409A (zh) * 2021-07-09 2021-09-14 广东机电职业技术学院 一种机器人全程自主探索导航实现slam技术的方法
CN113739786A (zh) * 2021-07-30 2021-12-03 国网江苏省电力有限公司电力科学研究院 一种面向四足机器人的室内环境感知方法、装置及设备
CN113781559B (zh) * 2021-08-31 2023-10-13 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN113781559A (zh) * 2021-08-31 2021-12-10 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN113961013A (zh) * 2021-11-10 2022-01-21 吉林省春城热力股份有限公司 一种基于rgb-d slam的无人机路径规划方法
CN115393432A (zh) * 2022-08-11 2022-11-25 安徽工程大学 消除静态特征误匹配的机器人定位方法、存储介质及设备
CN115984591A (zh) * 2022-12-29 2023-04-18 北京朗视仪器股份有限公司 实时扫描匹配方法及系统
CN115984591B (zh) * 2022-12-29 2023-08-29 北京朗视仪器股份有限公司 实时扫描匹配方法及系统

Similar Documents

Publication Publication Date Title
CN107590827A (zh) 一种基于Kinect的室内移动机器人视觉SLAM方法
CN106127739B (zh) 一种结合单目视觉的rgb-d slam方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN107301654B (zh) 一种多传感器的高精度即时定位与建图方法
CN105976353B (zh) 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN113436260B (zh) 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN111210477B (zh) 一种运动目标的定位方法及系统
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN107917710B (zh) 一种基于单线激光的室内实时定位与三维地图构建方法
WO2019161517A1 (zh) 基于云端的轨迹地图生成方法、装置、设备及应用程序
Knorr et al. Online extrinsic multi-camera calibration using ground plane induced homographies
CN106780631A (zh) 一种基于深度学习的机器人闭环检测方法
CN113658337B (zh) 一种基于车辙线的多模态里程计方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN106931962A (zh) 一种基于gpu‑sift的实时双目视觉定位方法
CN104463953A (zh) 基于惯性测量单元与rgb-d传感器的三维重建方法
CN114013449B (zh) 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN112802096A (zh) 实时定位和建图的实现装置和方法
CN116449384A (zh) 基于固态激光雷达的雷达惯性紧耦合定位建图方法
CN116205947A (zh) 基于相机运动状态的双目-惯性融合的位姿估计方法、电子设备及存储介质
CN114529576A (zh) 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法
CN112731503B (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180116

RJ01 Rejection of invention patent application after publication