CN105045263B - 一种基于Kinect深度相机的机器人自定位方法 - Google Patents

一种基于Kinect深度相机的机器人自定位方法 Download PDF

Info

Publication number
CN105045263B
CN105045263B CN201510400786.0A CN201510400786A CN105045263B CN 105045263 B CN105045263 B CN 105045263B CN 201510400786 A CN201510400786 A CN 201510400786A CN 105045263 B CN105045263 B CN 105045263B
Authority
CN
China
Prior art keywords
camera
robot
ground
plane
kinect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510400786.0A
Other languages
English (en)
Other versions
CN105045263A (zh
Inventor
熊蓉
毛曙源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HANGZHOU IPLUS TECH CO.,LTD.
Original Assignee
Hangzhou Ltd Co Of Nan Jiang Robot
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Ltd Co Of Nan Jiang Robot filed Critical Hangzhou Ltd Co Of Nan Jiang Robot
Priority to CN201510400786.0A priority Critical patent/CN105045263B/zh
Publication of CN105045263A publication Critical patent/CN105045263A/zh
Application granted granted Critical
Publication of CN105045263B publication Critical patent/CN105045263B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于Kinect的机器人自定位方法,通过Kinect获取环境的RGB图像和深度图像,通过融合视觉和物理里程计的信息,估计机器人的相对运动量,并根据上一时刻机器人位姿,实现位姿跟踪;将深度信息转换成三维点云,在点云中提取出地面,并根据地面自动标定Kinect相对于地面的高度和俯仰角,从而将三维点云投影到地面,得到类似于激光数据的二维点云,将其与事先构建的环境栅格地图进行匹配,从而修正机器人跟踪过程中的累积误差,准确的估计机器人的位姿。本发明通过Kinect替代激光进行自定位,成本低,融合了图像和深度信息,精度高,同时兼容激光地图,且无需事先标定Kinect的安装高度和姿态,使用方便,可满足机器人自主定位导航的需求。

Description

一种基于Kinect深度相机的机器人自定位方法
技术领域
本发明涉及一种基于Kinect深度相机的机器人自定位方法,属于机器人自主定位导航领域。
背景技术
随着计算机和机器人技术的发展,移动机器人得到了快速发展和广泛应用,几乎渗透到了社会生活的各个领域。传统的自主定位方法中,基于磁条、磁钉等有轨的自定位方式涉及到磁条的铺设,环境的改造和维护成本大,基于激光的无轨自定位方法,激光传感器通常十分昂贵,无法实现普遍应用推广。由于技术和成本限制,对机器人无轨自定位,目前还没有低成本的、稳定的解决方案。
近年来,低成本的Kinect等RGB-D相机,已经越来越多的用于移动机器人的定位和导航。Kinect相机由一个普通相机和一个红外相机组成,分别用于采集颜色(RGB)信息和深度(Depth)信息,它的集成度高,价格低廉,因而更适和在一般的家庭和办公服务等场合应用。然而,Kinect相机的精度较低,视野较小,可视范围较近,噪声较大,这些都为Kinect相机的定位和导航,带来了巨大的困难和挑战。
发明内容
本发明的目的是针对现有的激光定位的缺陷,提供一种基于Kinect深度相机的机器人自定位方法。
本发明的目的是通过以下技术方案来实现的:一种基于Kinect深度相机的机器人自定位方法,包括以下步骤:
(1)将Kinect深度相机固定安装在机器人上,通过Kinect深度相机采集环境的RGB图像信息和深度图像信息;
(2)将深度图像信息进行三维恢复,得到三维点云数据:设Kinect深度相机的焦距为fx和fy,光心为(cx,cy),通过公式(1)恢复深度图像上任一点(x,y)的三维坐标(X,Y,Z);
X = ( x - c x ) * 1 f x * z
Y = ( y - c y ) * 1 f y * z - - - ( 1 )
Z=z
其中z为深度值;
(3)利用平面提取算法在三维点云中提取出地面部分的点云,并将地面部分的点云进行平面拟合,得到地面方程;根据相机坐标系下的地面方程,通过坐标求解,计算Kinect深度相机相对于地面的高度h和俯仰角
(4)利用基于尺度不变、旋转不变的特征提取算法,得到RGB图像中的特征点,并通过基于像素的特征描述子对其进行描述,通过对相邻时刻采集的两帧RGB图像中的特征点进行特征匹配,获取相机在时间段内的相对运动关系,用三维旋转矩阵R和平移向量t来描述,形式如下:
R c = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33
ct=(x,y,z)
下标c表示相机坐标系下的运动,相机坐标系方向分别是:x轴指向相机正右方,y轴指向相机正下方,z轴指向相机正前方;
(5)根据步骤(3)中得到的相机高度h和俯仰角将步骤(4)中得到的相机运动R和t,通过公式转换到地面坐标系,得到基于视觉的机器人在二维地面的相对运动(Δxv,Δyv,Δθv),其中,下标v表示该相对运动是基于视觉给出的结果,地面坐标系方向为:x轴为机器人正前方,y轴为机器人正右方;转换过程中,先根据相机高度h和俯仰角得到相机相对于机器人的相对位姿关系,
t c r = ( 0 , 0 , h )
左下标c和左上标r表示相机相对于机器人的位姿关系,然后再计算相机在机器人坐标系的运动rR和rt,公式如下:
R r = R r c · R c
t r = R r c · t c + t r c
最后,将其投影到二维地面,得到相对运动(Δxv,Δyv,Δθv),其中Δxv和Δyvrt的前两维,ΔθvrR相对于z轴的转角;
(6)通过里程计获取机器人的相对运动信息(Δxo,Δyo,Δθo),下标o表示里程计给出的结果;
(7)利用在线信息融合算法,将视觉和里程计给出的两种机器人相对运动量,即(Δxv,Δyv,Δθv)和(Δxo,Δyo,Δθo)进行融合,准确估计机器人在t时刻的相对运动量(Δxt,Δyt,Δθt);信息融合公式为:
Δx t = w o × Δx v + w v × Δx o w o + w v
Δy t = w o × Δy v + w v × Δy o w o + w v
Δθ t = w o × Δθ v + w v × Δθ o w o + w v
其中,wo和wv分别是里程计信息和视觉信息的权值,表示两种信息的可信程度;
(8)根据机器人上一时刻位姿(xt-1,yt-1t-1)和相对运动信息(Δxt,Δyt,Δθt),估计机器人当前时刻的位姿(xt,ytt),从而实现机器人位姿的跟踪;计算公式为:
xt=xt-1+cos(θt-1)·Δxt-sin(θt-1)·Δyt
yt=yt-1+sin(θt-1)·Δxt+cos(θt-1)·Δyt
θt=θt-1+Δθt
(9)根据步骤(3)中提取的地面,将三维点云数据投影到地面,得到类似于激光数据的二维点云;
(10)利用二维地图构建的SLAM算法,通过激光或Kinect深度相机构建出二维环境地图;
(11)通过地图匹配算法,将投影后的二维点云与步骤(10)进行匹配,从而修正机器人跟踪过程中的累积误差,准确的估计机器人在二维地图中的位置和朝向角,实现实时自定位。
进一步地,所述步骤(3)具体包括以下子步骤:
(3.1)地面点云分割阶段:给定点云{pi=(xi,yi,zi)}i=1...n,n为点的个数,通过法向量特征和距离特征来判断任意两点是否属于同一个平面,并以此作为扩展规则对所有点进行扩展,将同一个平面的点拓展到一起,从而将点云分割成一系列的平面{∏i={pi1,pi2...pik}}i=1...m,m为平面的个数;
(3.2)地面方程拟合阶段:先粗略的给出相机初始高度和初始俯仰角度在所有平面中,搜索出与初始假设最接近的平面;搜索方法是,步骤(3.1)得到的平面点的法向量和距离十分接近,以其平均值作为该平面在相机坐标系中的法向量和原点到平面的距离,从而搜索出地面∏={p1,p2...pk},利用最小二乘拟合求出地面的平面方程nT(X-p)=0,其中n为地面的法向量,p为平面上一点,X=(x,y,z)T为广义坐标;
(3.3)相机位姿参数求解阶段:给定地面的平面方程nT(X-p)=0,求相机原点到平面的距离d,得到当前相机的高度h,求相机正前方的单位方向向量与平面法向量n之间的夹角,得到当前Kinect深度相机的俯仰角度
本发明的有益效果是:
1.本发明采用廉价的Kinect相机替代昂贵的激光传感器,实现机器人的自主定位,极大的降低了成本。同时,针对Kinect相机感知视野小、噪声大的缺点,通过融合视觉特征和物理里程计,准确的估计机器人的运动并进行位姿跟踪,并通过深度信息恢复得到的点云数据与地图进行匹配,进一步修正机器人的定位误差,可以实现实时的、高精度的、稳定的机器人自定位。
2.本发明通过观测到的地面,自动矫正相机的实时高度和俯仰角。不需要实现对高度和俯仰角等参数进行标定,并且能够应付机器人颠簸、摇摆导致的相机高度和俯仰角变化的问题。
3.本发明虽然采用Kinect相机,但是同样可以兼容使用激光采集的地图进行自定位。使用Kinect替代激光以后,不需要通过Kinect再次扫描地图,便可以进行机器人实时自定位。
附图说明
图1为地面平面方程与Kinect相机高度和俯仰角的坐标转换关系。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明一种基于Kinect深度相机的机器人自定位方法,包括以下步骤:
(1)将Kinect深度相机固定安装在机器人上,通过Kinect深度相机采集环境的RGB图像信息和深度图像信息;
(2)将深度图像信息进行三维恢复,得到三维点云数据:设Kinect深度相机的焦距为fx和fy,光心为(cx,cy),通过公式(1)恢复深度图像上任一点(x,y)的三维坐标(X,Y,Z);
X = ( x - c x ) * 1 f x * z
Y = ( y - c y ) * 1 f y * z - - - ( 1 )
Z=z
其中z为深度值;
(3)利用平面提取算法在三维点云中提取出地面部分的点云,并将地面部分的点云进行平面拟合,得到地面方程;根据相机坐标系下的地面方程,通过坐标求解,计算Kinect深度相机相对于地面的高度h和俯仰角如图1所示,具体包括以下子步骤:
(3.1)地面点云分割阶段:给定点云{pi=(xi,yi,zi)}i=1...n,n为点的个数,通过法向量特征和距离特征来判断任意两点是否属于同一个平面,并以此作为扩展规则对所有点进行扩展,将同一个平面的点拓展到一起,从而将点云分割成一系列的平面{∏i={pi1,pi2...pik}}i=1...m,m为平面的个数;
(3.2)地面方程拟合阶段:先粗略的给出相机初始高度和初始俯仰角度在所有平面中,搜索出与初始假设最接近的平面;搜索方法是,步骤(3.1)得到的平面点的法向量和距离十分接近,以其平均值作为该平面在相机坐标系中的法向量和原点到平面的距离,从而搜索出地面∏={p1,p2...pk},利用最小二乘拟合求出地面的平面方程nT(X-p)=0,其中n为地面的法向量,p为平面上一点,X=(x,y,z)T为广义坐标;
(3.3)相机位姿参数求解阶段:给定地面的平面方程nT(X-p)=0,求相机原点到平面的距离d,得到当前相机的高度h,求相机正前方的单位方向向量与平面法向量n之间的夹角,得到当前Kinect深度相机的俯仰角度
(4)利用基于尺度不变、旋转不变的特征提取算法,得到RGB图像中的特征点,并通过基于像素的特征描述子对其进行描述,通过对相邻时刻采集的两帧RGB图像中的特征点进行特征匹配,获取相机在时间段内的相对运动关系,用三维旋转矩阵R和平移向量t来描述,形式如下:
R c = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33
ct=(x,y,z)
下标c表示相机坐标系下的运动,相机坐标系方向分别是:x轴指向相机正右方,y轴指向相机正下方,z轴指向相机正前方;
(5)根据步骤(3)中得到的相机高度h和俯仰角将步骤(4)中得到的相机运动R和t,通过公式转换到地面坐标系,得到基于视觉的机器人在二维地面的相对运动(Δxv,Δyv,Δθv),其中,下标v表示该相对运动是基于视觉给出的结果,地面坐标系方向为:x轴为机器人正前方,y轴为机器人正右方;转换过程中,先根据相机高度h和俯仰角得到相机相对于机器人的相对位姿关系,
t c r = ( 0 , 0 , h )
左下标c和左上标r表示相机相对于机器人的位姿关系,然后再计算相机在机器人坐标系的运动rR和rt,公式如下:
R r = R r c · R c
t r = R r c · t c + t r c
最后,将其投影到二维地面,得到相对运动(Δxv,Δyv,Δθv),其中Δxv和Δyvrt的前两维,ΔθvrR相对于z轴的转角;
(6)通过里程计获取机器人的相对运动信息(Δxo,Δyo,Δθo),下标o表示里程计给出的结果;
(7)利用在线信息融合算法,将视觉和里程计给出的两种机器人相对运动量,即(Δxv,Δyv,Δθv)和(Δxo,Δyo,Δθo)进行融合,准确估计机器人在t时刻的相对运动量(Δxt,Δyt,Δθt);信息融合公式为:
Δx t = w o × Δx v + w v × Δx o w o + w v
Δy t = w o × Δy v + w v × Δy o w o + w v
Δθ t = w o × Δθ v + w v × Δθ o w o + w v
其中,wo和wv分别是里程计信息和视觉信息的权值,表示两种信息的可信程度;
(8)根据机器人上一时刻位姿(xt-1,yt-1t-1)和相对运动信息(Δxt,Δyt,Δθt),估计机器人当前时刻的位姿(xt,ytt),从而实现机器人位姿的跟踪;计算公式为:
xt=xt-1+cos(θt-1)·Δxt-sin(θt-1)·Δyt
yt=yt-1+sin(θt-1)·Δxt+cos(θt-1)·Δyt
θt=θt-1+Δθt
(9)根据步骤(3)中提取的地面,将三维点云数据投影到地面,得到类似于激光数据的二维点云;
(10)利用二维地图构建的SLAM算法,通过激光或Kinec深度相机构建出二维环境地图;
(11)通过地图匹配算法,将投影后的二维点云与步骤(10)进行匹配,从而修正机器人跟踪过程中的累积误差,准确的估计机器人在二维地图中的位置和朝向角,实现实时自定位。

Claims (2)

1.一种基于Kinect深度相机的机器人自定位方法,其特征在于,包括以下步骤:
(1)将Kinect深度相机固定安装在机器人上,通过Kinect深度相机采集环境的RGB图像信息和深度图像信息;
(2)将深度图像信息进行三维恢复,得到三维点云数据:设Kinect深度相机的焦距为fx和fy,光心为(cx,cy),通过公式(1)恢复深度图像上任一点(x,y)的三维坐标(X,Y,Z);
X = ( x - c x ) * 1 f x * z
Y = ( y - c y ) * 1 f y * z - - - ( 1 )
Z=z
其中z为深度值;
(3)利用平面提取算法在三维点云中提取出地面部分的点云,并将地面部分的点云进行平面拟合,得到地面方程;根据相机坐标系下的地面方程,通过坐标求解,计算Kinect深度相机相对于地面的高度h和俯仰角
(4)利用基于尺度不变、旋转不变的特征提取算法,得到RGB图像中的特征点,并通过基于像素的特征描述子对其进行描述,通过对相邻时刻采集的两帧RGB图像中的特征点进行特征匹配,获取相机在时间段内的相对运动关系,用三维旋转矩阵R和平移向量t来描述,形式如下:
R c = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33
ct=(x,y,z)
下标c表示相机坐标系下的运动,相机坐标系方向分别是:x轴指向相机正右方,y轴指向相机正下方,z轴指向相机正前方;
(5)根据步骤(3)中得到的相机高度h和俯仰角将步骤(4)中得到的相机运动R和t,通过公式转换到地面坐标系,得到基于视觉的机器人在二维地面的相对运动(Δxv,Δyv,Δθv),其中,下标v表示该相对运动是基于视觉给出的结果,地面坐标系方向为:x轴为机器人正前方,y轴为机器人正右方;转换过程中,先根据相机高度h和俯仰角得到相机相对于机器人的相对位姿关系,
t c r = ( 0 , 0 , h )
左下标c和左上标r表示相机相对于机器人的位姿关系,然后再计算相机在机器人坐标系的运动rR和rt,公式如下:
R r = R r c · R c
t r = R r c · t c + t r c
其中,rR表示相机在机器人坐标系的三维旋转矩阵,rt表示相机在机器人坐标系的平移向量;
最后,将其投影到二维地面,得到相对运动(Δxv,Δyv,Δθv),其中Δxv和Δyvrt的前两维,ΔθvrR相对于z轴的转角;
(6)通过里程计获取机器人的相对运动信息(Δxo,Δyo,Δθo),下标o表示里程计给出的结果;
(7)利用在线信息融合算法,将视觉和里程计给出的两种机器人相对运动量,即(Δxv,Δyv,Δθv)和(Δxo,Δyo,Δθo)进行融合,准确估计机器人在t时刻的相对运动量(Δxt,Δyt,Δθt);信息融合公式为:
Δx t = w o × Δx v + w v × Δx o w o + w v
Δy t = w o × Δy v + w v × Δy o w o + w v
Δθ t = w o × Δθ v + w v × Δθ o w o + w v
其中,wo和wv分别是里程计信息和视觉信息的权值,表示两种信息的可信程度;
(8)根据机器人上一时刻位姿(xt-1,yt-1t-1)和相对运动信息(Δxt,Δyt,Δθt),估计机器人当前时刻的位姿(xt,ytt),从而实现机器人位姿的跟踪;计算公式为:
xt=xt-1+cos(θt-1)·Δxt-sin(θt-1)·Δyt
yt=yt-1+sin(θt-1)·Δxt+cos(θt-1)·Δyt
θt=θt-1+Δθt
(9)根据步骤(3)中提取的地面,将三维点云数据投影到地面,得到类似于激光数据的二维点云;
(10)利用二维地图构建的SLAM算法,通过激光或Kinect深度相机构建出二维环境地图;
(11)通过地图匹配算法,将投影后的二维点云与步骤(10)进行匹配,从而修正机器人跟踪过程中的累积误差,准确的估计机器人在二维地图中的位置和朝向角,实现实时自定位。
2.根据权利要求1所述的一种基于Kinect深度相机的机器人自定位方法,其特征在于,所述步骤(3)具体包括以下子步骤:
(3.1)地面点云分割阶段:给定点云{pi=(xi,yi,zi)}i=1...n,n为点的个数,通过法向量特征和距离特征来判断任意两点是否属于同一个平面,并以此作为扩展规则对所有点进行扩展,将同一个平面的点拓展到一起,从而将点云分割成一系列的平面{Πi={pi1,pi2...pik}}i=1...m,m为平面的个数;
(3.2)地面方程拟合阶段:先粗略的给出相机初始高度和初始俯仰角度在所有平面中,搜索出与初始假设最接近的平面;搜索方法是,步骤(3.1)得到的平面点的法向量和距离十分接近,以其平均值作为该平面在相机坐标系中的法向量和原点到平面的距离,从而搜索出地面Π={p1,p2...pk},利用最小二乘拟合求出地面的平面方程nT(X-p)=0,其中n为地面的法向量,p为平面上一点,X=(x,y,z)T为广义坐标;
(3.3)相机位姿参数求解阶段:给定地面的平面方程nT(X-p)=0,求相机原点到平面的距离d,得到当前相机的高度h,求相机正前方的单位方向向量与平面法向量n之间的夹角,得到当前Kinect深度相机的俯仰角度
CN201510400786.0A 2015-07-06 2015-07-06 一种基于Kinect深度相机的机器人自定位方法 Active CN105045263B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510400786.0A CN105045263B (zh) 2015-07-06 2015-07-06 一种基于Kinect深度相机的机器人自定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510400786.0A CN105045263B (zh) 2015-07-06 2015-07-06 一种基于Kinect深度相机的机器人自定位方法

Publications (2)

Publication Number Publication Date
CN105045263A CN105045263A (zh) 2015-11-11
CN105045263B true CN105045263B (zh) 2016-05-18

Family

ID=54451866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510400786.0A Active CN105045263B (zh) 2015-07-06 2015-07-06 一种基于Kinect深度相机的机器人自定位方法

Country Status (1)

Country Link
CN (1) CN105045263B (zh)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700525B (zh) * 2015-12-07 2018-09-07 沈阳工业大学 基于Kinect传感器深度图机器人工作环境不确定性地图构建法
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
CN105955258B (zh) * 2016-04-01 2018-10-30 沈阳工业大学 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
CN106052674B (zh) * 2016-05-20 2019-07-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN106403924B (zh) * 2016-08-24 2019-05-31 智能侠(北京)科技有限公司 基于深度摄像头的机器人快速定位与姿态估计方法
CN106403998B (zh) * 2016-08-30 2019-05-03 北京云迹科技有限公司 基于imu的抗暴力干扰装置及方法
CN106383517B (zh) * 2016-09-30 2019-06-07 汕头大学 一种自主移动机器人平台用控制系统、方法及装置
CN106596557A (zh) * 2016-11-07 2017-04-26 东南大学 一种搭载Kinect的三维扫描移动式平台及其方法
CN108107882B (zh) * 2016-11-24 2021-07-06 中国科学技术大学 基于光学运动跟踪的服务机器人自动标定与检测系统
CN107085422A (zh) * 2017-01-04 2017-08-22 北京航空航天大学 一种基于Xtion设备的多功能六足机器人的远程控制系统
CN106908064B (zh) * 2017-01-22 2019-12-27 电子科技大学 一种基于Kinect2传感器的室内夜间视觉导航方法
CN106908052B (zh) * 2017-02-09 2020-06-02 北京光年无限科技有限公司 用于智能机器人的路径规划方法及装置
CN106842216B (zh) * 2017-02-13 2019-05-24 大连理工大学 一种基于Kinect与三维激光协同的工件位姿在线检测方法
CN108460797B (zh) * 2017-02-22 2020-08-25 深圳市鸿合创新信息技术有限责任公司 深度相机相对位姿及场景平面高度计算方法及装置
CN106980116B (zh) * 2017-04-09 2021-06-22 复旦大学 基于Kinect摄像头的高精度室内人物测距方法
CN107092252A (zh) * 2017-04-11 2017-08-25 杭州光珀智能科技有限公司 一种基于机器视觉的机器人主动避障方法及其装置
CN108732603B (zh) * 2017-04-17 2020-07-10 百度在线网络技术(北京)有限公司 用于定位车辆的方法和装置
CN107170011B (zh) * 2017-04-24 2019-12-17 杭州艾芯智能科技有限公司 一种机器人视觉跟踪方法及系统
CN107240104B (zh) * 2017-04-28 2020-01-21 深圳市速腾聚创科技有限公司 点云数据分割方法和终端
CN107229055B (zh) * 2017-05-04 2021-03-09 海信视像科技股份有限公司 移动设备定位方法和移动设备定位装置
CN107123142B (zh) * 2017-05-09 2020-05-01 北京京东尚科信息技术有限公司 位姿估计方法和装置
CN107248171B (zh) * 2017-05-17 2020-07-28 同济大学 一种基于三角剖分的单目视觉里程计尺度恢复方法
CN107356252B (zh) * 2017-06-02 2020-06-16 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN107091643A (zh) * 2017-06-07 2017-08-25 旗瀚科技有限公司 一种基于多台3d结构光相机拼接的室内导航方法
CN109115232B (zh) * 2017-06-22 2021-02-23 华为技术有限公司 导航的方法和装置
CN107273907B (zh) * 2017-06-30 2020-08-07 北京三快在线科技有限公司 室内定位方法、商品信息推荐方法及装置、电子设备
CN107564060A (zh) * 2017-07-13 2018-01-09 塔米智能科技(北京)有限公司 一种消除slam导航累积误差的方法
CN107543531B (zh) * 2017-08-13 2019-10-11 天津职业技术师范大学 一种机器人视觉定位系统
CN107796397B (zh) * 2017-09-14 2020-05-15 杭州迦智科技有限公司 一种机器人双目视觉定位方法、装置和存储介质
CN107491077A (zh) * 2017-09-22 2017-12-19 衢州职业技术学院 一种基于手机app控制的室内清扫机器人
CN107544507A (zh) * 2017-09-28 2018-01-05 速感科技(北京)有限公司 可移动机器人移动控制方法及装置
CN110520694A (zh) * 2017-10-31 2019-11-29 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
CN108693875B (zh) * 2018-03-13 2023-09-29 浙江工业大学 一种非接触式适用于瓦楞状轨道的导向装置及其导向方法
CN108596979A (zh) * 2018-03-27 2018-09-28 深圳市智能机器人研究院 一种用于激光雷达和深度相机的标定装置和方法
CN111989631A (zh) * 2018-04-20 2020-11-24 本田技研工业株式会社 自身位置推定方法
CN108629813B (zh) * 2018-05-04 2022-03-01 歌尔科技有限公司 一种投影设备高度信息的获取方法、装置
CN108986162B (zh) * 2018-06-28 2022-02-22 杭州吉吉知识产权运营有限公司 基于惯性测量单元和视觉信息的菜品和背景分割方法
WO2020019130A1 (zh) * 2018-07-23 2020-01-30 深圳市大疆创新科技有限公司 运动估计方法及可移动设备
CN109141364B (zh) * 2018-08-01 2020-11-03 北京进化者机器人科技有限公司 障碍物检测方法、系统及机器人
CN109358340B (zh) * 2018-08-27 2020-12-08 广州大学 一种基于激光雷达的agv室内地图构建方法及系统
CN109081272B (zh) * 2018-10-23 2023-09-29 西安中科光电精密工程有限公司 一种基于激光与视觉混合引导的无人转运叉车及方法
CN109460032A (zh) * 2018-11-29 2019-03-12 亿嘉和科技股份有限公司 一种基于激光对射的定位方法以及机器人自主充电方法
CN111351497B (zh) * 2018-12-20 2022-06-03 北京魔门塔科技有限公司 一种车辆的定位方法、装置、地图的构建方法和装置
CN109815847B (zh) * 2018-12-30 2020-12-01 中国电子科技集团公司信息科学研究院 一种基于语义约束的视觉slam方法
CN109903326B (zh) 2019-02-28 2022-02-22 北京百度网讯科技有限公司 用于确定工程机械设备的旋转角度的方法和装置
CN109857123A (zh) * 2019-03-21 2019-06-07 郑州大学 一种基于视觉感知和激光探测的室内slam地图的融合方法
TWI706841B (zh) * 2019-03-22 2020-10-11 達明機器人股份有限公司 3d相機與機械手臂座標系統的校正裝置及方法
CN111735433B (zh) * 2019-03-25 2022-05-20 杭州海康威视数字技术股份有限公司 建立二维地图的方法和装置
CN111768489B (zh) * 2019-04-01 2023-09-26 丰翼科技(深圳)有限公司 一种室内导航地图构建方法和系统
CN110163963B (zh) * 2019-04-12 2023-06-20 南京华捷艾米软件科技有限公司 一种基于slam的建图装置和建图方法
CN111829531A (zh) * 2019-04-15 2020-10-27 北京京东尚科信息技术有限公司 二维地图构建方法、装置、机器人定位系统和存储介质
CN110136211A (zh) * 2019-04-18 2019-08-16 中国地质大学(武汉) 一种基于主动双目视觉技术的工件定位方法及系统
CN110175528B (zh) * 2019-04-29 2021-10-26 北京百度网讯科技有限公司 人体跟踪方法及装置、计算机设备及可读介质
CN110174107B (zh) * 2019-04-30 2021-07-27 厦门大学 一种导览机器人定位建图激光视觉融合方法和机器人
CN110142805A (zh) * 2019-05-22 2019-08-20 武汉爱速达机器人科技有限公司 一种基于激光雷达的机器人末端校准方法
CN111684382A (zh) * 2019-06-28 2020-09-18 深圳市大疆创新科技有限公司 可移动平台状态估计方法、系统、可移动平台及存储介质
CN110488335B (zh) * 2019-08-13 2021-11-23 Oppo(重庆)智能科技有限公司 基于可见光通信的导航方法及系统
CN110455189B (zh) * 2019-08-26 2021-04-06 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN110705487B (zh) * 2019-10-08 2022-07-29 清华大学深圳国际研究生院 掌纹采集设备、方法及其图像采集装置
CN110542422B (zh) * 2019-10-10 2021-03-23 上海钛米机器人科技有限公司 机器人定位方法、装置、机器人及存储介质
CN110834333B (zh) * 2019-11-14 2021-11-02 中科新松有限公司 一种机器人手眼标定方法及存储介质
CN110842940A (zh) * 2019-11-19 2020-02-28 广东博智林机器人有限公司 一种建筑测量机器人多传感器融合三维建模方法及系统
CN111046776B (zh) * 2019-12-06 2023-06-09 杭州成汤科技有限公司 基于深度相机的移动机器人行进路径障碍物检测的方法
CN111352420B (zh) * 2020-03-03 2021-08-10 厦门大学 一种激光导航agv高精度定位及目标对准控制方法
CN111398984B (zh) * 2020-03-22 2022-03-29 华南理工大学 基于扫地机器人的自适应激光雷达点云校正与定位方法
CN111586299B (zh) * 2020-05-09 2021-10-19 北京华捷艾米科技有限公司 一种图像处理方法和相关设备
CN111563934B (zh) * 2020-06-10 2020-12-22 浙江欣奕华智能科技有限公司 单目视觉里程计尺度确定方法和装置
CN111639626B (zh) * 2020-06-11 2021-09-17 深圳市泰沃德技术有限公司 三维点云数据处理方法、装置、计算机设备和存储介质
CN114518108B (zh) * 2020-11-18 2023-09-08 宇通客车股份有限公司 一种定位地图构建方法及装置
CN114612622A (zh) * 2020-12-14 2022-06-10 北京石头创新科技有限公司 机器人三维地图位姿显示方法、装置、设备及存储介质
CN112816967A (zh) * 2021-02-03 2021-05-18 成都康烨科技有限公司 图像距离测量方法、装置、测距设备和可读存储介质
CN113778077B (zh) * 2021-02-09 2024-04-16 贵州京邦达供应链科技有限公司 移动平台的定位方法、设备以及存储介质
CN113052908B (zh) * 2021-04-16 2023-08-04 南京工业大学 一种基于多传感器数据融合的移动机器人位姿估计算法
CN115379194A (zh) * 2021-05-19 2022-11-22 北京小米移动软件有限公司 深度图像的量化方法及装置、终端设备、存储介质
CN113406659A (zh) * 2021-05-28 2021-09-17 浙江大学 一种基于激光雷达信息的移动机器人位置重识别方法
CN113284240B (zh) * 2021-06-18 2022-05-31 深圳市商汤科技有限公司 地图构建方法及装置、电子设备和存储介质
CN113607166B (zh) * 2021-10-08 2022-01-07 广东省科学院智能制造研究所 基于多传感融合的自主移动机器人室内外定位方法及装置
CN113822996B (zh) * 2021-11-22 2022-02-22 之江实验室 机器人的位姿估计方法及装置、电子设备、存储介质
CN115496898B (zh) * 2022-11-16 2023-02-17 山东科技大学 移动机器人目标定位方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
CN103559711B (zh) * 2013-11-05 2016-04-27 余洪山 基于三维视觉系统图像特征和三维信息的运动估计方法
CN104236548B (zh) * 2014-09-12 2017-04-05 清华大学 一种微型无人机室内自主导航方法
CN104390645B (zh) * 2014-12-09 2017-11-07 重庆邮电大学 一种基于视觉信息的智能轮椅室内导航方法
CN104732587B (zh) * 2015-04-14 2019-02-01 中国科学技术大学 一种基于深度传感器的室内3d语义地图构建方法

Also Published As

Publication number Publication date
CN105045263A (zh) 2015-11-11

Similar Documents

Publication Publication Date Title
CN105045263B (zh) 一种基于Kinect深度相机的机器人自定位方法
Zhang et al. Intelligent collaborative localization among air-ground robots for industrial environment perception
CN110706248B (zh) 一种基于slam的视觉感知建图方法及移动机器人
CN105096386B (zh) 大范围复杂城市环境几何地图自动生成方法
CN102087530B (zh) 基于手绘地图和路径的移动机器人视觉导航方法
Gutmann et al. A floor and obstacle height map for 3D navigation of a humanoid robot
CN107741234A (zh) 一种基于视觉的离线地图构建及定位方法
Yu et al. Semantic alignment of LiDAR data at city scale
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
Grant et al. Efficient Velodyne SLAM with point and plane features
CN103093459B (zh) 利用机载LiDAR点云数据辅助影像匹配的方法
CN109186606A (zh) 一种基于slam和图像信息的机器人构图及导航方法
Meilland et al. Dense omnidirectional RGB‐D mapping of large‐scale outdoor environments for real‐time localization and autonomous navigation
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN112833892B (zh) 一种基于轨迹对齐的语义建图方法
CN103994765A (zh) 一种惯性传感器的定位方法
CN111862200B (zh) 一种煤棚内无人机定位方法
Zhu et al. PLD-VINS: RGBD visual-inertial SLAM with point and line features
Gokhool et al. A dense map building approach from spherical RGBD images
Hoang et al. Motion estimation based on two corresponding points and angular deviation optimization
Das et al. Extrinsic calibration and verification of multiple non-overlapping field of view lidar sensors
Hoang et al. Planar motion estimation using omnidirectional camera and laser rangefinder
Wang et al. Monocular visual-inertial localization in a point cloud map using feature-to-distribution registration
Andolfo et al. Precise pose estimation of the NASA Mars 2020 Perseverance rover through a stereo‐vision‐based approach
Zhou et al. Object Detection and Mapping with Bounding Box Constraints

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220318

Address after: Room 101-110, 1st floor, building 8, Jinsheng Industrial Park, 611 Dongguan Road, Binjiang District, Hangzhou, Zhejiang 310000

Patentee after: HANGZHOU IPLUS TECH CO.,LTD.

Address before: 310051 229, room 1, No. 475 Changhe Road, Changhe street, Binjiang District, Hangzhou, Zhejiang

Patentee before: HANGZHOU NANJIANG ROBOTICS Co.,Ltd.