CN105783913A - 一种融合车载多传感器的slam装置及其控制方法 - Google Patents

一种融合车载多传感器的slam装置及其控制方法 Download PDF

Info

Publication number
CN105783913A
CN105783913A CN201610130038.XA CN201610130038A CN105783913A CN 105783913 A CN105783913 A CN 105783913A CN 201610130038 A CN201610130038 A CN 201610130038A CN 105783913 A CN105783913 A CN 105783913A
Authority
CN
China
Prior art keywords
vehicle
robot
displacement
transformation
delta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610130038.XA
Other languages
English (en)
Inventor
成慧
吴依莹
朱启源
林倞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201610130038.XA priority Critical patent/CN105783913A/zh
Publication of CN105783913A publication Critical patent/CN105783913A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及融合车载多传感器的三轮全向移动机器人的同步定位与建图方法的技术领域,更具体地,涉及一种融合车载多传感器的SLAM装置及其控制方法。一种融合车载多传感器的SLAM装置,其中,包括车载传感器、车载编码器、车载惯性测量单元、车载控制器、上位机;所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接上位机;所述的车载传感器与上位机连接。能够提高机器人定位和建图的效果,解决单纯依靠RGB‑D传感器进行SLAM的深度值缺失或特征点稀少带来的定位和建图的误差问题,从而提高SLAM的鲁棒性和准确性。

Description

一种融合车载多传感器的SLAM装置及其控制方法
技术领域
本发明涉及融合车载多传感器的三轮全向移动机器人的同步定位与建图方法的技术领域,更具体地,涉及一种融合车载多传感器的SLAM装置及其控制方法。
背景技术
全向移动机器人能实现任意方向的运动,可广泛应用于军事、工业、家用服务等领域。移动机器人的同时定位和地图创建(SLAM,Simultaneous LocalizationAnd Mapping)是机器人领域的热点研究问题,它是移动机器人自助任务规划和路径规划的前提和基础。机器人的SLAM问题,简单的说就是在一个未知的环境中,移动机器人需要建立环境地图,并在地图上的同时定位自身。这个过程类似于人走到一个完全陌生的环境中,在未携带任何能够确定位置和方向的设备情况下,只能根据对周围环境的观察和对自身运动的估计认识环境并确定自己的位置。
SLAM本质上是一个系统状态(包括机器人当前位姿以及所有地图特征位置等)估计问题。从这一角度,其求解方法可大致分为基于Kalman滤波器的方法、基于粒子滤波器的方法、基于图优化的方法3类。基于Kalman滤波(KF)和粒子滤波(PF)的方法主要依据递归贝叶斯状态估计理论。而基于图优化的增量式SLAM算法框架,主要包括顺序数据关联、环形闭合检测以及图优化3大部分。
从传感器的角度分析,在室外环境中,定位的问题通常可以由GPS(GlobalPositioning System)来完成,因为GPS为机器人所承担的任务提供了很好的准确性。然而,当在室内移动时,GPS数据不可用,难以准确估计机器人的位置,因此必须寻找其它解决方案。以前大部分的机器人地图构建只能提供环境的二维信息,因为获得高质量的三维数据非常昂贵或者对于机器人的运动有很多的约束。这一阶段的研究使用的数据源一般为激光测距仪,双目摄像头和单目摄像头。激光测距仪的定位精度虽然高,但价格昂贵,三维激光扫描仪的价格更是让人难以承担。而基于双目或单目的SLAM依赖于计算机视觉和图像处理技术,缺点在于缺乏直观的场景深度信息,三维地图重建工作变得复杂。最近几年,随着微软公司的Kinect、华硕公司的Xtion Pro Live等便宜且高效的RGB-D摄像机的出现,采用RGB-D传感器进行移动机器人定位或SLAM的研究迅速发展起来。
RGB-D传感器能够同时提供彩色(RGB)和深度(Depth)图像信息,相比于激光测距仪,它能够更廉价地获得深度信息,而相比于普通相机,它连续性好,环境信息更加丰富,因此定位的精度更高,且更容易进行三维地图重建。而采用RGB-D摄像机对环境进行SLAM的最新研究中,则有相当一部分都采用了基于图优化的SLAM方法。
但RGB-D传感器也存在可获得的深度值有效范围较小的问题,对于一些空旷且较大的场景,会出现深度值缺失或特征点缺失的问题,影响运动估计的准确性,甚至导致定位和建图出现严重偏差。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种融合车载多传感器的SLAM装置及其控制方法,基于图优化的SLAM方法,考虑RGB-D传感器的优点并针对其局限性,引入车载的编码器和惯性测量单元两类传感器,提出融合车载多传感器的SLAM方法,通过融合多传感器的数据,计算得到全向移动机器人的位姿变换,减小由于深度值缺失以及特征点稀少所造成的误差,使获得的机器人运动轨迹更为平滑准确,同时也提高建图的准确度。
为解决上述技术问题,本发明采用的技术方案是:一种融合车载多传感器的SLAM装置,其中,包括车载传感器、车载编码器、车载惯性测量单元、车载控制器、上位机;所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接上位机;所述的车载传感器与上位机连接。所述的车载传感器为Kinect体感传感器。
本发明中,在未知环境下,三轮全向移动机器人在运动的过程中通过车载RGB-D传感器(即Kinect体感传感器)获取周围环境的彩色图像和深度图像,从图像变化解算出自身的运动变换,同时还通过车载编码器和车载惯性测量单元获得机器人自身的运动数据,对这些数据进行融合处理,以获得机器人自身所处的位置并构建出周围环境的三维地图,实现机器人的同步定位与建图(SLAM)。
利用所述的融合车载多传感器的SLAM装置的控制方法,其中,包括以下步骤:
S1.车载传感器将获取的图像信息传送到上位机,解算出机器人位移和姿态信息;
S2.车载编码器和车载惯性测量单元收集机器人的位移和旋转信息发送到车载控制器,再通过车载控制器传送到上位机上,解算出机器人位移和姿态变化;
S3.将车载传感器、车载编码器、车载惯性测量单元的信息融合,对机器人进行同步定位和建图。
本发明中,在行进过程中,移动机器人通过RGB-D传感器(即Kinect体感传感器)获取周围环境的图像,由上位机采集编码器和惯性测量单元数据,分别解算出机器人的位姿,然后进行数据融合,以获得更准确的位姿信息,从而提高机器人定位和建图的准确度。车载编码器和惯性测量单元收集机器人的位移和旋转信息发送到车载控制器,再通过车载控制器传送到上位机上;车载Kinect直接与上位机连接,将获取的图像信息传送到上位机,解算出机器人位姿信息后,与编码器和惯性测量单元的信息进行融合。
具体的,所述的步骤S1中,包括以下步骤:
S11.特征提取与匹配;
S12.帧间变换估计。
所述的步骤S11中,包括以下步骤:特征点检测、描述符提取、特征点匹配。
所述的步骤S3中,包括以下步骤:
S31.加权平均的方法对车载传感器、车载编码器、车载惯性测量单元的数据进行融合,优化位姿估计;
S32.关键帧检测与闭环检测;
S33.位姿图优化;
S34.拼接点云建图。
与现有技术相比,有益效果是:本发明在未知的环境中,全向移动机器人采用车载传感器获取周围环境的信息,进行同步定位和建图,我们所考虑的车载传感器系统包括RGB-D传感器、编码器和惯性测量单元。由于Kinect存在深度范围有限的问题,且基于图像匹配估计运动的方式容易受到特征点缺失的影响,导致估计结果误差较大,因此我们考虑融合Kinect、编码器和惯性测量单元的数据,优化位姿估计。基于所提出的多传感器加权融合算法,本方法能够提高机器人定位和建图的效果,解决单纯依靠RGB-D传感器进行SLAM的深度值缺失或特征点稀少带来的定位和建图的误差问题,从而提高SLAM的鲁棒性和准确性。
融合车载编码器和惯性测量单元所估计的数据,较好地解决了RGB-DSLAM中存在的深度范围有限、深度值缺失导致的定位和建图的偏差,提高SLAM方法的鲁棒性;
采用加权平均的方式融合多传感器解算得到的位姿信息,提高了位姿的准确性,从而提高SLAM的效果和准确性;
把多传感器融合估计位姿的方法应用于SLAM系统,并提供一个较为完整的SLAM解决方案。
附图说明
图1是融合多传感器的SLAM系统结构图。
图2是三轮全向机器人机械结构示意图。
图3是世界坐标系图。
图4是机器人坐标系图。
图5是合速度分解图。
图6是多传感器数据融合方法流程框图。
图7是融合多传感器的SLAM方法流程框图。
图8是机器人x轴上的轨迹跟踪效果对比图。
图9是机器人y轴上的轨迹跟踪效果对比图。
图10是只使用Kinect的建图效果图。
图11是使用多传感器加权融合方法的建图效果图。
图12是机器人x轴上的轨迹跟踪效果对比图。
图13是机器人y轴上的轨迹跟踪效果对比图。
图14是只使用Kinect的建图效果图。
图15是使用多传感器加权融合方法的建图效果图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
如图1所示,一种融合车载多传感器的SLAM装置,其中,包括车载传感器、车载编码器、车载惯性测量单元、车载控制器、上位机;所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接上位机;所述的车载传感器与上位机连接。所述的车载传感器为Kinect体感传感器。
本发明中,在未知环境下,三轮全向移动机器人在运动的过程中通过车载RGB-D传感器(即Kinect体感传感器)获取周围环境的彩色图像和深度图像,从图像变化解算出自身的运动变换,同时还通过车载编码器和车载惯性测量单元获得机器人自身的运动数据,对这些数据进行融合处理,以获得机器人自身所处的位置并构建出周围环境的三维地图,实现机器人的同步定位与建图(SLAM)。
(一)基于RGB-D传感器的位姿估计
RGB-D传感器采用微软公司的Kinect体感传感器。Kinect有一个彩色摄像头,用来获取640*480的彩色图像,每秒最多获取30帧图像;彩色摄像头两边分别是红外发射器和红外接收器,,它们共同组成景深摄像头,用以检测物体距离Kinect的深度信息。
1、特征提取与匹配
常用的图像特征提取算法有SIFT(Scale-invariant feature transform),SURF(Speeded Up Robust Features)等算法。SIFT算法基于尺度空间,能够不受图像的缩放、转动以及仿射变换的影响。SURF算法是由Herbert Bay提出的一种基于二维Hessian矩阵的算法,该算法是在SIFT算法上做的改进,提高了算法的执行效率。本方法采用SURF算法对Kinect获取的彩色图像进行特征点检测和描述符提取,采用FLANN的特征匹配方法进行特征匹配。
(1)特征点检测:首先对原图像构建尺度空间金字塔,然后用Hessian矩阵求出极值,在3×3×3的立体邻域内进行非极大值抑制,找出候选特征点,再在尺度空间和图像空间中进行插值运算,得到稳定的特征点位置及所在的尺度值,最后利用像素的Haar小波响应,通过统计60°范围内像素点的水平和垂直Haar小波响应来指定特征点的方向;
(2)描述符提取:以特征点为中心,首先将坐标轴旋转到主方向,按照主方向选取边长为20s的正方形区域,将该窗口区域划分成4×4的子区域,在每一个子区域内,计算5s×5s(采样步长取s)范围内的小波响应,相对于主方向的水平、垂直方向的Haar小波响应分别记做dx、dy,同样赋予响应值以权值系数,以增加对几何变换的鲁棒性;然后将每个子区域的响应以及响应的绝对值相加形成∑dx,∑dy,∑|dx|,∑|dy|。这样,在每个子区域形成四维分量的矢量Vsub=(∑dx,∑|dx|,∑dy,∑|dy|),因此,对每一特征点,形成4×(4×4)=64维的描述向量,再进行向量的归一化,从而对光照具有一定的鲁棒性。
(3)特征点匹配:使用FLANN(Fast Library for Approximate NearestNeighbors)进行特征点匹配。FLANN是在高维空间执行快速近似最近邻搜索的一个库,它包含一组优秀的最近邻搜索算法和一个自动选择最优算法并且根据数据集对算法参数进行优化的系统;对于高维空间中的最近邻搜索问题,FLANN采用基于分层k-均值树的优先级搜索算法或采用多重随机k-d树时具有最好的性能;相对于其他传统最近邻搜索算法,基于FLANN的近似快速最近邻搜索的速度提高了一个数量级。
2、帧间变换估计
得到两帧彩色图像之间的一组匹配特征点后,就可结合对应的深度图像的信息计算两个图像间的转换关系。设两个帧分别为F1和F2,则一组一一对应的匹配特征点为:
P={p1,p2,...,pN}∈F1, (1)
Q={q1,q2,...,qN}∈F2, (2)
其中pi和qi都是R2中的点,i=1,…,N。
三维空间点[x,y,z]和它在图像中的像素坐标[u,v,d](d指深度数据)的对应关系为:
u = x · f x z + c x , u = y · f y z + c y , d = z · s , - - - ( 3 )
其中,fx、fy指相机在两个轴上的焦距,cx、cy指相机的光圈中心,s指深度图的缩放因子。利用此公式,将帧F2中的特征点映射到当前帧的相机坐标系中,可得:
Qc={qc1,qc2,...,qcN}, (4)
其中,qci是R3中的点,i=1,…,N。
则变换矩阵T求解如下:
T * = argmin T Σ i = 1 , ... , N | | f ( q c i ; T ) - p i | | 2 , - - - ( 5 )
其中,f是投影矩阵。通过最小化重投影误差的方法,可以获得比直接采用三维点对进行计算并最小化空间距离更好的效果。
RANSAC(Random Sample Consensus)是一种迭代算法,用于去除图像特征点中的一些离群点,提高匹配精度。RANSAC算法是一种比最小二乘法更优的求取模型参数的算法,对于一组包含有噪声点的数据集,除了可以找到最佳参数,还能够剔除这些噪声点。本方法结合RANSAC算法剔除错误匹配,以提高变换矩阵的准确性。通过使用RANSAC算法多次迭代求解,从而获得更准确的变换估计。
(二)基于编码器和惯性测量单元的位姿估计
本方法考虑的三轮全向移动机器人采用了正三角的三轮结构,长85cm,宽78cm,高50cm,采取全向轮,可实现任意方向的移动。机器人上搭载了编码器、惯性测量单元,可解算出机器人的位移和姿态变化。
本方法采用双向光电编码器,转动轴与电机通过联轴器连接,能够在电机转动时产生三路方波,称作A相、B相和Z相。
三轮全向移动机械结构如图2,其中L1=L2=L3=L(L表示驱动轮中心到机器人中心的距离),三个驱动轮的旋转轴互成120°,V1、V2、V3表示驱动轮的运动方向。
三轮全向机器人的工作环境为一平面空间,建立世界坐标系X–Y,如图3所示;以全向轮小车的中心点为原点,L2所在直线方向为y轴,建立机器人的体坐标系xa-ya,如图4所示;在世界坐标系中对机器人的整体速度进行x轴和y轴方向上的分解,如图5。
图3中的θc为世界坐标X轴与机器人坐标xa轴的夹角,假设机器人在零状态时其夹角为零,即世界坐标轴与机器人起始点的坐标轴重合,则θc表示机器人运动时产生的自旋角度。图5中的β表示合速度V与世界坐标的X轴的夹角,V分解为Vx和Vy V = [ V x V y θ · c ] 表示小车的姿态变量。三轮全向移动机器人的运动学模型为:
V 1 V 2 V 3 = - s i n ( π 6 - θ c ) - c o s ( π 6 - θ c ) L cosθ c sinθ c L - s i n ( π 6 + θ c ) - s i n ( π 6 + θ c ) L V x V y θ · c - - - ( 6 )
将编码器输出的A相和B相输入到测速电路模块中,可以得到机器人三个轮子的速度,即V1、V2、V3。根据等式(6),可计算出机器人的水平速度Vx和纵向速度Vy,积分即可获得三轮全向机器人相对于起始点位置的相对位移x和y。
惯性测量单元包括加速度计和陀螺仪,加速度计用于测量在机器人坐标下的三个坐标轴方向上的加速度,陀螺仪用于测量机器人体坐标下的三个坐标轴方向上的角速度,通过积分可以得到机器人旋转角度。通过数据融合算法融合惯性测量单元中的加速度与角速度信息,可以估计得到ψ、θ、三个姿态角度,分别对应机器人绕Z轴、Y轴和X轴的旋转角度,即机器人的位姿信息。
(三)融合多传感器的机器人同步定位和建图方法
本方法对Kinect、编码器和惯性测量单元的数据进行融合估计位姿,使用了关键帧减少冗余图像帧以提高SLAM效率,并对关键帧进行闭环检测以增加帧间关联,同时利用帧间关联进行位姿图优化以减小累积误差,通过以上方法提高定位和建图的准确度。
1、加权平均的多传感器数据融合方法
本方法采用加权平均的方法对Kinect、编码器和惯性测量单元的数据进行融合,优化位姿估计。
用p表示用RANSAC算法求解帧间变换时的局内点对数目和用于求解变换的点对总数目的比值,0≤p≤1;则当p越大,该算法求解的变换矩阵越可信,p的比值由求解变换的每两帧图像确定。此外,用q作为衡量编码器数据准确性的因子,用r作为衡量惯性测量单元数据准确性的因子,q和r的值越大则对应的传感器数据的准确度越高。当采用不同精确度的传感器时,所对应的描述准确度的因子亦不同。在对多传感器数据进行融合时,可以通过实验的方法选择适宜的q和r的值。
利用Kinect获取的图像信息可解算出帧间的平移向量和旋转向量,由车载编码器可算出帧间的平移向量,而由车载惯性测量单元可估计得到帧间的旋转向量。
本方法采用如下规则对多传感器的数据进行融合:
(1)获取位移变换时,将由Kinect获取的图像信息解算获得的平移向量与由编码器的测量信息估计得到的帧间位移差值以的比值进行融合,从而获得当前帧与前一帧机器人的位移变换。机器人在二维平面运动,只有X和Y方向的位移变化,因此位移变换融合公式如下:
Δ x Δ y = p p + q Δ x k Δy k + q p + q Δ x c Δ y c , - - - ( 7 )
其中,Δxk和Δyk分别表示Kinect解得的机器人沿x方向和沿y方向的帧间位移,Δxc和Δyc表示编码器解得的帧间位移,Δx和Δy表示加权融合后的帧间位移。
(2)获取姿态变换时,将由Kinect获取的图像信息解算获得的旋转向量与由惯性测量单元的测量信息估计得到的帧间姿态差值以的比值进行融合,从而获得当前帧与前一关键帧机器人的姿态变换。机器人在二维平面运动,只有绕Z轴旋转的角度ψ的变化,因此姿态变换融合公式如下:
Δ ψ = p p + r Δψ k + r p + r Δψ m , - - - ( 8 )
其中,Δψk表示Kinect解得的机器人绕Z轴的帧间姿态角变化,Δψm表示惯性测量单元解得的帧间姿态角变化,Δψ表示加权融合后的帧间姿态角变化。
(3)因为用于求解最小化重投影误差的点对至少需要4组,当利用Kinect获取的图像信息求解的局内点数小于5组时,解算出的变换矩阵误差很大。在这种情况下舍弃由Kinect获取的图像数据的估计值,而使用由编码器和惯性测量单元所获得的解算结果。
多传感器数据加权融合方法流程图如图6所示。
2、关键帧检测与闭环检测
Kinect每秒钟可以获取30帧的图像,因此帧与帧之间距离很近,如果把每一帧都用于构建地图,会导致地图频繁更新,消耗计算时间与储存空间。因此我们采取了提取关键帧的方法,剔除冗余帧以提高效率。算出两帧之间的运动变换矩阵T*的二范数e,若e小于设定的阈值Emin,则两帧之间变换太小,为冗余帧,丢弃当前帧;若e大于阈值Emin,则取为关键帧。Emin太小会导致剔除的冗余帧过少,从而降低效率,Emin过大则相邻关键帧的图像相差较多,运动估计容易出错。Emin的选取可根据不同的数据集进行测试,选取适宜的值。本方法选取的Emin为0.1。
对提取的当前关键帧进行闭环检测,用关键帧分别与前N个关键帧和整个关键帧序列中的随机M帧进行帧间变换估计,算出两帧之间的运动变换矩阵T*。类似于关键帧检测,计算T*的二范数e,当e大于Emin且小于Emax时,判定这两帧是机器人在相近的位置取得,即机器人又回到曾到过的位置,则将算得的变换矩阵T*作为新的约束关系加入位姿图中,以便进行位姿图优化时能更好地消减误差。Emax太小,则闭环检测成功率低,Emax太大,则容易出现错误的闭环匹配,导致位姿图优化时误差更大。Emax的选取也可根据不同的数据集进行测试,选取适宜的值。本方法选取的Emax为1.0。
3、位姿图优化
经过位姿融合、关键帧提取、闭环检测等步骤后,会得到一系列的位姿点之间的变换关系。因此,对位姿进行全局一致优化的问题可用图来表示,也就是目前视觉SLAM里常用的姿态图(pose graph)。图中的每个节点表示一个状态变量,即相机的各个姿态vi
vi=[x,y,z,qx,qy,qz,qw]i, (9)
其中,x、y、z表示相机的位置,qx、qy、qz、qw用四元数表示相机的姿态角。
每条边Ei,j表示连接两个相邻状态变量vi和vj之间的测量值,即两帧之间的变换矩阵Ti,j
E i , j = T i , j = R 3 * 3 t 3 * 1 O 1 * 3 1 i , j , - - - ( 10 )
其中,R3*3表示旋转矩阵,可由旋转向量通过罗格里德斯变换获得,t3*1表示平移向量。
四元数的表示形式可与旋转矩阵的形式相互转换,所以节点vi的状态变量也可用变换矩阵的形式xi表示:
x i = R 3 * 3 t 3 * 1 O 1 * 3 1 i - - - ( 11 )
理想的情况下,应有如下变换关系:
xi=Ti,jxj (12)
但由于边中存在误差,使得所有的边给出的数据并不一致,因此转化成求解误差函数的最小值的问题:
min E = Σ i , j | | x i * - T i , j x j * | | 2 2 , - - - ( 13 )
其中,表示优化变量xi的估计值。
本方法采用g2o(General Graph Optimization)算法,即通用图优化算法,来进行位姿图的优化,求解出最优位姿x*的组合,让误差E收敛到一个极小值。g2o是一个算法集,根据具体的问题选用合适的算法求解优化问题。
优化后的位姿图包含了各个关键帧对应的相机位置和姿态,可据此绘出机器人的运动轨迹。
4、拼接点云建图
利用RGB-D传感器获取的彩色信息和深度信息将每帧图像转化为点云。利用公式(3)可以将每个图像点的二维坐标映射到当前帧相机坐标系的三维坐标,再加入彩色RGB信息,就可获得点云pc=[x y z r g b]。
点云的拼接,实质上是对点云做变换的过程。这个变换往往是用变换矩阵来描述的,即公式(10),变换矩阵T结合了旋转和缩放,可对点进行齐次变换:
y 1 y 2 y 3 1 = T · x 1 x 2 x 3 1 - - - ( 14 )
本方法采用了PCL库里提供的点云变换函数,给定变换矩阵,就可对整个点云进行移动,完成点云的拼接。
本方法提供了一个较为完整的SLAM解决方案,包括了特征的提取与匹配、运动估计、关键帧检测、闭环检测、地图优化、建图与定位等步骤,并将多传感器加权融合的方法应用于位姿估计,提高了SLAM的准确度。本方法提供的SLAM方案的具体流程如图7所示。
经过多次实验测量,本方法使用的编码器因子q设置为0.2,惯性测量单元因子r设置为0.3。
图8至11为针对同一数据集进行的SLAM方法的比较,包括只使用Kinect数据以及融合了多传感器数据两种方法的即时建图和定位对比图。
图8、9中方框中上部线条表示只使用车载Kinect获取的图像进行机器人自身运动估计时算出的机器人的运动轨迹,方框中下部线条表示融合车载Kinect、编码器和惯性测量单元获取的数据进行运动估计时算出的运动轨迹。当局内点对数目和用于RANSAC求解的点对总数目的比值p较大时,Kinect的解算结果可信度较高,融合多传感器方法获得的位置与Kinect解算出的位置相对较近;当p较小时,Kinect的解算结果可信度较低,融合多传感器方法获得的位置与Kinect解算出的位置相对较远。
可以看出,采取了加权融合的多传感器融合方法后,只使用Kinect时出现的明显的运动估计错误(即尖刺)得到了修正,提高了机器人定位的效果和鲁棒性。
图10为只使用Kinect的图像信息时的建图效果,图11为使用多传感器加权融合方法的建图效果。由图中可以看到,图10的圈内是因运动估计误差较大而导致的建图偏差;而在图11中,由于使用了多传感器加权融合方法,这个问题得到了修正。
图12至15为使用另一数据集进行的SLAM方法的比较,包括只使用Kinect数据以及融合了多传感器数据两种方法的即时建图和定位对比图。
类似的,图12、13中方框中上部线条表示只使用车载Kinect获取的图像信息进行机器人自身运动估计时算出的机器人的运动轨迹,方框中下部线条表示融合车载Kinect、编码器和惯性测量单元获取的数据进行运动估计时算出的运动轨迹。
在图中可以看到,只使用Kinect的图像信息时,机器人的运动轨迹跟踪到中间处丢失了,这是由于Kinect的深度测量范围有限,只能探测到4米内的物体,当机器人运动到较空旷的位置时,Kinect无法获得足够的深度值去解算帧间的运动变换,只能丢弃当前帧;在连续丢弃多帧后,即使机器人再次回到深度值丰富的地方,获得的当前帧与丢帧之前的最后一个关键帧也因相差太远而难以匹配,最终导致机器人的定位失败;而采用多传感器加权融合方法后,机器人在深度值缺失的情况下可以采用编码器和惯性测量单元继续估计自身运动,很好地弥补了Kinect深度测量范围有限的问题。
图14为只使用Kinect的图像信息时的建图效果,图15为使用多传感器加权融合方法的建图效果。由图中可以看到,图14的圈内是因为机器人定位失败而缺失的部分,而图15中这个缺失的部分得到弥补,改善了建图的效果。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (7)

1.一种融合车载多传感器的SLAM装置,其特征在于,包括车载传感器、车载编码器、车载惯性测量单元、车载控制器、上位机;所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接上位机;所述的车载传感器与上位机连接。
2.根据权利要求1所述的一种融合车载多传感器的SLAM装置,其特征在于:所述的车载传感器为Kinect体感传感器。
3.利用权利要求2所述的融合车载多传感器的SLAM装置的控制方法,其特征在于,包括以下步骤:
S1.车载传感器将获取的图像信息传送到上位机,解算出机器人位移和姿态信息;
S2.车载编码器和车载惯性测量单元收集机器人的位移和旋转信息发送到车载控制器,再通过车载控制器传送到上位机上,解算出机器人位移和姿态变化;
S3.将车载传感器、车载编码器、车载惯性测量单元的信息融合,对机器人进行同步定位和建图。
4.根据权利要求3所述的融合车载多传感器的SLAM装置的控制方法,其特征在于:所述的步骤S1中,包括以下步骤:
S11.特征提取与匹配;
S12.帧间变换估计。
5.根据权利要求4所述的融合车载多传感器的SLAM装置的控制方法,其特征在于:所述的步骤S11中,包括以下步骤:特征点检测、描述符提取、特征点匹配。
6.根据权利要求3所述的融合车载多传感器的SLAM装置的控制方法,其特征在于:所述的步骤S3中,包括以下步骤:
S31.加权平均的方法对车载传感器、车载编码器、车载惯性测量单元的数据进行融合,优化位姿估计;
S32.关键帧检测与闭环检测;
S33.位姿图优化;
S34.拼接点云建图。
7.根据权利要求6所述的融合车载多传感器的SLAM装置的控制方法,其特征在于:所述的步骤S31中,
用p表示用RANSAC算法求解帧间变换时的局内点对数目和用于求解变换的点对总数目的比值,0≤p≤1;用q作为衡量编码器数据准确性的因子,用r作为衡量惯性测量单元数据准确性的因子;
获取位移变换时,将由Kinect获取的图像信息解算获得的平移向量与由编码器的测量信息估计得到的帧间位移差值以的比值进行融合,从而获得当前帧与前一帧机器人的位移变换;机器人在二维平面运动,只有X和Y方向的位移变化,因此位移变换融合公式如下:
Δ x Δ y = p p + q Δ x k Δy k + q p + q Δ x c Δ y c , - - - ( 1 )
其中,Δxk和Δyk分别表示Kinect解得的机器人沿x方向和沿y方向的帧间位移,Δxc和Δyc表示编码器解得的帧间位移,Δx和Δy表示加权融合后的帧间位移;
获取姿态变换时,将由Kinect获取的图像信息解算获得的旋转向量与由惯性测量单元的测量信息估计得到的帧间姿态差值以的比值进行融合,从而获得当前帧与前一关键帧机器人的姿态变换;机器人在二维平面运动,只有绕Z轴旋转的角度ψ的变化,因此姿态变换融合公式如下:
Δ ψ = p p + r Δψ k + r p + r Δψ m , - - - ( 2 )
其中,Δψk表示Kinect解得的机器人绕Z轴的帧间姿态角变化,Δψm表示惯性测量单元解得的帧间姿态角变化,Δψ表示加权融合后的帧间姿态角变化;
用于求解最小化重投影误差的点对至少需要4组,当利用Kinect获取的图像信息求解的局内点数小于5组时,解算出的变换矩阵误差很大;在这种情况下舍弃由Kinect获取的图像数据的估计值,而使用由编码器和惯性测量单元所获得的解算结果。
CN201610130038.XA 2016-03-08 2016-03-08 一种融合车载多传感器的slam装置及其控制方法 Pending CN105783913A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610130038.XA CN105783913A (zh) 2016-03-08 2016-03-08 一种融合车载多传感器的slam装置及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610130038.XA CN105783913A (zh) 2016-03-08 2016-03-08 一种融合车载多传感器的slam装置及其控制方法

Publications (1)

Publication Number Publication Date
CN105783913A true CN105783913A (zh) 2016-07-20

Family

ID=56388224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610130038.XA Pending CN105783913A (zh) 2016-03-08 2016-03-08 一种融合车载多传感器的slam装置及其控制方法

Country Status (1)

Country Link
CN (1) CN105783913A (zh)

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106154287A (zh) * 2016-09-28 2016-11-23 深圳市普渡科技有限公司 一种基于双轮里程计与激光雷达的地图构建方法
CN106251399A (zh) * 2016-08-30 2016-12-21 广州市绯影信息科技有限公司 一种基于lsd‑slam的实景三维重建方法
CN106296812A (zh) * 2016-08-18 2017-01-04 宁波傲视智绘光电科技有限公司 同步定位与建图方法
CN106352877A (zh) * 2016-08-10 2017-01-25 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN106352879A (zh) * 2016-09-28 2017-01-25 深圳市普渡科技有限公司 一种基于图优化的uwb定位与编码器融合的位姿估计方法
CN106681330A (zh) * 2017-01-25 2017-05-17 北京航空航天大学 基于多传感器数据融合的机器人导航方法及装置
CN106780608A (zh) * 2016-11-23 2017-05-31 北京地平线机器人技术研发有限公司 位姿信息估计方法、装置和可移动设备
CN106969784A (zh) * 2017-03-24 2017-07-21 中国石油大学(华东) 一种并发建图定位与惯性导航的组合误差融合系统
CN107065870A (zh) * 2017-03-31 2017-08-18 深圳诺欧博智能科技有限公司 移动机器人自主导航系统及方法
CN107092264A (zh) * 2017-06-21 2017-08-25 北京理工大学 面向银行厅堂环境的服务机器人自主导航与自动充电方法
CN107358629A (zh) * 2017-07-07 2017-11-17 北京大学深圳研究生院 一种基于目标识别的室内建图与定位方法
CN107515891A (zh) * 2017-07-06 2017-12-26 杭州南江机器人股份有限公司 一种机器人地图制作方法、装置和存储介质
CN107748569A (zh) * 2017-09-04 2018-03-02 中国兵器工业计算机应用技术研究所 用于无人机的运动控制方法、装置及无人机系统
CN107767450A (zh) * 2017-10-31 2018-03-06 南京维睛视空信息科技有限公司 一种基于sparse‑slam的实时建图方法
CN107767425A (zh) * 2017-10-31 2018-03-06 南京维睛视空信息科技有限公司 一种基于单目vio的移动端AR方法
CN107833245A (zh) * 2017-11-28 2018-03-23 北京搜狐新媒体信息技术有限公司 基于单目视觉特征点匹配的slam方法及系统
CN107845114A (zh) * 2017-11-10 2018-03-27 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN107885871A (zh) * 2017-11-24 2018-04-06 南京华捷艾米软件科技有限公司 基于云计算的同步定位与地图构建方法、系统、交互系统
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108279670A (zh) * 2017-12-29 2018-07-13 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN108550134A (zh) * 2018-03-05 2018-09-18 北京三快在线科技有限公司 建图效果指标的确定方法和建图效果指标的确定装置
CN108924383A (zh) * 2018-07-23 2018-11-30 惠州市德赛西威汽车电子股份有限公司 一种车载多传感器同步触发装置及其触发方法
CN108958232A (zh) * 2017-12-07 2018-12-07 炬大科技有限公司 一种基于深度视觉的移动扫地机器人slam装置及算法
CN109115232A (zh) * 2017-06-22 2019-01-01 华为技术有限公司 导航的方法和装置
WO2019019157A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated INITIALIZING IMAGE SENSOR IN A ROBOTIC VEHICLE
CN109358624A (zh) * 2018-10-25 2019-02-19 湖南万为智能机器人技术有限公司 用于机器人的耦合定位方法
CN109671120A (zh) * 2018-11-08 2019-04-23 南京华捷艾米软件科技有限公司 一种基于轮式编码器的单目slam初始化方法及系统
CN109804411A (zh) * 2016-08-30 2019-05-24 C3D增强现实解决方案有限公司 用于同时定位和映射的系统和方法
CN109900266A (zh) * 2019-03-27 2019-06-18 小驴机器人(武汉)有限公司 一种基于rgb-d和惯导的快速识别定位方式及系统
CN110039536A (zh) * 2019-03-12 2019-07-23 广东工业大学 室内地图构造和定位的自导航机器人系统及图像匹配方法
CN110163968A (zh) * 2019-05-28 2019-08-23 山东大学 Rgbd相机大型三维场景构建方法及系统
CN110207693A (zh) * 2019-05-21 2019-09-06 南京航空航天大学 一种鲁棒立体视觉惯性预积分slam方法
CN110345936A (zh) * 2019-07-09 2019-10-18 上海有个机器人有限公司 运动装置的轨迹数据处理方法及其处理系统
CN110443263A (zh) * 2018-05-02 2019-11-12 北京京东尚科信息技术有限公司 闭环检测方法和装置
CN110706279A (zh) * 2019-09-27 2020-01-17 清华大学 基于全局地图与多传感器信息融合的全程位姿估计方法
CN111178342A (zh) * 2020-04-10 2020-05-19 浙江欣奕华智能科技有限公司 一种位姿图的优化方法、装置、设备及介质
WO2020155543A1 (zh) * 2019-02-01 2020-08-06 广州小鹏汽车科技有限公司 一种slam地图拼接方法及系统
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN111656138A (zh) * 2020-04-16 2020-09-11 珊口(上海)智能科技有限公司 构建地图及定位方法、客户端、移动机器人及存储介质
CN111679661A (zh) * 2019-02-25 2020-09-18 北京奇虎科技有限公司 基于深度相机的语义地图构建方法及扫地机器人
CN111780764A (zh) * 2020-06-30 2020-10-16 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置
CN111862162A (zh) * 2020-07-31 2020-10-30 湖北亿咖通科技有限公司 回环检测方法及系统、可读存储介质、电子设备
CN112066982A (zh) * 2020-09-07 2020-12-11 成都睿芯行科技有限公司 一种在高动态环境下的工业移动机器人定位方法
CN113075931A (zh) * 2021-03-30 2021-07-06 西南科技大学 一种三轮全向移动机器人及其运动控制方法
CN113470088A (zh) * 2021-06-24 2021-10-01 上海于万科技有限公司 一种车挂箱状态的判断方法和系统
WO2021249387A1 (zh) * 2020-06-08 2021-12-16 杭州海康机器人技术有限公司 一种视觉地图构建方法和移动机器人
CN114199275A (zh) * 2020-09-18 2022-03-18 阿里巴巴集团控股有限公司 传感器的参数确定方法和装置
CN114821363A (zh) * 2022-03-29 2022-07-29 群周科技(上海)有限公司 一种基于语义信息匹配的无人机定位建图方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130022078A (ko) * 2011-08-24 2013-03-06 권광석 모바일 매핑 시스템 및 이의 제어 방법
CN103323002A (zh) * 2012-03-19 2013-09-25 联想(北京)有限公司 即时定位与地图构建方法和装置
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130022078A (ko) * 2011-08-24 2013-03-06 권광석 모바일 매핑 시스템 및 이의 제어 방법
CN103323002A (zh) * 2012-03-19 2013-09-25 联想(北京)有限公司 即时定位与地图构建方法和装置
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIANGWEN TANG: ""Toward autonomous navigation using an RGB-D camera for flight in unknown indoor environments"", 《PROCEEDINGS OF 2014 IEEE CHINESE GUIDANCE, NAVIGATION AND CONTROL CONFERENCE》 *
杨杰: ""融合IMU与Kinect的机器人定位算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
杨鸿: ""基于Kinect传感器的移动机器人室内环境三维地图创建"", 《东南大学学报( 自然科学版)》 *

Cited By (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106352877A (zh) * 2016-08-10 2017-01-25 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN106296812A (zh) * 2016-08-18 2017-01-04 宁波傲视智绘光电科技有限公司 同步定位与建图方法
CN106296812B (zh) * 2016-08-18 2019-04-02 宁波傲视智绘光电科技有限公司 同步定位与建图方法
CN106251399A (zh) * 2016-08-30 2016-12-21 广州市绯影信息科技有限公司 一种基于lsd‑slam的实景三维重建方法
CN109804411A (zh) * 2016-08-30 2019-05-24 C3D增强现实解决方案有限公司 用于同时定位和映射的系统和方法
CN109804411B (zh) * 2016-08-30 2023-02-17 斯纳普公司 用于同时定位和映射的系统和方法
CN106352879A (zh) * 2016-09-28 2017-01-25 深圳市普渡科技有限公司 一种基于图优化的uwb定位与编码器融合的位姿估计方法
CN106154287A (zh) * 2016-09-28 2016-11-23 深圳市普渡科技有限公司 一种基于双轮里程计与激光雷达的地图构建方法
CN106780608B (zh) * 2016-11-23 2020-06-02 北京地平线机器人技术研发有限公司 位姿信息估计方法、装置和可移动设备
CN106780608A (zh) * 2016-11-23 2017-05-31 北京地平线机器人技术研发有限公司 位姿信息估计方法、装置和可移动设备
CN106681330A (zh) * 2017-01-25 2017-05-17 北京航空航天大学 基于多传感器数据融合的机器人导航方法及装置
CN106969784B (zh) * 2017-03-24 2019-08-13 山东大学 一种并发建图定位与惯性导航的组合误差融合系统
CN106969784A (zh) * 2017-03-24 2017-07-21 中国石油大学(华东) 一种并发建图定位与惯性导航的组合误差融合系统
CN107065870A (zh) * 2017-03-31 2017-08-18 深圳诺欧博智能科技有限公司 移动机器人自主导航系统及方法
CN107092264A (zh) * 2017-06-21 2017-08-25 北京理工大学 面向银行厅堂环境的服务机器人自主导航与自动充电方法
CN109115232B (zh) * 2017-06-22 2021-02-23 华为技术有限公司 导航的方法和装置
CN109115232A (zh) * 2017-06-22 2019-01-01 华为技术有限公司 导航的方法和装置
CN107515891A (zh) * 2017-07-06 2017-12-26 杭州南江机器人股份有限公司 一种机器人地图制作方法、装置和存储介质
CN107358629B (zh) * 2017-07-07 2020-11-10 北京大学深圳研究生院 一种基于目标识别的室内建图与定位方法
CN107358629A (zh) * 2017-07-07 2017-11-17 北京大学深圳研究生院 一种基于目标识别的室内建图与定位方法
US11080890B2 (en) 2017-07-28 2021-08-03 Qualcomm Incorporated Image sensor initialization in a robotic vehicle
CN111094893A (zh) * 2017-07-28 2020-05-01 高通股份有限公司 机器人式运载工具的图像传感器初始化
WO2019019157A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated INITIALIZING IMAGE SENSOR IN A ROBOTIC VEHICLE
CN107748569A (zh) * 2017-09-04 2018-03-02 中国兵器工业计算机应用技术研究所 用于无人机的运动控制方法、装置及无人机系统
CN107748569B (zh) * 2017-09-04 2021-02-19 中国兵器工业计算机应用技术研究所 用于无人机的运动控制方法、装置及无人机系统
CN107767450A (zh) * 2017-10-31 2018-03-06 南京维睛视空信息科技有限公司 一种基于sparse‑slam的实时建图方法
CN107767450B (zh) * 2017-10-31 2021-05-28 南京维睛视空信息科技有限公司 一种基于sparse-slam的实时建图方法
CN107767425A (zh) * 2017-10-31 2018-03-06 南京维睛视空信息科技有限公司 一种基于单目vio的移动端AR方法
CN107845114A (zh) * 2017-11-10 2018-03-27 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN107845114B (zh) * 2017-11-10 2024-03-22 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN107885871A (zh) * 2017-11-24 2018-04-06 南京华捷艾米软件科技有限公司 基于云计算的同步定位与地图构建方法、系统、交互系统
CN107833245A (zh) * 2017-11-28 2018-03-23 北京搜狐新媒体信息技术有限公司 基于单目视觉特征点匹配的slam方法及系统
CN107833245B (zh) * 2017-11-28 2020-02-07 北京搜狐新媒体信息技术有限公司 基于单目视觉特征点匹配的slam方法及系统
CN108958232A (zh) * 2017-12-07 2018-12-07 炬大科技有限公司 一种基于深度视觉的移动扫地机器人slam装置及算法
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108279670A (zh) * 2017-12-29 2018-07-13 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
US11067669B2 (en) 2017-12-29 2021-07-20 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for adjusting point cloud data acquisition trajectory, and computer readable medium
CN108279670B (zh) * 2017-12-29 2021-12-10 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN108550134A (zh) * 2018-03-05 2018-09-18 北京三快在线科技有限公司 建图效果指标的确定方法和建图效果指标的确定装置
CN108550134B (zh) * 2018-03-05 2020-05-05 北京三快在线科技有限公司 建图效果指标的确定方法和建图效果指标的确定装置
CN110443263A (zh) * 2018-05-02 2019-11-12 北京京东尚科信息技术有限公司 闭环检测方法和装置
CN108924383A (zh) * 2018-07-23 2018-11-30 惠州市德赛西威汽车电子股份有限公司 一种车载多传感器同步触发装置及其触发方法
CN109358624B (zh) * 2018-10-25 2021-12-10 长沙万为机器人有限公司 用于机器人的耦合定位方法
CN109358624A (zh) * 2018-10-25 2019-02-19 湖南万为智能机器人技术有限公司 用于机器人的耦合定位方法
CN109671120A (zh) * 2018-11-08 2019-04-23 南京华捷艾米软件科技有限公司 一种基于轮式编码器的单目slam初始化方法及系统
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
WO2020155543A1 (zh) * 2019-02-01 2020-08-06 广州小鹏汽车科技有限公司 一种slam地图拼接方法及系统
CN111679661A (zh) * 2019-02-25 2020-09-18 北京奇虎科技有限公司 基于深度相机的语义地图构建方法及扫地机器人
CN110039536A (zh) * 2019-03-12 2019-07-23 广东工业大学 室内地图构造和定位的自导航机器人系统及图像匹配方法
CN109900266A (zh) * 2019-03-27 2019-06-18 小驴机器人(武汉)有限公司 一种基于rgb-d和惯导的快速识别定位方式及系统
CN110207693A (zh) * 2019-05-21 2019-09-06 南京航空航天大学 一种鲁棒立体视觉惯性预积分slam方法
CN110163968A (zh) * 2019-05-28 2019-08-23 山东大学 Rgbd相机大型三维场景构建方法及系统
CN110345936A (zh) * 2019-07-09 2019-10-18 上海有个机器人有限公司 运动装置的轨迹数据处理方法及其处理系统
CN110345936B (zh) * 2019-07-09 2021-02-09 上海有个机器人有限公司 运动装置的轨迹数据处理方法及其处理系统
CN110706279B (zh) * 2019-09-27 2021-09-07 清华大学 基于全局地图与多传感器信息融合的全程位姿估计方法
CN110706279A (zh) * 2019-09-27 2020-01-17 清华大学 基于全局地图与多传感器信息融合的全程位姿估计方法
CN111178342A (zh) * 2020-04-10 2020-05-19 浙江欣奕华智能科技有限公司 一种位姿图的优化方法、装置、设备及介质
CN111178342B (zh) * 2020-04-10 2020-07-07 浙江欣奕华智能科技有限公司 一种位姿图的优化方法、装置、设备及介质
CN111656138A (zh) * 2020-04-16 2020-09-11 珊口(上海)智能科技有限公司 构建地图及定位方法、客户端、移动机器人及存储介质
WO2021249387A1 (zh) * 2020-06-08 2021-12-16 杭州海康机器人技术有限公司 一种视觉地图构建方法和移动机器人
CN111780764A (zh) * 2020-06-30 2020-10-16 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置
CN111780764B (zh) * 2020-06-30 2022-09-02 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置
CN111862162A (zh) * 2020-07-31 2020-10-30 湖北亿咖通科技有限公司 回环检测方法及系统、可读存储介质、电子设备
CN112066982B (zh) * 2020-09-07 2021-08-31 成都睿芯行科技有限公司 一种在高动态环境下的工业移动机器人定位方法
CN112066982A (zh) * 2020-09-07 2020-12-11 成都睿芯行科技有限公司 一种在高动态环境下的工业移动机器人定位方法
CN114199275A (zh) * 2020-09-18 2022-03-18 阿里巴巴集团控股有限公司 传感器的参数确定方法和装置
CN113075931A (zh) * 2021-03-30 2021-07-06 西南科技大学 一种三轮全向移动机器人及其运动控制方法
CN113075931B (zh) * 2021-03-30 2022-04-08 西南科技大学 一种三轮全向移动机器人及其运动控制方法
CN113470088A (zh) * 2021-06-24 2021-10-01 上海于万科技有限公司 一种车挂箱状态的判断方法和系统
CN113470088B (zh) * 2021-06-24 2022-09-20 上海于万科技有限公司 一种车挂箱状态的判断方法和系统
CN114821363A (zh) * 2022-03-29 2022-07-29 群周科技(上海)有限公司 一种基于语义信息匹配的无人机定位建图方法及系统

Similar Documents

Publication Publication Date Title
CN105783913A (zh) 一种融合车载多传感器的slam装置及其控制方法
CN205426175U (zh) 一种融合车载多传感器的slam装置
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam系统
Han et al. Deepvio: Self-supervised deep learning of monocular visual inertial odometry using 3d geometric constraints
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN112197770B (zh) 一种机器人的定位方法及其定位装置
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
Clipp et al. Robust 6dof motion estimation for non-overlapping, multi-camera systems
CN112634451A (zh) 一种融合多传感器的室外大场景三维建图方法
Meilland et al. Dense visual mapping of large scale environments for real-time localisation
CN111862673A (zh) 基于顶视图的停车场车辆自定位及地图构建方法
Yang et al. Asynchronous multi-view SLAM
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
Zhen et al. LiDAR-enhanced structure-from-motion
Hertzberg et al. Experiences in building a visual SLAM system from open source components
CN114485640A (zh) 基于点线特征的单目视觉惯性同步定位与建图方法及系统
CN116295412A (zh) 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法
CN110751123A (zh) 一种单目视觉惯性里程计系统及方法
CN112945233B (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Liu et al. A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM
Gokhool et al. A dense map building approach from spherical RGBD images
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160720