CN114047766A - 面向室内外场景长期应用的移动机器人数据采集系统及方法 - Google Patents
面向室内外场景长期应用的移动机器人数据采集系统及方法 Download PDFInfo
- Publication number
- CN114047766A CN114047766A CN202111388172.7A CN202111388172A CN114047766A CN 114047766 A CN114047766 A CN 114047766A CN 202111388172 A CN202111388172 A CN 202111388172A CN 114047766 A CN114047766 A CN 114047766A
- Authority
- CN
- China
- Prior art keywords
- representing
- pose
- time
- algorithm
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 114
- 230000007774 longterm Effects 0.000 title claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 102
- 230000004927 fusion Effects 0.000 claims abstract description 46
- 230000007613 environmental effect Effects 0.000 claims abstract description 17
- 230000008859 change Effects 0.000 claims abstract description 12
- 239000002245 particle Substances 0.000 claims description 67
- 239000011159 matrix material Substances 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 57
- 230000006870 function Effects 0.000 claims description 52
- 238000001914 filtration Methods 0.000 claims description 41
- 238000005259 measurement Methods 0.000 claims description 32
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 230000007704 transition Effects 0.000 claims description 17
- 238000009499 grossing Methods 0.000 claims description 14
- 230000002441 reversible effect Effects 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 10
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 230000002829 reductive effect Effects 0.000 claims description 7
- 238000013139 quantization Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 5
- 238000002360 preparation method Methods 0.000 claims description 5
- 230000000644 propagated effect Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 5
- 239000000654 additive Substances 0.000 claims description 4
- 230000000996 additive effect Effects 0.000 claims description 4
- 101150050759 outI gene Proteins 0.000 claims description 4
- 238000011160 research Methods 0.000 abstract description 11
- 238000013507 mapping Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000012367 process mapping Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种面向室内外场景长期应用的移动机器人数据采集方法及系统,包括:步骤S1:利用联合标定算法计算异构传感器之间的位姿变化关系,实现多传感器的标定;步骤S2:通过标定后的传感器采集环境信息数据;步骤S3:使用多轨迹融合算法将不同场景的轨迹真值进行融合得到全场景真值,全场景真值是获取的环境信息数据对照的定位基准。本发明具有精度高、成本低的特点,可用于移动机器人的位姿跟踪、环境建模等研究。
Description
技术领域
本发明涉及机器人数据采集平台领域,具体地,涉及面向室内外场景长期应用的移动机器人数据采集系统及方法,更为具体地,涉及一种机器人长期、室内外多场景数据采集平台,包括其中的传感器标定算法与真值获取方案。
背景技术
移动机器人通过传感器对外界进行感知,进而完成自身的定位、对环境的建图,并最终实现上层的路径规划、自主导航等任务。事实上,移动机器人进行实测的难度与成本相对较高,大多数研究均是基于数据集与仿真平台进行的。为了提供符合真实环境的测试平台。如何尽可能地提供全面、准确的传感器数据:传感器数据与外参标定信息,以及环境与自身定位的真实值作为研究参考是数据集采集研究的重点。
本发明首先提出了一个支持长期、室内外采集的多传感器采集平台,并针对长期数据采集过程中的两大难点:高精度标定算法和全场景定位真值,设计了一种异构传感器在线联合标定算法和定位真值获取系统。其中,在定位真值研究中,本发明重点考虑了室内环境的特点,并结合室外高精度实时动态全球定位系统,设计了一种低成本的高精度室内外真值系统;并在此基础上,设计了一种基于定位能力的多轨迹真值融合算法,提升了全场景真值的鲁棒性。
目前大多数多传感器的标定方案是基于特殊标定板[1-3],在不受干扰的环境中实现两两离线标定。然而,这种标定方法需要在相对独立的环境进行标定。此外,在现实生活中,尤其是机器人的长期数据采集以及工作场景中,由于传感器的退化、运动过程中的震动、结构形变等因素,传感器之间的相对位姿也会发生动态变化,而这些问题都会造成传统基于离线方案的标定失真,从而无法提供准确的定位、建图、导航等服务。本发明提出了一种可以运行在实时采集系统、支持动态调整的外参估计算法。该算法通过对整个标定过程建立状态空间模型,将传感器外参作为参数向量,然后使用PaRIS(Particle-based RapidIncremental Smoother,PaRIS)算法实现在线估计与调整。
室外环境通常使用高精度实时动态全球定位系统(Real-Time Kinematic GlobalPositioning System,RTK-GPS)作为定位真值[4,5],而针对室内丢失RTK-GPS信息的场景,研究人员通常选用高精度三维激光传感器作为定位真值[5]。但考虑到本发明所涉及的数据集存在高人流的室内场景,传统的激光定位方案会受到人群的遮挡、造成定位丢失,本发明提出了一种倾斜视角的真值采集方案。该方案通过将二维激光测距传感器呈一定倾斜角摆放,使其能够观测相对稳定的天花板和地面信息,降低了动态干扰,提高了传统离散地图的建图、定位精度。此外,本发明还通过对整个地图进行连续高斯过程建模,避免了栅格之间的独立性假设[6],有效地克服了量化误差,能更精确地还原地图。最后,与传统基于蒙特卡洛的定位算法[7-9]不同,当环境较大时需要较高的粒子数目,难以达到实时。本发明基于容积卡尔曼滤波,做到固定时间的状态估计,在保持较高精度的同时大幅提升了算法实时性。
多轨迹融合作为数据集真值是业界普遍做法[5],与传统方案相比[10,11],本发明通过引入定位能力指标[12],将轨迹生成分为:高精度RTK-GPS轨迹和多传感器融合轨迹。并采用自监督的方案训练对齐位姿点数,实现高精度、高鲁棒的真值定位融合。
基于前人的工作,本发针对一种长期、室内外多场景数据采集平台中的标定与真值获取任务,提出了(1)一种异构传感器在线联合标定算法;(2)一种低成本的高精度室内外真值系统;(3)一种基于定位能力的多轨迹真值融合算法。
[1].Guindel C,Beltrán J,Martín D,et al.Automatic extrinsiccalibration for lidar-stereo vehicle sensor setups[C]//2017IEEE 20thinternational conference on intelligent transportation systems(ITSC).IEEE,2017:1-6.
[2].Huang W,Liu H.Online initialization and automatic camera-IMUextrinsic calibration for monocular visual-inertial SLAM[C]//2018 IEEEInternational Conference on Robotics and Automation(ICRA).IEEE,2018:5182-5189.
[3].Kühner T,Kümmerle J.Extrinsic multi sensor calibration underuncertainties[C]//2019 IEEE Intelligent Transportation Systems Conference(ITSC).IEEE,2019:3921-3927.
[4].Geiger A,Lenz P,Stiller C,et al.Vision meets robotics:The kittidataset[J].The International Journal of Robotics Research,2013,32(11):1231-1237.
[5].Carlevaris-Bianco N,Ushani A K,Eustice R M.University of MichiganNorth Campus long-term vision and lidar dataset[J].The International Journalof Robotics Research,2016,35(9):1023-1035.
[6].Hess W,Kohler D,Rapp H,et al.Real-time loop closure in 2D LIDARSLAM[C]//2016 IEEE International Conference on Robotics and Automation(ICRA).IEEE,2016:1271-1278.
[7].Peng G,Zheng W,Lu Z,et al.An improved AMCL algorithm based onlaser scanning match in a complex and unstructured environment[J].Complexity,2018,2018.
[8].Dellaert F,Fox D,Burgard W,et al.Monte carlo localization formobile robots[C]//Proceedings 1999 IEEE International Conference on Roboticsand Automation(Cat.No.99CH36288C).IEEE,1999,2:1322-1328.
[9].Thrun S,Fox D,Burgard W,et al.Robust Monte Carlo localization formobile robots[J].Artificial intelligence,2001,128(1-2):99-141.
[10].Qin T,Li P,Shen S.Vins-mono:A robust and versatile monocularvisual-inertial state estimator[J].IEEE Transactions on Robotics,2018,34(4):1004-1020.
[11].Li M,Mourikis A I.High-precision,consistent EKF-based visual-inertial odometry[J].The International Journal of Robotics Research,2013,32(6):690-711.
[12].Behnam Irani,Jingchuan Wang and Weidong Chen,“A localizabilityconstraint-based path planning method for autonomous vehicles,”IEEE Trans.onIntelligent Transportation Systems,20(7):2593-2604,2019.
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种面向室内外场景长期应用的移动机器人数据采集方法及系统。
根据本发明提供的一种面向室内外场景长期应用的移动机器人数据采集方法,包括:
步骤S1:利用联合标定算法计算异构传感器之间的位姿变化关系,实现多传感器的标定;
步骤S2:通过标定后的传感器采集环境信息数据;
步骤S3:使用多轨迹融合算法将不同场景的轨迹真值进行融合得到全场景真值,全场景真值是获取的环境信息数据对照的定位基准。
优选地,所述步骤S1采用:分析多传感器联合标定过程中的时空变化关系,进行联合建模,采用前向传播与反向平滑相结合的算法实现多传感器的高精度标定。
优选地,所述步骤S1采用:
步骤S1.2:对机器人在t∈[0,T]的位姿与机器人观测模型yt建立6自由度位姿的马尔可夫模型,xt和yt分别为马尔可夫模型中的状态变量和观测变量,初始状态转移分布为p(x|xt-1,ut),为了简化步骤,忽略外部输入ut;考虑到机器人位姿与观测模型yt的关系,认为观测变量与状态变量xt满足条件独立性假设,定义观测模型为pθ(yt|xt),其中θ为标定参数向量;假设xt满足qt-1分布,yt满足gt:θ分布,完整概率模型构建如下:
xt~qt-1 (1)
yt~gt:θ (2)
其中,定义分别表示在s≤t≤T的状态变量和观测;xt表示t时刻机器人的6自由度位姿;qt-1表示状态转移分布p(x|xt-1,ut)所对应的概率密度;gt;θ表示观测模型pθ(yt|xt)所对应的概率密度;xs表示s时刻机器人的6自由度位姿;ys表示s时刻观测变量;ut表示外部输入;
步骤S1.4:定义对于任意s≤s',xs:s'在y0:t下的条件分布为φs:s'|t;θ=pθ(xs:s'|y0:t);
πt+1;θf=φt;θQθf (4)
其中,N表示自然数;φt;θ为t时刻,参数为θ的滤波分布,πt+1;θ为t+1时刻,参数为θ的预测分布,Qθ为转移分布P(xt|xt-1);
φ0:t|t;θ=φt;θTt;θ (5)
其中,Tt;θ表示已知0到t时刻的观测y0:t和t时刻的位姿xt情况下,0到t-1时刻的状态x0:t-1的联合概率分布;
其中,log(gs;θ(xs))表示为gs;θ(xs)的对数;
对于Tt;θht通过下式递归计算:
其中,ht是一个加性函数,
其中,p(x0)表示初始状态概率,p(y0|x0)表示初始状态概率下的观测概率,p(yl+1|xl+1)表示l+1时刻状态概率下的观测概率,p(xl+1|xl)表示l时刻到l+1时刻的状态转移概率,
定义对数似然函数lθ(y0:t)=logLθ(y0:t),采用Robbins-Monro算法求取近似:
其中,γt表示为学习率,
优选地,所述步骤S2采用:通过标定后的外部传感器和标定后的内部传感器采集各种环境信息的数据;
所述外部传感器包括三维激光传感器、二维激光测距传感器、可见光摄像机以及深度摄像机;
所述内部传感器包括里程计以及IMU。
优选地,所述步骤S3采用:通过不同场景下的环境特征分析建立不同场景真值系统;所述不同场景真值系统包括室外轨迹真值系统和室内轨迹真值系统;
所述室外轨迹真值系统是由RTK-GPS提供的;
所述室内轨迹真值系统是使用激光雷达算法提供的。
优选地,使用一种基于高斯过程回归地图的SLAM算法提供室内轨迹真值;
对环境进行高精度的建图;与常用概率占据栅格地图对环境进行描述不同,采用一种连续描述方式,减少了各个栅格之间是相互独立假设带来的量化误差;
首先通过八叉树存储每个被激光扫描到的占据点,获得对数级别的查询时间;然后通过高斯过程回归,依据已经有的点对空间上任意的位置的占据情况进行预测;
具体包括:连续高斯过程建图和基于容积卡尔曼滤波的前端位姿估计;
连续高斯过程建图步骤:基于空间上各点之间的占据情况是符合高斯联合分布的假设,整个地图由高斯过程描述,控制高斯过程的变量是空间位置(x,y);对任意一个测试点预测的方式为:
f(x*)=N(μ,σ) (15)
其中,
其中,x*代表的是测试点,即空间上任意一点;X代表的是训练点,即扫描到的点,y表示对应的占据情况;n是训练点的数目;σn是整体的方差;k为核函数,用于衡量空间上两个点之间距离的远近;I表示单位矩阵,选用RBF径向基函数作为核函数:
其中,c表示尺度因子,x和x'表示任意两个空间点,
前端位姿估计步骤:基于容积卡尔曼滤波的前端位姿估计;具体包括:前端预测建模、特征点提取、时间更新以及量测更新;
前端预测建模步骤:利用高精度、连续的地图表示方式,GPR-SLAM的前端位姿预测为:
其中,Tζ代表位姿变换,hk则是激光的第k个观测;
特征点提取步骤:在机器上设置一个向上的相机,用于记录天花板上的特征点;在GPR-SLAM的过程中,利用ORB算法提取每一帧上的特征点,并利用优化后的位姿,形成特征点地图,记作Mv;
时间更新步骤:包含滤波初始化、容积点计算、容积点传播;
滤波初始化:通过容积卡尔曼滤波融合激光与相机的信息达到更好的定位效果,将机器人的平面坐标记作x,滤波初始化为:
其中,E(x)表示期望,x0表示初始估计,上标T表示矩阵的转置,P0表示初始协方差矩阵;
容积点传播:
其中,P1,…,PN来自特征地图,[u1 v1],…,[uN vN]是对应的像素坐标,其对应关系可以通过RANSAC算法获取;
其中,Q是预测步的协方差;
量测更新步骤:包含容积点计算、容积点传播、传播量测预测以及量测更新;
容积点传播:寻找观测上被占据概率最大的距离:
传播量测预测:
优选地,所述多轨迹融合算法采用:
步骤S3.1:考虑到数据集的采集场景中缺失高精度RTK-GPS真值信息,采用基于定位能力分析的多轨迹融合算法获取高精度真值;
使用Fisher信息矩阵反应机器人在不同环境下所获得的定位能力,从而分析环境对后续联合标定的精度影响;针对激光传感器,其定义为如下形式:
考虑到每条激光扫面线都可以认为是互不相关的,d(pt,zt)表示在为位姿pt时的定位概率密度函数,riE表示第i条激光扫描线的期望测量距离,σ2则为估计方差;zt表示空间观测;上标T表示矩阵的转置;Ez表示期望;N0表示激光束的数量;上标L表示激光雷达;
其中,mi表示相机模型在第i个位姿时与地图特征点匹配的数量;Ji,j表示第i个相机模型与第j个地图点的观测Jacobian矩阵;上标T表示矩阵的转置;上标C表示相机;
步骤S3.2:在获得各自定位能力后,采用动态权重的方法调整轨迹融合时各个轨迹的可信度,从而实现一种鲁棒、高精度的定位真值;
当RTK-GPS处于高精度固定解时,使用RTK-GPS作为真值位姿;
当RTK-GPS处于差分浮点解时,首先选择差分浮点解两端一定数量高精度固定解作为对齐点,然后采用绝对旋转的封闭解法求取旋转矩阵、平移矩阵以及尺度因子;通过旋转、平移和缩放激光传感器、相机、惯性传感器融合算法的轨迹替换RTK-GPS浮点解,实现真值轨迹融合;
当RTK-GPS处于其他状态时,仅使用激光传感器、相机、惯性传感器融合定位位姿作为定位真值;
对齐点数量选取,我们采用基于自监督学习的方式获取;
训练数据准备:首先在无遮挡环境或者有额外高精度追踪设备辅助的情况下获取高精度轨迹真值,然后设计随机掩网遮挡其中不定长度轨迹;
模型输入与输出定义:输入为各个传感器的可信度、RTK-GPS状态SGPS,以及掩网长度N:
输出则为前后两端所估计的对齐点数[Pstart Pend];
其中,Pstart表示起始端参与对齐的位姿数,Pend表示结束端参与对齐的位姿数;
采用全连接的深度网络作为训练模型,损失函数采用平均距离误差:
根据本发明提供的一种面向室内外场景长期应用的移动机器人数据采集系统,包括:
模块M1:利用联合标定算法计算异构传感器之间的位姿变化关系,实现多传感器的标定;
模块M2:通过标定后的传感器采集环境信息数据;
模块M3:使用多轨迹融合算法将不同场景的轨迹真值进行融合得到全场景真值,全场景真值是获取的环境信息数据对照的定位基准。
优选地,所述模块M1采用:分析多传感器联合标定过程中的时空变化关系,进行联合建模,采用前向传播与反向平滑相结合的算法实现多传感器的高精度标定;
所述模块M1采用:
模块M1.2:对机器人在t∈[0,T]的位姿与机器人观测模型yt建立6自由度位姿的马尔可夫模型,xt和yt分别为马尔可夫模型中的状态变量和观测变量,初始状态转移分布为p(x|xt-1,ut),为了简化步骤,忽略外部输入ut;考虑到机器人位姿与观测模型yt的关系,认为观测变量与状态变量xt满足条件独立性假设,定义观测模型为pθ(yt|xt),其中θ为标定参数向量;假设xt满足qt-1分布,yt满足gt:θ分布,完整概率模型构建如下:
xt~qt-1 (1)
yt~gt:θ (2)
其中,定义分别表示在s≤t≤T的状态变量和观测;xt表示t时刻机器人的6自由度位姿;qt-1表示状态转移分布p(x|xt-1,ut)所对应的概率密度;gt;θ表示观测模型pθ(yt|xt)所对应的概率密度;xs表示s时刻机器人的6自由度位姿;ys表示s时刻观测变量;ut表示外部输入;
模块M1.4:定义对于任意s≤s',xs:s'在y0:t下的条件分布为φs:s'|t;θ=pθ(xs:s'|y0:t);
πt+1;θf=φt;θQθf (4)
其中,N表示自然数;φt;θ为t时刻,参数为θ的滤波分布,πt+1;θ为t+1时刻,参数为θ的预测分布,Qθ为转移分布P(xt|xt-1);
φ0:t|t;θ=φt;θTt;θ (5)
其中,Tt;θ表示已知0到t时刻的观测y0:t和t时刻的位姿xt情况下,0到t-1时刻的状态x0:t-1的联合概率分布;
其中,log(gs;θ(xs))表示为gs;θ(xs)的对数;
对于Tt;θht通过下式递归计算:
其中,ht是一个加性函数,
其中,p(x0)表示初始状态概率,p(y0|x0)表示初始状态概率下的观测概率,p(yl+1|xl+1)表示l+1时刻状态概率下的观测概率,p(xl+1|xl)表示l时刻到l+1时刻的状态转移概率,
定义对数似然函数lθ(y0:t)=logLθ(y0:t),采用Robbins-Monro算法求取近似:
其中,γt表示为学习率,
优选地,所述模块M2采用:通过标定后的外部传感器和标定后的内部传感器采集各种环境信息的数据;
所述外部传感器包括三维激光传感器、二维激光测距传感器、可见光摄像机以及深度摄像机;
所述内部传感器包括里程计以及IMU;
所述模块M3采用:通过不同场景下的环境特征分析建立不同场景真值系统;所述不同场景真值系统包括室外轨迹真值系统和室内轨迹真值系统;
所述室外轨迹真值系统是由RTK-GPS提供的;
所述室内轨迹真值系统是使用激光雷达算法提供的;
使用一种基于高斯过程回归地图的SLAM算法提供室内轨迹真值;
对环境进行高精度的建图;与常用概率占据栅格地图对环境进行描述不同,采用一种连续描述方式,减少了各个栅格之间是相互独立假设带来的量化误差;
首先通过八叉树存储每个被激光扫描到的占据点,获得对数级别的查询时间;然后通过高斯过程回归,依据已经有的点对空间上任意的位置的占据情况进行预测;
具体包括:连续高斯过程建图和基于容积卡尔曼滤波的前端位姿估计;
连续高斯过程建图步骤:基于空间上各点之间的占据情况是符合高斯联合分布的假设,整个地图由高斯过程描述,控制高斯过程的变量是空间位置(x,y);对任意一个测试点预测的方式为:
f(x*)=N(μ,σ) (15)
其中,
其中,x*代表的是测试点,即空间上任意一点;X代表的是训练点,即扫描到的点,y表示对应的占据情况;n是训练点的数目;σn是整体的方差;k为核函数,用于衡量空间上两个点之间距离的远近;I表示单位矩阵,选用RBF径向基函数作为核函数:
其中,c表示尺度因子,x和x'表示任意两个空间点,
前端位姿估计步骤:基于容积卡尔曼滤波的前端位姿估计;具体包括:前端预测建模、特征点提取、时间更新以及量测更新;
前端预测建模步骤:利用高精度、连续的地图表示方式,GPR-SLAM的前端位姿预测为:
其中,Tζ代表位姿变换,hk则是激光的第k个观测;
特征点提取步骤:在机器上设置一个向上的相机,用于记录天花板上的特征点;在GPR-SLAM的过程中,利用ORB算法提取每一帧上的特征点,并利用优化后的位姿,形成特征点地图,记作Mv;
时间更新步骤:包含滤波初始化、容积点计算、容积点传播;
滤波初始化:通过容积卡尔曼滤波融合激光与相机的信息达到更好的定位效果,将机器人的平面坐标记作x,滤波初始化为:
其中,E(x)表示期望,x0表示初始估计,上标T表示矩阵的转置,P0表示初始协方差矩阵;
容积点传播:
其中,P1,…,PN来自特征地图,[u1 v1],…,[uN vN]是对应的像素坐标,其对应关系可以通过RANSAC算法获取;
其中,Q是预测步的协方差;
量测更新步骤:包含容积点计算、容积点传播、传播量测预测以及量测更新;
容积点传播:寻找观测上被占据概率最大的距离:
传播量测预测:
所述多轨迹融合算法采用:
模块M3.1:考虑到数据集的采集场景中缺失高精度RTK-GPS真值信息,采用基于定位能力分析的多轨迹融合算法获取高精度真值;
使用Fisher信息矩阵反应机器人在不同环境下所获得的定位能力,从而分析环境对后续联合标定的精度影响;针对激光传感器,其定义为如下形式:
考虑到每条激光扫面线都可以认为是互不相关的,d(pt,zt)表示在为位姿pt时的定位概率密度函数,riE表示第i条激光扫描线的期望测量距离,σ2则为估计方差;zt表示空间观测;上标T表示矩阵的转置;Ez表示期望;N0表示激光束的数量;上标L表示激光雷达;
其中,mi表示相机模型在第i个位姿时与地图特征点匹配的数量;Ji,j表示第i个相机模型与第j个地图点的观测Jacobian矩阵;上标T表示矩阵的转置;上标C表示相机;
模块M3.2:在获得各自定位能力后,采用动态权重的方法调整轨迹融合时各个轨迹的可信度,从而实现一种鲁棒、高精度的定位真值;
当RTK-GPS处于高精度固定解时,使用RTK-GPS作为真值位姿;
当RTK-GPS处于差分浮点解时,首先选择差分浮点解两端一定数量高精度固定解作为对齐点,然后采用绝对旋转的封闭解法求取旋转矩阵、平移矩阵以及尺度因子;通过旋转、平移和缩放激光传感器、相机、惯性传感器融合算法的轨迹替换RTK-GPS浮点解,实现真值轨迹融合;
当RTK-GPS处于其他状态时,仅使用激光传感器、相机、惯性传感器融合定位位姿作为定位真值;
对齐点数量选取,我们采用基于自监督学习的方式获取;
训练数据准备:首先在无遮挡环境或者有额外高精度追踪设备辅助的情况下获取高精度轨迹真值,然后设计随机掩网遮挡其中不定长度轨迹;
模型输入与输出定义:输入为各个传感器的可信度、RTK-GPS状态SGPS,以及掩网长度N:
输出则为前后两端所估计的对齐点数[Pstart Pend];
其中,Pstart表示起始端参与对齐的位姿数,Pend表示结束端参与对齐的位姿数;
采用全连接的深度网络作为训练模型,损失函数采用平均距离误差:
与现有技术相比,本发明具有如下的有益效果:
1、通过数据采集平台,收集了可用于室内外场景长期应用的数据集;
2、通过所提出的标定算法,实现了多传感器之间的联合标定,降低了两两标定过程中的误差传递问题,解决了传感器在长期运动过程中的的退化、位移问题;
3、针对不同环境特点,设计了不同的真值算法,特别的,针对室内环境,通过所设计的一种低成本的高精度真值算法,获取了可信的室内真值;
4、通过所设计的一种多轨迹融合算法,达到了全场景下的轨迹真值获取。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的整体架构图。
图2为多传感器采集平台的架构图,其中,1-二维激光测距传感器、2-可见光相机、3-三维激光传感器、4-深度相机、5-RTK-GPS、6-里程计。
图3为高精度室内外真值采集系统的架构图。
图4为多轨迹真值融合算法的架构图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
实施例1
本发明提供的一种面向室内外场景长期应用的移动机器人数据采集系统,如图1至4所示,包括:集合多传感器融合的移动机器人数据采集平台、异构传感器在线联合标定算法、高精度室内外真值系统、一种多轨迹真值融合算法部分;
多传感器采集平台是采集系统的硬件主体,负责收集可用于科学研究的传感器数据;集成了三维激光传感器、二维激光测距传感器、可见光相机、深度相机等外部传感器,里程计、IMU等内部传感器等,支持各种环境信息的数据采集;
异构传感器在线联合标定算法提供了各个传感器之间的高精度外参关系,提供传感器之间的位姿变化关系;本算法主要通过分析多传感器联合标定过程中的时空变化关系,进行联合建模,采用前向传播与反向平滑相结合的算法,从而达到了多传感器的高精度标定,解决了移动机器人在长期运行过程中,传感器发生的退化、位移等问题;
高精度室内外真值系统:用于采集平台在室内外环境导航时,提供高精度位姿真值;通过不同场景下的环境的特征分析,建立了两套高精度真值系统,室外主要使用高精度RTK-GPS提供,室内部分则设计了一种经过精确标定的激光雷达算法。
多轨迹真值融合算法:用于解决单一定位算法在部分环境中运行时的位姿精度下降的问题。通过对不同算法在各个环境下的精度特征分析,设计一种室内外、多真值轨迹融合算法,从而提供全场景真值。
本发明所设计的室内外多场景下长期运行时的数据采集平台及其关键技术,具有精度高、成本低的特点,可用于移动机器人的位姿跟踪、环境建模等研究。
具体地,所述多传感器采集平台包括传感器感知模块与外部观测模块:
传感器感知模块:所述传感器可以细分为外部环境感知传感器和内部运动感知传感器两类。外部环境感知传感器:主要指相机、激光传感器等直接从外部采集数据的传感器。这类传感器可以提供丰富的环境信息,可用来进行定位、建图、环境建模等研究,但由于容易受到外部环境的干扰,可能造成精度下降、定位丢失等现象。内部运动感知传感器:主要指里程计、惯性测量单元(Inertial Measurement Unit,IMU)等直接获取位姿信息的传感器,不容易受外部干扰,但误差容易累计膨胀。
外部观测模块:主要指高精度实时动态全球定位系统(Real-Time KinematicGlobal Positioning System,RTK-GPS),在无遮挡环境下可以提供厘米级别的定位精度,通常用来作为室外环境的真值。但其在室内或受到遮挡的地方,容易发生定位丢失的现象。
具体地,所述的异构传感器在线联合标定算法负责提供各个传感器之间位姿外参变化关系,提供多传感器融合算法的标定基础,具体包括:状态空间建模步骤和外参估计步骤:
模块M1:基于状态空间模型对传感器标定过程进行时空序列建模。
具体地,模块M1具体包括可测空间定义、马尔可夫建模。
马尔可夫建模:对机器人在t∈[0,T]的位姿建立6自由度位姿的马尔可夫模型,其中初始状态转移分布为p(x|xt-1,ut),为了简化说明步骤,忽略系统输入ut。考虑到机器人位姿与观测模型的关系,认为观测模型与隐变量xt满足条件独立性假设,定义观测模型为pθ(yt|xt),其中θ为标定参数向量。假设xt满足qt-1分布,yt满足gt:θ分布,完整概率模型构建如下:
xt~qt-1
yt~gt:θ
所述模块M2包括:预测分布建模、外参估计。
预测分布建模:定义对于任意s≤s',xs:s'在y0:t下的条件分布为φs:s'|t;θ=pθ(xs:s'|y0:t)。
为了方便叙述,使用缩写φt:θ表示滤波分布φs:s'|t;θ。基于滤波递归,对于t∈N和f∈F(χ),下面的式子成立:
πt+1;θf=φt;θQθf
φ0:t|t;θ可以表示为:
φ0:t|t;θ=φt;θTt;θ
对于Tt;θht可通过下式递归计算:
定义对数似然函数lθ(y0:t)=logLθ(y0:t),采用Robbins-Monro算法求取近似:
具体地,所述高精度室内外真值采集系统主要考虑了不同环境下的特征,室外环境可以通过高精度RTK-GPS提供,室内环境由于受到障碍物的遮挡,无法接收GPS信号,使用一种基于高斯过程回归地图和容积卡尔曼滤波的真值求取算法;
所述高精度室内外真值采集系统由室内真值与室外真值两部分组成:
室外真值模块:主要由RTK-GPS采集信息提供,基于该信息解算出移动平台实时位姿作为系统真值;
室内真值模块:由低成本室内特征信息采集系统与室内真值求解算法两部分组成。
低成本室内特征信息采集系统:考虑到室内缺乏GPS信号的原因,采用较为便宜的二维激光测距传感器、惯性传感器和可见光相机作为室内环境特征的采集。考虑到在室内环境中激光信号、相机画面容易受到人群的遮挡,将激光测距传感器、可见光相机布设在一定高度、且呈一定角度布置,使其能够观察一定高度之上的固定信息,从而提升了对人群干扰的鲁棒性。
室内真值求解算法:使用一种基于高斯过程回归地图的SLAM(Simultaneouslocalization and Mapping,SLAM)算法提供室内轨迹真值。对环境进行高精度的建图。与常用概率占据栅格地图对环境进行描述不同,采用一种连续描述方式,减少了各个栅格之间是相互独立假设带来的量化误差。首先通过八叉树存储每个被激光扫描到的占据点,获得对数级别的查询时间。然后通过高斯过程回归,依据已经有的点对空间上任意的位置的占据情况进行预测。
具体地,所述室内真值求解算法包括:连续高斯过程建图和基于容积卡尔曼滤波的前端位姿估计。
连续高斯过程建图:基于空间上各点之间的占据情况是符合高斯联合分布的假设,整个地图可以由高斯过程描述,控制高斯过程的变量是空间位置(x,y)。对任意一个测试点预测的方式为:
f(x*)=N(μ,σ)
其中,
这里,x*代表的是测试点,即空间上任意一点;X代表的是训练点,即扫描到的点,y是它们对应的占据情况;n是训练点的数目;σn是整体的方差;σ为核函数,用于衡量空间上两个点之间距离的远近。特别地,这里可选为RBF径向基函数:
前端位姿估计:基于容积卡尔曼滤波的前端位姿估计。
具体地,所述前端位姿估计包括:前端预测建模、特征点提取、时间更新、量测更新。
前端预测建模:利用这种高精度、连续的地图表示方式,GPR-SLAM的前端位姿预测为:
其中,Tζ代表位姿变换,hk则是激光的第k个观测。
特征点提取:同时,在机器上设置一个向上的相机,用于记录天花板上的特征点,这些特征点处于静态,往往较为稳定。在GPR-SLAM的过程中,利用ORB(Oriented FAST andRotated BRIEF,ORB)算法提取每一帧上的特征点,并利用优化后的位姿,形成特征点地图,记作Mv。
时间更新:包含滤波初始化、容积点计算、容积点传播。
滤波初始化:通过容积卡尔曼滤波(Cubature Kalman filter,CKF)融合激光与相机的信息达到更好的定位效果,将机器人的平面坐标记作x,滤波初始化为:
其中,ηi为第i个容积点,[1]i为第[1]i维上的单位向量。
容积点传播:
其中,P1,…,PN来自特征地图,[u1 v1],…,[uN vN]是对应的像素坐标,其对应关系可以通过RANSAC(RANdom SAmple Consensus,RANSAC)算法获取。
状态量以及误差协方差预测:
其中,Q是预测步的协方差。
量测更新:包含容积点计算、容积点传播、传播量测预测、量测更新。
容积点计算:
容积点传播:
传播量测预测:
观测更新:其中,量测误差以及互协方差计算:
增益更新:
具体地,所述多轨迹真值融合算法包括:轨迹可信度评估和多轨迹融合策略。特别地,针对轨迹融合过程中的的对齐点选取,采用了一种自监督的方式获取。
轨迹可信度评估:考虑到数据集的采集场景中(室内穿梭、受到障碍物遮挡时)缺失高精度RTK-GPS真值信息,采用基于定位能力分析的多轨迹融合算法获取高精度真值。具体使用Fisher信息矩阵反应机器人在不同环境下所获得的定位能力,从而分析环境对后续联合标定的精度影响。针对激光传感器,其定义为如下形式:
考虑到每条激光扫面线都可以认为是互不相关的,d(pt,zt)表示在为位姿pt时的定位概率密度函数,riE表示第i条激光扫描线的期望测量距离,σ2则为估计方差。
其中mi表示相机模型在第i个位姿时与地图特征点匹配的数量,Ji,j则表示第i个相机模型与第j个地图点的观测Jacobian矩阵。
多轨迹融合策略:在获得各自定位能力后,采用动态权重的方法调整轨迹融合时各个轨迹的可信度,从而实现一种鲁棒、高精度的定位真值。具体来说:
当RTK-GPS处于高精度固定解时,使用RTK-GPS作为真值位姿。
当RTK-GPS处于差分浮点解时,首先选择差分浮点解两端一定数量高精度固定解作为对齐点,然后采用K.P.Horn所提出的绝对旋转的封闭解法求取旋转矩阵、平移矩阵以及尺度因子。通过旋转、平移和缩放激光传感器、相机、惯性传感器融合算法的轨迹替换RTK-GPS浮点解,实现真值轨迹融合。
当RTK-GPS处于其他状态时,仅使用激光传感器、相机、惯性传感器融合定位位姿作为定位真值。
特别地,对齐点数量选取,我们采用基于自监督学习的方式获取,具体来说:
训练数据准备:首先在无遮挡环境或者有额外高精度追踪设备辅助(激光追踪仪)的情况下获取高精度轨迹真值,然后设计随机掩网(Mask)遮挡其中不定长度轨迹。
模型输入与输出定义:输入为各个传感器的可信度、RTK-GPS状态SGPS,以及掩网(Mask)长度N:
输出则为前后两端所估计的对齐点数[Pstart Pend]。
模型与损失函数:采用全连接的深度网络作为训练模型,损失函数采用平均距离误差:
本发明提供的面向室内外场景长期应用的移动机器人数据采集系统,可以通过本发明提供的面向室内外场景长期应用的移动机器人数据采集方法中的步骤流程实现。本领域技术人员,可以将所述面向室内外场景长期应用的移动机器人数据采集方法理解为面向室内外场景长期应用的移动机器人数据采集系统的一个优选例。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (10)
1.一种面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,包括:
步骤S1:利用联合标定算法计算异构传感器之间的位姿变化关系,实现多传感器的标定;
步骤S2:通过标定后的传感器采集环境信息数据;
步骤S3:使用多轨迹融合算法将不同场景的轨迹真值进行融合得到全场景真值,全场景真值是获取的环境信息数据对照的定位基准。
2.根据权利要求1所述的面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,所述步骤S1采用:分析多传感器联合标定过程中的时空变化关系,进行联合建模,采用前向传播与反向平滑相结合的算法实现多传感器的高精度标定。
3.根据权利要求2所述的面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,所述步骤S1采用:
步骤S1.2:对机器人在t∈[0,T]的位姿与机器人观测模型yt建立6自由度位姿的马尔可夫模型,xt和yt分别为马尔可夫模型中的状态变量和观测变量,初始状态转移分布为p(x|xt-1,ut),为了简化步骤,忽略外部输入ut;考虑到机器人位姿与观测模型yt的关系,认为观测变量与状态变量xt满足条件独立性假设,定义观测模型为pθ(yt|xt),其中θ为标定参数向量;假设xt满足qt-1分布,yt满足gt:θ分布,完整概率模型构建如下:
xt~qt-1 (1)
yt~gt:θ (2)
其中,定义分别表示在s≤t≤T的状态变量和观测;xt表示t时刻机器人的6自由度位姿;qt-1表示状态转移分布p(x|xt-1,ut)所对应的概率密度;gt;θ表示观测模型pθ(yt|xt)所对应的概率密度;xs表示s时刻机器人的6自由度位姿;ys表示s时刻观测变量;ut表示外部输入;
步骤S1.4:定义对于任意s≤s',xs:s'在y0:t下的条件分布为φs:s'|t;θ=pθ(xs:s'|y0:t);
πt+1;θf=φt;θQθf (4)
其中,N表示自然数;φt;θ为t时刻,参数为θ的滤波分布,πt+1;θ为t+1时刻,参数为θ的预测分布,Qθ为转移分布P(xt|xt-1);
φ0:t|t;θ=φt;θTt;θ (5)
其中,Tt;θ表示已知0到t时刻的观测y0:t和t时刻的位姿xt情况下,0到t-1时刻的状态x0:t-1的联合概率分布;
其中,log(gs;θ(xs))表示为gs;θ(xs)的对数;
对于Tt;θht通过下式递归计算:
其中,ht是一个加性函数,
其中,p(x0)表示初始状态概率,p(y0|x0)表示初始状态概率下的观测概率,p(yl+1|xl+1)表示l+1时刻状态概率下的观测概率,p(xl+1|xl)表示l时刻到l+1时刻的状态转移概率,
定义对数似然函数lθ(y0:t)=logLθ(y0:t),采用Robbins-Monro算法求取近似:
其中,γt表示为学习率,
4.根据权利要求1所述的面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,所述步骤S2采用:通过标定后的外部传感器和标定后的内部传感器采集各种环境信息的数据;
所述外部传感器包括三维激光传感器、二维激光测距传感器、可见光摄像机以及深度摄像机;
所述内部传感器包括里程计以及IMU。
5.根据权利要求1所述的面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,所述步骤S3采用:通过不同场景下的环境特征分析建立不同场景真值系统;所述不同场景真值系统包括室外轨迹真值系统和室内轨迹真值系统;
所述室外轨迹真值系统是由RTK-GPS提供的;
所述室内轨迹真值系统是使用激光雷达算法提供的。
6.根据权利要求5所述的面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,使用一种基于高斯过程回归地图的SLAM算法提供室内轨迹真值;
对环境进行高精度的建图;与常用概率占据栅格地图对环境进行描述不同,采用一种连续描述方式,减少了各个栅格之间是相互独立假设带来的量化误差;
首先通过八叉树存储每个被激光扫描到的占据点,获得对数级别的查询时间;然后通过高斯过程回归,依据已经有的点对空间上任意的位置的占据情况进行预测;
具体包括:连续高斯过程建图和基于容积卡尔曼滤波的前端位姿估计;
连续高斯过程建图步骤:基于空间上各点之间的占据情况是符合高斯联合分布的假设,整个地图由高斯过程描述,控制高斯过程的变量是空间位置(x,y);对任意一个测试点预测的方式为:
f(x*)=N(μ,σ) (15)
其中,
其中,x*代表的是测试点,即空间上任意一点;X代表的是训练点,即扫描到的点,y表示对应的占据情况;n是训练点的数目;σn是整体的方差;k为核函数,用于衡量空间上两个点之间距离的远近;I表示单位矩阵,选用RBF径向基函数作为核函数:
其中,c表示尺度因子,x和x'表示任意两个空间点,
前端位姿估计步骤:基于容积卡尔曼滤波的前端位姿估计;具体包括:前端预测建模、特征点提取、时间更新以及量测更新;
前端预测建模步骤:利用高精度、连续的地图表示方式,GPR-SLAM的前端位姿预测为:
其中,Tζ代表位姿变换,hk则是激光的第k个观测;
特征点提取步骤:在机器上设置一个向上的相机,用于记录天花板上的特征点;在GPR-SLAM的过程中,利用ORB算法提取每一帧上的特征点,并利用优化后的位姿,形成特征点地图,记作Mv;
时间更新步骤:包含滤波初始化、容积点计算、容积点传播;
滤波初始化:通过容积卡尔曼滤波融合激光与相机的信息达到更好的定位效果,将机器人的平面坐标记作x,滤波初始化为:
其中,E(x)表示期望,x0表示初始估计,上标T表示矩阵的转置,P0表示初始协方差矩阵;
容积点传播:
其中,P1,…,PN来自特征地图,[u1 v1],…,[uN vN]是对应的像素坐标,其对应关系可以通过RANSAC算法获取;
其中,Q是预测步的协方差;
量测更新步骤:包含容积点计算、容积点传播、传播量测预测以及量测更新;
容积点传播:寻找观测上被占据概率最大的距离:
传播量测预测:
7.根据权利要求1所述的面向室内外场景长期应用的移动机器人数据采集方法,其特征在于,所述多轨迹融合算法采用:
步骤S3.1:考虑到数据集的采集场景中缺失高精度RTK-GPS真值信息,采用基于定位能力分析的多轨迹融合算法获取高精度真值;
使用Fisher信息矩阵反应机器人在不同环境下所获得的定位能力,从而分析环境对后续联合标定的精度影响;针对激光传感器,其定义为如下形式:
考虑到每条激光扫面线都可以认为是互不相关的,d(pt,zt)表示在为位姿pt时的定位概率密度函数,riE表示第i条激光扫描线的期望测量距离,σ2则为估计方差;zt表示空间观测;上标T表示矩阵的转置;Ez表示期望;N0表示激光束的数量;上标L表示激光雷达;
其中,mi表示相机模型在第i个位姿时与地图特征点匹配的数量;Ji,j表示第i个相机模型与第j个地图点的观测Jacobian矩阵;上标T表示矩阵的转置;上标C表示相机;
步骤S3.2:在获得各自定位能力后,采用动态权重的方法调整轨迹融合时各个轨迹的可信度,从而实现一种鲁棒、高精度的定位真值;
当RTK-GPS处于高精度固定解时,使用RTK-GPS作为真值位姿;
当RTK-GPS处于差分浮点解时,首先选择差分浮点解两端一定数量高精度固定解作为对齐点,然后采用绝对旋转的封闭解法求取旋转矩阵、平移矩阵以及尺度因子;通过旋转、平移和缩放激光传感器、相机、惯性传感器融合算法的轨迹替换RTK-GPS浮点解,实现真值轨迹融合;
当RTK-GPS处于其他状态时,仅使用激光传感器、相机、惯性传感器融合定位位姿作为定位真值;
对齐点数量选取,我们采用基于自监督学习的方式获取;
训练数据准备:首先在无遮挡环境或者有额外高精度追踪设备辅助的情况下获取高精度轨迹真值,然后设计随机掩网遮挡其中不定长度轨迹;
模型输入与输出定义:输入为各个传感器的可信度、RTK-GPS状态SGPS,以及掩网长度N:
输出则为前后两端所估计的对齐点数[Pstart Pend];
其中,Pstart表示起始端参与对齐的位姿数,Pend表示结束端参与对齐的位姿数;
采用全连接的深度网络作为训练模型,损失函数采用平均距离误差:
8.一种面向室内外场景长期应用的移动机器人数据采集系统,其特征在于,包括:
模块M1:利用联合标定算法计算异构传感器之间的位姿变化关系,实现多传感器的标定;
模块M2:通过标定后的传感器采集环境信息数据;
模块M3:使用多轨迹融合算法将不同场景的轨迹真值进行融合得到全场景真值,全场景真值是获取的环境信息数据对照的定位基准。
9.根据权利要求8所述的面向室内外场景长期应用的移动机器人数据采集系统,其特征在于,所述模块M1采用:分析多传感器联合标定过程中的时空变化关系,进行联合建模,采用前向传播与反向平滑相结合的算法实现多传感器的高精度标定;
所述模块M1采用:
模块M1.2:对机器人在t∈[0,T]的位姿与机器人观测模型yt建立6自由度位姿的马尔可夫模型,xt和yt分别为马尔可夫模型中的状态变量和观测变量,初始状态转移分布为p(x|xt-1,ut),为了简化步骤,忽略外部输入ut;考虑到机器人位姿与观测模型yt的关系,认为观测变量与状态变量xt满足条件独立性假设,定义观测模型为pθ(yt|xt),其中θ为标定参数向量;假设xt满足qt-1分布,yt满足gt:θ分布,完整概率模型构建如下:
xt~qt-1 (1)
yt~gt:θ (2)
其中,定义分别表示在s≤t≤T的状态变量和观测;xt表示t时刻机器人的6自由度位姿;qt-1表示状态转移分布p(x|xt-1,ut)所对应的概率密度;gt;θ表示观测模型pθ(yt|xt)所对应的概率密度;xs表示s时刻机器人的6自由度位姿;ys表示s时刻观测变量;ut表示外部输入;
模块M1.4:定义对于任意s≤s',xs:s'在y0:t下的条件分布为φs:s'|t;θ=pθ(xs:s'|y0:t);
πt+1;θf=φt;θQθf (4)
其中,N表示自然数;φt;θ为t时刻,参数为θ的滤波分布,πt+1;θ为t+1时刻,参数为θ的预测分布,Qθ为转移分布P(xt|xt-1);
φ0:t|t;θ=φt;θTt;θ (5)
其中,Tt;θ表示已知0到t时刻的观测y0:t和t时刻的位姿xt情况下,0到t-1时刻的状态x0:t-1的联合概率分布;
其中,log(gs;θ(xs))表示为gs;θ(xs)的对数;
对于Tt;θht通过下式递归计算:
其中,ht是一个加性函数,
其中,p(x0)表示初始状态概率,p(y0|x0)表示初始状态概率下的观测概率,p(yl+1|xl+1)表示l+1时刻状态概率下的观测概率,p(xl+1|xl)表示l时刻到l+1时刻的状态转移概率,
定义对数似然函数lθ(y0:t)=logLθ(y0:t),采用Robbins-Monro算法求取近似:
其中,γt表示为学习率,
10.根据权利要求8所述的面向室内外场景长期应用的移动机器人数据采集系统,其特征在于,所述模块M2采用:通过标定后的外部传感器和标定后的内部传感器采集各种环境信息的数据;
所述外部传感器包括三维激光传感器、二维激光测距传感器、可见光摄像机以及深度摄像机;
所述内部传感器包括里程计以及IMU;
所述模块M3采用:通过不同场景下的环境特征分析建立不同场景真值系统;所述不同场景真值系统包括室外轨迹真值系统和室内轨迹真值系统;
所述室外轨迹真值系统是由RTK-GPS提供的;
所述室内轨迹真值系统是使用激光雷达算法提供的;
使用一种基于高斯过程回归地图的SLAM算法提供室内轨迹真值;
对环境进行高精度的建图;与常用概率占据栅格地图对环境进行描述不同,采用一种连续描述方式,减少了各个栅格之间是相互独立假设带来的量化误差;
首先通过八叉树存储每个被激光扫描到的占据点,获得对数级别的查询时间;然后通过高斯过程回归,依据已经有的点对空间上任意的位置的占据情况进行预测;
具体包括:连续高斯过程建图和基于容积卡尔曼滤波的前端位姿估计;
连续高斯过程建图步骤:基于空间上各点之间的占据情况是符合高斯联合分布的假设,整个地图由高斯过程描述,控制高斯过程的变量是空间位置(x,y);对任意一个测试点预测的方式为:
f(x*)=N(μ,σ) (15)
其中,
其中,x*代表的是测试点,即空间上任意一点;X代表的是训练点,即扫描到的点,y表示对应的占据情况;n是训练点的数目;σn是整体的方差;k为核函数,用于衡量空间上两个点之间距离的远近;I表示单位矩阵,选用RBF径向基函数作为核函数:
其中,c表示尺度因子,x和x'表示任意两个空间点,
前端位姿估计步骤:基于容积卡尔曼滤波的前端位姿估计;具体包括:前端预测建模、特征点提取、时间更新以及量测更新;
前端预测建模步骤:利用高精度、连续的地图表示方式,GPR-SLAM的前端位姿预测为:
其中,Tζ代表位姿变换,hk则是激光的第k个观测;
特征点提取步骤:在机器上设置一个向上的相机,用于记录天花板上的特征点;在GPR-SLAM的过程中,利用ORB算法提取每一帧上的特征点,并利用优化后的位姿,形成特征点地图,记作Mv;
时间更新步骤:包含滤波初始化、容积点计算、容积点传播;
滤波初始化:通过容积卡尔曼滤波融合激光与相机的信息达到更好的定位效果,将机器人的平面坐标记作x,滤波初始化为:
其中,E(x)表示期望,x0表示初始估计,上标T表示矩阵的转置,P0表示初始协方差矩阵;
容积点传播:
其中,P1,…,PN来自特征地图,[u1 v1],…,[uN vN]是对应的像素坐标,其对应关系可以通过RANSAC算法获取;
其中,Q是预测步的协方差;
量测更新步骤:包含容积点计算、容积点传播、传播量测预测以及量测更新;
容积点传播:寻找观测上被占据概率最大的距离:
传播量测预测:
所述多轨迹融合算法采用:
模块M3.1:考虑到数据集的采集场景中缺失高精度RTK-GPS真值信息,采用基于定位能力分析的多轨迹融合算法获取高精度真值;
使用Fisher信息矩阵反应机器人在不同环境下所获得的定位能力,从而分析环境对后续联合标定的精度影响;针对激光传感器,其定义为如下形式:
考虑到每条激光扫面线都可以认为是互不相关的,d(pt,zt)表示在为位姿pt时的定位概率密度函数,riE表示第i条激光扫描线的期望测量距离,σ2则为估计方差;zt表示空间观测;上标T表示矩阵的转置;Ez表示期望;N0表示激光束的数量;上标L表示激光雷达;
其中,mi表示相机模型在第i个位姿时与地图特征点匹配的数量;Ji,j表示第i个相机模型与第j个地图点的观测Jacobian矩阵;上标T表示矩阵的转置;上标C表示相机;
模块M3.2:在获得各自定位能力后,采用动态权重的方法调整轨迹融合时各个轨迹的可信度,从而实现一种鲁棒、高精度的定位真值;
当RTK-GPS处于高精度固定解时,使用RTK-GPS作为真值位姿;
当RTK-GPS处于差分浮点解时,首先选择差分浮点解两端一定数量高精度固定解作为对齐点,然后采用绝对旋转的封闭解法求取旋转矩阵、平移矩阵以及尺度因子;通过旋转、平移和缩放激光传感器、相机、惯性传感器融合算法的轨迹替换RTK-GPS浮点解,实现真值轨迹融合;
当RTK-GPS处于其他状态时,仅使用激光传感器、相机、惯性传感器融合定位位姿作为定位真值;
对齐点数量选取,我们采用基于自监督学习的方式获取;
训练数据准备:首先在无遮挡环境或者有额外高精度追踪设备辅助的情况下获取高精度轨迹真值,然后设计随机掩网遮挡其中不定长度轨迹;
模型输入与输出定义:输入为各个传感器的可信度、RTK-GPS状态SGPS,以及掩网长度N:
输出则为前后两端所估计的对齐点数[Pstart Pend];
其中,Pstart表示起始端参与对齐的位姿数,Pend表示结束端参与对齐的位姿数;
采用全连接的深度网络作为训练模型,损失函数采用平均距离误差:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111388172.7A CN114047766B (zh) | 2021-11-22 | 2021-11-22 | 面向室内外场景长期应用的移动机器人数据采集系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111388172.7A CN114047766B (zh) | 2021-11-22 | 2021-11-22 | 面向室内外场景长期应用的移动机器人数据采集系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114047766A true CN114047766A (zh) | 2022-02-15 |
CN114047766B CN114047766B (zh) | 2023-11-21 |
Family
ID=80210276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111388172.7A Active CN114047766B (zh) | 2021-11-22 | 2021-11-22 | 面向室内外场景长期应用的移动机器人数据采集系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114047766B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117367425A (zh) * | 2023-09-18 | 2024-01-09 | 广州里工实业有限公司 | 一种基于多相机融合的移动机器人定位方法及系统 |
CN117991250A (zh) * | 2024-01-04 | 2024-05-07 | 广州里工实业有限公司 | 一种移动机器人的定位检测方法、系统、设备及介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141233A1 (en) * | 2011-02-23 | 2013-06-06 | Embedrf Llc | Position tracking and mobility assessment system |
US20180075643A1 (en) * | 2015-04-10 | 2018-03-15 | The European Atomic Energy Community (Euratom), Represented By The European Commission | Method and device for real-time mapping and localization |
CN108121354A (zh) * | 2017-12-19 | 2018-06-05 | 天津理工大学 | 基于指令滤波反步法的四旋翼无人机稳定跟踪控制方法 |
CN108303710A (zh) * | 2018-06-12 | 2018-07-20 | 江苏中科院智能科学技术应用研究院 | 基于三维激光雷达的无人机多场景定位建图方法 |
CN109188511A (zh) * | 2018-08-27 | 2019-01-11 | 中国地质大学(北京) | 一种砂泥岩薄互层介质多波avo联合反演方法 |
CN110532620A (zh) * | 2019-07-30 | 2019-12-03 | 北京航空航天大学 | 一种基于递推最小二乘-核平滑粒子滤波的疲劳裂纹扩展预测方法 |
CN112380705A (zh) * | 2020-11-16 | 2021-02-19 | 江南大学 | 基于非线性预测滤波算法的金属疲劳裂纹扩展预测方法 |
CN112985416A (zh) * | 2021-04-19 | 2021-06-18 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
CN113052908A (zh) * | 2021-04-16 | 2021-06-29 | 南京工业大学 | 一种基于多传感器数据融合的移动机器人位姿估计算法 |
CN113340324A (zh) * | 2021-05-27 | 2021-09-03 | 东南大学 | 一种基于深度确定性策略梯度的视觉惯性自校准方法 |
-
2021
- 2021-11-22 CN CN202111388172.7A patent/CN114047766B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141233A1 (en) * | 2011-02-23 | 2013-06-06 | Embedrf Llc | Position tracking and mobility assessment system |
US20180075643A1 (en) * | 2015-04-10 | 2018-03-15 | The European Atomic Energy Community (Euratom), Represented By The European Commission | Method and device for real-time mapping and localization |
CN108121354A (zh) * | 2017-12-19 | 2018-06-05 | 天津理工大学 | 基于指令滤波反步法的四旋翼无人机稳定跟踪控制方法 |
CN108303710A (zh) * | 2018-06-12 | 2018-07-20 | 江苏中科院智能科学技术应用研究院 | 基于三维激光雷达的无人机多场景定位建图方法 |
CN109188511A (zh) * | 2018-08-27 | 2019-01-11 | 中国地质大学(北京) | 一种砂泥岩薄互层介质多波avo联合反演方法 |
CN110532620A (zh) * | 2019-07-30 | 2019-12-03 | 北京航空航天大学 | 一种基于递推最小二乘-核平滑粒子滤波的疲劳裂纹扩展预测方法 |
CN112380705A (zh) * | 2020-11-16 | 2021-02-19 | 江南大学 | 基于非线性预测滤波算法的金属疲劳裂纹扩展预测方法 |
CN113052908A (zh) * | 2021-04-16 | 2021-06-29 | 南京工业大学 | 一种基于多传感器数据融合的移动机器人位姿估计算法 |
CN112985416A (zh) * | 2021-04-19 | 2021-06-18 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
CN113340324A (zh) * | 2021-05-27 | 2021-09-03 | 东南大学 | 一种基于深度确定性策略梯度的视觉惯性自校准方法 |
Non-Patent Citations (5)
Title |
---|
CHEN HU; WEIDONG CHEN; JINGCHUAN WANG: "Optimal path planning for mobile manipulator based on manipulability and localizability", 《2016 IEEE INTERNATIONAL CONFERENCE ON REAL-TIME COMPUTING AND ROBOTICS (RCAR)》 * |
DAIXIAN ZHU; XIAOTING SUN;: "Mobile Robot SLAM Algorithm Based on Improved Firefly Particle Filter", 《 2019 INTERNATIONAL CONFERENCE ON ROBOTS & INTELLIGENT SYSTEM (ICRIS)》 * |
JIMMY OLSSON; JOHAN WESTERBORN: "Efficient parameter inference in general hidden Markov models using the filter derivatives", 《2016 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
王子民等: "基于EKF + EKS 的BCG 动态高斯模型滤波研究", 《计算机应用与软件》 * |
王景川等: "面向动态高遮挡环境的移动机器人自适应位姿跟踪算法", 《机器人》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117367425A (zh) * | 2023-09-18 | 2024-01-09 | 广州里工实业有限公司 | 一种基于多相机融合的移动机器人定位方法及系统 |
CN117367425B (zh) * | 2023-09-18 | 2024-05-28 | 广州里工实业有限公司 | 一种基于多相机融合的移动机器人定位方法及系统 |
CN117991250A (zh) * | 2024-01-04 | 2024-05-07 | 广州里工实业有限公司 | 一种移动机器人的定位检测方法、系统、设备及介质 |
CN117991250B (zh) * | 2024-01-04 | 2024-06-25 | 广州里工实业有限公司 | 一种移动机器人的定位检测方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114047766B (zh) | 2023-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Iyer et al. | CalibNet: Geometrically supervised extrinsic calibration using 3D spatial transformer networks | |
Mourikis et al. | A multi-state constraint Kalman filter for vision-aided inertial navigation | |
Indelman et al. | Factor graph based incremental smoothing in inertial navigation systems | |
CN106772524B (zh) | 一种基于秩滤波的农业机器人组合导航信息融合方法 | |
CN114047766B (zh) | 面向室内外场景长期应用的移动机器人数据采集系统及方法 | |
CN114964212B (zh) | 面向未知空间探索的多机协同融合定位与建图方法 | |
CN114111818B (zh) | 一种通用视觉slam方法 | |
CN114001733A (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
CN111739066B (zh) | 一种基于高斯过程的视觉定位方法、系统及存储介质 | |
CN111812978B (zh) | 一种多无人机协作slam方法与系统 | |
CN117075158A (zh) | 基于激光雷达的无人变形运动平台的位姿估计方法及系统 | |
Yusefi et al. | A Generalizable D-VIO and Its Fusion with GNSS/IMU for Improved Autonomous Vehicle Localization | |
Norouz et al. | Modified Unscented Kalman Filter for improving the integrated visual navigation system | |
Rybski et al. | Appearance-based minimalistic metric SLAM | |
Ross et al. | Uncertainty estimation for stereo visual odometry | |
Ahmed et al. | An Extensive Analysis and Fine-Tuning of Gmapping’s Initialization Parameters. | |
Aditya | Implementation of a 4D fast SLAM including volumetric sum of the UAV | |
Chen | Algorithms for simultaneous localization and mapping | |
Lu et al. | GRVINS: Tightly Coupled GNSS-Range-Visual-Inertial System | |
Belter et al. | Keyframe-Based local normal distribution transform occupancy maps for environment mapping | |
Zakaria et al. | Deterministic method of visual servoing: robust object tracking by drone | |
Wang et al. | Robust Visual Inertial Odometry Estimation Based on Adaptive Interactive Multiple Model Algorithm | |
Xiang | SLAM for Ground Robots: Theories and Applications | |
최성혁 | Image Inconsistency Mitigation Algorithm for IMU/Vision Localization based on Aerial Scene Matching | |
Sun | Fundamental and experimental analysis of mobile robot simultaneous localization and mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |