CN111366153B - 一种激光雷达与imu紧耦合的定位方法 - Google Patents
一种激光雷达与imu紧耦合的定位方法 Download PDFInfo
- Publication number
- CN111366153B CN111366153B CN202010197086.7A CN202010197086A CN111366153B CN 111366153 B CN111366153 B CN 111366153B CN 202010197086 A CN202010197086 A CN 202010197086A CN 111366153 B CN111366153 B CN 111366153B
- Authority
- CN
- China
- Prior art keywords
- plane
- state
- imu
- robot
- laser radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于激光雷达和IMU紧耦合的机器人定位方法,通过IMU对系统实时运动状态进行估计,通过激光雷达的点云数据提取平面特征进行跟踪,并利用平面特征的观测模型对IMU估计的运动状态进行纠正。本发明方法利用MSCKF框架对激光雷达和IMU两种传感器实现了优势互补,一方面IMU高频的运动估计能够对系统的实时状态进行估计,另一方面激光雷达点云提取的平面特征能够鲁棒地在环境中被跟踪,从而能够定时对系统状态进行纠正,且本发明在降低计算复杂度的同时,也保持了定位的鲁棒性和准确性。
Description
技术领域
本发明属于机器人定位技术领域,具体涉及一种基于激光雷达和IMU紧耦合的机器人定位方法。
背景技术
自主导航是移动机器人自动运行的一种关键技术,目前最主流的导航技术是SLAM的方式,中文意思是“即时定位与地图构建”,其原理是通过传感器对周围环境进行扫描,然后构建一个和真实环境一致的地图,同时对机器人位置进行定位,并规划一条正确的路径,最终引导机器人安全到达指定的目的地。
定位技术是实现机器人自主导航的支撑技术,定位是否精准决定了机器人能否精准高效地完成更高层的规划导航等功能。定位技术中,可以使用的主要传感器有:GPS、激光雷达、相机、IMU(惯性测量单元)等,其中GPS能够提供全局定位,但精度不高,在遮挡环境中信号很差;激光雷达能够精准地对环境信息进行距离测量,得到机器人的相对位置,但点云数据一般比较稀疏,而点云数据稠密时又需要更高的计算复杂度以对点云进行处理;相机能够得到丰富的环境外观信息,但单目相机难以实现距离的感知;IMU能够直接观测到机器人的角速度和加速度等运动信息,而且频率较高,但IMU存在零偏问题,并且单纯对速度进行积分很容易出现累计误差问题。
因此为了解决机器人的自主定位问题,研究人员一般会使用多种传感器,利用不同传感器的优势互补来提高定位的精度和鲁棒性。
公开号为US2016327395A1的美国专利提出了一种基于滑动窗口的VINS(vision-aided inertial system)系统,融合IMU和相机进行定位导航,其主要思想是利用IMU进行运动估计,利用图像的观测信息进行状态的更新,其中对跟踪短的图像特征点使用MSCKF进行状态更新,对跟踪长的图像特征点使用SLAM进行状态更新。该专利技术一定程度上提高了VINS系统的定位性能,但该专利是基于相机与IMU融合的,当环境光照有明显变化或光照较暗时,系统容易定位失败。
公开号为CN110428467A的中国专利提出了一种相机、IMU和激光雷达联合的机器人定位方法,其主要思想是通过图优化方法对多种传感器进行融合,利用IMU进行预积分得到帧间约束,当光照稳定且点云纹理信息丰富时,利用激光雷达测距精准的特点得到图像特征点的深度信息对位姿进行优化,当光照不好或点云纹理信息较少,则利用激光雷达和局部点云匹配对位姿进行优化,同时利用图像的单词信息和IMU数据进行回环检测。该专利技术一定程度上弥补了相机在光照变化敏感时容易定位失败的情况,但在图像特征跟踪失效时依然单纯利用激光雷达的局部点云匹配进行位姿优化,计算量较大而且单纯的点云匹配会由于点云的稀疏特点容易出现匹配失败的情况。
发明内容
鉴于上述,本发明提供了一种基于激光雷达和IMU紧耦合的机器人定位方法,通过快速且鲁棒地从激光雷达点云中检测环境中的平面特征并进行跟踪和匹配,将基于激光雷达平面特征的观测模型与IMU的运动模型通过MSCKF(Multi-State Constraint KalmanFilter,多状态约束下的卡尔曼滤波器)紧耦合,最大程度地利用了激光雷达与IMU传感器的优势互补,在降低计算复杂度的同时也保证了定位的精准和鲁棒。
一种基于激光雷达和IMU紧耦合的机器人定位方法,包括如下步骤:
(1)读取IMU的输出数据,通过运动模型对机器人的实时运动状态进行估计;
(2)读取激光雷达的输出数据,利用观测模型对由IMU估计得到的机器人运动状态进行纠正;
(3)反复迭代执行步骤(1)和(2),使用步骤(2)纠正后的机器人运动状态作为下次迭代时步骤(1)中所需的初始状态信息。
进一步地,所述IMU的输出数据包括机器人的加速度和角速度,机器人的运动状态包括速度、位置以及朝向;步骤(1)通过维护一个固定大小的滑动窗口以保存机器人运动轨迹中最新的若干个激光雷达状态,从而实现对机器人实时运动状态的估计,所述激光雷达状态表示为 其中:m为滑动窗口大小,T表示转置,为单位四元数且表示全局坐标系G到IMU坐标系I的旋转,bg和ba均为3×1大小的向量且分别表示影响IMU中陀螺仪和加速度计的测量偏差,GpI和GvI均为3×1大小的向量且分别表示IMU相对于全局坐标系G的位置和速度,为滑动窗口中的第i个激光雷达状态,表示全局坐标系G到第i个激光雷达状态的旋转,表示第i个激光雷达状态在全局坐标系G中的位置。
进一步地,所述步骤(1)中的运动模型表达式如下:
其中:表示当前时刻全局坐标系G到IMU坐标系I的旋转,表示关于时间的导数,ω表示当前时刻机器人的角速度,表示当前时刻机器人的加速度,[ω×]为ω的偏置矩阵,表示GpI关于时间的导数,表示GvI关于时间的导数,C()表示用于将四元数转换为对应旋转矩阵的函数,Gg为全局坐标系G下的重力加速度,和分别为bg和ba关于时间的导数,03×1为3×1大小且元素值全为0的向量。
进一步地,所述激光雷达的输出数据为点云数据,步骤(2)通过提取点云数据中的平面特征并对其进行跟踪,通过跟踪在滑动窗口中不同激光雷达状态下的多个观测约束来对由IMU估计得到的机器人运动状态进行纠正。
进一步地,提取点云数据中平面特征的方法为:首先利用随机霍夫变换计算点云中每个点的法向量,根据点与点之间的欧式距离差值以及法向量夹角差值进行区域生长聚类;然后,对于每个聚类通过PCA(主成分分析)计算关于其点云集合位置的特征向量和特征值,若最小特征值与第二大特征值的比值大于一定阈值,则认为该聚类不是平面,否则计算最大的两个特征值所对应的特征向量的叉乘得到平面的法向量,计算聚类中点到该平面的平均距离,若平均距离大于一定阈值,说明该平面不够平整,丢弃该聚类,否则将该聚类对应的平面作为平面特征提取出来。
进一步地,通过随机霍夫变换进行平面特征提取时,首先使用KD树查找每个点附近的K个最近邻点,然后在近邻点中多次随机选点进行霍夫投票得到该点的法向量;其中近邻点的查找过程具体为:将点云数据通过球面投影得到其前视图,以每个点在前视图中的坐标为矩形框中心,从固定尺寸的矩形框内提取像素点所对应的点云作为潜在近邻点,并度量潜在近邻点到中心点的距离,将距离小于一定阈值的作为近邻点进行后续的随机霍夫变换。该方法在极大提升近邻查找速度进而提升整体平面检测速度的同时,仅损失了稍微的法向量计算准确度,但对整体的平面检测准确度无明显影响。
进一步地,对平面特征进行跟踪的方法为:首先将上一帧的点云数据经过球面投影得到其前视图,计算上一帧平面特征对应的聚类在该前视图中的2D包围盒(boundingbox);然后,在当前帧的点云数据中依次计算包围盒中的每个点到该包围盒所对应的上一帧平面特征的距离,将距离小于一定阈值的点作为inlier点,当inlier点数量大于一定阈值且inlier点数量占包围盒中所有点数量的比例大于一定阈值时,认为平面特征跟踪成功,并根据inlier点计算平面特征在下一帧点云数据中的参数方程,否则认为平面特征跟踪失败。
进一步地,跟踪成功的平面特征都有滑动窗口中多个不同激光雷达状态所对应平面特征的观测,根据多个观测计算平面在全局坐标系中的参数方程,进而通过平面在不同坐标系的参数变换得到平面的在局部坐标系下的观测模型,累计跟踪成功的平面特征在不同激光雷达状态下的观测模型得到平面特征对滑动窗口中多个激光雷达状态的观测约束;最后根据平面特征的观测模型以及MSCKF的状态更新方法对由IMU估计得到的机器人运动状态进行纠正。
进一步地,所述平面特征的表达式为 为滑动窗口中第i个激光雷达状态观测到的第j个平面特征,为该平面特征的单位法向量,为第i个激光雷达状态到该平面的距离,则第i个激光雷达状态对全局坐标系下第j个平面特征GΠj的观测方程如下:
进而根据上式得到观测误差函数如下:
其中:izj为滑动窗口中第i个激光雷达状态对平面特征GΠj的观测,C()表示用于将四元数转换为对应旋转矩阵的函数,表示全局坐标系G到第i个激光雷达状态的旋转,Gnj为平面特征GΠj的单位法向量,Gdj为第i个激光雷达状态到GΠj对应平面的距离,表示第i个激光雷达状态在全局坐标系G中的位置,T表示转置,irj为滑动窗口中第i个激光雷达状态对平面特征GΠj的观测误差,为观测方程对滑动窗口中第i个激光雷达状态的雅可比矩阵,为滑动窗口中第i个激光雷达状态的误差,为全局坐标系下第j个平面特征的参数误差,为观测方程对全局坐标系下第j个平面特征参数的雅可比矩阵,为全局坐标系下第j个平面特征的观测噪声;
将上述观测方程及观测误差函数组成观测模型加入MSCKF的状态更新框架中进行计算,即可同时对由IMU估计得到的机器人运动状态以及滑动窗口中激光雷达状态进行纠正。
本发明的有益技术效果在于:提出了一种激光雷达平面特征的提取、跟踪、匹配方法,能够快速且鲁棒地检测环境中的平面特征;提出了一种基于激光雷达平面特征的观测模型,能够整合到MSCKF融合框架中并有效地实现激光雷达与IMU的紧耦合定位,实现激光雷达和IMU的优势互补,在保持定位精度和鲁棒性的同时降低了计算复杂度。
附图说明
图1为本发明机器人定位方法的流程示意图。
图2为点云数据的平面特征提取示意图。
图3为本发明的平面特征提取与跟踪流程示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
如图1所示,本发明基于激光雷达和IMU紧耦合的机器人定位方法,包括如下步骤:
S1.读取IMU的输出数据,通过运动模型对系统的实时运动状态进行估计。
系统的运动状态至少包含机器人的位置、朝向以及速度等信息,并维护一个关于激光雷达位姿的固定大小滑动窗口,滑动窗口中保存机器人运动轨迹中最新的m个激光雷达的位置、朝向等信息。IMU以100Hz的频率输出加速度和角速度数据,根据IMU的运动模型对系统的运动状态进行估计,得到高频但存在偏差的系统状态,系统状态向量为其中m为滑动窗口大小,IMU运动模型如下:
S2.读取激光雷达的输出数据,通过观测模型对IMU估计的运动状态进行纠正。
激光雷达以10Hz的频率输出点云数据,通过平面特征提取和跟踪模块对原始点云进行处理,将跟踪的平面特征根据本发明提出的观测模型对估计的系统状态进行纠正,得到精准连续的系统状态。
平面特征提取与跟踪模块的流程如图3所示,首先将上一帧的激光雷达点云数据经过球面投影到得到其前视图,计算上一帧平面特征对应的聚类在该前视图中的2Dboundingbox;在当前帧的激光雷达点云中,依次计算每个boundingbox中的每个点到该boundingbox所对应的上一帧平面特征的距离,将距离小于一定阈值的点作为inlier点,当inlier数量大于一定阈值且inlier数量占boundingbox中所有点数量的比例大于一定阈值时,认为平面特征跟踪成功,根据inlier计算平面特征在下一帧点云中的参数方程,否则平面特征跟踪失败。当跟踪平面特征数量小于数量N时,重新从原始点云进行平面特征提取,提取方法为:通过随机霍夫变换计算点云中每个点的法向量,根据点与点之间的欧式距离差值以及法向量夹角差值进行区域生长聚类,对每个聚类通过PCA计算关于其点云集合位置的特征向量和特征值,若最小特征值与第二大特征值的比值大于一定阈值,则认为该聚类不是平面,若小于一定阈值则计算最大的两个特征值所对应的特征向量的叉乘得到平面的法向量,计算聚类中点到该平面的平均距离,若距离大于一定阈值,则该平面不够平整,丢弃该聚类,否则将该聚类对应的平面作为平面特征提取出来,最终提取的平面特征如图2所示,其中白色点为原始点云,其他点为平面特征所对应的聚类点云,与点相连的灰色线段为该点对应的法向量,最终提取的平面特征通过灰色椭圆显示其位置和朝向。
在通过随机霍夫变换进行平面特征提取时,一般是使用KD树查找每个点附近的K个最近邻点,然后在近邻点中多次随机选点进行霍夫投票得到该点的法向量。而在大规模点云中,对每个点使用KD树进行近邻点查找耗时较长,因此在本发明中,针对这一近邻查找步骤根据激光雷达的扫描特点进行了重新设计,具体方法为:将点云数据通过球面投影得到其前视图,以每个点在前视图中的坐标为中心,提取宽高为w、h矩形框内像素点所对应的点云作为潜在近邻点,并度量潜在近邻点到中心点的距离,将距离小于一定阈值的作为近似近邻点进行后续的随机霍夫变换。通过图2可以看到使用这一方法计算的法向量比较准确,并能辅助完成准确的平面特征检测,同时也提升了平面检测的速度。
每个跟踪的平面特征都有滑动窗口中多个不同激光雷达位姿所对应的该平面特征的观测,通过该平面的多个观测计算其在全局坐标系中的参数方程,根据平面在不同坐标系的参数变换,得到平面的在局部坐标系下的观测模型,累计跟踪平面在不同激光雷达位姿下的观测模型得到该特征对滑动窗口中多个激光雷达状态的观测约束,进而根据平面特征的观测模型以及MSCKF的状态更新方法对IMU估计的状态进行纠正。
根据式(2)可得观测误差函数为:
其中:为观测方程对的Jacobian矩阵,为观测方程对的Jacobian矩阵,为全局平面特征参数,为平面特征的观测噪声;将式(2)和(3)作为观测模型加入MSCKF的状态更新框架进行计算,即可同时对IMU状态和滑动窗口中激光雷达状态进行纠正。
S3.重复步骤S1~S2,使用S2纠正后的运动状态作为下次迭代时S1的初始状态信息。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (5)
1.一种基于激光雷达和IMU紧耦合的机器人定位方法,包括如下步骤:
(1)读取IMU的输出数据,通过运动模型对机器人的实时运动状态进行估计;
(2)读取激光雷达的输出数据,利用观测模型对由IMU估计得到的机器人运动状态进行纠正;具体地:激光雷达的输出数据为点云数据,通过提取点云数据中的平面特征并对其进行跟踪,通过跟踪在滑动窗口中不同激光雷达状态下的多个观测约束来对由IMU估计得到的机器人运动状态进行纠正;
提取点云数据中平面特征的方法为:首先利用随机霍夫变换计算点云中每个点的法向量,根据点与点之间的欧式距离差值以及法向量夹角差值进行区域生长聚类;然后,对于每个聚类通过PCA计算关于其点云集合位置的特征向量和特征值,若最小特征值与第二大特征值的比值大于一定阈值,则认为该聚类不是平面,否则计算最大的两个特征值所对应的特征向量的叉乘得到平面的法向量,计算聚类中点到该平面的平均距离,若平均距离大于一定阈值,说明该平面不够平整,丢弃该聚类,否则将该聚类对应的平面作为平面特征提取出来;
通过随机霍夫变换进行平面特征提取时,首先使用KD树查找每个点附近的K个最近邻点,然后在近邻点中多次随机选点进行霍夫投票得到该点的法向量;其中近邻点的查找过程具体为:将点云数据通过球面投影得到其前视图,以每个点在前视图中的坐标为矩形框中心,从固定尺寸的矩形框内提取像素点所对应的点云作为潜在近邻点,并度量潜在近邻点到中心点的距离,将距离小于一定阈值的作为近邻点进行后续的随机霍夫变换;
对平面特征进行跟踪的方法为:首先将上一帧的点云数据经过球面投影得到其前视图,计算上一帧平面特征对应的聚类在该前视图中的2D包围盒;然后,在当前帧的点云数据中依次计算包围盒中的每个点到该包围盒所对应的上一帧平面特征的距离,将距离小于一定阈值的点作为inlier点,当inlier点数量大于一定阈值且inlier点数量占包围盒中所有点数量的比例大于一定阈值时,认为平面特征跟踪成功,并根据inlier点计算平面特征在下一帧点云数据中的参数方程,否则认为平面特征跟踪失败;
(3)反复迭代执行步骤(1)和(2),使用步骤(2)纠正后的机器人运动状态作为下次迭代时步骤(1)中所需的初始状态信息。
2.根据权利要求1所述的机器人定位方法,其特征在于:所述IMU的输出数据包括机器人的加速度和角速度,机器人的运动状态包括速度、位置以及朝向;步骤(1)通过维护一个固定大小的滑动窗口以保存机器人运动轨迹中最新的若干个激光雷达状态,从而实现对机器人实时运动状态的估计,滑动窗口中的激光雷达状态整体表示为 其中:m为滑动窗口大小,T表示转置,为单位四元数且表示全局坐标系G到IMU坐标系I的旋转,bg和ba均为3×1大小的向量且分别表示影响IMU中陀螺仪和加速度计的测量偏差,GpI和GvI均为3×1大小的向量且分别表示IMU相对于全局坐标系G的位置和速度,为滑动窗口中的第i个激光雷达状态,表示全局坐标系G到第i个激光雷达状态的旋转,表示第i个激光雷达状态在全局坐标系G中的位置。
4.根据权利要求1所述的机器人定位方法,其特征在于:跟踪成功的平面特征都有滑动窗口中多个不同激光雷达状态所对应平面特征的观测,根据多个观测计算平面在全局坐标系中的参数方程,进而通过平面在不同坐标系的参数变换得到平面的在局部坐标系下的观测模型,累计跟踪成功的平面特征在不同激光雷达状态下的观测模型得到平面特征对滑动窗口中多个激光雷达状态的观测约束;最后根据平面特征的观测模型以及MSCKF的状态更新方法对由IMU估计得到的机器人运动状态进行纠正。
5.根据权利要求4所述的机器人定位方法,其特征在于:所述平面特征的表达式为 为滑动窗口中第i个激光雷达状态观测到的第j个平面特征,为该平面特征的单位法向量,为第i个激光雷达状态到该平面的距离,则第i个激光雷达状态对全局坐标系下第j个平面特征GΠj的观测方程如下:
进而根据上式得到观测误差函数如下:
其中:izj为滑动窗口中第i个激光雷达状态对平面特征GΠj的观测,C()表示用于将四元数转换为对应旋转矩阵的函数,表示全局坐标系G到第i个激光雷达状态的旋转,Gnj为平面特征GΠj的单位法向量,Gdj为第i个激光雷达状态到GΠj对应平面的距离,表示第i个激光雷达状态在全局坐标系G中的位置,T表示转置,irj为滑动窗口中第i个激光雷达状态对平面特征GΠj的观测误差,为观测方程对滑动窗口中第i个激光雷达状态的雅可比矩阵,为滑动窗口中第i个激光雷达状态的误差,xGΠj为全局坐标系下第j个平面特征的参数误差,为观测方程对全局坐标系下第j个平面特征参数的雅可比矩阵,为全局坐标系下第j个平面特征的观测噪声;
将上述观测方程及观测误差函数组成观测模型加入MSCKF的状态更新框架中进行计算,即可同时对由IMU估计得到的机器人运动状态以及滑动窗口中激光雷达状态进行纠正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010197086.7A CN111366153B (zh) | 2020-03-19 | 2020-03-19 | 一种激光雷达与imu紧耦合的定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010197086.7A CN111366153B (zh) | 2020-03-19 | 2020-03-19 | 一种激光雷达与imu紧耦合的定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111366153A CN111366153A (zh) | 2020-07-03 |
CN111366153B true CN111366153B (zh) | 2022-03-15 |
Family
ID=71211295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010197086.7A Active CN111366153B (zh) | 2020-03-19 | 2020-03-19 | 一种激光雷达与imu紧耦合的定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111366153B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052359B (zh) * | 2020-08-11 | 2022-05-31 | 浙江大学 | 一种基于mno树的实时点云编辑方法 |
CN112347840B (zh) * | 2020-08-25 | 2022-12-02 | 天津大学 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
CN114585879A (zh) * | 2020-09-27 | 2022-06-03 | 深圳市大疆创新科技有限公司 | 位姿估计的方法和装置 |
CN113034660B (zh) * | 2021-03-23 | 2022-06-14 | 浙江大学 | 一种基于pbr反射模型的激光雷达仿真方法 |
CN113641103B (zh) * | 2021-08-13 | 2023-04-25 | 广东工业大学 | 自适应机器人的跑步机控制方法和系统 |
CN115597595B (zh) * | 2022-11-28 | 2023-04-07 | 上海仙工智能科技有限公司 | 多线激光定位方法及定位装置、计算机设备、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105628026A (zh) * | 2016-03-04 | 2016-06-01 | 深圳大学 | 一种移动物体的定位定姿方法和系统 |
CN106123890A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院合肥物质科学研究院 | 一种多传感器数据融合的机器人定位方法 |
CN106504275A (zh) * | 2016-10-12 | 2017-03-15 | 杭州深瞳科技有限公司 | 一种惯性定位与点云配准耦合互补的实时三维重建方法 |
CN110428467A (zh) * | 2019-07-30 | 2019-11-08 | 四川大学 | 一种相机、imu和激光雷达联合的机器人定位方法 |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8818722B2 (en) * | 2011-11-22 | 2014-08-26 | Honeywell International Inc. | Rapid lidar image correlation for ground navigation |
-
2020
- 2020-03-19 CN CN202010197086.7A patent/CN111366153B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105628026A (zh) * | 2016-03-04 | 2016-06-01 | 深圳大学 | 一种移动物体的定位定姿方法和系统 |
CN106123890A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院合肥物质科学研究院 | 一种多传感器数据融合的机器人定位方法 |
CN106504275A (zh) * | 2016-10-12 | 2017-03-15 | 杭州深瞳科技有限公司 | 一种惯性定位与点云配准耦合互补的实时三维重建方法 |
CN110428467A (zh) * | 2019-07-30 | 2019-11-08 | 四川大学 | 一种相机、imu和激光雷达联合的机器人定位方法 |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Non-Patent Citations (2)
Title |
---|
A Laser-Aided Inertial Navigation System (L-INS) for human localization in unknown indoor environments;Joel A. Hesch 等;《2010 IEEE International Conference on Robotics and Automation》;20100715;第1-7页 * |
大场景内建筑物点云提取及平面分割算法;卢维欣 等;《中国激光》;20150930;第42卷(第9期);第1-7页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111366153A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111366153B (zh) | 一种激光雷达与imu紧耦合的定位方法 | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
CN111275763B (zh) | 闭环检测系统、多传感器融合slam系统及机器人 | |
Zhao et al. | A robust laser-inertial odometry and mapping method for large-scale highway environments | |
CN111258313A (zh) | 多传感器融合slam系统及机器人 | |
CN112197770B (zh) | 一种机器人的定位方法及其定位装置 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN112749665B (zh) | 一种基于图像边缘特征的视觉惯性slam方法 | |
US20220292711A1 (en) | Pose estimation method and device, related equipment and storage medium | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN114323033B (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN111623773B (zh) | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 | |
CN113763548B (zh) | 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统 | |
CN114019552A (zh) | 一种基于贝叶斯多传感器误差约束的定位置信度优化方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN116878501A (zh) | 一种基于多传感器融合的高精度定位与建图系统及方法 | |
CN115451948A (zh) | 一种基于多传感器融合的农业无人车定位里程计方法及系统 | |
CN113763549A (zh) | 融合激光雷达和imu的同时定位建图方法、装置和存储介质 | |
CN116007609A (zh) | 一种多光谱图像和惯导融合的定位方法和计算系统 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN116380079A (zh) | 一种融合前视声呐与orb-slam3的水下slam方法 | |
Hu et al. | Efficient Visual-Inertial navigation with point-plane map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |