CN113252033A - 基于多传感器融合的定位方法、定位系统及机器人 - Google Patents
基于多传感器融合的定位方法、定位系统及机器人 Download PDFInfo
- Publication number
- CN113252033A CN113252033A CN202110722413.0A CN202110722413A CN113252033A CN 113252033 A CN113252033 A CN 113252033A CN 202110722413 A CN202110722413 A CN 202110722413A CN 113252033 A CN113252033 A CN 113252033A
- Authority
- CN
- China
- Prior art keywords
- robot
- information
- positioning
- time
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
Abstract
本发明公开了一种基于多传感器融合的定位方法,包括采用传感器获取当前机器人所处环境的环境信息和运动信息;计算机器人的位姿变换信息;对传感器获取的信息进行实时融合得到机器人的当前位置信息;直接获取机器人当前的经纬度信息得到机器人当前的绝对位置;融合机器人的当前位置信息和当前的绝对位置得到机器人的精确位姿。本发明还公开了一种实现所述基于多传感器融合的定位方法的定位系统,和包括了所述基于多传感器融合的定位方法和定位系统的机器人。本发明通过对多种传感器的定位进行修正和融合,提高了机器人在复杂的室外环境下的定位精度和定位鲁棒性,能够有效避免机器人的定位丢失,而且可靠性高,实用性好。
Description
技术领域
本发明属于定位技术领域,具体涉及一种基于多传感器融合的定位方法、定位系统及机器人。
背景技术
随着经济技术的发展和人们生活水平的提高,定位技术已经广泛应用于人们的生产和生活当中,给人们的生产和生活带来了无尽的便利。
定位技术是移动机器人的关键技术之一。机器人应用场景复杂,在室外移动机器人上有多种传感器同时用于测量机器人和外界环境的数据,不同场景需要使用不同的传感器。比如GNSS 定位使用GPS/北斗定位模块,航迹推算定位是使用的IMU测量姿态数据和里程计测量位移和速度数据,NDT(Normal Distributions Transform)配准则是使用激光雷达点云数据与高精点云地图进行匹配之后,输出在点云地图上的位置。基于点的匹配算法中常用最多的是ICP(Iterative Closest Point)算法,该算法需要给定一个较好的初值,同时由于该算法本身的缺陷,最终迭代计算的结果可能会陷入局部最优而不是全局最优。这些定位方法都有各自的优点和缺点,从而导致了不同的定位技术在不同的环境中,其定位结果具有一定的不确定性,进而影响定位的精度。另外,由于机器人应用场景复杂,所以在复杂应用场景下容易出现定位丢失问题。
此外,现有技术中,采用MEMS惯性传感器进行定位时,系统极易受到干扰;而采用NDT算法进行定位时,容易产生定位跳动的问题,因此算法整体的鲁棒性下降;同时,现有技术并未直接体现各类定位技术的优势,从而使得现有的定位技术,其定位精度较差,定位鲁棒性不高,而且防止定位丢失方面存在不足。
发明内容
本发明的目的之一在于提供一种定位精度高、定位鲁棒性好且能够有效防止定位丢失的基于多传感器融合的定位方法。
本发明的目的之二在于提供一种实现所述基于多传感器融合的定位方法的定位系统。
本发明的目的之三在于提供一种包括了所述基于多传感器融合的定位方法和定位系统的机器人。
本发明提供的这种基于多传感器融合的定位方法,包括如下步骤:
S1.采用若干种传感器获取当前机器人所处环境的环境信息和机器人当前的运动信息;
S2. 根据步骤S1获取的环境信息和运动信息,计算得到机器人的位姿变换信息;
S3. 对若干种传感器获取的信息进行实时不间断融合,从而得到机器人的当前位置信息;
S4. 直接获取机器人当前的经纬度信息,从而得到机器人当前的绝对位置;
S5. 将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置进行融合,从而得到机器人的精确位姿。
所述的基于多传感器融合的定位方法,还包括如下步骤:
S6. 对定位过程的连续性进行判断,并在满足设定条件时,进行重定位。
所述的重定位,具体包括局部重定位和全局重定位;局部重定位用于在系统的输出位置不符合连续性判断时;全局重定位用于在系统出现传感器失效的情况时。
步骤S1所述的采用若干种传感器获取当前机器人所处环境的环境信息和机器人当前的运动信息,具体为采用多线激光雷达采集三维点云信息,采用惯性传感器(IMU)采集三轴加速度信息,采用北斗系统采集经纬度信息,采用轮式里程计采集机器人的轮子转速信息。
步骤S2所述的根据步骤S1获取的环境信息和运动信息,计算得到机器人的位姿变换信息,具体为将多线激光雷达采集的三维点云信息通过NDT算法计算机器人的位姿变换信息;将惯性传感器采集的三轴加速度信息通过惯导算法计算机器人的位姿变换信息。
步骤S3所述的对若干种传感器获取的信息进行实时不间断融合,从而得到机器人的当前位置信息,具体为将惯性传感器对应的惯导算法得到的位姿变换信息、轮式里程计对应的航位推算算法得到的位置信息和多线激光雷达对应的NDT算法得到的位姿变换信息,不间断地采用无迹卡尔曼滤波(UKF)算法进行融合,从而得到odom→robot之间的坐标变换;同时,通过NDT算法粗估和ICP算法精细匹配,提高点云匹配的精度;其中odom为惯性传感器、轮式里程计和多线激光雷达融合后的坐标系,robot为机器人的坐标系。
所述的不间断地采用无迹卡尔曼滤波(UKF)算法进行融合,从而得到odom→robot之间的坐标变换,具体为采如下步骤进行融合并得到坐标变换:
采用如下步骤进行计算:
(4)将选取的sigma point点集代入机器人非线性运动模型g()中,计算得到预测的sigma point点集,利用预测得到的sigma point点集带权重地得到k+1时刻的预测状态和协方差矩阵;
(5)读取k+1时刻传感器数值,判断传感器类型,选择对应的h()转换函数,对预测sigma point点集从预测空间下转换到测量空间下;
上述步骤(1)~(8)为UKF算法迭代一次的步骤,读取激光雷达里程计的数据,下一时刻则读取其他传感器的数据,如轮式里程计,循环读取各传感器数据作融合处理,以上为基于UKF的数据融合定位算法计算流程;融合出odom->robot之间的坐标变换。
所述的通过NDT算法粗估和ICP算法精细匹配,提高点云匹配的精度,具体为采用如下步骤提高点云匹配的精度:
基于UKF的惯性导航系统,其结果作为NDT算法的每一轮迭代的迭代初值,提高NDT算法的迭代稳定性与准确度;配合ICP精细匹配模块可以进一步增加点云匹配的精度。
通过惯性里程计计算点云数据对应的第二相对位置与点云数据对应的第一相对位置。经过NDT算法对第一相对位置与第二相对位置计算后输出的点云分别为和(即计算后的第二相对位置),并计算和的变换参数;ICP算法通过计算与对应点距离,计算出旋转平移矩阵,通过对变换,并计算变换之后的均方差。若均方差小于预设的误差阈值,则算法结束。否则继续重复迭代直至均方差小于预设的误差阈值或者迭代次数满足预设的迭代数阈值,则终止计算。需要说明的是,预设的误差阈值根据需要进行设置,在此不作限定。预设的迭代数阈值根据大量实验数据进行设置,在此不作限定。
步骤S4所述的直接获取机器人当前的经纬度信息,从而得到机器人当前的绝对位置,具体为通过北斗定位系统直接采集机器人当前的经纬度信息,并计算得到机器人当前在ENU坐标系下的绝对角度,以及计算机器人的绝对位置信息。
步骤S5所述的将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置进行融合,从而得到机器人的精确位姿,具体为将将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置,采用扩展卡尔曼滤波(EKF)算法进行融合,发布机器人的累计误差补偿值,并最终计算出机器人的准确位姿。
所述的采用扩展卡尔曼滤波(EKF)算法进行融合,具体为采用如下步骤进行融合:
本发明还公开了一种实现所述基于多传感器融合的定位方法的定位系统,包括多线激光雷达模块、惯性传感器模块、北斗定位模块、轮式里程计模块和综合定位模块;多线激光雷达模块、惯性传感器模块、北斗定位模块和轮式里程计模块均与综合定位模块连接;多线激光雷达模块用于采集三维点云信息并上传综合定位模块;惯性传感器模块用于采集三轴加速度信息并上传综合定位模块;北斗定位模块用于采集机器人当前的经纬度信息并上传综合定位模块;轮式里程计模块用于采集机器人的轮子转速信息并上传综合定位模块;综合定位模块用于采用上述的基于多传感器融合的定位方法对机器人进行精确定位。
本发明还公开了一种机器人,该机器人包括了上述的基于多传感器融合的定位方法和定位系统。
本发明提供的这种基于多传感器融合的定位方法、定位系统及机器人,通过对多种传感器的定位进行进行修正和融合,提高了机器人在复杂的室外环境下的定位精度和定位鲁棒性,能够有效避免机器人的定位丢失,而且可靠性高,实用性好。
附图说明
图1为本发明的方法的方法流程示意图。
图2为本发明的系统的功能模块图。
具体实施方式
如图1所示为本发明的方法的方法流程示意图:本发明提供的这种基于多传感器融合的定位方法,包括如下步骤:
S1. 采用若干种传感器获取当前机器人所处环境的环境信息和机器人当前的运动信息;具体为采用多线激光雷达采集三维点云信息,采用惯性传感器(IMU)采集三轴加速度信息,采用北斗系统采集经纬度信息,采用轮式里程计采集机器人的轮子转速信息;
S2. 根据步骤S1获取的环境信息和运动信息,计算得到机器人的位姿变换信息;具体为将多线激光雷达采集的三维点云信息通过NDT算法计算机器人的位姿变换信息;将惯性传感器采集的三轴加速度信息通过惯导算法计算机器人的位姿变换信息;
S3. 对若干种传感器获取的信息进行实时不间断融合,从而得到机器人的当前位置信息;具体为将惯性传感器对应的惯导算法得到的位姿变换信息、轮式里程计对应的航位推算算法得到的位置信息和多线激光雷达对应的NDT算法得到的位姿变换信息,不间断地采用无迹卡尔曼滤波(UKF)算法进行融合,从而得到odom→robot之间的坐标变换;同时,通过NDT算法粗估和ICP精细匹配,提高点云匹配的精度;其中odom为惯性传感器、轮式里程计和多线激光雷达融合后的坐标系,robot为机器人的坐标系;
具体实施时,具体为采如下步骤进行融合并得到坐标变换:
采用如下步骤进行计算:
(4)将选取的sigma point点集代入机器人非线性运动模型g()中,计算得到预测的sigma point点集,利用预测得到的sigma point点集带权重地得到k+1时刻的预测状态和协方差矩阵;
(5)读取k+1时刻传感器数值,判断传感器类型,选择对应的h()转换函数,对预测sigma point点集从预测空间下转换到测量空间下;
上述步骤(1)~(8)为UKF算法迭代一次的步骤,读取激光雷达里程计的数据,下一时刻则读取其他传感器的数据,如轮式里程计,循环读取各传感器数据作融合处理,以上为基于UKF的数据融合定位算法计算流程;融合出odom->robot之间的坐标变换;
同时,采用如下步骤提高点云匹配的精度:
基于UKF的惯性导航系统,其结果作为NDT算法的每一轮迭代的迭代初值,提高NDT算法的迭代稳定性与准确度;配合ICP精细匹配模块可以进一步增加点云匹配的精度;
通过惯性里程计计算点云数据对应的第二相对位置与点云数据对应的第一相对位置。经过NDT算法对第一相对位置与第二相对位置计算后输出的点云分别为和(即计算后的第二相对位置),并计算和的变换参数;ICP算法通过计算与对应点距离,计算出旋转平移矩阵,通过对变换,并计算变换之后的均方差。若均方差小于预设的误差阈值,则算法结束。否则继续重复迭代直至均方差小于预设的误差阈值或者迭代次数满足预设的迭代数阈值,则终止计算。需要说明的是,预设的误差阈值根据需要进行设置,在此不作限定。预设的迭代数阈值根据大量实验数据进行设置,在此不作限定;
S4. 直接获取机器人当前的经纬度信息,从而得到机器人当前的绝对位置;具体为通过北斗定位系统直接采集机器人当前的经纬度信息,并计算得到机器人当前在ENU坐标系下的绝对角度,以及计算机器人的绝对位置信息;
S5. 将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置进行融合,从而得到机器人的精确位姿;具体为将将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置,采用扩展卡尔曼滤波(EKF)算法进行融合,发布机器人的累计误差补偿值,并最终计算出机器人的准确位姿;
S6. 对定位过程的连续性进行判断,并在满足设定条件时,进行重定位;
重定位具体包括局部重定位和全局重定位;
局部重定位主要是依靠北斗导航数据的回溯以及大尺度的搜索,适用于NDT算法输出位置不符合连续性判断的情况;全局重定位用于在系统出现部分传感器失效的情况时。
如图2所示为本发明的系统的功能模块图:本发明提供的这种实现所述基于多传感器融合的定位方法的定位系统,包括多线激光雷达模块、惯性传感器模块、北斗定位模块、轮式里程计模块和综合定位模块;多线激光雷达模块、惯性传感器模块、北斗定位模块和轮式里程计模块均与综合定位模块连接;多线激光雷达模块用于采集三维点云信息并上传综合定位模块;惯性传感器模块用于采集三轴加速度信息并上传综合定位模块;北斗定位模块用于采集机器人当前的经纬度信息并上传综合定位模块;轮式里程计模块用于采集机器人的轮子转速信息并上传综合定位模块;综合定位模块用于采用上述的基于多传感器融合的定位方法对机器人进行精确定位。
Claims (9)
1.一种基于多传感器融合的定位方法,其特征在于包括如下步骤:
S1. 采用若干种传感器获取当前机器人所处环境的环境信息和机器人当前的运动信息;具体为采用多线激光雷达采集三维点云信息,采用惯性传感器采集三轴加速度信息,采用北斗系统采集经纬度信息,采用轮式里程计采集机器人的轮子转速信息;
S2. 根据步骤S1获取的环境信息和运动信息,计算得到机器人的位姿变换信息;
S3. 对若干种传感器获取的信息进行实时不间断融合,从而得到机器人的当前位置信息;
S4. 直接获取机器人当前的经纬度信息,从而得到机器人当前的绝对位置;
S5. 将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置进行融合,从而得到机器人的精确位姿。
2.根据权利要求1所述的基于多传感器融合的定位方法,其特征在于还包括如下步骤:
S6. 对定位过程的连续性进行判断,并在满足设定条件时,进行重定位;所述的重定位,具体包括局部重定位和全局重定位;局部重定位用于在系统的输出位置不符合连续性判断时;全局重定位用于在系统出现传感器失效的情况时。
3.根据权利要求2所述的基于多传感器融合的定位方法,其特征在于步骤S2所述的根据步骤S1获取的环境信息和运动信息,计算得到机器人的位姿变换信息,具体为将多线激光雷达采集的三维点云信息通过NDT算法计算机器人的位姿变换信息;将惯性传感器采集的三轴加速度信息通过惯导算法计算机器人的位姿变换信息。
4.根据权利要求3所述的基于多传感器融合的定位方法,其特征在于步骤S3所述的对若干种传感器获取的信息进行实时不间断融合,从而得到机器人的当前位置信息,具体为将惯性传感器对应的惯导算法得到的位姿变换信息、轮式里程计对应的航位推算算法得到的位置信息和多线激光雷达对应的NDT算法得到的位姿变换信息,不间断地采用无迹卡尔曼滤波算法进行融合,从而得到odom→robot之间的坐标变换;同时,通过NDT算法粗估和ICP精细匹配,提高点云匹配的精度;其中odom为惯性传感器、轮式里程计和多线激光雷达融合后的坐标系,robot为机器人的坐标系。
5.根据权利要求4所述的基于多传感器融合的定位方法,其特征在于所述的不间断地采用无迹卡尔曼滤波算法进行融合,从而得到odom→robot之间的坐标变换,具体为采如下步骤进行融合并得到坐标变换:
采用如下步骤进行计算:
(4)将选取的sigma point点集代入机器人非线性运动模型g()中,计算得到预测的sigma point点集,利用预测得到的sigma point点集带权重地得到k+1时刻的预测状态和协方差矩阵;
(5)读取k+1时刻传感器数值,判断传感器类型,选择对应的h()转换函数,对预测sigmapoint点集从预测空间下转换到测量空间下;
6.根据权利要求5所述的基于多传感器融合的定位方法,其特征在于步骤S4所述的直接获取机器人当前的经纬度信息,从而得到机器人当前的绝对位置,具体为通过北斗定位系统直接采集机器人当前的经纬度信息,并计算得到机器人当前在ENU坐标系下的绝对角度,以及计算机器人的绝对位置信息。
7.根据权利要求6所述的基于多传感器融合的定位方法,其特征在于步骤S5所述的将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置进行融合,从而得到机器人的精确位姿,具体为将将步骤S3得到的机器人的当前位置信息和步骤S4得到的机器人当前的绝对位置,采用扩展卡尔曼滤波算法进行融合,发布机器人的累计误差补偿值,并最终计算出机器人的准确位姿;所述的采用扩展卡尔曼滤波算法进行融合,具体为采用如下步骤进行融合:
8.一种实现权利要求1~7之一所述的基于多传感器融合的定位方法的定位系统,其特征在于包括多线激光雷达模块、惯性传感器模块、北斗定位模块、轮式里程计模块和综合定位模块;多线激光雷达模块、惯性传感器模块、北斗定位模块和轮式里程计模块均与综合定位模块连接;多线激光雷达模块用于采集三维点云信息并上传综合定位模块;惯性传感器模块用于采集三轴加速度信息并上传综合定位模块;北斗定位模块用于采集机器人当前的经纬度信息并上传综合定位模块;轮式里程计模块用于采集机器人的轮子转速信息并上传综合定位模块;综合定位模块用于采用上述的基于多传感器融合的定位方法对机器人进行精确定位。
9.一种机器人,其特征在于包括了权利要求1~7之一所述的基于多传感器融合的定位方法和权利要求8所述的定位系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110722413.0A CN113252033B (zh) | 2021-06-29 | 2021-06-29 | 基于多传感器融合的定位方法、定位系统及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110722413.0A CN113252033B (zh) | 2021-06-29 | 2021-06-29 | 基于多传感器融合的定位方法、定位系统及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113252033A true CN113252033A (zh) | 2021-08-13 |
CN113252033B CN113252033B (zh) | 2021-10-15 |
Family
ID=77190065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110722413.0A Active CN113252033B (zh) | 2021-06-29 | 2021-06-29 | 基于多传感器融合的定位方法、定位系统及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113252033B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791423A (zh) * | 2021-09-24 | 2021-12-14 | 山东新一代信息产业技术研究院有限公司 | 一种基于多传感器融合的机器人重定位方法 |
CN114170320A (zh) * | 2021-10-29 | 2022-03-11 | 广西大学 | 一种基于多传感器融合的打桩机自动定位和工况自适应方法 |
CN114348138A (zh) * | 2022-01-22 | 2022-04-15 | 石家庄东方热电热力工程有限公司 | 一种水冷壁场景的爬壁机器人导航系统及其导航方法 |
CN114440881A (zh) * | 2022-01-29 | 2022-05-06 | 海南大学 | 一种融合多源传感器信息的无人车定位方法 |
CN114562994A (zh) * | 2022-03-09 | 2022-05-31 | 上海应用技术大学 | 移动机器人处于动态环境中的定位方法 |
CN114719843A (zh) * | 2022-06-09 | 2022-07-08 | 长沙金维信息技术有限公司 | 复杂环境下的高精度定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109341706A (zh) * | 2018-10-17 | 2019-02-15 | 张亮 | 一种面向无人驾驶汽车的多特征融合地图的制作方法 |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及系统 |
CN111702763A (zh) * | 2020-06-28 | 2020-09-25 | 国网四川省电力公司电力科学研究院 | 一种基于北斗系统的变电站巡检机器人重定位系统及方法 |
CN111780763A (zh) * | 2020-06-30 | 2020-10-16 | 杭州海康机器人技术有限公司 | 一种基于视觉地图的视觉定位方法、装置 |
CN112612029A (zh) * | 2020-12-24 | 2021-04-06 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 融合ndt和icp的栅格地图定位方法 |
CN112985416A (zh) * | 2021-04-19 | 2021-06-18 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9439269B2 (en) * | 2013-11-21 | 2016-09-06 | General Electric Company | Powerline luminaire communications |
CN107561549B (zh) * | 2017-08-17 | 2020-07-24 | 广州视源电子科技股份有限公司 | 终端位置的重定位方法、装置、终端及存储介质 |
CN110009739B (zh) * | 2019-01-29 | 2023-03-24 | 浙江省北大信息技术高等研究院 | 移动摄像机的数字视网膜的运动特征的提取与编码方法 |
-
2021
- 2021-06-29 CN CN202110722413.0A patent/CN113252033B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109341706A (zh) * | 2018-10-17 | 2019-02-15 | 张亮 | 一种面向无人驾驶汽车的多特征融合地图的制作方法 |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及系统 |
CN111702763A (zh) * | 2020-06-28 | 2020-09-25 | 国网四川省电力公司电力科学研究院 | 一种基于北斗系统的变电站巡检机器人重定位系统及方法 |
CN111780763A (zh) * | 2020-06-30 | 2020-10-16 | 杭州海康机器人技术有限公司 | 一种基于视觉地图的视觉定位方法、装置 |
CN112612029A (zh) * | 2020-12-24 | 2021-04-06 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 融合ndt和icp的栅格地图定位方法 |
CN112985416A (zh) * | 2021-04-19 | 2021-06-18 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791423A (zh) * | 2021-09-24 | 2021-12-14 | 山东新一代信息产业技术研究院有限公司 | 一种基于多传感器融合的机器人重定位方法 |
CN114170320A (zh) * | 2021-10-29 | 2022-03-11 | 广西大学 | 一种基于多传感器融合的打桩机自动定位和工况自适应方法 |
CN114170320B (zh) * | 2021-10-29 | 2022-10-28 | 广西大学 | 一种基于多传感器融合的打桩机自动定位和工况自适应方法 |
CN114348138A (zh) * | 2022-01-22 | 2022-04-15 | 石家庄东方热电热力工程有限公司 | 一种水冷壁场景的爬壁机器人导航系统及其导航方法 |
CN114440881A (zh) * | 2022-01-29 | 2022-05-06 | 海南大学 | 一种融合多源传感器信息的无人车定位方法 |
CN114440881B (zh) * | 2022-01-29 | 2023-05-30 | 海南大学 | 一种融合多源传感器信息的无人车定位方法 |
CN114562994A (zh) * | 2022-03-09 | 2022-05-31 | 上海应用技术大学 | 移动机器人处于动态环境中的定位方法 |
CN114719843A (zh) * | 2022-06-09 | 2022-07-08 | 长沙金维信息技术有限公司 | 复杂环境下的高精度定位方法 |
CN114719843B (zh) * | 2022-06-09 | 2022-09-30 | 长沙金维信息技术有限公司 | 复杂环境下的高精度定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113252033B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113252033B (zh) | 基于多传感器融合的定位方法、定位系统及机器人 | |
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN108731670B (zh) | 基于量测模型优化的惯性/视觉里程计组合导航定位方法 | |
CN106767752B (zh) | 一种基于偏振信息的组合导航方法 | |
CN109931926B (zh) | 一种基于站心坐标系的小型无人机无缝自主式导航方法 | |
CN112505737B (zh) | 一种gnss/ins组合导航方法 | |
CN112697138B (zh) | 一种基于因子图优化的仿生偏振同步定位与构图的方法 | |
CN109186597B (zh) | 一种基于双mems-imu的室内轮式机器人的定位方法 | |
CN108387236B (zh) | 一种基于扩展卡尔曼滤波的偏振光slam方法 | |
CN109507706B (zh) | 一种gps信号丢失的预测定位方法 | |
CN111025366B (zh) | 基于ins及gnss的网格slam的导航系统及方法 | |
CN111982106A (zh) | 导航方法、装置、存储介质及电子装置 | |
CN112004183B (zh) | 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 | |
CN110412596A (zh) | 一种基于图像信息和激光点云的机器人定位方法 | |
CN112923919A (zh) | 基于图优化的行人定位方法及系统 | |
CN115900708A (zh) | 基于gps引导式粒子滤波的机器人多传感器融合定位方法 | |
CN115183762A (zh) | 一种机场仓库内外建图方法、系统、电子设备及介质 | |
CN113008229A (zh) | 一种基于低成本车载传感器的分布式自主组合导航方法 | |
CN114897942B (zh) | 点云地图的生成方法、设备及相关存储介质 | |
CN115930948A (zh) | 一种果园机器人融合定位方法 | |
Zarei et al. | Performance improvement for mobile robot position determination using cubature Kalman filter | |
Aravind et al. | Enhancing GPS Position Estimation Using Multi-Sensor Fusion and Error-State Extended Kalman Filter | |
Xu et al. | The Fusion Of GPS And Gyroscope Based On Kalman Filter | |
CN117346768B (zh) | 同时适用于室内外的多传感器融合感知定位方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |