CN112612034A - 基于激光帧和概率地图扫描的位姿匹配方法 - Google Patents

基于激光帧和概率地图扫描的位姿匹配方法 Download PDF

Info

Publication number
CN112612034A
CN112612034A CN202011550887.3A CN202011550887A CN112612034A CN 112612034 A CN112612034 A CN 112612034A CN 202011550887 A CN202011550887 A CN 202011550887A CN 112612034 A CN112612034 A CN 112612034A
Authority
CN
China
Prior art keywords
pose
angle
probability map
time
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011550887.3A
Other languages
English (en)
Other versions
CN112612034B (zh
Inventor
郝奇
陈智君
伍永健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhu Robot Technology Research Institute of Harbin Institute of Technology
Original Assignee
Wuhu Robot Technology Research Institute of Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhu Robot Technology Research Institute of Harbin Institute of Technology filed Critical Wuhu Robot Technology Research Institute of Harbin Institute of Technology
Priority to CN202011550887.3A priority Critical patent/CN112612034B/zh
Publication of CN112612034A publication Critical patent/CN112612034A/zh
Application granted granted Critical
Publication of CN112612034B publication Critical patent/CN112612034B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于激光帧和概率地图扫描的位姿匹配方法,包括如下步骤:S1、里程计基于上一时刻(h‑1)的全局最优位姿Poseh‑1估算时刻h的机器人位姿Poseh″;S2、基于相关性扫描确定搜索窗口,基于概率地图在搜索窗口内搜索得分最高的局部最优位姿Poseh′;S3、将h时刻的激光帧投影到概率地图的Poseh′位姿处,得到概率地图残差项;S4、基于概率地图的残差项、位姿Poseh″及位姿Poseh″构建目标函数,基于高斯牛顿法对目标函数进行优化,获取机器人在时刻h的全局最优位姿Poseh。提高了相关匹配的搜索速度,提高了移动机器人的定位效率。

Description

基于激光帧和概率地图扫描的位姿匹配方法
技术领域
本发明属于连读定位技术领域,更具体地,本发明涉及一种基于激光帧和概率地图扫描的位姿匹配方法。
背景技术
随着移动机器人在服务和仓储物流领域有着越来越广泛的应用,其自主定位导航技术也越发重要,现在主流的前沿技术就是基于激光雷达的自然导航。移动机器人需要实时获取定位数据,通过里程计数据,通过各种传感器数据,如激光帧和预存地图进行匹配,从而获得雷达的实时位姿,实现机器人的定位。激光帧是激光雷达测量的环境距离数据,这个测距精度和雷达测量的频率有关,频率越低,测距越精准。但是测量频率越低,会导致雷达的位姿不确定性增加,使得雷达和地图的匹配位姿数量增多,匹配速度减慢。
为了解决上述问题,现有的技术方案对2D地图按照固定间隔距离进行平均分块;对地图中的每一块进行假设推演,假设块的左上位置为机器人的初始位置,在每一块的基础上枚举方向;对于每一个假设,映射激光雷达的点云数据到地图像素上;建立匹配度模型来评判每一个假设的得分,对于每一个假设,累计激光雷达所有点云数据所对应的像素距离“障碍物像素”曼哈顿距离的和;选取和最小的块和方向作为机器人的起始位置和方向;在机器人移动中使用蒙特卡洛法跟踪其实时位置。然而该方案存在如下问题:
该方案初始将点云映射到栅格地图的每一个位置,导致搜索的候选项目数非常庞大,使得匹配计算速度很慢。该方案找最优位置的得分使用激光点和地图障碍点的距离去计算,这样会导致栅格的尺寸过大影响匹配得分精度,导致机器人定位出现较大的偏差。
发明内容
本发明提供了一种基于激光帧和概率地图扫描的位姿匹配方法,旨在改善上述问题。
本发明是这样实现的,一种基于激光帧和概率地图扫描的位姿匹配方法,所述方法具体包括如下步骤:
S1、里程计基于(h-1)时刻的全局最优位姿Poseh-1估算h时刻的机器人位姿Poseh″;
S2、基于相关性扫描确定搜索窗口,基于概率地图在搜索窗口内搜索得分最高的局部最优位姿Poseh′;
S3、将h时刻的激光帧投影到概率地图的Poseh′位姿处,得到概率地图的残差项p_err;
S4、基于概率地图的残差项、位姿Poseh″及位姿Poseh″构建目标函数,基于高斯牛顿法对目标函数进行优化,获取机器人在h时刻的全局最优位姿Poseh
进一步的,局部最优位姿Poseh′的获取具体包括如下步骤:
S21、基于最大角度步进值θs在角度范围2*vθ*Δh内采集角度值,将采集到的角度与候选位置组成位姿候选项,将h时刻的激光帧投影到概率地图的候选位姿处,一个位姿候选项对应一个候选位姿,获取每个位姿候选项的概率得分,输出最高得分的位姿候选项的角度值,即为相对最优角度;
S22、将相对于最优角度作为中心,基于参数shra来缩小当前角度范围,同时基于参数shrr缩小角度步进值;
S23、判定当前的角度步进值是否小于雷达旋转的最高分辨率角度值θ,若检测结果为是,则将得分最该的候选位姿作为局部最佳位姿Poseh′进行输出,若检测结果为否,则执行步骤S24;
S24、基于缩小后的角度步进值在缩小后的角度范围内采集角度值,将采集到的角度与候选位置组成位姿候选项,将h时刻的激光帧投影到概率地图的候选位姿处,获取每个位姿候选项的概率得分,输出最高得分的位姿候选项的角度值,更新相对最优角度,并执行步骤S22。
进一步的,机器人位姿Poseh″的获取方法具体如下:
S11、基于里程计数据估算机器人在m时刻的速度vO,将里程计估算的速度vO和时间戳m存到全局变量的里程计速度列表中:
vO=(vOx,vOy,vOθ)=(om-om-1)/Δm
om-1为m-1时刻的里程计数据,om为m时刻的里程计数据,Δm为m-1时刻到m时刻的时间差;
S12、取当前时刻h的激光帧,在里程计速度列表中寻找不超过且距时刻h最近的时刻m和对应的速度vO,里程计输出的h时刻位姿Poseh″:
Poseh″=Poseh-1+vO*(h-m)
其中,Poseh-1为h-1时刻的机器人全局最优位姿。
进一步的,目标函数具体如下:
Figure BDA0002857682150000031
其中,w1、w2为权重值,Poseh″为里程计输出的h时刻位姿,Poseh′为h时刻的局部最优位姿,1-M(S(Poseh′))为概率地图残差项。
本发明提供的基于激光帧和概率地图扫描的位姿匹配方法具有如下有益技术效果:
1)通过高频的里程计估算匹配的初始位姿,使得匹配的初值更精准,避免扫描匹配出现误匹配。
2)插值加速搜索局部最优位姿,大幅减少了匹配次数,提高了匹配效率,提高了移动机器人的定位效率。
3)输出位姿是以加速搜索局部最优位姿为初值,并满足里程计估算位姿和概率地图投影最优的多方约束,提高了输出位姿的可靠性和精度。
附图说明
图1为本发明实施例提供的基于激光帧和概率地图扫描的位姿匹配方法流程图。
具体实施方式
下面对照附图,通过对实施例的描述,对本发明的具体实施方式作进一步详细的说明,以帮助本领域的技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。
图3为本发明实施例提供的基于激光帧和概率地图扫描的位姿匹配方法流程图,该方法具体包括如下步骤:
(1)雷达点云获取及滤波
一帧雷达数据的激光帧点有数千上万个,在匹配过程中很耗计算时间,使用体素滤波器,在保证点云微观特征的基础上降低点云的密度,提高匹配效率,处理之后将点云存到全局变量。
(2)里程计估算速度及位姿
里程计有累积误差,该线程只使用里程计增量,并估算移动机器人的线速度和角度。已知在m-1时刻获得里程计数据为om-1,m时刻里程计数据为om,由时间差Δm,那么可以得到里程计估计的机器人速度vO:
vO=(vOx,vOy,vOθ)=(om-om-1)/Δm
处理之后将里程计估算的速度vO和时间戳m存到全局变量的里程计速度列表中。
取当前时刻h的激光帧,在里程计速度列表中寻找不超过且距时刻h最近的时刻m和对应的速度vO。已知h-1时刻的机器人全局最优位姿Poseh-1,那么里程计输出的h时刻位姿Poseh″为:
Poseh″=Poseh-1+vO*(h-m)
(3)相关性窗口计算
已知机器人的最大平移速度和旋转速度vmax(vx,vy,vθ),那么在时刻h-1到时刻h的时段Δh内,AGV单向移动距离不超过(vx*Δh,vy*Δh),旋转角度不超过vθ*Δh。那么相关性匹配的窗口(即相关性窗口)范围应该是以h-1时刻机器人位姿Poseh-1为中心,以x方向宽度为2*vx*Δh,以y方向宽度为2*vy*Δh的矩形窗口,以2*vθ*Δh角度范围为搜索姿态角,搜索范围如下图1所示。
(4)插值加速搜索最佳位姿
a)计算雷达旋转的最高分辨率角度值θ
雷达旋转角度步进的最高角度分辨率是激光扫描的最远点旋转一个地图栅格尺寸的角度,那么由余弦定理可得最高角度分辨率的角度值:
Figure BDA0002857682150000051
其中:res是所建栅格地图的分辨率,max是激光雷达扫描的最远点距离。
b)计算搜索候选项数目,那么可得匹配位姿的总候选项数目:
Figure BDA0002857682150000052
其中,位置候选项数目为
Figure BDA0002857682150000053
角度候选项数目为
Figure BDA0002857682150000054
c)最大角度步进值计算
概率地图使用双三次插值计算概率,再考虑到激光点的跳动偏差,雷达扫描的最远点旋转可跨过多个地图栅格,在此设为grid_a,计算最大的角度步进值:
Figure BDA0002857682150000061
d)插值加速搜索
在第一层原始角度范围2*vθ*Δh内使用最大的角度步进值θs插值寻找较优角度,后面每一层通过参数shra缩小搜索范围,同时通过参数shrr缩小角度步进值。直到最后一层插值使用步骤a)得到的最小分辨率角度遍历搜索,最终得到最优角度。具体如下图2所示,该方法具体包括如下步骤:
S1、基于最大角度步进值θs在角度范围2*vθ*Δh内采集角度,即为候选角度,基于设定的位移步长在相关性窗口内来获取候选位置,将候选角度与候选位置组成位姿候选项,将h时刻的激光帧投影到概率地图的候选位姿处,一个位姿候选项对应一个候选位姿,获取每个位姿候选项的概率得分,输出最高得分位姿候选项的角度值,即为相对最优角度,
S2、将相对于最优角度作为中心,基于参数shra来缩小当前角度范围,同时基于参数shrr缩小角度步进值;
S3、判定当前的角度步进值是否小于雷达旋转的最高分辨率角度值θ,若检测结果为是,则将得分最该的候选位姿作为局部最佳位姿Poseh′进行输出,若检测结果为否,则执行步骤S4;
S4、基于缩小后的角度步进值在缩小后的角度范围内采集角度值,将采集到的角度值与候选位置组成位姿候选项,将h时刻的激光帧投影到概率地图的候选位姿处,获取每个位姿候选项的概率得分,输出最高得分位姿候选项的角度值,更新相对最优角度,并执行步骤S2。
(5)优化得到最优位姿
将h时刻的激光帧投影到概率地图的Poseh′位姿处,将激光帧的中心点投影至栅格地图的Poseh′位姿处,得到概率地图的残差项p_err,表示如下:
Figure BDA0002857682150000071
其中,M(S(Poseh′)表示将第i个激光点打到各栅格的概率值。
防止基于概率地图匹配出现局部极值,再使用里程计估算位姿Poseh″进行限定,那么得到总的优化目标函数:
Figure BDA0002857682150000072
其中,w1、w2为权重值。由高斯牛顿法优化,其中变量为Poseh′,优化迭代得到新位姿Poseh,即移动机器人的在h时刻的全局最优位姿Poseh
上面结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。

Claims (4)

1.一种基于激光帧和概率地图扫描的位姿匹配方法,其特征在于,所述方法具体包括如下步骤:
S1、里程计基于(h-1)时刻的全局最优位姿Poseh-1估算h时刻的机器人位姿Poseh″;
S2、基于相关性扫描确定搜索窗口,基于概率地图在搜索窗口内搜索得分最高的局部最优位姿Poseh′;
S3、将h时刻的激光帧投影到概率地图的局部最优位姿Poseh′处,得到概率地图残差项;
S4、基于概率地图的残差项、位姿Poseh″及位姿Poseh″构建目标函数,基于高斯牛顿法对目标函数进行优化,获取机器人在h时刻的全局最优位姿Poseh
2.如权利要求1所述基于激光帧和概率地图扫描的位姿匹配方法,其特征在于,局部最优位姿Poseh′的获取具体包括如下步骤:
S21、基于最大角度步进值θs在角度范围2*vθ*Δh内采集候选角度,将候选选角度与候选位置组成位姿候选项,将h时刻的激光帧投影到概率地图的候选位姿处,获取每个位姿候选项的概率得分,输出最高得分的位姿候选项的角度值,即为相对最优角度;
S22、将相对于最优角度作为中心,基于参数shra来缩小当前角度范围,同时基于参数shrr缩小角度步进值;
S23、判定当前的角度步进值是否小于雷达旋转的最高分辨率角度值θ,若检测结果为是,则将得分最该的候选位姿作为局部最佳位姿Poseh′进行输出,若检测结果为否,则执行步骤S24;
S24、基于缩小后的角度步进值在缩小后的角度范围内采集角度值,将采集到的角度值与候选位置组成位姿候选项,将h时刻的激光帧投影到概率地图的候选位姿处,获取每个位姿候选项的概率得分,输出最高得分位姿候选项的角度值,更新相对最优角度,并执行步骤S22。
3.如权利要求1所述基于激光帧和概率地图扫描的位姿匹配方法,其特征在于,机器人位姿Poseh″的获取方法具体如下:
S11、基于里程计数据估算机器人在m时刻的速度vO,将里程计估算的速度vO和时间戳m存到全局变量的里程计速度列表中:
vO=(vOx,vOy,vOθ)=(om-om-1)/Δm
om-1为m-1时刻的里程计数据,om为m时刻的里程计数据,Δm为m-1时刻到m时刻的时间差;
S12、取当前时刻h的激光帧,在里程计速度列表中寻找不超过且距时刻h最近的时刻m和对应的速度vO,里程计输出的h时刻位姿Poseh″:
Poseh″=Poseh-1+vO*(h-m)
其中,Poseh-1为h-1时刻的机器人全局最优位姿。
4.如权利要求1所述基于激光帧和概率地图扫描的位姿匹配方法,其特征在于,目标函数具体如下:
Figure FDA0002857682140000021
其中,w1、w2为权重值,Poseh″为里程计输出的h时刻位姿,Poseh′为h时刻的局部最优位姿,1-M(S(Poseh′))为概率地图的残差项。
CN202011550887.3A 2020-12-24 2020-12-24 基于激光帧和概率地图扫描的位姿匹配方法 Active CN112612034B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011550887.3A CN112612034B (zh) 2020-12-24 2020-12-24 基于激光帧和概率地图扫描的位姿匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011550887.3A CN112612034B (zh) 2020-12-24 2020-12-24 基于激光帧和概率地图扫描的位姿匹配方法

Publications (2)

Publication Number Publication Date
CN112612034A true CN112612034A (zh) 2021-04-06
CN112612034B CN112612034B (zh) 2023-10-13

Family

ID=75244778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011550887.3A Active CN112612034B (zh) 2020-12-24 2020-12-24 基于激光帧和概率地图扫描的位姿匹配方法

Country Status (1)

Country Link
CN (1) CN112612034B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113566828A (zh) * 2021-07-09 2021-10-29 哈尔滨工业大学 一种基于多传感器决策融合的抗冲击扫描匹配方法及系统
CN115290098A (zh) * 2022-09-30 2022-11-04 成都朴为科技有限公司 一种基于变步长的机器人定位方法和系统

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107991683A (zh) * 2017-11-08 2018-05-04 华中科技大学 一种基于激光雷达的机器人自主定位方法
CN108242079A (zh) * 2017-12-30 2018-07-03 北京工业大学 一种基于多特征视觉里程计和图优化模型的vslam方法
US20180306922A1 (en) * 2017-04-20 2018-10-25 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for positioning vehicle
US20180341022A1 (en) * 2017-05-24 2018-11-29 Beijing Green Valley Technology Co., Ltd. Lidar-based mapping method, device and system
CN109579849A (zh) * 2019-01-14 2019-04-05 浙江大华技术股份有限公司 机器人定位方法、装置和机器人及计算机存储介质
CN110189366A (zh) * 2019-04-17 2019-08-30 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
US20200089236A1 (en) * 2016-12-26 2020-03-19 Bayerische Motoren Werke Aktiengesellschaft Method and Apparatus for Optimizing Scan Data and Method and Apparatus for Correcting Trajectory
CN111190191A (zh) * 2019-12-11 2020-05-22 杭州电子科技大学 一种基于激光slam的扫描匹配方法
CN111257909A (zh) * 2020-03-05 2020-06-09 安徽意欧斯物流机器人有限公司 一种多2d激光雷达融合建图与定位方法及系统
US20200183011A1 (en) * 2018-12-11 2020-06-11 Shanghai Tusen Weilai Artificial Intelligence Technology Co., Ltd. Method for creating occupancy grid map and processing apparatus
CN111398984A (zh) * 2020-03-22 2020-07-10 华南理工大学 基于扫地机器人的自适应激光雷达点云校正与定位方法
CN111708047A (zh) * 2020-06-16 2020-09-25 浙江大华技术股份有限公司 机器人定位评估方法、机器人及计算机存储介质
CN111765882A (zh) * 2020-06-18 2020-10-13 浙江大华技术股份有限公司 激光雷达定位方法及其相关装置
CN111830529A (zh) * 2020-07-09 2020-10-27 武汉理工大学 一种基于灯光标定信息融合的激光slam方法及装置
CN111895989A (zh) * 2020-06-24 2020-11-06 浙江大华技术股份有限公司 一种机器人的定位方法、装置和电子设备

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200089236A1 (en) * 2016-12-26 2020-03-19 Bayerische Motoren Werke Aktiengesellschaft Method and Apparatus for Optimizing Scan Data and Method and Apparatus for Correcting Trajectory
US20180306922A1 (en) * 2017-04-20 2018-10-25 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for positioning vehicle
US20180341022A1 (en) * 2017-05-24 2018-11-29 Beijing Green Valley Technology Co., Ltd. Lidar-based mapping method, device and system
CN107991683A (zh) * 2017-11-08 2018-05-04 华中科技大学 一种基于激光雷达的机器人自主定位方法
CN108242079A (zh) * 2017-12-30 2018-07-03 北京工业大学 一种基于多特征视觉里程计和图优化模型的vslam方法
US20200183011A1 (en) * 2018-12-11 2020-06-11 Shanghai Tusen Weilai Artificial Intelligence Technology Co., Ltd. Method for creating occupancy grid map and processing apparatus
CN109579849A (zh) * 2019-01-14 2019-04-05 浙江大华技术股份有限公司 机器人定位方法、装置和机器人及计算机存储介质
CN110189366A (zh) * 2019-04-17 2019-08-30 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN111190191A (zh) * 2019-12-11 2020-05-22 杭州电子科技大学 一种基于激光slam的扫描匹配方法
CN111257909A (zh) * 2020-03-05 2020-06-09 安徽意欧斯物流机器人有限公司 一种多2d激光雷达融合建图与定位方法及系统
CN111398984A (zh) * 2020-03-22 2020-07-10 华南理工大学 基于扫地机器人的自适应激光雷达点云校正与定位方法
CN111708047A (zh) * 2020-06-16 2020-09-25 浙江大华技术股份有限公司 机器人定位评估方法、机器人及计算机存储介质
CN111765882A (zh) * 2020-06-18 2020-10-13 浙江大华技术股份有限公司 激光雷达定位方法及其相关装置
CN111895989A (zh) * 2020-06-24 2020-11-06 浙江大华技术股份有限公司 一种机器人的定位方法、装置和电子设备
CN111830529A (zh) * 2020-07-09 2020-10-27 武汉理工大学 一种基于灯光标定信息融合的激光slam方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JAN WEINGARTEN ET AL.: "EKF-based 3D SLAM for Structured Environment Reconstruction", 2005IEEE/RSJ INTERNATIONAL CONFERENCE INTELLIGENT ROBOTS AND SYSTEMS *
王一文;钱闯;唐健;温景仁;牛小骥;: "预建高精度地图的封闭区域UGV自动驾驶导航定位", 测绘通报, no. 01 *
郝亚东等: "基于高斯牛顿的局部优化SLAM系统", 传感器世界, vol. 24, no. 3 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113566828A (zh) * 2021-07-09 2021-10-29 哈尔滨工业大学 一种基于多传感器决策融合的抗冲击扫描匹配方法及系统
CN115290098A (zh) * 2022-09-30 2022-11-04 成都朴为科技有限公司 一种基于变步长的机器人定位方法和系统
CN115290098B (zh) * 2022-09-30 2022-12-23 成都朴为科技有限公司 一种基于变步长的机器人定位方法和系统

Also Published As

Publication number Publication date
CN112612034B (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
CN111536964B (zh) 机器人定位方法及装置、存储介质
CN112014857B (zh) 用于智能巡检的三维激光雷达定位导航方法及巡检机器人
CN113432600B (zh) 基于多信息源的机器人即时定位与地图构建方法及系统
US20230096982A1 (en) Method for generating robot exploration path, computer device, and storage medium
CN108253958A (zh) 一种稀疏环境下的机器人实时定位方法
CN112612862B (zh) 一种基于点云配准的栅格地图定位方法
CN114526745B (zh) 一种紧耦合激光雷达和惯性里程计的建图方法及系统
CN109298725B (zh) 一种基于phd滤波的群体机器人分布式多目标跟踪方法
CN103471589A (zh) 一种室内行人行走模式识别和轨迹追踪的方法
CN110986956B (zh) 一种基于改进的蒙特卡洛算法的自主学习全局定位方法
CN112444246B (zh) 高精度的数字孪生场景中的激光融合定位方法
CN112612034A (zh) 基于激光帧和概率地图扫描的位姿匹配方法
CN116661469B (zh) 机器人轨迹误差修正方法及系统
CN115728803A (zh) 一种城市驾驶车辆连续定位系统及方法
CN116429084A (zh) 一种动态环境3d同步定位与建图方法
CN114137562B (zh) 一种基于改进全局最邻近的多目标跟踪方法
CN114608585A (zh) 一种移动机器人同步定位与建图方法及装置
CN117392268A (zh) 一种基于自适应结合cpd和icp算法的激光扫描建图方法及系统
Qiao et al. Online monocular lane mapping using catmull-rom spline
WO2023226154A1 (zh) 自主定位方法、装置、设备及计算机可读存储介质
CN116576868A (zh) 一种多传感器融合精确定位及自主导航方法
CN115164887A (zh) 基于激光雷达与惯性组合的行人导航定位方法和装置
CN112305558A (zh) 一种利用激光点云数据的移动机器人轨迹确定方法及装置
Lee et al. Real-time object tracking in sparse point clouds based on 3D interpolation
CN115453559B (zh) 一种基于动态数据进行多激光雷达时空同步的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: No. 17, Shenzhou Road, Wuhu Economic and Technological Development Zone, Anhui Province, 241000, Office Building of National Industrial Robot Product Quality Supervision and Inspection Center

Applicant after: Hart Robotics Industry Technology Research Institute in the Yangtze River Delta

Address before: 241000 office building of national industrial robot product quality supervision and inspection center, No.17 Shenzhou Road, Jiujiang Economic and Technological Development Zone, Wuhu City, Anhui Province

Applicant before: Wuhu Robot Industry Technology Research Institute of Harbin Institute of Technology

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant