CN111260751A - 基于多传感器移动机器人的建图方法 - Google Patents
基于多传感器移动机器人的建图方法 Download PDFInfo
- Publication number
- CN111260751A CN111260751A CN202010030331.5A CN202010030331A CN111260751A CN 111260751 A CN111260751 A CN 111260751A CN 202010030331 A CN202010030331 A CN 202010030331A CN 111260751 A CN111260751 A CN 111260751A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- data
- robot
- map
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013507 mapping Methods 0.000 title claims description 23
- 238000005259 measurement Methods 0.000 claims abstract description 29
- 238000005457 optimization Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明提供了一种基于多传感器移动机器人的建图方法,其包括以下步骤:为机器人安装多种不同传感器并获取对应传感器的测量数据;将惯性测量单元数据和编码器数据通过运算获得机器人姿态信息和行走路线;将双目相机数据、激光雷达数据、超声波数据转换成角度和距离构成的数值对格式,分别构建环境的二维点云图;通过对传感器预设阈值,去除失真的点云信息和冗余的点云信息,完成点云图的优化;将优化后的点云图转化为栅格地图,完成地图的创建。本发明结合多种不同的传感器,弥补了单一传感器的局限性,并提出机器人构建地图和优化地图分开进行,降低了建图过程中的运算量,并且进一步提高了建图的准确性和建图质量。
Description
技术领域
本发明涉及建图领域,具体涉及一种基于多传感器移动机器人的建图方法。
背景技术
现阶段机器人的移动大多依靠人工路径规划,机器人的自主导航能力依赖于即时定位与建图技术,其核心任务是当机器人进入未知工作环境时,利用传感器信息,对周围环境进行高效率且准确地构建,同时得到设备在空间中的位置与姿态,除了可以应用在机器人领域外,为了实现智能移动设备的自主导航及定位,需要实现对于智能移动设备所处环境的环境建图。
大多数现有产品通常通过两种方式实现环境建图,第一种为直接利用二维测距传感器进行环境建图,但是这无法得到环境的三维信息;第二种为用三维激光雷达或者图像的方法进行环境建图,但是这种方法一般都是先提取三维(或者图像)特征,进行特征匹配,再估算变换矩阵,运算量巨大,无法保证建图的实时性。综上所述,现有技术中提供的环境三维建图的技术方案存在运算量大,无法保证建图实时性的问题。随着计算机技术和人工智能的发展,智能自主移动机器人成为机器人领域的一个重要研究方向和研究热点。
因此,有必要设计一种基于多传感器移动机器人的建图方法,以解决上述问题。
发明内容
本发明的目的在于提供一种基于多传感器移动机器人的建图方法,利用多传感器优势,并且将创建地图和优化地图分开进行,降低了建图的运算量,同时提高了建图的实时性,并且多传感器进一步提高了建图的准确性,提高了建图质量。
为实现上述目的,本发明提供了一种基于多传感器移动机器人的建图方法,其包括以下步骤:
步骤S1:为机器人安装多种不同的传感器,所述传感器包括惯性测量单元、编码器、双目相机、激光雷达及超声波,每个传感器均与机器人的处理芯片连接;
步骤S2:获取双目相机、惯性测量单元、激光雷达、超声波及编码器的测量数据;
步骤S3:将同一时刻的惯性测量单元数据和编码器数据进行扩展卡尔曼滤波处理,通过运算获得机器人姿态信息和行走路线;
步骤S4:操作机器人在未知环境下移动,将双目相机数据、激光雷达数据、超声波数据转换成由角度和距离构成的数值对格式,并分别构建环境的二维点云图,以得到三张点云图;
步骤S5:将三张点云图融合成一张点云图,并对不同传感器获取的点云信息进行标注;
步骤S6:将同一位置的三种不同点云信息的差值与预设阈值进行对比,去除失真的点云信息和冗余的点云信息,以完成点云图的优化;
步骤S7:将步骤S6中优化后的点云图转化为栅格地图,完成地图的创建。
作为本发明进一步改进的技术方案,所述双目相机、激光雷达及超声波的扫描频率一致。
作为本发明进一步改进的技术方案,步骤S3具体包括以下步骤:
步骤S31:获取同一时刻下的惯性测量单元数据和编码器数据;
步骤S32:以惯性测量单元数据格式为标准,通过运动学解耦和航向推算将编码器数据格式转化为惯性测量单元数据格式;
步骤S33:构建扩展卡尔曼滤波器,获取编码器数据作为观测量及观测协方差矩阵,进行状态更新,得到更新后的系统状态及系统协方差矩阵;获取惯性测量单元数据作为观测量及观测协方差矩阵,进行状态更新,得到更新后的系统状态及系统协方差矩阵;发布更新后的状态量及协方差矩阵作为融合后的数据,获取机器人的姿态信息和行走路线。
作为本发明进一步改进的技术方案,步骤S4中对双目相机数据进行格式转化的具体步骤包括:
步骤S41:根据三角形相似原理,计算出障碍物和机器人的距离信息;
步骤S42:利用步骤S3中获取的机器人姿态信息,提取出偏航角;
步骤S43:将同一时刻的距离信息和偏航角组成数值对,完成对双目相机数据格式的转化。
作为本发明进一步改进的技术方案,步骤S5中通过不同颜色对不同传感器获取的点云信息进行标注。
作为本发明进一步改进的技术方案,步骤S6具体为:在融合后的点云图上,将同一位置的三种不同点云信息差值与预设阈值进行对比,若大于预设阈值,则挑选出最大优先级类型的点云信息作为最终的点云信息;若等于预设阈值,则挑选出任意传感器生成的点云信息作为最终的点云信息;若小于预设阈值,则采用卡尔曼滤波融合三种不同点云信息。
作为本发明进一步改进的技术方案,所述激光雷达为2D激光雷达。
作为本发明进一步改进的技术方案,所述机器人的底盘为差分轮结构,并包括底盘及设于底盘上的左轮和右轮。
本发明的基于多传感器移动机器人的建图方法利用惯性测量单元和编码器数据融合,有效避免了机器人建图过程中由于打滑、震动带来的编码器累计误差,进一步提高了建图的准确性;利用激光雷达、双目相机、超声波分别创建点云图,丰富了传感器的环境感知信息。另外,本发明将创建地图和优化地图分开进行,降低了建图的运算量,提高了建图的实时性;同时利用多传感器进一步提高了建图的准确性和建图质量。
附图说明
图1是本发明基于多传感器移动机器人的建图方法的流程图。
图2是本发明中机器人的底盘的移动示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参图1所示的基于多传感器移动机器人的建图方法,其包括以下步骤:
步骤S1:为机器人安装多种不同的传感器,传感器包括惯性测量单元(IMU)、编码器、双目相机、激光雷达及超声波,每个传感器均与机器人的处理芯片连接;
步骤S2:同时获取双目相机、惯性测量单元、激光雷达、超声波、编码器的测量数据;
步骤S3:将同一时刻的惯性测量单元数据和编码器数据进行扩展卡尔曼滤波处理,通过运算获得机器人姿态信息和行走路线;步骤S3具体包括以下步骤:
步骤S31:获取同一时刻下的惯性测量单元数据和编码器数据,惯性测量单元数据格式为[pitch roll yaw],编码器数据格式为[vL,vR];
步骤S32:以惯性测量单元数据格式为标准,通过运动学解耦和航向推算将编码器数据格式转化为惯性测量单元数据格式;
具体的,如图2所示,机器人的底盘为差分轮结构,并包括底盘及设于底盘上的左轮和右轮。由左轮角速度wL和右轮角速度wR相等可得:
其中v,w为底盘中心的线速度和角速度,vL,vR为左右两轮的速度,d为轮子距底盘中心的距离,r为底盘的中心圆弧运动的半径。
将(2)代入角速度公式计算出底盘的角速度:
将(3)代入线速度公式计算出底盘的线速度:
将(3),(4)代入航迹推算公式(5),将编码器数据格式[vL,vR]转化为[x,y,θ]:
步骤33:构建扩展卡尔曼滤波器,获取编码器数据作为观测量及观测协方差矩阵,进行状态更新,得到更新后的系统状态及系统协方差矩阵;获取惯性测量单元数据作为观测量及观测协方差矩阵,进行状态更新,得到更新后的系统状态及系统协方差矩阵;发布更新后的状态量及协方差矩阵作为融合后的数据,获取机器人的姿态信息和行走路线;
步骤S4:操作机器人在未知环境下移动,将双目相机数据、激光雷达数据及超声波数据转换成角度和距离构成的数值对格式,分别构建环境的二维点云图,得到三张点云图;
其中,双目相机数据格式转化的具体步骤为:
步骤S41:根据三角形相似原理,计算出障碍物和机器人的距离信息;
步骤S42:利用步骤S3中获取的机器人姿态信息,提取出偏航角;
步骤S43:将同一时刻的距离信息和偏航角组成数值对,完成对双目相机数据格式的转化;
步骤S5:将不同传感器构建的点云图融合成一张点云图,将不同的传感器获取的点云信息进行标注;优选的,通过不同颜色对不同传感器获取的点云信息进行标注,当然,也可以以其它的方式进行标识,只要能够对三种不同的点云信息进行区分即可,在此不作限制;
步骤S6:同一位置的三种不同点云信息差值与预设阈值进行对比,若大于阈值,则挑选出最大优先级类型的点云信息作为最终的点云信息;若等于阈值,则挑选出任意传感器生成的点云信息作为最终的点云信息;若小于阈值,则采用卡尔曼滤波融合三种不同点云信息;
步骤S7:将步骤S6中优化后的点云图转化为栅格地图,完成地图创建并保存地图。
本发明中激光雷达、双目相机及超声波的扫描频率一致。优选的,双目相机为Kinect双目相机,IMU为mpu6050,激光雷达为2D激光雷达,优选为rplidar。
综上所述,本发明的基于多传感器移动机器人的建图方法利用惯性测量单元和编码器数据融合,有效避免了机器人建图过程中由于打滑、震动带来的编码器累计误差,进一步提高了建图的准确性;利用激光雷达、双目相机、超声波分别创建点云图,丰富了传感器的环境感知信息。另外,本发明将创建地图和优化地图分开进行,降低了建图的运算量,提高了建图的实时性;同时利用多传感器进一步提高了建图的准确性和建图质量。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。
Claims (8)
1.一种基于多传感器移动机器人的建图方法,其特征在于,包括以下步骤:
步骤S1:为机器人安装多种不同的传感器,所述传感器包括惯性测量单元、编码器、双目相机、激光雷达及超声波,每个传感器均与机器人的处理芯片连接;
步骤S2:获取双目相机、惯性测量单元、激光雷达、超声波及编码器的测量数据;
步骤S3:将同一时刻的惯性测量单元数据和编码器数据进行扩展卡尔曼滤波处理,通过运算获得机器人姿态信息和行走路线;
步骤S4:操作机器人在未知环境下移动,将双目相机数据、激光雷达数据、超声波数据转换成由角度和距离构成的数值对格式,并分别构建环境的二维点云图,以得到三张点云图;
步骤S5:将三张点云图融合成一张点云图,并对不同传感器获取的点云信息进行标注;
步骤S6:将同一位置的三种不同点云信息的差值与预设阈值进行对比,去除失真的点云信息和冗余的点云信息,以完成点云图的优化;
步骤S7:将步骤S6中优化后的点云图转化为栅格地图,完成地图的创建。
2.根据权利要求1所述的基于多传感器移动机器人的建图方法,其特征在于,所述双目相机、激光雷达及超声波的扫描频率一致。
3.根据权利要求1所述的基于多传感器移动机器人的建图方法,其特征在于,步骤S3具体包括以下步骤:
步骤S31:获取同一时刻下的惯性测量单元数据和编码器数据;
步骤S32:以惯性测量单元数据格式为标准,通过运动学解耦和航向推算将编码器数据格式转化为惯性测量单元数据格式;
步骤S33:构建扩展卡尔曼滤波器,获取编码器数据作为观测量及观测协方差矩阵,进行状态更新,得到更新后的系统状态及系统协方差矩阵;获取惯性测量单元数据作为观测量及观测协方差矩阵,进行状态更新,得到更新后的系统状态及系统协方差矩阵;发布更新后的状态量及协方差矩阵作为融合后的数据,获取机器人的姿态信息和行走路线。
4.根据权利要求1所述的基于多传感器移动机器人的建图方法,其特征在于,步骤S4中对双目相机数据进行格式转化的具体步骤包括:
步骤S41:根据三角形相似原理,计算出障碍物和机器人的距离信息;
步骤S42:利用步骤S3中获取的机器人姿态信息,提取出偏航角;
步骤S43:将同一时刻的距离信息和偏航角组成数值对,完成对双目相机数据格式的转化。
5.根据权利要求1所述的基于多传感器移动机器人的建图方法,其特征在于,步骤S5中通过不同颜色对不同传感器获取的点云信息进行标注。
6.根据权利要求1所述的一种基于多传感器移动机器人的建图方法,其特征在于,步骤S6具体为:在融合后的点云图上,将同一位置的三种不同点云信息差值与预设阈值进行对比,若大于预设阈值,则挑选出最大优先级类型的点云信息作为最终的点云信息;若等于预设阈值,则挑选出任意传感器生成的点云信息作为最终的点云信息;若小于预设阈值,则采用卡尔曼滤波融合三种不同点云信息。
7.根据权利要求1所述的基于多传感器移动机器人的建图方法,其特征在于,所述激光雷达为2D激光雷达。
8.根据权利要求1所述的基于多传感器移动机器人的建图方法,其特征在于,所述机器人的底盘为差分轮结构,并包括底盘及设于底盘上的左轮和右轮。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010030331.5A CN111260751B (zh) | 2020-01-13 | 2020-01-13 | 基于多传感器移动机器人的建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010030331.5A CN111260751B (zh) | 2020-01-13 | 2020-01-13 | 基于多传感器移动机器人的建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111260751A true CN111260751A (zh) | 2020-06-09 |
CN111260751B CN111260751B (zh) | 2022-10-14 |
Family
ID=70946891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010030331.5A Active CN111260751B (zh) | 2020-01-13 | 2020-01-13 | 基于多传感器移动机器人的建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111260751B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112066982A (zh) * | 2020-09-07 | 2020-12-11 | 成都睿芯行科技有限公司 | 一种在高动态环境下的工业移动机器人定位方法 |
CN112362045A (zh) * | 2020-11-19 | 2021-02-12 | 佛山科学技术学院 | 一种基于激光slam建图的装置及内存优化方法 |
CN112466147A (zh) * | 2020-11-18 | 2021-03-09 | 上海汽车集团股份有限公司 | 一种基于多传感器的库位检测方法及相关装置 |
CN112650281A (zh) * | 2020-12-14 | 2021-04-13 | 一飞(海南)科技有限公司 | 多传感器三余度系统、控制方法、无人机、介质及终端 |
CN114691579A (zh) * | 2022-04-15 | 2022-07-01 | 南京邮电大学 | 一种室内无人车的异构处理器及其通信方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109059927A (zh) * | 2018-08-21 | 2018-12-21 | 南京邮电大学 | 复杂环境下多传感器的移动机器人slam建图方法和系统 |
-
2020
- 2020-01-13 CN CN202010030331.5A patent/CN111260751B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109059927A (zh) * | 2018-08-21 | 2018-12-21 | 南京邮电大学 | 复杂环境下多传感器的移动机器人slam建图方法和系统 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112066982A (zh) * | 2020-09-07 | 2020-12-11 | 成都睿芯行科技有限公司 | 一种在高动态环境下的工业移动机器人定位方法 |
CN112066982B (zh) * | 2020-09-07 | 2021-08-31 | 成都睿芯行科技有限公司 | 一种在高动态环境下的工业移动机器人定位方法 |
CN112466147A (zh) * | 2020-11-18 | 2021-03-09 | 上海汽车集团股份有限公司 | 一种基于多传感器的库位检测方法及相关装置 |
CN112362045A (zh) * | 2020-11-19 | 2021-02-12 | 佛山科学技术学院 | 一种基于激光slam建图的装置及内存优化方法 |
CN112362045B (zh) * | 2020-11-19 | 2022-03-29 | 佛山科学技术学院 | 一种基于激光slam建图的装置及内存优化方法 |
CN112650281A (zh) * | 2020-12-14 | 2021-04-13 | 一飞(海南)科技有限公司 | 多传感器三余度系统、控制方法、无人机、介质及终端 |
CN112650281B (zh) * | 2020-12-14 | 2023-08-22 | 一飞(海南)科技有限公司 | 多传感器三余度系统、控制方法、无人机、介质及终端 |
CN114691579A (zh) * | 2022-04-15 | 2022-07-01 | 南京邮电大学 | 一种室内无人车的异构处理器及其通信方法 |
CN114691579B (zh) * | 2022-04-15 | 2023-11-10 | 南京邮电大学 | 一种室内无人车的异构处理器及其通信方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111260751B (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111260751B (zh) | 基于多传感器移动机器人的建图方法 | |
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN109211251B (zh) | 一种基于激光和二维码融合的即时定位与地图构建方法 | |
CN109725327B (zh) | 一种多机构建地图的方法及系统 | |
JP6868028B2 (ja) | 自律測位航法設備、測位航法方法及び自律測位航法システム | |
CN109100730B (zh) | 一种多车协同快速建图方法 | |
CN112254729B (zh) | 一种基于多传感器融合的移动机器人定位方法 | |
CN113781582A (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN111338383B (zh) | 基于gaas的自主飞行方法及系统、存储介质 | |
CN109282808B (zh) | 用于桥梁三维巡航检测的无人机与多传感器融合定位方法 | |
CN105759829A (zh) | 基于激光雷达的微型无人机操控方法及系统 | |
Chen et al. | Real-time 3D mapping using a 2D laser scanner and IMU-aided visual SLAM | |
CN112639882A (zh) | 定位方法、装置及系统 | |
Wu et al. | Robust LiDAR-based localization scheme for unmanned ground vehicle via multisensor fusion | |
CN110533719A (zh) | 基于环境视觉特征点识别技术的增强现实定位方法及装置 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN110658828A (zh) | 一种地貌自主探测方法及无人机 | |
CN111768489A (zh) | 一种室内导航地图构建方法和系统 | |
CN110751123A (zh) | 一种单目视觉惯性里程计系统及方法 | |
CN113960614A (zh) | 一种基于帧-地图匹配的高程图构建方法 | |
CN114429432B (zh) | 一种多源信息分层融合方法、装置及存储介质 | |
CN113093759A (zh) | 基于多传感器信息融合的机器人编队构造方法及系统 | |
CN117234203A (zh) | 一种多源里程融合slam井下导航方法 | |
CN115049910A (zh) | 一种基于双目视觉里程计的足式机器人建图与导航方法 | |
WO2022246812A1 (zh) | 定位方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |