CN112797990B - 一种存储介质、机器人及其导航位图生成方法及装置 - Google Patents
一种存储介质、机器人及其导航位图生成方法及装置 Download PDFInfo
- Publication number
- CN112797990B CN112797990B CN202011551363.6A CN202011551363A CN112797990B CN 112797990 B CN112797990 B CN 112797990B CN 202011551363 A CN202011551363 A CN 202011551363A CN 112797990 B CN112797990 B CN 112797990B
- Authority
- CN
- China
- Prior art keywords
- bitmap
- radar
- robot
- moment
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000008569 process Effects 0.000 claims abstract description 22
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
- G05D1/2462—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM] using feature-based mapping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/242—Means based on the reflection of waves generated by the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/245—Arrangements for determining position or orientation using dead reckoning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/10—Land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2111/00—Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
- G05D2111/10—Optical signals
- G05D2111/17—Coherent light, e.g. laser signals
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请提出一种存储介质、机器人及其导航位图生成方法及装置,涉及机器人技术领域,通过在机器人远离地面的一端设置第一雷达,以及在靠近地面的一端设置第二雷达,从而基于第一雷达采集的第一激光数据,构建第一雷达对应的第一位图,并在构建该第一位图的过程中,计算出第二雷达对应的第二定位数据;从而结合第二定位数据以及第二雷达采集的第二激光数据,构建第二雷达对应的第二位图;进而将第一位图与第二位图进行融合,得到机器人对应的导航位图;如此,融合得到的导航位图不仅包括有第一位图提供的定位信息,还包括有第一位图和第二位图提供障碍物信息,能够准确的对机器人进行定位,以提高机器人的定位精度。
Description
技术领域
本申请涉及机器人技术领域,具体而言,涉及一种存储介质、机器人及其导航位图生成方法及装置。
背景技术
激光SLAM(Simultaneous Localization and Mapping,同时定位与地图创建)技术能够使机器人利用激光雷达数据创建激光导航地图,从而满足机器人实现实时定位以及导航规划的目的。
然而,在机器人的一些应用场景中,由于机器人的移动环境易于变化,导致环境空间中障碍物的位置信息变化较快,机器人定位精度较低。
发明内容
本申请的目的在于提供一种存储介质、机器人及其导航位图生成方法及装置,能够准确的对机器人进行定位,以提高机器人的定位精度。
为了实现上述目的,本申请采用的技术方案如下:
第一方面,本申请提供一种机器人的导航位图生成方法,所述机器人在远离地面的一端设置有第一雷达,所述机器人在靠近地面的一端设置有第二雷达;
所述方法包括:
基于所述第一雷达采集的第一激光数据,构建所述第一雷达对应的第一位图,并在构建所述第一位图的过程中,计算出所述第二雷达对应的第二定位数据;
根据所述第二定位数据以及所述第二雷达采集的第二激光数据,构建所述第二雷达对应的第二位图;
将所述第一位图与所述第二位图进行融合,得到所述机器人对应的导航位图。
第二方面,本申请提供一种机器人的导航位图生成装置,所述机器人在远离地面的一端设置有第一雷达,所述机器人在靠近地面的一端设置有第二雷达;
所述装置包括:
处理模块,用于基于所述第一雷达采集的第一激光数据,构建所述第一雷达对应的第一位图,并在构建所述第一位图的过程中,计算出所述第二雷达对应的第二定位数据;
所述处理模块还用于,根据所述第二定位数据以及所述第二雷达采集的第二激光数据,构建所述第二雷达对应的第二位图;
融合模块,用于将所述第一位图与所述第二位图进行融合,得到所述机器人对应的导航位图。
第三方面,本申请提供一种机器人,所述机器人包括存储器,用于存储一个或多个程序;处理器;当所述一个或多个程序被所述处理器执行时,实现上述的机器人的导航位图生成方法。
第四方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的机器人的导航位图生成方法。
本申请提供的一种存储介质、机器人及其导航位图生成方法及装置,通过在机器人远离地面的一端设置第一雷达,以及在靠近地面的一端设置第二雷达,从而基于第一雷达采集的第一激光数据,构建第一雷达对应的第一位图,并在构建该第一位图的过程中,计算出第二雷达对应的第二定位数据;从而结合第二定位数据以及第二雷达采集的第二激光数据,构建第二雷达对应的第二位图;进而将第一位图与第二位图进行融合,得到机器人对应的导航位图;如此,融合得到的导航位图不仅包括有第一位图提供的定位信息,还包括有第一位图和第二位图提供障碍物信息,能够准确的对机器人进行定位,以提高机器人的定位精度。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它相关的附图。
图1示出本申请提供的机器人的一种示意性结构框;
图2示出本申请提供的导航位图生成方法的一种示例性流程图;
图3A示出第一位图的一种示意图;
图3B示出导航位图的一种示意图;
图4示出本申请提供的导航位图生成装置的一种示例性结构图。
图中:100-机器人;101-存储器;102-处理器;103-通信接口;300-导航位图生成装置;301-处理模块;302-融合模块。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请的一些实施例中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请选定的一些实施例。基于本申请中的一部分实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在例如上述的利用SLAM技术对机器人进行导航的场景中,可以在机器人的底部配置一激光雷达,并利用激光雷达采集的数据创建导航地图,然后利用创建的导航地图进行实时定位以及导航。
比如,在一些实施例中,机器人可以采用基于关键帧匹配的方案,通过在关键帧激光雷达数据之间建立约束关系,利用激光雷达采集的每一帧雷达数据进行建图;这种建图方案可以较好的实现回环检测与优化,也可以应用在例如大面积环境等建图场景中。
其中,在例如办公室、图书馆、养老院以及医院病房等场景中,一般具有较多的例如桌椅、病床等可移动目标,当这些可移动目标在机器人的移动环境中移动,可能会导致机器人的移动环境发生较大的变化,比如,障碍物在机器人的移动环境中的位置出现变化,从而导致机器人的定位精度较低。
因此,为解决上述相关技术中的至少部分缺陷,本申请提供的一些可能的实施方式为:通过在机器人远离地面的一端设置第一雷达,以及在靠近地面的一端设置第二雷达,从而基于第一雷达采集的第一激光数据,构建第一雷达对应的第一位图,并在构建该第一位图的过程中,计算出第二雷达对应的第二定位数据;从而结合第二定位数据以及第二雷达采集的第二激光数据,构建第二雷达对应的第二位图;进而将第一位图与第二位图进行融合,得到机器人对应的导航位图;如此,能够准确的对机器人进行定位,以提高机器人的定位精度。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参阅图1,图1示出本申请提供的机器人100的一种示意性结构框图,在一些实施例中,机器人100可以包括存储器101、处理器102和通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
存储器101可用于存储软件程序及模块,如本申请提供的导航位图生成装置对应的程序指令/模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理,进而执行本申请提供的导航位图生成方法的步骤。该通信接口103可用于与其他节点设备进行信令或数据的通信。
其中,存储器101可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除可编程只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可以理解的是,图1所示的结构仅为示意,机器人100还可以包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
比如,在一些实施例中,该机器人还可以配置有第一雷达和第二雷达,其中,第一雷达可以设置在机器人远离地面的一端,第二雷达可以设置在机器人靠近地面的一端;比如,以仿人机器人为例,第一雷达可以设置在仿人机器人的头部,第二雷达可以设置在仿人机器人的底部。
下面以图1所示的机器人作为示意性执行主体,对本申请提供的机器人的导航位图生成方法进行示例性说明。
请参阅图2,图2示出本申请提供的导航位图生成方法的一种示例性流程图,该导航位图生成方法可以包括以下步骤:
步骤201,基于第一雷达采集的第一激光数据,构建第一雷达对应的第一位图,并在构建第一位图的过程中,计算出第二雷达对应的第二定位数据。
步骤203,根据第二定位数据以及第二雷达采集的第二激光数据,构建第二雷达对应的第二位图。
步骤205,将第一位图与第二位图进行融合,得到机器人对应的导航位图。
在一些实施例中,第一雷达可以持续的采集第一激光数据,并发送给机器人,第二雷达也可以持续的采集第二激光数据,并发送给机器人。基于此,机器人可以采用例如上述的基于关键帧匹配的方案,利用第一雷达采集的第一激光数据,创建如图3A所示的第一雷达对应的第一位图。
其中,由于第一雷达设置在机器人远离地面的一端,而第二雷达设置在机器人靠近地面的一端,则第一雷达采集激光数据的高度一般高于第二雷达,即第一雷达采集的是远离地面的激光数据,而第二雷达采集的是靠近地面的激光数据;比如,假定第一雷达设置在机器人离地高度的1.5米处,第二雷达设置在机器人离地高度的0.2米处,在例如上述的办公室、图书馆、养老院以及医院病房等场景中,可移动目标的高度一般不超过1.5米。因此,机器人移动场景中的可移动目标一般位于第二雷达扫描的空间区域中,而第一雷达扫描的空间区域中的可移动目标一般较少,环境较为稳定。因此,机器人利用接收的第一激光数据所创建的第一位图精度也较高。
另外,机器人在利用第一激光数据构建第一位图的过程中,还可以计算出第二雷达对应的第二定位数据,该第二定位数据可以用于指示第二雷达在采集第二激光数据的时刻所在的位置信息。
接下来,机器人可以将上述的第二定位数据作为第二雷达在创建定位图时的初始位姿,并根据该第二定位数据以及第二雷达采集的第二激光数据,利用例如上述的基于关键帧匹配的方案,对第二激光数据中的每一帧数据进行匹配定位,从而创建第二雷达对应的第二位图。
然后,机器人在通过上述的步骤创建得到第一位图与第二位图后,机器人可以将第一位图与第二位图进行融合,从而得到如图3B示意的机器人对应的导航位图,其中,融合得到的导航位图不仅包括有第一位图提供的定位信息,还包括有第一位图和第二位图提供障碍物信息,从而在准确的识别机器人移动环境中障碍物的同时,还能够准确的对机器人进行定位,以提高机器人的定位精度。
其中,需要说明的是,在一些可能的场景中,由于第一雷达与第二雷达在各自在采集激光数据时并不同步,即第一雷达与第二雷达各自在采集激光数据时存在时间差。因此,在本申请一些可能的实施方式中,无人机在执行步骤201以计算出第二雷达对应的第二定位数据时,可以在构建第一位图的过程中,采用例如高斯牛顿匹配算法,先匹配出在第二雷达采集第二激光数据的时刻第一雷达对应的第一定位数据。
接下来,机器人可以将第一雷达采集第一激光数据的时刻作为第一时刻,将第二雷达采集第二激光数据的时刻作为第二时刻,获取机器人从第一时刻至第二时刻的移动距离,即:第一雷达在获取第一激光数据的第一帧数据得到时刻至第二雷达在第二激光数据的第一帧数据的时刻机器人移动的距离。
比如,在一些实施例中,可以通过为机器人配置里程计,并将第一雷达在采集第一激光数据时的里程计读数作为第一雷达对应的第一里程计读数,将第二雷达在采集第二激光数据时的里程计读数作为第二雷达对应的第二里程计读数,从而将第一雷达对应的第一里程计读数与第二雷达对应的第二里程计读数两者的里程计差值,作为机器人从第一时刻至第二时刻的移动距离。
示例性地,在一些可能的实施方式中,在为机器人配置里程计时,可以仅配置一个里程计,以通过不同时刻的里程计读数,确定出上述的第一里程计读数以及第二里程计读数;另外,在一些可能的实施方式中,还可以分别为第一雷达配置第一里程计,以及为第二雷达配置第二里程计,从而利用第一里程计以采集第一雷达对应的第一里程计读数,以及利用第二里程计采集第二雷达对应的第二里程计读数,本申请对此不进行限定。
然后,机器人可以根据上述获得的第一定位数据以及移动距离,利用计算出的该移动距离对第一定位数据进行调整,从而消除第一雷达与第二雷达各自在采集激光数据时由于起始位置不一致导致的定位误差,以精确的生成第二雷达对应的第二定位数据;比如将第一定位数据加上移动距离,从而生成第二定位数据。
另外,在一些可能的实施例中,为了提高第二位图的创建精度,机器人在执行步骤203创建第二位图的过程中,可以利用创建的第二位图重新对第二雷达进行定位,即:在创建第二位图的过程中,更新第二雷达的第二定位数据,并基于更新后的第二定位数据继续创建第二位图;如此往复,以提高创建的第二位图的精度。
并且,在一些可能的场景中,由于第一雷达设置在机器人远离地面的一端,第二雷达设置在机器人靠近地面的一端,第一雷达与第二雷达各自能够扫描的空间区域大小并不相同;比如,第一雷达扫描的空间区域一般大于第二雷达扫描的空间区域,则利用第一激光数据构建的第一位图的尺寸一般大于利用第二激光数据构建的第二位图的尺寸。
因此,为了避免第一位图与第二位图的尺寸不一致导致的位图融合异常,在一些可能的实施方式中,机器人在执行步骤205时,可以针对基于第一位图构建的第一像素坐标系,以及基于第二位图构建的第二像素坐标系,先获取第一像素坐标系与第二像素坐标系的位置距离差,即两个像素坐标系在水平方向的平移量,比如,机器人通过计算第一像素坐标系和第二像素坐标系各自的原点在世界坐标系中的坐标差值,得到前述的位置距离差。
其中,在一些可能的场景中,机器人在构建第一像素坐标系时,可以基于第一激光数据中的第一帧数据进行构建;同样地,机器人在构建第二像素坐标系时,可以基于第二激光数据中的第一帧数据进行构建。
接下来,机器人可以根据该位置距离差,将第二位图进行平移,从而将第一位图与第二位图对齐后,将第一位图与第二位图进行合并,以生成如图3B示意的机器人对应的导航位图。
另外,基于与本申请提供的上述机器人的导航位图生成方法相同的发明构思,请参阅图4,图4示出本申请提供的导航位图生成装置300的一种示例性结构图,在一些实施例中,导航位图生成装置300包括处理模块301及融合模块302。
处理模块301,用于基于第一雷达采集的第一激光数据,构建第一雷达对应的第一位图,并在构建第一位图的过程中,计算出第二雷达对应的第二定位数据;
处理模块301还用于,根据第二定位数据以及第二雷达采集的第二激光数据,构建第二雷达对应的第二位图;
融合模块302,用于将第一位图与第二位图进行融合,得到机器人对应的导航位图。
可选地,在一些可能的实施方式中,处理模块301在构建第一位图的过程中,计算出第二雷达对应的第二定位数据时,具体用于:
在构建第一位图的过程中,匹配出在第二雷达采集第二激光数据的时刻第一雷达对应的第一定位数据;
获取机器人从第一时刻至第二时刻的移动距离;其中,第一时刻为第一雷达采集第一激光数据的时刻,第二时刻为第二雷达采集第二激光数据的时刻;
根据第一定位数据与移动距离,生成第二雷达对应的第二定位数据。
可选地,在一些可能的实施方式中,处理模块301在获取机器人从第一时刻至第二时刻的移动距离时,具体用于:
将第一雷达对应的第一里程计读数与第二雷达对应的第二里程计读数两者的里程计差值,作为机器人从第一时刻至第二时刻的移动距离;其中,第一里程计读数为第一雷达在采集第一激光数据时的里程计读数,第二里程计读数为第二雷达在采集第二激光数据时的里程计读数。
可选地,在一些可能的实施方式中,融合模块302在将第一位图与第二位图进行融合,得到机器人对应的导航位图时,具体用于:
获取第一像素坐标系与第二像素坐标系的位置距离差;其中,第一像素坐标系为基于第一位图构建的像素坐标系,第二像素坐标系为基于第二位图构建的像素坐标系;
根据位置距离差,将第一位图与第二位图进行合并,生成机器人对应的导航位图。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的一些实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。
也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。
也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请的一些实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请的一些实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的部分实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (8)
1.一种机器人的导航位图生成方法,其特征在于,所述机器人在远离地面的一端设置有第一雷达,所述机器人在靠近地面的一端设置有第二雷达;
所述方法包括:
基于所述第一雷达采集的第一激光数据,构建所述第一雷达对应的第一位图,并在构建所述第一位图的过程中,计算出所述第二雷达对应的第二定位数据;
根据所述第二定位数据以及所述第二雷达采集的第二激光数据,构建所述第二雷达对应的第二位图;
将所述第一位图与所述第二位图进行融合,得到所述机器人对应的导航位图;
其中,所述在构建所述第一位图的过程中,计算出所述第二雷达对应的第二定位数据,包括:
在构建所述第一位图的过程中,匹配出在所述第二雷达采集所述第二激光数据的时刻所述第一雷达对应的第一定位数据;
获取所述机器人从第一时刻至第二时刻的移动距离;其中,所述第一时刻为所述第一雷达采集所述第一激光数据的时刻,所述第二时刻为所述第二雷达采集所述第二激光数据的时刻;
根据所述第一定位数据与所述移动距离,生成所述第二雷达对应的第二定位数据。
2.根据权利要求1所述的方法,其特征在于,所述获取所述机器人从第一时刻至第二时刻的移动距离,包括:
将所述第一雷达对应的第一里程计读数与所述第二雷达对应的第二里程计读数两者的里程计差值,作为所述机器人从第一时刻至第二时刻的移动距离;其中,所述第一里程计读数为所述第一雷达在采集所述第一激光数据时的里程计读数,所述第二里程计读数为所述第二雷达在采集所述第二激光数据时的里程计读数。
3.如权利要求1-2中任一项所述的方法,其特征在于,所述将所述第一位图与所述第二位图进行融合,得到所述机器人对应的导航位图,包括:
获取第一像素坐标系与第二像素坐标系的位置距离差;其中,所述第一像素坐标系为基于所述第一位图构建的像素坐标系,所述第二像素坐标系为基于所述第二位图构建的像素坐标系;
根据所述位置距离差,将所述第一位图与所述第二位图进行合并,生成所述机器人对应的导航位图。
4.一种机器人的导航位图生成装置,其特征在于,所述机器人在远离地面的一端设置有第一雷达,所述机器人在靠近地面的一端设置有第二雷达;
所述装置包括:
处理模块,用于基于所述第一雷达采集的第一激光数据,构建所述第一雷达对应的第一位图,并在构建所述第一位图的过程中,计算出所述第二雷达对应的第二定位数据;
所述处理模块还用于,根据所述第二定位数据以及所述第二雷达采集的第二激光数据,构建所述第二雷达对应的第二位图;
融合模块,用于将所述第一位图与所述第二位图进行融合,得到所述机器人对应的导航位图;
其中,所述处理模块在构建所述第一位图的过程中,计算出所述第二雷达对应的第二定位数据时,具体用于:
在构建所述第一位图的过程中,匹配出在所述第二雷达采集所述第二激光数据的时刻所述第一雷达对应的第一定位数据;
获取所述机器人从第一时刻至第二时刻的移动距离;其中,所述第一时刻为所述第一雷达采集所述第一激光数据的时刻,所述第二时刻为所述第二雷达采集所述第二激光数据的时刻;
根据所述第一定位数据与所述移动距离,生成所述第二雷达对应的第二定位数据。
5.根据权利要求4所述的装置,其特征在于,所述处理模块在获取所述机器人从第一时刻至第二时刻的移动距离时,具体用于:
将所述第一雷达对应的第一里程计读数与所述第二雷达对应的第二里程计读数两者的里程计差值,作为所述机器人从第一时刻至第二时刻的移动距离;其中,所述第一里程计读数为所述第一雷达在采集所述第一激光数据时的里程计读数,所述第二里程计读数为所述第二雷达在采集所述第二激光数据时的里程计读数。
6.如权利要求4-5中任一项所述的装置,其特征在于,所述融合模块在将所述第一位图与所述第二位图进行融合,得到所述机器人对应的导航位图时,具体用于:
获取所述机器人在第一像素坐标系与第二像素坐标系中的位置距离差;其中,所述第一像素坐标系为基于所述第一位图构建的像素坐标系,所述第二像素坐标系为基于所述第二位图构建的像素坐标系;
根据所述位置距离差,将所述第一位图与所述第二位图进行合并,生成所述机器人对应的导航位图。
7.一种机器人,其特征在于,包括:
存储器,用于存储一个或多个程序;
处理器;
当所述一个或多个程序被所述处理器执行时,实现如权利要求1-3中任一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-3中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011551363.6A CN112797990B (zh) | 2020-12-24 | 2020-12-24 | 一种存储介质、机器人及其导航位图生成方法及装置 |
PCT/CN2021/130783 WO2022134937A1 (zh) | 2020-12-24 | 2021-11-16 | 一种存储介质、机器人及其导航位图生成方法及装置 |
US18/211,531 US20240004400A1 (en) | 2020-12-24 | 2023-09-08 | Storage medium, robot, and method for generating navigation map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011551363.6A CN112797990B (zh) | 2020-12-24 | 2020-12-24 | 一种存储介质、机器人及其导航位图生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112797990A CN112797990A (zh) | 2021-05-14 |
CN112797990B true CN112797990B (zh) | 2023-01-31 |
Family
ID=75805263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011551363.6A Active CN112797990B (zh) | 2020-12-24 | 2020-12-24 | 一种存储介质、机器人及其导航位图生成方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240004400A1 (zh) |
CN (1) | CN112797990B (zh) |
WO (1) | WO2022134937A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112797990B (zh) * | 2020-12-24 | 2023-01-31 | 深圳市优必选科技股份有限公司 | 一种存储介质、机器人及其导航位图生成方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167141B (zh) * | 2017-06-15 | 2020-08-14 | 同济大学 | 基于双一线激光雷达的机器人自主导航系统 |
KR102299825B1 (ko) * | 2017-10-11 | 2021-09-08 | 현대모비스 주식회사 | 차량에서의 장애물 검출장치 및 그 제어방법 |
CN107966989A (zh) * | 2017-12-25 | 2018-04-27 | 北京工业大学 | 一种机器人自主导航系统 |
CN108170145A (zh) * | 2017-12-28 | 2018-06-15 | 浙江捷尚人工智能研究发展有限公司 | 基于激光雷达的机器人避障系统及其应用方法 |
CN109253720B (zh) * | 2018-10-30 | 2020-04-24 | 上海禾赛光电科技有限公司 | 一种摄像头与激光雷达融合系统 |
CN111220992B (zh) * | 2018-11-26 | 2022-05-20 | 长沙智能驾驶研究院有限公司 | 雷达数据融合方法、装置及系统 |
CN112797990B (zh) * | 2020-12-24 | 2023-01-31 | 深圳市优必选科技股份有限公司 | 一种存储介质、机器人及其导航位图生成方法及装置 |
-
2020
- 2020-12-24 CN CN202011551363.6A patent/CN112797990B/zh active Active
-
2021
- 2021-11-16 WO PCT/CN2021/130783 patent/WO2022134937A1/zh active Application Filing
-
2023
- 2023-09-08 US US18/211,531 patent/US20240004400A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN112797990A (zh) | 2021-05-14 |
WO2022134937A1 (zh) | 2022-06-30 |
US20240004400A1 (en) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lin et al. | Autonomous aerial navigation using monocular visual‐inertial fusion | |
KR102314228B1 (ko) | 지도 구축 방법, 장치, 기기 및 판독가능 저장 매체 | |
CN111536964B (zh) | 机器人定位方法及装置、存储介质 | |
KR102548282B1 (ko) | 고정밀도 맵 작성 방법 및 장치 | |
Brachmann et al. | On the limits of pseudo ground truth in visual camera re-localisation | |
JP4650750B2 (ja) | 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置 | |
Botterill et al. | Bag‐of‐words‐driven, single‐camera simultaneous localization and mapping | |
Woo et al. | Localization for autonomous driving | |
Wang et al. | Automated road sign inventory system based on stereo vision and tracking | |
Pan et al. | Gem: online globally consistent dense elevation mapping for unstructured terrain | |
KR20220025028A (ko) | 시각적 비콘 기반의 비콘 맵 구축 방법, 장치 | |
CN112797990B (zh) | 一种存储介质、机器人及其导航位图生成方法及装置 | |
Tong et al. | Multi-UAV collaborative absolute vision positioning and navigation: A survey and discussion | |
US20170108338A1 (en) | Method for geolocating a carrier based on its environment | |
Lehtola et al. | Indoor 3D: Overview on scanning and reconstruction methods | |
JP2014089740A (ja) | ロボットシステム及び地図更新方法 | |
Benedettelli et al. | Cooperative SLAM using M-Space representation of linear features | |
Nys et al. | Automatic 3d buildings compact reconstruction from LiDAR point clouds | |
Chehreghan et al. | A new descriptor for improving geometric-based matching of linear objects on multi-scale datasets | |
Yin et al. | Towards BIM-based robot localization: a real-world case study | |
US20230119214A1 (en) | Four-dimensional data platform using automatic registration for different data sources | |
Beno et al. | Using octree maps and RGBD cameras to perform mapping and A* navigation | |
Girão et al. | Real-time multi-view grid map-based spatial representation for mixed reality applications | |
Dalyot et al. | Integrating network structures of different geometric representations | |
Adurthi | Scan Matching-Based Particle Filter for LIDAR-Only Localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |