CN113724382A - 地图生成方法、装置及电子设备 - Google Patents

地图生成方法、装置及电子设备 Download PDF

Info

Publication number
CN113724382A
CN113724382A CN202110839497.6A CN202110839497A CN113724382A CN 113724382 A CN113724382 A CN 113724382A CN 202110839497 A CN202110839497 A CN 202110839497A CN 113724382 A CN113724382 A CN 113724382A
Authority
CN
China
Prior art keywords
data
point cloud
cloud data
map
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110839497.6A
Other languages
English (en)
Inventor
王颖
李金磊
呼建国
胡永焕
曹广飞
李鸿安
赖国富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN202110839497.6A priority Critical patent/CN113724382A/zh
Publication of CN113724382A publication Critical patent/CN113724382A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种地图生成方法,获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;同时获取针对所述设定区域采集的3D视频数据,以及获取在采集数据过程中的空间移动数据;根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。本发明公开的地图生成方法、装置及电子设备,能够提高负载均衡的精确度,使得机器人的智能化更高,并有效提高机器人提供服务的效率。

Description

地图生成方法、装置及电子设备
技术领域
本发明涉及机器人技术领域,特别涉及一种地图生成方法、装置及电子设备。
背景技术
随着机器人技术的飞速发展,使得机器人应用场景越来越多,机器人可以应用在例如银行和商场等场景下提供咨询和导航服务,还可以应用在例如工厂和公园等场景下提供巡逻和咨询服务,还可以是应用在室内场景下提供扫地和辅助服务(例如送餐)以方便用户使用,使得用户的体验更好。
由于现有的机器人在室内场场景下首次提供服务时,需要通过人工手持扫图以建立室内环境地图,然后将室内环境地图发送给机器人,使得机器人在提供服务时,通过室内环境地图确定行驶路径来提供服务,使得现有机器人在提供服务之前需要通过人工预先建立室内环境模型,导致机器人提供服务的效率较低。
发明内容
本发明实施例提供一种地图生成方法、装置及电子设备,使得机器人的智能化更高,并有效提高机器人提供服务的效率。
本发明实施例第一方面提供一种地图生成方法,所述方法包括:
获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
同时获取针对所述设定区域采集的3D视频数据,以及获取在采集数据过程中的空间移动数据;
根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
可选的,所述根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图,包括:
将所述3D视频数据与所述2D点云数据和所述3D点云数据进行同步,得到同步3D视频数据;
根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图。
可选的,所述根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图,包括:
利用所述空间移动数据,对所述2D点云数据、所述3D点云数据和同步3D视频数据进行校准,得到校准2D点云数据、校准3D点云数据和校准3D视频数据;
根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图。
可选的,所述根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图,包括:
对所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据进行数据拟合处理和仿真处理,生成所述区域地图,其中,所述区域地图包括2D地图、3D地图和增强现实地图中的至少一种地图。
可选的,若所述区域地图包括2D地图、3D地图和增强现实地图,所述根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图,包括:
根据所述校准2D点云数据,生成所述2D地图;
根据所述校准3D点云数据,生成所述3D地图;
根据所述校准3D点云数据和所述校准3D视频数据,生成所述增强现实地图;
根据所述2D地图、所述3D地图和所述增强现实地图,生成所述区域地图。
可选的,所述获取在采集数据过程中的空间移动数据,包括:
获取在采集数据过程中的定位数据、惯导数据和红外数据;
根据所述定位数据、所述惯导数据和所述红外数据,获取所述空间移动数据。
可选的,在生成所述设定区域的区域地图时,所述方法还包括:
根据所述区域地图,确定出所述机器人的运行路线。
本发明实施例第二方面还提供一种地图生成装置,所述装置包括:
点云数据获取单元,用于获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
视频及空间数据获取单元,用于同时获取针对所述设定区域采集的3D视频数据,以及同时获取在采集数据过程中的空间移动数据;
地图生成单元,用于根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
可选的,所述地图生成单元,用于将所述3D视频数据与所述2D点云数据和所述3D点云数据进行同步,得到同步3D视频数据;根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图。
可选的,还包括:
路线获取单元,用于在生成所述设定区域的区域地图时,根据所述区域地图,确定出所述机器人的运行路线。
本发明实施例第三方面提供了一种电子设备,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上的程序存储于存储器中,且经配置以由一个或者一个以上的处理器执行所述一个或者一个以上的程序所包含的用于进行如第一方面提供的地图生成方法对应的操作指令。
本发明实施例第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面提供的地图生成方法对应的步骤。
本申请实施例中的上述一个或至少一个技术方案,至少具有如下技术效果:
基于上述技术方案,获取针对设定区域同步采集的2D点云数据和3D点云数据,并同时获取3D视频数据,以及获取在采集数据过程中的空间移动数据;再根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图;由于2D点云数据和3D点云数据是基于机器人的激光传感器采集设定区域的雷达信息生成的,如此,在机器人提供服务之前,可以通过机器人自身采集的空间移动数据、2D点云数据、3D点云数据和3D视频数据,即可生成区域地图,而无需人工扫图而获取到区域地图,使得机器人的智能化更高,而且与人工扫图相比机器人自身生成区域地图的效率更高,使得机器人能够更快的为用户提供服务,从而能够有效提高机器人提供服务的效率。
附图说明
图1为本申请实施例提供的地图生成方法的流程示意图;
图2为本申请实施例提供的地图生成装置的方框图;
图3为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图对本申请实施例技术方案的主要实现原理、具体实施方式及其对应能够达到的有益效果进行详细的阐述。
实施例
请参考图1,本申请实施例提供一种地图生成方法,所述方法包括:
S101、获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
S102、同时获取针对所述设定区域采集的3D视频数据,以及获取在采集数据过程中的空间移动数据;
S103、根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
本说明书实施例中,激光传感器可以是多线激光雷达,例如4线、8线、12线和16线等激光雷达,多线代表激光传感器的线束数量,线束数量越高,其采集数据的密度越高且精度越高。优选的,激光传感器为16线激光雷达。
其中,在步骤S101中,设定区域通常为室内场景,例如可以是一个客厅、一个房子内的所有空间,一个会议室、商场、展会展馆和大型会议场等,当机器人首次进入设定区域时,启动设置在机器人中的激光传感器采集设定区域的雷达信息,根据雷达信息,生成同步的2D点云数据和3D点云数据,从而获取到2D点云数据和3D点云数据。此时,可以根据雷达信息,生成3D点云数据,再对3D点云数据进行降维处理,得到2D点云数据,此时,能够自动将3D点云数据和2D点云数据进行同步。当然,也可以直接根据雷达信息,生成3D点云数据和2D点云数据,本说明书不作具体限制。
本说明书实施例中的执行主体可以是机器人,也可以是与机器人通信的远程控制平台,在执行主体是远程控制平台时,在机器人采集到2D点云数据和3D点云数据之后,将2D点云数据和3D点云数据通过无线网络传输给远程控制平台,使得远程控制平台获取到2D点云数据和3D点云数据。相应地,针对其他任意一种数据,若执行主体是远程控制平台,在机器人获取到该数据之后,通过无线网络传输给远程控制平台,使得远程控制平台能够获取到该数据。
本说明书实施例中,机器人可以是可自主移动的数据采集机器人和扫地机器人等;进一步的,远程控制平台可以是笔记本电脑、台式电脑和一体机等电子设备。
具体来讲,由于2D点云数据和3D点云数据是基于设置在机器人中的同一个激光传感器采集的雷达信息同步生成的,从而能够实现2D点云数据和3D点云数据的同步。即,通过硬件(激光传感器)即可实现2D点云数据和3D点云数据的同步。
具体地,以激光雷达为16线激光雷达为例,该激光传感器的激光波长可以是905纳米(nm),具有100米远量程测量距离,其水平方向测量角度范围360°、垂直测量角度范围30°、测量频率可以为5到20Hz,该激光传感器可以每秒高达30万个测量点输出,如此,使得激光传感器的输出包括激光的波长、粗糙度、入射角和目标材质的回波强度等雷达信息,通过机器人对雷达信息进行分析处理,以生成同步的2D点云数据和3D点云数据,此时,2D点云数据可以包含距离值、物体反射率、旋转角度和同步时间(μs分辨率)等信息,同样3D点云数据也包含距离值、物体反射率、旋转角度和同步时间(μs分辨率)等信息。
在获取2D点云数据和3D点云数据的同时,执行步骤S102。当然,也可以先执行步骤S101,后执行步骤S102,或者后执行步骤S102再执行步骤S101,本说明书不作具体限制。
在步骤S102中,可以通过设置在机器人中的全景摄像装置采集3D视频数据,3D视频数据可以包括3D图像,如此,可以在获取2D点云数据和3D点云数据的同时,也获取到3D视频数据。当然,也可与通过与机器人通信的全景设置采集3D视频数据,本说明书不作具体限制。
以及,在机器人采集2D点云数据和3D点云数据,和/或,3D视频数据的过程中,获取机器人在采集上述数据过程中的定位数据、惯导数据和红外数据;并根据定位数据、惯导数据和红外数据,获取空间移动数据。此时,可以直接将定位数据、惯导数据和红外数据作为空间移动数据,还可以对定位数据、惯导数据和红外数据进行分析,获取到机器人采集数据过程中的空间信息、位置信息、方向信息和移动信息,将空间信息、位置信息、方向信息和移动信息作为空间移动数据,本说明书不作具体限制。
本说明书实施例中,全景摄像装置可以是4向全景相机、6向全景相机和8向全景相机等,以实时采集机器人采集数据时的四周图像,根据实时采集的四周图像,组成3D视频数据。
具体来讲,在采集3D视频数据时,可以与采集2D点云数据和3D点云数据同步完成,也可以异步完成。
具体地,可以通过设置在机器人中的定位传感器例如GPS来获取定位数据,还可以通过设置在机器人中的惯性传感器来获取传导数据,以及通过设置在机器人中的红外传感器来获取红外数据,从而可以获取到定位数据、惯导数据和红外数据;再根据定位数据、惯导数据和红外数据,获取空间移动数据,获取空间移动数据。此时,由于定位数据、惯导数据和红外数据受到光照变化和材质变化等因素影响较小,使得定位数据、惯导数据和红外数据的精确度较高,从而使得空间移动数据的精确度也会随之提高。当然,定位传感器、惯性传感器和红外传感器可以外置,并确保外置的传感器与机器人保持联动,从而也能够获取到空间移动数据。
在获取到3D视频数据和空间移动数据之后,执行步骤S103。
在步骤S103中,首先将3D视频数据与2D点云数据和3D点云数据进行同步,得到同步3D视频数据;根据空间移动数据、2D点云数据、3D点云数据和同步3D视频数据,生成区域地图。
具体来讲,在将3D视频数据与2D点云数据和3D点云数据进行同步时,由于3D视频数据与2D点云数据是同步获取的,如此,可以将3D视频数据和3D点云数据在时间戳上保持同步,此时,可以通过3D视频数据中的坐标与3D点云数据中的坐标对应关系,以使得3D视频数据和3D点云数据在时间戳上保持同步,由于2D点云数据与3D点云数据已同步,从而使得3D视频数据与2D点云数据保持同步。当然,也可以将3D视频数据与2D点云数据进行同步,从而自动实现3D视频数据与2D点云数据进行同步,从而获取到同步3D视频数据。
在获取到同步3D视频之后,可以利用空间移动数据,对2D点云数据、3D点云数据和同步3D视频数据进行校准,得到校准2D点云数据、校准3D点云数据和校准3D视频数据;再根据校准2D点云数据、校准3D点云数据和校准3D视频数据,生成区域地图。
由于定位数据、惯导数据和红外数据受到光照变化和材质变化等因素影响较小,使得定位数据、惯导数据和红外数据的精确度较高,从而使得空间移动数据的精确度也会随之提高,如此,在通过空间移动数据对2D点云数据、3D点云数据和同步3D视频数据进行校准时,使得校准得到的校准2D点云数据、校准3D点云数据和校准3D视频数据的精确度更高,也促使基于校准2D点云数据、校准3D点云数据和校准3D视频数据生成的区域地图的精确度也会随之提高。
具体来讲,由于定位数据、惯导数据和红外数据受到光照变化和材质变化等因素影响较小,使得定位数据、惯导数据和红外数据的精确度较高,能游侠降低实际现场复杂的光照情况、材质变化等因素产生的数据采集噪音、实现实时降噪与修正,进一步提高校准2D点云数据、校准3D点云数据和校准3D视频数据的精度。其中,通过空间移动数据对2D点云数据、3D点云数据和同步3D视频数据进行校准可以在机器人端执行,也可以在远程控制端执行,本说明书不作具体限制。
具体地,在根据校准2D点云数据、校准3D点云数据和校准3D视频数据,生成区域地图时,对校准2D点云数据、校准3D点云数据和校准3D视频数据进行数据拟合处理和仿真处理,生成区域地图,其中,区域地图包括2D地图、3D地图和增强现实地图中的至少一种地图。此时,可以直接生成2D地图、3D地图和增强现实地图作为区域地图,也可以生成2D地图、3D地图和增强现实(Augmented Reality,简称AR)地图中的两种或一种地图作为区域地图,本说明书不作具体限制。
具体来讲,若区域地图包括2D地图、3D地图和增强现实地图,此时,可以根据校准2D点云数据,生成2D地图;根据校准3D点云数据,生成3D地图;根据校准3D点云数据和校准3D视频数据,生成增强现实地图;根据2D地图、3D地图和AR地图,生成区域地图。此时,使得区域地图包含2D地图、3D地图和AR地图。
具体地,在对校准2D点云数据、校准3D点云数据和校准3D视频数据进行数据拟合处理和仿真处理时,可以先对校准2D点云数据、校准3D点云数据和校准3D视频数据进行拟合处理,将校准2D点云数据、校准3D点云数据和校准3D视频数据中的每个采集点进行对应,使得校准2D点云数据的每个采集点均会与校准3D点云数据和校准3D视频数据中的一个采集点对应,然后将一一对应的采集点进行仿真处理,可以通过算法仿真器对校准2D点云数据进行仿真处理,得到2D地图;通过算法仿真器对校准3D点云数据进行仿真处理,得到3D地图;以及通过算法仿真器对校准3D点云数据和校准3D视频数据进行仿真处理,得到AR地图,以及在生成每种地图时,可以通过回环检测对每种地图进行校准,使得生成的每种地图的精确度更高。此时,通过拟合出来和仿真处理即可生成区域地图,而无需进行模型计算,能够有效降低计算量,缩短生成区域地图的时间,确保了实时性,而且由于校准后的校准2D点云数据、校准3D点云数据和校准3D视频数据的精确度较高,确保了生成的区域地图的精确度。
本说明书另一实施例中,在生成设定区域的区域地图的同时,通过路径规划算法对校准2D点云数据和校准3D点云数据进行处理,确定出机器人的运行路线。
具体地,可以首先对校准2D点云数据和校准3D点云数据进行拟合处理,再通过路径划分算法对拟合处理后的2D点云数据和3D点云数据进行处理,得到机器人的运行路线。
如此,使得机器人在首次进入设定区域时即处于扫图阶段时,通过计算得到的运行路线可以让机器人有自主探索的能力;而在机器人处于导航阶段,通过计算得到的运行路线是可以让机器人找到每一条路径的最优解,提高导航的准确性。
在生成设定区域的区域地图之后,还可以根据区域地图,确定出机器人的运行路线。
具体来讲,在生成区域地图的同时,可以根据设定的寻路策略,确定出机器人的运行路线,其中,寻路策略包含绕过障碍物且最短路径策略,还可以包含最长路径策略等,寻路策略可以根据实际需求进行设定,本说明书不作具体限制。
具体地,也可以在生成设定区域的区域地图的同时,获取到根据寻路策略而确定出的导航路线作为运行路线,使得在智能输出区域地图的同时,确定出机器人的运行路线,而无需人工干预数据的处理,提高自动化的程度,提高机器人的工作效率。
在实际应用过程中,在通过远程控制平台来操作机器人时,可以实时管理和监控机器人的状态,实现远程监控机器人的管理和监控操作;而且还可以通过远程发送指令以使得机器人自动采集设定区域的数据,并生成区域地图;由于机器人是同时采集的2D点云数据、3D点云数据、3D视频数据和空间移动数据,使得2D点云数据、3D点云数据、3D视频数据和空间移动数据回传给远程控制平台的实时性更高,同步度也高,以及可用性也会更高。以及在由于3D视频数据、2D点云数据、3D点云数据和空间移动数据均会回传至远程控制平台,如此,可以通过远程控制平台的后台可以自动的导出3D视频数据、2D点云数据、3D点云数据和空间移动数据,使得导出数据的效率提高,在数据量较大时,可以将导出的数据存储在另设的存储设备中,而确保远程控制平台的存储空间足用,降低由于远程控制平台的存储空间已满导致数据丢掉的概率。
基于上述技术方案,获取针对设定区域同步采集的2D点云数据和3D点云数据,并同时获取3D视频数据,以及获取在采集数据过程中的空间移动数据;再根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图;由于2D点云数据和3D点云数据是基于机器人的激光传感器采集设定区域的雷达信息生成的,如此,在机器人提供服务之前,可以通过机器人自身采集的空间移动数据、2D点云数据、3D点云数据和3D视频数据,即可生成区域地图,而无需人工扫图而获取到区域地图,使得机器人的智能化更高,而且与人工扫图相比机器人自身生成区域地图的效率更高,使得机器人能够更快的为用户提供服务,从而能够有效提高机器人提供服务的效率。
针对上述实施例提供一种地图生成方法,本申请实施例还对应提供一种用地图生成装置,请参考图2,该装置包括:
点云数据获取单元201,用于获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
视频及空间数据获取单元202,用于同时获取针对所述设定区域采集的3D视频数据,以及同时获取在采集数据过程中的空间移动数据;
地图生成单元203,用于根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
在一种可选的实施方式中,地图生成单元203,用于将所述3D视频数据与所述2D点云数据和所述3D点云数据进行同步,得到同步3D视频数据;根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图。
在一种可选的实施方式中,地图生成单元203,用于利用所述空间移动数据,对所述2D点云数据、所述3D点云数据和同步3D视频数据进行校准,得到校准2D点云数据、校准3D点云数据和校准3D视频数据;根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图。
在一种可选的实施方式中,地图生成单元203,用于对所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据进行数据拟合处理和仿真处理,生成所述区域地图,其中,所述区域地图包括2D地图、3D地图和增强现实地图中的至少一种地图。
在一种可选的实施方式中,地图生成单元203,用于若所述区域地图包括2D地图、3D地图和增强现实地图,根据所述校准2D点云数据,生成所述2D地图;根据所述校准3D点云数据,生成所述3D地图;根据所述校准3D点云数据和所述校准3D视频数据,生成所述增强现实地图;根据所述2D地图、所述3D地图和所述增强现实地图,生成所述区域地图。
在一种可选的实施方式中,视频及空间数据获取单元202,用于获取在采集数据过程中的定位数据、惯导数据和红外数据;根据所述定位数据、所述惯导数据和所述红外数据,获取所述空间移动数据。
在一种可选的实施方式中,所述装置还包括:
路线获取单元,用于在生成所述设定区域的区域地图时,根据所述区域地图,确定出所述机器人的运行路线。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图3是根据一示例性实施例示出的一种地图生成方法的电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图3,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/展现(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个展现接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为展现和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于展现音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由电子设备800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种地图生成方法,所述方法包括:
获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
同时获取针对所述设定区域采集的3D视频数据,以及获取在采集数据过程中的空间移动数据;
根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种地图生成方法,其特征在于,所述方法包括:
获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
同时获取针对所述设定区域采集的3D视频数据,以及获取在采集数据过程中的空间移动数据;
根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
2.如权利要求1所述的方法,其特征在于,所述根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图,包括:
将所述3D视频数据与所述2D点云数据和所述3D点云数据进行同步,得到同步3D视频数据;
根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图。
3.如权利要求2所述的方法,其特征在于,所述根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图,包括:
利用所述空间移动数据,对所述2D点云数据、所述3D点云数据和同步3D视频数据进行校准,得到校准2D点云数据、校准3D点云数据和校准3D视频数据;
根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图。
4.如权利要求3所述的方法,其特征在于,所述根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图,包括:
对所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据进行数据拟合处理和仿真处理,生成所述区域地图,其中,所述区域地图包括2D地图、3D地图和增强现实地图中的至少一种地图。
5.如权利要求4所述的方法,其特征在于,若所述区域地图包括2D地图、3D地图和增强现实地图,所述根据所述校准2D点云数据、所述校准3D点云数据和所述校准3D视频数据,生成所述区域地图,包括:
根据所述校准2D点云数据,生成所述2D地图;
根据所述校准3D点云数据,生成所述3D地图;
根据所述校准3D点云数据和所述校准3D视频数据,生成所述增强现实地图;
根据所述2D地图、所述3D地图和所述增强现实地图,生成所述区域地图。
6.如权利要求1-5任一项所述的方法,其特征在于,所述获取在采集数据过程中的空间移动数据,包括:
获取在采集数据过程中的定位数据、惯导数据和红外数据;
根据所述定位数据、所述惯导数据和所述红外数据,获取所述空间移动数据。
7.如权利要求1-5任一项所述的方法,其特征在于,在生成所述设定区域的区域地图时,所述方法还包括:
根据所述区域地图,确定出所述机器人的运行路线。
8.一种地图生成装置,其特征在于,所述装置包括:
点云数据获取单元,用于获取针对设定区域同步采集的2D点云数据和3D点云数据,其中,所述2D点云数据和所述3D点云数据是基于机器人的激光传感器采集所述设定区域的雷达信息生成的;
视频及空间数据获取单元,用于同时获取针对所述设定区域采集的3D视频数据,以及同时获取在采集数据过程中的空间移动数据;
地图生成单元,用于根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述3D视频数据,生成所述设定区域的区域地图。
9.如权利要求8所述的装置,其特征在于,所述地图生成单元,用于将所述3D视频数据与所述2D点云数据和所述3D点云数据进行同步,得到同步3D视频数据;根据所述空间移动数据、所述2D点云数据、所述3D点云数据和所述同步3D视频数据,生成所述区域地图。
10.如权利要求8或9所述的装置,其特征在于,还包括:
路线获取单元,用于在生成所述设定区域的区域地图时,根据所述区域地图,确定出所述机器人的运行路线。
11.一种电子设备,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上的程序存储于存储器中,且经配置以由一个或者一个以上的处理器执行所述一个或者一个以上的程序所包含的用于进行如权利要求1~7任一所述方法对应的操作指令。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~7任一所述方法对应的步骤。
CN202110839497.6A 2021-07-23 2021-07-23 地图生成方法、装置及电子设备 Pending CN113724382A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110839497.6A CN113724382A (zh) 2021-07-23 2021-07-23 地图生成方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110839497.6A CN113724382A (zh) 2021-07-23 2021-07-23 地图生成方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN113724382A true CN113724382A (zh) 2021-11-30

Family

ID=78673919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110839497.6A Pending CN113724382A (zh) 2021-07-23 2021-07-23 地图生成方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN113724382A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887057A (zh) * 2019-01-30 2019-06-14 杭州飞步科技有限公司 生成高精度地图的方法和装置
CN110400363A (zh) * 2018-04-24 2019-11-01 北京京东尚科信息技术有限公司 基于激光点云的地图构建方法和装置
CN110428490A (zh) * 2018-04-28 2019-11-08 北京京东尚科信息技术有限公司 构建模型的方法和装置
CN111427061A (zh) * 2020-06-15 2020-07-17 北京云迹科技有限公司 一种机器人建图方法、装置,机器人及存储介质
CN112965063A (zh) * 2021-02-11 2021-06-15 深圳市安泽智能机器人有限公司 一种机器人建图定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110400363A (zh) * 2018-04-24 2019-11-01 北京京东尚科信息技术有限公司 基于激光点云的地图构建方法和装置
CN110428490A (zh) * 2018-04-28 2019-11-08 北京京东尚科信息技术有限公司 构建模型的方法和装置
CN109887057A (zh) * 2019-01-30 2019-06-14 杭州飞步科技有限公司 生成高精度地图的方法和装置
CN111427061A (zh) * 2020-06-15 2020-07-17 北京云迹科技有限公司 一种机器人建图方法、装置,机器人及存储介质
CN112965063A (zh) * 2021-02-11 2021-06-15 深圳市安泽智能机器人有限公司 一种机器人建图定位方法

Similar Documents

Publication Publication Date Title
EP3605314A1 (en) Display method and apparatus
WO2022036980A1 (zh) 位姿确定方法、装置、电子设备、存储介质及程序
CN108495032B (zh) 图像处理方法、装置、存储介质及电子设备
KR20190086658A (ko) 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체
JP6348611B2 (ja) 自動ピント合わせ方法、装置、プログラム及び記録媒体
WO2018205844A1 (zh) 视频监控装置、监控服务器及系统
CN110853095B (zh) 相机定位方法、装置、电子设备及存储介质
EP3352453B1 (en) Photographing method for intelligent flight device and intelligent flight device
CN113205549B (zh) 深度估计方法及装置、电子设备和存储介质
CN112348933B (zh) 动画生成方法、装置、电子设备及存储介质
CN107172360A (zh) 无人机跟拍方法及装置
CN112432637B (zh) 定位方法及装置、电子设备和存储介质
CN113115000B (zh) 地图生成方法及装置、电子设备和存储介质
CN114170302A (zh) 相机外参标定方法、装置、电子设备及存储介质
CN111724412A (zh) 确定运动轨迹的方法、装置及计算机存储介质
CN112179352A (zh) 空间地图构建方法及装置、移动控制方法及装置、介质
US20200125032A1 (en) Method and apparatus for adjusting holographic content and computer readable storage medium
CN112837372A (zh) 数据生成方法及装置、电子设备和存储介质
CN112991439A (zh) 定位目标物体的方法、装置、电子设备及介质
CN113724382A (zh) 地图生成方法、装置及电子设备
CN112432636B (zh) 定位方法及装置、电子设备和存储介质
CN111147745B (zh) 拍摄方法、装置、电子设备及存储介质
CN110087002B (zh) 一种拍摄方法及终端设备
CN113747113A (zh) 图像显示方法及装置、电子设备、计算机可读存储介质
CN112804481B (zh) 监控点位置的确定方法、装置及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination