CN115995026A - 地图生成方法、装置、电子设备和存储介质 - Google Patents

地图生成方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN115995026A
CN115995026A CN202111210482.XA CN202111210482A CN115995026A CN 115995026 A CN115995026 A CN 115995026A CN 202111210482 A CN202111210482 A CN 202111210482A CN 115995026 A CN115995026 A CN 115995026A
Authority
CN
China
Prior art keywords
information
target object
environment image
dimensional map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111210482.XA
Other languages
English (en)
Inventor
张琼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd, Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN202111210482.XA priority Critical patent/CN115995026A/zh
Publication of CN115995026A publication Critical patent/CN115995026A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本公开涉及一种地图生成方法、装置、电子设备和存储介质,涉及电子信息技术领域,该方法包括:获取目标区域在预设高度的环境图像。对环境图像进行识别,确定环境图像中至少一个目标物体的轮廓信息。根据环境图像的拍摄信息,确定环境图像中目标物体的位置信息。根据轮廓信息和位置信息,生成目标区域的二维地图。根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。本公开能够降低数据处理的复杂度,提高三维地图的生成效率和准确度。

Description

地图生成方法、装置、电子设备和存储介质
技术领域
本公开涉及电子信息技术领域,尤其涉及一种地图生成方法、装置、电子设备和存储介质。
背景技术
随着社会的不断发展,地图导航在人们的日常生活中的应用变得越来越广泛,地图导航所能提供的功能也变得越来越智能化。地图导航的实现,依赖于地图的准确性,进一步的,为了给用户提供更加接近于真实世界的地图,往往会采用三维地图进行导航。因此,如何获取准确的三维地图成为了地图导航领域研究的重点。
发明内容
为克服相关技术中存在的问题,本公开提供一种地图生成方法、装置、电子设备和存储介质。
根据本公开实施例的第一方面,提供一种地图生成方法,所述方法包括:
获取目标区域在预设高度的环境图像;
对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息;
根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息;
根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图;
根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图。
在一些实施例中,所述对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息,包括:
将所述环境图像输入训练好的识别模型;
获取所述识别模型对输出的所述环境图像的语义识别结果;
根据所述语义识别结果确定所述环境图像中包括的至少一个所述目标物体的所述轮廓信息。
在一些实施例中,所述根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息,包括:
确定所述环境图像被拍摄时的拍摄位置和位姿信息,所述拍摄位置包括拍摄所述环境图像时所处的所述预设高度和经纬度,所述位姿信息包括拍摄所述环境图像时所处的拍摄角度;
根据所述拍摄位置和所述位姿信息,确定所述环境图像中每个所述目标物体的所述位置信息。
在一些实施例中,所述根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图,包括:
按照预设的优化规则,对每个所述目标物体的所述轮廓信息进行优化,以得到优化后的轮廓信息;
根据所述目标物体的优化后的轮廓信息和所述位置信息,生成所述目标区域的二维地图。
在一些实施例中,所述环境图像为多个,所述根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图,包括:
将多个所述环境图像进行融合,以得到区域图像;
根据所述区域图像以及每个所述环境图像中所述目标物体的所述轮廓信息和所述位置信息,生成所述二维地图。
在一些实施例中,所述根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图,包括:
根据每个所述目标物体的所述位置信息,以及所述目标区域的高程地图,确定每个所述目标物体的高程信息;
将所述二维地图中每个所述目标物体的轮廓按照该目标物体的所述高程信息进行拉伸,生成所述三维地图。
在一些实施例中,所述识别模型是通过以下方式进行训练的:
获取样本输入集和样本输出集,所述样本输入集包括多个样本输入,所述样本输入包括所述目标区域在所述预设高度的样本图像,所述样本输出集中包括与每个所述样本输入对应的样本输出,每个所述样本输出包括对应的所述样本图像中包括的每个目标物体的实际轮廓信息;
将所述样本输入集作为所述识别模型的输入,将所述样本输出集作为所述识别模型的输出,以训练所述识别模型。
根据本公开实施例的第二方面,提供一种地图生成装置,所述装置包括:
获取模块,被配置为获取目标区域在预设高度的环境图像;
第一确定模块,被配置为对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息;
第二确定模块,被配置为根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息;
第一生成模块,被配置为根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图;
第二生成模块,被配置为根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图。
在一些实施例中,所述第一确定模块被配置为:
将所述环境图像输入训练好的识别模型;
获取所述识别模型对输出的所述环境图像的语义识别结果;
根据所述语义识别结果确定所述环境图像中包括的至少一个所述目标物体的所述轮廓信息。
在一些实施例中,所述第二确定模块包括:
第一确定子模块,被配置为确定所述环境图像被拍摄时的拍摄位置和位姿信息,所述拍摄位置包括拍摄所述环境图像时所处的所述预设高度和经纬度,所述位姿信息包括拍摄所述环境图像时所处的拍摄角度;
第二确定子模块,被配置为根据所述拍摄位置和所述位姿信息,确定所述环境图像中每个所述目标物体的所述位置信息。
在一些实施例中,所述第一生成模块包括:
优化子模块,被配置为按照预设的优化规则,对每个所述目标物体的所述轮廓信息进行优化,以得到优化后的轮廓信息;
第一生成子模块,被配置为根据所述目标物体的优化后的轮廓信息和所述位置信息,生成所述目标区域的二维地图。
在一些实施例中,所述环境图像为多个,所述第一生成模块还包括:
融合子模块,被配置为将多个所述环境图像进行融合,以得到区域图像;
第二生成子模块,被配置为根据所述区域图像以及每个所述环境图像中所述目标物体的所述轮廓信息和所述位置信息,生成所述二维地图。
在一些实施例中,所述第二生成模块包括:
第三确定子模块,被配置为根据每个所述目标物体的所述位置信息,以及所述目标区域的高程地图,确定每个所述目标物体的高程信息;
拉伸子模块,被配置为将所述二维地图中每个所述目标物体的轮廓按照该目标物体的所述高程信息进行拉伸,生成所述三维地图。
在一些实施例中,所述识别模型是通过以下方式进行训练的:
获取样本输入集和样本输出集,所述样本输入集包括多个样本输入,所述样本输入包括所述目标区域在所述预设高度的样本图像,所述样本输出集中包括与每个所述样本输入对应的样本输出,每个所述样本输出包括对应的所述样本图像中包括的每个目标物体的实际轮廓信息;
将所述样本输入集作为所述识别模型的输入,将所述样本输出集作为所述识别模型的输出,以训练所述识别模型。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取目标区域在预设高度的环境图像;
对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息;
根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息;
根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图;
根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的地图生成方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
首先获取目标区域在预设高度的环境图像,之后对根据环境图像进行识别,确定环境图像中至少一个目标物体的轮廓信息,并根据环境图像的拍摄信息,确定环境图像中目标物体的位置信息。然后根据环境图像中的目标物体的轮廓信息和位置信息,生成目标区域的二维地图。最后,根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。本公开根据目标物体的轮廓信息和位置信息生成二维地图,并根据二维地图和每个目标物体对应的高程信息生成三维地图,能够降低数据处理的复杂度,提高三维地图的生成效率和准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据本公开一示例性实施例示出的一种地图生成方法的流程图;
图2是根据本公开一示例性实施例示出的另一种地图生成方法的流程图;
图3是根据本公开一示例性实施例示出的另一种地图生成方法的流程图;
图4是根据本公开一示例性实施例示出的一种确定位置信息的示意图;
图5是根据本公开一示例性实施例示出的另一种地图生成方法的流程图;
图6是根据本公开一示例性实施例示出的另一种地图生成方法的流程图;
图7是根据本公开一示例性实施例示出的另一种地图生成方法的流程图;
图8是根据本公开一示例性实施例示出的一种训练识别模型的流程图;
图9是根据本公开一示例性实施例示出的一种地图生成装置的框图;
图10是根据本公开一示例性实施例示出的另一种地图生成装置的框图;
图11是根据本公开一示例性实施例示出的另一种地图生成装置的框图;
图12是根据本公开一示例性实施例示出的另一种地图生成装置的框图;
图13是根据本公开一示例性实施例示出的另一种地图生成装置的框图;
图14是根据本公开一示例性实施例示出的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。在介绍本公开示出的地图生成方法、装置、电子设备和存储介质之前,首先对本公开的应用场景进行介绍。在地图导航、无线信号覆盖仿真测试和城市规划建设等领域,通常需要使用三维地图。通常情况下,可以预先采集大量的点云数据,并对点云数据进行处理来生成三维地图。然而,要建立三维地图,点云数据的数据量巨大,并且处理方法复杂,导致生成三维地图的过程中数据存储量和处理量大,生成三维地图的效率和准确度较低。
为了克服相关技术中的问题,本公开提供一种地图生成方法、装置、电子设备和存储介质。
图1是根据本公开一示例性实施例示出的一种地图生成方法的流程图,应用于电子设备,电子设备例如可以是移动终端、车载智能终端、数字TV、台式计算机等,如图1所示,该方法包括:
在步骤S101中,获取目标区域在预设高度的环境图像。
在一些实施例中,可以通过与电子设备处于通信连接的图像采集装置来获取目标区域在预设高度的环境图像。
举例来说,首先可以通过图像采集装置在预设高度(例如20m),采集目标区域内的环境图像。其中,图像采集装置可以是飞行器(例如无人机、飞机等)或者卫星,图像采集装置可以是一个也可以是多个。也就是说,对于一个目标区域,可以采集一个环境图像,也可以采集多个环境图像,本公开对此不作具体限定。例如:对于较小的目标区域(例如一栋写字楼、一个幼儿园等),可以采集一个环境图像,对于较大的目标区域(例如一个园区、一个城市等),可以采集多个环境图像。
在步骤S102中,对环境图像进行识别,确定环境图像中至少一个目标物体的轮廓信息。
在步骤S103中,根据环境图像的拍摄信息,确定环境图像中的目标物体的位置信息。
示例地,可以将图像采集装置采集到的一个或多个环境图像,输入预设的识别模型,以得到识别模型输出的每个环境图像中一个或多个目标物体的轮廓信息。识别模型可以先对每个环境图像进行语义识别,以识别出该环境图像中的目标物体,再识别每个目标物体的轮廓信息。其中,目标物体例如可以是建筑物、道路、路标等,本公开对此不作具体限定。相应地,目标物体的轮廓信息用于表征目标物体的轮廓,例如,轮廓信息可以为:圆形,以及圆形的半径,再比如轮廓信息可以为:矩形,以及矩形的长和宽,或者轮廓信息可以为:不规则的轮廓。
以目标区域为故宫、图像采集装置为飞行器、目标物体为建筑物为例。可以获取飞行器在预设高度采集到的一个故宫的环境图像,并将故宫的环境图像输入识别模型,从而得到识别模型输出的故宫内的所有建筑物的轮廓信息。以目标区域为北京市、图像采集装置为卫星、目标物体为道路为例,可以获取卫星在预设高度采集到的多个北京市的环境图像,并将多个环境图像输入识别模型,得到识别模型输出的每个环境图像中道路的轮廓信息,从而得到北京市所有道路的轮廓信息。
在得到轮廓信息之后,可以获取环境图像的拍摄信息。其中,拍摄信息可以包括拍摄环境图像时图像采集装置的拍摄位置、拍摄角度等,拍摄位置例如可以是图像采集装置在拍摄环境图像时的高度和经纬度,也可以是图像采集装置在拍摄环境图像时相对于预设参考点的坐标等。拍摄角度例如可以是图像采集装置在拍摄环境图像时的欧拉角(可以包括:俯仰角、滚转角、偏航角)。之后可以根据图像采集装置的拍摄信息,通过坐标变换得到环境图像中目标物体的位置信息。其中,位置信息可以是目标物体的经纬度,也可以是目标物体相对于预设参考点的坐标。
在步骤S104中,根据轮廓信息和位置信息,生成目标区域的二维地图。
在步骤S105中,根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。
示例地,在得到环境图像中目标物体的轮廓信息和位置信息之后,可以将每个目标物体的轮廓信息对应的轮廓,展示在该目标物体的位置信息对应的位置,从而得到目标区域的二维地图,其中二维地图用于展示每个目标物体的轮廓和位置,之后可以获取每个目标物体对应的高程信息。
首先可以预先建立目标区域中目标物体的位置信息和高程信息之间的对应关系表,通过查找对应关系表可以得到每个目标物体对应的高程信息。其中,高程信息为目标物体相对于地面的高度。进一步的,可以将二维地图中每个目标物体的轮廓按照该目标物体的高程信息进行拉伸,从而得到目标区域的三维地图。这样,无需采集大量的点云数据,避免了对大量的点云数据进行处理,提高了生成三维地图的效率和准确度。
以二维地图中的目标物体A的轮廓为50m*50m的正方形,目标物体A对应的高程信息为80m为例,将二维地图中的目标物体A的轮廓(即50m*50m的正方形)按照目标物体A的高程信息进行拉伸,可以得到三维地图中目标物体A对应的50m*50m*80m的立方体。
综上所述,本公开首先获取目标区域在预设高度的环境图像,之后对根据环境图像进行识别,确定环境图像中至少一个目标物体的轮廓信息,并根据环境图像的拍摄信息,确定环境图像中目标物体的位置信息。然后根据环境图像中的目标物体的轮廓信息和位置信息,生成目标区域的二维地图。最后,根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。最后,根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。本公开根据目标物体的轮廓信息和位置信息生成二维地图,并根据二维地图和每个目标物体对应的高程信息生成三维地图,能够降低数据处理的复杂度,提高三维地图的生成效率和准确度。
图2是根据本公开一示例性实施例示出的另一种地图生成方法的流程图,步骤S102可以通过一下步骤来实现:
步骤S1021,将环境图像输入训练好的识别模型。
步骤S1022,获取识别模型输出的环境图像的语义识别结果。
步骤S1023,根据语义识别结果确定环境图像中包括的至少一个目标物体的轮廓信息。
示例地,可以预先根据样本输入集和样本输出集训练得到识别模型,并将图像采集装置采集到的环境图像输入识别模型。其中,环境图像例如可以是航拍俯视图、卫星正射影像图,识别模型例如可以是DUC(英文:Dense Upsampling Convolution,中文:密集上采样卷积)模型、DepplabV3+模型等,本公开对此不作具体限定。识别模型可以对环境图像进行语义识别,得到环境图像的语义识别结果。其中,语义识别结果例如可以是指示环境图像中的每个像素,是属于目标物体,或是不属于目标物体。这样,可以将连通、且属于目标物体的像素判断为一个目标物体,即环境图像中,连通且属于目标物体的像素即为一个目标物体。因此,可以获取识别模型输出的语义识别结果,并根据语义识别结果所指示的目标物体对应的像素确定目标物体的轮廓信息。
以环境图像为北京市朝阳区的航拍俯视图、目标物体为建筑物为例,可以将该航拍俯视图输入识别模型,使得识别模型输出北京市朝阳区所有建筑物的语义识别结果,再进一步根据语义识别结果得到北京市朝阳区所有建筑物的轮廓信息。
图3是根据本公开一示例性实施例示出的另一种地图生成方法的流程图,如图3所示,步骤S103可以通过以下步骤来实现:
在步骤S1031中,确定环境图像被拍摄时的拍摄位置和位姿信息,拍摄位置包括拍摄环境图像时所处的预设高度和经纬度,位姿信息包括拍摄环境图像时所处的拍摄角度。
在步骤S1032中,根据拍摄位置和位姿信息,确定环境图像中每个目标物体的位置信息。
示例地,在确定环境图像中每个目标物体的位置信息时,首先可以获取环境图像被拍摄时的拍摄位置和位姿信息,例如通过图像采集装置来获取环境图像被拍摄时的拍摄位置和位姿信息,其中,拍摄位置可以包括环境图像被拍摄时图像采集装置所处的预设高度和经纬度,位姿信息可以包括环境图像被拍摄时图像采集装置所处的拍摄角度。之后,可以根据拍摄位置和位姿信息,得到环境图像中每个目标物体的位置信息。
可以先根据拍摄高度和拍摄角度确定拍摄画幅,之后根据图像采集装置的拍摄位置、位姿信息和拍摄画幅得到环境图像中每个目标物体的位置信息。以拍摄位置为东经120°、北纬40°、拍摄角度为90度(俯视)、拍摄画幅为2km*2km为例,如图4所示,a为图像采集装置,b为环境图像中的拍摄画幅的右边线中点处的目标物体,即目标物体b位于图像采集装置a的正东方,与图像采集装置在地面的投影的直线距离为1km,那么可以得到目标物体的位置信息为:东经120°1′、北纬40°。
图5是根据一示例性实施例示出的另一种地图生成方法的流程图,如图5所示,步骤S104还可以通过以下步骤来实现:
在步骤S1041中,按照预设的优化规则,对每个目标物体的轮廓信息进行优化,以得到优化后的轮廓信息。
在步骤S1042中,根据目标物体的优化后的轮廓信息和位置信息,生成目标区域的二维地图。
示例地,由于可能存在影响目标物体的轮廓信息识别的因素(例如目标物体被其他物体遮挡等),导致获取到的目标物体的轮廓信息不够准确。因此在获取到目标物体的轮廓信息之后,可以按照预设的优化规则,对每个目标物体的轮廓信息进行优化,从而得到优化后的轮廓信息。
首先可以识别轮廓信息中的不规则线条,例如不平滑的曲线、不连续的直线等。之后可以对不规则线条进行拟合,得到平滑的轮廓信息,作为优化后的轮廓信息,也可以识别出不规则线条所在封闭图形的所有顶点,将所有顶点依次连接起来,得到优化后的轮廓信息,本公开对此不作具体限定。得到优化后的轮廓信息后,可以根据环境图像中的目标物体的优化后的轮廓信息和位置信息,生成目标区域的二维地图,从而提高生成的二维地图的准确度。
图6是根据一示例性实施例示出的另一种地图生成方法的流程图,如图6所示,步骤S104可以通过以下步骤来实现:
在步骤S1043中,将多个环境图像进行融合,以得到区域图像。
在步骤S1044中,根据区域图像以及每个环境图像中目标物体的轮廓信息和位置信息,生成二维地图。
示例地,图像采集装置可以预先采集多个环境图像,并将多个环境图像进行融合,从而得到一个区域图像。其中,区域图像可以理解为,将多个环境图像融合之后生成的目标区域对应的一个完整的图像。例如,可以对多个环境图像中的图像信息进行综合,并对多个环境图像之间的重叠部分进行处理,以去除多个环境图像之间的冗余信息,从而将多个环境图像融合成一个区域图像。之后,可以根据区域图像、每个环境图像中目标物体的轮廓信息和位置信息,生成二维地图。
在得到每个环境图像中目标物体的轮廓信息和位置信息之后,可以根据每个目标物体的位置信息确定该目标物体在区域图像上的目标位置,相应地,将该目标物体的轮廓信息对应的轮廓展示在目标位置处,从而得到一个展示区域图像中每个目标物体的轮廓和位置的二维地图。
以共有2个环境图像、第1个环境图像中有4个目标物体、第2个环境图像中有5个目标物体、第1个环境图像与第2个环境图像的重合区域有2个目标物体为例,可以将2个环境图像进行融合,得到一个区域图像,区域图像中有7个目标物体,根据每个目标物体的轮廓信息和位置信息,将7个目标物体的轮廓分别展示在区域图像中对应的位置,从而得到二维地图。
图7是根据一示例性实施例示出的另一种地图生成方法的流程图,如图7所示,步骤S105可以通过以下步骤来实现:
在步骤S1051中,根据每个目标物体的位置信息,以及目标区域的高程地图,确定每个目标物体的高程信息。
在步骤S1052中,将二维地图中每个目标物体的轮廓按照该目标物体的高程信息进行拉伸,生成三维地图。
示例地,在得到二维地图之后,可以根据每个目标物体的位置信息,和目标区域的高程地图,得到每个目标物体的高程信息。
首先可以获取目标区域的高程地图。其中,高程地图可以为包括每个目标物体的位置信息和高程信息之间对应关系的对应关系表,高程地图也可以是DSM(英文:DigitalSurface Model,中文:数字表面模型)。之后可以在高程地图中查找每个目标物体的位置信息对应的高程信息。最后,将二维地图中每个目标物体的轮廓按照该目标物体的高程信息,在高度方向上进行拉伸,从而得到三维地图。
以二维地图中的目标物体B的轮廓为20m*30m的矩形,目标物体B对应的高程信息为50m为例,将二维地图中的目标物体B(即20m*30m的矩形)的轮廓按照目标物体B的高程信息进行拉伸,可以得到三维地图中目标物体B对应的20m*30m*50m的立方体。
图8是根据一示例性实施例示出的训练识别模型的流程图,如图8所示,识别模型是通过以下方式进行训练的:
步骤A,获取样本输入集和样本输出集,样本输入集包括多个样本输入,样本输入包括目标区域在预设高度的样本图像,样本输出集中包括与每个样本输入对应的样本输出,每个样本输出包括对应的样本图像中包括的每个目标物体的实际轮廓信息。
步骤B,将样本输入集作为识别模型的输入,将样本输出集作为识别模型的输出,以训练识别模型。
举例来说,要对识别模型进行训练,首先需要获取样本输入集和对应的样本输出集。样本输入集包括大量的样本输入,样本输出集中包括与每个样本输入对应的样本输出。
样本输入可以是图像采集装置在预设高度采集的目标区域的样本图像,目标区域例如可以为1km*1km的区域,样本图像例如可以为目标区域的俯视图。可以预先获取多个样本图像中包括的每个目标物体的实际轮廓信息。其中,实际轮廓信息可以是预先通过人工标记的。
之后,可以将样本输入集作为识别模型的输入,并根据识别模型的输出和样本输出集,训练识别模型,使得在将任一样本输入作为识别模型的输入时,识别模型的输出能够与该样本输入对应的样本输出匹配。例如,可以根据识别模型的输出和样本输出集的差(或者均方差、平均绝对误差),作为识别模型的损失函数,以降低损失函数为目标,利用反向传播算法来修正识别模型中的神经元的参数,神经元的参数例如可以是神经元的权重(英文:Weight)和偏置量(英文:Bias)。重复上述步骤,直至损失函数满足预设条件,例如损失函数小于预设的损失阈值。
综上所述,本公开首先获取目标区域在预设高度的环境图像,之后对根据环境图像进行识别,确定环境图像中包括的至少一个目标物体的轮廓信息,并根据环境图像的拍摄信息,确定环境图像中目标物体的位置信息。然后根据环境图像中的目标物体的轮廓信息和位置信息,生成目标区域的二维地图。最后,根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。本公开根据目标物体的轮廓信息和位置信息生成二维地图,并根据二维地图和每个目标物体对应的高程信息生成三维地图,能够降低数据处理的复杂度,提高三维地图的生成效率和准确度。
图9是根据一示例性实施例示出的一种地图生成装置的框图,如图9所示,该装置200包括:
获取模块201,被配置为获取目标区域在预设高度的环境图像;
第一确定模块202,被配置为对环境图像进行识别,确定环境图像中至少一个目标物体的轮廓信息;
第二确定模块203,被配置为根据环境图像的拍摄信息,确定环境图像中目标物体的位置信息;
第一生成模块204,被配置为根据轮廓信息和位置信息,生成目标区域的二维地图;
第二生成模块205,被配置为根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。
在一种应用场景中,第一确定模块202被配置为:
将环境图像输入训练好的识别模型。
获取识别模型对输出的环境图像的语义识别结果。
根据语义识别结果确定环境图像中包括的至少一个目标物体的轮廓信息。
图10是根据一示例性实施例示出的另一种地图生成装置的框图,如图10所示,第二确定模块203包括:
第一确定子模块2031,被配置为确定环境图像被拍摄时的拍摄位置和位姿信息,拍摄位置包括拍摄环境图像时所处的预设高度和经纬度,位姿信息包括拍摄环境图像时所处的拍摄角度。
第二确定子模块2032,被配置为根据拍摄位置和位姿信息,确定环境图像中每个目标物体的位置信息。
图11是根据一示例性实施例示出的另一种地图生成装置的框图,如图11所示,第一生成模块204还包括:
优化子模块2041,被配置为按照预设的优化规则,对每个目标物体的轮廓信息进行优化,以得到优化后的轮廓信息。
第一生成子模块2042,被配置为根据目标物体的优化后的轮廓信息和位置信息,生成目标区域的二维地图。
图12是根据一示例性实施例示出的另一种地图生成装置的框图,如图12所示,环境图像为多个,第一生成模块204还包括:
融合子模块2043,被配置为将多个环境图像进行融合,以得到区域图像。
第二生成子模块2044,被配置为根据区域图像以及每个环境图像中目标物体的轮廓信息和位置信息,生成二维地图。
图13是根据一示例性实施例示出的一种地图生成装置的框图,如图13所示,第二生成模块205包括:
第三确定子模块2051,被配置为根据每个目标物体的位置信息,以及目标区域的高程地图,确定每个目标物体的高程信息。
拉伸子模块2052,被配置为将二维地图中每个目标物体的轮廓按照该目标物体的高程信息进行拉伸,生成三维地图。
在另一种应用场景中,识别模型是通过以下方式进行训练的:
获取样本输入集和样本输出集,样本输入集包括多个样本输入,样本输入包括目标区域在预设高度的样本图像,样本输出集中包括与每个样本输入对应的样本输出,每个样本输出包括对应的样本图像中包括的每个目标物体的实际轮廓信息。
将样本输入集作为识别模型的输入,将样本输出集作为识别模型的输出,以训练识别模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
综上所述,本公开首先获取目标区域在预设高度的环境图像,之后对根据环境图像进行识别,确定环境图像中包括的至少一个目标物体的轮廓信息,并根据环境图像的拍摄信息,确定环境图像中目标物体的位置信息。然后根据环境图像中的目标物体的轮廓信息和位置信息,生成目标区域的二维地图。最后,根据每个目标物体对应的高程信息和二维地图,生成目标区域的三维地图。本公开根据目标物体的轮廓信息和位置信息生成二维地图,并根据二维地图和每个目标物体对应的高程信息生成三维地图,能够降低数据处理的复杂度,提高三维地图的生成效率和准确度。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的地图生成方法的步骤。
图14是根据一示例性实施例示出的一种地图生成装置300的框图。例如,装置300可以被提供为一服务器。参照图14,装置300包括处理组件322,其进一步包括一个或多个处理器,以及由存储器332所代表的存储器资源,用于存储可由处理组件322的执行的指令,例如应用程序。存储器332中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件322被配置为执行指令,以执行上述地图生成方法。
装置300还可以包括一个电源组件326被配置为执行装置300的电源管理,一个有线或无线网络接口350被配置为将装置300连接到网络,和一个输入输出(I/O)接口358。装置300可以操作基于存储在存储器332的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,装置300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的地图生成方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器332,上述指令可由装置300的处理组件322执行以完成上述的地图生成方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的地图生成方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种地图生成方法,其特征在于,所述方法包括:
获取目标区域在预设高度的环境图像;
对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息;
根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息;
根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图;
根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图。
2.根据权利要求1所述的方法,其特征在于,所述对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息,包括:
将所述环境图像输入训练好的识别模型;
获取所述识别模型输出的所述环境图像的语义识别结果;
根据所述语义识别结果确定所述环境图像中包括的至少一个所述目标物体的所述轮廓信息。
3.根据权利要求1所述的方法,其特征在于,所述根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息,包括:
确定所述环境图像被拍摄时的拍摄位置和位姿信息,所述拍摄位置包括拍摄所述环境图像时所处的所述预设高度和经纬度,所述位姿信息包括拍摄所述环境图像时所处的拍摄角度;
根据所述拍摄位置和所述位姿信息,确定所述环境图像中每个所述目标物体的所述位置信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图,包括:
按照预设的优化规则,对每个所述目标物体的所述轮廓信息进行优化,以得到优化后的轮廓信息;
根据所述目标物体的优化后的轮廓信息和所述位置信息,生成所述目标区域的二维地图。
5.根据权利要求1所述的方法,其特征在于,所述环境图像为多个,所述根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图,包括:
将多个所述环境图像进行融合,以得到区域图像;
根据所述区域图像以及每个所述环境图像中所述目标物体的所述轮廓信息和所述位置信息,生成所述二维地图。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图,包括:
根据每个所述目标物体的所述位置信息,以及所述目标区域的高程地图,确定每个所述目标物体的高程信息;
将所述二维地图中每个所述目标物体的轮廓按照该目标物体的所述高程信息进行拉伸,生成所述三维地图。
7.根据权利要求2所述的方法,其特征在于,所述识别模型是通过以下方式进行训练的:
获取样本输入集和样本输出集,所述样本输入集包括多个样本输入,所述样本输入包括所述目标区域在所述预设高度的样本图像,所述样本输出集中包括与每个所述样本输入对应的样本输出,每个所述样本输出包括对应的所述样本图像中包括的每个目标物体的实际轮廓信息;
将所述样本输入集作为所述识别模型的输入,将所述样本输出集作为所述识别模型的输出,以训练所述识别模型。
8.一种地图生成装置,其特征在于,所述装置包括:
获取模块,被配置为获取目标区域在预设高度的环境图像;
第一确定模块,被配置为对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息;
第二确定模块,被配置为根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息;
第一生成模块,被配置为根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图;
第二生成模块,被配置为根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取目标区域在预设高度的环境图像;
对所述环境图像进行识别,确定所述环境图像中至少一个目标物体的轮廓信息;
根据所述环境图像的拍摄信息,确定所述环境图像中所述目标物体的位置信息;
根据所述轮廓信息和所述位置信息,生成所述目标区域的二维地图;
根据每个所述目标物体对应的高程信息和所述二维地图,生成所述目标区域的三维地图。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
CN202111210482.XA 2021-10-18 2021-10-18 地图生成方法、装置、电子设备和存储介质 Pending CN115995026A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111210482.XA CN115995026A (zh) 2021-10-18 2021-10-18 地图生成方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111210482.XA CN115995026A (zh) 2021-10-18 2021-10-18 地图生成方法、装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN115995026A true CN115995026A (zh) 2023-04-21

Family

ID=85992772

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111210482.XA Pending CN115995026A (zh) 2021-10-18 2021-10-18 地图生成方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN115995026A (zh)

Similar Documents

Publication Publication Date Title
US10127670B2 (en) Computer vision systems and methods for detecting and modeling features of structures in images
CN113989450B (zh) 图像处理方法、装置、电子设备和介质
You et al. An accurate and practical calibration method for roadside camera using two vanishing points
CN112348885B (zh) 视觉特征库的构建方法、视觉定位方法、装置和存储介质
Sohn et al. An implicit regularization for 3D building rooftop modeling using airborne lidar data
CN113066112B (zh) 一种基于三维模型数据的室内外融合方法及装置
CN112634340A (zh) 基于点云数据确定bim模型的方法、装置、设备和介质
CN110636248B (zh) 目标跟踪方法与装置
CN113379748B (zh) 一种点云全景分割方法和装置
CN115690610A (zh) 一种基于图像匹配的无人机导航方法
CN116844124A (zh) 三维目标检测框标注方法、装置、电子设备和存储介质
CN108629742A (zh) 真正射影像阴影检测与补偿方法、装置及存储介质
CN113378864B (zh) 一种锚框参数的确定方法、装置、设备及可读存储介质
CN117115414B (zh) 基于深度学习的无gps无人机定位方法及装置
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
CN113932796A (zh) 高精地图车道线生成方法、装置和电子设备
CN116524143A (zh) 一种gis地图构建方法
CN113673288A (zh) 空闲车位检测方法、装置、计算机设备及存储介质
CN115995026A (zh) 地图生成方法、装置、电子设备和存储介质
CN115841650A (zh) 视觉定位方法、视觉定位装置、电子设备及可读存储介质
CN114842074A (zh) 一种基于模型匹配的无人机影像定位方法
CN112767477A (zh) 一种定位方法、装置、存储介质及电子设备
CN113705304A (zh) 一种图像处理方法、装置、存储介质及计算机设备
CN112766068A (zh) 一种基于网格化标注的车辆检测方法及系统
CN113870412A (zh) 一种航空场景图像的处理方法、装置以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination