CN111882611B - 一种地图构建方法及装置 - Google Patents
一种地图构建方法及装置 Download PDFInfo
- Publication number
- CN111882611B CN111882611B CN202010689886.0A CN202010689886A CN111882611B CN 111882611 B CN111882611 B CN 111882611B CN 202010689886 A CN202010689886 A CN 202010689886A CN 111882611 B CN111882611 B CN 111882611B
- Authority
- CN
- China
- Prior art keywords
- target point
- static
- determining
- point
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010276 construction Methods 0.000 title claims abstract description 26
- 230000003068 static effect Effects 0.000 claims abstract description 220
- 230000011218 segmentation Effects 0.000 claims abstract description 29
- 238000003860 storage Methods 0.000 claims abstract description 21
- 230000007613 environmental effect Effects 0.000 claims description 70
- 238000000034 method Methods 0.000 claims description 60
- 238000012549 training Methods 0.000 claims description 34
- 238000004590 computer program Methods 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 11
- 230000006872 improvement Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
本说明书公开了一种地图构建方法及装置,可先获取各环境图像并确定采集环境图像的相机的相机内参,之后针对每个目标点,确定该目标点分别投影到各环境图像中的各像素点,再通过语义分割模型确定各像素点的类型。然后,根据各像素点的类型,确定该目标点位于静态物体的概率,以从各目标点中确定静态目标点。最后根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定用于无人车定位的三维地图。通过各目标点投影到各环境图像中的像素点的类型,确定各目标点位于静态物体的概率,以从各目标点中确定静态目标点,构建三维地图,减少了该三维地图的数据量,节省了存储该三维地图所需的存储空间,降低了使用三维地图进行定位的成本。
Description
技术领域
本申请涉及定位技术领域,尤其涉及一种地图构建方法及装置。
背景技术
随着计算机视觉技术的发展,基于三维重建技术构建的三维地图在导航定位以及虚拟现实等领域中得到广泛应用。其中,基于三维重建技术构建三维地图的方法之一为运动恢复结构(Structure From Motion,SFM)方法。
具体的,在通过SFM方法构建三维地图时,首先,通过相机遍历待构建三维地图的场景,采集若干环境图像。之后,提取各环境图像的特征点,确定特征点的图像特征,并进行各环境图像之间特征点的匹配。然后,根据各特征点的匹配结果以及该相机的相机内参,确定各特征点对应的目标点的三维坐标以及特征信息,最后根据各目标点的三维坐标以及特征信息,构建三维地图。
但是,基于上述SFM方法构建出的三维地图中的数据量较多,例如,当将该三维地图应用于无人车导航定位场景中时,无人车需要较大的存储空间存储该三维地图,导致使用三维地图的成本较高。
发明内容
本说明书实施例提供一种地图构建方法及装置,用于部分解决现有技术中存在的上述问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种地图构建方法,包括:
获取各环境图像以及确定采集各环境图像的相机的相机内参;
针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,所述目标点位于环境中物体上;
根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,所述像素点的类型包括静态物体以及动态物体;
根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率;
根据各目标点位于静态物体的概率,从各目标点中确定静态目标点;
根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,所述三维地图用于无人车定位。
可选地,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,具体包括:
确定所述相机在采集各环境图像时的相机位姿;
根据所述相机在采集各环境图像时的相机位姿以及所述相机内参,确定所述相机采集各环境图像的视野范围;
根据该目标点的三维坐标以及所述相机采集各环境图像的视野范围,确定所述相机可采集到该目标点的相机位姿,作为待投影位姿;
针对每个待投影位姿,根据该目标点的三维坐标以及该待投影位姿,确定该目标点投影到所述相机在该待投影位姿采集的环境图像时,该目标点所对应的像素点。
可选地,所述语义分割模型采用下述方法进行训练,其中:
获取历史采集的各环境图像,作为训练样本;
针对所述训练样本中的每个像素点,确定该像素点所属图像区域的真实类型,作为该像素点的标注,所述真实类型包括静态物体以及动态物体;
针对每个训练样本,将该训练样本作为输入,输入待训练的语义分割模型中,输出该训练样本中各像素点的预测类型;
以最小化该训练样本中各像素点的预测类型与各像素点的标注之间的差异为优化目标,调整所述语义分割模型中的模型参数。
可选地,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率,具体包括:
根据该目标点对应的各像素点的类型,确定类型为静态物体的像素点的数量;
根据确定出的类型为静态物体的像素点的数量以及该目标点对应的各像素点的数量,确定该目标点位于静态物体的概率。
可选地,根据各目标点位于静态物体的概率,从各目标点中确定静态目标点,具体包括:
针对每个目标点,当该目标点位于静态物体的概率大于第一预设阈值时,确定该目标点为静态目标点。
可选地,确定三维地图,具体包括:
针对每个静态目标点,确定该静态目标点对应的各像素点的数量,作为该静态目标点的出现次数;
根据该静态目标点的出现次数,确定该静态目标点的置信度;
根据该静态目标点的置信度,确定该静态目标点的定位权重;
根据确定出的各静态目标点的定位权重,确定三维地图,其中,静态目标点的定位权重越高,根据所述静态目标点进行定位的结果越精准。
可选地,根据该静态目标点的出现次数,确定该静态目标点的置信度,具体包括:
根据各静态目标点的出现次数,对各静态目标点进行排序;
根据该静态目标点的排序以及所述静态目标点的数量,确定该静态目标点的置信度。
本说明书提供一种地图构建装置,包括:
获取模块,获取各环境图像以及确定采集各环境图像的相机的相机内参;
投影模块,针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,所述目标点位于环境中物体上;
语义分割模块,根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,所述像素点的类型包括静态物体以及动态物体;
概率确定模块,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率;
静态目标点确定模块,根据各目标点位于静态物体的概率,从各目标点中确定静态目标点;
定位模块,根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,所述三维地图用于无人车定位。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述地图构建方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述地图构建方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
在构建三维地图时,可先获取各环境图像并确定采集各环境图像的相机的相机内参,之后针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,其中,目标点位于环境中物体上,再根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,像素点的类型包括静态物体以及动态物体。然后,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率,以根据各目标点属于静态物体的概率,从各目标点中确定静态目标点。最后根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,该三维地图用于无人车定位。通过各目标点投影到各环境图像中的像素点的类型,确定各目标点位于静态物体的概率,以从各目标点中确定静态目标点,构建三维地图,减少了该三维地图的数据量,节省了存储该三维地图所需的存储空间,降低了使用三维地图进行定位的成本。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例提供的一种地图构建方法的流程示意图;
图2为本说明书实施例提供的确定像素点的类型的示意图;
图3为本说明书实施例提供的目标点向各环境图像投影的示意图;
图4为本说明书实施例提供的目标点投影到环境图像中的像素点的示意图;
图5为本说明书实施例提供的一种地图构建的装置的结构示意图;
图6为本说明书实施例提供的实现地图构建方法的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
目前,通常三维重建得到的三维地图是由大量的目标点构成的,三维地图中包含的每个目标点均对应有三维坐标以及特征信息。以无人车采用三维地图进行定位为例,无人车可将采集的环境图像中的特征点的图像特征,与三维地图中的目标点的特征信息匹配,根据匹配结果以及匹配的目标点的三维坐标,确定该无人车的位姿。其中,目标点位于三维地图对应的真实环境中的物体上。
通常三维地图中目标点对应的特征信息,是根据图像中特征点的图像特征确定的。而目标点对应的三维坐标可采用SFM的方法,基于采集到的各环境图像以及双目视觉系统的定位原理确定,或者也可采用激光雷达以及相机相结合的方式,根据激光雷达采集的点云信息以及相机采集的各环境图像中的特征点确定。也就是说,通过三维重建技术构建某一区域的三维地图的过程中,至少需要预先在该区域内采集若干环境图像。
图1为本说明书实施例提供的一种地图构建的流程示意图,具体可包括以下步骤:
S100:获取各环境图像以及确定采集所述环境图像的相机的相机内参。
基于上述描述,本说明书提供的地图构建过程可由服务器执行,并在该服务器构建三维地图的过程中,也需要先获取各环境图像,以及采集环境图像的相机的相机内参,以通过后续步骤构建三维地图。其中,该环境图像可通过车辆上的搭载的相机采集,当然并不限制由人工携带的相机采集,或者采用其他方式采集,具体可根据需要设置。进一步的,由于该三维地图中还包含各目标点的三维坐标,而各目标点的三维坐标需要根据相机内参进行计算,因此还需确定采集各环境图像的相机的相机内参。
具体的,以通过车辆上搭载的相机采集环境图像为例,该环境图像可以是历史上车辆在该待构建三维地图的区域中行驶时采集的,或者为了构建该三维地图专门在该区域中采集的,本说明书对采集方式不做限制。无论是采用何种方式获取的环境图像,只要是在该待构建三维地图的区域中采集的环境图像,该服务器均可获取,并针对每个环境图像,确定采集该环境图像的相机的相机内参。
其中,相机内参指相机的内部参数,包括相机的焦距以及畸变参数等参数。该相机可以是多个相机的多相机采集系统,也可以是全景相机,本说明书对此不做限制,可根据需要设置。
当采用多相机采集系统采集各环境图像时,可确定采集每个环境图像的相机,并确定各相机的相机内参。由于全景相机的视角较大,采集的环境图像中包含周围360°范围内的环境中的物体,而非全景相机的视角较全景相机较小,只能采集某方向的环境中的物体,因此当采用全景相机采集各环境图像时,可大大减少需要采集的环境图像的数量,以进一步减少后续各环境图像之间进行特征匹配的计算量。
为方便描述,本说明书以一个非全景相机采集得到待构建的三维地图中的各环境图像为例进行说明,后续过程中将“非全景相机”简称为相机。
S102:针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点。
在本说明书中,该构建三维地图的服务器可根据获取到的环境图像以及相机内参,确定若干目标点。本说明书对于该服务器具体采用何种方式确定目标点不做限定,可根据需要设置。
而由于环境中的物体可划分为静态物体以及动态物体,静态物体如建筑物、广告牌等处于静止状态的物体,动态物体如行人、车辆以及树木等不断发生变化的物体,因此在步骤S100中服务器获取的环境图像中可能既包含静态物体也包含动态物体。于是,基于环境图像确定出的目标点可能位于环境中的静态物体上,也可能位于环境中的动态物体上。
进一步的,由于环境中的静态物体的位置以及形状是固定不变的,因此通过匹配位于静态物体上的目标点进行定位,得到的定位结果更精准。而对于三维地图中不断变化的动态物体来说,由于动态物体的位置以及形状可能动态发生变化,构建三维地图时采集的环境图像中动态物体的位置以及特征与无人车定位时采集的环境图像中的动态物体的位置以及特征不完全相同,因此通过匹配位于静态物体上的目标点进行定位,定位精度较差。
目前,构建的三维地图中的各目标点既包含位于环境中静态物体上的目标点,也包含位于环境中动态物体上的目标点,包含的数据量较多。而基于静态物体上的目标点进行定位的定位精度较高,但基于动态物体上的目标点进行定位的定位精度较差。因此本说明书提供的地图构建方法,通过剔除位于动态物体上的目标点,仅根据位于静态物体上、且定位更精准的目标点构建三维地图,以减少三维地图的数据量。因此可在构建三维地图过程中,执行本说明书中的步骤S102~S110,或者也可对已经构建完成的三维地图进行优化。本说明书对此不做限制,可根据需要设置。
为方便描述,本说明书中以在三维地图构建过程中,执行本说明书中的步骤S102~S110为例进行说明,则后续采用本说明书构建的三维地图进行无人车定位时,可仅根据位于静态物体的目标点进行特征匹配,以进行定位,提高了定位精度。
在本说明书中,该服务器可将各目标点投影到各环境图像中,确定各目标点对应的各像素点的类型,以通过后续步骤对各目标点位于静态物体还是动态物体进行划分,以进一步剔除位于动态物体的目标点的特征信息。
具体的,针对每个目标点,该服务器可先确定该相机在采集各环境图像时的相机位姿,之后根据该相机在采集各环境图像时的相机位姿以及该相机内参,确定该相机采集各环境图像的视野范围,然后再根据该目标点的三维坐标以及该相机采集各环境图像的视野范围,确定该相机可采集到该目标点的相机位姿,作为待投影位姿,最后针对每个待投影位姿,根据该目标点的三维坐标以及该待投影位姿,确定该目标点投影到该相机在该待投影位姿采集的环境图像时,该目标点所对应的像素点。
S104:根据预先训练的语义分割模型,确定各环境图像中各像素点的类型。
在本说明书实施例中,由于目标点位于环境中物体上,可能位于静态物体上,也可能位于动态物体上,因此在确定出该目标点投影到各环境图像中的像素点后,便可识别各像素点的类型,以便后续判断目标点位于静态物体,还是位于动态物体上。
具体的,针对每张环境图像,可通过预先训练的语义分割模型,确定该环境图像中各像素点的类型。其中,像素点的类型包括静态物体以及动态物体,表征像素点在环境图像中所属图像区域为静态物体还是动态物体,例如:像素点在环境图像中所属图像区域为建筑物或广告牌,则该像素点的类型为静态物体,像素点在环境图像中所属图像区域为车辆或行人或树木,则该像素点的类型为动态物体。
上述语义分割模型的具体训练过程如下:获取历史采集的各环境图像,作为训练样本,之后针对该训练样本中的每个像素点,确定该像素点所属图像区域的真实类型,作为该像素点的标注,该真实类型包括静态物体以及动态物体,然后针对每个训练样本,该训练样本作为输入,输入待训练的语义分割模型中,输出该训练样本中各像素点的预测类型,最后以最小化该训练样本中各像素点的预测类型与各像素点的标注之间的差异为优化目标,调整该语义分割模型中的模型参数。
或者,针对每张环境图像,可通过预先训练的语义分割模型,确定该环境图像中各像素点的区域类型,之后再根据各区域类型与各像素点的类型的对应关系,确定各像素点的类型。
其中,各区域类型与各像素点的类型的对应关系如表1所示,区域类型为建筑物、广告牌对应的像素点的类型为静态物体,区域类型为车辆、行人以及树木对应的像素点的类型为动态物体。
区域类型 | 像素点的类型 |
建筑物 | 静态物体 |
广告牌 | 静态物体 |
车辆 | 动态物体 |
行人 | 动态物体 |
树木 | 动态物体 |
表1
如图2所示,图2中矩形框中的内容表示获取到的环境图像,该环境图像中包含有建筑物、车辆以及树木。该环境图像中的像素点C的类型为建筑物,像素点D的类型为车辆,像素点E的类型为树木,可确定像素点C属于静态物体,像素点D以及像素点E属于动态物体。
上述语义分割模型的具体训练过程如下:获取历史采集的各环境图像,作为训练样本,之后针对该训练样本中的每个像素点,确定该像素点所属图像区域的真实区域类型,作为该像素点的标注,该真实区域类型包括建筑物、行人以及树木等,然后针对每个训练样本,该训练样本作为输入,输入待训练的语义分割模型中,输出该训练样本中各像素点的预测区域类型,最后以最小化该训练样本中各像素点的预测区域类型与各像素点的标注之间的差异为优化目标,调整该语义分割模型中的模型参数。
S106:根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率。
在本说明书实施例中,当通过步骤S102确定出该目标点分别投影于各环境图像中的像素点,以及通过步骤S104确定出各环境图像中各像素点的类型后,便可确定该目标点位于静态物体的概率。
具体的,首先,该服务器可先根据该目标点对应的各像素点的类型,确定类型为静态物体的像素点的数量,之后根据确定出的类型为静态物体的像素点的数量以及该目标点对应的各像素点的数量,确定该目标点位于静态物体的概率。
假设构建的三维地图中共有N个目标点,分别记作P1,P2,…,PN。对于该三维地图中的第i个目标点Pi,将该目标点Pi分别投影到各环境图像中,确定该目标点Pi对应的各像素点分别记为Pi1、Pi2、Pi3……,并确定各像素点的类型。之后确定该目标点Pi投影到的对应的各像素点的数量为Oi,类型为静态物体的像素点的数量为类型为动态物体的像素点的数量为/>其中,该目标点Pi投影到的对应的各像素点的数量为静态物体的像素点的数量与动态物体的像素点的数量之和,即/>则可确定该目标点Pi位于静态物体上的概率为/>该目标点Pi位于动态物体上的概率为/>
S108:根据各目标点位于静态物体的概率,从各目标点中确定静态目标点。
在本说明书实施例中,当确定出各目标点位于静态物体的概率后,可进一步对各目标点进行筛选,以确定位于静态物体的目标点,作为三维地图中的目标点。
具体的,针对每个目标点,当确定出的该目标点位于静态物体的概率大于第一预设阈值时,可确定该目标点为静态目标点,即,为三维地图中有效的可进行定位的目标点。其中,该第一预设阈值可根据需要设置,例如:50%、80%等,本说明书对此不做限制。接上述举例,假设第一预设阈值为50%,将三维地图中的目标点P1分别投影于三张环境图像中,如图3所示,可见将该目标点P1投影于左边环境图像中,该目标点P1对应的像素点位于建筑物上,可确定该像素点的类型为静态物体,投影于中间环境图像中,该目标点P1对应的像素点位于车辆上,可确定该像素点的类型为动态物体,投影于右边环境图像中,该目标点P1对应的像素点位于建筑物上,可确定该像素点的类型为静态物体,因此可确定该目标点P1属于静态物体的概率为属于动态物体的概率为/>于是,可确定该目标点P1为静态目标点。
S110:根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图。
在本说明书实施例中,当确定出静态目标点后,便可根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图。
具体的,该服务器可根据确定出的静态目标点,确定各静态目标点的三维坐标以及各静态目标点的特征信息,并根据确定的各静态目标点的三维坐标以及特征信息,确定三维地图。
进一步的,通常一个目标点在各环境图像中出现的次数越多,表明该目标点的特征越明显,根据该目标点进行定位的结果越精准。因此进一步的在本说明书中确定三维地图时,还可确定各静态目标点的定位权重,定位权重越高,表明根据该静态目标点进行定位的结果越精准。具体的,针对每个静态目标点,可先确定该静态目标点对应的各像素点的数量,作为该静态目标点的出现次数,之后根据确定出的出现次数,确定该静态目标点的置信度,其中,该静态目标点的出现次数越多,该静态目标点的置信度越高。然后根据该静态目标点的置信度,确定该静态目标点的定位权重,最后根据确定出的各静态目标点的定位权重,确定三维地图。
更进一步的,在确定该静态目标点的置信度时,还可根据各静态目标点的出现次数,对各静态目标点进行排序,再根据该静态目标点的排序,确定该静态目标点的置信度。假设三维地图中共有M个静态目标点,分别记作R1,R2,…,RN。对于第i个静态目标点Ri,可确定该静态目标点Ri的出现在各环境图像中的次数为Oi。之后将各静态目标点按照出现次数从多到少排序,将该静态目标点Ri的排序记为Ti,通过公式可确定该静态目标点Ri的置信度Ci。例如:三维地图中共有3个静态目标点X、Y、Z,静态目标点X的出现次数为5次,静态目标点Y的出现次数为3次,静态目标点Z的出现次数为1次,按照出现次数从多到少排序为X>Y>Z,当确定静态目标点Y的置信度时,可确定该静态目标点Y的排序为第2,可确定/>即静态目标点Y的置信度为/>
基于图1所示的地图构建方法,可先获取各环境图像并确定采集各环境图像的相机的相机内参,之后针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,其中,目标点位于环境中物体上,再根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,像素点的类型包括静态物体以及动态物体。然后,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率,以根据各目标点属于静态物体的概率,从各目标点中确定静态目标点。最后根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,该三维地图用于无人车定位。通过各目标点投影到各环境图像中的像素点的类型,确定各目标点位于静态物体的概率,以从各目标点中确定静态目标点,构建三维地图,减少了该三维地图的数据量,节省了存储该三维地图所需的存储空间,降低了使用三维地图进行定位的成本。
需要说明的是,对于任何需要使用三维地图进行定位的设备,均可使用本说明书提供的地图构建方法构建出的三维地图进行定位,本说明书对使用该三维地图进行定位的设备不做限制,可根据需要设置。此外,本说明书通过各目标点在各环境图像中的出现次数,赋予各目标点不同的置信度,置信度较高的目标点的定位权重更大,使得根据该定位权重大的目标点进行定位的结果更精准。
在本说明书中当通过SFM方法确定三维地图中的各目标点时,具体的,该服务器可先对各环境图像进行特征提取,确定各环境图像中的各特征点以及各特征点的图像特征。之后针对每两张环境图像,进行特征点匹配,确定该两张环境图像中匹配的各特征点对。然后针对每组匹配的环境图像,根据该组环境图像中匹配的各特征点对的像素坐标,确定组环境图像的基本矩阵,并根据该组环境图像的基本矩阵以及该相机内参,确定该组环境图像的本质矩阵。再根据该本质矩阵、该相机内参以及该组环境图像中匹配的特征点对的像素坐标,确定该组环境图像中匹配的各特征点对分别对应的目标点的三维坐标,该三维坐标表征目标点与相机之间的相对位姿。最后针对确定出的每个目标点,根据该目标点对应的各特征点的图像特征,确定该目标点的特征信息。
其中,在确定进行特征点匹配的每两张环境图像时,可根据采集各环境图像时的相机位姿,确定相机位姿相近的两个相机采集的两张环境图像,进行特征匹配。
进一步的,在确定匹配的特征点对所对应的目标点的三维坐标时,可通过对本质矩阵进行奇异值(Singular Value Decomposition,SVD)分解,确定采集该组环境图像的相机之间的旋转矩阵以及位移,再根据确定出的旋转矩阵、位移、该相机内参以及该组环境图像中匹配的特征点对的像素坐标,通过双目视觉定位原理,确定该匹配的特征点对所对应的目标点的三维坐标。
更进一步的,由于根据不同组匹配的环境图像进行特征匹配,确定出的同一目标点的三维坐标不一定完全相同,因此为减少确定出的各目标点三维坐标的误差,使获得的三维地图中各目标点的三维坐标更准确。在确定各目标点的三维坐标之前,可针对该三维地图中的每个目标点,根据各组匹配的环境图像确定出的该目标点的三维坐标以及采集各组匹配的环境图像的相机的相对位姿,进行非线性优化处理,通过该目标点的各三维坐标以及各相机位姿之间的约束关系,使重投影误差最小。本说明书对具体的非线性优化方法不做限定,可根据需要设置。其中,该非线性优化具体可以采用光束平差法(BundleAjustment,BA)进行优化,由于通过BA的方法进行非线性优化已经是较为成熟的现有技术,本说明书对此不再赘述。
需要说明的是,当对目标点的三维坐标为进行非线性优化后,再将该三维坐标投影回各环境图像中时,投影到的像素点可能与之前确定目标点三维坐标的特征点的位置之间存在差异。例如:假设根据某两张环境图像中属于建筑物的特征点B,确定出该特征点B对应的目标点B1的三维坐标(X,Y,Z),通过非线性优化后,重新确定出的该目标点B1的三维坐标为(X1,Y1,Z1),此时,再将该目标点B1投影回上述两张环境图像中时,可能投影到建筑物附近的树木上,而非建筑物上。
当通过激光雷达与相机融合的方法确定各目标点的三维坐标以及特征信息时,具体的,可通过无人车上搭载的激光雷达设备遍历待构建的三维地图中的场景,确定该场景中的各激光点云的点云信息,点云信息中至少包含激光点云的三维特征。之后对获取到的各环境图像进行特征提取,确定各环境图像中的各特征点以及各特征点的图像特征。再针对每两张环境图像,进行特征点匹配,确定该两张环境图像中匹配的各特征点对。然后针对每个特征点对,确定该特征点对对应的目标点(即,激光点云),并根据该目标点的点云信息,确定该目标点的三维坐标。最后根据该特征点对的图像特征,确定该目标点的特征信息。
上述通过SFM方法或通过激光雷达结合图像的方法,确定各目标点的特征信息以及三维坐标,已经是较为成熟的现有技术,本说明书对此不再进行详细阐述。
在本说明书步骤S102中,由于动态物体在运动过程中可能会遮挡静态物体,而位于被遮挡的静态物体上的目标点,在无人车采集环境图像定位时可能位于环境图像中的静态物体上,也可能位于环境图像中的动态物体上,则根据该目标点进行定位也是不够精准的,因此本说明书可通过将目标点再投影回各环境图像中,确定目标点对应的像素点的类型,以根据各像素点的类型,确定目标点位于静态物体上的概率较大还是位于动态物体上的概率较大。通过筛选位于静态物体上的概率较大的目标点,减少容易被动态物体遮挡的目标点,使构建出的三维地图的数据量更少,定位精度更高。
如图4所示,假设获取的各环境图像中有三张图像为包含图中建筑物的环境图像,图4中左图为包含建筑物的图像,中间图为包含建筑物以及车辆的图像,其中,车辆遮挡了部分建筑物,右图为包含建筑物以及行人的图像,其中,行人遮挡了部分建筑物。针对建筑物上的目标点A,在采集各环境图像的过程中,该目标点A未被遮挡,属于建筑物的次数为1次,该目标点A被车辆遮挡1次,该目标点A被行人遮挡1次。因此根据采集这三张环境图像的相机的相机位姿以及该目标点A的三维坐标,将该目标点A重新投影回各环境图像中时,投影到建筑物上1次,投影到车辆上1次,投影到行人上1次。又由于建筑物为静态物体,车辆以及行人为动态物体,因此可确定该目标点位于静态物体的次数为1次,位于动态物体的次数为2次,于是,可确定该目标点A为静态目标点。
本说明书对于步骤S102与步骤S104的执行顺序不做限制,可先执行步骤步骤S102再执行步骤S104,也可先执行步骤步骤S104再执行步骤S102,具体可根据需要设置。
当然,在本说明书步骤S106中,也可确定该目标点位于动态物体的概率,则后续在步骤S108中,可根据该目标点位于动态物体的概率,从各目标点中确定动态物体的概率小于第一预设阈值的目标点为静态目标点。
另外,在本说明书中该无人车可用于无人配送,本说明书提供的上述地图构建方法所构建出的三维地图具体可应用在使用无人车进行配送的过程中进行定位,当无人车进行配送时,可根据该三维地图,实时确定自身位置,并根据确定出的自身位置以及目的地,规划配送路径进行配送。具体可用于:如,使用无人车进行快递、外卖等配送的场景中。
进一步地,在本说明书中,并不限制该无人车控制过程的主体,有移动功能的机器人在移动过程中,也可通过执行该视觉定位方法进行定位,或者具有无人驾驶功能的车辆,在实现无人驾驶功能时,也可通过执行该无人车控制过程进行运动状态的规划,或者,智能车辆在控制车辆运动状态时,也可通过该过程进行运动状态的规划,例如,利用车辆在使用自适应巡航控制(AdaptiveCruise Control,ACC)功能时,通过该运动状态规划过程控制车辆的运动状态,等等。在本说明书中执行该运动状态规划过程的主体,既可以是无人车、也可以是机器人、智能车辆或者具有无人驾驶功能的车辆等,本说明书对此不做限制。
基于图1所示的地图构建方法,本说明书实施例还对应提供一种地图构建装置的结构示意图,如图5所示。
图5为本说明书实施例提供的一种地图构建装置的结构示意图,所述装置包括:
获取模块200,获取各环境图像以及确定采集各环境图像的相机的相机内参;
投影模块202,针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,所述目标点位于环境中物体上;
语义分割模块204,根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,所述像素点的类型包括静态物体以及动态物体;
概率确定模块206,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率;
静态目标点确定模块208,根据各目标点位于静态物体的概率,从各目标点中确定静态目标点;
定位模块210,根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,所述三维地图用于无人车定位。
可选地,所述投影模块202具体用于,确定所述相机在采集各环境图像时的相机位姿,根据所述相机在采集各环境图像时的相机位姿以及所述相机内参,确定所述相机采集各环境图像的视野范围,根据该目标点的三维坐标以及所述相机采集各环境图像的视野范围,确定所述相机可采集到该目标点的相机位姿,作为待投影位姿,针对每个待投影位姿,根据该目标点的三维坐标以及该待投影位姿,确定该目标点投影到所述相机在该待投影位姿采集的环境图像时,该目标点所对应的像素点。
可选地,所述语义分割模块204具体用于,获取历史采集的各环境图像,作为训练样本,针对所述训练样本中的每个像素点,确定该像素点所属图像区域的真实类型,作为该像素点的标注,所述真实类型包括静态物体以及动态物体,针对每个训练样本,将该训练样本作为输入,输入待训练的语义分割模型中,输出该训练样本中各像素点的预测类型,以最小化该训练样本中各像素点的预测类型与各像素点的标注之间的差异为优化目标,调整所述语义分割模型中的模型参数。
可选地,所述静态目标点确定模块208具体用于,根据该目标点对应的各像素点的类型,确定类型为静态物体的像素点的数量,根据确定出的类型为静态物体的像素点的数量以及该目标点对应的各像素点的数量,确定该目标点位于静态物体的概率。
可选地,所述静态目标点确定模块208具体用于,针对每个目标点,当该目标点位于静态物体的概率大于第一预设阈值时,确定该目标点为静态目标点。
可选地,所述定位模块210具体用于,针对每个静态目标点,确定该静态目标点对应的各像素点的数量,作为该静态目标点的出现次数,根据该静态目标点的出现次数,确定该静态目标点的置信度,根据该静态目标点的置信度,确定该静态目标点的定位权重,根据确定出的各静态目标点的定位权重,确定三维地图,其中,静态目标点的定位权重越高,根据所述静态目标点进行定位的结果越精准。
可选地,所述定位模块210具体用于,根据各静态目标点的出现次数,对各静态目标点进行排序,根据该静态目标点的排序以及所述静态目标点的数量,确定该静态目标点的置信度。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的地图构建方法。
基于图1所示的地图构建方法,本说明书实施例还提出了图6所示的电子设备的示意结构图。如图6,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所示的地图构建方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (10)
1.一种地图构建方法,其特征在于,包括:
获取各环境图像以及确定采集各环境图像的相机的相机内参;
针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,所述目标点位于环境中物体上;
根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,所述像素点的类型包括静态物体以及动态物体;
根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率;
根据各目标点位于静态物体的概率,从各目标点中确定静态目标点;
根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,所述三维地图用于无人车定位。
2.如权利要求1所述的方法,其特征在于,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,具体包括:
确定所述相机在采集各环境图像时的相机位姿;
根据所述相机在采集各环境图像时的相机位姿以及所述相机内参,确定所述相机采集各环境图像的视野范围;
根据该目标点的三维坐标以及所述相机采集各环境图像的视野范围,确定所述相机可采集到该目标点的相机位姿,作为待投影位姿;
针对每个待投影位姿,根据该目标点的三维坐标以及该待投影位姿,确定该目标点投影到所述相机在该待投影位姿采集的环境图像时,该目标点所对应的像素点。
3.如权利要求1所述的方法,其特征在于,所述语义分割模型采用下述方法进行训练,其中:
获取历史采集的各环境图像,作为训练样本;
针对所述训练样本中的每个像素点,确定该像素点所属图像区域的真实类型,作为该像素点的标注,所述真实类型包括静态物体以及动态物体;
针对每个训练样本,将该训练样本作为输入,输入待训练的语义分割模型中,输出该训练样本中各像素点的预测类型;
以最小化该训练样本中各像素点的预测类型与各像素点的标注之间的差异为优化目标,调整所述语义分割模型中的模型参数。
4.如权利要求1所述的方法,其特征在于,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率,具体包括:
根据该目标点对应的各像素点的类型,确定类型为静态物体的像素点的数量;
根据确定出的类型为静态物体的像素点的数量以及该目标点对应的各像素点的数量,确定该目标点位于静态物体的概率。
5.如权利要求1所述的方法,其特征在于,根据各目标点位于静态物体的概率,从各目标点中确定静态目标点,具体包括:
针对每个目标点,当该目标点位于静态物体的概率大于第一预设阈值时,确定该目标点为静态目标点。
6.如权利要求1所述的方法,其特征在于,确定三维地图,具体包括:
针对每个静态目标点,确定该静态目标点对应的各像素点的数量,作为该静态目标点的出现次数;
根据该静态目标点的出现次数,确定该静态目标点的置信度;
根据该静态目标点的置信度,确定该静态目标点的定位权重;
根据确定出的各静态目标点的定位权重,确定三维地图,其中,静态目标点的定位权重越高,根据所述静态目标点进行定位的结果越精准。
7.如权利要求6所述的方法,其特征在于,根据该静态目标点的出现次数,确定该静态目标点的置信度,具体包括:
根据各静态目标点的出现次数,对各静态目标点进行排序;
根据该静态目标点的排序以及所述静态目标点的数量,确定该静态目标点的置信度。
8.一种地图构建装置,其特征在于,包括:
获取模块,获取各环境图像以及确定采集各环境图像的相机的相机内参;
投影模块,针对每个目标点,将该目标点分别投影到各环境图像中,确定该目标点对应的各像素点,所述目标点位于环境中物体上;
语义分割模块,根据预先训练的语义分割模型,确定各环境图像中各像素点的类型,所述像素点的类型包括静态物体以及动态物体;
概率确定模块,根据该目标点对应的各像素点的类型,确定该目标点位于静态物体的概率;
静态目标点确定模块,根据各目标点位于静态物体的概率,从各目标点中确定静态目标点;
定位模块,根据各静态目标点的三维坐标以及各静态目标点的特征信息,确定三维地图,所述三维地图用于无人车定位。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7任一所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010689886.0A CN111882611B (zh) | 2020-07-17 | 2020-07-17 | 一种地图构建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010689886.0A CN111882611B (zh) | 2020-07-17 | 2020-07-17 | 一种地图构建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111882611A CN111882611A (zh) | 2020-11-03 |
CN111882611B true CN111882611B (zh) | 2023-11-24 |
Family
ID=73155627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010689886.0A Active CN111882611B (zh) | 2020-07-17 | 2020-07-17 | 一种地图构建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111882611B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112766061A (zh) * | 2020-12-30 | 2021-05-07 | 罗普特科技集团股份有限公司 | 一种多模态无监督的行人像素级语义标注方法和系统 |
CN112348029B (zh) * | 2021-01-08 | 2021-08-10 | 禾多科技(北京)有限公司 | 局部地图调整方法、装置、设备和计算机可读介质 |
CN112902987B (zh) * | 2021-02-02 | 2022-07-15 | 北京三快在线科技有限公司 | 一种位姿修正的方法及装置 |
CN113205144B (zh) * | 2021-05-13 | 2022-09-30 | 北京三快在线科技有限公司 | 一种模型训练的方法及装置 |
CN113393515B (zh) * | 2021-05-21 | 2023-09-19 | 杭州易现先进科技有限公司 | 一种结合场景标注信息的视觉定位方法和系统 |
CN113865600B (zh) * | 2021-09-28 | 2023-01-06 | 北京三快在线科技有限公司 | 一种高精地图的构建方法及装置 |
CN114674305A (zh) * | 2022-03-01 | 2022-06-28 | 小米汽车科技有限公司 | 地图处理方法、装置、电子设备、介质及车辆 |
CN117635850A (zh) * | 2022-08-09 | 2024-03-01 | 北京三快在线科技有限公司 | 一种数据处理方法及装置 |
CN115511970B (zh) * | 2022-11-23 | 2023-03-24 | 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) | 一种面向自主泊车的视觉定位方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533720A (zh) * | 2019-08-20 | 2019-12-03 | 西安电子科技大学 | 基于联合约束的语义slam系统及方法 |
CN111145251A (zh) * | 2018-11-02 | 2020-05-12 | 深圳市优必选科技有限公司 | 一种机器人及其同步定位与建图方法和计算机存储设备 |
CN111190981A (zh) * | 2019-12-25 | 2020-05-22 | 中国科学院上海微系统与信息技术研究所 | 一种三维语义地图的构建方法、装置、电子设备及存储介质 |
CN111288971A (zh) * | 2020-03-26 | 2020-06-16 | 北京三快在线科技有限公司 | 一种视觉定位方法及装置 |
WO2020119684A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种3d导航语义地图更新方法、装置及设备 |
CN111311709A (zh) * | 2020-02-05 | 2020-06-19 | 北京三快在线科技有限公司 | 一种生成高精地图的方法及装置 |
CN111402336A (zh) * | 2020-03-23 | 2020-07-10 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
-
2020
- 2020-07-17 CN CN202010689886.0A patent/CN111882611B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145251A (zh) * | 2018-11-02 | 2020-05-12 | 深圳市优必选科技有限公司 | 一种机器人及其同步定位与建图方法和计算机存储设备 |
WO2020119684A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种3d导航语义地图更新方法、装置及设备 |
CN110533720A (zh) * | 2019-08-20 | 2019-12-03 | 西安电子科技大学 | 基于联合约束的语义slam系统及方法 |
CN111190981A (zh) * | 2019-12-25 | 2020-05-22 | 中国科学院上海微系统与信息技术研究所 | 一种三维语义地图的构建方法、装置、电子设备及存储介质 |
CN111311709A (zh) * | 2020-02-05 | 2020-06-19 | 北京三快在线科技有限公司 | 一种生成高精地图的方法及装置 |
CN111402336A (zh) * | 2020-03-23 | 2020-07-10 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
CN111288971A (zh) * | 2020-03-26 | 2020-06-16 | 北京三快在线科技有限公司 | 一种视觉定位方法及装置 |
Non-Patent Citations (1)
Title |
---|
DynaSLAM: Tracking, Mapping and Inpainting in Dynamic Scenes;Berta Bescos 等;《arXiv》;第1-8页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111882611A (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111882611B (zh) | 一种地图构建方法及装置 | |
CN111311709B (zh) | 一种生成高精地图的方法及装置 | |
CN111639682B (zh) | 基于点云数据的地面分割方法及装置 | |
CN112348885B (zh) | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 | |
CN112036462B (zh) | 一种模型训练以及目标检测的方法及装置 | |
CN112015847A (zh) | 一种障碍物的轨迹预测方法、装置、存储介质及电子设备 | |
CN111508258A (zh) | 一种定位方法及装置 | |
CN111288971B (zh) | 一种视觉定位方法及装置 | |
CN111238450A (zh) | 视觉定位方法及装置 | |
CN111062372B (zh) | 一种预测障碍物轨迹的方法及装置 | |
CN110660103A (zh) | 一种无人车定位方法及装置 | |
CN111797711A (zh) | 一种模型训练的方法及装置 | |
CN114440903A (zh) | 一种高精地图构建方法、装置、存储介质及电子设备 | |
CN112861831A (zh) | 一种目标物的识别方法、装置、存储介质及电子设备 | |
CN116012483A (zh) | 一种图像渲染的方法、装置、存储介质及电子设备 | |
CN112818968A (zh) | 一种目标物分类方法及装置 | |
CN116245961B (zh) | 一种基于多类传感器信息的融合感知方法及系统 | |
CN116402903A (zh) | 一种相机外参标定方法、装置、设备、介质及程序产品 | |
CN111414818A (zh) | 一种基于环境图像的定位方法及装置 | |
CN116342690A (zh) | 一种目标物定位的方法及装置、存储介质及电子设备 | |
CN112734851B (zh) | 一种位姿确定的方法以及装置 | |
CN112184901A (zh) | 一种深度图确定方法及装置 | |
CN114332189A (zh) | 一种高精地图构建方法、装置、存储介质及电子设备 | |
CN112329547A (zh) | 一种数据处理方法及装置 | |
CN114549579A (zh) | 一种目标物跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |