CN111311709A - 一种生成高精地图的方法及装置 - Google Patents
一种生成高精地图的方法及装置 Download PDFInfo
- Publication number
- CN111311709A CN111311709A CN202010080328.4A CN202010080328A CN111311709A CN 111311709 A CN111311709 A CN 111311709A CN 202010080328 A CN202010080328 A CN 202010080328A CN 111311709 A CN111311709 A CN 111311709A
- Authority
- CN
- China
- Prior art keywords
- point
- position information
- point cloud
- spatial position
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004590 computer program Methods 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本说明书公开了一种生成高精地图的方法及装置,可获取二维图像以及点云,并根据预设的元素分类,确定二维图像中各像素点对应的元素类别,以及根据图像传感器与激光雷达在采集设备上的相对位置,确定点云中各点在二维图像中对应的像素点。由于点云中的点在二维图像上有对应的像素点,可将像素点对应的元素类别确定为点云中的点对应的元素类别,根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。上述方法实现了点云中的点同时具有空间位置信息以及元素类别信息,相对于现有技术,上述方法极大的提高了生成高精地图的精度。
Description
技术领域
本说明书涉及导航技术领域,尤其涉及一种生成高精地图的方法及装置。
背景技术
随着导航技术的发展,导航路径的规划越来越依赖于高精地图。高精地图的精度越高,导航路径规划越精细。
高精地图的获取,可通过图像传感器采集图像,从采集的图像中提取可绘制高精地图的元素,其中可绘制高精地图的元素包括车道线、交通灯等。根据图像传感器的位姿信息,将图像中的元素进行结构化处理,得到图像对应的三维信息,根据三维信息,生成高精地图。
但是,由于图像传感器采集的图像中的各像素点不包括景深信息,上述方法对元素进行结构化处理得到图像对应的三维信息时,不能保证图像中的各像素点转换为三维信息的精度。因此,根据现有技术生成的高精地图,无法满足导航技术对高精地图的精度要求。
发明内容
本说明书实施例提供一种生成高精地图的方法及装置,以部分解决现有技术存在的上述问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种生成高精地图的方法,采集设备上设置有图像传感器以及用于采集点云的激光雷达,所述方法包括:
获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云;
根据预设的元素分类,确定所述二维图像中各像素点对应的元素类别;
针对所述点云中的每个点,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,并将该像素点对应的元素类别确定为所述点云中的该点对应的元素类别;
根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。
可选地,获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云,具体包括:
获取所述图像传感器采集的二维图像,并将所述图像传感器采集二维图像的时间作为参考时间;
获取所述激光雷达在所述参考时间的指定邻域内采集到的点云。
可选地,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,具体包括:
根据所述图像传感器和所述激光雷达的相对位置,确定点云投影参数;
根据所述点云投影参数,将所述点云中的该点的空间位置信息进行坐标变换,得到所述点云中的该点在所述二维图像中的映射位置;
将所述二维图像中位于所述映射位置的像素点作为所述点云中的该点在所述二维图像中对应的像素点。
可选地,获取所述激光雷达采集的点云,具体包括:
获取所述激光雷达采集的若干帧点云;
根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图,具体包括:
针对所述若干帧点云中的任意两帧点云,若该任意两帧点云满足拼接条件,则将该任意两帧点云进行拼接,其中,所述拼接条件包括该任意两帧点云包含至少一个同一元素;
根据各元素类别在拼接后的点云中分别对应的点的空间位置信息,生成所述高精地图。
可选地,根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图,具体包括:
根据所述点云中的各点对应的元素类别,将所述点云中的各点进行聚类,得到各元素类别对应的点集合;
针对各元素类别,根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息;
根据各元素类别对应的元素的空间位置信息,生成所述高精地图。
可选地,所述元素类别包括交通灯、标志牌中的至少一种;
根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息,具体包括:
对该元素类别对应的点集合进行去噪处理,得到该元素类别对应的去噪点集合;
根据所述去噪点集合中的各点的空间位置信息,拟合所述去噪点集合中的各点,得到该元素类别对应的元素的空间位置信息。
可选地,所述元素类别包括道路标线;
根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息,具体包括:
根据所述道路标线对应的点集合中的各点的空间位置信息,聚合所述道路标线对应的点集合中的各点,得到若干点子集;
针对每个点子集,根据该点子集中的各点的空间位置信息,拟合该点子集中的各点,得到该点子集对应的道路标线的空间位置信息。
本说明书提供一种生成高精地图的装置,所述装置所在的采集设备上设置有图像传感器以及用于采集点云的激光雷达,所述装置包括:
获取模块,用于获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云;
第一确定模块,用于根据预设的元素分类,确定所述二维图像中各像素点对应的元素类别;
第二确定模块,用于针对所述点云中的每个点,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,并将该像素点对应的元素类别确定为所述点云中的该点对应的元素类别;
生成模块,用于根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述生成高精地图的方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述生成高精地图方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
采集设备上设置有图像传感器以及用于采集点云的激光雷达,可获取二维图像以及点云,并根据预设的元素分类,确定二维图像中各像素点对应的元素类别,以及根据图像传感器与激光雷达的相对位置,确定点云中各点在二维图像中对应的像素点。由于点云中的点在二维图像上有对应的像素点,可将像素点对应的元素类别确定为点云中的点对应的元素类别,实现了点云中的点同时具有空间位置信息以及元素类别信息,而现有技术中二维图像中各像素点仅具有元素类别信息,而单独的激光激光雷达点云中的点难以获取丰富的类别信息。因此,相对于现有技术根据二维图像中的像素点生成的高精地图,本说明书根据各元素类别分别对应的点云中的点的空间位置信息生成的高精地图,极大地提高了生成高精地图的精度以及高精地图包含的元素的丰富程度。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的一种生成高精地图的方法流程图;
图2为本说明书实施例提供的二维图像中各像素点对应的元素类别示意图;
图3为本说明书实施例提供的点云中的各点映射到二维图像中的像素点并确定点云中各点对应的元素类别的示意图;
图4为本说明书实施例提供的一种生成高精地图的装置的结构示意图;
图5为本说明书实施例提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种生成高精地图的方法流程图,具体可包括以下步骤:
S100:获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云。
在本说明书中,采集设备可用于在地图建图区域采集数据,根据采集的数据,生成建图区域内的高精地图。高精地图可供无人设备使用,包括面向无人设备的地图数据,提供高精度的定位信息。其中,地图数据(也即,高精地图)可包括道路标线、交通灯、标志牌、车道连接关系等。
采集设备上设置有用于采集二维图像的图像传感器以及用于采集点云的激光雷达。另外,采集设备上还设置有全球导航卫星系统(Global Navigation SatelliteSystem,GNSS)设备。GNSS设备可输出位姿数据,其中,位姿数据可由WGS84(World GeodeticSystem 1984)坐标表示或者由通用横墨卡托格网系统(Universal Transverse MercatorGrid System,UTM)坐标表示。由于图像传感器中的光学透镜存在的透视失真(也即,镜头畸变),并且镜头的边缘处相对于镜头中心的透视失真更严重,因此,可在采集设备上设置多个图像传感器,在对图像传感器采集的二维图像进行图像处理时,可丢弃二维图像边缘处的像素点。当然,在采集设备上还可以设置多个激光雷达,其中,图像传感器、激光雷达以及GNSS设备分别安装在采集设备上的固定位置。
在获取图像传感器采集的二维图像以及激光雷达采集的点云时,首先,采集设备可获取图像传感器采集的二维图像,并将图像传感器采集二维图像的时间作为参考时间。然后,采集设备可获取激光雷达在参考时间的指定邻域内采集到的点云。
具体的,由于采集设备在建图区域内处于移动状态,在生成高精地图时,首先需要确保获取的点云的采集时间处于获取的二维图像的采集时间的指定邻域内,图像传感器采集的二维图像中的元素与激光雷达采集的点云中的元素相同,以便于后续步骤中确定点云中的各点在二维图像中对应的像素点。采集设备可将图像传感器采集二维图像的采集时间作为参考时间,在参考时间的指定邻域内,若存在激光雷达采集到的点云,则获取图像传感器在参考时间采集的二维图像以及激光雷达在参考时间的指定邻域内采集的点云。需要说明的是,参考时间的指定邻域小于预设的第一时间间隔阈值,当然,第一时间间隔阈值的设置也与采集设备在建图区域内移动的速度有关,本说明书不再赘述。
当然,在获取二维图像以及点云时,还可以通过其他方法获取采集时间为同一时间点的二维图像以及点云。例如,可将GNSS设备采集的位姿数据的采集时间作为参考时间,在图像传感器采集的二维图像中,判断该二维图像的采集时间与参考时间的时间间隔是否小于第一时间间隔阈值,在激光雷达采集的点云中,判断该点云的采集时间与参考时间的时间间隔是否小于第一时间间隔阈值,若均小于,则获取该二维图像以及该点云。
S102:根据预设的元素分类,确定所述二维图像中各像素点对应的元素类别。
根据高精地图中包含的元素,采集设备可预先设置元素分类,例如,可设置元素分类为道路标线类别、交通灯类别、标志牌类别等。采集设备在获取到图像传感器采集的二维图像后,可对二维图像进行图像处理,得到二维图像中各像素点对应的元素类别。
具体的,采集设备可将二维图像输入预先训练的机器学习模型,得到机器学习模型输出的二维图像中各像素点对应的元素类别。其中,采集设备可预先对机器学习模型进行有监督训练。机器学习模型可选择诸如全卷积网络(Fully Convolutional Networks,FCN)模型、R-CNN(Regions with CNN features)模型等深度神经网络(Deep NeuralNetworks,DNN)模型。
另外,采集设备还可采用诸如图像分割或者Canny算子、sobel算子等边缘检测方法,确定二维图像中各像素点对应的元素类别。本说明书中不再一一赘述。
采集设备在确定二维图像中各像素点对应的元素类别时,还可筛选出道路标线类别、交通灯类别、标志牌类别等对应的像素点,可不处理二维图像中其他的像素点。例如,图像传感器采集的二维图像包括蓝天、地面、道路标线、交通灯、标志牌、车辆等元素,在确定二维图像中各像素点对应的元素类别时,可筛选出道路标线、交通灯、标志牌等元素对应的像素点,丢弃掉蓝天、地面、车辆等元素对应的像素点。采集设备确定的二维图像中各像素点对应的元素类别可如图2所示。
图2为本说明书实施例提供的二维图像中各像素点对应的元素类别示意图。在图2中,为便于区分各元素对应的像素点,不同元素类别对应的像素点颜色不同,同一像素类别对应的像素点颜色相同。颜色最浅的区域内各像素点对应的元素类别为标志牌,颜色最深的区域内各像素点对应的元素类别为交通灯,颜色深浅程度中等的区域内各像素点对应的元素类别为道路标线。
S104:针对所述点云中的每个点,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,并将该像素点对应的元素类别确定为所述点云中的该点对应的元素类别。
在确定二维图像中各像素点对应的元素类别后,采集设备根据图像传感器和激光雷达的相对位置,可将点云中的各点映射到二维图像中的像素点,并且根据二维图像中像素点对应的元素类别,确定点云中各点对应的元素类别。
首先,针对点云中的每个点,根据图像传感器和激光雷达的相对位置,采集设备可确定点云投影参数,根据点云投影参数,将点云中的该点的空间位置信息进行坐标变换,得到点云中的该点在二维图像中的映射位置,将二维图像中位于映射位置的像素点作为点云中的该点在二维图像中对应的像素点。然后,采集设备将该像素点对应的元素类别确定为点云中该点对应的元素类别。
具体的,由于图像传感器与激光雷达分别安装在采集设备上的固定位置,因此,根据图像传感器和激光雷达的相对位置,采集设备可确定点云投影参数。采集设备将点云中的各点进行坐标变换时,针对点云中的各点,根据点云投影参数,可将点云中的该点的坐标信息从点云对应的三维空间坐标转换为二维图像对应的二维平面坐标。在点云中的该点进行坐标变换后,点云中的该点在二维图像对应的二维平面坐标,即为点云中的该点在二维图像中的映射位置。二维图像中位于映射位置的像素点,即为点云中的该点在二维图像中对应的像素点。以元素类别为道路标线类别为例,当位于映射位置的像素点对应的元素类别为道路标线类别时,点云中的该点对应的元素类别即为道路标线类别。
采集设备将点云中的各点映射到二维图像中的像素点时,同样可筛选出道路标线类别、交通灯类别、标志牌类别等对应的像素点。图3为本说明书实施例提供的点云中的各点映射到二维图像中的像素点并确定点云中各点对应的元素类别的示意图。采集设备将点云中的各点映射到二维图像中的像素点并确定点云中各点对应的元素类别可如图3所示。
S106:根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。
采集设备确定获取的点云中各点对应的元素类别,也即,确定各元素类别分别对应的点云中的点。在根据各元素类别分别对应的点云中的点的空间位置信息生成高精地图时,可首先根据点云中的各点对应的元素类别,将点云中的各点进行聚类,得到各元素类别对应的点集合。
然后,针对各元素类别,根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息。
具体的,采集设备可对该元素类别对应的点集合中的各点进行处理,根据处理后的该元素类别对应的点集合中的各点的空间位置,拟合该元素类别对应的处理后的点集合中的各点。
当该元素类别包括交通灯、标志牌中的至少一种时,采集设备可对该元素类别对应的点集合进行去噪处理。采集设备可将该元素类别对应的点集合中的各点输入分类器,得到分类器输出的该元素类别对应的去噪点集合。其中,分类器可以是机器学习模型,采集设备可预先对机器学习模型进行训练。机器学习模型可包括支持向量机(Support VectorMachines,SVM)模型、随机森林(Random forest)模型等。除了采用分类器之外,采集设备还可以预设噪点阈值,将该元素类别对应的点集合中的各点的反射值与噪点阈值对比,根据对比结果,确定该元素类别对应的点集合中的噪点,并将噪点从该元素类别对应的点集合中剔除,得到该元素类别对应的去噪点集合。根据激光雷达与GNSS设备的相对位置,确定去噪点集合中的各点的WGS84坐标或者UTM坐标。根据去噪点集合中的各点的坐标信息,拟合去噪点集合中的各点,确定该元素类别对应的元素的空间方程。在拟合去噪点集合中的各点时,由于该元素类别对应的元素的设置,遵循国家标准或者行业标准,例如,GB 5768-1999道路交通标志和标线,因此,可根据国家标准或者行业标准中的要求,拟合去噪点集合中的各点,得到符合国家标准或者行业标准中要求的该元素类别对应的元素的空间方程。根据去噪点集合中各点的WGS84坐标或者UTM坐标,确定该元素类别对应的元素的空间位置信息。
当该元素类别包括道路标线时,采集设备可根据道路标线对应的点集合中的各点的WGS84坐标或者UTM坐标,在道路标线对应的点集合中的选择指定点,将道路标线对应的点集合中与指定点之间的闵式距离小于预设的闵式距离阈值的点进行聚合,得到若干点子集。由于道路标线存在实线、虚线等,因此得到的每个点子集对应一段道路标线。针对每个点子集,根据该点子集中的各点的WGS84坐标或者UTM坐标,拟合该点子集中的各点,确定该点子集对应的道路标线的空间方程。根据该点子集中各点的WGS84坐标或者UTM坐标,确定该点子集对应的道路标线的空间位置信息。
最后,根据各元素类别对应的元素的空间位置信息,生成高精地图。
根据各元素类别分别对应的元素的空间方程,可确定该元素类别对应的元素的空间位置信息。根据各元素类别对应的元素的空间位置信息,将各元素类别对应的元素进行排列,可生成高精地图。
通过上述内容,采集设备可根据获取的激光雷达采集的单帧点云,生成高精地图。由于在单帧点云中,同一元素对应的点云点通常比较稀疏。因此,采集设备还可获取激光雷达采集的若干帧点云,针对若干帧点云中的任意两帧点云,若该任意两帧点云满足拼接条件,则将该任意两帧点云进行拼接,其中,拼接条件包括该任意两帧点云包含至少一个同一元素,根据各元素类别在拼接后的点云中分别对应的点的空间位置信息,生成高精地图。
具体的,首先,采集设备可获取激光雷达采集的若干帧点云,根据上述步骤S100~步骤S104,将每一帧点云进行处理,得到每一帧点云中的各点对应的元素类别。然后,针对若干帧点云中的任意两帧点云,根据该任意两帧点云中相同元素类别对应的点的空间位置信息,判断该任意两帧点云中相同元素类别对应的点的距离是否小于预设的距离阈值,当判断为小于时,则该任意两帧点云满足拼接条件,也即,该任意两帧点云包含相同元素类别对应的同一元素。当获取的若干帧点云中任意两帧点云满足拼接条件时,采集设备还可将若干帧点云进行拼接。
在获取若干帧点云时,采集设备可不关注每一帧点云的采集时间,相邻两帧点云的采集时间间隔可以是一周或者一个月等,这是因为,当若干帧点云中的任意两帧点云包含至少一个元素类别对应的至少一个同一元素时,可根据若干帧点云中各点的空间位置信息,将若干帧点云拼接为一帧点云。相对单帧点云,在拼接得到的点云中,上文中的同一元素对应的点更加稠密,可根据该同一元素对应的拼接得到的点云中的点的空间位置信息,确定该同一元素的元素空间位置信息。
当然,在获取若干帧点云时,还可获取激光雷达在预设的时间段内采集的若干帧点云,由于采集设备在建图区域内处于移动状态,采集设备在预设的时间段内采集的若干帧点云中,每一帧点云均包含至少一个元素类别对应的至少一个同一元素。因此,采集设备可按照激光雷达采集点云的采集时间,将获取的多帧点云进行拼接,或者,可根据GNSS设备与激光雷达的相对位置,将多帧点云中各点进行坐标变换,确定多帧点云中各点的WGS84坐标或UTM坐标,根据WGS84坐标或UTM坐标,将多帧点云中的各点进行排列,得到多帧点云拼接的一帧点云。在拼接得到的点云中,同一元素对应的点云点比较稠密,更有利于生成高精地图。
另外,这里需要说明的是,预设的时间间隔大于上文中预设的第一时间间隔阈值。采集设备预设第一时间间隔阈值,可确保获取的二维图像的采集时间与获取的点云的采集时间处于同一时间点,点云包含的元素与二维图像包含的元素相同,可将点云中的各点映射到二维图像中的像素点。而采集设备在预设的时间间隔内获取激光雷达采集的若干帧点云,当若干帧点云中任意两帧点云包含至少一个同一元素时,将若干帧点云进行拼接,可确保同一元素对应的点云点比较稠密,生成的高精地图效果更好。
本说明书中,采集设备根据上述内容生成的高精地图,可应用于导航技术中。由于相对于现有技术,高精地图的精度更高,无人设备规划的导航路径更精细。另外,高精地图还可应用于无人设备的定位技术中,根据本说明书生成的高精地图,无人设备的定位更准确。
本说明书提供的上述高精地图的生成方法具体可应用于使用无人设备进行配送的领域,例如,使用无人设备进行快递、外卖等配送的场景。具体的,在上述的场景中,可使用多个无人设备所构成的无人驾驶车队进行配送。
基于图1所示的生成高精地图的方法,本说明书实施例还对应提供一种生成高精地图的装置的结构示意图,如图4所示。
图4为本说明书实施例提供的一种生成高精地图的装置的结构示意图,所述装置所在的采集设备上设置有图像传感器以及用于采集点云的激光雷达,所述装置包括:
获取模块401,用于获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云;
第一确定模块402,用于根据预设的元素分类,确定所述二维图像中各像素点对应的元素类别;
第二确定模块403,用于针对所述点云中的每个点,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,并将该像素点对应的元素类别确定为所述点云中的该点对应的元素类别;
生成模块404,用于根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。
可选地,所述获取模块401具体用于,获取所述图像传感器采集的二维图像,并将所述图像传感器采集二维图像的时间作为参考时间,获取所述激光雷达在所述参考时间的指定邻域内采集到的点云。
可选地,所述第二确定模块403具体用于,根据所述图像传感器和所述激光雷达的相对位置,确定点云投影参数,根据所述点云投影参数,将所述点云中的该点的空间位置信息进行坐标变换,得到所述点云中的该点在所述二维图像中的映射位置,将所述二维图像中位于所述映射位置的像素点作为所述点云中的该点在所述二维图像中对应的像素点。
可选地,所述获取模块401具体用于,获取所述激光雷达采集的若干帧点云;
所述生成模块404具体用于,针对所述若干帧点云中的任意两帧点云,若该任意两帧点云满足拼接条件,则将该任意两帧点云进行拼接,其中,所述拼接条件包括该任意两帧点云包含至少一个同一元素,根据各元素类别在拼接后的点云中分别对应的点的空间位置信息,生成所述高精地图。
可选地,所述生成模块404具体用于,根据所述点云中的各点对应的元素类别,将所述点云中的各点进行聚类,得到各元素类别对应的点集合,针对各元素类别,根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息,根据各元素类别对应的元素的空间位置信息,生成所述高精地图。
可选地,所述元素类别包括交通灯、标志牌中的至少一种;
所述生成模块404具体用于,对该元素类别对应的点集合进行去噪处理,得到该元素类别对应的去噪点集合,根据所述去噪点集合中的各点的空间位置信息,拟合所述去噪点集合中的各点,得到该元素类别对应的元素的空间位置信息。
可选地,所述元素类别包括道路标线;
所述生成模块404具体用于,根据所述道路标线对应的点集合中的各点的空间位置信息,聚合所述道路标线对应的点集合中的各点,得到若干点子集,针对每个点子集,根据该点子集中的各点的空间位置信息,拟合该点子集中的各点,得到该点子集对应的道路标线的空间位置信息。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的生成高精地图的方法。
基于图1所示的生成高精地图的方法,本说明书实施例还提出了图5所示的电子设备的示意结构图。如图5,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的生成高精地图的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (10)
1.一种生成高精地图的方法,其特征在于,采集设备上设置有图像传感器以及用于采集点云的激光雷达,所述方法包括:
获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云;
根据预设的元素分类,确定所述二维图像中各像素点对应的元素类别;
针对所述点云中的每个点,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,并将该像素点对应的元素类别确定为所述点云中的该点对应的元素类别;
根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。
2.如权利要求1所述的方法,其特征在于,获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云,具体包括:
获取所述图像传感器采集的二维图像,并将所述图像传感器采集二维图像的时间作为参考时间;
获取所述激光雷达在所述参考时间的指定邻域内采集到的点云。
3.如权利要求1所述的方法,其特征在于,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,具体包括:
根据所述图像传感器和所述激光雷达的相对位置,确定点云投影参数;
根据所述点云投影参数,将所述点云中的该点的空间位置信息进行坐标变换,得到所述点云中的该点在所述二维图像中的映射位置;
将所述二维图像中位于所述映射位置的像素点作为所述点云中的该点在所述二维图像中对应的像素点。
4.如权利要求1所述的方法,其特征在于,获取所述激光雷达采集的点云,具体包括:
获取所述激光雷达采集的若干帧点云;
根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图,具体包括:
针对所述若干帧点云中的任意两帧点云,若该任意两帧点云满足拼接条件,则将该任意两帧点云进行拼接,其中,所述拼接条件包括该任意两帧点云包含至少一个同一元素;
根据各元素类别在拼接后的点云中分别对应的点的空间位置信息,生成所述高精地图。
5.如权利要求1所述的方法,其特征在于,根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图,具体包括:
根据所述点云中的各点对应的元素类别,将所述点云中的各点进行聚类,得到各元素类别对应的点集合;
针对各元素类别,根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息;
根据各元素类别对应的元素的空间位置信息,生成所述高精地图。
6.如权利要求5所述的方法,其特征在于,所述元素类别包括交通灯、标志牌中的至少一种;
根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息,具体包括:
对该元素类别对应的点集合进行去噪处理,得到该元素类别对应的去噪点集合;
根据所述去噪点集合中的各点的空间位置信息,拟合所述去噪点集合中的各点,得到该元素类别对应的元素的空间位置信息。
7.如权利要求5所述的方法,其特征在于,所述元素类别包括道路标线;
根据该元素类别对应的点集合中的各点的空间位置信息,拟合该元素类别对应的点集合中的各点,得到该元素类别对应的元素的空间位置信息,具体包括:
根据所述道路标线对应的点集合中的各点的空间位置信息,聚合所述道路标线对应的点集合中的各点,得到若干点子集;
针对每个点子集,根据该点子集中的各点的空间位置信息,拟合该点子集中的各点,得到该点子集对应的道路标线的空间位置信息。
8.一种生成高精地图的装置,其特征在于,所述装置所在的采集设备上设置有图像传感器以及用于采集点云的激光雷达,所述装置包括:
获取模块,用于获取所述图像传感器采集的二维图像以及所述激光雷达采集的点云;
第一确定模块,用于根据预设的元素分类,确定所述二维图像中各像素点对应的元素类别;
第二确定模块,用于针对所述点云中的每个点,根据所述图像传感器和所述激光雷达的相对位置,确定该点在所述二维图像中对应的像素点,并将该像素点对应的元素类别确定为所述点云中的该点对应的元素类别;
生成模块,用于根据各元素类别分别对应的点云中的点的空间位置信息,生成高精地图。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7任一所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080328.4A CN111311709B (zh) | 2020-02-05 | 2020-02-05 | 一种生成高精地图的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080328.4A CN111311709B (zh) | 2020-02-05 | 2020-02-05 | 一种生成高精地图的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111311709A true CN111311709A (zh) | 2020-06-19 |
CN111311709B CN111311709B (zh) | 2023-06-20 |
Family
ID=71159902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010080328.4A Active CN111311709B (zh) | 2020-02-05 | 2020-02-05 | 一种生成高精地图的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111311709B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882611A (zh) * | 2020-07-17 | 2020-11-03 | 北京三快在线科技有限公司 | 一种地图构建方法及装置 |
CN111986214A (zh) * | 2020-08-26 | 2020-11-24 | 湖北亿咖通科技有限公司 | 一种地图中人行横道的构建方法和电子设备 |
CN112200868A (zh) * | 2020-09-30 | 2021-01-08 | 深兰人工智能(深圳)有限公司 | 定位方法、装置和车辆 |
CN112309233A (zh) * | 2020-10-26 | 2021-02-02 | 北京三快在线科技有限公司 | 一种道路边界的确定、道路切分方法及装置 |
CN112541049A (zh) * | 2020-12-25 | 2021-03-23 | 北京百度网讯科技有限公司 | 高精地图处理方法、装置、设备、存储介质和程序产品 |
CN113112597A (zh) * | 2021-04-13 | 2021-07-13 | 上海商汤临港智能科技有限公司 | 交通元素的显示方法、装置、电子设备及存储介质 |
CN113409459A (zh) * | 2021-06-08 | 2021-09-17 | 北京百度网讯科技有限公司 | 高精地图的生产方法、装置、设备和计算机存储介质 |
CN113673388A (zh) * | 2021-08-09 | 2021-11-19 | 北京三快在线科技有限公司 | 一种目标物位置的确定方法、装置、存储介质及设备 |
CN113762413A (zh) * | 2021-09-30 | 2021-12-07 | 智道网联科技(北京)有限公司 | 点云数据与图像数据融合方法及存储介质 |
CN114413881A (zh) * | 2022-01-07 | 2022-04-29 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114440903A (zh) * | 2022-01-21 | 2022-05-06 | 北京三快在线科技有限公司 | 一种高精地图构建方法、装置、存储介质及电子设备 |
CN115162128A (zh) * | 2022-06-20 | 2022-10-11 | 高德软件有限公司 | 道路标线的生成方法、绘制信息的采集方法、装置和设备 |
CN117635850A (zh) * | 2022-08-09 | 2024-03-01 | 北京三快在线科技有限公司 | 一种数据处理方法及装置 |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678689A (zh) * | 2015-12-31 | 2016-06-15 | 百度在线网络技术(北京)有限公司 | 高精地图数据配准关系确定方法及装置 |
CN106097444A (zh) * | 2016-05-30 | 2016-11-09 | 百度在线网络技术(北京)有限公司 | 高精地图生成方法和装置 |
US20170061632A1 (en) * | 2015-08-24 | 2017-03-02 | Qualcomm Incorporated | Systems and methods for depth map sampling |
CN107145578A (zh) * | 2017-05-08 | 2017-09-08 | 深圳地平线机器人科技有限公司 | 地图构建方法、装置、设备和系统 |
CN108088444A (zh) * | 2016-11-22 | 2018-05-29 | 广州映博智能科技有限公司 | 基于三维激光的室内点云地图生成系统及方法 |
CN108801276A (zh) * | 2018-07-23 | 2018-11-13 | 奇瑞汽车股份有限公司 | 高精度地图生成方法及装置 |
CN108920584A (zh) * | 2018-06-25 | 2018-11-30 | 广州视源电子科技股份有限公司 | 一种语义栅格地图生成方法及其装置 |
CN109461211A (zh) * | 2018-11-12 | 2019-03-12 | 南京人工智能高等研究院有限公司 | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 |
CN109767452A (zh) * | 2018-12-24 | 2019-05-17 | 深圳市道通智能航空技术有限公司 | 一种目标定位方法和装置、无人机 |
CN109801358A (zh) * | 2018-12-06 | 2019-05-24 | 宁波市电力设计院有限公司 | 一种基于slam扫描和点云影像融合的变电站三维勘测方法 |
CN109816697A (zh) * | 2019-02-02 | 2019-05-28 | 绥化学院 | 一种无人模型车建立地图的系统及方法 |
CN109840880A (zh) * | 2017-11-27 | 2019-06-04 | 北京图森未来科技有限公司 | 一种路面识别方法和装置 |
CN109993780A (zh) * | 2019-03-07 | 2019-07-09 | 深兰科技(上海)有限公司 | 一种三维高精度地图生成方法及装置 |
CN110057373A (zh) * | 2019-04-22 | 2019-07-26 | 上海蔚来汽车有限公司 | 用于生成高精细语义地图的方法、装置和计算机存储介质 |
CN110097620A (zh) * | 2019-04-15 | 2019-08-06 | 西安交通大学 | 基于图像和三维激光的高精度地图创建系统 |
CN110148099A (zh) * | 2019-05-29 | 2019-08-20 | 北京百度网讯科技有限公司 | 投影关系的修正方法及装置、电子设备、计算机可读介质 |
CN110148196A (zh) * | 2018-09-12 | 2019-08-20 | 腾讯大地通途(北京)科技有限公司 | 一种图像处理方法、装置以及相关设备 |
CN110160502A (zh) * | 2018-10-12 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 地图要素提取方法、装置及服务器 |
CN110400363A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 基于激光点云的地图构建方法和装置 |
CN110568451A (zh) * | 2019-08-02 | 2019-12-13 | 北京三快在线科技有限公司 | 一种高精度地图中道路交通标线的生成方法和装置 |
-
2020
- 2020-02-05 CN CN202010080328.4A patent/CN111311709B/zh active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061632A1 (en) * | 2015-08-24 | 2017-03-02 | Qualcomm Incorporated | Systems and methods for depth map sampling |
CN105678689A (zh) * | 2015-12-31 | 2016-06-15 | 百度在线网络技术(北京)有限公司 | 高精地图数据配准关系确定方法及装置 |
CN106097444A (zh) * | 2016-05-30 | 2016-11-09 | 百度在线网络技术(北京)有限公司 | 高精地图生成方法和装置 |
CN108088444A (zh) * | 2016-11-22 | 2018-05-29 | 广州映博智能科技有限公司 | 基于三维激光的室内点云地图生成系统及方法 |
CN107145578A (zh) * | 2017-05-08 | 2017-09-08 | 深圳地平线机器人科技有限公司 | 地图构建方法、装置、设备和系统 |
CN109840880A (zh) * | 2017-11-27 | 2019-06-04 | 北京图森未来科技有限公司 | 一种路面识别方法和装置 |
CN110400363A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 基于激光点云的地图构建方法和装置 |
CN108920584A (zh) * | 2018-06-25 | 2018-11-30 | 广州视源电子科技股份有限公司 | 一种语义栅格地图生成方法及其装置 |
CN108801276A (zh) * | 2018-07-23 | 2018-11-13 | 奇瑞汽车股份有限公司 | 高精度地图生成方法及装置 |
CN110148196A (zh) * | 2018-09-12 | 2019-08-20 | 腾讯大地通途(北京)科技有限公司 | 一种图像处理方法、装置以及相关设备 |
CN110160502A (zh) * | 2018-10-12 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 地图要素提取方法、装置及服务器 |
CN109461211A (zh) * | 2018-11-12 | 2019-03-12 | 南京人工智能高等研究院有限公司 | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 |
CN109801358A (zh) * | 2018-12-06 | 2019-05-24 | 宁波市电力设计院有限公司 | 一种基于slam扫描和点云影像融合的变电站三维勘测方法 |
CN109767452A (zh) * | 2018-12-24 | 2019-05-17 | 深圳市道通智能航空技术有限公司 | 一种目标定位方法和装置、无人机 |
CN109816697A (zh) * | 2019-02-02 | 2019-05-28 | 绥化学院 | 一种无人模型车建立地图的系统及方法 |
CN109993780A (zh) * | 2019-03-07 | 2019-07-09 | 深兰科技(上海)有限公司 | 一种三维高精度地图生成方法及装置 |
CN110097620A (zh) * | 2019-04-15 | 2019-08-06 | 西安交通大学 | 基于图像和三维激光的高精度地图创建系统 |
CN110057373A (zh) * | 2019-04-22 | 2019-07-26 | 上海蔚来汽车有限公司 | 用于生成高精细语义地图的方法、装置和计算机存储介质 |
CN110148099A (zh) * | 2019-05-29 | 2019-08-20 | 北京百度网讯科技有限公司 | 投影关系的修正方法及装置、电子设备、计算机可读介质 |
CN110568451A (zh) * | 2019-08-02 | 2019-12-13 | 北京三快在线科技有限公司 | 一种高精度地图中道路交通标线的生成方法和装置 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882611A (zh) * | 2020-07-17 | 2020-11-03 | 北京三快在线科技有限公司 | 一种地图构建方法及装置 |
CN111882611B (zh) * | 2020-07-17 | 2023-11-24 | 北京三快在线科技有限公司 | 一种地图构建方法及装置 |
CN111986214A (zh) * | 2020-08-26 | 2020-11-24 | 湖北亿咖通科技有限公司 | 一种地图中人行横道的构建方法和电子设备 |
CN111986214B (zh) * | 2020-08-26 | 2021-08-06 | 湖北亿咖通科技有限公司 | 一种地图中人行横道的构建方法和电子设备 |
CN112200868A (zh) * | 2020-09-30 | 2021-01-08 | 深兰人工智能(深圳)有限公司 | 定位方法、装置和车辆 |
CN112309233A (zh) * | 2020-10-26 | 2021-02-02 | 北京三快在线科技有限公司 | 一种道路边界的确定、道路切分方法及装置 |
CN112541049A (zh) * | 2020-12-25 | 2021-03-23 | 北京百度网讯科技有限公司 | 高精地图处理方法、装置、设备、存储介质和程序产品 |
CN112541049B (zh) * | 2020-12-25 | 2024-03-01 | 北京百度网讯科技有限公司 | 高精地图处理方法、装置、设备、存储介质和程序产品 |
CN113112597A (zh) * | 2021-04-13 | 2021-07-13 | 上海商汤临港智能科技有限公司 | 交通元素的显示方法、装置、电子设备及存储介质 |
CN113409459B (zh) * | 2021-06-08 | 2022-06-24 | 北京百度网讯科技有限公司 | 高精地图的生产方法、装置、设备和计算机存储介质 |
CN113409459A (zh) * | 2021-06-08 | 2021-09-17 | 北京百度网讯科技有限公司 | 高精地图的生产方法、装置、设备和计算机存储介质 |
JP7440005B2 (ja) | 2021-06-08 | 2024-02-28 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム |
JP2023533625A (ja) * | 2021-06-08 | 2023-08-04 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム |
CN113673388A (zh) * | 2021-08-09 | 2021-11-19 | 北京三快在线科技有限公司 | 一种目标物位置的确定方法、装置、存储介质及设备 |
CN113762413A (zh) * | 2021-09-30 | 2021-12-07 | 智道网联科技(北京)有限公司 | 点云数据与图像数据融合方法及存储介质 |
CN113762413B (zh) * | 2021-09-30 | 2023-12-26 | 智道网联科技(北京)有限公司 | 点云数据与图像数据融合方法及存储介质 |
CN114413881A (zh) * | 2022-01-07 | 2022-04-29 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114413881B (zh) * | 2022-01-07 | 2023-09-01 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114440903A (zh) * | 2022-01-21 | 2022-05-06 | 北京三快在线科技有限公司 | 一种高精地图构建方法、装置、存储介质及电子设备 |
CN115162128A (zh) * | 2022-06-20 | 2022-10-11 | 高德软件有限公司 | 道路标线的生成方法、绘制信息的采集方法、装置和设备 |
CN115162128B (zh) * | 2022-06-20 | 2024-03-29 | 高德软件有限公司 | 道路标线的生成方法、绘制信息的采集方法、装置和设备 |
CN117635850A (zh) * | 2022-08-09 | 2024-03-01 | 北京三快在线科技有限公司 | 一种数据处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111311709B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111311709B (zh) | 一种生成高精地图的方法及装置 | |
CN111639682A (zh) | 基于点云数据的地面分割方法及装置 | |
CN111882611B (zh) | 一种地图构建方法及装置 | |
CN112036462B (zh) | 一种模型训练以及目标检测的方法及装置 | |
CN111238450B (zh) | 视觉定位方法及装置 | |
CN110162089B (zh) | 一种无人驾驶的仿真方法及装置 | |
CN112766241B (zh) | 一种目标物识别方法以及装置 | |
CN112258519B (zh) | 一种高精度地图制作中道路的让行线自动化提取方法及装置 | |
CN111797698A (zh) | 目标物的识别方法及识别装置 | |
CN111508258A (zh) | 一种定位方法及装置 | |
CN110287850A (zh) | 一种模型训练以及目标物识别的方法及装置 | |
CN112327864A (zh) | 一种无人驾驶设备的控制方法及控制装置 | |
CN114440903A (zh) | 一种高精地图构建方法、装置、存储介质及电子设备 | |
CN111797711A (zh) | 一种模型训练的方法及装置 | |
CN111127551A (zh) | 一种目标检测的方法及装置 | |
CN112861831A (zh) | 一种目标物的识别方法、装置、存储介质及电子设备 | |
CN112365513A (zh) | 一种模型训练的方法及装置 | |
CN112990099B (zh) | 一种车道线检测的方法以及装置 | |
CN112818968A (zh) | 一种目标物分类方法及装置 | |
CN114332201A (zh) | 一种模型训练、目标检测的方法以及装置 | |
CN113674424A (zh) | 一种电子地图绘制的方法及装置 | |
CN111476729B (zh) | 一种目标识别的方法及装置 | |
CN114187355A (zh) | 一种图像标定方法及装置 | |
CN112329547A (zh) | 一种数据处理方法及装置 | |
CN113887351A (zh) | 一种用于无人驾驶的障碍物检测方法及障碍物检测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |