CN109285220B - 一种三维场景地图的生成方法、装置、设备及存储介质 - Google Patents

一种三维场景地图的生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN109285220B
CN109285220B CN201811003349.5A CN201811003349A CN109285220B CN 109285220 B CN109285220 B CN 109285220B CN 201811003349 A CN201811003349 A CN 201811003349A CN 109285220 B CN109285220 B CN 109285220B
Authority
CN
China
Prior art keywords
point cloud
cloud data
data corresponding
regular object
scene map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811003349.5A
Other languages
English (en)
Other versions
CN109285220A (zh
Inventor
燕飞龙
赵彤彤
方进
王亮
马彧
杨睿刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Technology Beijing Co Ltd
Original Assignee
Apollo Intelligent Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Technology Beijing Co Ltd filed Critical Apollo Intelligent Technology Beijing Co Ltd
Priority to CN201811003349.5A priority Critical patent/CN109285220B/zh
Publication of CN109285220A publication Critical patent/CN109285220A/zh
Priority to EP19189969.9A priority patent/EP3617655B1/en
Priority to US16/545,397 priority patent/US11069133B2/en
Priority to JP2019157031A priority patent/JP6866441B2/ja
Application granted granted Critical
Publication of CN109285220B publication Critical patent/CN109285220B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

本发明公开了一种三维场景地图的生成方法、装置、设备及存储介质。其中,该方法包括:获取基础路采设备采集得到的至少两帧点云数据,并对所述至少两帧点云数据进行数据配准;删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图;在所述原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到所述三维场景地图。本发明实施例可以使用基础路采设备采集的点云数据生成三维背景地图,保证三维背景地图质量满足点云数据仿真工作的要求的同时,降低成本,而且便于拓展至不同的场景。

Description

一种三维场景地图的生成方法、装置、设备及存储介质
技术领域
本发明实施例涉及点云数据处理技术,尤其涉及一种三维场景地图的生成方法、装置、设备及存储介质。
背景技术
点云数据仿真是一种基于目标场景的点云数据和计算机辅助设计模型,生成高真实感的虚拟点云数据的技术,可以用于构建大规模场景。例如,构建出多种道路情景,用于对无人驾驶的三维感知模块进行训练。点云数据仿真需要有三维静态环境作为背景。
现有技术获取三维静态环境的点云数据主要有两种方式:第一,通过人工制作三维静态环境的3D网格模型,进行情景模拟,然后使用虚拟传感器,例如相机或三维扫描仪,合成三维静态环境点云数据。第二,使用高精激光扫描仪采集得到高精度高密度的三维静态环境点云数据。
第一种方法,模型制作成本较高。在现有三维建模技术条件下,无法全自动地制作真实感较强的场景或者单个障碍物的模型,必须需全人工或者半自动的建模方式。因此制作大规模场景和大量障碍物的模型需要投入很高的人力物力成本。第二种方法,数据量很大,而且高精激光扫描仪不便于运输,增加了建立三维静态环境的成本。因此,现有技术的两种方法都无法快速扩展到任何场景,使得点云数据仿真工作受限。
发明内容
本发明实施例提供一种三维场景地图的生成方法、装置、设备及存储介质,以实现低成本的生成高质量的三维场景地图。
第一方面,本发明实施例提供了一种三维场景地图的生成方法,包括:
获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准;
删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图;
在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
第二方面,本发明实施例还提供了一种三维场景地图的生成装置,包括:
云数据获取模块,用于获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准;
原始地图生成模块,用于删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图;
三维地图生成模块,用于在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
第三方面,本发明实施例还提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如本发明实施例所述的三维场景地图的生成方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所述的三维场景地图的生成方法。
本发明实施例通过对基础路采设备采集得到的至少两帧点云数据进行数据配准,删除各帧点云数据中与动态障碍物对应的第一类点云数据,对各帧点云数据进行数据融合,得到原始场景地图,并在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图,可以使用基础路采设备采集的点云数据生成三维背景地图,保证三维背景地图质量满足点云数据仿真工作的要求的同时,降低成本,而且便于拓展至不同的场景。
附图说明
图1为本发明实施例一提供的一种三维场景地图的生成方法的流程图;
图2为本发明实施例二提供的一种三维场景地图的生成方法的流程图;
图3为本发明实施例三提供的一种三维场景地图的生成方法的流程图;
图4为本发明实施例四提供的一种三维场景地图的生成方法的流程图;
图5为本发明实施例五提供的一种三维场景地图的生成装置的结构示意图;
图6为本发明实施例六提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种三维场景地图的生成方法的流程图,本实施例可适用于生成三维场景地图的情况,该方法可以由三维场景地图的生成装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于计算机设备中。如图1所示,该方法具体包括如下步骤:
步骤101、获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准。
其中,构建三维场景地图,首先需要获取点云数据。通过三维激光扫描设备对场景进行采样,会获得描述物体表面信息的点,通常把这些点集称为点云数据。
可选的,在基础路采设备上安装三维激光扫描仪,并驾驶基础路采设备在指定场景中路跑,以采集场景表面的深度数据。基础路采设备可以为无人车。指定场景可以为道路。三维激光扫描仪是一种立体测量仪器,利用激光传感器不断发射激光到被测实物的表面,然后通过实物表面反射回来的光被激光脉冲接收器接收,通过转换和计算实现物体距离的测量。
三维激光扫描设备可能需要从不同的角度获取点云数据,这样才能得到物体表面的所有点云数据,但这些点云数据彼此都是孤立的,需要通过变换把所有的点云数据转换到同一坐标系下,从而得到完整的物体表面信息,这个过程就称为数据配准。目前,配准算法按照实现过程可以分为全局配准算法和局部配准算法。全局配准算法包括:迭代最近点算法、基于几何特征的配准算法以及动态配准算法。局部配准算法包括基于曲面特征的配准算法。由此,根据预设的配准算法对至少两帧点云数据进行数据配准,以使基础路采设备采集的连续帧的点云数据可以准确地变换到统一坐标系中。
步骤102、删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图。
其中,获取基础路采设备采集得到的至少两帧点云数据中包括分别与不可移动物体和可移动物体对应的点云数据。三维场景地图为根据场景中的不可移动物体,例如道路,墙面等,生成的地图,不需要包含场景中的可移动物体。因此,生成三维场景地图时,需要删除各帧点云数据中与可移动物体对应的第一类点云数据。
动态障碍物是指定场景中的可移动物体。例如,车辆、行人。第一类点云数据为与动态障碍物对应的点云数据。删除各帧点云数据中与动态障碍物对应的点云数据,剩余的点云数据仅包括与静态障碍物对应的点云数据。对各帧剩余的点云数据进行数据融合,得到原始场景地图。具体的,以采集第一帧点云数据时,基础路采设备所处的位置为坐标原点建立全局坐标系,其它帧点云数据点云都通过坐标的旋转和平移转换到第一帧点云数据所处的全局坐标系中,从而实现原始场景地图的创建。
进一步的,基础路采设备一般自身携带有导航设备,例如,GPS,因此,可以结合基础路采设备自身在地理坐标系中的实时定位点,确定点云数据在地理坐标系中的位置坐标。
步骤103、在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
其中,基础路采设备采集的点云数据通常噪声和误差较大,所以即使将各帧点云数据变换到统一坐标系,也无法形成一个可直接使用的三维场景地图。例如,地面的厚度可能有十几公分。
规则物体为原始场景地图中的人造物体。第二类点云数据为与原始场景地图中的人造物体对应的点云数据。预先将场景中的物体分为两类:自然物体,例如植物;人造物体,例如道路,墙面等。对于自然物体,保留其原始的点云数据。而对于人造物体,使用三维建模技术生成与人造物体匹配的几何模型的模型数据。将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的光滑自然的模型数据,得到三维场景地图。由此,既解决了人造物体失真的问题,又不会影响点云数据仿真的质量。
本发明实施例提供了一种三维场景地图的生成方法,通过对基础路采设备采集得到的至少两帧点云数据进行数据配准,删除各帧点云数据中与动态障碍物对应的第一类点云数据,对各帧点云数据进行数据融合,得到原始场景地图,并在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图,可以使用基础路采设备采集的点云数据生成三维背景地图,保证三维背景地图质量满足点云数据仿真工作的要求的同时,降低成本,而且便于拓展至不同的场景。
实施例二
图2为本发明实施例二提供的一种三维场景地图的生成方法的流程图,本实施例以上述实施例为基础进行具体化。在本实施例中,对至少两帧点云数据进行数据配准,可以包括:识别各帧点云数据中包括的障碍物,并得到与各障碍物分别对应的语义信息;根据与各障碍物分别对应的语义信息,将识别出的障碍物划分为静态障碍物以及动态障碍物;将相邻两帧点云数据中包括的静态障碍物进行配对,并根据配对结果对相邻两帧点云数据进行初始配准;通过点云全局配准技术,对初始配准后的至少两帧点云数据进行精确配准。
如图2所示,该方法具体包括如下步骤:
步骤201、获取基础路采设备采集得到的至少两帧点云数据。
步骤202、识别各帧点云数据中包括的障碍物,并得到与各障碍物分别对应的语义信息。
其中,使用障碍物检测算法识别各帧点云数据中包括的障碍物,并得到与各障碍物分别对应的语义信息。例如,各障碍物对应的语义信息为垃圾桶、电线杆、车辆、行人等。可选的,使用较为准确的离线障碍物检测算法。
步骤203、根据与各障碍物分别对应的语义信息,将识别出的障碍物划分为静态障碍物以及动态障碍物。
其中,静态障碍物为场景中的不可移动物体。动态障碍物为场景中的可移动物体。例如,将对应于垃圾桶的障碍物、对应于电线杆的障碍物划分为静态障碍物;将对应于车辆的障碍物、对应于行人的障碍物划分为动态障碍物。
步骤204、将相邻两帧点云数据中包括的静态障碍物进行配对,并根据配对结果对相邻两帧点云数据进行初始配准。
其中,将相邻两帧点云数据中包括的静态障碍物进行配对,即计算静态障碍物的轨迹。通过计算静态障碍物的轨迹可以使用多帧连续点云数据对单帧点云数据的静态障碍物检测结果进行校正。即使某一静态障碍物在一帧点云数据中漏检或误检,通过对前后几帧点云数据的分析,即可修复。
将相邻两帧点云数据中包括的静态障碍物进行配对后,根据配对结果对相邻两帧点云数据进行初始配准。初始配准是在完全不清楚两帧点云数据的相对位置关系的情况下,确定一个与两帧点云数据对应的近似的旋转平移矩阵。初始配准得到的旋转平移矩阵不一定很精确,但是已经接近两帧点云数据之间的精确的旋转平移矩阵。具体的,可以通过采样一致性初始配准算法对相邻两帧点云数据进行初始配准。
步骤205、通过点云全局配准技术,对初始配准后的至少两帧点云数据进行精确配准。
其中,点云全局配准技术可以为迭代最近点算法、基于几何特征的配准算法以及动态配准算法中的任意一种。
步骤206、删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图。
可选的,在删除各帧点云数据中与动态障碍物对应的第一类点云数据之后,可以还包括:使用点云全局配准技术,对各帧点云数据进行再配准。
由此,通过再配准过程,可以获取更精确的点云数据配准结果。
步骤207、在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
本发明实施例提供了一种三维场景地图的生成方法,通过识别各帧点云数据中包括的障碍物,根据与各障碍物分别对应的语义信息,将识别出的障碍物划分为静态障碍物以及动态障碍物;将相邻两帧点云数据中包括的静态障碍物进行配对,并根据配对结果对相邻两帧点云数据进行初始配准之后,通过点云全局配准技术,对初始配准后的至少两帧点云数据进行精确配准,可以对单帧点云数据的静态障碍物检测结果进行校正,防止某一静态障碍物在一帧数据中漏检或误检,可以通过两次配准过程实现更加精确的点云数据配准。
实施例三
图3为本发明实施例三提供的一种三维场景地图的生成方法的流程图,本实施例以上述实施例为基础进行具体化。在本实施例中,删除各帧点云数据中与动态障碍物对应的第一类点云数据,可以包括:根据动态障碍物在各帧点云数据中的位置,确定与动态障碍物对应的理想运动轨迹;根据动态障碍物的理想运动轨迹,对各帧点云数据中与动态障碍物对应的点云数据进行校正;在各帧点云数据中,删除与动态障碍物对应的点云数据。
如图3所示,该方法具体包括如下步骤:
步骤301、获取基础路采设备采集得到的至少两帧点云数据,并识别各帧点云数据中包括的障碍物,并得到与各障碍物分别对应的语义信息。
步骤302、根据与各障碍物分别对应的语义信息,将识别出的障碍物划分为静态障碍物以及动态障碍物。
步骤303、将相邻两帧点云数据中包括的静态障碍物进行配对,并根据配对结果对相邻两帧点云数据进行初始配准。
步骤304、通过点云全局配准技术,对初始配准后的至少两帧点云数据进行精确配准。
步骤305、根据动态障碍物在各帧点云数据中的位置,确定与动态障碍物对应的理想运动轨迹。
其中,理想运动轨迹为动态障碍物在各帧点云数据中的位置构成的运动轨迹。例如,根据行人在各帧点云数据中的位置,确定与行人对应的理想运动轨迹,即行人的移动过程。
步骤306、根据动态障碍物的理想运动轨迹,对各帧点云数据中与动态障碍物对应的点云数据进行校正。
其中,各帧点云数据中与同一个动态障碍物对应的点云数据是对应的。根据动态障碍物的理想运动轨迹,对各帧点云数据中与动态障碍物对应的点云数据进行校正,即使用多帧连续点云数据对单帧点云数据的动态障碍物检测结果进行校正。即使某一动态障碍物在某一帧点云数据中漏检或误检,通过对前后几帧点云数据的分析,即可修复。例如,根据行人在各帧点云数据中的位置,确定与行人对应的理想运动轨迹。根据理想运动轨迹确定行人应该在某一帧点云数据中,但是某一帧点云数据中漏检与行人对应的点云数据。根据与行人对应的理想运动轨迹,将与行人对应的点云数据添加至该帧点云数据中,完成修复。
步骤307、在各帧点云数据中,删除与动态障碍物对应的点云数据。
其中,删除各帧点云数据中与动态障碍物对应的点云数据,剩余的点云数据仅包括与静态障碍物对应的点云数据。
步骤308、对各帧点云数据进行数据融合,得到原始场景地图。
步骤309、在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
本发明实施例提供了一种三维场景地图的生成方法,通过根据动态障碍物在各帧点云数据中的位置,确定与动态障碍物对应的理想运动轨迹,并根据动态障碍物的理想运动轨迹,对各帧点云数据中与动态障碍物对应的点云数据进行校正,在各帧点云数据中,删除与动态障碍物对应的点云数据,可以对单帧点云数据的动态障碍物检测结果进行校正,防止某一动态障碍物在一帧数据中漏检或误检,可以根据语义信息删除与动态障碍物对应的点云数据。
实施例四
图4为本发明实施例四提供的一种三维场景地图的生成方法的流程图,本实施例以上述实施例为基础进行具体化。在本实施例中,在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图,可以包括:在原始场景地图中,获取设定形状属性的点云数据作为待归类点云数据;根据各待归类点云数据的形状属性,以及各待归类点云数据在原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据;根据与规则物体对应的第二类点云数据的形状属性,采用与形状属性匹配的替换规则,将原始场景地图中的第二类点云数据替换为与规则物体匹配的几何模型的模型数据。
如图4所示,该方法具体包括如下步骤:
步骤401、获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准。
步骤402、删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图。
步骤403、在原始场景地图中,获取设定形状属性的点云数据作为待归类点云数据。
其中,在各帧点云数据中检测设定形状属性的点云数据。可选的,形状属性可以包括:平面属性,和/或圆柱属性。获取检测到的设定形状属性的点云数据,作为待归类点云数据。
步骤404、根据各待归类点云数据的形状属性,以及各待归类点云数据在原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据。
其中,规则物体可以为道路、墙面、垃圾桶、以及电线杆。例如,各待归类点云数据的形状属性为平面属性。根据各待归类点云数据的平面属性,以及各待归类点云数据在原始场景地图中的位置,得到与墙面对应的第二类点云数据。
可选的,在根据各待归类点云数据的形状属性,以及各待归类点云数据在原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据之后,还包括:根据与同一规则物体对应的第二类形状数据,以及规则物体的属性信息,对与规则物体对应的第二类形状数据进行补充,和/或校正。
其中,与同一规则物体对应的第二类形状数据在各帧点云数据中应是一致的。如果某一规则物体在某一帧点云数据中漏检,则根据与同一规则物体对应的第二类形状数据,以及规则物体的属性信息,对与规则物体对应的第二类形状数据进行补充。如果某一规则物体在某一帧点云数据中误检,则根据与同一规则物体对应的第二类形状数据,以及规则物体的属性信息,对与规则物体对应的第二类形状数据进行校正。
由此,通过与同一规则物体对应的第二类形状数据对单帧点云数据的规则物体检测结果进行校正,即使某一规则物体在某一帧点云数据中漏检或误检,根据与同一规则物体对应的第二类形状数据即可修复。
步骤405、根据与规则物体对应的第二类点云数据的形状属性,采用与形状属性匹配的替换规则,将原始场景地图中的第二类点云数据替换为与规则物体匹配的几何模型的模型数据。
其中,根据与规则物体对应的第二类点云数据的形状属性,采用三维建模技术生成与规则物体匹配的几何模型的模型数据。可选的,几何模型的模型数据为三维面片形式的数据。通过面片建模技术生成与规则物体匹配的几何模型的模型数据。面片建模是一种介于网格建模与曲面建模之间的建模方法。面片建模只要比较少的面就可以创建逼真的光滑效果,用户只要比较少的控制点,就可以控制整个模型。
可选的,根据与规则物体对应的第二类点云数据的形状属性,采用与形状属性匹配的替换规则,将第二类点云数据替换为与规则物体匹配的几何模型的模型数据,可以包括:如果确定与目标规则物体对应的第二类点云数据的形状属性为平面属性,则使用体素融合技术,将与目标规则物体对应的第二类点云数据替换为与设定厚度的薄平面对应的模型数据。例如,目标规则物体为道路或墙面。与目标规则物体对应的第二类点云数据的形状属性为平面属性。使用体素融合技术,将与目标规则物体对应的第二类点云数据替换为与设定厚度的薄平面对应的模型数据。如果确定与目标规则物体对应的第二类点云数据的形状属性为圆柱属性,则根据对目标规则物体的圆柱参数预测值,获取与圆柱参数预测值匹配的圆柱模型;将与目标规则物体对应的第二类点云数据替换为与圆柱模型对应的模型数据。例如,目标规则物体为电线杆。与目标规则物体对应的第二类点云数据的形状属性为圆柱属性。根据对目标规则物体的圆柱参数预测值,例如圆柱体的底面积和高,获取与圆柱参数预测值匹配的圆柱模型。将与目标规则物体对应的第二类点云数据替换为与圆柱模型对应的模型数据。
本发明实施例提供了一种三维场景地图的生成方法,通过获取设定形状属性的点云数据作为待归类点云数据;根据各待归类点云数据的形状属性,以及各待归类点云数据在原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据;并根据与规则物体对应的第二类点云数据的形状属性,采用与形状属性匹配的替换规则,将原始场景地图中的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,可以针对原始场景地图中的人造物体,使用三维建模技术生成与人造物体匹配的几何模型的模型数据,将与人造物体对应的点云数据替换为与人造物体匹配的几何模型的光滑自然的模型数据,得到三维场景地图,既解决了人造物体失真的问题,又不会影响点云数据仿真的质量。
实施例五
图5为本发明实施例五提供的一种三维场景地图的生成装置的结构示意图,如图5所示,所述装置可以配置于计算机设备,包括:云数据获取模块501、原始地图生成模块502和三维地图生成模块503。
其中,云数据获取模块501,用于获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准;原始地图生成模块502,用于删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图;三维地图生成模块503,用于在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
本发明实施例提供了一种三维场景地图的生成装置,通过对基础路采设备采集得到的至少两帧点云数据进行数据配准,删除各帧点云数据中与动态障碍物对应的第一类点云数据,对各帧点云数据进行数据融合,得到原始场景地图,并在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图,可以使用基础路采设备采集的点云数据生成三维背景地图,保证三维背景地图质量满足点云数据仿真工作的要求的同时,降低成本,而且便于拓展至不同的场景。
在上述各实施例的基础上,云数据获取模块501可以包括:语义信息识别单元,用于识别各帧点云数据中包括的障碍物,并得到与各障碍物分别对应的语义信息;信息划分单元,根据与各障碍物分别对应的语义信息,将识别出的障碍物划分为静态障碍物以及动态障碍物;初始配准单元,用于将相邻两帧点云数据中包括的静态障碍物进行配对,并根据配对结果对相邻两帧点云数据进行初始配准;精准配准单元,用于通过点云全局配准技术,对初始配准后的至少两帧点云数据进行精确配准。
在上述各实施例的基础上,原始地图生成模块502可以包括:轨迹确定单元,用于根据动态障碍物在各帧点云数据中的位置,确定与动态障碍物对应的理想运动轨迹;数据校正单元,用于根据动态障碍物的理想运动轨迹,对各帧点云数据中与动态障碍物对应的点云数据进行校正;数据删除单元,用于在各帧点云数据中,删除与动态障碍物对应的点云数据。
在上述各实施例的基础上,原始地图生成模块502可以还包括:再配准单元,用于使用点云全局配准技术,对各帧点云数据进行再配准。
在上述各实施例的基础上,三维地图生成模块503可以包括:数据获取单元,用于在原始场景地图中,获取设定形状属性的点云数据作为待归类点云数据;数据对应单元,用于根据各待归类点云数据的形状属性,以及各待归类点云数据在原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据;数据替换单元,用于根据与规则物体对应的第二类点云数据的形状属性,采用与形状属性匹配的替换规则,将原始场景地图中的第二类点云数据替换为与规则物体匹配的几何模型的模型数据。
在上述各实施例的基础上,三维地图生成模块503可以还包括:数据调整单元,用于根据与同一规则物体对应的第二类形状数据,以及规则物体的属性信息,对与规则物体对应的第二类形状数据进行补充,和/或校正。
在上述各实施例的基础上,形状属性可以包括:平面属性,和/或圆柱属性。
在上述各实施例的基础上,数据替换单元可以包括:第一替换子单元,用于如果确定与目标规则物体对应的第二类点云数据的形状属性为平面属性,则使用体素融合技术,将与目标规则物体对应的第二类点云数据替换为与设定厚度的薄平面对应的模型数据;和/或第二替换子单元,用于如果确定与目标规则物体对应的第二类点云数据的形状属性为圆柱属性,则根据对目标规则物体的圆柱参数预测值,获取与圆柱参数预测值匹配的圆柱模型;将与目标规则物体对应的第二类点云数据替换为与圆柱模型对应的模型数据。
在上述各实施例的基础上,几何模型的模型数据可以为三维面片形式的数据。
本发明实施例所提供的三维场景地图的生成装置可执行本发明任意实施例所提供的三维场景地图的生成方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6为本发明实施例六提供的一种设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性设备612的框图。图6显示的设备612仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,设备612以通用计算设备的形式表现。设备612的组件可以包括但不限于:一个或者多个处理器或者处理单元616,系统存储器628,连接不同系统组件(包括系统存储器628和处理单元616)的总线618。
总线618表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备612典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备612访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器628可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)630和/或高速缓存存储器632。设备612可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统634可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线618相连。存储器628可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块642的程序/实用工具640,可以存储在例如存储器628中,这样的程序模块642包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块642通常执行本发明所描述的实施例中的功能和/或方法。
设备612也可以与一个或多个外部设备614(例如键盘、指向设备、显示器624等)通信,还可与一个或者多个使得用户能与该设备612交互的设备通信,和/或与使得该设备612能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口622进行。并且,设备612还可以通过网络适配器620与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器620通过总线618与设备612的其它模块通信。应当明白,尽管图6中未示出,可以结合设备612使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
设备612可以为一种终端设备。设备612的处理单元616通过运行存储在系统存储器628中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的三维场景地图的生成方法。该方法具体可以包括:获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准;删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图;在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
实施例七
本发明实施例七还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的三维场景地图的生成方法。该方法具体可以包括:获取基础路采设备采集得到的至少两帧点云数据,并对至少两帧点云数据进行数据配准;删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对各帧点云数据进行数据融合,得到原始场景地图;在原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到三维场景地图。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++、Ruby、Go,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (9)

1.一种三维场景地图的生成方法,其特征在于,包括:
获取基础路采设备采集得到的至少两帧点云数据,并对所述至少两帧点云数据进行数据配准;
删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对删除了第一类点云数据后的各帧点云数据进行数据融合,得到原始场景地图;
在所述原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到所述三维场景地图;
在所述原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到所述三维场景地图,包括:
在所述原始场景地图中,获取设定形状属性的点云数据作为待归类点云数据;
根据各所述待归类点云数据的形状属性,以及各所述待归类点云数据在所述原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据;
根据与所述规则物体对应的第二类点云数据的形状属性,采用与所述形状属性匹配的替换规则,将所述原始场景地图中的所述第二类点云数据替换为与规则物体匹配的几何模型的模型数据;
所述形状属性包括:平面属性,和/或圆柱属性;
所述根据与所述规则物体对应的第二类点云数据的形状属性,采用与所述形状属性匹配的替换规则,将所述第二类点云数据替换为与规则物体匹配的几何模型的模型数据,包括:
如果确定与目标规则物体对应的第二类点云数据的形状属性为平面属性,则使用体素融合技术,将与所述目标规则物体对应的第二类点云数据替换为与设定厚度的薄平面对应的模型数据;和/或
如果确定与目标规则物体对应的第二类点云数据的形状属性为圆柱属性,则根据对所述目标规则物体的圆柱参数预测值,获取与所述圆柱参数预测值匹配的圆柱模型;将与所述目标规则物体对应的第二类点云数据替换为与所述圆柱模型对应的模型数据。
2.根据权利要求1所述的方法,其特征在于,对所述至少两帧点云数据进行数据配准,包括:
识别各帧点云数据中包括的障碍物,并得到与各所述障碍物分别对应的语义信息;
根据与各所述障碍物分别对应的语义信息,将识别出的所述障碍物划分为静态障碍物以及动态障碍物;
将相邻两帧点云数据中包括的静态障碍物进行配对,并根据配对结果对相邻两帧点云数据进行初始配准;
通过点云全局配准技术,对初始配准后的所述至少两帧点云数据进行精确配准。
3.根据权利要求2所述的方法,其特征在于,删除各帧点云数据中与动态障碍物对应的第一类点云数据,包括:
根据动态障碍物在各帧点云数据中的位置,确定与所述动态障碍物对应的理想运动轨迹;
根据所述动态障碍物的理想运动轨迹,对各帧点云数据中与所述动态障碍物对应的点云数据进行校正;
在各帧点云数据中,删除与所述动态障碍物对应的点云数据。
4.根据权利要求2或3所述的方法,其特征在于,在删除各帧点云数据中与动态障碍物对应的第一类点云数据之后,还包括:
使用点云全局配准技术,对所述各帧点云数据进行再配准。
5.根据权利要求1所述的方法,其特征在于,在根据各所述待归类点云数据的形状属性,以及各所述待归类点云数据在所述原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据之后,还包括:
根据与同一规则物体对应的第二类形状数据,以及规则物体的属性信息,对与规则物体对应的第二类形状数据进行补充,和/或校正。
6.根据权利要求1所述的方法,其特征在于,所述几何模型的模型数据为三维面片形式的数据。
7.一种三维场景地图的生成装置,其特征在于,包括:
云数据获取模块,用于获取基础路采设备采集得到的至少两帧点云数据,并对所述至少两帧点云数据进行数据配准;
原始地图生成模块,用于删除各帧点云数据中与动态障碍物对应的第一类点云数据,并对删除了第一类点云数据后的各帧点云数据进行数据融合,得到原始场景地图;
三维地图生成模块,用于在所述原始场景地图中,将与至少一个规则物体对应的第二类点云数据替换为与规则物体匹配的几何模型的模型数据,得到所述三维场景地图;
所述三维地图生成模块包括:数据获取单元,用于在原始场景地图中,获取设定形状属性的点云数据作为待归类点云数据;数据对应单元,用于根据各待归类点云数据的形状属性,以及各待归类点云数据在原始场景地图中的位置,得到与至少一个规则物体对应的第二类点云数据;数据替换单元,用于根据与规则物体对应的第二类点云数据的形状属性,采用与形状属性匹配的替换规则,将原始场景地图中的第二类点云数据替换为与规则物体匹配的几何模型的模型数据;
所述形状属性包括:平面属性,和/或圆柱属性;
所述数据替换单元包括:第一替换子单元,用于如果确定与目标规则物体对应的第二类点云数据的形状属性为平面属性,则使用体素融合技术,将与目标规则物体对应的第二类点云数据替换为与设定厚度的薄平面对应的模型数据;和/或第二替换子单元,用于如果确定与目标规则物体对应的第二类点云数据的形状属性为圆柱属性,则根据对目标规则物体的圆柱参数预测值,获取与圆柱参数预测值匹配的圆柱模型;将与目标规则物体对应的第二类点云数据替换为与圆柱模型对应的模型数据。
8.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的三维场景地图的生成方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的三维场景地图的生成方法。
CN201811003349.5A 2018-08-30 2018-08-30 一种三维场景地图的生成方法、装置、设备及存储介质 Active CN109285220B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201811003349.5A CN109285220B (zh) 2018-08-30 2018-08-30 一种三维场景地图的生成方法、装置、设备及存储介质
EP19189969.9A EP3617655B1 (en) 2018-08-30 2019-08-05 Method and device for generating three-dimensional scene map
US16/545,397 US11069133B2 (en) 2018-08-30 2019-08-20 Method and device for generating three-dimensional scene map
JP2019157031A JP6866441B2 (ja) 2018-08-30 2019-08-29 3次元シーンマップの生成方法、生成装置、機器および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811003349.5A CN109285220B (zh) 2018-08-30 2018-08-30 一种三维场景地图的生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109285220A CN109285220A (zh) 2019-01-29
CN109285220B true CN109285220B (zh) 2022-11-15

Family

ID=65183146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811003349.5A Active CN109285220B (zh) 2018-08-30 2018-08-30 一种三维场景地图的生成方法、装置、设备及存储介质

Country Status (4)

Country Link
US (1) US11069133B2 (zh)
EP (1) EP3617655B1 (zh)
JP (1) JP6866441B2 (zh)
CN (1) CN109285220B (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives
CN110009718B (zh) * 2019-03-07 2021-09-24 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN109993780B (zh) * 2019-03-07 2021-09-24 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN111666797B (zh) * 2019-03-08 2023-08-08 深圳市速腾聚创科技有限公司 车辆定位方法、装置和计算机设备
CN111694903B (zh) * 2019-03-11 2023-09-12 北京地平线机器人技术研发有限公司 地图构建方法、装置、设备以及可读存储介质
JP7262064B2 (ja) * 2019-03-26 2023-04-21 パナソニックIpマネジメント株式会社 測距撮像システム、測距撮像方法、及びプログラム
CN109919989B (zh) * 2019-03-27 2023-11-14 广东工业大学 一种雷达电力巡检的点云数据配准方法、装置及设备
CN110189366B (zh) * 2019-04-17 2021-07-06 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN110335300A (zh) * 2019-05-14 2019-10-15 广东康云科技有限公司 基于视频融合的场景动态模拟方法、系统及存储介质
CN110264502B (zh) * 2019-05-17 2021-05-18 华为技术有限公司 点云配准方法和装置
CN112622923B (zh) * 2019-09-24 2022-07-05 北京百度网讯科技有限公司 用于控制车辆的方法和装置
KR102238522B1 (ko) * 2019-09-27 2021-04-09 주식회사 서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
US11867789B2 (en) * 2020-01-07 2024-01-09 Metawave Corporation Optimized proximity clustering in a vehicle radar for object identification
CN111402414A (zh) * 2020-03-10 2020-07-10 北京京东叁佰陆拾度电子商务有限公司 一种点云地图构建方法、装置、设备和存储介质
CN113551678A (zh) * 2020-04-09 2021-10-26 阿里巴巴集团控股有限公司 构建地图的方法、构建高精度地图的方法及移动设备
CN111539361B (zh) * 2020-04-28 2023-09-05 北京小马慧行科技有限公司 噪点的识别方法、装置、存储介质、处理器和运载工具
CN111553353B (zh) * 2020-05-11 2023-11-07 北京小马慧行科技有限公司 3d点云的处理方法、装置、存储介质与处理器
CN111597287B (zh) * 2020-05-15 2023-09-29 阿波罗智能技术(北京)有限公司 地图生成方法、装置及设备
CN111551947A (zh) * 2020-05-28 2020-08-18 东软睿驰汽车技术(沈阳)有限公司 激光点云定位方法、装置、设备及系统
CN114930401A (zh) * 2020-07-20 2022-08-19 深圳元戎启行科技有限公司 基于点云的三维重建方法、装置和计算机设备
CN111915730B (zh) * 2020-07-20 2023-05-19 北京建筑大学 一种顾及语义从点云自动生成室内三维模型的方法及系统
CN112102375B (zh) * 2020-07-22 2024-04-12 广州视源电子科技股份有限公司 一种点云配准可靠性检测的方法、装置、移动智慧设备
CN114067555B (zh) * 2020-08-05 2023-02-17 北京万集科技股份有限公司 多基站数据的配准方法、装置、服务器和可读存储介质
JP7409517B2 (ja) * 2020-09-15 2024-01-09 日本電信電話株式会社 3d点群の座標を変換する装置、方法及びプログラム
CN112330702A (zh) * 2020-11-02 2021-02-05 蘑菇车联信息科技有限公司 点云补全方法、装置、电子设备及存储介质
CN112484738B (zh) * 2020-11-24 2023-04-28 深圳市优必选科技股份有限公司 机器人建图方法、装置、计算机可读存储介质及机器人
CN114598692B (zh) * 2020-12-01 2023-03-17 腾讯科技(深圳)有限公司 点云文件传输方法、应用方法、装置、设备及存储介质
CN112869969B (zh) * 2021-01-14 2023-01-17 安徽金百合医疗器械有限公司 一种用于电动轮椅的全方位通行策略生成系统和方法
CN112964263B (zh) * 2021-02-01 2022-11-01 杭州荷尖科技合伙企业(有限合伙) 自动建图方法、装置、移动机器人及可读存储介质
CN113074748B (zh) * 2021-03-29 2022-08-26 北京三快在线科技有限公司 一种无人驾驶设备的路径规划方法及装置
CN113189610A (zh) * 2021-04-28 2021-07-30 中国科学技术大学 地图增强的自动驾驶多目标追踪方法和相关设备
WO2022244172A1 (ja) * 2021-05-20 2022-11-24 三菱電機株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
CN113192197B (zh) * 2021-05-24 2024-04-05 北京京东乾石科技有限公司 一种全局点云地图的构建方法、装置、设备及存储介质
CN113689496B (zh) * 2021-08-06 2023-07-18 西南科技大学 一种基于vr的核辐射环境场景构建与人机交互方法
CN113837981B (zh) * 2021-11-23 2022-03-08 中国电子科技集团公司第二十八研究所 一种多端设备获取三维点云的自动化融合方法
CN114758163B (zh) * 2022-06-15 2022-09-16 福勤智能科技(昆山)有限公司 一种叉车移动控制方法、装置、电子设备及存储介质
CN115423968B (zh) * 2022-07-21 2023-05-09 北京洛斯达科技发展有限公司 基于点云数据和实景三维模型的输电通道优化方法
CN116824068B (zh) * 2023-08-30 2024-01-09 深圳大学 面向复杂动态场景中点云流的实时重建方法、装置及设备
CN117456130B (zh) * 2023-12-22 2024-03-01 山东街景智能制造科技股份有限公司 一种场景模型构建方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650750B2 (ja) 2005-12-16 2011-03-16 株式会社Ihi 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置
EP2120009B1 (en) * 2007-02-16 2016-09-07 Mitsubishi Electric Corporation Measuring device and measuring method
US8668136B2 (en) * 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
HUP1300328A3 (en) * 2013-05-23 2017-03-28 Mta Szamitastechnika Es Automatizalasi Ki Method and system for integrated three dimensional modelling
CN104573191A (zh) * 2014-12-18 2015-04-29 西安工业大学 一种战时损伤武器装备零件快速再制造造型方法
CN104658039B (zh) * 2015-02-12 2018-01-30 南京市测绘勘察研究院股份有限公司 一种城市数字地图三维建模制作方法
US10586385B2 (en) * 2015-03-05 2020-03-10 Commonwealth Scientific And Industrial Research Organisation Structure modelling
CN105260988B (zh) * 2015-09-09 2019-04-05 百度在线网络技术(北京)有限公司 一种高精地图数据的处理方法和装置
CN105702151B (zh) * 2016-03-31 2019-06-11 百度在线网络技术(北京)有限公司 一种室内地图构建方法及装置
CN106097444B (zh) * 2016-05-30 2017-04-12 百度在线网络技术(北京)有限公司 高精地图生成方法和装置
US20180005052A1 (en) 2016-07-01 2018-01-04 Uber Technologies, Inc. Static object detection for operating autonomous vehicle
EP3519770B1 (en) 2016-09-28 2021-05-05 TomTom Global Content B.V. Methods and systems for generating and using localisation reference data
KR102618443B1 (ko) 2016-12-09 2023-12-27 톰톰 글로벌 콘텐트 비.브이. 비디오 기반 위치결정 및 매핑을 위한 방법 및 시스템
CN108345822B (zh) * 2017-01-22 2022-02-01 腾讯科技(深圳)有限公司 一种点云数据处理方法及装置
US10527711B2 (en) * 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft
US20190073827A1 (en) * 2017-09-06 2019-03-07 Josen Premium LLC Method and System for Converting 3-D Scan Displays with Optional Telemetrics, Temporal and Component Data into an Augmented or Virtual Reality BIM
CN108152831B (zh) * 2017-12-06 2020-02-07 中国农业大学 一种激光雷达障碍物识别方法及系统
CN108460791A (zh) * 2017-12-29 2018-08-28 百度在线网络技术(北京)有限公司 用于处理点云数据的方法和装置
CN108320329B (zh) * 2018-02-02 2020-10-09 维坤智能科技(上海)有限公司 一种基于3d激光的3d地图创建方法

Also Published As

Publication number Publication date
US20200074729A1 (en) 2020-03-05
JP6866441B2 (ja) 2021-04-28
CN109285220A (zh) 2019-01-29
US11069133B2 (en) 2021-07-20
EP3617655A2 (en) 2020-03-04
EP3617655A3 (en) 2020-07-29
EP3617655B1 (en) 2022-01-12
JP2020035448A (ja) 2020-03-05

Similar Documents

Publication Publication Date Title
CN109285220B (zh) 一种三维场景地图的生成方法、装置、设备及存储介质
KR102126724B1 (ko) 포인트 클라우드 데이터를 복구하기 위한 방법 및 장치
KR102145109B1 (ko) 지도 생성 및 운동 객체 위치 결정 방법 및 장치
US11763474B2 (en) Method for generating simulated point cloud data, device, and storage medium
CN109270545B (zh) 一种定位真值校验方法、装置、设备及存储介质
CN109459734B (zh) 一种激光雷达定位效果评估方法、装置、设备及存储介质
JP7112993B2 (ja) レーザレーダの内部パラメータ精度検証方法とその装置、機器及び媒体
CN109146938B (zh) 动态障碍物的位置校准方法、装置、设备及存储介质
CN112257605B (zh) 基于自标注训练样本的三维目标检测方法、系统及装置
CN110428490B (zh) 构建模型的方法和装置
CN111402414A (zh) 一种点云地图构建方法、装置、设备和存储介质
CN114186007A (zh) 高精地图生成方法、装置、电子设备和存储介质
CN116978010A (zh) 图像标注方法和装置、存储介质和电子设备
CN113496503A (zh) 点云数据的生成及实时显示方法、装置、设备及介质
CN110377776B (zh) 生成点云数据的方法和装置
CN107869990B (zh) 室内位置数据的采集方法及装置、计算机设备及可读介质
CN113763438B (zh) 一种点云配准方法、装置、设备及存储介质
CN109118576A (zh) 基于bds位置服务的大型场景三维重建系统及重建方法
CN112258568B (zh) 一种高精度地图要素的提取方法及装置
CN113433568B (zh) 一种激光雷达观测模拟方法及装置
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
CN107820213B (zh) 室内位置数据的采集方法及装置、计算机设备及可读介质
CN113870412A (zh) 一种航空场景图像的处理方法、装置以及电子设备
CN113808142B (zh) 一种地面标识的识别方法、装置、电子设备
CN117870716A (zh) 地图兴趣点的显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20211018

Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085

Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd.

Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant