CN109509260B - 动态障碍物点云的标注方法、设备及可读介质 - Google Patents
动态障碍物点云的标注方法、设备及可读介质 Download PDFInfo
- Publication number
- CN109509260B CN109509260B CN201710828450.3A CN201710828450A CN109509260B CN 109509260 B CN109509260 B CN 109509260B CN 201710828450 A CN201710828450 A CN 201710828450A CN 109509260 B CN109509260 B CN 109509260B
- Authority
- CN
- China
- Prior art keywords
- point
- point cloud
- background
- static
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 59
- 230000003068 static effect Effects 0.000 claims abstract description 140
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 230000004888 barrier function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明提供一种动态障碍物点云的标注方法、设备及可读介质。其方法包括:采集目标采集点周围的静态场景下的第一点云数据;根据第一点云数据,建立目标采集点周围的静态场景下的静态背景网格模型;采集目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;根据静态背景网格模型,对目标帧对应的第二点云数据中的动态障碍物的点云进行标注。通过采用本发明的技术方案,可以自动地对标注动态障碍物的点云,能够有效地节省标注动态障碍物点云的人力成本和标注时间,从而能够有效地提高动态障碍物的标注效率。
Description
【技术领域】
本发明涉及计算机应用技术领域,尤其涉及一种动态障碍物点云的标注方法、设备及可读介质。
【背景技术】
在自动驾驶中,无人车需要快速的进行环境感知,识别周围的障碍物,并准确做出决策控制,安全避开障碍物行驶,以保证无人车的安全行驶。无人车在进行环境感知和决策控制之前,需要采集大量的训练数据,并基于大量的训练数据进行机器学习,经过深度学习之后,得到训练的环境感知和决策控制模型,从而基于训练好的模型,实现环境感知和决策控制。
现有技术中,无人车周围的障碍物主要包括静态障碍物和动态障碍物,其中静态障碍物包括隔离带、红绿灯以及栅栏等固定在道路旁的障碍物。动态障碍物包括道路中的行驶的各种车辆以及行走的行人等。训练模型时所采集的训练数据需要将无人车周围的每种障碍物的类别以及对应的点云都标识出来,以训练无人车对环境感知能力和决策控制能力。其中,现有的从激光雷达点云数据中标注动态障碍物时,一般是通过设计点云数据的可视化界面和开发人机交互窗口的软件来实现的。标注人员通过软件直观地肉眼观察每一帧点云,确定动态障碍物的位置;然后在动态障碍物周围,用鼠标手动点击和拖拽出一个最外接矩形框,并输入障碍物类型等其他信息;最终由软件将矩形框中所含的动态障碍物的位置、大小、方向、类型等信息保存成文件,作为标注结果输出。
上述现有技术中,采用人工手动的方式标注动态障碍物点云时,标注过程中不仅需要耗费人力成本,而且特别费时,例如标注每帧点云数据中的动态障碍物需要10~20分钟,因此,现有的采用人工手动的方式标注动态障碍物点云的标注效率非常低。
【发明内容】
本发明提供了一种动态障碍物点云的标注方法、设备及可读介质,用于提高动态障碍物点云的标注效率。
本发明提供一种动态障碍物点云的标注方法,所述方法包括:
采集目标采集点周围的静态场景下的第一点云数据;
根据所述第一点云数据,建立所述目标采集点周围的所述静态场景下的静态背景网格模型;
采集所述目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;
根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注。
进一步可选地,如上所述的方法中,根据所述第一点云数据,建立所述目标采集点周围的所述静态场景下的静态背景网格模型,具体包括:
将所述第一点云数据在三维空间中进行网格化处理,得到三维网格模型;
根据所述三维网格模型中每个网格中是否包括所述第一点云数据中的有效点的情况,为对应的所述网格设置背景属性,得到所述目标采集点周围的所述静态场景下的所述静态背景网格模型。
进一步可选地,如上所述的方法中,根据所述三维网格模型中每个网格中是否包括所述第一点云数据中的有效点的情况,为对应的所述网格设置背景属性,具体包括:
判断所述三维网格模型的各网格中是否包括所述第一点云数据中的有效点,若包括,将对应的所述网格的背景属性设置为1;否则将对应的所述网格的背景属性设置为0。
进一步可选地,如上所述的方法中,根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注,具体包括:
将所述第二点云数据的每个目标点投射到所述静态背景网格模型中;
获取各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性;
根据各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性,识别对应的所述目标点是否属于动态障碍物的点;
将所述第二点云数据中所有属于动态障碍物的点进行聚类处理,得到对应的所述动态障碍物的点云。
进一步可选地,如上所述的方法中,根据各所述目标点投射在所述静态背景网格模型中的网格的背景属性,识别对应的所述目标点是否属于动态障碍物的点,具体包括:
判断各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性是1还是0;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为1,确定所述目标点为静态属性的背景点;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为0,确定所述目标点为动态障碍物的点。
本发明提供一种动态障碍物点云的标注装置,所述装置包括:
采集模块,用于采集目标采集点周围的静态场景下的第一点云数据;
建立模块,用于根据所述第一点云数据,建立所述目标采集点周围的所述静态场景下的静态背景网格模型;
所述采集模块,还用于采集所述目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;
标注模块,用于根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注。
进一步可选地,如上所述的装置中,所述建立模块,包括:
网格化处理单元,用于将所述第一点云数据在三维空间中进行网格化处理,得到三维网格模型;
设置单元,用于根据所述三维网格模型中每个网格中是否包括所述第一点云数据中的有效点的情况,为对应的所述网格设置背景属性,得到所述目标采集点周围的所述静态场景下的所述静态背景网格模型。
进一步可选地,如上所述的装置中,所述设置单元,具体用于判断所述三维网格模型的各网格中是否包括所述第一点云数据中的有效点,若包括,将对应的所述网格的背景属性设置为1;否则将对应的所述网格的背景属性设置为0。
进一步可选地,如上所述的装置中,所述标注模块,包括:
投射单元,用于将所述第二点云数据的每个目标点投射到所述静态背景网格模型中;
获取单元,用于获取各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性;
识别单元,用于根据各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性,识别对应的所述目标点是否属于动态障碍物的点;
聚类单元,用于将所述第二点云数据中所有属于动态障碍物的点进行聚类处理,得到对应的所述动态障碍物的点云。
进一步可选地,如上所述的装置中,所述识别单元,具体用于:
判断各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性是1还是0;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为1,确定所述目标点为静态属性的背景点;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为0,确定所述目标点为动态障碍物的点。
本发明还提供一种计算机设备,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
激光雷达,用于扫描目标采集点周围的静态场景下或者运行动态障碍物后的动态场景下点云数据;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的动态障碍物点云的标注方法。
本发明还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的动态障碍物点云的标注方法。
本发明的动态障碍物点云的标注方法、设备及可读介质,通过采集目标采集点周围的静态场景下的第一点云数据;根据第一点云数据,建立目标采集点周围的静态场景下的静态背景网格模型;采集目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;根据静态背景网格模型,对目标帧对应的第二点云数据中的动态障碍物的点云进行标注。通过采用本发明的技术方案,可以自动地对标注动态障碍物的点云,能够有效地节省标注动态障碍物点云的人力成本和标注时间,从而能够有效地提高动态障碍物的标注效率。
【附图说明】
图1为本发明的动态障碍物点云的标注方法实施例的流程图。
图2为本发明的动态障碍物点云的标注装置实施例一的结构图。
图3为本发明的动态障碍物点云的标注装置实施例二的结构图。
图4为本发明的计算机设备实施例的结构图。
图5为本发明提供的一种计算机设备的示例图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
图1为本发明的动态障碍物点云的标注方法实施例的流程图。如图1所示,本实施例的动态障碍物点云的标注方法,具体可以包括如下步骤:
100、采集目标采集点周围的静态场景下的第一点云数据;
本实施例的动态障碍物点云的标注方法的执行主体为动态障碍物点云的标注装置,该动态障碍物点云的标注装置可以为一个电子实体。
本实施例的动态障碍物点云的标注方法在实施时,可以由位于目标采集点的采集车辆上加载的激光雷达来采集目标采集点周围的静态场景下的第一点云数据。本实施例的第一点云数据可以为该目标采集点周围的一帧点云数据,但是由于某一帧点云数据包括的三维空间中的点可能不够全面和丰富,可选地,本实施例中,也可以由激光雷达采集目标采集点周围的静态场景下的多帧原始点云数据,由于多帧原始点云数据之间有些许差别,然后将多帧原始点云数据拼接,得到第一点云数据,可以弥补仅选取某一帧原始点云数据作为第一点云数据所造成的点云不够全面和丰富的问题。本实施例中的多帧原始点云数据,可以从原始采集的连续多帧点云数据,按照某种降采样频率如5hz,10hz或者20hz等抽取获得。采用降采样的抽取方式,可以避免将所有的原始点云数据拼接占据过大的存储空间。
由于本实施例中是为了对道路中的动态障碍物进行标注,以便于获取训练无人车的环境感知和决策控制模型的训练数据,因此,本实施例中采集该静态场景的第一点云数据,是为了便于后续标注动态障碍障碍物点云,所以,本实施例的目标采集点可以选择在道路中或者道路旁的某一点,可以为道路上的特征明显的点,如道路中的拐点之类的、能够在道路中有动态障碍物时扫描到动态障碍物的点云。使用时,将激光雷达定位在该目标采集点上,由激光雷达扫描获取该目标采集点周围的静态场景下的第一点云数据,或者由激光雷达扫描获取该目标采集点周围的静态场景下的多帧原始点云数据,并将多帧原始点云数据拼接,得到第一点云数据。
该第一点云数据中包括目标采集点周围的所有静态障碍物的点云,如可以包括道路两旁的建筑、护栏、红绿灯、山和绿化带,以及位于道路上方的摄像头及其安装架、桥梁等等。静态障碍物都是相对固定的、不会运动的一些障碍物。且静态障碍物的第一点云数据中不包括任何运动的障碍物。第一点云数据包括采集到的目标采集点周围的每一个静态障碍物中的每一个点的三维坐标。
101、根据第一点云数据,建立目标采集点周围的静态场景下的静态背景网格模型;
由于获取的第一点云数据中仅包括静态障碍物,静态障碍物均可以作为无人车在该目标采集点所看到的背景信息。因此,本实施例,可以基于获取的第一点云数据,建立目标采集点周围的静态场景下的静态背景网格模型。本实施例的静态背景网格模型为一个三维形态的网格模型,该静态背景网格模型在三维空间的大小与第一点云数据的大小相匹配,以正好能够包围该第一点云。即相当于在第一点云的三维空间中划分网格模型,并对各网格设置背景属性,得到目标采集点周围的静态场景下的静态背景网格模型。
例如,该步骤101,具体可以包括如下步骤:
(a1)将第一点云数据在三维空间中进行网格化处理,得到三维网格模型;
本实施例中的第一点云数据中的每个点都具有三维坐标,都可以映射到三维空间中的一个点,将第一点云数据中的所有点按照对应的三维坐标,映射到三维空间中可以得到对应的多个点构成的第一点云。将第一点云所占据的三维空间进行网格化处理,从而得到数个网格构成的三维网格模型。在某些网格中包括有第一点云数据中的有效点,而有些网格中未包括有第一点云数据中的有效点,即为空网格。本实施例的三维网格模型的每个网格的大小粒度以在第一点云中点云较为密集区域中仅包括一个点为宜,具体可以根据实际应用中激光雷达的线数等来设置,在此不做限定。
(b1)根据三维网格模型中每个网格中是否包括第一点云数据中的有效点的情况,为对应的网格设置背景属性,得到目标采集点周围的静态场景下的静态背景网格模型。
本实施例的网格的背景属性表征该网格中是否包括背景点。例如,该步骤(b1)具体可以包括:判断三维网格模型的各网格中是否包括第一点云数据中的有效点,若包括,确定该网络可以作为背景网格,此时可以将对应的网格的背景属性设置为1;否则确定该网络不是背景网格,此时将对应的网格的背景属性设置为0。这样,便可以得到背景属性由0和1构成的静态背景网格模型。
102、采集目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;
同理,可以通过定位在目标采集点的采集车辆上加载的激光雷达,扫描周围加入有动态障碍物之后的动态场景下的目标帧的第二点云数据。
由于本实施例中是为了标注动态障碍物的点云,从而获取训练无人车的环境感知和决策控制模型的训练数据,为了获取更加完备的训练数据,本实施例中,可以控制运行的动态障碍物尽可能的多样化,例如动态障碍物可以与目标采集点的采集车辆具有不同的距离,且从不同角度的各个方位出现,从而使得激光雷达扫描到各种情况下的目标帧的第二点云数据。本实施例的目标帧可以为采集各种动态场景下的任一帧,按照本实施例的处理方式,可以对任一帧的第二点云数据中的动态障碍物的点云进行标注。
103、根据静态背景网格模型,对目标帧对应的第二点云数据中的动态障碍物的点云进行标注。
具体地,可以以静态背景网格模型为参考,对目标帧对应的第二点云数据中的动态障碍物的点云进行识别和标注。
例如,该步骤103,具体可以包括如下步骤:
(a2)将第二点云数据的每个目标点投射到静态背景网格模型中;
(b2)获取各目标点投射在静态背景网格模型中的网格的背景属性;
(c2)根据各目标点投射在静态背景网格模型中的网格的背景属性,识别对应的目标点是否属于动态障碍物的点;
(d2)将第二点云数据中所有属于动态障碍物的点进行聚类处理,得到对应的动态障碍物的点云。
具体地,在静态背景下,加入运动的障碍物之后,在激光雷达能够扫描到的区域范围内,扫描到的动态障碍物的点云不会超出静态背景网格模型的区域范围。根据第二点云数据中的每个目标点的三维坐标,将第二点云数据的每个目标点投射到静态背景网格模型中,这样,每个目标点可以投射至静态背景网格模型中的一个网格中。对于每个目标点,可以获取该目标点投射在静态背景网格模型中的网格的背景属性;然后根据该目标点投射在静态背景网格模型中的网格的背景属性,识别对应的目标点是否属于动态障碍物的点。
例如该步骤(c2)具体可以包括:判断各目标点投射在静态背景网格模型中的网格的背景属性为1还是0,若对应的目标点投射在静态背景网格模型中的网格的背景属性为1,表示该网格中已经包括背景点,由于背景和动态障碍物不可能如此接近,因此该网格中不可能包括动态障碍物的目标点,从而可以确定该目标点为静态属性的背景点;若对应的目标点投射在静态背景网格模型中的网格的背景属性为0,表示该网格中之前未包括背景点,此时该目标点投射至该网格,从而确定该目标点为动态障碍物的点。
经过上述处理,可以将第二点云数据中的所有属于动态障碍物的点标识出来,然后可以将第二点云数据中所有属于动态障碍物的点按照聚类算法如KMeans,进行聚类处理,得到对应的动态障碍物的点云。需要说明的是,如果第二点云数据中包括有多个动态障碍物,进行聚类处理也可以得到多个动态障碍物的点云。
经过上述实施例,可以自动地对动态障碍物的点云进行标注。实际应用中,在生成训练无人车的环境感知和决策控制模型的训练数据时,还可以进一步增加障碍物的类别。具体地,本实施例中在静态背景中加入动态障碍物时,可以每次加入已知类别的动态障碍物,从而可以根据已知类别的动态障碍物类别实现动态障碍物类别的标注。或者还可以预先设置有各种动态障碍物的类别特征模板,根据标注的动态障碍物的点云和各类别特征模板去比对,获取标注的动态障碍物的类别,从而得到动态障碍物对应的训练数据。
本实施例仅介绍一种动态障碍物点云的标注,其中静态障碍物的点云的标注本发明中未涉及,详细可以参考相关现有技术的任一种静态障碍物点云的标注方式,例如可以采用现有的人工手动标注的方式,以实现静态障碍物的点云的标注,进而实现静态障碍物对应的训练数据的获取,详细参考相关现有技术,在此不再赘述。
本实施例的动态障碍物点云的标注方法,通过采集目标采集点周围的静态场景下的第一点云数据;根据第一点云数据,建立目标采集点周围的静态场景下的静态背景网格模型;采集目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;根据静态背景网格模型,对目标帧对应的第二点云数据中的动态障碍物的点云进行标注。通过采用本实施例的技术方案,可以自动地对标注动态障碍物的点云,能够有效地节省标注动态障碍物点云的人力成本和标注时间,从而能够有效地提高动态障碍物的标注效率。
图2为本发明的动态障碍物点云的标注装置实施例一的结构图。如图2所示,本实施例的动态障碍物点云的标注装置,具体可以包括:采集模块10、建立模块11和标注模块12。
其中采集模块10用于采集目标采集点周围的静态场景下的第一点云数据;
建立模块11用于根据采集模块10采集的第一点云数据,建立目标采集点周围的静态场景下的静态背景网格模型;
采集模块10还用于采集目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;
标注模块12用于根据建立模块11建立的静态背景网格模型,对采集模块10采集的目标帧对应的第二点云数据中的动态障碍物的点云进行标注。
本实施例的动态障碍物点云的标注装置,通过采用上述模块实现动态障碍物点云的标注的实现原理以及技术效果与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图3为本发明的动态障碍物点云的标注装置实施例二的结构图。如图3所示,本实施例的动态障碍物点云的标注装置在上述图2所示实施例的技术方案的基础上,进一步更加详细地介绍本发明的技术方案。
如图3所示,本实施例的动态障碍物点云的标注装置中,建立模块11具体包括:
网格化处理单元111,用于将采集模块10采集的第一点云数据在三维空间中进行网格化处理,得到三维网格模型;
设置单元112,根据网格化处理单元111处理得到的三维网格模型中每个网格中是否包括第一点云数据中的有效点的情况,为对应的网格设置背景属性,得到目标采集点周围的静态场景下的静态背景网格模型。
进一步可选地,本实施例的动态障碍物点云的标注装置中,设置单元112具体用于判断三维网格模型的各网格中是否包括第一点云数据中的有效点,若包括,将对应的网格的背景属性设置为1;否则将对应的网格的背景属性设置为0。
如图3所示,进一步可选地,本实施例的动态障碍物点云的标注装置中,标注模块12包括:
投射单元121,用于将采集模块10采集的目标帧的第二点云数据的每个目标点投射到静态背景网格模型中;
获取单元122,用于从静态背景网格模型中获取投射单元121投射后的各目标点投射在静态背景网格模型中的网格的背景属性;
识别单元123,用于根据获取单元122获取的各目标点投射在设置单元112设置的静态背景网格模型中的网格的背景属性,识别对应的目标点是否属于动态障碍物的点;
聚类单元124,用于将识别单元123识别的第二点云数据中所有属于动态障碍物的点进行聚类处理,得到对应的动态障碍物的点云。
进一步可选地,本实施例的动态障碍物点云的标注装置中,识别单元123具体用于:
判断获取单元122获取的各目标点投射在静态背景网格模型中的网格的背景属性是1还是0;
若对应的目标点投射在静态背景网格模型中的网格的背景属性为1,确定目标点为静态属性的背景点;
若对应的目标点投射在静态背景网格模型中的网格的背景属性为0,确定目标点为动态障碍物的点。
本实施例的动态障碍物点云的标注装置,通过采用上述模块实现动态障碍物点云的标注的实现原理以及技术效果与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图4为本发明的计算机设备实施例的结构图。如图4所示,本实施例的计算机设备,包括:一个或多个处理器30,以及存储器40和激光雷达50。其中激光雷达用于扫描目标采集点周围的静态场景下或者运行动态障碍物后的动态场景下点云数据。且激光雷达50与处理器30通讯,用于将扫描的点云数据发送给处理器30,以供处理器30根据存储器40中存储的程序,实现根据激光雷达扫描的点云数据,采集目标采集点周围的静态场景下的第一点云数据,以及采集目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据。也就是说,存储器40用于存储一个或多个程序,当存储器40中存储的一个或多个程序被一个或多个处理器30执行,使得一个或多个处理器30实现如上图1所示实施例的动态障碍物点云的标注方法。图4所示实施例中以包括多个处理器30为例。
例如,图5为本发明提供的一种计算机设备的示例图。图5示出了适于用来实现本发明实施方式的示例性计算机设备12a的框图。图5显示的计算机设备12a仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备12a以通用计算设备的形式表现。计算机设备12a的组件可以包括但不限于:一个或者多个处理器16a,系统存储器28a,连接不同系统组件(包括系统存储器28a和处理器16a)的总线18a。
总线18a表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12a典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12a访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28a可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30a和/或高速缓存存储器32a。计算机设备12a可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34a可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18a相连。系统存储器28a可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明上述图1-图3各实施例的功能。
具有一组(至少一个)程序模块42a的程序/实用工具40a,可以存储在例如系统存储器28a中,这样的程序模块42a包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42a通常执行本发明所描述的上述图1-图3各实施例中的功能和/或方法。
计算机设备12a也可以与一个或多个外部设备14a(例如键盘、指向设备、显示器24a等)通信,还可与一个或者多个使得用户能与该计算机设备12a交互的设备通信,和/或与使得该计算机设备12a能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22a进行。并且,计算机设备12a还可以通过网络适配器20a与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20a通过总线18a与计算机设备12a的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12a使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16a通过运行存储在系统存储器28a中的程序,从而执行各种功能应用以及数据处理,例如实现上述实施例所示的动态障碍物点云的标注方法。
本发明还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例所示的动态障碍物点云的标注方法。
本实施例的计算机可读介质可以包括上述图5所示实施例中的系统存储器28a中的RAM30a、和/或高速缓存存储器32a、和/或存储系统34a。
随着科技的发展,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载,或者采用其他方式获取。因此,本实施例中的计算机可读介质不仅可以包括有形的介质,还可以包括无形的介质。
本实施例的计算机可读介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (12)
1.一种动态障碍物点云的标注方法,其特征在于,所述方法包括:
采集目标采集点周围的静态场景下的第一点云数据;
根据所述第一点云数据,建立所述目标采集点周围的所述静态场景下的静态背景网格模型;所述静态背景网格模型中各网格具有背景属性,所述背景属性用于表征对应的所述网格是否为背景;
采集所述目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;
根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注;
根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注,包括:
根据所述第二点云数据的各目标点投射在所述静态背景网格模型中的网格的所述背景属性,将投射的网格不是背景的所述目标点识别为所述动态障碍物的点;
将投射在所述静态背景网格模型中的所述第二点云数据中所有属于动态障碍物的点进行聚类处理,得到对应的所述动态障碍物的点云。
2.根据权利要求1所述的方法,其特征在于,根据所述第一点云数据,建立所述目标采集点周围的所述静态场景下的静态背景网格模型,具体包括:
将所述第一点云数据在三维空间中进行网格化处理,得到三维网格模型;
根据所述三维网格模型中每个网格中是否包括所述第一点云数据中的有效点的情况,为对应的所述网格设置背景属性,得到所述目标采集点周围的所述静态场景下的所述静态背景网格模型。
3.根据权利要求2所述的方法,其特征在于,根据所述三维网格模型中每个网格中是否包括所述第一点云数据中的有效点的情况,为对应的所述网格设置背景属性,具体包括:
判断所述三维网格模型的各网格中是否包括所述第一点云数据中的有效点,若包括,将对应的所述网格的背景属性设置为1;否则将对应的所述网格的背景属性设置为0。
4.根据权利要求3所述的方法,其特征在于,根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注,还包括:
将所述第二点云数据的每个目标点投射到所述静态背景网格模型中;
获取各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性。
5.根据权利要求4所述的方法,其特征在于,根据所述第二点云数据的各目标点投射在所述静态背景网格模型中的网格的所述背景属性,将投射的网格不是背景的所述目标点识别为所述动态障碍物的点,具体包括:
判断各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性是1还是0;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为1,确定所述目标点为静态属性的背景点;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为0,确定所述目标点为动态障碍物的点。
6.一种动态障碍物点云的标注装置,其特征在于,所述装置包括:
采集模块,用于采集目标采集点周围的静态场景下的第一点云数据;
建立模块,用于根据所述第一点云数据,建立所述目标采集点周围的所述静态场景下的静态背景网格模型;所述静态背景网格模型中各网格具有背景属性,所述背景属性用于表征对应的所述网格是否为背景;
所述采集模块,还用于采集所述目标采集点周围运行动态障碍物后的动态场景下目标帧的第二点云数据;
标注模块,用于根据所述静态背景网格模型,对所述目标帧对应的所述第二点云数据中的动态障碍物的点云进行标注;
所述标注模块,包括:
识别单元,用于根据所述第二点云数据的各目标点投射在所述静态背景网格模型中的网格的所述背景属性,将投射的网格不是背景的所述目标点识别为所述动态障碍物的点;
聚类单元,用于将投射在所述静态背景网格模型中的所述第二点云数据中所有属于动态障碍物的点进行聚类处理,得到对应的所述动态障碍物的点云。
7.根据权利要求6所述的装置,其特征在于,所述建立模块,包括:
网格化处理单元,用于将所述第一点云数据在三维空间中进行网格化处理,得到三维网格模型;
设置单元,用于根据所述三维网格模型中每个网格中是否包括所述第一点云数据中的有效点的情况,为对应的所述网格设置背景属性,得到所述目标采集点周围的所述静态场景下的所述静态背景网格模型。
8.根据权利要求7所述的装置,其特征在于,所述设置单元,具体用于判断所述三维网格模型的各网格中是否包括所述第一点云数据中的有效点,若包括,将对应的所述网格的背景属性设置为1;否则将对应的所述网格的背景属性设置为0。
9.根据权利要求8所述的装置,其特征在于,所述标注模块,还包括:
投射单元,用于将所述第二点云数据的每个目标点投射到所述静态背景网格模型中;
获取单元,用于获取各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性。
10.根据权利要求9所述的装置,其特征在于,所述识别单元,具体用于:
判断各所述目标点投射在所述静态背景网格模型中的网格的所述背景属性是1还是0;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为1,确定所述目标点为静态属性的背景点;
若对应的所述目标点投射在所述静态背景网格模型中的网格的所述背景属性为0,确定所述目标点为动态障碍物的点。
11.一种计算机设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
激光雷达,用于扫描目标采集点周围的静态场景下或者运行动态障碍物后的动态场景下点云数据;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710828450.3A CN109509260B (zh) | 2017-09-14 | 2017-09-14 | 动态障碍物点云的标注方法、设备及可读介质 |
US16/118,171 US11443523B2 (en) | 2017-09-14 | 2018-08-30 | Dynamic obstacle point cloud annotating method and apparatus, device and readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710828450.3A CN109509260B (zh) | 2017-09-14 | 2017-09-14 | 动态障碍物点云的标注方法、设备及可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109509260A CN109509260A (zh) | 2019-03-22 |
CN109509260B true CN109509260B (zh) | 2023-05-26 |
Family
ID=65631259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710828450.3A Active CN109509260B (zh) | 2017-09-14 | 2017-09-14 | 动态障碍物点云的标注方法、设备及可读介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11443523B2 (zh) |
CN (1) | CN109509260B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084895B (zh) * | 2019-04-30 | 2023-08-22 | 上海禾赛科技有限公司 | 对点云数据进行标注的方法和设备 |
WO2020225889A1 (ja) * | 2019-05-08 | 2020-11-12 | 日本電信電話株式会社 | 点群アノテーション装置、方法、及びプログラム |
CN110161526A (zh) * | 2019-05-24 | 2019-08-23 | 河南辉煌科技股份有限公司 | 一种基于三维成像的线路障碍物识别方法 |
CN112015938B (zh) * | 2019-05-28 | 2024-06-14 | 杭州海康威视数字技术股份有限公司 | 点云标签传递方法、装置及系统 |
CN112017202B (zh) * | 2019-05-28 | 2024-06-14 | 杭州海康威视数字技术股份有限公司 | 点云标注方法、装置及系统 |
CN110220529B (zh) * | 2019-06-17 | 2023-05-23 | 深圳数翔科技有限公司 | 一种路侧自动驾驶车辆的定位方法 |
CN110728210A (zh) * | 2019-09-25 | 2020-01-24 | 上海交通大学 | 一种三维点云数据的半监督目标标注方法和系统 |
CN114503044B (zh) * | 2019-09-30 | 2024-08-20 | 北京航迹科技有限公司 | 用于在3d点云中自动标记对象的系统和方法 |
CN111143917B (zh) * | 2019-12-04 | 2023-07-07 | 深圳微品致远信息科技有限公司 | 机场建模方法、装置、存储介质及设备 |
CN113128248B (zh) * | 2019-12-26 | 2024-05-28 | 深圳一清创新科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN111123949B (zh) * | 2019-12-31 | 2023-07-07 | 达闼机器人股份有限公司 | 机器人的避障方法、装置、机器人及存储介质 |
CN111208521B (zh) * | 2020-01-14 | 2021-12-07 | 武汉理工大学 | 一种多波束前视声呐水下障碍物鲁棒检测方法 |
CN111427979B (zh) * | 2020-01-15 | 2021-12-21 | 深圳市镭神智能系统有限公司 | 基于激光雷达的动态地图构建方法、系统及介质 |
CN111337898B (zh) * | 2020-02-19 | 2022-10-14 | 北京百度网讯科技有限公司 | 激光点云的处理方法、装置、设备及存储介质 |
CN113392677A (zh) * | 2020-03-12 | 2021-09-14 | 阿里巴巴集团控股有限公司 | 目标对象的检测方法及装置、存储介质、终端 |
CN113496163B (zh) * | 2020-04-01 | 2024-01-16 | 北京京东乾石科技有限公司 | 障碍物识别方法和装置 |
CN112949366B (zh) * | 2020-04-01 | 2022-04-12 | 北京京东乾石科技有限公司 | 障碍物识别方法和装置 |
EP4085618A4 (en) * | 2020-04-15 | 2023-03-01 | ZTE Corporation | METHOD AND DEVICE FOR VOLUMETRIC VISUAL MEDIA PROCESSING |
CN111666137B (zh) * | 2020-04-26 | 2022-04-05 | 广州文远知行科技有限公司 | 数据标注方法、装置、计算机设备和存储介质 |
CN112861595A (zh) * | 2020-07-31 | 2021-05-28 | 北京京东乾石科技有限公司 | 数据点的识别方法、装置和计算机可读存储介质 |
WO2022126540A1 (zh) * | 2020-12-17 | 2022-06-23 | 深圳市大疆创新科技有限公司 | 障碍物检测及重识别方法、装置、可移动平台及存储介质 |
GB2620877A (en) * | 2021-01-01 | 2024-01-24 | Du Yuchuan | On-board positioning device-based roadside millimeter-wave radar calibration method |
CN113468941B (zh) * | 2021-03-11 | 2023-07-18 | 长沙智能驾驶研究院有限公司 | 障碍物检测方法、装置、设备及计算机存储介质 |
CN112734810B (zh) * | 2021-04-06 | 2021-07-02 | 北京三快在线科技有限公司 | 一种障碍物追踪方法及装置 |
CN113126120B (zh) * | 2021-04-25 | 2023-08-25 | 北京百度网讯科技有限公司 | 数据标注方法、装置、设备、存储介质以及计算机程序产品 |
CN113741438B (zh) * | 2021-08-20 | 2024-03-26 | 上海高仙自动化科技发展有限公司 | 路径规划方法、装置、存储介质、芯片及机器人 |
CN113920274B (zh) * | 2021-09-30 | 2023-02-14 | 广州极飞科技股份有限公司 | 场景点云处理方法及装置、无人机、遥测终端和存储介质 |
CN114067091B (zh) * | 2022-01-17 | 2022-08-16 | 深圳慧拓无限科技有限公司 | 一种多源数据标注方法、系统、电子设备和存储介质 |
CN114549644A (zh) * | 2022-02-24 | 2022-05-27 | 北京百度网讯科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN114779276A (zh) * | 2022-03-25 | 2022-07-22 | 中国农业银行股份有限公司 | 一种障碍物检测方法和装置 |
CN114646936A (zh) * | 2022-03-30 | 2022-06-21 | 北京洛必德科技有限公司 | 一种点云地图构建方法、装置以及电子设备 |
CN114870364B (zh) * | 2022-04-19 | 2023-12-19 | 深圳市华屹医疗科技有限公司 | 健身器械控制方法、健身器械及存储介质 |
CN116681767B (zh) * | 2023-08-03 | 2023-12-29 | 长沙智能驾驶研究院有限公司 | 一种点云搜索方法、装置及终端设备 |
CN118470225A (zh) * | 2024-07-15 | 2024-08-09 | 杭州海康威视数字技术股份有限公司 | 障碍物下落图片获取方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017079321A1 (en) * | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
CN106934347A (zh) * | 2017-02-10 | 2017-07-07 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN106997049A (zh) * | 2017-03-14 | 2017-08-01 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8260539B2 (en) * | 2010-05-12 | 2012-09-04 | GM Global Technology Operations LLC | Object and vehicle detection and tracking using 3-D laser rangefinder |
-
2017
- 2017-09-14 CN CN201710828450.3A patent/CN109509260B/zh active Active
-
2018
- 2018-08-30 US US16/118,171 patent/US11443523B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017079321A1 (en) * | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
CN106934347A (zh) * | 2017-02-10 | 2017-07-07 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN106997049A (zh) * | 2017-03-14 | 2017-08-01 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
Non-Patent Citations (3)
Title |
---|
"Two-stage static dynamic environment modeling using voxel representation";Alireza Asvadi, Paulo Peixoto,Urbano Nunes;《Robot 2015: Second Iberian Robotics Conference》;20151202;说明书第3节,图2-5 * |
Alireza Asvadi, Paulo Peixoto,Urbano Nunes."Two-stage static dynamic environment modeling using voxel representation".《Robot 2015: Second Iberian Robotics Conference》.2015, * |
基于三维激光雷达的无人驾驶车辆环境关键技术研究;刘健;《中国博士学位论文全文数据库(电子期刊)》;20160915;全文 * |
Also Published As
Publication number | Publication date |
---|---|
US11443523B2 (en) | 2022-09-13 |
CN109509260A (zh) | 2019-03-22 |
US20190080183A1 (en) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109509260B (zh) | 动态障碍物点云的标注方法、设备及可读介质 | |
CN106951847B (zh) | 障碍物检测方法、装置、设备及存储介质 | |
CN109606384B (zh) | 车辆控制方法、装置、设备和存储介质 | |
CN110286387B (zh) | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 | |
CN109145680B (zh) | 一种获取障碍物信息的方法、装置、设备和计算机存储介质 | |
CN106919908B (zh) | 障碍物识别方法及装置、计算机设备及可读介质 | |
CN106934347B (zh) | 障碍物识别方法及装置、计算机设备及可读介质 | |
CN114415628A (zh) | 自动驾驶测试方法及装置、电子设备和存储介质 | |
CN113012176B (zh) | 样本图像的处理方法、装置、电子设备及存储介质 | |
CN113859264B (zh) | 车辆控制方法、装置、电子设备及存储介质 | |
CN113378605B (zh) | 多源信息融合方法及装置、电子设备和存储介质 | |
CN112199991A (zh) | 一种应用于车路协同路侧感知的仿真点云滤波方法和系统 | |
CN113467875A (zh) | 训练方法、预测方法、装置、电子设备以及自动驾驶车辆 | |
US20210357763A1 (en) | Method and device for performing behavior prediction by using explainable self-focused attention | |
CN114443794A (zh) | 数据处理和地图更新方法、装置、设备以及存储介质 | |
CN114037966A (zh) | 高精地图特征提取方法、装置、介质及电子设备 | |
CN112650300A (zh) | 一种无人机避障方法和装置 | |
EP4080479A2 (en) | Method for identifying traffic light, device, cloud control platform and vehicle-road coordination system | |
CN113392793A (zh) | 用于识别车道线的方法、装置、设备、存储介质以及无人车 | |
CN113762272A (zh) | 道路信息的确定方法、装置和电子设备 | |
CN114882316A (zh) | 目标检测模型训练方法、目标检测方法及装置 | |
CN113298910A (zh) | 生成交通标志线地图的方法、设备和存储介质 | |
CN114415542A (zh) | 自动驾驶仿真系统、方法、服务器及介质 | |
CN111959526B (zh) | 基于无人车的控制方法、装置、无人车和电子设备 | |
CN113011298A (zh) | 截断物体样本生成、目标检测方法、路侧设备和云控平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211021 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |