CN109214248B - 用于识别无人驾驶车辆的激光点云数据的方法和装置 - Google Patents
用于识别无人驾驶车辆的激光点云数据的方法和装置 Download PDFInfo
- Publication number
- CN109214248B CN109214248B CN201710539630.XA CN201710539630A CN109214248B CN 109214248 B CN109214248 B CN 109214248B CN 201710539630 A CN201710539630 A CN 201710539630A CN 109214248 B CN109214248 B CN 109214248B
- Authority
- CN
- China
- Prior art keywords
- laser point
- map
- grid
- cube
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000003068 static effect Effects 0.000 claims abstract description 73
- 238000005192 partition Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- YREOLPGEVLLKMB-UHFFFAOYSA-N 3-methylpyridin-1-ium-2-amine bromide hydrate Chemical compound O.[Br-].Cc1ccc[nH+]c1N YREOLPGEVLLKMB-UHFFFAOYSA-N 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请公开了用于识别无人驾驶车辆的激光点云数据的方法和装置。无人驾驶车辆设置有激光雷达,该方法的一具体实施方式包括:响应于接收到激光雷达采集的最新一帧激光点云数据,获取无人驾驶车辆在世界坐标系中的当前位姿信息;根据当前位姿信息,从缓存中获取预先加载至缓存中的、预设三维网格地图中以与当前位姿信息对应的地图分块为中心的N×N个地图分块;对于所接收的激光点云数据中的每个激光点数据,执行激光点数据识别操作。该实施方式实现了识别每个激光点数据是否为静态激光点,为无人驾驶车辆后续对激光点数据的分析处理提供了依据,可以提高激光点数据障碍物识别的准确率。
Description
技术领域
本申请涉及无人驾驶车辆领域,具体涉及障碍物识别领域,尤其涉及用于识别无人驾驶车辆的激光点云数据的方法和装置。
背景技术
目前,大多数无人驾驶车辆中都设置有激光雷达。无人驾驶车辆通过对激光雷达采集的激光点云数据进行分析处理,并最终进行路线规划和行驶控制。对激光点云进行分析处理时,最重要的就是对激光点云数据中每个激光点数据进行障碍物识别,即,给出激光点云数据中的每个激光点数据所表征的是物理世界的何种障碍物。现有的对激光点数据进行障碍物识别的主要是基于规则的方法或者是基于机器学习的方法。
然而,基于规则的方法存在寻找并使用合适的规则难度较高,而且需要穷尽现实世界中的障碍物种类难度太大的问题。另外,基于机器学习的方法存在对于没有训练过的障碍物种类,可能无法识别的问题。
发明内容
本申请的目的在于提出一种改进的用于识别无人驾驶车辆的激光点云数据的方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种用于识别无人驾驶车辆的激光点云数据的方法,上述无人驾驶车辆设置有激光雷达,该方法包括:响应于接收到上述激光雷达采集的最新一帧激光点云数据,获取上述无人驾驶车辆在世界坐标系中的当前位姿信息;根据上述当前位姿信息,从缓存中获取预先加载至上述缓存中的、预设三维网格地图中以与上述当前位姿信息对应的地图分块为中心的N×N个地图分块,其中,N为奇数,上述预设三维网格地图按照上述世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型;对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:根据上述当前位姿信息,确定该激光点数据在上述世界坐标系中的坐标;从所获取的N×N个地图分块中,获取与该激光点数据在上述世界坐标系中的坐标对应的网格立方体;响应于所获取的网格立方体的立方体类型为静态立方体,将该激光点数据确定为用于表征静态障碍物的静态激光点数据。
在一些实施例中,上述激光点数据识别操作还包括:响应于所获取的网格立方体的立方体类型为动态立方体,将该激光点数据确定为用于表征动态障碍物的动态激光点数据。
在一些实施例中,上述响应于接收到上述激光雷达采集的最新一帧激光点云数据,获取上述无人驾驶车辆在世界坐标系中的当前位姿信息之前,上述方法还包括:响应于检测到上述无人驾驶车辆的启动信号,获取上述无人驾驶车辆在上述世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息;将上述预设三维网格地图中与上述启动时位姿信息对应的地图分块确定为初始地图分块;从磁盘中将上述预设三维网格地图中的、以上述初始地图分块为中心的N×N个地图分块加载至上述缓存中;新建并执行第一预加载线程,其中,上述第一预加载线程用于从磁盘中将上述预设三维网格地图中以上述初始地图分块为中心的(N+2)×(N+2)个地图分块中尚未加载至上述缓存中的(4N+4)个地图分块加载至上述缓存中。
在一些实施例中,上述对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作之前,上述方法还包括:将上述无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息;根据上述当前位姿信息与上述上一周期位姿信息的差异信息,确定上述无人驾驶车辆的行驶方向;新建并执行第二预加载线程,其中,上述第二预加载线程用于从磁盘中将上述预设三维网格地图中沿所确定的行驶方向与已加载至上述缓存中的、以与上述当前位姿信息对应的地图分块为中心的(N+2)×(N+2)个地图分块邻接的(N+2)个地图分块加载至上述缓存中。
在一些实施例中,网格立方体还包括网格立方体在上述世界坐标系中的中心点坐标;以及上述获取上述无人驾驶车辆在世界坐标系中的当前位姿信息之后,上述方法还包括:将上述当前位姿信息确定为待定车辆位姿信息的初始值;按照以下方式构建目标函数:以待定车辆位姿信息为自变量;对于上述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作:根据上述待定车辆位姿信息,计算该激光点数据在上述世界坐标系中的坐标;将上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在上述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标;将该激光点数据在上述世界坐标系中的坐标与该激光点数据在上述世界坐标系中的对齐坐标之间的距离确定为该激光点数据的对齐距离;计算上述激光点云数据中各个激光点数据的对齐距离之和;将计算所得的对齐距离之和确定为上述目标函数的输出;利用最近邻迭代算法,确定使得上述目标函数的输出最小的待定位姿信息;用所确定的待定位姿信息更新上述当前位姿信息。
在一些实施例中,上述对于上述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作,包括:对于上述激光点云数据进行下采样,得到下采样后的激光点云数据;对于上述下采样后的激光点云数据中的每个激光点数据,执行上述对齐距离确定操作;以及上述计算上述激光点云数据中各个激光点数据的对齐距离之和,包括:计算上述下采样后的激光点云数据中各个激光点数据的对齐距离之和。
在一些实施例中,上述将上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在上述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标,包括:在上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中确定中心点坐标与该激光点数据在世界坐标系中的坐标的距离小于等于预设距离阈值的至少一个网格立方体;将所确定的至少一个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标。
在一些实施例中,上述预设三维网格地图是采用以下步骤得到的:获取地图采集车辆采集的激光点云数据帧序列,其中,上述激光点云数据帧序列中的每一帧激光点云数据标注有对应的车辆当前位姿信息;对于上述激光点云数据帧序列中的每一帧激光点云数据,根据所标注的该帧激光点云数据对应的车辆当前位姿信息,将该帧激光点云数据中的每个激光点数据转换成上述世界坐标系中的坐标,得到转换后的激光点云帧序列;拼接上述转换后的激光点云数据帧序列中的各帧激光点云数据,得到拼接后的激光点云数据,根据上述拼接后的激光点云数据生成三维地图,并呈现上述三维地图;响应于接收到用户在上述三维地图上的动态激光点标注操作,获取用户所标注的动态激光点,并将所获取的动态激光点从上述拼接后的激光点云数据中删除,得到静态激光点云数据;按照以下方式生成预设三维网格地图:在世界坐标系下将地球表面划分成R行C列个正方形的地图分块,将每个地图分块划分成M×M个正方形的地图网格,将每个地图网格划分成至少一个网格立方体,每个网格立方体的棱长与每个地图网格的边长相同,并将每个网格立方体的立方体类型设置为动态立方体;对于上述静态激光点云数据中的每个静态激光点数据,在上述预设三维网格地图中,将与该静态激光点数据在上述世界坐标系中的坐标对应的网格立方体的立方体类型设置为静态立方体。
第二方面,本申请实施例提供了一种用于识别无人驾驶车辆的激光点云数据的装置,上述无人驾驶车辆设置有激光雷达,该装置包括:第一获取单元,配置用于响应于接收到上述激光雷达采集的最新一帧激光点云数据,获取上述无人驾驶车辆在世界坐标系中的当前位姿信息;第二获取单元,配置用于根据上述当前位姿信息,从缓存中获取预先加载至上述缓存中的、预设三维网格地图中以与上述当前位姿信息对应的地图分块为中心的N×N个地图分块,其中,N为奇数,上述预设三维网格地图按照上述世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型;识别单元,配置用于对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:根据上述当前位姿信息,确定该激光点数据在上述世界坐标系中的坐标;从所获取的N×N个地图分块中,获取与该激光点数据在上述世界坐标系中的坐标对应的网格立方体;响应于所获取的网格立方体的立方体类型为静态立方体,将该激光点数据确定为用于表征静态障碍物的静态激光点数据。
在一些实施例中,上述激光点数据识别操作还包括:响应于所获取的网格立方体的立方体类型为动态立方体,将该激光点数据确定为用于表征动态障碍物的动态激光点数据。
在一些实施例中,上述装置还包括:第一确定单元,配置用于响应于检测到上述无人驾驶车辆的启动信号,获取上述无人驾驶车辆在上述世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息;第二确定单元,配置用于将上述预设三维网格地图中与上述启动时位姿信息对应的地图分块确定为初始地图分块;加载单元,配置用于从磁盘中将上述预设三维网格地图中的、以上述初始地图分块为中心的N×N个地图分块加载至上述缓存中;第一预加载单元,配置用于新建并执行第一预加载线程,其中,上述第一预加载线程用于从磁盘中将上述预设三维网格地图中以上述初始地图分块为中心的(N+2)×(N+2)个地图分块中尚未加载至上述缓存中的(4N+4)个地图分块加载至上述缓存中。
在一些实施例中,上述装置还包括:第三确定单元,配置用于将上述无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息;第四确定单元,配置用于根据上述当前位姿信息与上述上一周期位姿信息的差异信息,确定上述无人驾驶车辆的行驶方向;第二预加载单元,配置用于新建并执行第二预加载线程,其中,上述第二预加载线程用于从磁盘中将上述预设三维网格地图中沿所确定的行驶方向与已加载至上述缓存中的、以与上述当前位姿信息对应的地图分块为中心的(N+2)×(N+2)个地图分块邻接的(N+2)个地图分块加载至上述缓存中。
在一些实施例中,网格立方体还包括网格立方体在上述世界坐标系中的中心点坐标;以及上述装置还包括:第五确定单元,配置用于将上述当前位姿信息确定为待定车辆位姿信息的初始值;构建单元,配置用于按照以下方式构建目标函数:以待定车辆位姿信息为自变量;对于上述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作:根据上述待定车辆位姿信息,计算该激光点数据在上述世界坐标系中的坐标;将上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在上述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标;将该激光点数据在上述世界坐标系中的坐标与该激光点数据在上述世界坐标系中的对齐坐标之间的距离确定为该激光点数据的对齐距离;计算上述激光点云数据中各个激光点数据的对齐距离之和;将计算所得的对齐距离之和确定为上述目标函数的输出;第六确定单元,配置用于利用最近邻迭代算法,确定使得上述目标函数的输出最小的待定位姿信息;更新单元,配置用于用所确定的待定位姿信息更新上述当前位姿信息。
在一些实施例中,上述对于上述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作,包括:对于上述激光点云数据进行下采样,得到下采样后的激光点云数据;对于上述下采样后的激光点云数据中的每个激光点数据,执行上述对齐距离确定操作;以及上述计算上述激光点云数据中各个激光点数据的对齐距离之和,包括:计算上述下采样后的激光点云数据中各个激光点数据的对齐距离之和。
在一些实施例中,上述将上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在上述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标,包括:在上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中确定中心点坐标与该激光点数据在世界坐标系中的坐标的距离小于等于预设距离阈值的至少一个网格立方体;将所确定的至少一个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标。
在一些实施例中,上述预设三维网格地图是采用以下步骤得到的:获取地图采集车辆采集的激光点云数据帧序列,其中,上述激光点云数据帧序列中的每一帧激光点云数据标注有对应的车辆当前位姿信息;对于上述激光点云数据帧序列中的每一帧激光点云数据,根据所标注的该帧激光点云数据对应的车辆当前位姿信息,将该帧激光点云数据中的每个激光点数据转换成上述世界坐标系中的坐标,得到转换后的激光点云帧序列;拼接上述转换后的激光点云数据帧序列中的各帧激光点云数据,得到拼接后的激光点云数据,根据上述拼接后的激光点云数据生成三维地图,并呈现上述三维地图;响应于接收到用户在上述三维地图上的动态激光点标注操作,获取用户所标注的动态激光点,并将所获取的动态激光点从上述拼接后的激光点云数据中删除,得到静态激光点云数据;按照以下方式生成预设三维网格地图:在世界坐标系下将地球表面划分成R行C列个正方形的地图分块,将每个地图分块划分成M×M个正方形的地图网格,将每个地图网格划分成至少一个网格立方体,每个网格立方体的棱长与每个地图网格的边长相同,并将每个网格立方体的立方体类型设置为动态立方体;对于上述静态激光点云数据中的每个静态激光点数据,在上述预设三维网格地图中,将与该静态激光点数据在上述世界坐标系中的坐标对应的网格立方体的立方体类型设置为静态立方体。
第三方面,本申请实施例提供了一种驾驶控制设备,该驾驶控制设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于识别无人驾驶车辆的激光点云数据的方法和装置,通过在接收到激光雷达采集的最新一帧激光点云数据时,获取无人驾驶车辆在世界坐标系中的当前位姿信息,并根据当前位姿信息,从缓存中获取预先加载至缓存中的、预设三维网格地图中以与当前位姿信息对应的地图分块为中心的N×N个地图分块,再对于所接收的激光点云数据中的每个激光点数据,执行激光点数据识别操作,从而可以识别每个激光点数据是否为静态激光点,为无人驾驶车辆后续对激光点数据的分析处理提供了依据,可以提高激光点数据障碍物识别的准确率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于识别无人驾驶车辆的激光点云数据的方法的一个实施例的流程图;
图3是根据本申请的以与当前位姿信息对应的地图分块为中心的3×3个地图分块的示意图;
图4是根据本申请的用于识别无人驾驶车辆的激光点云数据的方法的又一个实施例的流程图;
图5A是根据本申请的已加载至缓存中的3×3个地图分块的外围未加载的16个地图分块的示意图;
图5B是根据本申请的已加载至缓存中的3×3个地图分块的外围16个地图分块也被加载至缓存中的示意图;
图6A是根据本申请的与已加载至缓存中的5×5个地图分块邻接的未加载至缓存中的5个地图分块的示意图;
图6B是根据本申请的与已加载至缓存中的5×5个地图分块邻接的5个地图分块也被加载至缓存中的示意图;
图7A是根据本申请的用于识别无人驾驶车辆的激光点云数据的方法的再一个实施例的流程图;
图7B是根据本申请的图7A所示的流程图中步骤707的一种实现方式的分解流程图;
图7C是根据本申请的对齐距离确定操作的一种实现方式的分解流程图;
图8是根据本申请的用于识别无人驾驶车辆的激光点云数据的装置的一个实施例的结构示意图;
图9是适于用来实现本申请实施例的驾驶控制设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于识别无人驾驶车辆的激光点云数据的方法或用于识别无人驾驶车辆的激光点云数据的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括无人驾驶车辆101。
无人驾驶车辆101中安装有驾驶控制设备1011、网络1012和激光雷达1013。网络1012用以在驾驶控制设备1011和激光雷达1013之间提供通信链路的介质。网络1012可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
驾驶控制设备(又称为车载大脑)1011负责无人驾驶车辆101的智能控制。驾驶控制设备1011可以是单独设置的控制器,例如可编程逻辑控制器(Programmable LogicController,PLC)、单片机、工业控制机等;也可以是由其他具有输入/输出端口,并具有运算控制功能的电子器件组成的设备;还可以是安装有车辆驾驶控制类应用的计算机设备。
需要说明的是,实践中无人驾驶车辆101中还可以安装有至少一个传感器,例如,摄像机、重力传感器、轮速传感器等。某些情况下,无人驾驶车辆101中还可以安装有GNSS(Global Navigation Satellite System,全球导航卫星系统)设备和SINS(Strap-downInertial Navigation System,捷联惯性导航系统)等等。
需要说明的是,本申请实施例所提供的用于识别无人驾驶车辆的激光点云数据的方法一般由驾驶控制设备1011执行,相应地,用于识别无人驾驶车辆的激光点云数据的装置一般设置于驾驶控制设备1011中。
应该理解,图1中的驾驶控制设备、网络和激光雷达的数目仅仅是示意性的。根据实现需要,可以具有任意数目的驾驶控制设备、网络和激光雷达。
继续参考图2,其示出了根据本申请的用于识别无人驾驶车辆的激光点云数据的方法的一个实施例的流程200。该用于识别无人驾驶车辆的激光点云数据的方法,包括以下步骤:
步骤201,响应于接收到激光雷达采集的最新一帧激光点云数据,获取无人驾驶车辆在世界坐标系中的当前位姿信息。
在本实施例中,用于识别无人驾驶车辆的激光点云数据的方法运行于其上的电子设备(例如图1所示的驾驶控制设备)可以在接收到激光雷达采集的最新一帧激光点云数据后,实时获取无人驾驶车辆在世界坐标系中的当前位姿信息。
这里,激光雷达采集的一帧激光点云数据可以是激光雷达中设置的激光发射器绕激光雷达的中心轴一周所采集的激光点云数据。激光点云数据可以包括至少一个激光点数据,激光点数据可以包括三维坐标,激光点数据中的三维坐标可以是激光点所扫描的目标相对于无人驾驶车辆的车体坐标系的三维坐标。无人驾驶车辆的车体坐标系可以是预定义的坐标系。作为示例,可以以激光雷达的中心点为无人驾驶车辆的车体坐标系的坐标原点,以从坐标原点指向车头为X轴,以从坐标原点指向车身右方为Y轴,以与X轴垂直并指向车辆上方为Z轴。
激光雷达可以在激光发射器每绕中心轴扫描一周后,将所采集的一帧激光点云数据输出。这样上述电子设备可以在每次接收到新的一帧激光点云数据时,获取无人驾驶车辆在世界坐标系中的当前位姿信息。
这里,上述电子设备可以通过无人驾驶车辆上安装的可以提供定位功能的硬件结构来获取无人驾驶车辆在世界坐标系中的当前位姿信息。这里,无人驾驶车辆在世界坐标系中的当前位姿信息可以包括位置信息和姿态信息,其中位置信息可以包括三维坐标(例如,经纬度和高度),姿态信息可以包括俯仰角、偏航角和滚转角。
作为示例,无人驾驶车辆中可以安装有GNSS设备和惯性导航系统,上述电子设备可以从GNSS设备获取无人驾驶车辆在世界坐标系中的三维坐标,可以从惯性导航系统获取无人驾驶车辆在世界坐标系中的俯仰角、偏航角和滚转角,并以所获取的三维坐标作为当前位姿信息中的位置信息,以所获取的俯仰角、偏航角和滚转角作为当前位姿信息中的姿态信息。
步骤202,根据当前位姿信息,从缓存中获取预先加载至缓存中的、预设三维网格地图中以与当前位姿信息对应的地图分块为中心的N×N个地图分块。
在本实施例中,基于步骤201中得到的当前位姿信息,上述电子设备(例如图1所示的驾驶控制设备)可以首先根据当前位姿信息,确定预设三维网格地图中与当前位姿信息对应的地图分块。
这里,预设三维网格地图可以按照世界坐标系(例如,UTM(Universal TransverseMercartor,通用横墨卡托)世界坐标系)将地球表面划分成R行C列个正方形的地图分块,每个地图分块可以被划分成M×M个正方形的地图网格,每个地图网格可以包括至少一个网格立方体,这里,网格立方体的棱长可以与地图网格的边长相同,每个网格立方体可以包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型。这里,R、C、M为正整数。
预设三维网格地图可以预先存储在上述电子设备的磁盘中,并在需要的时候由上述电子设备预先加载至缓存中。
在本实施例的一些可选的实现方式中,预设三维网格地图可以是由地图提供商提供的符合上述要求的三维网格地图。
在本实施例的一些可选的实现方式中,预设三维网格地图也可以是采用如下步骤一到步骤六得到的:
步骤一,获取地图采集车辆采集的激光点云数据帧序列。
这里,所获取的激光点云数据帧序列中的每一帧激光点云数据标注有对应的车辆当前位姿信息。地图采集车辆中可以设置有激光雷达,这样,地图采集车辆在行驶过待生成地图区域的地理位置时,可以采集待生成地图区域的激光点云数据,并在采集激光点云数据的过程中记录每一帧激光点云数据对应的车辆在世界坐标系中的位姿信息。
步骤二,对于激光点云数据帧序列中的每一帧激光点云数据,根据所标注的该帧激光点云数据对应的车辆当前位姿信息,将该帧激光点云数据中的每个激光点数据转换成上述世界坐标系中的坐标,得到转换后的激光点云帧序列。
步骤三,拼接转换后的激光点云数据帧序列中的各帧激光点云数据,得到拼接后的激光点云数据,根据拼接后的激光点云数据生成三维地图,并呈现三维地图。
步骤四,响应于接收到用户在三维地图上的动态激光点标注操作,获取用户所标注的动态激光点,并将所获取的动态激光点从拼接后的激光点云数据中删除,得到静态激光点云数据。
这里,用户在三维地图上的动态激光点标注操作可以是各种类型的可以确定哪些激光点是动态激光点的操作。作为示例,用户可以使用三维包围盒(bounding box)将激光点数据包围起来,将三维包围盒中的激光点数据确定为动态激光点数据。
由于已经将拼接后的激光点云数据中的动态激光点数据删除,拼接后的激光点云数据中留下的均为静态激光点数据。
步骤五,按照以下方式生成预设三维网格地图:在世界坐标系下将地球表面划分成R行C列个正方形的地图分块,将每个地图分块划分成M×M个正方形的地图网格,将每个地图网格划分成至少一个网格立方体,每个网格立方体的棱长与每个地图网格的边长相同,并将每个网格立方体的立方体类型设置为动态立方体。即,首先默认每个网格立方体为动态立方体。
步骤六,对于静态激光点云数据中的每个静态激光点数据,在上述预设三维网格地图中,将与该静态激光点数据在世界坐标系中的坐标对应的网格立方体的立方体类型设置为静态立方体。
在本实施例中,由于预设三维网格地图是基于世界坐标系的,而步骤201中所获取的当前位姿信息也是基于世界坐标系的,因而,上述电子设备可以根据当前位姿信息中的位置信息(即无人驾驶车辆在世界坐标系中的坐标)、预设三维网格地图的左上角坐标,预设三维网格地图的地图分块的边长,确定无人驾驶车辆在世界坐标系中的坐标在哪个地图分块中,即确定了预设三维网格地图中与当前位姿信息对应的地图分块。
作为示例,地图分块可以用(i,j)来区分,其中,i可以表示地图分块在预设三维网格地图中的第几行,j可以表示地图分块在预设三维网格地图中的第几列。
然后,上述电子设备可以在缓存中获取预先加载至缓存中的、预设三维网格地图中以所确定的与当前位姿信息对应的地图分块为中心的N×N个地图分块。其中,N为奇数。
作为示例,如果与当前位姿信息对应的地图分块可以表示为(i,j),其中,i表示与当前位姿信息对应的地图分块在预设三维网格地图中的第几行,j表示与当前位姿信息对应的地图分块在预设三维网格地图中的第几列,则以与当前位姿信息对应的地图分块为中心的3×3个地图分块分别可以表示如下:(i-1,j-1)、(i,j-1)、(i+1,j-1)、(i-1,j)、(i,j)、(i+1,j)、(i-1,j+1)、(i,j+1)、(i+1,j+1)。请参考图3,图3示出了当N为3时,以与当前位姿信息对应的地图分块为中心的3×3个地图分块,其中,附图标记301所示的地图分块为与当前位姿信息对应的地图分块。
步骤203,对于所接收的激光点云数据中的每个激光点数据,执行激光点数据识别操作。
在本实施例中,用于识别无人驾驶车辆的激光点云数据的方法运行于其上的电子设备(例如图1所的驾驶控制设备)可以对于步骤201中所接收的最新一帧激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:
首先,可以根据上述当前位姿信息,确定该激光点数据在世界坐标系中的坐标。这里,由于激光雷达采集的激光点云数据中的三维坐标是激光雷达发射的激光点所扫描的目标相对于车体坐标系的坐标,而当前位姿信息基于世界坐标系的坐标。这样,上述电子设备可以根据当前位姿信息中的位置信息得到平移矩阵,根据当前位姿信息中的姿态信息得到旋转矩阵。然后,可以根据上述旋转矩阵和平移矩阵将该激光点数据中的三维坐标进行转换,得到该激光点数据在世界坐标系中的坐标。需要说明的是,如何根据当前位姿信息中的位置信息得到平移矩阵,如何根据当前位姿信息中的姿态信息得到旋转矩阵,以及如何根据上述旋转矩阵和平移矩阵将该激光点数据中的三维坐标进行转换,得到该激光点数据在世界坐标系中的坐标是目前广泛研究和应用的现有技术,在此不再赘述。
然后,可以从步骤202中所获取的N×N个地图分块中,获取与该激光点数据在世界坐标系中的坐标对应的网格立方体。这里,由于步骤202中从缓存中获取的N×N个地图分块是以与当前位姿信息对应的地图分块为中心的,而激光雷达受硬件参数限制,其扫描范围是有限的,这样,上述电子设备可以根据激光雷达的扫描范围、预设三维网格地图中每个地图分块中地图网格的数目M的大小、以及地图网格的边长来设定N的大小,从而可以保证所获取的以与当前位姿信息对应的地图分块为中心的N×N个地图分块可以覆盖激光雷达的扫描范围。例如,预设三维网格地图中每个地图分块包括512×512个地图网格,而地图网格的边长为0.125米,则每个地图分块的大小就是64米×64米,如果激光雷达的扫描范围小于64米,则N可以为3。如果激光的扫描范围大于64米且小于128米,则N可以为5。
由于,所获取的以与当前位姿信息对应的地图分块为中心的N×N个地图分块可以覆盖激光雷达的扫描范围,而该激光点数据是由激光雷达所采集的,因此该激光点数据在世界坐标系中的坐标对应的网格立方体必然在所获取的N×N个地图分块中。这样,上述电子设备可以根据该激光点数据在世界坐标系中的坐标、预设三维网格地图的左上角坐标、预设三维网格地图的地图分块的边长、地图分块中所包括的地图网格的数目以及地图网格的边长,确定该激光点数据在世界坐标系中的坐标在哪个网格立方体中,即确定了该激光点数据在世界坐标系中的坐标对应的网格立方体。作为示例,网格立方体可以用(i,j,k,l,m)来区分,其中,i可以表示网格立方体在预设三维网格地图中的第几行地图分块中,j可以表示网格立方体在预设三维网格地图中的第几列地图分块中,k可以表示网格立方体在所在的地图分块的第几行地图网格中,l可以表示网格立方体在所在的地图分块的第几列地图网格中,m可以表示网格立方体在所在的网格的第几个网格立方体中。其中,i,j,k,l,m均为正整数。
在确定了该激光点数据在世界坐标系中的坐标对应的网格立方体后,可以获取该激光点数据在世界坐标系中的坐标对应的网格立方体的相关信息,例如,立方体类型。
最后,如果所获取的网格立方体的立方体类型为静态立方体,则将该激光点数据确定为用于表征静态障碍物的静态激光点数据。从而,可以识别该激光点数据。
在本实施例的一些可选的实现方式中,如果所获取的网格立方体的立方体类型为动态立方体,则可以将该激光点数据确定为用于表征动态障碍物的动态激光点数据。
经过步骤203的操作,对于所获取的最新一帧激光点云数据中的每个激光点数据,均已识别该激光点数据是否是静态激光点数据,从而可以为后续对激光点云数据的进一步处理提供了依据,可以提高后续对激光点云数据进行障碍物识别的准确率。例如,当步骤203中已经将某激光点数据确定为静态激光点,就不会在后续用该激光点数据去识别该激光点数据是否是用于表征行人、车辆等可移动物体的激光点数据,但可以在后续用该激光点数据去识别该激光点数据是否是用于表征车道线、车道、交通信号灯、路口等不可移动的物体的激光点数据。
本申请的上述实施例提供的方法在接收到激光雷达采集的最新一帧激光点云数据时,获取无人驾驶车辆在世界坐标系中的当前位姿信息,并根据当前位姿信息,从缓存中获取预先加载至缓存中的、预设三维网格地图中以与当前位姿信息对应的地图分块为中心的N×N个地图分块,再对于所接收的激光点云数据中的每个激光点数据,执行激光点数据识别操作,从而可以识别每个激光点数据是否为静态激光点,为无人驾驶车辆后续对激光点数据的分析处理提供了依据,可以提高激光点数据障碍物识别的准确率。
进一步参考图4,其示出了用于识别无人驾驶车辆的激光点云数据的方法的又一个实施例的流程400。该用于识别无人驾驶车辆的激光点云数据的方法的流程400,包括以下步骤:
步骤401,响应于检测到无人驾驶车辆的启动信号,获取无人驾驶车辆在世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息。
在本实施例中,用于识别无人驾驶车辆的激光点云数据的方法运行于其上的电子设备(例如图1所示的驾驶控制设备)可以在检测到无人驾驶车辆的启动信号后,获取无人驾驶车辆在世界坐标系(例如,UTM世界坐标系)中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息。这里,无人驾驶车辆的启动信号可以是预设的电信号,例如,启动信号可以是KL15信号、KL30信号、KL50信号或者KL61信号等等。
这里,上述电子设备可以通过无人驾驶车辆上安装的可以提供定位功能的硬件结构来获取无人驾驶车辆在世界坐标系中的位姿信息,由于这里所获取的车辆位姿信息是在车辆启动时的位姿信息,因此,可以将所获取的位姿信息确定为启动时位姿信息。
这里,无人驾驶车辆在世界坐标系中的位姿信息可以包括位置信息和姿态信息,其中位置信息可以包括三维坐标(例如,经纬度和高度),姿态信息可以包括俯仰角、偏航角和滚转角。
步骤402,将预设三维网格地图中与启动时位姿信息对应的地图分块确定为初始地图分块。
在本实施例中,上述电子设备的磁盘中可以存储有预设三维网格地图。这里,预设三维网格地图按照世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型。
在本实施例中,上述电子设备可以首先根据启动时位姿信息中的位置信息(即无人驾驶车辆启动时在世界坐标系中的坐标)、预设三维网格地图的左上角坐标以及预设三维网格地图的地图分块的边长确定无人驾驶车辆启动时在世界坐标系中的坐标在哪个地图分块中,即确定了预设三维网格地图中与启动时位姿信息对应的地图分块。然后,可以将预设三维网格地图中与启动时位姿信息对应的地图分块确定为初始地图分块。
步骤403,从磁盘中将预设三维网格地图中的、以初始地图分块为中心的N×N个地图分块加载至缓存中。
在本实施例中,上述电子设备可以从磁盘中将预设三维网格地图中的、以初始地图分块为中心的N×N个地图分块加载至缓存中。这里,由于已经确定了初始地图分块,而以初始地图分块为中心的N×N个地图分块可以根据初始地图分块而确定。作为示例,如果初始地图分块可以表示为(i,j),其中,i表示初始地图分块在预设三维网格地图中的第几行,j表示初始地图分块在预设三维网格地图中的第几列,则以初始地图分块为中心的3×3个地图分块分别可以表示如下:(i-1,j-1)、(i,j-1)、(i+1,j-1)、(i-1,j)、(i,j)、(i+1,j)、(i-1,j+1)、(i,j+1)、(i+1,j+1)。
步骤404,新建并执行第一预加载线程。
在本实施例中,上述电子设备可以新建并执行第一预加载线程。其中,第一预加载线程用于从磁盘中将预设三维网格地图中以初始地图分块为中心的(N+2)×(N+2)个地图分块中尚未加载至缓存中的(4N+4)个地图分块加载至缓存中。
请参考图5A,图5A示出了当N为3时,已经在步骤403中将以初始地图分块(如图5A中附图标记501所示)为中心的3×3个地图分块(如图5A中实线部分所示)加载至缓存中,在步骤404中新建并执行第一预加载线程,用于将已加载至缓存中的3×3个地图分块的外围16个地图分块(如图5A中虚线部分所示)加载至缓存中,由于是采用新建的线程执行的加载任务,并不影响当前线程中后续操作的执行。请参考图5B,图5B中示出了第一预加载线程执行结束后,已加载至缓存中的3×3个地图分块的外围16个地图分块也被加载至缓存中的示意图。
步骤405,响应于接收到激光雷达采集的最新一帧激光点云数据,获取无人驾驶车辆在世界坐标系中的当前位姿信息。
步骤406,根据当前位姿信息,从缓存中获取预先加载至缓存中的、预设三维网格地图中以与当前位姿信息对应的地图分块为中心的N×N个地图分块。
在本实施例中,步骤405和步骤406的具体操作与图2所示的实施例中步骤201和步骤202的操作基本相同,在此不再赘述。
步骤407,将无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息。
在本实施中,用于识别无人驾驶车辆的激光点云数据的方法运行于其上的电子设备(例如图1所示的驾驶控制设备)中可以存储有当前时间之前预设时间段(例如,1小时)内每一个采样周期(例如,1秒)的车辆位姿信息,这样,上述电子设备可以将无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息。这里,车辆位姿信息可以是基于世界坐标系的位姿信息。
步骤408,根据当前位姿信息与上一周期位姿信息的差异信息,确定无人驾驶车辆的行驶方向。
在本实施中,上述电子设备可以根据无人驾驶车辆的当前位姿信息和步骤407中所获取的上一周期位姿信息的差异信息,确定无人驾驶车辆的行驶方向。
步骤409,新建并执行第二预加载线程。
在本实施中,上述电子设备可以新建并执行第二预加载线程。其中,第二预加载线程用于从磁盘中将预设三维网格地图中沿步骤408中所确定的行驶方向与已加载至缓存中的、以与当前位姿信息对应的地图分块为中心的(N+2)×(N+2)个地图分块邻接的(N+2)个地图分块加载至缓存中。请参考图6A,图6A中示出了N为3的情况下,缓存中已经加载了以与当前位姿信息对应的地图分块(如图6A中附图标记601所示)为中心的5×5个地图分块(如图6A中实线部分所示),并确定了无人驾驶车辆的行驶方向为向右侧地图分块所指示的方向,从而可以新建并执行第二预加载线程,用于将预设三维网格地图中沿向右的方向与已加载至缓存中的、以与当前位姿信息对应的地图分块为中心的5×5个地图分块邻接的5个地图分块(如图6A中虚线部分所示)加载至缓存中。请参考图6B,图6B中示出了第二预加载线程执行结束后,预设三维网格地图中沿向右的方向与已加载至中缓存的、以与当前位姿信息对应的地图分块为中心的5×5个地图分块邻接的5个地图分块也被加载至缓存中的示意图。
步骤410,对于所接收的激光点云数据中的每个激光点数据,执行激光点数据识别操作。
在本实施例中,步骤410的具体操作与图2所示的实施例中步骤203的操作基本相同,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于识别无人驾驶车辆的激光点云数据的方法的流程400多出了在车辆启动时将预设三维网格地图中以与车辆的启动时位姿信息对应的地图分块为中心的N×N个地图分块加载至缓存的步骤、新建并执行第一预加载线程的步骤、确定无人驾驶车辆的行驶方向的步骤以及新建并执行第二预加载线程的步骤。由此,本实施例描述的方案可以预先将所需的地图分块加载至缓存中,从而可以加快激光点数据障碍物识别的处理速度,继而更大程度上提高无人驾驶车辆的安全性。
继续参考图7A,其示出了用于识别无人驾驶车辆的激光点云数据的方法的再一个实施例的流程700。该用于识别无人驾驶车辆的激光点云数据的方法的流程700,包括以下步骤:
步骤701,响应于检测到无人驾驶车辆的启动信号,获取无人驾驶车辆在世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息。
步骤702,将预设三维网格地图中与启动时位姿信息对应的地图分块确定为初始地图分块。
步骤703,从磁盘中将预设三维网格地图中的、以初始地图分块为中心的N×N个地图分块加载至缓存中。
步骤704,新建并执行第一预加载线程。
步骤705,响应于接收到激光雷达采集的最新一帧激光点云数据,获取无人驾驶车辆在世界坐标系中的当前位姿信息。
在本实施例中,步骤701到步骤705的具体操作与图4所示的实施例中步骤401到步骤405的操作基本相同,在此不再赘述。
步骤706,将当前位姿信息确定为待定车辆位姿信息的初始值。
步骤707,构建目标函数。
在本实施例中,用于识别无人驾驶车辆的激光点云数据的方法运行于其上的电子设备(例如图1所示的驾驶控制设备)可以按照以下步骤7071到步骤7074构建目标函数。请参考图7B,图7B是步骤707的一种实现方式的分解流程图。
步骤7071,以待定车辆位姿信息为自变量。
步骤7072,对于激光点云数据中的每个激光点数据,执行以下对齐距离确定操作。
请参考图7C,图7C示出了对齐距离确定操作的一种实现方式的分解流程图,包括步骤70721到步骤70723:
步骤70721,根据待定车辆位姿信息,计算该激光点数据在世界坐标系中的坐标。
这里,可以根据待定车辆位姿信息中的位置信息得到平移矩阵,根据待定车辆位姿信息中的姿态信息得到旋转矩阵。然后,可以根据上述旋转矩阵和平移矩阵将该激光点数据中的三维坐标进行转换,得到该激光点数据在世界坐标系中的坐标。需要说明的是,如何根据待定车辆位姿信息中的位置信息得到平移矩阵,如何根据待定车辆位姿信息中的姿态信息得到旋转矩阵以及如何根据上述旋转矩阵和平移矩阵将该激光点数据中的三维坐标进行转换,得到该激光点数据在世界坐标系中的坐标是目前广泛研究和应用的现有技术,在此不再赘述。
步骤70722,将缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在世界坐标系中的对齐坐标。
在本实施例的一些可选的实现方式中,步骤70722还可以如下进行:
首先,在缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中确定中心点坐标与该激光点数据在世界坐标系中的坐标的距离小于等于预设距离阈值的至少一个网格立方体。
然后,将所确定的至少一个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在世界坐标系中的对齐坐标。这样,可以缩小计算范围,减少计算量。
需要说明的是,在本实施例中,预设三维网格地图中的各个地图分块的各个地图网格的各个网格立方体还包括网格立方体在世界坐标系中的中心点坐标,即网格立方体的几何中心在世界坐标系中的坐标。
步骤70723,将该激光点数据在世界坐标系中的坐标与该激光点数据在世界坐标系中的对齐坐标之间的距离确定为该激光点数据的对齐距离。
步骤7073,计算激光点云数据中各个激光点数据的对齐距离之和。
步骤7074,将计算所得的对齐距离之和确定为目标函数的输出。
在本实施例的一些可选的实现方式中,步骤7072也可以如下进行:
首先,对于所接收的激光点云数据进行下采样,得到下采样后的激光点云数据。
然后,可以对于下采样后的激光点云数据中的每个激光点数据,执行上述对齐距离确定操作。
这样,步骤7073中可以是计算下采样后的激光点云数据中各个激光点数据的对齐距离之和。
由于所接收的激光点云数据中数据量大,而步骤7072中不需要很多数据量就可以实现计算对齐距离之和,采样上述实现方式,可以在减少计算量的同时不降低对齐效果,并节省了计算时间。
步骤708,利用最近邻迭代算法,确定使得目标函数的输出最小的待定位姿信息。
在本实施例中,上述电子设备可以采用最近邻迭代(ICP,Iterative ClosestPoint))算法,确定在使得上述目标函数的输出最小时所对应的待定位姿信息。
步骤709,用所确定的待定位姿信息更新当前位姿信息。
由于步骤701中所获取的车辆当前位姿信息可能存在误差,经过步骤706到步骤709的对齐操作,使用所接收的激光点云数据对车辆当前位姿信息进行更新,得到对齐后的当前位姿信息,可以使得后续使用对齐后的当前位姿信息进行计算时,更加精确。
步骤710,根据当前位姿信息,从缓存中获取预先加载至缓存中的、预设三维网格地图中以与当前位姿信息对应的地图分块为中心的N×N个地图分块。
步骤711,将无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息。
步骤712,根据当前位姿信息与上一周期位姿信息的差异信息,确定无人驾驶车辆的行驶方向。
步骤713,新建并执行第二预加载线程。
步骤714,对于所接收的激光点云数据中的每个激光点数据,执行激光点数据识别操作。
在本实施例中,步骤710-步骤714的具体操作与图4所示的实施例中步骤406-步骤410的操作基本相同,在此不再赘述。
从图7中可以看出,与图4对应的实施例相比,本实施例中的用于识别无人驾驶车辆的激光点云数据的方法的流程700多出了对无人驾驶车辆的当前位姿信息进行对齐的步骤。由此,本实施例描述的方案可以进一步提高激光点数据障碍物识别的准确率。
进一步参考图8,作为对上述各图所示方法的实现,本申请提供了一种用于识别无人驾驶车辆的激光点云数据的装置的一个实施例,上述无人驾驶车辆设置有激光雷达,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的用于识别无人驾驶车辆的激光点云数据的装置800包括:第一获取单元801、第二获取单元802和识别单元803。其中,第一获取单元801,配置用于响应于接收到上述激光雷达采集的最新一帧激光点云数据,获取上述无人驾驶车辆在世界坐标系中的当前位姿信息;第二获取单元802,配置用于根据上述当前位姿信息,从缓存中获取预先加载至上述缓存中的、预设三维网格地图中以与上述当前位姿信息对应的地图分块为中心的N×N个地图分块,其中,N为奇数,上述预设三维网格地图按照上述世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型;识别单元803,配置用于对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:根据上述当前位姿信息,确定该激光点数据在上述世界坐标系中的坐标;从所获取的N×N个地图分块中,获取与该激光点数据在上述世界坐标系中的坐标对应的网格立方体;响应于所获取的网格立方体的立方体类型为静态立方体,将该激光点数据确定为用于表征静态障碍物的静态激光点数据。
在本实施例中,用于识别无人驾驶车辆的激光点云数据的装置800的第一获取单元801、第二获取单元802和识别单元803的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202和步骤203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述激光点数据识别操作还可以包括:响应于所获取的网格立方体的立方体类型为动态立方体,将该激光点数据确定为用于表征动态障碍物的动态激光点数据。
在本实施例的一些可选的实现方式中,上述装置800还可以包括:第一确定单元(未示出),配置用于响应于检测到上述无人驾驶车辆的启动信号,获取上述无人驾驶车辆在上述世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息;第二确定单元(未示出),配置用于将上述预设三维网格地图中与上述启动时位姿信息对应的地图分块确定为初始地图分块;加载单元(未示出),配置用于从磁盘中将上述预设三维网格地图中的、以上述初始地图分块为中心的N×N个地图分块加载至上述缓存中;第一预加载单元(未示出),配置用于新建并执行第一预加载线程,其中,上述第一预加载线程用于从磁盘中将上述预设三维网格地图中以上述初始地图分块为中心的(N+2)×(N+2)个地图分块中尚未加载至上述缓存中的(4N+4)个地图分块加载至上述缓存中。
在本实施例的一些可选的实现方式中,上述装置800还可以包括:第三确定单元(未示出),配置用于将上述无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息;第四确定单元(未示出),配置用于根据上述当前位姿信息与上述上一周期位姿信息的差异信息,确定上述无人驾驶车辆的行驶方向;第二预加载单元(未示出),配置用于新建并执行第二预加载线程,其中,上述第二预加载线程用于从磁盘中将上述预设三维网格地图中沿所确定的行驶方向与已加载至上述缓存中的、以与上述当前位姿信息对应的地图分块为中心的(N+2)×(N+2)个地图分块邻接的(N+2)个地图分块加载至上述缓存中。
在本实施例的一些可选的实现方式中,网格立方体还可以包括网格立方体在上述世界坐标系中的中心点坐标;以及上述装置800还可以包括:第五确定单元(未示出),配置用于将上述当前位姿信息确定为待定车辆位姿信息的初始值;构建单元(未示出),配置用于按照以下方式构建目标函数:以待定车辆位姿信息为自变量;对于上述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作:根据上述待定车辆位姿信息,计算该激光点数据在上述世界坐标系中的坐标;将上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在上述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标;将该激光点数据在上述世界坐标系中的坐标与该激光点数据在上述世界坐标系中的对齐坐标之间的距离确定为该激光点数据的对齐距离;计算上述激光点云数据中各个激光点数据的对齐距离之和;将计算所得的对齐距离之和确定为上述目标函数的输出;第六确定单元(未示出),配置用于利用最近邻迭代算法,确定使得上述目标函数的输出最小的待定位姿信息;更新单元(未示出),配置用于用所确定的待定位姿信息更新上述当前位姿信息。
在本实施例的一些可选的实现方式中,上述对于上述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作,可以包括:对于上述激光点云数据进行下采样,得到下采样后的激光点云数据;对于上述下采样后的激光点云数据中的每个激光点数据,执行上述对齐距离确定操作;以及上述计算上述激光点云数据中各个激光点数据的对齐距离之和,可以包括:计算上述下采样后的激光点云数据中各个激光点数据的对齐距离之和。
在本实施例的一些可选的实现方式中,上述将上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在上述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标,可以包括:在上述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中确定中心点坐标与该激光点数据在世界坐标系中的坐标的距离小于等于预设距离阈值的至少一个网格立方体;将所确定的至少一个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在上述世界坐标系中的对齐坐标。
在本实施例的一些可选的实现方式中,上述预设三维网格地图是采用以下步骤得到的:获取地图采集车辆采集的激光点云数据帧序列,其中,上述激光点云数据帧序列中的每一帧激光点云数据标注有对应的车辆当前位姿信息;对于上述激光点云数据帧序列中的每一帧激光点云数据,根据所标注的该帧激光点云数据对应的车辆当前位姿信息,将该帧激光点云数据中的每个激光点数据转换成上述世界坐标系中的坐标,得到转换后的激光点云帧序列;拼接上述转换后的激光点云数据帧序列中的各帧激光点云数据,得到拼接后的激光点云数据,根据上述拼接后的激光点云数据生成三维地图,并呈现上述三维地图;响应于接收到用户在上述三维地图上的动态激光点标注操作,获取用户所标注的动态激光点,并将所获取的动态激光点从上述拼接后的激光点云数据中删除,得到静态激光点云数据;按照以下方式生成预设三维网格地图:在世界坐标系下将地球表面划分成R行C列个正方形的地图分块,将每个地图分块划分成M×M个正方形的地图网格,将每个地图网格划分成至少一个网格立方体,每个网格立方体的棱长与每个地图网格的边长相同,并将每个网格立方体的立方体类型设置为动态立方体;对于上述静态激光点云数据中的每个静态激光点数据,在上述预设三维网格地图中,将与该静态激光点数据在上述世界坐标系中的坐标对应的网格立方体的立方体类型设置为静态立方体。
需要说明的是,本实施例提供的用于识别无人驾驶车辆的激光点云数据的装置中各单元的实现细节和技术效果可以参考本申请中其它实施例的相关说明,在此不再赘述。
下面参考图9,其示出了适于用来实现本申请实施例的驾驶控制设备的计算机系统900的结构示意图。图9示出的驾驶控制设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统900包括中央处理单元(CPU,Central Processing Unit)901,其可以根据存储在只读存储器(ROM,Read Only Memory)902中的程序或者从存储部分906加载到随机访问存储器(RAM,Random Access Memory)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有系统900操作所需的各种程序和数据。CPU 901、ROM902以及RAM 903通过总线904彼此相连。输入/输出(I/O,Input/Output)接口905也连接至总线904。
以下部件连接至I/O接口905:包括硬盘等的存储部分906;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分907。通信部分907经由诸如因特网的网络执行通信处理。驱动器908也根据需要连接至I/O接口905。可拆卸介质909,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器908上,以便于从其上读出的计算机程序根据需要被安装入存储部分906。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分907从网络上被下载和安装,和/或从可拆卸介质909被安装。在该计算机程序被中央处理单元(CPU)901执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、第二获取单元和识别单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取车辆当前位姿信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:响应于接收到上述激光雷达采集的最新一帧激光点云数据,获取上述无人驾驶车辆在世界坐标系中的当前位姿信息;根据上述当前位姿信息,从缓存中获取预先加载至上述缓存中的、预设三维网格地图中以与上述当前位姿信息对应的地图分块为中心的N×N个地图分块,其中,N为奇数,上述预设三维网格地图按照上述世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型;对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:根据上述当前位姿信息,确定该激光点数据在上述世界坐标系中的坐标;从所获取的N×N个地图分块中,获取与该激光点数据在上述世界坐标系中的坐标对应的网格立方体;响应于所获取的网格立方体的立方体类型为静态立方体,将该激光点数据确定为用于表征静态障碍物的静态激光点数据。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种用于识别无人驾驶车辆的激光点云数据的方法,其特征在于,所述无人驾驶车辆设置有激光雷达,所述方法包括:
响应于接收到所述激光雷达采集的最新一帧激光点云数据,获取所述无人驾驶车辆在世界坐标系中的当前位姿信息;
根据所述当前位姿信息,从缓存中获取预先加载至所述缓存中的、预设三维网格地图中以与所述当前位姿信息对应的地图分块为中心的N×N个地图分块,其中,N为奇数,所述预设三维网格地图按照所述世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型;
对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:根据所述当前位姿信息,确定该激光点数据在所述世界坐标系中的坐标;从所获取的N×N个地图分块中,获取与该激光点数据在所述世界坐标系中的坐标对应的网格立方体;响应于所获取的网格立方体的立方体类型为静态立方体,将该激光点数据确定为用于表征静态障碍物的静态激光点数据。
2.根据权利要求1所述的方法,其特征在于,所述激光点数据识别操作还包括:响应于所获取的网格立方体的立方体类型为动态立方体,将该激光点数据确定为用于表征动态障碍物的动态激光点数据。
3.根据权利要求2所述的方法,其特征在于,所述响应于接收到所述激光雷达采集的最新一帧激光点云数据,获取所述无人驾驶车辆在世界坐标系中的当前位姿信息之前,所述方法还包括:
响应于检测到所述无人驾驶车辆的启动信号,获取所述无人驾驶车辆在所述世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息;
将所述预设三维网格地图中与所述启动时位姿信息对应的地图分块确定为初始地图分块;
从磁盘中将所述预设三维网格地图中的、以所述初始地图分块为中心的N×N个地图分块加载至所述缓存中;
新建并执行第一预加载线程,其中,所述第一预加载线程用于从磁盘中将所述预设三维网格地图中以所述初始地图分块为中心的(N+2)×(N+2)个地图分块中尚未加载至所述缓存中的(4N+4)个地图分块加载至所述缓存中。
4.根据权利要求3所述的方法,其特征在于,所述对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作之前,所述方法还包括:
将所述无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息;
根据所述当前位姿信息与所述上一周期位姿信息的差异信息,确定所述无人驾驶车辆的行驶方向;
新建并执行第二预加载线程,其中,所述第二预加载线程用于从磁盘中将所述预设三维网格地图中沿所确定的行驶方向与已加载至所述缓存中的、以与所述当前位姿信息对应的地图分块为中心的(N+2)×(N+2)个地图分块邻接的(N+2)个地图分块加载至所述缓存中。
5.根据权利要求4所述的方法,其特征在于,网格立方体还包括网格立方体在所述世界坐标系中的中心点坐标;以及
所述获取所述无人驾驶车辆在世界坐标系中的当前位姿信息之后,所述方法还包括:
将所述当前位姿信息确定为待定车辆位姿信息的初始值;
按照以下方式构建目标函数:以待定车辆位姿信息为自变量;对于所述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作:根据所述待定车辆位姿信息,计算该激光点数据在所述世界坐标系中的坐标;将所述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在所述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在所述世界坐标系中的对齐坐标;将该激光点数据在所述世界坐标系中的坐标与该激光点数据在所述世界坐标系中的对齐坐标之间的距离确定为该激光点数据的对齐距离;计算所述激光点云数据中各个激光点数据的对齐距离之和;将计算所得的对齐距离之和确定为所述目标函数的输出;
利用最近邻迭代算法,确定使得所述目标函数的输出最小的待定位姿信息;
用所确定的待定位姿信息更新所述当前位姿信息。
6.根据权利要求5所述的方法,其特征在于,所述对于所述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作,包括:
对于所述激光点云数据进行下采样,得到下采样后的激光点云数据;
对于所述下采样后的激光点云数据中的每个激光点数据,执行所述对齐距离确定操作;以及
所述计算所述激光点云数据中各个激光点数据的对齐距离之和,包括:
计算所述下采样后的激光点云数据中各个激光点数据的对齐距离之和。
7.根据权利要求6所述的方法,其特征在于,所述将所述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在所述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在所述世界坐标系中的对齐坐标,包括:
在所述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中确定中心点坐标与该激光点数据在世界坐标系中的坐标的距离小于等于预设距离阈值的至少一个网格立方体;
将所确定的至少一个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在所述世界坐标系中的对齐坐标。
8.根据权利要求1-7中任一所述的方法,其特征在于,所述预设三维网格地图是采用以下步骤得到的:
获取地图采集车辆采集的激光点云数据帧序列,其中,所述激光点云数据帧序列中的每一帧激光点云数据标注有对应的车辆当前位姿信息;
对于所述激光点云数据帧序列中的每一帧激光点云数据,根据所标注的该帧激光点云数据对应的车辆当前位姿信息,将该帧激光点云数据中的每个激光点数据转换成所述世界坐标系中的坐标,得到转换后的激光点云帧序列;
拼接所述转换后的激光点云数据帧序列中的各帧激光点云数据,得到拼接后的激光点云数据,根据所述拼接后的激光点云数据生成三维地图,并呈现所述三维地图;
响应于接收到用户在所述三维地图上的动态激光点标注操作,获取用户所标注的动态激光点,并将所获取的动态激光点从所述拼接后的激光点云数据中删除,得到静态激光点云数据;
按照以下方式生成预设三维网格地图:在世界坐标系下将地球表面划分成R行C列个正方形的地图分块,将每个地图分块划分成M×M个正方形的地图网格,将每个地图网格划分成至少一个网格立方体,每个网格立方体的棱长与每个地图网格的边长相同,并将每个网格立方体的立方体类型设置为动态立方体;
对于所述静态激光点云数据中的每个静态激光点数据,在所述预设三维网格地图中,将与该静态激光点数据在所述世界坐标系中的坐标对应的网格立方体的立方体类型设置为静态立方体。
9.一种用于识别无人驾驶车辆的激光点云数据的装置,其特征在于,所述无人驾驶车辆设置有激光雷达,所述装置包括:
第一获取单元,配置用于响应于接收到所述激光雷达采集的最新一帧激光点云数据,获取所述无人驾驶车辆在世界坐标系中的当前位姿信息;
第二获取单元,配置用于根据所述当前位姿信息,从缓存中获取预先加载至所述缓存中的、预设三维网格地图中以与所述当前位姿信息对应的地图分块为中心的N×N个地图分块,其中,N为奇数,所述预设三维网格地图按照所述世界坐标系将地球表面划分成R行C列个正方形地图分块,每个地图分块被划分成M×M个正方形地图网格,每个地图网格包括至少一个网格立方体,每个网格立方体包括用于指示网格立方体是用于表征静态障碍物的静态立方体或者用于表征动态障碍物的动态立方体的立方体类型;
识别单元,配置用于对于所接收的激光点云数据中的每个激光点数据,执行以下激光点数据识别操作:根据所述当前位姿信息,确定该激光点数据在所述世界坐标系中的坐标;从所获取的N×N个地图分块中,获取与该激光点数据在所述世界坐标系中的坐标对应的网格立方体;响应于所获取的网格立方体的立方体类型为静态立方体,将该激光点数据确定为用于表征静态障碍物的静态激光点数据。
10.根据权利要求9所述的装置,其特征在于,所述激光点数据识别操作还包括:响应于所获取的网格立方体的立方体类型为动态立方体,将该激光点数据确定为用于表征动态障碍物的动态激光点数据。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
第一确定单元,配置用于响应于检测到所述无人驾驶车辆的启动信号,获取所述无人驾驶车辆在所述世界坐标系中的位姿信息,并将所获取的位姿信息确定为启动时位姿信息;
第二确定单元,配置用于将所述预设三维网格地图中与所述启动时位姿信息对应的地图分块确定为初始地图分块;
加载单元,配置用于从磁盘中将所述预设三维网格地图中的、以所述初始地图分块为中心的N×N个地图分块加载至所述缓存中;
第一预加载单元,配置用于新建并执行第一预加载线程,其中,所述第一预加载线程用于从磁盘中将所述预设三维网格地图中以所述初始地图分块为中心的(N+2)×(N+2)个地图分块中尚未加载至所述缓存中的(4N+4)个地图分块加载至所述缓存中。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
第三确定单元,配置用于将所述无人驾驶车辆在当前时间的上一采样周期的车辆位姿信息确定为上一周期位姿信息;
第四确定单元,配置用于根据所述当前位姿信息与所述上一周期位姿信息的差异信息,确定所述无人驾驶车辆的行驶方向;
第二预加载单元,配置用于新建并执行第二预加载线程,其中,所述第二预加载线程用于从磁盘中将所述预设三维网格地图中沿所确定的行驶方向与已加载至所述缓存中的、以与所述当前位姿信息对应的地图分块为中心的(N+2)×(N+2)个地图分块邻接的(N+2)个地图分块加载至所述缓存中。
13.根据权利要求12所述的装置,其特征在于,网格立方体还包括网格立方体在所述世界坐标系中的中心点坐标;以及
所述装置还包括:
第五确定单元,配置用于将所述当前位姿信息确定为待定车辆位姿信息的初始值;
构建单元,配置用于按照以下方式构建目标函数:以待定车辆位姿信息为自变量;对于所述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作:根据所述待定车辆位姿信息,计算该激光点数据在所述世界坐标系中的坐标;将所述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在所述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在所述世界坐标系中的对齐坐标;将该激光点数据在所述世界坐标系中的坐标与该激光点数据在所述世界坐标系中的对齐坐标之间的距离确定为该激光点数据的对齐距离;计算所述激光点云数据中各个激光点数据的对齐距离之和;将计算所得的对齐距离之和确定为所述目标函数的输出;
第六确定单元,配置用于利用最近邻迭代算法,确定使得所述目标函数的输出最小的待定位姿信息;
更新单元,配置用于用所确定的待定位姿信息更新所述当前位姿信息。
14.根据权利要求13所述的装置,其特征在于,所述对于所述激光点云数据中的每个激光点数据,执行以下对齐距离确定操作,包括:
对于所述激光点云数据进行下采样,得到下采样后的激光点云数据;
对于所述下采样后的激光点云数据中的每个激光点数据,执行所述对齐距离确定操作;以及
所述计算所述激光点云数据中各个激光点数据的对齐距离之和,包括:
计算所述下采样后的激光点云数据中各个激光点数据的对齐距离之和。
15.根据权利要求14所述的装置,其特征在于,所述将所述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中中心点坐标与该激光点数据在所述世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在所述世界坐标系中的对齐坐标,包括:
在所述缓存中已加载的各个地图分块的各个地图网格的各个网格立方体中确定中心点坐标与该激光点数据在世界坐标系中的坐标的距离小于等于预设距离阈值的至少一个网格立方体;
将所确定的至少一个网格立方体中中心点坐标与该激光点数据在世界坐标系中的坐标距离最近的网格立方体的中心点坐标确定为该激光点数据在所述世界坐标系中的对齐坐标。
16.根据权利要求9-15中任一所述的装置,其特征在于,所述预设三维网格地图是采用以下步骤得到的:
获取地图采集车辆采集的激光点云数据帧序列,其中,所述激光点云数据帧序列中的每一帧激光点云数据标注有对应的车辆当前位姿信息;
对于所述激光点云数据帧序列中的每一帧激光点云数据,根据所标注的该帧激光点云数据对应的车辆当前位姿信息,将该帧激光点云数据中的每个激光点数据转换成所述世界坐标系中的坐标,得到转换后的激光点云帧序列;
拼接所述转换后的激光点云数据帧序列中的各帧激光点云数据,得到拼接后的激光点云数据,根据所述拼接后的激光点云数据生成三维地图,并呈现所述三维地图;
响应于接收到用户在所述三维地图上的动态激光点标注操作,获取用户所标注的动态激光点,并将所获取的动态激光点从所述拼接后的激光点云数据中删除,得到静态激光点云数据;
按照以下方式生成预设三维网格地图:在世界坐标系下将地球表面划分成R行C列个正方形的地图分块,将每个地图分块划分成M×M个正方形的地图网格,将每个地图网格划分成至少一个网格立方体,每个网格立方体的棱长与每个地图网格的边长相同,并将每个网格立方体的立方体类型设置为动态立方体;
对于所述静态激光点云数据中的每个静态激光点数据,在所述预设三维网格地图中,将与该静态激光点数据在所述世界坐标系中的坐标对应的网格立方体的立方体类型设置为静态立方体。
17.一种驾驶控制设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710539630.XA CN109214248B (zh) | 2017-07-04 | 2017-07-04 | 用于识别无人驾驶车辆的激光点云数据的方法和装置 |
US16/026,338 US11131999B2 (en) | 2017-07-04 | 2018-07-03 | Method and apparatus for identifying laser point cloud data of autonomous vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710539630.XA CN109214248B (zh) | 2017-07-04 | 2017-07-04 | 用于识别无人驾驶车辆的激光点云数据的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109214248A CN109214248A (zh) | 2019-01-15 |
CN109214248B true CN109214248B (zh) | 2022-04-29 |
Family
ID=64903834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710539630.XA Active CN109214248B (zh) | 2017-07-04 | 2017-07-04 | 用于识别无人驾驶车辆的激光点云数据的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11131999B2 (zh) |
CN (1) | CN109214248B (zh) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232532B2 (en) * | 2018-05-30 | 2022-01-25 | Sony Interactive Entertainment LLC | Multi-server cloud virtual reality (VR) streaming |
CN109064506B (zh) * | 2018-07-04 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | 高精度地图生成方法、装置及存储介质 |
CN109297510B (zh) * | 2018-09-27 | 2021-01-01 | 百度在线网络技术(北京)有限公司 | 相对位姿标定方法、装置、设备及介质 |
CN111209353B (zh) * | 2018-11-21 | 2024-06-14 | 驭势科技(北京)有限公司 | 一种视觉定位地图加载方法、装置、系统和存储介质 |
WO2020154964A1 (en) * | 2019-01-30 | 2020-08-06 | Baidu.Com Times Technology (Beijing) Co., Ltd. | A point clouds registration system for autonomous vehicles |
CN111771206B (zh) * | 2019-01-30 | 2024-05-14 | 百度时代网络技术(北京)有限公司 | 用于自动驾驶车辆的地图分区系统 |
JP7029479B2 (ja) * | 2019-01-30 | 2022-03-03 | バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド | 自動運転車のためのポイントクラウドゴースト効果検出システム |
TWI726278B (zh) * | 2019-01-30 | 2021-05-01 | 宏碁股份有限公司 | 行車偵測方法、車輛及行車處理裝置 |
CN109668742B (zh) * | 2019-02-20 | 2020-04-28 | 苏州风图智能科技有限公司 | 基于激光雷达的无人车辆的测试方法及装置 |
CN109870157B (zh) * | 2019-02-20 | 2021-11-02 | 苏州风图智能科技有限公司 | 确定车体位姿的方法及装置、制图方法 |
CN110070575A (zh) * | 2019-03-29 | 2019-07-30 | 东软睿驰汽车技术(沈阳)有限公司 | 一种打标签的方法及装置 |
CN112015938B (zh) * | 2019-05-28 | 2024-06-14 | 杭州海康威视数字技术股份有限公司 | 点云标签传递方法、装置及系统 |
CN110196044A (zh) * | 2019-05-28 | 2019-09-03 | 广东亿嘉和科技有限公司 | 一种基于gps闭环检测的变电站巡检机器人建图方法 |
CN110276834B (zh) * | 2019-06-25 | 2023-04-11 | 达闼科技(北京)有限公司 | 一种激光点云地图的构建方法、终端和可读存储介质 |
WO2020258218A1 (zh) * | 2019-06-28 | 2020-12-30 | 深圳市大疆创新科技有限公司 | 可移动平台的障碍物检测方法、装置及可移动平台 |
CN111684382B (zh) * | 2019-06-28 | 2024-06-11 | 深圳市卓驭科技有限公司 | 可移动平台状态估计方法、系统、可移动平台及存储介质 |
CN112805534B (zh) * | 2019-08-27 | 2024-05-17 | 北京航迹科技有限公司 | 定位目标对象的系统和方法 |
CN110645998B (zh) * | 2019-09-10 | 2023-03-24 | 上海交通大学 | 一种基于激光点云的无动态物体地图分段建立方法 |
CN112630799B (zh) * | 2019-09-24 | 2022-11-29 | 阿波罗智能技术(北京)有限公司 | 用于输出信息的方法和装置 |
WO2021062587A1 (en) * | 2019-09-30 | 2021-04-08 | Beijing Voyager Technology Co., Ltd. | Systems and methods for automatic labeling of objects in 3d point clouds |
CN111223107A (zh) * | 2019-12-31 | 2020-06-02 | 武汉中海庭数据技术有限公司 | 基于点云深度学习的点云数据集制作系统及方法 |
CN111209504B (zh) * | 2020-01-06 | 2023-09-22 | 北京百度网讯科技有限公司 | 用于访问地图数据的方法和装置 |
CN111260789B (zh) * | 2020-01-07 | 2024-01-16 | 青岛小鸟看看科技有限公司 | 避障方法、虚拟现实头戴设备以及存储介质 |
CN111325136B (zh) * | 2020-02-17 | 2024-03-19 | 北京小马慧行科技有限公司 | 智能车辆中物体对象的标注方法及装置、无人驾驶车辆 |
CN113377748B (zh) * | 2020-03-09 | 2023-12-05 | 北京京东乾石科技有限公司 | 激光雷达点云数据的静态点去除方法和装置 |
CN111401264A (zh) * | 2020-03-19 | 2020-07-10 | 上海眼控科技股份有限公司 | 车辆目标检测方法、装置、计算机设备和存储介质 |
CN111239706B (zh) * | 2020-03-30 | 2021-10-01 | 许昌泛网信通科技有限公司 | 一种激光雷达数据处理方法 |
CN111461980B (zh) * | 2020-03-30 | 2023-08-29 | 北京百度网讯科技有限公司 | 点云拼接算法的性能估计方法和装置 |
CN111462072B (zh) * | 2020-03-30 | 2023-08-29 | 北京百度网讯科技有限公司 | 点云图质量检测方法、装置以及电子设备 |
CN111458722B (zh) * | 2020-04-16 | 2022-04-01 | 杭州师范大学钱江学院 | 一种激光雷达小车在具有坡度环境下的地图构建方法 |
CN111428692A (zh) * | 2020-04-23 | 2020-07-17 | 北京小马慧行科技有限公司 | 运载工具的行驶轨迹的确定方法、确定装置与存储介质 |
CN111638499B (zh) * | 2020-05-08 | 2024-04-09 | 上海交通大学 | 基于激光雷达反射强度点特征的相机-激光雷达相对外参标定方法 |
CN111721281B (zh) * | 2020-05-27 | 2022-07-15 | 阿波罗智联(北京)科技有限公司 | 位置识别方法、装置和电子设备 |
CN111551947A (zh) * | 2020-05-28 | 2020-08-18 | 东软睿驰汽车技术(沈阳)有限公司 | 激光点云定位方法、装置、设备及系统 |
CN113870343B (zh) * | 2020-06-30 | 2024-05-28 | 长沙智能驾驶研究院有限公司 | 相对位姿标定方法、装置、计算机设备和存储介质 |
CN113970758A (zh) * | 2020-07-22 | 2022-01-25 | 上海商汤临港智能科技有限公司 | 点云数据处理的方法、及装置 |
CN114093155A (zh) * | 2020-08-05 | 2022-02-25 | 北京万集科技股份有限公司 | 交通事故责任溯源方法、装置、计算机设备和存储介质 |
CN111983582A (zh) * | 2020-08-14 | 2020-11-24 | 北京埃福瑞科技有限公司 | 列车的定位方法及系统 |
CN112162297B (zh) * | 2020-09-24 | 2022-07-19 | 燕山大学 | 一种剔除激光点云地图中动态障碍伪迹的方法 |
CN113761090B (zh) * | 2020-11-17 | 2024-04-05 | 北京京东乾石科技有限公司 | 一种基于点云地图的定位方法和装置 |
CN114556449A (zh) * | 2020-12-17 | 2022-05-27 | 深圳市大疆创新科技有限公司 | 障碍物检测及重识别方法、装置、可移动平台及存储介质 |
CN116097305A (zh) * | 2020-12-23 | 2023-05-09 | 深圳元戎启行科技有限公司 | 点云法向量的生成方法、装置、计算机设备和存储介质 |
CN113781569B (zh) * | 2021-01-04 | 2024-04-05 | 北京京东乾石科技有限公司 | 一种回环检测方法和装置 |
CN112923938B (zh) * | 2021-02-18 | 2023-10-03 | 中国第一汽车股份有限公司 | 一种地图优化方法、装置、存储介质及系统 |
CN112947454A (zh) * | 2021-02-25 | 2021-06-11 | 浙江理工大学 | 一种仓库的消防评估方法、装置、设备和存储介质 |
CN112733971B (zh) * | 2021-04-02 | 2021-11-16 | 北京三快在线科技有限公司 | 扫描设备的位姿确定方法、装置、设备及存储介质 |
CN115308769A (zh) * | 2021-05-04 | 2022-11-08 | 南通智行未来车联网创新中心有限公司 | 一种自动驾驶时基于激光点云识别障碍物的方法 |
CN113375664B (zh) * | 2021-06-09 | 2023-09-01 | 成都信息工程大学 | 基于点云地图动态加载的自主移动装置定位方法 |
CN113503883B (zh) * | 2021-06-22 | 2022-07-19 | 北京三快在线科技有限公司 | 采集用于构建地图的数据的方法、存储介质及电子设备 |
CN116027341B (zh) * | 2021-10-25 | 2024-05-03 | 珠海一微半导体股份有限公司 | 基于激光观测方向的栅格和体素定位方法、机器人及芯片 |
CN114216470B (zh) * | 2021-11-30 | 2024-08-02 | 广州景骐科技有限公司 | 一种语义地图加载方法、装置、交通工具及存储介质 |
CN114463507B (zh) * | 2022-04-11 | 2022-06-14 | 国家电投集团科学技术研究院有限公司 | 道路识别方法及装置 |
TWI827056B (zh) * | 2022-05-17 | 2023-12-21 | 中光電智能機器人股份有限公司 | 自動移動載具及其控制方法 |
CN114842150B (zh) * | 2022-05-20 | 2024-06-28 | 北京理工大学 | 一种融合图案信息的数字化车辆点云模型构建方法及系统 |
CN115080678A (zh) * | 2022-06-29 | 2022-09-20 | 杭州海康威视数字技术股份有限公司 | 定位地图建立方法、装置及电子设备 |
CN115993089B (zh) * | 2022-11-10 | 2023-08-15 | 山东大学 | 基于pl-icp的在线四舵轮agv内外参标定方法 |
CN116088503B (zh) * | 2022-12-16 | 2024-06-25 | 深圳市普渡科技有限公司 | 动态障碍物检测方法和机器人 |
CN115639842B (zh) * | 2022-12-23 | 2023-04-07 | 北京中飞艾维航空科技有限公司 | 一种利用无人机的巡检方法及其系统 |
CN115965756B (zh) * | 2023-03-13 | 2023-06-06 | 安徽蔚来智驾科技有限公司 | 地图构建方法、设备、驾驶设备和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102779280A (zh) * | 2012-06-19 | 2012-11-14 | 武汉大学 | 一种基于激光传感器的交通信息提取方法 |
CN106133756A (zh) * | 2014-03-27 | 2016-11-16 | 赫尔实验室有限公司 | 用于过滤、分割并且识别无约束环境中的对象的系统 |
US9523772B2 (en) * | 2013-06-14 | 2016-12-20 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286538B1 (en) | 2014-05-01 | 2016-03-15 | Hrl Laboratories, Llc | Adaptive 3D to 2D projection for different height slices and extraction of robust morphological features for 3D object recognition |
WO2017021473A1 (en) * | 2015-08-03 | 2017-02-09 | Tomtom Global Content B.V. | Methods and systems for generating and using localisation reference data |
US10444759B2 (en) * | 2017-06-14 | 2019-10-15 | Zoox, Inc. | Voxel based ground plane estimation and object segmentation |
-
2017
- 2017-07-04 CN CN201710539630.XA patent/CN109214248B/zh active Active
-
2018
- 2018-07-03 US US16/026,338 patent/US11131999B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102779280A (zh) * | 2012-06-19 | 2012-11-14 | 武汉大学 | 一种基于激光传感器的交通信息提取方法 |
US9523772B2 (en) * | 2013-06-14 | 2016-12-20 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
CN106133756A (zh) * | 2014-03-27 | 2016-11-16 | 赫尔实验室有限公司 | 用于过滤、分割并且识别无约束环境中的对象的系统 |
Also Published As
Publication number | Publication date |
---|---|
US20190011566A1 (en) | 2019-01-10 |
CN109214248A (zh) | 2019-01-15 |
US11131999B2 (en) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214248B (zh) | 用于识别无人驾驶车辆的激光点云数据的方法和装置 | |
US11320836B2 (en) | Algorithm and infrastructure for robust and efficient vehicle localization | |
KR102273559B1 (ko) | 전자 지도를 업데이트하기 위한 방법, 장치 및 컴퓨터 판독 가능한 저장 매체 | |
EP3361278B1 (en) | Autonomous vehicle localization based on walsh kernel projection technique | |
CN111461981B (zh) | 点云拼接算法的误差估计方法和装置 | |
US9576200B2 (en) | Background map format for autonomous driving | |
CN111656135A (zh) | 基于高清地图的定位优化 | |
CN110386142A (zh) | 用于自动驾驶车辆的俯仰角校准方法 | |
CN110377025A (zh) | 用于自动驾驶车辆的传感器聚合框架 | |
CN108734780B (zh) | 用于生成地图的方法、装置和设备 | |
US10860868B2 (en) | Lane post-processing in an autonomous driving vehicle | |
CN111680747B (zh) | 用于占据栅格子图的闭环检测的方法和装置 | |
US12118666B2 (en) | Method, device and system for cooperatively constructing point cloud map | |
CN110110029B (zh) | 用于匹配车道的方法和装置 | |
CN111339876B (zh) | 用于识别场景中各区域类型的方法和装置 | |
CN111353453B (zh) | 用于车辆的障碍物检测方法和装置 | |
CN111402387A (zh) | 从用于导航自主车辆的高清晰度地图的点云中移除短时点 | |
CN114187357A (zh) | 一种高精地图的生产方法、装置、电子设备及存储介质 | |
CN113158779B (zh) | 一种行走方法、装置和计算机存储介质 | |
CN117470258A (zh) | 一种地图构建方法、装置、设备及介质 | |
EP3696507B1 (en) | Representing an environment by cylindrical and planar structures | |
CN111461982B (zh) | 用于拼接点云的方法和装置 | |
US20230024799A1 (en) | Method, system and computer program product for the automated locating of a vehicle | |
US20240140437A1 (en) | Object based vehicle localization | |
CN117392216A (zh) | 点云地图的确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211011 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co., Ltd Address before: 100085 third floor, baidu building, No. 10, Shangdi 10th Street, Haidian District, Beijing Applicant before: Baidu Online Network Technology (Beijing) Co., Ltd |
|
GR01 | Patent grant | ||
GR01 | Patent grant |