WO2022088104A1 - 一种确定目标对象点云集的方法及装置 - Google Patents

一种确定目标对象点云集的方法及装置 Download PDF

Info

Publication number
WO2022088104A1
WO2022088104A1 PCT/CN2020/125536 CN2020125536W WO2022088104A1 WO 2022088104 A1 WO2022088104 A1 WO 2022088104A1 CN 2020125536 W CN2020125536 W CN 2020125536W WO 2022088104 A1 WO2022088104 A1 WO 2022088104A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinate system
point cloud
target object
sets
point
Prior art date
Application number
PCT/CN2020/125536
Other languages
English (en)
French (fr)
Inventor
高海涛
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to PCT/CN2020/125536 priority Critical patent/WO2022088104A1/zh
Priority to CN202080047348.XA priority patent/CN114051628B/zh
Publication of WO2022088104A1 publication Critical patent/WO2022088104A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • a sensor or fusion device where the sensor can be a detection sensor such as a laser sensor, for example, a lidar.
  • the sensor or fusion device may include the device described in the second or third aspect above.
  • a computer-readable storage medium in which a computer program or instruction is stored, and when the computer program or instruction is executed by the device, the device is made to perform the above-mentioned first aspect or the first aspect. any method.
  • FIG. 4 is a flowchart of a method for determining a target object point cloud set provided by an embodiment of the present application
  • FIG. 8 is a schematic diagram of an application scenario provided by an embodiment of the present application.
  • FIG. 9 is a schematic diagram of removing a point cloud of a target object provided by an embodiment of the present application.
  • the embodiments of the present application mainly involve four coordinate systems, which are the first coordinate system corresponding to the above detection sensor, also called laser coordinates, and the second coordinate system corresponding to the visual sensor, also called camera coordinate system , and the third coordinate system corresponding to the following image pixels, also called the pixel coordinate system, and the fourth coordinate system corresponding to the car, also called the vehicle body coordinate system.
  • the above-mentioned 3D point set is composed of a plurality of coordinates of the second coordinate system.
  • the coordinates in the above-mentioned 3D point set can be converted from the second coordinates to the first coordinate system.
  • a series of coordinate points can be obtained in the first coordinate system, and curve fitting can be performed on the above-mentioned multiple points to obtain a fitted curve.
  • a series of coordinate points in the first coordinate system converted from the 3D point set can be represented by “circles”, and through curve fitting, the above-mentioned multiple coordinates can be converted into a sine curve.
  • the obtaining at least one 3D point set in the second coordinate system according to the contour of the target object includes: according to the internal parameters of the second coordinate system, converting the pixels of the contour of the target object in the image data The coordinates are converted to a set of 3D points in the second coordinate system.
  • the obtaining multiple candidate point cloud sets according to the at least one 3D conical space includes: for each 3D conical space, performing the following operations: determining a point cloud included in the 3D conical space to The first distance of the origin of the first coordinate system; according to the distance coefficient corresponding to the first distance, the point cloud sets in the 3D conical space are clustered to obtain the plurality of candidate point cloud sets.
  • the processor 1102 in the device 1100 is configured to read the computer program stored in the memory 1101 to perform the following operations:

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种确定目标对象点云集的方法及装置,应用于自动驾驶或智能驾驶等领域,可确定目标对象对应的点云集。该方法包括:获取来自视觉传感器的图像数据和来自探测感器的点云数据;在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间;根据所述至少一个3D锥形空间,得到多个候选点云集;在所述多个候选点云集中,确定目标对象的点云集。该方案进一步可用于提升自动驾驶或高级驾驶辅助系统ADAS能力,可应用于车联网,例如车辆外联V2X、车间通信长期演进技术LTE-V、车辆-车辆V2V等。

Description

一种确定目标对象点云集的方法及装置 技术领域
本申请涉及自动驾驶领域,尤其涉及一种确定目标对象点云集的方法及装置。
背景技术
随着城市的发展,交通越来越拥堵,人们驾车越来越趋于疲劳。为了满足人们的出行要求,自动驾驶应用而生。自动驾驶的关键在于能够高精度地识别周围的道路环境,从而自动驾驶安全可靠。目前的自动驾驶车辆中安装有激光传感器,实时获取周围的激光数据,结合高精度地图,以供车辆做出正确的行驶决策。
其中,在制作高精度地图的过程中,采集的激光点云中有些物体是临时物体,这些物体会随着时间变化,影响定位精度,这些临时物体不适合作为地图的一部分,需要在制图过程中把这些物体去除掉。临时物体,包括:移动物体(如行人、行驶的汽车)和可移动物体(如静止的自行车和汽车等)。如何在激光点云中,确定目标对象的点云集是本申请实施例待解决的技术问题。
发明内容
本申请提供一种确定目标对象点云集的方法及装置,以确定目标对象对应的点云集。
第一方面,提供一种确定目标对象点云集的方法,该方法包括:获取来自视觉传感器的图像数据和来自探测传感器的点云数据;根据所述图像数据中包括的目标对象,确定探测传感器所对应的第一坐标系中的至少一个3D锥形空间;根据所述至少一个3D锥形空间,得到多个候选点云集;在所述多个候选点云集中,确定目标对象的点云集。可选的,上述3D锥形空间可以为目标对象在第一坐标系中的投射,该3D锥形空间在第一坐标系中可包括多个点云数据;目标对象的点云集中可包括多个点云数据。
通过实施上述方法,利用来自视觉传感器的图像数据完成与探测传感器的点云数据的融合,确定目标对象的点云集,无需获取目标对象的深度信息,降低对视觉传感器的要求。
可选的,在得到上述目标对象的点云集之后,可利用上述目标对象的点云集对目标对象进行识别,或者制作高精度地图,或定位等,不作限定。进一步,若用于制作高精度地图,或定位等,还可包括:在探测传感器所采集的其周围所有物体的点云数据中,去除目标对象的点云集,得到第二点云数据等。
在一种可能的实现方式中,上述根据图像数据所包括的目标对象,确定探测传感器所对应的第一坐标系中的至少一个3D锥形空间,包括:在所述图像数据中识别目标对象和目标对象的轮廓;例如,可利用AI识别算法,在上述图像数据中识别目标对象;在目标对象中识别目标对象的轮廓;根据目标对象的轮廓,确定探测传感器所对应的第一坐标系中的3D锥形空间。
通过上述方法,能够实现根据目标对象的轮廓,在第一坐标系中投射3D锥形空间,在3D锥形空间中所包括的点云数据中,确定目标对象的点云集,可提高对目标对象点云集的识别准确性。
在一种可能的实现方式中,上述根据目标对象的轮廓,得到3D锥形空间的过程,包 括:获取目标对象的轮廓所包括的像素,将上述像素在像素坐标系中的坐标,转换为视觉传感器所对应的第二坐标系(相机坐标系)中的坐标,上述目标对象的轮廓对应的其在第二坐标系中的坐标可称为一个3D点集;将所述3D点集由第二坐标系转换到第一坐标系;在第一坐标系中,将上述目标对象的轮廓对应的坐标进行曲线拟合,得到一条拟合的曲线;从所述第一坐标的原点,向所述拟合的曲线投射射线,得到一个3D锥形空间。
通过上述方法,可实现由目标对象的轮廓向第一坐标系中的3D锥形空间的转换,得到目标对象在第一坐标系中对应的空间范围。该空间范围内所包括的点云数据,包括目标对象所对应的点云集。
在一种可能的实现方式中,上述将3D点集由第二坐标系转换到第一坐标系,包括:根据所述第二坐标系到车体坐标系的第一转换关系和所述第一坐标系到所述车体坐标系的第二转换关系,将所述3D点集由所述第二坐标系转换到所述第一坐标系。
当然,在本申请实施例中,也可以直接建立第二坐标系与第一坐标系的转换关系,无需再经过车体坐标系的转换,简化第二坐标系与第一坐标系间的转化过程。
可选的,上述将目标对象的轮廓由像素坐标系中的坐标,转换为第二坐标系中的坐标,包括:可根据第二坐标系的内参,将目标对象的轮廓在像素坐标系中的坐标转换为第二坐标系中的坐标。
可选的,上述方法还包括:根据一个3D点集,得到对应于多个放大倍数的多个3D点集,每个3D点集可对应于不同的放大倍数。每个3D点集对应于一个3D锥形空间。
在一种可能的实现方式中,上述根据3D锥形空间,确定目标对象的点云集,包括:对3D锥形空间所包括的点云进行聚类,得到多个候选点云集;在上述多个候选点云集中,确定满足目标对象的条件的点云集。
需要说明的是,上述满足目标对象的条件的点云集有多种理解,一种理解为:所述目标对象的条件为点云集在多个候选点云集中的可信度最高。例如,可计算上述聚类得到的多个候选点云集中,每个候选点云集的可信度;在上述多个候选点云集中,选择可信度最高的点云集作为目标对象的点云集;或者,另一种理解为:所述目标对象的条件为点云集在多个候选点云集的可信度大于或等于第一阈值,所述第一阈值可以为预配置,预定义,或出厂设置等,不作限定。
可选的,上述对3D锥形空间所包括的点云进行聚类,得到多个候选点云集的过程,可包括:确定每个3D锥形空间内所包括的点云到第一坐标系原点的第一距离,该第一距离可以为3D锥形空间内所包括的所有点云到第一坐标系原点的平均距离;根据距离与系数的对应关系,确定第一距离对应的系数;根据第一距离对应的系数,聚类3D锥形空间内所包括的点云,得到多个候选点云集,每个候选点云集中包括至少一个点云。
通过实施上述方法,无需获取目标对象的深度信息,即可获取目标对象对应的点云集,减少了方案的复杂度。同时借助于AI算法,识别目标对象和目标对象的轮廓,可以提高识别目标对象点云集方案的准确性。
第二方面,提供一种装置,该装置用于实现上述第一方面或第一方面中任意一种方法,包括相应的功能模块或单元,分别用于实现上述方法中的步骤。功能可以通过硬件实现,也可以通过硬件执行相应的软件实现,硬件或软件包括一个或多个与上述功能相应的模块或单元。
第三方面,提供一种装置,该装置包括至少一个处理器和至少一个存储器。其中,所 述至少一个存储器用于存储计算程序或指令,所述至少一个处理器与所述至少一个存储器耦合;当处理器执行计算机程序或指令时,使得该装置执行上述第一方面或第一方面中的任意一种方法。
第四方面,提供一种传感器或者融合装置,该传感器可以为激光传感器等探测传感器,例如,激光雷达。该传感器或者融合装置可包括上述第二方面或第三方面所述的装置。
第五方面,提供一种终端,该终端可包括上述第二方面或第三方面所述的装置,或者第四方面提供的传感器或者融合装置。可选的,该终端可以为智能运输设备(车辆或者无人机)、智能家居设备、智能制造设备或者机器人等。该智能运输设备例如可以是自动导引运输车(automated guided vehicle,AGV)、或无人运输车。
第六方面,装置一种系统,该系统包括上述第二方面或第三方面的装置、探测传感器和视觉传感器;
第七方面,提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序或指令,当计算机程序或指令被装置执行时,使得该装置执行上述第一方面或第一方面中的任意一种方法。
第八方面,提供本申请提供一种计算机程序产品,该计算机程序产品包括计算机程序或指令,当计算机程序或指令被装置执行时,使得该装置执行上述第一方面或第一方面中的任意一种方法。
附图说明
图1、图2和图3为本申请实施例提供的当前去除目标对象点云集的方案;
图4为本申请实施例提供的确定目标对象点云集的方法流程图;
图5为本申请实施例提供的像素坐标系到相机坐标系转换的示意图;
图6为本申请实施例提供的拟合曲线的示意图;
图7为本申请实施例提供的3D点集和投射3D锥形的示意图;
图8为本申请实施例提供的应用场景的示意图;
图9为本申请实施例提供的去除目标对象点云的示意图;
图10和图11为本申请实施例提供的装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整性描述。
汽车自动驾驶对导航和定位要求很高,高精度地图与激光雷达点云匹配的定位方法是高精度导航和定位的一种重要方法。其中,在制作高精度地图的过程中,采集的激光点云中有些物体是临时物体,这些物体会随着时间变化,影响定位精度。这些临时物体不适合作为地图的一部分,需要在制图的过程中把这些物体去除掉。目前,在激光点云中去除目标对象点云集的方案主要包括以下几种:
第一种方案,如图1所示,可使用编辑工具手动清除目标对象的点云集。存在人力成本高,容易误操作等问题。且在定位过程中,需要实时处理点云数据,无法手动去除,影响定位精度。
第二种方案,如图2所示,可使用人工智能(artificial intelligence,AI)或聚类算法,直接从激光点云中识别目标对象,并从点云中去除的方法。由于激光点云中的点是三维的,三维的点是非结构化数据,具有稀疏性、无序性、非均匀分布、数量变化大等特点,用来做深度学习的难度很大。同时激光点云具有发散性,远处的物体点很稀疏,识别难度很大或无法识别。
第三种方案,如图3所示,激光和视觉联合的方法,使用AI算法识别目标对象,使用多目摄像头或深度摄像头识别目标对象的深度信息,基于目标对象的深度信息,计算出物体的三维(three-dimensional,3D)位置,然后在激光点云中找到上述3D位置的点云,并去除。从图像中识别目标对象的3D位置依赖多目摄像头或深度摄像头,成本高,技术难度大。
基于上述,本申请实施例提供一种方法,在该方法中无需依赖多目摄像头或深度摄像头采集的目标对象的深度信息,直接利用目标对象的图像数据和激光点云的融合,即可在激光点云中识别出目标对象对应的点云集,降低整个方案的硬件要求。
如图4所示,提供一种确定目标对象点云集的方法流程,至少包括:
步骤401:获取来自视觉传感器的图像数据和来自探测传感器的点云数据。
其中,视觉传感器可以为单目摄像头、多目摄像头或深度摄像头等。可选的,由于单目摄像头相对于多目摄像头或深度摄像头的价格较低,因此在本申请实施例的方案中若使用单目摄像头,可以降低整个方案的成本。探测传感器可以为激光传感器等。
步骤402:在探测传感器对应的第一坐标系中得到目标对象对应的至少一个3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为探测传感器所对应的坐标系。在一种场景中,上述探测传感器可以安装于自动驾驶汽车上,所述探测传感器可以对周围物体进行扫描,采集周围物体的点云数据。在一种理解中,所述点云数据是指在一个三维坐标系统中的一组向量集合。这些向量通常以X、Y、Z三维坐标的形式表示,而且一般主要用于代表一个物体的外表面形状。
在本申请实施例中,首先获取视觉传感器所采集的外部图像数据;且在外部图像数据中识别目标对象和目标对象的轮廓;之后,根据目标对象的轮廓,在上述探测传感器所对应的第一坐标系中,确定上述目标对象的轮廓所对应的3D锥形空间。在一种理解中,上述3D锥形空间可认为是目标对象的轮廓在第一坐标系中的投射。在某种程度上,该3D锥形空间在第一坐标系中所包括的点云集,即为目标对象的点云集。只不过,在实际应用中,场景复杂,存在各种影响因素,3D锥形空间所包括的点云集中,可能除包括目标对象所对应的点云集外,可能还包括其它物体的点云集。比如,在一种场景中,受各种条件限制,对目标对象轮廓的识别可能并不是完全精准。比如,识别的目标对象的轮廓可能会大于目标对象的实际轮廓。如此,在本申请实施例中,利用上述识别的大于目标对象实际轮廓的轮廓去投射得到的3D锥形空间中,除包括目标对象的点云集外,可能还会包括其它物体对应的点云集。或者,在另一种场景中,目标对象的附近可能存在其它物体,那么探测传感器所采集的目标对象的图像数据中会包括其它物体,进一步若上述其它物体与目标物体在空间上有重叠,那么该目标物体的轮廓所对应的3D锥形空间中也会包括其它物体的点云集。比如,目标对象为自行车,自行车与树的空间存在重叠,那么利用自行车的轮廓所投射的3D点集中,除了包括自行车的点云集外,可能还会包括树的点云集。因此,后续需要下述步骤403和步骤404的进一步处理,在上述3D锥形空间所包括的点云集中,聚 类出多个候选点云集,在上述多个候选点云集中,选择一个点云集作为目标对象的点云集等。关于步骤403和步骤404的具体处理过程,可参见下述记载。
当然,应当指出,在本申请实施例中,直接将3D锥形空间所包括的点云,作为目标对象的点云集的方案,即仅利用步骤401和步骤402确定目标对象点云集的方案,也在本申请实施例的保护范围内。
在一种可能的实现方式中,可以利用AI算法在视觉传感器所采集的外部图像数据中,识别目标对象和/或目标对象的轮廓。比如,可预先获取大量的图像数据,对AI模型进行训练,得到一个神经网络,经过训练,该神经网络可以在图像数据中,识别出目标对象和/或目标对象的轮廓。在本申请实施例中,可以将视频传感器所采集的外部图像数据,输入到上述训练好的神经网络中,该神经网络的输出即为目标对象对应的数据。其中,上述AI模型可以为循环神经网络(recurrent neural network,RNN)、卷积神经网络(convolutional neural networks,CNN)等。可选的,上述AI模型可以随着时间的推移持续更新。关于在上述目标对象中识别目标对象轮廓的方式,与上述方式相似,不再赘述。本领域技术人员可知,该步骤不限于使用AI算法识别所述目标对象和所述目标对象的轮廓,还可以采用其他图形算法,具体可以参见现有技术。
在以下实施例中,将具体介绍根据目标对象轮廓,获得至少一个3D锥形空间的过程:
1)根据所述目标对象的轮廓,得到视觉传感器所对应的第二坐标系中的至少一个3D点集。
首先,应该指出,本申请实施例主要涉及四个坐标系,分别为上述探测传感器对应的第一坐标系,又称为激光坐标,该视觉传感器对应的第二坐标系,又称为相机坐标系,以及下述图像像素对应的第三坐标系,又称为像素坐标系,汽车对应的第四坐标系,又称为车体坐标系。
其中,在上述第一坐标系中,采用极坐标系统,在平面内由极点、极轴和极径组成的坐标系。在平面上取一点O,可定义为极点,从O出发引一条射线Ox,称为极轴。再取定一个长度单位,通常规定角度取逆时针方向为正。这样,平面上任一点P的位置可以用线段OP的长度ρ以及从Ox到OP的角度θ来确定,有序数对(ρ,θ)就称为P点的极坐标,记为P(ρ,θ);ρ称为P点的极径,θ称为P点的极角。在上述第二坐标系中,原点为视觉传感器的光心,X轴与Y轴与图像的x,y轴平行,Z轴为视觉传感器光轴,Z辆与图像平面垂直。在上述第三坐标系中,可以以图像左上角为原点建立以像素为单位的坐标系,像素的横坐标和纵坐标分别为其图像像素所在的列数与行数。在上述第四标系中,其原点与车辆的质心重合,当车辆在水平路面上静止时,X轴平行于地面方向指向车辆前方,X轴通过质心指向上方,Y辆指向驾驶员的左侧。
应当指出,上述目标对象的轮廓可以由多个像素组成,每个像素对应一像素坐标。可以将该目标对象的轮廓所包括的多个像素坐标,转换为上述第二坐标系中的3D点集。在一种理解中,上述3D点集中包括多个第二坐标系中的坐标,每个坐标对应于上述像素坐标系中的一个像素坐标。比如,在像素坐标系中,上述目标对象的轮廓中包括N个像素坐标,可将上述N个像素坐标转换为第二坐标系中的N个坐标,该N个坐标可称为一个3D点集。在一种可能方案中,将像素坐标系中的一个像素坐标转换为第二坐标系中的一个坐标的过程,满足以下公式:
Figure PCTCN2020125536-appb-000001
其中,xy代表像素坐标系即第三坐标系中的坐标,XYZ代表第二坐标系即视觉传感器中的坐标,s,f x,f y,c x,c y等为相机内参,且f x,f y分别为视觉传感器在X方向和Y方向的焦距,c x和c y为视觉传感器的中心,s为比例因子。
在一种示例中,如图5所示,P为目标对象,利用视觉传感器采集目标对象P的图像,得到包括目标对象P的图像数据,可在上述图像数据中识别目标对象P以及目标对象P的轮廓;将目标对象P的轮廓所包括的像素坐标转换为视觉传感器对应的第二坐标系中的坐标,该目标对象P的轮廓所对应的第二坐标系中的坐标对应一3D点集。
2)将所述3D点集由第二坐标系转换到第一坐标系。
在一种示例中,可标定视觉传感器外参,可获得第二坐标系到第四坐标系的转换关系(T1);标定探测传感器外参,可获得第一坐标系到第四坐标系的转换关系(T2);第二坐标系到第一坐标系的转换关系,满足以下条件:
第一坐标系坐标=T2 -1*T1*(第二坐标系坐标);
通过以上记载,上述3D点集由多个第二坐标系的坐标组成。在本申请实施例中,可将上述3D点集中的每个坐标,按照上述公式关系,转换为第一坐标系中的坐标。或者,在本申请实施例中,也可直接建立第一坐标系与第二坐标系间的转换关系,不再经过第四坐标系的转换,不作限定。
3)在第一坐标系中,针对3D点集对应的坐标进行曲线拟合并从探测传感器的原点投射射线,得到3D锥形空间。
其中,通过上述记载可知,上述3D点集由多个第二坐标系的坐标组成,经过上述步骤2)的转换,可将上述3D点集中的坐标由第二坐标转换为第一坐标系。通过上述操作,可以在第一坐标系中,得到一系列的坐标点,可对上述多个点进行曲线拟合,得到一条拟合的曲线。在一示例中,如图6所示,由3D点集转换得到的第一坐标系中的一系列坐标点可以由“圆圈”表示,经过曲线拟合,可将上述多个坐标转换为一条正弦曲线。如图7所示,假设上述拟合的曲线位于上述由顶点(a,b,c,d)组成的截面上,从第一坐标系原点F向上述拟合的曲线进行投射,可得到如图7所示的3D锥形空间。当然上述描述,是以3D点集对应的第一坐标系中的点位于同一个平面或截面为例进行描述的,实质上并不限定3D点集所对应的第一坐标系中的点是否位于同一个平面或截面中。
步骤403:根据所述至少一个3D锥形空间,得到多个候选点云集。
可以理解的是,在本申请实施例中,可以得到一个3D锥形空间,也可以得到多个3D锥形空间。如此操作的主要是因为:同一个物体,与探测传感器的距离不同,探测传感器所扫描的获得点的数量不同。比如,该物体距离探测传感器的距离越近,探测传感器扫描获得的点越稠密,即越多,该物体距离探测传感器的距离越远,探测传感器所扫描的获得的点越稀疏,即越少。在某种程度上,可以认为目标对象与探测传感器的距离不同,可能投射到探测传感器坐标系中的3D锥形空间可能不同。
应当指出,通过上述记载可知,上述3D锥形空间是由3D点集对应的第一坐标系中的点通过曲线拟合和投射而得到的,一个3D点集对应一个3D锥形空间。而在本申请实施例中,若需要得到多个3D锥形空间,需要首先得到多个3D点集。在本申请实施例中,由上 述步骤402中记载的方式可以得到一个3D点集。可选的,在本申请实施例中,由一个3D点集,得到多个3D点集的过程可包括:可将得到的一个3D点集,按照射线方向等倍距放大,按照不同的放大倍数,可以得到多个3D点集,所述多个3D点集中的每个3D点集对应不同的放大倍数中的放大倍数。如图7所示,E是第二坐标系的原点,根据上述步骤402中的记载的方法,得到一个3D点集,为了便于区分,可将该3D点集称为第一3D点集。其中,上述第一3D点集中的所有点位于截面1(a,b,c,d)中,可按照射线方向,以放大倍数m,对上述截面1(a,b,c,d)进行放大,得到截面2(a’,b’,c’d’),上述截面2中可包括第二3D点集,上述第二3D点集与上述第一3D点集中的坐标间可满足上述放大倍数m的关系。
在本申请实施例中,可以根据多个3D锥形空间,得到候选点云集。其中,对一个3D锥形空间进行处理,得到候选点云集的过程,可包括:在探测传感器所对应的第一坐标系中,确定3D锥形空间所包括的点云;对3D锥形空间所包括的点云进行聚类,得到多个候选点云集。在一种理解中,聚类可以理解为按照阈值把距离相近的点分成一组,每个候选点云集可能为不同类别的点云集。比如,通过聚类得到3类候选点云集,第一类候选点云集可能为自行车对应的点云集,第二类候选点云集为行人对应的点云集,第三类候选点云集为树的候选点云集。
在本申请的一示例中,上述步骤403中对3D锥形空间所包括的点云进行聚类,得到多个候选点云集的过程,可包括:确定3D锥形空间中所包括的点云到第一坐标系原点的第一距离,该第一距离可以是3D锥形空间中包括的所有点云到第一坐标系原点的平均距离。根据对应于第一距离的距离系数,聚类所述3D锥形空间中的点云集,得到多个候选点云集。应当指出,上述对应于第一距离的距离系数,还可称为第一距离对应的距离系数,第一距离对应的系数等。为了便于描述,以下以第一距离对应的系数为例进行说明。在一种可能的实现方案中,在确定3D锥形空间中所包括的点云到激光坐标系原点的平均距离,即上述第一距离之后,可根据距离与系数的对应关系,确定上述第一距离对应的系数;根据第一距离对应的系数,聚类3D锥形空间中所有的点云,每类作为目标对象的候选点云集。在一种理解中,上述距离与系数的对应关系可以为:在不同距离下探测传感器的横向相邻点和纵向相邻点的距离。因此上述第一距离对应的系数实质上应该为两个值,分别为探测传感器的横向相邻点的距离(又称为密度)和纵向相邻点的距离(又称为密度)。在一种理解中,由于探测传感器周期性发送每帧的激光信号,用于扫描其周围的物体。比如每帧激光信号包括32线信号,32线信号纵向排列,每线信号横向排列,且每线信号由多个点组成。上述横线相邻点的距离,是指每线信号中相邻点的距离。纵向相邻点的距离是指,任两个相邻横线信号的对应点的距离。举例来说,32线信号的编号为0至31,每线信号包括100个点,所述横线相邻点是指0至100个点中任两个相邻点的距离,纵向相邻点是指32个线信号中,比如0号线信号与1号线信号中,任两个相邻点的距离,比如,0号线信号中的第99点与1号线信号中的第99点的距离。
应当指出,若聚类后产生的候选点云集大于预设阈值,该阈值可以为预定义的、预配置的或出厂时设置的等,不作限定。可在候选点云集中,选择部分点云集,进行后续步骤404中的可信度计算,挑选目标对象对应的点云集的过程。比如,在一种实现方式中,在通过上述聚类的方式获得多个候选点云集后,若某一个或多个候选点云集中包括的点云数量较少,比如,小于第二阈值,当然该第二阈值同样可以为预配置的,预定义的或出厂时 设置的,通常可以认为该类数量比较少的候选点云集是离散的点,为噪声,可以预先去除,不再进一步参与后续步骤404中的,挑选目标对象对应的点云集的过程。
步骤404:在所述多个候选点云集中,确定目标对象的点云集。
可选的,所述目标对象的点云集,可以为多个候选点云集中,符合目标对象的条件的点云集。所述目标对象的条件可以为点云集在多个候选点云集中的可信度最高,可参见下述第一种方案的记载,或者点云集在多个候选点云集的可信度大于或等于第一阈值,可参见下述第二种方案的记载。
在第一种方案中,可获取多个候选点云集中每个候选点云集的可信度;确定可信度最高的候选点云集作为目标对象的点云集。
在一种方案中,可以采用以下方式,获取每个候选点云集的可信度:在第一坐标系中,计算候选点云集中所有的点到第一坐标系中原点的距离,该距离可以上述所有点的平均距离;获取历史数据,所述历史数据为目标对象在不同距离下,对应的点云数量。比如,如表1所示,通过大量的统计,可以得到以下历史数据:目标对象在与探测传感器的距离为A时,探测传感器所采集到的点云数量应该为X1,在距离B时,探测传感器所采集到的点云数量应该为X2,在距离C时,探测传感器所采集到的点云数量应该为X3。
表1
Figure PCTCN2020125536-appb-000002
在本申请实施例中,可根据每个候选云集中的点云与原点的距离,在历史数据中,获取与该距离最匹配的一个距离。比如,上述A、B、C的取值分别为50米、100米和150米。针对某个候选点云集中的点云与原点的距离为52,那么可以认为上述A距离50米为与该距离最匹配的一个距离。之后,根据该候选点云集中实际所包括的点云数量与历史数据中其应该包括的点云数量,计算该候选点云集的可信度。比如,仍沿用上述距离,上述与原点距离52的候选点云集中包括95个点云,这95个点云为实际扫描到的点云。而历史数据中,目标对象与探测传感器的距离为50米时,其实际应该采集的点云数据为100,那么该候选点云集的可信度可以为1-(100-90)/100=90%。
或者,在第二种方案中,当确定多个候选点云集的可信度之后,可从中选择可信度大于或等于第一阈值的候选点云集,作为目标对象的点云集,该第一阈值可以是预配置的,预定义的,或者出厂时设置的等,不作限定。在一种可能的实现方式中,当大于或者等于第一阈值的候选点云集的数量为多个时,可将该多个候选点云集均作为目标对象的点云集;或者,可以在上述多个候选点云集中,选择一个或者等多个候选点云集作为目标对象的点云集。关于从上述多个候选点云集中,选择一个或多个候选点云集的方案不作限定,可以根据具体实现场景确定选择的规则,例如随机选择或者预定义筛选规则。
通过上述可以看出,在本申请实施例中,无需获取目标对象的深度信息,即可获取目标对象对应的点云集,减少了方案的复杂度。同时借助于AI算法,识别目标对象和目标对象的轮廓,可以提高识别目标对象点云集方案的准确性。
在本申请实施例中,在通过上述步骤401至步骤404,获取目标对象的点云集之后。本申请实施例并不限于,对所述目标对象的点云集的应用。例如,可以利用目标对象的点 云集对目标对象进行识别。或者,可以在探测传感器所采集的点云数据中,去除所述目标对象的点云等,以得到更精准的地图或定位信息等。
在一种示例中,以探测传感器为激光传感器为例,如图8所示,详细介绍本申请实施例的应用:
1)数据采集车上安装有激光传感器,该激光传感器可以扫描其周围物体,得到其周围物体对应的点云集;由于其数据采集车中有些物体是临时物体,不适合作为地图的一部分,影响定位精度。其中,临时物体,可包括:移动物体(如行人、行驶的汽车)和可移动物体(如静止的自行车和汽车等)。因此,在本申请实施例中,若数据采集车上安装的视觉传感器发现其周围有临时物体时,可采集包括上述临时物体的图像,且可利用上述图4所示实施例中的方法,利用包括临时物体的图像,识别出临时物体对应的点云集。且在激光传感器所采集的其周围所有物体的点云集中,去除临时物体的点云集。且利用当前的地图制作算法,确定每个临时物体的点云集对应的真实世界的坐标,比如,全球定位系统(global positioning system,GPS)坐标或北斗坐标等,完成高精度地图的制作。
2)自动驾驶的汽车上安装有激光传感器,同样该激光传感器可以扫描其周围物体,得到其周围物体对应的点云集;之后,利用该自动驾驶汽车上安装的视觉传感器,若发现其周围有临时物体,则采集包括临时物体的图象;同理,利用上述图4所示实施例中的方法,利用临时物体的图像,识别出临时物体对应的点云集;且在激光传感器所采集的其周围物体的点云集中,去除临时物体的点云集;最后利用定位算法,将去除临时物体的点云集与上述得到的高精度地图进行匹配,得到该自动驾驶汽车的位置信息。
通过上述方法,可实时自动去除激光点云中的临时物体,在制作高精度地图时提升地图制作效率和精度,减少硬件、人力和时间成本;可在实时定位时提升点云与地图的匹配度,提升定位精度。除此之外,由于在制作地图和定位的过程中,去除了临时物体,也可以提高对目标对象的位置的识别精度等。
如图9所示,以探测传感器为激光传感器,视觉传感器为单目摄像头为例,提供一种去除目标对象点云集的方案,至少包括:
1、在激光坐标系中,计算目标对象所在的3D空间范围
1)获取单目摄像头采集的图像数据。
2)通过AI算法识别出目标对象。可选的,目标对象的数量可能有多个。针对每个目标对象,可分别确定其对应的点云集;然后,在探测传感器所采集的周围物体的所有点云数据中,分别去除每个物体所对应的点云集。关于如何识别每个目标对象对应的点云集可参见下述。在以下描述中,是以识别和去除单个目标对象的点云集为例进行说明的。
3)通过AI算法识别出目标对象的轮廓,得到其轮廓在像素坐标系中的坐标。
4)将像素坐标系上目标对象的轮廓转换成相机坐标系上的3D点集。
例如,将像素坐标系上的轮廓点(位置)转换成相机坐标系上的一个3D点(位置)集。对3D轮廓点集按照射线方向(原点是相机坐标系原点)在等倍距位置生成新的3D点集,按不同的倍数,可以得到多个对应的3D点集。
5)将3D点集由相机坐标系转换到激光坐标系。
6)在激光坐标系中,计算出原点到轮廓点射线形成的3D空间范围。
比如,针对每个3D轮廓点集进行曲线拟合,得到多条3D轮廓曲线。针对每条3D轮廓曲线,从激光原点向曲线投射射线,形成锥形3D空间,每个锥形3D空间就是目标对象的一个3D空间范围。
2、生成目标对象的多个候选点云集
1)根据几何换算,得到3D空间范围内的点云。
2)对每个3D空间范围内的点进行聚类,得到多个候选点云集。
3、选择目标对象最佳的候选点云集并去除
1)根据目标对象类别,点云数量和距离,计算每个候选点集的可信度;
2)针对每个目标对象,选取所有候选点云集中可信度最高的且超过阈值的候选点云集作为目标对象的点云集。
3)从激光传感器所采集的其周围物体的所有点云中,去除目标对象对应的点云,得到不包含目标对象的激光点云。该不包括目标对象的激光点云,可以用于定位、制作高精度地图或者用于识别目标对象等,不作限定。
应当指出,上述图9所示实施例与上述图4所示的实施例可相互参见,上述图9所示实施例中未详尽描述的内容,可参见上述图4所示实施例中的记载。通过上述方法,采用单目摄像头,只需使用AI算法识别目标对象和目标对象轮廓,无需借助多目摄像头或深度摄像头获取目标对象的精确3D位置,即可实现激光点云中的目标对象识别。
以上结合图1至图9详细说明了本申请实施例的方法。以下结合图10和图11详细说明本申请实施例提供的装置。应理解,装置实施例的描述与方法实施例的描述相互对应。因此,未详细描述的内容可以相互参见上文方法实施例中的描述。
图10是本申请实施例提供的装置1000的示意性框图,用于实现上述确定目标对象点云集的功能。例如,该装置可以为软件模块或芯片系统。所述芯片可以由芯片构成,也可包括芯片和其他分立器件。该装置1000包括获取单元1001和处理单元1002,获取单元1001可以与其它设备进行通信,还可称为通信接口、收发单元或者输入\输出接口等。可选的,装置1000可以是车载终端、或者配置于车载终端的芯片或电路。或者,装置1000可以是车载中央处理器,或者配置于车载中央处理器中的芯片或电路等。或者,装置1000可以是智能座舱域控制器(cockpit domain controller,CDC),或者配置于CDC中的芯片或电路等。或者,装置1000可以为探测传感器,或者配置于探测传感器中的芯片或电路等。可选的,探测传感器可以为激光传感器等。
在一种可能的实现方案中,获取单元1001,用于执行上文方法实施例中的收发相关操作,处理单元1002,用于执行上文方法实施例中的处理相关操作。
例如,获取单元1001,用于获取来自视觉传感器的图像数据和来自探测传感器的点云数据;处理单元1002,用于在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为所述探测传感器对应的坐标系,根据所述至少一个3D锥形空间,得到多个候选点云集,以及在所述多个候选点云集中,确定所述目标对象的点云集。
在一种可能的设计中,所述目标对象的点云集用于标识所述目标对象。
在另一种可能的设计中,处理单元1002,还用于获取第二点云数据,所述第二点云数据为所述来自所述探测传感器的点云数据中去除所述目标对象的点云集得到的。
可选的,所述在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,包括: 在所述图像数据中识别所述目标对象和所述目标对象的轮廓;根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,所述第二坐标系为所述视觉传感器对应的坐标系;
针对每个第二坐标系中的3D点集,执行以下操作:将所述3D点集由所述第二坐标系转换到所述第一坐标系;在所述第一坐标系中,针对每个3D点集进行曲线拟合并从所述第一坐标系的原点投射射线,得到所述3D锥形空间。
示例的,所述根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,包括:根据所述第二坐标系的内参,将所述图像数据中目标对象的轮廓的像素坐标转换为所述第二坐标系中的一3D点集。
可选的,处理单元1002,还用于:根据所述3D点集,得到对应于多个放大倍数的多个3D点集。
示例的,所述将所述3D点集由所述第二坐标系转换到所述第一坐标系,包括:根据所述第二坐标系到车体坐标系的第一转换关系和所述第一坐标系到所述车体坐标系的第二转换关系,将所述3D点集由所述第二坐标系转换到所述第一坐标系。
示例的,所述根据所述至少一个3D锥形空间,得到多个候选点云集,包括:针对每个3D锥形空间,执行以下操作:确定所述3D锥形空间中所包括的点云到第一坐标系原点的第一距离;根据对应于所述第一距离的距离系数,聚类所述3D锥形空间中的点云集,得到所述多个候选点云集。
可选的,所述目标对象的候选点云集为所述多个候选点云集中,满足所述目标对象的条件的点云集;和/或所述目标对象的点云集可信度大于或等于第一阈值。
本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。另外,在本申请实施例中各功能单元可以集成在一个处理器中,也可以是单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
请参见图11,图11为本申请实施例提供的装置1100的结构示意图,该装置1100可以为探测传感器或车辆,或者为探测传感器或车辆中的一部件,例如芯片或集成电路等。该装置1100可以包括至少一个处理器1102和通信接口1104。进一步可选的,所述装置还可以包括至少一个存储器1101。更进一步可选的,还可以包含总线1103,其中,存储器1101、处理器1102和通信接口1104通过总线1103相连。
其中,存储器1101用于提供存储空间,存储空间中可以存储操作系统和计算机程序等数据。存储器1101可以是随机存储记忆体(random access memory,RAM)、只读存储器(read-only memory,ROM)、可擦除可编程只读存储器(erasable programmable read only memory,EPROM)、或便携式只读存储器(compact disc read-only memory,CD-ROM)等等中的一种或者多种的组合。
处理器1102是进行算术运算和/或逻辑运算的模块,具体可以是中央处理器(central processing unit,CPU)、图片处理器(graphics processing unit,GPU)、微处理器(microprocessor unit,MPU)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程逻辑门阵列(field programmable gate array,FPGA)、复杂可编程逻辑器件(complex programmable logic device,CPLD)、协处理器(协助中央处理器完成相应处理和应用)、微控制单元(microcontroller unit,MCU)等处理模块中的一种或者多种的组合。
通信接口1104可以用于为所述至少一个处理器提供信息输入或者输出。和/或所述通 信接口可以用于接收外部发送的数据和/或向外部发送数据,可以为包括诸如以太网电缆等的有线链路接口,也可以是无线链路(Wi-Fi、蓝牙、通用无线传输、车载短距通信技术等)接口。可选的,通信接口1104还可以包括与接口耦合的发射器(如射频发射器、天线等),或者接收器等。
该装置1100中的处理器1102用于读取所述存储器1101中存储的计算机程序,用于执行前述的确定目标对象点云集的方法,例如图4所示实施例所描述的确定目标对象点云集的方法。
例如,该装置1100中的处理器1102用于读取所述存储器1101中存储的计算机程序,用于执行以下操作:
获取来自视觉传感器的图像数据和来自探测传感器的点云数据,在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为所述探测传感器对应的坐标系,根据所述至少一个3D锥形空间,得到多个候选点云集,以及在所述多个候选点云集中,确定所述目标对象的点云集。
在一种可能的设计中,所述目标对象的点云集用于标识所述目标对象。
在另一种可能的设计中,处理器1102还用于执行以下操作:获取第二点云数据,所述第二点云数据为所述来自所述探测传感器的点云数据中去除所述目标对象的点云集得到的。
可选的,所述在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,包括:在所述图像数据中识别所述目标对象和所述目标对象的轮廓;根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,所述第二坐标系为所述视觉传感器对应的坐标系;
针对每个第二坐标系中的3D点集,执行以下操作:将所述3D点集由所述第二坐标系转换到所述第一坐标系;在所述第一坐标系中,针对每个3D点集进行曲线拟合并从所述第一坐标系的原点投射射线,得到所述3D锥形空间。
示例的,所述根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,包括:根据所述第二坐标系的内参,将所述图像数据中目标对象的轮廓的像素坐标转换为所述第二坐标系中的一3D点集。
可选的,处理器1102还用于执行以下操作:根据所述3D点集,得到对应于多个放大倍数的多个3D点集。
示例的,所述将所述3D点集由所述第二坐标系转换到所述第一坐标系,包括:根据所述第二坐标系到车体坐标系的第一转换关系和所述第一坐标系到所述车体坐标系的第二转换关系,将所述3D点集由所述第二坐标系转换到所述第一坐标系。
示例的,所述根据所述至少一个3D锥形空间,得到多个候选点云集,包括:针对每个3D锥形空间,执行以下操作:确定所述3D锥形空间中所包括的点云到第一坐标系原点的第一距离;根据对应于所述第一距离的距离系数,聚类所述3D锥形空间中的点云集,得到所述多个候选点云集。
可选的,所述目标对象的候选点云集为所述多个候选点云集中,满足所述目标对象的条件的点云集。和/或,所述目标对象的点云集可信度大于或等于第一阈值。
本申请实施例还提供一种传感器或者融合装置,所述传感器可以为激光传感器或其它传感器,例如激光雷达等。一种设计中,该传感器或者融合装置包括至少一个控制器,所述控制器可包括上述图10或图11所述的装置。另一种设计中,该传感器或者融合装置包 括上述图10或图11所示的装置,所述装置可以是独立设置的,也可以集成在传感器或者融合装置所包括的至少一个控制器等。
本申请实施例还提供一种终端,该终端可包括上述图10或图11所述的装置,或者上述实施例提供的传感器或融合装置。可选的,该终端可以为智能运输设备(车辆或者无人机)、智能家居设备、智能制造设备或者机器人等。该智能运输设备例如可以是自动导引运输车(automated guided vehicle,AGV)、或无人运输车。
本申请实施例还提供一种系统,包括上述图10或图11所示的装置,探测传感器和视觉传感器。
进一步的,本申请实施例还提供一种装置,包括用于实现上文方法实施例的单元。或者,包括处理器和接口电路,所述处理器用于通过所述接口电路与其它装置通信,并执行上文方法实施例中的方法。或者,所述装置包括处理器,用于调用存储器中存储的程序,以执行上文方法实施例中的方法。
本申请实施例还提供一种可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行上文方法实施例中的方法。
本申请实施例还提供一种芯片系统,该芯片系统包括处理器,还可以包括存储器,用于实现上文方法实施例中的方法。该芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。
本申请实施例还提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得计算机执行上文方法实施例的方法。
在本申请实施例中,处理器可以是通用处理器、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
在本申请实施例中,存储器可以是非易失性存储器,比如硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)等,还可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM)。存储器是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
本申请实施例提供的方法中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、网络设备、用户设备或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,简称DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机可以存取的任何可用介质或者是包含一个或多个 可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,数字视频光盘(digital video disc,简称DVD))、或者半导体介质(例如,SSD)等。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (20)

  1. 一种确定目标对象点云集的方法,其特征在于,包括:
    获取来自视觉传感器的图像数据和来自探测传感器的点云数据;
    在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为所述探测传感器对应的坐标系;
    根据所述至少一个3D锥形空间,得到多个候选点云集;
    在所述多个候选点云集中,确定所述目标对象的点云集,所述目标对象的点云集用于标识所述目标对象。
  2. 一种确定目标对象点云集的方法,其特征在于,包括:
    获取来自视觉传感器的图像数据和来自探测传感器的点云数据;
    在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为所述探测传感器对应的坐标系;
    根据所述至少一个3D锥形空间,得到多个候选点云集;
    在所述多个候选点云集中,确定所述目标对象的点云集;
    获取第二点云数据,所述第二点云数据为所述来自所述探测传感器的点云数据中去除所述目标对象的点云集得到的。
  3. 如权利要求1或2所述的方法,其特征在于,所述在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,包括:
    在所述图像数据中识别所述目标对象和所述目标对象的轮廓;
    根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,所述第二坐标系为所述视觉传感器对应的坐标系;
    针对每个第二坐标系中的3D点集,执行以下操作:
    将所述3D点集由所述第二坐标系转换到所述第一坐标系;
    在所述第一坐标系中,针对每个3D点集进行曲线拟合并从所述第一坐标系的原点投射射线,得到所述3D锥形空间。
  4. 如权利要求3所述的方法,其特征在于,所述根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,包括:
    根据所述第二坐标系的内参,将所述图像数据中目标对象的轮廓的像素坐标转换为所述第二坐标系中的一3D点集。
  5. 如权利要求3或4所述的方法,其特征在于,还包括:
    根据所述3D点集,得到对应于多个放大倍数的多个3D点集。
  6. 如权利要求3至5中任一项所述的方法,其特征在于,所述将所述3D点集由所述第二坐标系转换到所述第一坐标系,包括:
    根据所述第二坐标系到车体坐标系的第一转换关系和所述第一坐标系到所述车体坐标系的第二转换关系,将所述3D点集由所述第二坐标系转换到所述第一坐标系。
  7. 如权利要求1至6中任一项所述的方法,其特征在于,所述根据所述至少一个3D锥形空间,得到多个候选点云集,包括:
    针对每个3D锥形空间,执行以下操作:
    确定所述3D锥形空间中所包括的点云到第一坐标系原点的第一距离;
    根据对应于所述第一距离的距离系数,聚类所述3D锥形空间中的点云集,得到所述多个候选点云集。
  8. 如权利要求7所述的方法,其特征在于,所述目标对象的候选点云集为所述多个候选点云集中,满足所述目标对象的条件的点云集。
  9. 如权利要求1至8中任一项所述的方法,其特征在于,所述目标对象的点云集可信度大于或等于第一阈值。
  10. 一种装置,其特征在于,包括:
    获取单元,用于获取来自视觉传感器的图像数据和来自探测传感器的点云数据;
    处理单元,用于在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为所述探测传感器对应的坐标系,根据所述至少一个3D锥形空间,得到多个候选点云集,以及在所述多个候选点云集中,确定所述目标对象的点云集,所述目标对象的点云集用于标识所述目标对象。
  11. 一种装置,其特征在于,包括:
    获取单元,用于获取来自视觉传感器的图像数据和来自探测传感器的点云数据;
    处理单元,用于在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,所述目标对象位于所述图像数据所指示的图像中,所述第一坐标系为所述探测传感器对应的坐标系,根据所述至少一个3D锥形空间,得到多个候选点云集,在所述多个候选点云集中,确定所述目标对象的点云集,以及获取第二点云数据,所述第二点云数据为所述来自所述探测传感器的点云数据中去除所述目标对象的点云集得到的。
  12. 如权利要求10或11所述的装置,其特征在于,所述在第一坐标系中得到目标对象对应的至少一个三维3D锥形空间,包括:
    在所述图像数据中识别所述目标对象和所述目标对象的轮廓;
    根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,所述第二坐标系为所述视觉传感器对应的坐标系;
    针对每个第二坐标系中的3D点集,执行以下操作:
    将所述3D点集由所述第二坐标系转换到所述第一坐标系;
    在所述第一坐标系中,针对每个3D点集进行曲线拟合并从所述第一坐标系的原点投射射线,得到所述3D锥形空间。
  13. 如权利要求12所述的装置,其特征在于,所述根据所述目标对象的轮廓,得到第二坐标系中的至少一个3D点集,包括:
    根据所述第二坐标系的内参,将所述图像数据中目标对象的轮廓的像素坐标转换为所述第二坐标系中的一3D点集。
  14. 如权利要求12或13所述的装置,其特征在于,所述处理单元还用于:
    根据所述3D点集,得到对应于多个放大倍数的多个3D点集。
  15. 如权利要求12至14中任一项所述的装置,其特征在于,所述将所述3D点集由所述第二坐标系转换到所述第一坐标系,包括:
    根据所述第二坐标系到车体坐标系的第一转换关系和所述第一坐标系到所述车体坐标系的第二转换关系,将所述3D点集由所述第二坐标系转换到所述第一坐标系。
  16. 如权利要求10至15中任一项所述的装置,其特征在于,所述根据所述至少一个3D锥形空间,得到多个候选点云集,包括:
    针对每个3D锥形空间,执行以下操作:
    确定所述3D锥形空间中所包括的点云到第一坐标系原点的第一距离;
    根据对应于所述第一距离的距离系数,聚类所述3D锥形空间中的点云集,得到所述多个候选点云集。
  17. 如权利要求16所述的装置,其特征在于,所述目标对象的候选点云集为所述多个候选点云集中,满足所述目标对象的条件的点云集。
  18. 如权利要求10至17中任一项所述的装置,其特征在于,所述目标对象的点云集可信度大于或等于第一阈值。
  19. 一种装置,其特征在于,包括至少一个处理器和至少一个存储器,所述至少一个存储器中存储有指令,所述至少一个处理器执行所述指令时,使得所述装置执行如权利要求1至9中任一项所述的方法。
  20. 一种计算机可读存储介质,其特征在于,包括指令,当其在计算机上运行时,使得计算机执行权利要求1至9中任一项所述的方法。
PCT/CN2020/125536 2020-10-30 2020-10-30 一种确定目标对象点云集的方法及装置 WO2022088104A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2020/125536 WO2022088104A1 (zh) 2020-10-30 2020-10-30 一种确定目标对象点云集的方法及装置
CN202080047348.XA CN114051628B (zh) 2020-10-30 2020-10-30 一种确定目标对象点云集的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/125536 WO2022088104A1 (zh) 2020-10-30 2020-10-30 一种确定目标对象点云集的方法及装置

Publications (1)

Publication Number Publication Date
WO2022088104A1 true WO2022088104A1 (zh) 2022-05-05

Family

ID=80205795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/125536 WO2022088104A1 (zh) 2020-10-30 2020-10-30 一种确定目标对象点云集的方法及装置

Country Status (2)

Country Link
CN (1) CN114051628B (zh)
WO (1) WO2022088104A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115061106A (zh) * 2022-08-16 2022-09-16 中国科学院空天信息创新研究院 方锥空域内空间目标可见性确定方法、装置、设备及介质
CN115904188A (zh) * 2022-11-21 2023-04-04 北京城市网邻信息技术有限公司 户型图的编辑方法、装置、电子设备及存储介质
CN116275536A (zh) * 2023-03-16 2023-06-23 中船重工安谱(湖北)仪器有限公司 芯片丝印去除装置和方法
CN116563356A (zh) * 2023-05-12 2023-08-08 北京长木谷医疗科技股份有限公司 全局3d配准方法、装置及电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114557640B (zh) * 2022-02-21 2023-08-01 广州宝乐软件科技有限公司 清洁机器人的数据处理方法、装置及清洁机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635700A (zh) * 2018-12-05 2019-04-16 深圳市易成自动驾驶技术有限公司 障碍物识别方法、设备、系统及存储介质
US20190327412A1 (en) * 2018-04-24 2019-10-24 Industrial Technology Research Institute Building system and building method for panorama point cloud
CN110598743A (zh) * 2019-08-12 2019-12-20 北京三快在线科技有限公司 一种目标对象的标注方法和装置
CN110782531A (zh) * 2019-09-16 2020-02-11 华为技术有限公司 处理三维点云数据的方法和计算设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10970542B2 (en) * 2019-02-22 2021-04-06 Here Global B.V. Scalable three dimensional object segmentation
CN111289998A (zh) * 2020-02-05 2020-06-16 北京汽车集团有限公司 障碍物检测方法、装置、存储介质以及车辆
CN111461023B (zh) * 2020-04-02 2023-04-18 山东大学 基于三维激光雷达的四足机器人自主跟随领航员的方法
CN111638528B (zh) * 2020-05-26 2023-05-30 北京百度网讯科技有限公司 定位方法、装置、电子设备和存储介质
CN111652179B (zh) * 2020-06-15 2024-01-09 东风汽车股份有限公司 基于点线特征融合激光的语义高精地图构建与定位方法
CN111815707B (zh) * 2020-07-03 2024-05-28 北京爱笔科技有限公司 点云确定方法、点云筛选方法、装置、计算机设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190327412A1 (en) * 2018-04-24 2019-10-24 Industrial Technology Research Institute Building system and building method for panorama point cloud
CN109635700A (zh) * 2018-12-05 2019-04-16 深圳市易成自动驾驶技术有限公司 障碍物识别方法、设备、系统及存储介质
CN110598743A (zh) * 2019-08-12 2019-12-20 北京三快在线科技有限公司 一种目标对象的标注方法和装置
CN110782531A (zh) * 2019-09-16 2020-02-11 华为技术有限公司 处理三维点云数据的方法和计算设备

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115061106A (zh) * 2022-08-16 2022-09-16 中国科学院空天信息创新研究院 方锥空域内空间目标可见性确定方法、装置、设备及介质
CN115061106B (zh) * 2022-08-16 2022-11-11 中国科学院空天信息创新研究院 方锥空域内空间目标可见性确定方法、装置、设备及介质
CN115904188A (zh) * 2022-11-21 2023-04-04 北京城市网邻信息技术有限公司 户型图的编辑方法、装置、电子设备及存储介质
CN115904188B (zh) * 2022-11-21 2024-05-31 北京城市网邻信息技术有限公司 户型图的编辑方法、装置、电子设备及存储介质
CN116275536A (zh) * 2023-03-16 2023-06-23 中船重工安谱(湖北)仪器有限公司 芯片丝印去除装置和方法
CN116275536B (zh) * 2023-03-16 2024-03-12 中船重工安谱(湖北)仪器有限公司 芯片丝印去除装置和方法
CN116563356A (zh) * 2023-05-12 2023-08-08 北京长木谷医疗科技股份有限公司 全局3d配准方法、装置及电子设备
CN116563356B (zh) * 2023-05-12 2024-06-11 北京长木谷医疗科技股份有限公司 全局3d配准方法、装置及电子设备

Also Published As

Publication number Publication date
CN114051628A (zh) 2022-02-15
CN114051628B (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
WO2022088104A1 (zh) 一种确定目标对象点云集的方法及装置
KR102210715B1 (ko) 도로 중의 차도선을 확정하기 위한 방법, 장치 및 기기
CN110287276B (zh) 高精地图更新方法、装置及存储介质
WO2021097618A1 (zh) 点云分割方法、系统及计算机存储介质
WO2021073656A1 (zh) 图像数据自动标注方法及装置
WO2022083402A1 (zh) 障碍物检测方法、装置、计算机设备和存储介质
EP3651064B1 (en) Deep learning for object detection using pillars
CN110226186B (zh) 表示地图元素的方法和装置以及定位的方法和装置
WO2022056770A1 (zh) 一种路径规划方法和路径规划装置
WO2021052283A1 (zh) 处理三维点云数据的方法和计算设备
WO2021253245A1 (zh) 识别车辆变道趋势的方法和装置
CN113935428A (zh) 基于图像识别的三维点云聚类识别方法及系统
CN114097006A (zh) 交叉模态传感器数据对准
WO2022206414A1 (zh) 三维目标检测方法及装置
WO2022110862A1 (zh) 地面导向箭头的构建方法及其装置、电子设备及存储介质
CN107679458A (zh) 一种基于K‑Means的道路彩色激光点云中道路标线的提取方法
WO2021057324A1 (zh) 数据处理方法、装置、芯片系统及介质
CN113724387A (zh) 一种激光与相机融合的地图构建方法
CN115147333A (zh) 一种目标检测方法及装置
CN113269168B (zh) 障碍物数据处理方法、装置、电子设备和计算机可读介质
WO2022165802A1 (zh) 道路边界识别方法和装置
CN111813882A (zh) 一种机器人地图构建方法、设备及存储介质
CN115937449A (zh) 高精地图生成方法、装置、电子设备和存储介质
CN116168384A (zh) 点云目标检测方法、装置、电子设备及存储介质
CN112733778B (zh) 一种车辆前导车确定方法、装置及计算机设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20959265

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20959265

Country of ref document: EP

Kind code of ref document: A1