CN112258512B - 点云分割方法、装置、设备和存储介质 - Google Patents

点云分割方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN112258512B
CN112258512B CN202011112395.6A CN202011112395A CN112258512B CN 112258512 B CN112258512 B CN 112258512B CN 202011112395 A CN202011112395 A CN 202011112395A CN 112258512 B CN112258512 B CN 112258512B
Authority
CN
China
Prior art keywords
point cloud
point
axis
neural network
target grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011112395.6A
Other languages
English (en)
Other versions
CN112258512A (zh
Inventor
孔涛
储瑞航
李磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Original Assignee
Douyin Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd filed Critical Douyin Vision Co Ltd
Priority to CN202011112395.6A priority Critical patent/CN112258512B/zh
Publication of CN112258512A publication Critical patent/CN112258512A/zh
Priority to PCT/CN2021/120919 priority patent/WO2022078197A1/zh
Priority to US18/249,205 priority patent/US20230394669A1/en
Priority to JP2023521505A priority patent/JP7567049B2/ja
Application granted granted Critical
Publication of CN112258512B publication Critical patent/CN112258512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种点云分割方法、装置、设备和存储介质。该方法包括:获取待处理的点云;通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。该方法能够通过单阶段的逐点分类方式直接将点云中的每个点分类到明确而特定的实例类别,避免了多阶段带来的误差积累,提高了分割结果的准确性。同时,也提高了点云分割的效率。

Description

点云分割方法、装置、设备和存储介质
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种点云分割方法、装置、设备和存储介质。
背景技术
随着计算机技术的发展,数字图像的数量与日俱增,能否正确识别数字图像对于如自动驾驶以及机器人控制等技术领域来说是非常重要的。数字图像具有可以使用点云数据来表示,因此,点云的分割处理也是数字图像处理技术中的重要分支。
目前,在对点云进行分割如实例分割时,通常可以采用“自上而下型”的分割方法。具体的,“自上而下型”的方法是通过预测多个三维边界框来表示不同实例,接着在各个边界框内通过二元分类找到属于对应该实例的点。但是,这种方式通常需要去除大量冗余的边界框,导致点云分割效率较低;同时,点云的分类效果也依赖于上一阶段对于边界框预测的准确性。
发明内容
本发明提供一种点云分割方法、装置、设备和存储介质,以解决传统方式点云分割效率较低以及点云分割的准确性较低的技术问题。
第一方面,本发明实施例提供了一种点云分割方法,包括:
获取待处理的点云;
通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。
第二方面,本发明实施例还提供了一种点云分割装置,包括:
第一获取模块,用于获取待处理的点云;
预测模块,用于通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
输出模块,用于根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。
第三方面,本发明实施例还提供了一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现本发明实施例第一方面提供的点云分割方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现本发明实施例第一方面提供的点云分割方法的步骤。
本发明实施例提供的点云分割方法、装置、设备和存储介质,在获取到待处理的点云之后,电子设备通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,进而根据目标网格对应的实例类别,输出各实例对应的点云。在点云分割过程中,由于电子设备可以直接通过预训练神经网络预测点云中各点在所属网格化场景空间中对应的目标网格,且相同目标网格的实例类别相同,即通过单阶段的逐点分类方式直接将点云中的每个点分类到明确而特定的实例类别,避免了多阶段带来的误差积累,提高了分割结果的准确性。同时,也避免了第一阶段去除大量冗余边界框带来的计算量的损耗,提高了点云分割的效率。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本发明实施例提供的点云分割方法的应用环境图;
图2为本发明实施例提供的点云分割方法的一种流程示意图;
图3为本发明实施例提供的点云分割方法的另一种流程示意图;
图4为本发明实施例提供的点云分割过程的一种原理示意图;
图5为本发明实施例提供的点云分割过程的另一种原理示意图;
图6为本发明实施例提供的一种特征空间距离分布对比示意图;
图7为本发明实施例提供的点云分割装置的一种结构示意图;
图8为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1为本发明实施例提供的点云分割方法的应用环境图。参照图1,该点云分割方法应用于点云分割系统。该点云分割系统可以包括终端101和服务器102。终端101和服务器102通过无线网络或者有线网络连接。终端101具体可以是台式终端或者移动终端,可选的,移动终端可以为PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)以及手机等中的至少一种。服务器102可以为独立的服务器或者多个服务器组成的服务器集群。
需要说明的是,本发明实施例中的点云分割方法可以由终端101或者服务器102分别单独执行,也可由终端101和服务器102联合执行。下述方法实施例以执行主体是电子设备(该电子设备为终端101和/或服务器102)为例进行说明。
为了便于本领域技术人员的理解,下述可以对本发明实施例涉及的一些概念进行简要介绍:
实例为类的具体对象,一个具体对象可以认为是一个实例,实例类别就是指具体对象的类别。比如,物体1、物体2、物体3等。实例分割可以是将点云分割为若干个互不重叠的、属于一个具体对象的点组,一个点组对应一个实例。比如,在二维图像或者三维场景中,区分出哪些点属于一个具体对象,哪些点属于另一个具体对象等。
图2为本发明实施例提供的点云分割方法的一种流程示意图。本实施例涉及的是电子设备如何通过单阶段逐点分类的方式实现点云分割的具体过程。如图2所示,该方法可以包括:
S201、获取待处理的点云。
具体的,待处理的点云是指需要进行实例分割的点云。本发明实施例中的点云可以包括二维点云或者三维点云等。其中,二维点云可以为二维图像中的各像素点的集合,三维点云可以为三维场景中各三维点的集合。
本发明实施例提供的点云分割方法具有广阔的应用前景,在自动驾驶、机器人控制以及增强现实等领域有很大潜力。电子设备可以从各个应用领域中的前端扫描设备中获取待处理的点云。当然,前端扫描设备也可以将扫描到的点云上传到云端,电子设备从云端下载需要进行实例分割的点云。
S202、通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格。
其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到。
在实际应用中,考虑场景空间中物体是互不重叠的,且不同的物体实例占据场景空间中的不同位置,因此,可以预先将点云所属的场景空间网格化,且定义不同的网格对应不同的实例类别。例如,可以预先将点云所属的场景空间划分为多个网格(如划分为Ns*Ns*Ns个网格),每个网格占据特定位置,并代表一个实例类别。如果某个物体实例的中心点(该中心点的坐标为该物体实例中所有点的坐标的平均值)位于某个网格的内部,则将属于该物体实例的所有点均分类到该网格中,即分类到该网格对应的实例类别。
基于此,可以通过预训练神经网络来实现上述点云的逐点分类过程。因此,需要采用大量的训练数据来训练该预训练神经网络。在该预训练神经网络的训练过程中,可以通过大量的样本点云和样本点云在样本网格化场景空间中对应的样本目标网格来进行训练。首先,可以将样本场景空间进行网格化,得到样本网格化场景空间,同时,定义样本网格化场景空间中的每个网格所对应的实例类别,不同的网格对应不同的实例类别。接着,获取样本点云,并对样本点云中各点在该网格化场景空间中对应的样本目标网格进行标记,从而得到预训练神经网络的训练数据(即样本点云和样本点云在样本网格化场景空间中对应的样本目标网格)。然后,使用该训练数据对预训练神经网络进行训练。
这样,在得到该网格化场景空间的预训练神经网络之后,电子设备便可以将待处理的点云,输入至该预训练神经网络,通过预训练神经网络预测点云中各点在所属网格化场景空间中对应的目标网格。
为了便于预训练神经网络对点云的处理,可选的,在获取到待处理的点云之后,电子设备还可以将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征;通过特征提取网络,从各所述点的初始特征中提取对应点的局部特征。
其中,点的坐标特征具体可以是点的坐标位置。点的通道特征具体可以是点的通道值,比如颜色通道值(RGB值)。将坐标特征和通道特征组合,具体可以是将各坐标位置和各通道值进行拼接,从而得到各点的初始特征。这里的初始特征具体可以是矩阵形式,即初始特征矩阵。接着,电子设备将初始特征矩阵输入至特征提取网络,以提取每个点的局部特征。这里的局部特征可以是对点云的特性的高维表达,其涵盖了该整个点云的信息。当然,局部特征也可以是矩阵形式,即局部特征矩阵。进一步的,电子设备将该局部特征矩阵输入至预训练神经网络,将局部特征矩阵投影到用于实例分类的特征空间,输出各点在所属网格化场景空间中对应的目标网格。
在一个可选的实施例中,电子设备可以选择深度学习网络作为特征提取网络。该特征提取网络具体可以是PointNet网络的前半部分,或者PointNet++网络的前半部分,或者PointConv的前半部分,或者其它网络结构等。
S203、根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。
其中,由于预先定义了点云所属网格化场景空间中的网格对应的实例类别,且不同的网格对应的实例类别不同,因此,在得到点云中各点在所属网格化场景空间中对应的目标网格之后,电子设备便可以基于目标网格对应的实例类别,将点云中各点划分到对应的物体实例,并输出各物体实例对应的点云。
本发明实施例提供的点云分割方法,在获取到待处理的点云之后,电子设备通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,进而根据目标网格对应的实例类别,输出各实例对应的点云。在点云分割过程中,由于电子设备可以直接通过预训练神经网络预测点云中各点在所属网格化场景空间中对应的目标网格,且相同目标网格的实例类别相同,即通过单阶段的逐点分类方式直接将点云中的每个点分类到明确而特定的实例类别,避免了多阶段带来的误差积累,提高了分割结果的准确性。同时,也避免了第一阶段去除大量冗余边界框带来的计算量的损耗,提高了点云分割的效率。
在实际应用中,可能存在这样一种情况,预测的点云中的同一目标点对应多个目标网格,此时,需要将该目标点明确地分类到对应的目标网格中。为此,可以参照下述实施例所述的过程进行处理。可选的,在上述实施例的基础上,如图3所示,当同一目标点对应多个目标网格时,在上述S203之前,该方法还可以包括:
S301、获取所述多个目标网格中每个目标网格的可信度。
具体的,在将点云所属的场景空间网格化之后,网格化场景空间中包括的多数网格并没有对应真实的物体实例,仅有少数网格对应到真实的物体实例。为此,可以为每个网格计算一个可信度,网格的可信度越高,则表示该网格对应真实的物体实例的概率越大,反之该网格对应真实的物体实例的概率越小。
这样,在通过预训练神经网络得到同一目标点对应多个目标网格时,电子设备可以分别获取每个目标网格的可信度。作为一种可选的实施方式,电子设备可以通过下述过程获取多个目标网格中每个目标网格的可信度,具体的,上述S301可以包括:
S3011、针对每个目标网格,从所述点云中选择距离所述目标网格的中心点最近的多个相关点。
其中,距离目标网格的中心点最近的多个相关点的特征能够表征目标网格的特性,因此,电子设备可以选择距离目标网格的中心点最近的多个相关点,来计算相应目标网格的可信度。在实际应用中,可以根据实际需求,设置所选择的相关点的数量。可选的,可以选择距离中心点最近的32个点来参与可信度的计算过程。
S3012、聚合所述多个相关点的特征,得到每个所述目标网格的聚合特征。
其中,聚合多个相关点的特征,具体的可以是将多个相关点的特征进行均值池化处理,即将多个相关点的特征数据相加再求均值,从而得到对应目标网格的聚合特征。
S3013、分别对所述聚合特征进行激活处理,得到对应目标网格的可信度。
其中,在得到每个目标网格的聚合特征之后,电子设备可以采用sigmoid激活函数对聚合特征进行激活处理,从而得到每个目标网格的可信度。
当然,作为另一种可选的实施方式,电子设备可以在上述预训练神经网络中增加一个分支,来预测点云所属网格化场景空间中每个网格的可信度。在通过预训练神经网络得到同一目标点对应多个目标网格时,电子设备可以直接从上述预训练神经网络中获取该多个目标网格中每个目标网格的可信度。当然,为了实现该目的,在训练上述预训练神经网络时,训练数据还需要包括通过样本点云得到的每个网格的实际可信度,并结合每个网格的实际可信度对预训练神经网络进行训练。
S302、根据所述可信度,确定所述目标点对应的最终目标网格。
其中,电子设备可以将可信度最大的目标网格作为目标点对应的最终目标网格。当存在多个可信度相同的目标网格时,可以任意选择一个目标网格作为目标点对应的最终目标网格。
在本实施例中,当点云中同一目标点对应多个目标网格时,电子设备可以基于每个目标网格的可信度,来确定该目标点对应的最终目标网格。并且,在确定每个目标网格的可信度时,结合了距离目标网格的中心点最近的多个相关点的特征,从而提高了每个目标网格的可信度的计算结果。基于准确的可信度的计算结果,后续能够准确地将目标点分类到对应的目标网格中,进而能够准确地将目标点分类到对应的实例类别,从而进一步提高了点云分割结果的准确性。
在一个实施例中,为了通过预训练神经网络实现点云的逐点分类过程,可选的,该预训练神经网络的输出通道与所述网格化场景空间中的网格一一对应。
其中,可以预先将预训练神经网络的输出通道与网格化场景空间中所包括的网格一一对应,当预训练神经网络的某个输出通道的输出值为1,则表示该点属于该输出通道所对应的网格,反之则该输出通道的输出值为0。可选的,该预训练神经网络可以通过两层感知机来实现,即该预训练神经网络包括两层感知机。相应地,上述S202可以为:通过预训练神经网络中的两层感知机得到点云中各点在所属网格化场景空间中对应的目标网格。
参见图4,假设点云P包括Np个点,且预先将点云所属场景空间划分为Ns*Ns*Ns个网格,每个网格对应不同的实例类别,且在本实施例中网格和预训练神经网络的输出通道一一对应。电子设备将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征Np′,通过特征提取网络(如PointNet),从初始特征Np′中提取对应点的局部特征,得到局部特征矩阵
Figure BDA0002729018110000111
接着,电子设备将局部特征矩阵Fl输入至上述预训练神经网络中,通过多层感知机(如该感知机可以是形状为(32,/>
Figure BDA0002729018110000112
)的两层感知机)将Fl投影到用于分类的特征空间,输出特征矩阵/>
Figure BDA0002729018110000113
并采用sigmoid激活函数将F中的元素值放缩到区间(0,1)中,得到该点云的预测矩阵/>
Figure BDA0002729018110000114
从而得到各点所对应的目标网格。可以理解的是,预测矩阵F′的行维度代表点云中的各点,列维度代表点云所属网格化场景中的各个网格。
通常情况下,一个场景空间中仅有少数网格对应到真实的物体实例,预训练神经网络的输出空间的特征向量(该特征向量为
Figure BDA0002729018110000115
维)过于稀疏。为了进一步降低计算资源的损耗,在一个实施例中,还提供了另一种预训练神经网络。该预训练神经网络包括x轴、y轴以及z轴方向上的输出通道。在该网络架构下,该预训练神经网络可以通过三个独立的三层感知机来实现,即该预训练神经网络包括与x轴、y轴以及z轴输出通道对应的三层感知机。
相应的,上述S202可以包括:
S2021、通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置。
可选的,电子设备可以通过预训练神经网络中的与x轴、y轴以及z轴输出通道对应的三层感知机分别得到点云中各点在x轴、y轴以及z轴方向上的投影位置。
S2022、根据x轴、y轴以及z轴方向上的投影位置,确定对应点在所属网格化场景空间中对应的目标网格。
具体的,电子设备通过预测点云中各点在x轴、y轴以及z轴三个方向上的正交投影,来确定各点在所属网格化场景空间中对应的目标网格。假设针对点云中的某个点,所预测的在x轴、y轴以及z轴三个方向上的正交投影分别为ax、ay、az,则基于该点在x轴、y轴以及z轴方向上的投影位置,便可以确定出该点在所属网格化场景空间中对应的目标网格为(ax,ay,az)。
参见图5,假设点云P包括Np个点,且预先将点云所属场景空间划分为Ns*Ns*Ns个网格,每个网格对应不同的实例类别,且预训练神经网络在x轴方向上的输出通道与网格在x轴方向上的投影相对应,预训练神经网络在y轴方向上的输出通道与网格在y轴方向上的投影相对应,预训练神经网络在z轴方向上的输出通道与网格在z轴方向上的投影相对应。电子设备将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征Np′,通过特征提取网络(如PointNet),从初始特征Np′中提取对应点的局部特征,得到局部特征矩阵
Figure BDA0002729018110000121
Figure BDA0002729018110000122
接着,电子设备将局部特征矩阵Fl输入至该预训练神经网络中,通过三个独立的多层感知机(如该感知机可以是形状为(32,32,Ns)的三层感知机)将Fl投影到用于分类的特征空间,并采用sigmoid激活函数进行激活处理,得到该点云在x轴方向上的预测矩阵/>
Figure BDA0002729018110000123
y轴方向上的预测矩阵/>
Figure BDA0002729018110000124
以及z轴方向上的预测矩阵/>
Figure BDA0002729018110000125
接着,电子设备基于预测矩阵Fx、Fy和Fz,得到点云中各点所对应的目标网格。
可以理解的是,在该网络架构下,预训练神经网络的输出空间的维度为
Figure BDA0002729018110000131
相比输出空间的维度/>
Figure BDA0002729018110000132
降低了逐点分类过程中的计算量,且降低了对内存的消耗。
在本实施例中,电子设备可以采用不同的网络架构的预训练神经网络来预测点云中各点在所属网格化场景空间中对应的目标网格,提高了点云分割方式的多样化。同时,该预训练神经网络可以包括x轴、y轴以及z轴方向上的输出通道,采用包括三个方向上的输出通道的预训练神经网络预测各点对应的目标网格,能够进一步降低逐点分类过程中的计算量,且降低对内存的消耗。
在一个实施例中,还提供了上述预训练神经网络的获取过程。在上述实施例的基础上,可选的,该预训练神经网络的获取过程可以为:将所述样本点云作为所述预训练神经网络的第一输入,所述样本点云在样本网格化场景空间中对应的样本目标网格作为所述第一输入对应的第一期望输出,以及将所述样本网格化场景空间中的每个网格的实际可信度作为所述第一输入对应的第二期望输出,采用交叉熵损失函数对所述预训练神经网络进行训练。
具体的,首先可以将样本场景空间进行网格化,得到样本网格化场景空间,同时,定义样本网格化场景空间中的每个网格所对应的实例类别,不同的网格对应不同的实例类别。接着,获取样本点云,并对样本点云中各点在该网格化场景空间中对应的样本目标网格进行标记,得到样本点云对应的样本目标网格。同时,还可以基于样本点云以及每个网格的位置信息,计算每个网格的实际可信度。将上述样本点云、样本点云对应的样本目标网格以及每个网格的实际可信度作为训练数据,对预训练神经网络进行训练。上述计算每个网格的实际可信度的过程可以为:针对每个网格,从样本点云中选择距离网格的中心点最近的多个样本相关点,聚合多个样本相关点的特征,得到每个网格的聚合特征,分别对该聚合特征进行激活处理,得到对应网格的实际可信度。可选的,可以选择距离中心点最近的32个点来参与可信度的计算过程。
在得到训练数据之后,电子设备将样本点云作为预训练神经网络的第一输入,样本点云对应的样本目标网格作为第一输入对应的第一期望输出,计算交叉熵损失函数的第一损失值;将每个网格的实际可信度作为第一输入对应的第二期望输出,计算交叉熵损失函数的第二损失值,基于第一损失值和第二损失值的加权和,对预训练神经网络的参数进行调整,直至达到损失函数的收敛条件,从而得到训练好的预训练神经网络。
其中,上述第一损失值Lcate的计算公式可以为:
Figure BDA0002729018110000141
该计算公式中的Npos为可信网格的数量(此处的可信网格可以理解为可信度大于预设阈值的网格),/>
Figure BDA0002729018110000142
为对应矩阵第j列的指示器,如果第j列对应的网格为正样本,则/>
Figure BDA0002729018110000143
取值为1,反之为0;Fij表示预测矩阵F的第i行第j列元素,Dij表示样本矩阵G(样本矩阵G可以表示样本点云与样本目标网格之间的对应关系)的第i行第j列元素;这里我们使用Dice Loss来计算矩阵间的距离D(·)。
在本实施例中,电子设备可以基于大量的样本点云、样本点云在样本网格化场景空间中对应的样本目标网格以及每个网格的实际可信度作为训练数据,采用交叉熵损失函数对预训练神经网络进行训练,使得训练得到的预训练神经网络更加准确。基于准确的预训练神经网络能够直接预测待处理的点云各点在所属网格化场景空间中对应的目标网格,提高了预测结果的准确性,进一步提高了点云分割结果的准确性。
本发明实施例提供的技术方案能够广泛应用于自动驾驶、机器人控制、增强现实以及视频实例分割等领域。如室内机器人的控制,如果可以将扫描得到的点云进行分割,便可使得机器人能够精确感知每一个物体,进一步给机器人的导航和控制赋能。
为了进一步验证本发明实施例提供的技术方案的优越性,将其与传统的点云分割方式(如ASIS)进行了对比。参见图6,从图6中可以看出,本发明实施例提供的点云分割方法,能够使得相同实例间的特征距离和不同实例间的特征距离的重叠范围更小,使得不同实例间的区分度更高。
图7为本发明实施例提供的点云分割装置的一种结构示意图。如图7所示,该装置可以包括:第一获取模块701、预测模块702和输出模块703。
具体的,第一获取模块701用于获取待处理的点云;
预测模块702用于通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
输出模块703用于根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。
本发明实施例提供的点云分割装置,在获取到待处理的点云之后,电子设备通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,进而根据目标网格对应的实例类别,输出各实例对应的点云。在点云分割过程中,由于电子设备可以直接通过预训练神经网络预测点云中各点在所属网格化场景空间中对应的目标网格,且相同目标网格的实例类别相同,即通过单阶段的逐点分类方式直接将点云中的每个点分类到明确而特定的实例类别,避免了多阶段带来的误差积累,提高了分割结果的准确性。同时,也避免了第一阶段去除大量冗余边界框带来的计算量的损耗,提高了点云分割的效率。
在上述实施例的基础上,可选的,当同一目标点对应多个目标网格时,该装置还可以包括:第二获取模块和确定模块。
具体的,第二获取模块用于在所述输出模块703根据目标网格对应的实例类别,输出各实例对应的点云之前之前,获取所述多个目标网格中每个目标网格的可信度;
确定模块用于根据所述可信度,确定所述目标点对应的最终目标网格。
在上述实施例的基础上,可选的,第二获取模块具体用于针对每个目标网格,从所述点云中选择距离所述目标网格的中心点最近的多个相关点;聚合所述多个相关点的特征,得到每个所述目标网格的聚合特征;分别对所述聚合特征进行激活处理,得到对应目标网格的可信度。
可选的,所述预训练神经网络的输出通道与所述网格化场景空间中的网格一一对应。
在上述实施例的基础上,可选的,所述预训练神经网络包括x轴、y轴以及z轴方向上的输出通道;
预测模块702具体用于通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置;根据x轴、y轴以及z轴方向上的投影位置,确定对应点在所属网格化场景空间中对应的目标网格。
在上述实施例的基础上,可选的,该装置还可以包括:网络训练模块;
具体的,网络训练模块用于将所述样本点云作为所述预训练神经网络的第一输入,所述样本点云在样本网格化场景空间中对应的样本目标网格作为所述第一输入对应的第一期望输出,以及将所述样本网格化场景空间中的每个网格的实际可信度作为所述第一输入对应的第二期望输出,采用交叉熵损失函数对所述预训练神经网络进行训练。
在上述实施例的基础上,可选的,该装置还可以包括:组合模块和特征提取模块;
具体的,组合模块用于在第一获取模块701获取待处理的点云之后,将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征;
特征提取模块用于通过特征提取网络,从各所述点的初始特征中提取对应点的局部特征。
下面参考图8,其示出了适于用来实现本公开实施例的电子设备(例如图1中的终端或服务器)800的结构示意图。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置808;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从所述至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
在一个实施例中,提供了一种电子设备,包括存储器和处理器,存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待处理的点云;
通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。
本发明实施例提供的点云分割设备,在获取到待处理的点云之后,电子设备通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,进而根据目标网格对应的实例类别,输出各实例对应的点云。在点云分割过程中,由于电子设备可以直接通过预训练神经网络预测点云中各点在所属网格化场景空间中对应的目标网格,且相同目标网格的实例类别相同,即通过单阶段的逐点分类方式直接将点云中的每个点分类到明确而特定的实例类别,避免了多阶段带来的误差积累,提高了分割结果的准确性。同时,也避免了第一阶段去除大量冗余边界框带来的计算量的损耗,提高了点云分割的效率。
当同一目标点对应多个目标网格时,在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取所述多个目标网格中每个目标网格的可信度;根据所述可信度,确定所述目标点对应的最终目标网格。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:针对每个目标网格,从所述点云中选择距离所述目标网格的中心点最近的多个相关点;聚合所述多个相关点的特征,得到每个所述目标网格的聚合特征;分别对所述聚合特征进行激活处理,得到对应目标网格的可信度。
可选的,所述预训练神经网络的输出通道与所述网格化场景空间中的网格一一对应。
在一个实施例中,所述预训练神经网络包括两层感知机;处理器执行计算机程序时还实现以下步骤:通过预训练神经网络中的所述两层感知机得到所述点云中各点在所属网格化场景空间中对应的目标网格。
在一个实施例中,所述预训练神经网络包括x轴、y轴以及z轴方向上的输出通道;处理器执行计算机程序时还实现以下步骤:通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置;根据x轴、y轴以及z轴方向上的投影位置,确定对应点在所属网格化场景空间中对应的目标网格。
在一个实施例中,所述预训练神经网络包括与x轴、y轴以及z轴输出通道对应的三层感知机;处理器执行计算机程序时还实现以下步骤:通过预训练神经网络中的所述三层感知机分别得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将所述样本点云作为所述预训练神经网络的第一输入,所述样本点云在样本网格化场景空间中对应的样本目标网格作为所述第一输入对应的第一期望输出,以及将所述样本网格化场景空间中的每个网格的实际可信度作为所述第一输入对应的第二期望输出,采用交叉熵损失函数对所述预训练神经网络进行训练。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征;通过特征提取网络,从各所述点的初始特征中提取对应点的局部特征。
上述实施例中提供的点云分割装置、设备以及存储介质可执行本发明任意实施例所提供的点云分割方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的点云分割方法。
根据本公开的一个或多个实施例,提供一种点云分割方法,包括:
获取待处理的点云;
通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同。
当同一目标点对应多个目标网格时,根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:获取所述多个目标网格中每个目标网格的可信度;根据所述可信度,确定所述目标点对应的最终目标网格。
根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:针对每个目标网格,从所述点云中选择距离所述目标网格的中心点最近的多个相关点;聚合所述多个相关点的特征,得到每个所述目标网格的聚合特征;分别对所述聚合特征进行激活处理,得到对应目标网格的可信度。
可选的,所述预训练神经网络的输出通道与所述网格化场景空间中的网格一一对应。
可选的,所述预训练神经网络包括两层感知机;根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:通过预训练神经网络中的所述两层感知机得到所述点云中各点在所属网格化场景空间中对应的目标网格。可选的,所述预训练神经网络包括x轴、y轴以及z轴方向上的输出通道;根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置;根据x轴、y轴以及z轴方向上的投影位置,确定对应点在所属网格化场景空间中对应的目标网格。
可选的,所述预训练神经网络包括与x轴、y轴以及z轴输出通道对应的三层感知机;根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:通过预训练神经网络中的所述三层感知机分别得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置。
根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:将所述样本点云作为所述预训练神经网络的第一输入,所述样本点云在样本网格化场景空间中对应的样本目标网格作为所述第一输入对应的第一期望输出,以及将所述样本网格化场景空间中的每个网格的实际可信度作为所述第一输入对应的第二期望输出,采用交叉熵损失函数对所述预训练神经网络进行训练。
根据本公开的一个或多个实施例,提供了如上的点云分割方法,还包括:将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征;通过特征提取网络,从各所述点的初始特征中提取对应点的局部特征。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (11)

1.一种点云分割方法,其特征在于,包括:
获取待处理的点云;
通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同;
其中,所述预训练神经网络包括x轴、y轴以及z轴方向上的输出通道;
相应的,所述通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,包括:
通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置;
根据x轴、y轴以及z轴方向上的投影位置,确定对应点在所属网格化场景空间中对应的目标网格。
2.根据权利要求1所述的方法,其特征在于,当同一目标点对应多个目标网格时,在所述根据目标网格对应的实例类别,输出各实例对应的点云之前,还包括:
获取所述多个目标网格中每个目标网格的可信度;
根据所述可信度,确定所述目标点对应的最终目标网格。
3.根据权利要求2所述的方法,其特征在于,所述获取所述多个目标网格中每个目标网格的可信度,包括:
针对每个目标网格,从所述点云中选择距离所述目标网格的中心点最近的多个相关点;
聚合所述多个相关点的特征,得到每个所述目标网格的聚合特征;
分别对所述聚合特征进行激活处理,得到对应目标网格的可信度。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述预训练神经网络的输出通道与所述网格化场景空间中的网格一一对应。
5.根据权利要求4所述的方法,其特征在于,所述预训练神经网络包括两层感知机;
所述通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,包括:
通过预训练神经网络中的所述两层感知机得到所述点云中各点在所属网格化场景空间中对应的目标网格。
6.根据权利要求1所述的方法,其特征在于,所述预训练神经网络包括与x轴、y轴以及z轴输出通道对应的三层感知机;
所述通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置,包括:
通过预训练神经网络中的所述三层感知机分别得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置。
7.根据权利要求1至3中任一项所述的方法,其特征在于,所述预训练神经网络的获取过程,包括:
将所述样本点云作为所述预训练神经网络的第一输入,所述样本点云在样本网格化场景空间中对应的样本目标网格作为所述第一输入对应的第一期望输出,以及将所述样本网格化场景空间中的每个网格的实际可信度作为所述第一输入对应的第二期望输出,采用交叉熵损失函数对所述预训练神经网络进行训练。
8.根据权利要求1至3中任一项所述的方法,其特征在于,在所述获取待处理的点云之后,还包括:
将点云中各点的坐标特征和通道特征组合,得到对应点的初始特征;
通过特征提取网络,从各所述点的初始特征中提取对应点的局部特征。
9.一种点云分割装置,其特征在于,包括:
第一获取模块,用于获取待处理的点云;
预测模块,用于通过预训练神经网络得到所述点云中各点在所属网格化场景空间中对应的目标网格,其中,所述预训练神经网络通过样本点云和样本点云在样本网格化场景空间中对应的样本目标网格训练得到;
输出模块,用于根据目标网格对应的实例类别,输出各实例对应的点云,相同目标网格的实例类别相同;
其中,所述预训练神经网络包括x轴、y轴以及z轴方向上的输出通道;
预测模块,具体用于通过预训练神经网络得到所述点云中各点在x轴、y轴以及z轴方向上的投影位置;根据x轴、y轴以及z轴方向上的投影位置,确定对应点在所属网格化场景空间中对应的目标网格。
10.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述方法的步骤。
CN202011112395.6A 2020-10-16 2020-10-16 点云分割方法、装置、设备和存储介质 Active CN112258512B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202011112395.6A CN112258512B (zh) 2020-10-16 2020-10-16 点云分割方法、装置、设备和存储介质
PCT/CN2021/120919 WO2022078197A1 (zh) 2020-10-16 2021-09-27 点云分割方法、装置、设备和存储介质
US18/249,205 US20230394669A1 (en) 2020-10-16 2021-09-27 Point cloud segmentation method and apparatus, device, and storage medium
JP2023521505A JP7567049B2 (ja) 2020-10-16 2021-09-27 点群分割方法、装置、機器および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011112395.6A CN112258512B (zh) 2020-10-16 2020-10-16 点云分割方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN112258512A CN112258512A (zh) 2021-01-22
CN112258512B true CN112258512B (zh) 2023-05-26

Family

ID=74245552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011112395.6A Active CN112258512B (zh) 2020-10-16 2020-10-16 点云分割方法、装置、设备和存储介质

Country Status (4)

Country Link
US (1) US20230394669A1 (zh)
JP (1) JP7567049B2 (zh)
CN (1) CN112258512B (zh)
WO (1) WO2022078197A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258512B (zh) * 2020-10-16 2023-05-26 抖音视界有限公司 点云分割方法、装置、设备和存储介质
CN113204998B (zh) * 2021-04-01 2022-03-15 武汉大学 一种基于单木尺度的机载点云森林生态估测方法及系统
CN112767424B (zh) * 2021-04-08 2021-07-13 深圳大学 一种基于室内三维点云空间自动剖分方法
CN113392841B (zh) * 2021-06-03 2022-11-18 电子科技大学 一种基于多特征信息增强编码的三维点云语义分割方法
CN113408600A (zh) * 2021-06-10 2021-09-17 北京房江湖科技有限公司 样本数据预处理方法、装置及计算机可读存储介质
CN113420846A (zh) * 2021-08-24 2021-09-21 天津云圣智能科技有限责任公司 点云分割方法、装置及终端设备
CN114882046B (zh) * 2022-03-29 2024-08-02 驭势科技(北京)有限公司 三维点云数据的全景分割方法、装置、设备及介质
CN116721399B (zh) * 2023-07-26 2023-11-14 之江实验室 一种量化感知训练的点云目标检测方法及装置
CN116681767B (zh) * 2023-08-03 2023-12-29 长沙智能驾驶研究院有限公司 一种点云搜索方法、装置及终端设备
CN117291845B (zh) * 2023-11-27 2024-03-19 成都理工大学 一种点云地面滤波方法、系统、电子设备及存储介质
CN118537564A (zh) * 2024-07-25 2024-08-23 中南民族大学 一种三维点云数据几何基元拟合方法、系统及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408011A (zh) * 2016-09-09 2017-02-15 厦门大学 基于深度学习的激光扫描三维点云树木自动分类方法
CN111339876A (zh) * 2020-02-19 2020-06-26 北京百度网讯科技有限公司 用于识别场景中各区域类型的方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105590335A (zh) * 2014-10-23 2016-05-18 富泰华工业(深圳)有限公司 点云网格精细化系统及方法
US11676005B2 (en) * 2018-11-14 2023-06-13 Huawei Technologies Co., Ltd. Method and system for deep neural networks using dynamically selected feature-relevant points from a point cloud
CN109741329A (zh) * 2018-11-27 2019-05-10 广东工业大学 一种面向电力走廊场景的点云分割方法
CN109886272B (zh) 2019-02-25 2020-10-30 腾讯科技(深圳)有限公司 点云分割方法、装置、计算机可读存储介质和计算机设备
CN111310765A (zh) * 2020-02-14 2020-06-19 北京经纬恒润科技有限公司 激光点云语义分割方法和装置
CN112258512B (zh) * 2020-10-16 2023-05-26 抖音视界有限公司 点云分割方法、装置、设备和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408011A (zh) * 2016-09-09 2017-02-15 厦门大学 基于深度学习的激光扫描三维点云树木自动分类方法
CN111339876A (zh) * 2020-02-19 2020-06-26 北京百度网讯科技有限公司 用于识别场景中各区域类型的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于激光雷达点云的小目标语义分割增强方法;谢波等;《激光杂志》(第04期);全文 *

Also Published As

Publication number Publication date
WO2022078197A1 (zh) 2022-04-21
US20230394669A1 (en) 2023-12-07
JP7567049B2 (ja) 2024-10-15
CN112258512A (zh) 2021-01-22
JP2023545423A (ja) 2023-10-30

Similar Documents

Publication Publication Date Title
CN112258512B (zh) 点云分割方法、装置、设备和存储介质
CN111476309B (zh) 图像处理方法、模型训练方法、装置、设备及可读介质
CN110276346B (zh) 目标区域识别模型训练方法、装置和计算机可读存储介质
CN112668588B (zh) 车位信息生成方法、装置、设备和计算机可读介质
CN110222726A (zh) 图像处理方法、装置及电子设备
CN112183627B (zh) 生成预测密度图网络的方法和车辆年检标数量检测方法
CN115439449B (zh) 全视野组织学图像的处理方法、装置、介质和电子设备
CN115601692A (zh) 数据处理方法、神经网络模型的训练方法及装置
CN110555861B (zh) 光流计算方法、装置及电子设备
CN114677350B (zh) 连接点提取方法、装置、计算机设备及存储介质
CN111915689B (zh) 用于生成目标函数的方法、装置、电子设备和计算机可读介质
CN111539524B (zh) 轻量级自注意力模块和神经网络构架的搜索方法
WO2024001653A9 (zh) 特征提取方法、装置、存储介质及电子设备
CN110069997B (zh) 场景分类方法、装置及电子设备
CN115100536B (zh) 建筑物识别方法、装置、电子设备和计算机可读介质
CN111862351A (zh) 定位模型优化方法、定位方法和定位设备
CN115186814B (zh) 对抗生成网络的训练方法、装置、电子设备和存储介质
CN115049730B (zh) 零件装配方法、装置、电子设备及存储介质
CN116340632A (zh) 对象推荐方法、装置、介质及电子设备
CN116258911A (zh) 图像分类模型的训练方法、装置、设备及存储介质
CN114494379A (zh) 基于fpfh的凸包辅助三维点云配准方法、设备及介质
CN110555892A (zh) 多角度图像生成方法、装置及电子设备
CN112561778B (zh) 图像风格化处理方法、装置、设备及存储介质
CN113808050B (zh) 3d点云的去噪方法、装置、设备及存储介质
CN117558023A (zh) 姿态估计方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant