WO2023185494A1 - 一种点云数据识别方法、装置、电子设备及存储介质 - Google Patents

一种点云数据识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
WO2023185494A1
WO2023185494A1 PCT/CN2023/081972 CN2023081972W WO2023185494A1 WO 2023185494 A1 WO2023185494 A1 WO 2023185494A1 CN 2023081972 W CN2023081972 W CN 2023081972W WO 2023185494 A1 WO2023185494 A1 WO 2023185494A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
point cloud
local
features
network
Prior art date
Application number
PCT/CN2023/081972
Other languages
English (en)
French (fr)
Inventor
詹景麟
刘铁军
张晶威
刘丹
Original Assignee
苏州浪潮智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 苏州浪潮智能科技有限公司 filed Critical 苏州浪潮智能科技有限公司
Publication of WO2023185494A1 publication Critical patent/WO2023185494A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the point cloud data provided by lidar can contain three-dimensional depth information and can eliminate interference from light conditions, which can effectively improve the perception performance of unmanned driving systems. Therefore, in unmanned driving systems In the field of driving, point cloud data is often used to perform target recognition tasks.
  • point cloud data recognition algorithms have shortcomings in the extraction of global features, and cannot effectively integrate global features and local features in point cloud data, making it difficult to achieve better perception effects.
  • single frame point cloud data is divided into a preset number of local data, including:
  • the data points in the target local data corresponding to the number of data points are randomly removed until the number of removed data points is equal to the preset number of data points;
  • adding new data points to the target local data includes:
  • the PointNet++ network uses the pre-trained transformation matrix to align the received local data and extract the local features of the aligned local data.
  • Acquisition and segmentation module used to acquire single frame point cloud data and segment the single frame point cloud data into a preset number of local data according to;
  • the second input module is used to input all local data into the ViT network so that the ViT network can extract global features of single frame point cloud data;
  • the fusion and recognition module is used to fuse local features and global features to obtain fusion features, and use the fusion features to identify the type of single-frame point cloud data.
  • Remove sub-module used to randomly remove data points in the target local data corresponding to the number of data points if the number of data points is greater than the preset number of data points, until the number of removed data points equals the preset data points quantity;
  • Add a submodule used to add new data points to the target local data if the number of data points is less than the preset number of data points, until the number of added data points equals the preset number of data points.
  • a processor is used to implement the above point cloud data recognition method when executing a computer program.
  • Point cloud data has performance advantages in terms of global features; further, the embodiments of this application will fuse the obtained local features and global features, and use the fused features to identify the type of single frame point cloud data, which can not only make up for the existing methods It has the disadvantage of being difficult to effectively extract the global features of point cloud data. At the same time, it also integrates the global features and local features of point cloud data well, which can effectively improve the perception and recognition effect of point cloud data. Embodiments of the present application also provide a point cloud data recognition device, electronic equipment and computer non-volatile readable storage media, which have the above beneficial effects.
  • Figure 1 is a flow chart of a point cloud data identification method provided by an embodiment of the present application.
  • Figure 2 is an overall framework diagram of a neural network provided by an embodiment of the present application.
  • Figure 3 is a structural block diagram of a point cloud data recognition device provided by an embodiment of the present application.
  • Figure 4 is a schematic structural diagram of an electronic device provided by an embodiment of the present application.
  • FIG. 5 is a schematic structural diagram of a computer non-volatile readable storage medium provided by an embodiment of the present application.
  • the point cloud data recognition algorithm has shortcomings in the extraction of global features, and cannot effectively synthesize the global features and local features in point cloud data, making it difficult to achieve better perception effects.
  • the embodiments of this application provide a point cloud data recognition method that can be combined with the PointNet++ network and the ViT network to perform the point cloud data recognition task, can effectively extract the global features of the point cloud data, and can well synthesize the global features of the point cloud data. and local features, which can effectively improve the perception and recognition effect of point cloud data.
  • Figure 1 is a flow chart of a point cloud data identification method provided by an embodiment of the present application. Figure, the method can include:
  • the embodiments of the present application are not limited to the specific collection equipment of single frame point cloud data.
  • mechanical rotating lidar, hybrid lidar or solid-state lidar can be used for collection; the embodiments of the present application are not limited to single frame point cloud data.
  • the number of data points and other collection parameters included in the frame point cloud data can be set according to actual application requirements.
  • the embodiments of the present application do not limit the specific method of dividing the single frame point cloud data. For example, a preset number of preset areas can be divided in the single frame point cloud data in advance, and the single frame can be divided according to the preset area.
  • Frame point cloud data is segmented; of course, clustering can also be used to divide the data points in a single frame point cloud data into a preset number of data clusters, and then set these data clusters as local data.
  • the above-mentioned clustering method can be used to segment single frame point cloud data. , to perform local data extraction in an adaptive manner.
  • the embodiments of the present application are not limited to specific clustering methods.
  • K-Means, mean-shift clustering algorithms, etc. can be used, and can be set according to actual application requirements.
  • K-means is a relatively commonly used clustering algorithm
  • K-means may be used to segment single frame point cloud data.
  • dividing single frame point cloud data into a preset number of local data may include:
  • Step 11 Use the K-means algorithm to divide the data points in the single-frame point cloud data into a preset number of data clusters to obtain local data;
  • the embodiment of the present application will randomly remove data points in the local data, which can effectively reduce the loss of local features caused by the removal of data points.
  • the embodiments of the present application do not limit the method of adding new data points to the local data when the number of data points is less than the preset number of data points.
  • the local data can be continuously filled with zero values (that is, invalid data).
  • the interpolation method can also be used to interpolate the original data points in the local data to obtain new data points, and add the new data points to the local data.
  • the interpolation method in order to avoid the impact of new data on the original characteristics of the local data, can be used to expand the local data.
  • adding new data points to the target local data may include:
  • local data is first input into a preset number of PointNet++ networks in parallel for feature extraction.
  • the PointNet++ network is a neural network used to extract three-dimensional point cloud features and has strong local features. Extraction performance.
  • Figure 2 is an overall framework diagram of a neural network provided by an embodiment of the present application.
  • the correspondence between local data and the PointNet++ network is one-to-one, that is, after N’ groups of local data are input to the PointNet++ module in parallel, they will be processed by N’ groups of PointNet++ networks to obtain N’ groups of local features.
  • PointNet++ network may include, for example, an MLP layer (Multilayer Perceptron, multi-layer perceptron), pooling layer (Pooling), etc., nor does it limit the specific structure of each layer of the network.
  • MLP layer Multilayer Perceptron, multi-layer perceptron
  • Pooling layer Pooling layer
  • the PointNet++ network can perform data alignment operations on local data. Specifically, a small sub-network can be built in advance and trained to obtain a transformation matrix. This transformation matrix ensures the invariance of the affine transformation of the point cloud data in the 3D (3Dimensions, three-dimensional) space, that is, the data undergoes operations such as translation and rotation. It does not affect the neural network's ability to perceive the environment.
  • the PointNet++ network extracts local features corresponding to local data, which may include:
  • Step 31 The PointNet++ network uses the pre-trained transformation matrix to align the received local data and extract the local features of the aligned local data.
  • the PointNet++ network can transmit the local data to the MLP layer, extract features from the point cloud data through multi-level linear and nonlinear transformation of the data, and convert the expression of the original data from geometric space to semantic space.
  • the underlying features are further abstracted, and finally through data pooling processing, the high-level feature expression form of the local point cloud data is obtained, that is, the local features are obtained.
  • Embodiments of the present application will further input all local data corresponding to the single frame point cloud data into the ViT network to extract the global features of the single frame point cloud data, where ViT is an image recognition neural network based on the self-attention system.
  • ViT is an image recognition neural network based on the self-attention system.
  • Figure 2 may include, for example, a normalization layer, a multi-head self-attention layer and an MLP layer.
  • the network introduces the influence of other local area data based on self-attention score weighting, which is beneficial to the global feature capture of the network structure.
  • the embodiments of the present application do not limit the specific functions of each layer of the ViT network, and reference may be made to related technologies of the ViT network. It should be noted that, unlike local features, the ViT network only generates a global feature for a single frame of point cloud data.
  • embodiments of the present application will fuse the two features to obtain fusion features, and use the fusion features to perform type recognition. Since the embodiments of the present application can use more feature information to identify the type of point cloud data, the identification accuracy of point cloud data can be effectively improved. It should be noted that the embodiments of the present application do not limit how to fuse local features and global features. Considering that features are usually expressed in the form of vectors, in the embodiments of the present application, the local feature vector corresponding to the local feature can be The global feature vectors corresponding to the global features are spliced to obtain fused features.
  • fusing local features and global features to obtain fused features may include:
  • Step 41 Splice the local feature vector corresponding to the local feature and the global feature vector corresponding to the global feature to obtain the fusion feature.
  • the training method of the above network will be introduced below.
  • it may also include:
  • the embodiments of this application do not limit the PointNet++ network, the ViT network, and the model weights required to be used in the type identification process. Reference may be made to related technologies.
  • the embodiment of the present application randomly initializes these model weights in advance to randomly set the values of these model weights.
  • steps S202 and S203 are consistent with the description of steps S101 to S103, and reference may be made to the above embodiments, which will not be described again here.
  • the score of the i-th point in the k-th category of the point cloud data of the m-th frame in the output result of the neural network is expressed as y mik , by
  • the softmax function maps the score to a value ranging from 0 to 1, and converts the output of the neural network into the probability of the i-th point in the k-th category of the m-th frame point cloud data.
  • exp( ⁇ ) represents the exponential function.
  • the number of point cloud data samples included in the point cloud training set is M train
  • the mth frame point cloud The number of data points contained in the data is N m
  • the loss function L is defined as:
  • the gradient descent optimization algorithm (GradientDescent) can be used to iteratively train the neural network, and the parameters can be iteratively optimized according to the following formula, where ⁇ t represents the model weight of the tth round, and eta represents the hyperparameter, Represents the gradient value of the loss function L.
  • the point cloud data identification device, electronic equipment and computer non-volatile readable storage medium provided by the embodiments of the present application are introduced below.
  • the point cloud data identification device, electronic equipment and computer non-volatile readable storage medium described below are the same as The point cloud data identification methods described above can correspond to each other.
  • Figure 3 is a structural block diagram of a point cloud data recognition device provided by an embodiment of the present application.
  • the device may include:
  • the acquisition and segmentation module 301 is used to acquire single frame point cloud data and segment the single frame point cloud data into a preset number of local data;
  • the first input module 302 is used to input local data into a preset number of PointNet++ networks in parallel, so that PointNet++ network extracts local features corresponding to local data;
  • the second input module 303 is used to input all local data into the ViT network, so that the ViT network extracts global features of single frame point cloud data;
  • the fusion and identification module 304 is used to fuse local features and global features to obtain fusion features, and use the fusion features to perform type identification on single frame point cloud data.
  • the acquisition and segmentation module 301 may include:
  • the division submodule is used to divide the data points in the single frame point cloud data into a preset number of data clusters using the K-means algorithm to obtain local data;
  • Remove sub-module used to randomly remove data points in the target local data corresponding to the number of data points if the number of data points is greater than the preset number of data points, until the number of removed data points equals the preset data points quantity;
  • Add a submodule used to add new data points to the target local data if the number of data points is less than the preset number of data points, until the number of added data points equals the preset number of data points.
  • adding sub-modules may include:
  • the interpolation unit is used to generate new data points using the interpolation method and the data points in the target local data, and add the new data points to the target local data.
  • the fusion and identification module 304 may include:
  • the fusion submodule is used to splice the local feature vector corresponding to the local feature and the global feature vector corresponding to the global feature to obtain the fusion feature.
  • the first input module 302 may include:
  • the PointNet++ training module is used by the PointNet++ network to use the pre-trained transformation matrix to align the received local data and extract the local features of the aligned local data.
  • the device may further include:
  • the training data segmentation module is used to segment each single frame of point cloud training data in the point cloud training set into a preset number of local training data
  • the training data input module is used to input the local training data corresponding to the single-frame point cloud training data into the PointNet++ network and the ViT network, and fuse the output results of the PointNet++ network and the ViT network to obtain the single-frame point cloud training data. fusion characteristics;
  • the recognition and loss value calculation module is used to use the fusion features of the single frame point cloud training data to identify the type of the single frame point cloud training data, and use the obtained predicted classification and the actual classification of the single frame point cloud training data to calculate the loss value;
  • the update module is used to iteratively update the model weights using the gradient descent method and loss value, and enter the step of inputting the local training data corresponding to the single-frame point cloud training data into the PointNet++ network and the ViT network until the number of iterations reaches the preset upper limit. Or the loss value is less than the preset threshold.
  • An embodiment of the present application also provides an electronic device, including:
  • Memory 402 as shown in Figure 4, is used to store computer programs
  • the processor 401 is configured to implement the steps of the above point cloud data identification method when executing a computer program.
  • the embodiment of the present application also provides a computer non-volatile readable storage medium.
  • the computer program 51 is stored on the computer non-volatile readable storage medium 5.
  • the computer program 51 is implemented when executed by the processor. The steps of the point cloud data identification method in any of the above embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种点云数据识别方法、装置、电子设备及存储介质,方法包括:获取单帧点云数据,并将单帧点云数据分割为预设数量的局部数据;将局部数据并行输入至预设数量的PointNet++网络中,以使PointNet++网络提取局部数据对应的局部特征;将所有局部数据输入至ViT网络中,以使ViT网络提取单帧点云数据的全局特征;融合局部特征和全局特征得到融合特征,并利用融合特征对单帧点云数据进行类型识别;结合PointNet++网络和ViT网络进行点云数据的识别任务,能够有效提取点云数据的全局特征,并能够很好地综合点云数据的全局特征及局部特征,进而可有效提升点云数据的感知及识别效果。

Description

一种点云数据识别方法、装置、电子设备及存储介质
相关申请的交叉引用
本申请要求于2022年03月28日提交中国专利局,申请号为202210308663.4,申请名称为“一种点云数据识别方法、装置、电子设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及模式识别领域,特别涉及一种点云数据识别方法、一种点云数据识别装置、相应的一种电子设备,以及相应的一种计算机非易失性可读存储介质。
背景技术
相比于传统摄像头所提供的二维图像数据,激光雷达所提供的点云数据可包含三维深度信息,且可排除光线条件的干扰,能够有效提升无人驾驶系统的感知性能,因此在无人驾驶领域中,常使用点云数据执行目标识别任务。然而,点云数据识别算法在全局特征的提取方面存在不足,且无法有效综合点云数据中的全局特征及局部特征,进而难以取得较好的感知效果。
发明内容
本申请的目的是提供一种点云数据识别方法、装置、电子设备及计算机非易失性可读存储介质,可结合PointNet++网络(表现为编码器-解码器Encoder-Decoder模型框架的网络结构)和ViT(Vision Transformer,视觉转换器)网络进行点云数据的识别任务,能够有效提取点云数据的全局特征,并能够很好地综合点云数据的全局特征及局部特征,进而可有效提升点云数据的感知及识别效果。
为解决上述技术问题,本申请提供一种点云数据识别方法,包括:
获取单帧点云数据,并将单帧点云数据分割为预设数量的局部数据;
将局部数据并行输入至预设数量的PointNet++网络中,以使PointNet++网络提取局部数据对应的局部特征;
将所有局部数据输入至ViT网络中,以使ViT网络提取单帧点云数据的全局特征;
融合局部特征和全局特征得到融合特征,并利用融合特征对单帧点云数据进行类型识别。
在本申请的一些实施例中,将单帧点云数据分割为预设数量的局部数据,包括:
利用K均值算法将单帧点云数据中的数据点划分至预设数量的数据簇中,得到局部数据;
对每一局部数据包含的数据点数量进行统计;
若数据点数量大于预设数据点数量,则对数据点数量对应的目标局部数据中的数据点进行随机移除,直至移除后的数据点数量等于预设数据点数量;
若数据点数量小于预设数据点数量,则在目标局部数据中增加新数据点,直至增加后的数据点数量等于预设数据点数量。
在本申请的一些实施例中,在目标局部数据中增加新数据点,包括:
利用插值法及目标局部数据中的数据点生成新数据点,并将新数据点添加至目标局部数据中。
在本申请的一些实施例中,融合局部特征和全局特征得到融合特征,包括:
将局部特征对应的局部特征向量与全局特征对应的全局特征向量进行拼接,得到融合特征。
在本申请的一些实施例中,PointNet++网络提取局部数据对应的局部特征,包括:
PointNet++网络利用预训练的转换矩阵对接收到的局部数据进行对齐,并提取对齐后的局部数据的局部特征。
在本申请的一些实施例中,在获取单帧点云数据之前,还包括:
获取点云训练集,并随机初始化PointNet++网络、ViT网络及类型识别过程中所需使用的模型权重;点云训练集中的单帧点云训练数据标注有对应的实际分类;
将点云训练集中的每一单帧点云训练数据分割为预设数量的局部训练数据;
将单帧点云训练数据对应的局部训练数据输入至PointNet++网络和ViT网络,并对PointNet++网络和ViT网络的输出结果进行融合,得到单帧点云训练数据的融合特征;
利用单帧点云训练数据的融合特征对单帧点云训练数据进行类型识别,并利用得到的预测分类及单帧点云训练数据的实际分类计算损失值;
利用梯度下降法及损失值对模型权重进行迭代更新,并进入将单帧点云训练数据对应的局部训练数据输入至PointNet++网络和ViT网络的步骤,直至迭代次数到达预设上限或损失值小于预设阈值。
本申请还提供一种点云数据识别装置,包括:
获取及分割模块,用于获取单帧点云数据,并将单帧点云数据分割为预设数量的局部数 据;
第一输入模块,用于将局部数据并行输入至预设数量的PointNet++网络中,以使PointNet++网络提取局部数据对应的局部特征;
第二输入模块,用于将所有局部数据输入至ViT网络中,以使ViT网络提取单帧点云数据的全局特征;
融合及识别模块,用于融合局部特征和全局特征得到融合特征,并利用融合特征对单帧点云数据进行类型识别。
在本申请的一些实施例中,获取及分割模块,包括:
划分子模块,用于利用K均值算法将单帧点云数据中的数据点划分至预设数量的数据簇中,得到局部数据;
统计子模块,用于对每一局部数据包含的数据点数量进行统计;
移除子模块,用于若数据点数量大于预设数据点数量,则对数据点数量对应的目标局部数据中的数据点进行随机移除,直至移除后的数据点数量等于预设数据点数量;
增加子模块,用于若数据点数量小于预设数据点数量,则在目标局部数据中增加新数据点,直至增加后的数据点数量等于预设数据点数量。
本申请还提供一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行计算机程序时实现如上述点云数据识别方法。
本申请还提供一种计算机非易失性可读存储介质,计算机非易失性可读存储介质中存储有计算机可执行指令,计算机可执行指令被处理器加载并执行时,实现如上述点云数据识别方法。
本申请提供一种点云数据识别方法,包括:获取单帧点云数据,并将单帧点云数据分割为预设数量的局部数据;将局部数据并行输入至预设数量的PointNet++网络中,以使PointNet++网络提取局部数据对应的局部特征;将所有局部数据输入至ViT网络中,以使ViT网络提取单帧点云数据的全局特征;融合局部特征和全局特征得到融合特征,并利用融合特征对单帧点云数据进行类型识别。
可见,本申请实施例会综合PointNet++网络和ViT网络进行点云数据的识别任务,在得到单帧点云数据时,会首先将该数据划分为预设数量的局部数据,并且并行输入至对应的PointNet++网络中进行局部特征提取,这是由于该网络在局部感知效果上具有性能优势,且 可有效提升显卡内存利用率;此外,本申请实施例还会将所有局部数据输入至ViT网络中,以提取单帧点云数据的全局特征,这是由于ViT网络具有自注意力机制,在提取点云数据全局特征方面具有性能优势;进一步,本申请实施例会将得到的局部特征和全局特征进行融合,并利用融合后的融合特征对单帧点云数据进行类型识别,不仅能够弥补现有方式难以有效提取点云数据全局特征的缺陷,同时还很好地综合了点云数据的全局特征及局部特征,进而能够有效提升点云数据的感知及识别效果。本申请实施例还提供一种点云数据识别装置、电子设备及计算机非易失性可读存储介质,具有上述有益效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种点云数据识别方法的流程图;
图2为本申请实施例所提供的一种神经网络整体框架图;
图3为本申请实施例所提供的一种点云数据识别装置的结构框图;
图4为本申请实施例所提供的一种电子设备的结构示意图;
图5为本申请实施例所提供的一种计算机非易失性可读存储介质的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
点云数据识别算法在全局特征的提取方面存在不足,且无法有效综合点云数据中的全局特征及局部特征,进而难以取得较好的感知效果。本申请实施例提供一种点云数据识别方法,可结合PointNet++网络和ViT网络进行点云数据的识别任务,能够有效提取点云数据的全局特征,并能够很好地综合点云数据的全局特征及局部特征,进而可有效提升点云数据的感知及识别效果。请参考图1,图1为本申请实施例所提供的一种点云数据识别方法的流程 图,该方法可以包括:
S101、获取单帧点云数据,并将单帧点云数据分割为预设数量的局部数据。
需要说明的是,本申请实施例并不限定单帧点云数据的具体采集设备,例如可采用机械旋转式激光雷达、混合式激光雷达或固态激光雷达进行采集;本申请实施例也不限定单帧点云数据中包含的数据点数量及其他采集参数,可根据实际应用需求进行设定。
在本申请的一些实施例中,为了对单帧点云数据中的局部特征进行有效提取,需要首先将单帧点云数据进行分割,得到预设数量的局部数据,其中预设数量可根据实际应用需求进行设定。需要说明的是,本申请实施例并不限定分割单帧点云数据的具体方式,例如可预先在单帧点云数据中划分出预设数量的预设区域,并依照该预设区域对单帧点云数据进行分割;当然也可以采用聚类的方式,将单帧点云数据中的数据点划分至预设数量的数据簇中,进而将这些数据簇设置为局部数据。在本申请的一些实施例中,为避免特殊分割方式对识别的影响,同时为避免预设区域对神经网络局部特征捕捉能力的限制,可采用上述聚类的方式对单帧点云数据进行分割,以采用自适应的方式进行局部数据提取。需要说明的是,本申请实施例并不限定具体的聚类方式,例如可采用K均值(K-Means)、均值偏移聚类算法等,可依照实际应用需求进行设定。考虑到K均值是较为常用的聚类算法,在本申请的一些实施例中可以将采用K均值对单帧点云数据进行分割。
需要说明的是,神经网络通常只能输入结构规范的数据,换而言之,可被神经网络接收的局部数据应当包含固定数量的数据点。然而,在采用聚类算法对单帧点云数据进行分割之后,得到的局部数据所包含的数据点数量并不固定,因此在完成分割之后,还需要对局部数据中的数据点进行移除或增加,以确保单帧点云数据对应的局部数据均可被神经网络处理。
在本申请的一些实施例中,将单帧点云数据分割为预设数量的局部数据,可以包括:
步骤11:利用K均值算法将单帧点云数据中的数据点划分至预设数量的数据簇中,得到局部数据;
步骤12:对每一局部数据包含的数据点数量进行统计;
步骤13:若数据点数量大于预设数据点数量,则对数据点数量对应的目标局部数据中的数据点进行随机移除,直至移除后的数据点数量等于预设数据点数量;
步骤14:若数据点数量小于预设数据点数量,则在目标局部数据中增加新数据点,直至增加后的数据点数量等于预设数据点数量。
需要说明的是,本申请实施例并不限定K均值算法的具体步骤,例如可包含聚类中心初始化、距离计算、点集确定及聚类中心迭代更新等步骤,可参考K均值的相关技术;本申请 实施例也不限定预设数据点数量的具体数值,可根据实际应用需求进行设定。
其中,当数据点数量大于预设数据点数量时,本申请实施例将会对局部数据中的数据点进行随机移除,能够有效减少因数据点移除而对局部特征造成的损失。
需要说明的是,本申请实施例并不限定当数据点数量小于预设数据点数量时,向局部数据中增加新数据点的方式,例如可不断向局部数据中填充零值(即无效数据);当然也可以采用插值法,对局部数据中原有的数据点进行插值得到新数据点,并将新数据点添加至局部数据中。在本申请的一些实施例中,为避免新增数据对局部数据原有特征的影响,可采用插值法对局部数据进行扩充。
在本申请的一些实施例中,在目标局部数据中增加新数据点,可以包括:
步骤21:利用插值法及目标局部数据中的数据点生成新数据点,并将新数据点添加至目标局部数据中。
S102、将局部数据并行输入至预设数量的PointNet++网络中,以使PointNet++网络提取局部数据对应的局部特征。
在本申请的一些实施例中,局部数据首先被并行输入至预设数量的PointNet++网络中进行特征提取,其中PointNet++网络是一种用于提取三维点云特征的神经网络,具有较强的局部特征提取性能。为便于理解,请参考图2,图2为本申请实施例所提供的一种神经网络整体框架图。从图中可知,局部数据与PointNet++网络之间的对应关系为一对一,即N’组局部数据再被并行输入至PointNet++模块之后,将被N’组PointNet++网络处理得到N’组局部特征。需要说明的是,本申请实施例并不限定PointNet++网络的具体结构,例如可包含MLP层(Multilayer Perceptron,多层感知机)、池化层(Pooling)等,也不限定该网络各层的具体功能,可参考PointNet++网络的相关技术。
在进行局部特征提取之前,PointNet++网络可对局部数据进行数据对齐操作。具体的,可预先构建一个小型子网络,并训练得到一个转换矩阵,通过该转换矩阵确保点云数据在3D(3Dimensions,三维)空间内的仿射变换不变性,即数据经过平移、旋转等操作不影响该神经网络对于环境的感知能力。
在本申请的一些实施例中,PointNet++网络提取局部数据对应的局部特征,可以包括:
步骤31:PointNet++网络利用预训练的转换矩阵对接收到的局部数据进行对齐,并提取对齐后的局部数据的局部特征。
在完成数据对齐后,PointNet++网络便可将局部数据传输至MLP层,通过数据的多级线性和非线性变换对点云数据进行特征提取,将原始数据的表达从几何空间转换为语义空间, 通过再一次的数据对齐和MLP操作,进一步抽象底层特征,最终经过数据的池化处理,获得该局部点云数据的高级特征表达形式,即得到局部特征。
S103、将所有局部数据输入至ViT网络中,以使ViT网络提取单帧点云数据的全局特征。
本申请实施例进一步会将单帧点云数据对应的所有局部数据输入至ViT网络中,以提取单帧点云数据的全局特征,其中ViT是一种基于自注意力体系的图像识别神经网络,其结构可参考图2,例如可包含归一化层、多头自注意力层及MLP层。该网络在处理局部数据的过程中,依据自注意力分数加权引入其他局部区域数据的影响,从而有利于该网络结构的全局特征捕获。需要说明的是,本申请实施例并不限定ViT网络各层的具体功能,可参考ViT网络的相关技术。应当指出的是,与局部特征不同,ViT网络仅会为单帧点云数据生成一份全局特征。
S104、融合局部特征和全局特征得到融合特征,并利用融合特征对单帧点云数据进行类型识别。
在得到局部特征及全局特征后,本申请实施例将对这两个特征进行融合得到融合特征,并利用融合特征进行类型识别。由于本申请实施例可利用更多特征信息对点云数据进行类型识别,因此能够有效提升点云数据的识别准确率。需要说明的是,本申请实施例并不限定如何对局部特征和全局特征进行融合,考虑到特征通常采用向量的形式进行表示,因此在本申请实施例中,可将局部特征对应的局部特征向量与全局特征对应的全局特征向量进行拼接,以得到融合特征。
在本申请的一些实施例中,融合局部特征和全局特征得到融合特征,可以包括:
步骤41:将局部特征对应的局部特征向量与全局特征对应的全局特征向量进行拼接,得到融合特征。
需要说明的是,本申请实施例并不限定具体的类型识别过程,也不限定单帧点云数据具体对应的预设类型,可根据实际应用需求进行设定。
基于上述实施例,本申请实施例会综合PointNet++网络和ViT网络进行点云数据的识别任务,在得到单帧点云数据时,会首先将该数据划分为预设数量的局部数据,并且并行输入至对应的PointNet++网络中进行局部特征提取,这是由于该网络在局部感知效果上具有性能优势,且可有效提升显卡内存利用率;此外,本申请实施例还会将所有局部数据输入至ViT网络中,以提取单帧点云数据的全局特征,这是由于ViT网络具有自注意力机制,在提取点云数据全局特征方面具有性能优势;进一步,本申请实施例会将得到的局部特征和全局特征进行融合,并利用融合后的融合特征对单帧点云数据进行类型识别,不仅能够弥补现有方式 难以有效提取点云数据全局特征的缺陷,同时还很好地综合了点云数据的全局特征及局部特征,进而能够有效提升点云数据的感知及识别效果。
基于上述实施例,下面将对上述网络的训练方式进行介绍。在本申请的一些实施例中,在获取单帧点云数据之前,还可以包括:
S201、获取点云训练集,并随机初始化PointNet++网络、ViT网络及类型识别过程中所需使用的模型权重;点云训练集中的单帧点云训练数据标注有对应的实际分类。
需要说明的是,本申请实施例并不限定点云训练集可包含的单帧点云训练数据的数量,也不限定这些单帧点云训练数据的采集时间、场景、反射率数值等,可根据实际应用需求进行设定。本申请实施例也不限定具体的实际分类,同样可根据实际应用需求进行设定。为方便训练集生成,在实际应用中,点云训练集还可按照预设比例从点云数据集中划分出来,例如将经过标注的点云数据拆分为训练集和测试集。以最简单的留出法为例,通过随机不放回采样的方式将4/5的数据用于训练,剩余1/5的数据用于测试。当然,具体的预设比例可依照实际应用需求进行设定。
本申请实施例并不限定PointNet++网络、ViT网络及类型识别过程中所需使用的模型权重,可参考相关技术。为启动训练过程,本申请实施例预先对这些模型权重进行了随机初始化,以随机设置这些模型权重的数值。
S202、将点云训练集中的每一单帧点云训练数据分割为预设数量的局部训练数据。
S203、将单帧点云训练数据对应的局部训练数据输入至PointNet++网络和ViT网络,并对PointNet++网络和ViT网络的输出结果进行融合,得到单帧点云训练数据的融合特征。
需要说明的是,对步骤S202、S203的描述与对步骤S101至S103的描述一致,可参考上述实施例,此处不再赘述。
S204、利用单帧点云训练数据的融合特征对单帧点云训练数据进行类型识别,并利用得到的预测分类及单帧点云训练数据的实际分类计算损失值。
为便于说明,下面将以特定分类数量进行介绍。在本申请的一些实施例中,假定预设的实际分类数量为4个,将神经网络的输出结果中第m帧点云数据第i个点在第k个类别的得分表示为ymik,通过softmax函数将该分数映射到一个0~1区间的数值,将神经网络的输出结果转化为第m帧点云数据第i个点在第k个类别的概率
其中exp(·)表示指数函数。点云训练集包含的点云数据样本数为Mtrain,第m帧点云 数据中包含的数据点个数为Nm个,则定义损失函数L为:
其中,为一个符号函数,若第m帧点云数据第i个点在第k个类别与其真实的类别(即实际类别ymi_actual)相同时,则该符号函数的函数值为1,否则为0。利用上述损失函数L及单帧点云训练数据的预测分类和实际分类,便可计算出本轮训练中网络的损失值。
S205、利用梯度下降法及损失值对模型权重进行迭代更新,并进入将单帧点云训练数据对应的局部训练数据输入至PointNet++网络和ViT网络的步骤,直至迭代次数到达预设上限或损失值小于预设阈值。
具体的,可采用梯度下降优化算法(GradientDescent)对神经网络进行迭代训练,并按照如下公式对参数进行迭代优化,其中θt表示第t轮的模型权重,η表示超参数,表示损失函数L的梯度值。
迭代训练应当设置退出条件。在本申请的一些实施例中,上述迭代训练可在迭代次数到达预设上限或是损失值小于预设阈值时退出。本申请实施例并不限定具体的预设上限和预设阈值,可根据实际应用需求进行设定。
在完成训练之后,还可利用测试数据集对神经网络的识别效果进行验证。具体的,设测试集中包含的点云数据样本数为Mtest,其中第m帧点云数据第i个点在第k个类别的概率最大值对应的k为第m帧点云数据第i个点的预测类别对应的人工标注真实类别为ymi_actual,则定义预测准确率accuracy为:
其中,为一个符号函数,当时函数值为1,否则为0。
下面对本申请实施例提供的点云数据识别装置、电子设备及计算机非易失性可读存储介质进行介绍,下文描述的点云数据识别装置、电子设备及计算机非易失性可读存储介质与上文描述的点云数据识别方法可相互对应参照。
请参考图3,图3为本申请实施例所提供的一种点云数据识别装置的结构框图,该装置可以包括:
获取及分割模块301,用于获取单帧点云数据,并将单帧点云数据分割为预设数量的局部数据;
第一输入模块302,用于将局部数据并行输入至预设数量的PointNet++网络中,以使 PointNet++网络提取局部数据对应的局部特征;
第二输入模块303,用于将所有局部数据输入至ViT网络中,以使ViT网络提取单帧点云数据的全局特征;
融合及识别模块304,用于融合局部特征和全局特征得到融合特征,并利用融合特征对单帧点云数据进行类型识别。
在本申请的一些实施例中,获取及分割模块301,可以包括:
划分子模块,用于利用K均值算法将单帧点云数据中的数据点划分至预设数量的数据簇中,得到局部数据;
统计子模块,用于对每一局部数据包含的数据点数量进行统计;
移除子模块,用于若数据点数量大于预设数据点数量,则对数据点数量对应的目标局部数据中的数据点进行随机移除,直至移除后的数据点数量等于预设数据点数量;
增加子模块,用于若数据点数量小于预设数据点数量,则在目标局部数据中增加新数据点,直至增加后的数据点数量等于预设数据点数量。
在本申请的一些实施例中,增加子模块,可以包括:
插值单元,用于利用插值法及目标局部数据中的数据点生成新数据点,并将新数据点添加至目标局部数据中。
在本申请的一些实施例中,融合及识别模块304,可以包括:
融合子模块,用于将局部特征对应的局部特征向量与全局特征对应的全局特征向量进行拼接,得到融合特征。
在本申请的一些实施例中,第一输入模块302,可以包括:
PointNet++训练模块,用于PointNet++网络利用预训练的转换矩阵对接收到的局部数据进行对齐,并提取对齐后的局部数据的局部特征。
在本申请的一些实施例中,该装置还可以包括:
训练初始化模块,用于获取点云训练集,并随机初始化PointNet++网络、ViT网络及类型识别过程中所需使用的模型权重;点云训练集中的单帧点云训练数据标注有对应的实际分类;
训练数据分割模块,用于将点云训练集中的每一单帧点云训练数据分割为预设数量的局部训练数据;
训练数据输入模块,用于将单帧点云训练数据对应的局部训练数据输入至PointNet++网络和ViT网络,并对PointNet++网络和ViT网络的输出结果进行融合,得到单帧点云训练数据 的融合特征;
识别及损失值计算模块,用于利用单帧点云训练数据的融合特征对单帧点云训练数据进行类型识别,并利用得到的预测分类及单帧点云训练数据的实际分类计算损失值;
更新模块,用于利用梯度下降法及损失值对模型权重进行迭代更新,并进入将单帧点云训练数据对应的局部训练数据输入至PointNet++网络和ViT网络的步骤,直至迭代次数到达预设上限或损失值小于预设阈值。
本申请实施例还提供一种电子设备,包括:
如图4所示的存储器402,用于存储计算机程序;
处理器401,用于执行计算机程序时实现如上述的点云数据识别方法的步骤。
由于电子设备部分的实施例与点云数据识别方法部分的实施例相互对应,因此电子设备部分的实施例请参见点云数据识别方法部分的实施例的描述,这里不再赘述。
本申请实施例还提供一种计算机非易失性可读存储介质,如图5所示,计算机非易失性可读存储介质5上存储有计算机程序51,计算机程序51被处理器执行时实现上述任意实施例的点云数据识别方法的步骤。
由于计算机非易失性可读存储介质部分的实施例与点云数据识别方法部分的实施例相互对应,因此存储介质部分的实施例请参见点云数据识别方法部分的实施例的描述,这里不再赘述。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软 件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种点云数据识别方法、装置、电子设备及计算机非易失性可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。

Claims (20)

  1. 一种点云数据识别方法,其特征在于,包括:
    获取单帧点云数据,并将所述单帧点云数据分割为预设数量的局部数据;
    将所述局部数据并行输入至所述预设数量的PointNet++网络中,以使所述PointNet++网络提取所述局部数据对应的局部特征;
    将所有所述局部数据输入至ViT网络中,以使所述ViT网络提取所述单帧点云数据的全局特征;
    融合所述局部特征和所述全局特征得到融合特征,并利用所述融合特征对所述单帧点云数据进行类型识别。
  2. 根据权利要求1所述的点云数据识别方法,其特征在于,所述将所述单帧点云数据分割为预设数量的局部数据,包括:
    利用聚类算法将所述单帧点云数据中的数据点划分至所述预设数量的数据簇中,得到所述局部数据;
    对每一所述局部数据包含的数据点数量进行统计;
    若所述数据点数量大于预设数据点数量,则对所述数据点数量对应的目标局部数据中的数据点进行随机移除,直至移除后的数据点数量等于所述预设数据点数量;
    若所述数据点数量小于所述预设数据点数量,则在所述目标局部数据中增加新数据点,直至增加后的数据点数量等于所述预设数据点数量。
  3. 根据权利要求2所述的点云数据识别方法,其特征在于,所述聚类算法包括K均值算法、均值偏移聚类算法。
  4. 根据权利要求2所述的点云数据识别方法,其特征在于,所述在所述目标局部数据中增加新数据点,包括:
    利用插值法及所述目标局部数据中的数据点生成所述新数据点,并将所述新数据点添加至所述目标局部数据中。
  5. 根据权利要求2所述的点云数据识别方法,其特征在于,所述新数据包括无效数据;所述在所述目标局部数据中增加新数据点,包括:
    向所述目标局部数据中填充无效数据;所述无效数据包括零值。
  6. 根据权利要求1所述的点云数据识别方法,其特征在于,所述融合所述局部特征和所述全局特征得到融合特征,包括:
    将所述局部特征对应的局部特征向量与所述全局特征对应的全局特征向量进行拼接,得到所述融合特征。
  7. 根据权利要求1所述的点云数据识别方法,其特征在于,所述PointNet++网络提取所述局部数据对应的局部特征,包括:
    所述PointNet++网络利用预训练的转换矩阵对接收到的局部数据进行对齐,并提取对齐后的局部数据的局部特征。
  8. 根据权利要求7所述的点云数据识别方法,其特征在于,所述提取对齐后的局部数据的局部特征,包括:
    对所述对齐后的局部数据进行特征提取,得到抽象后的底层特征;
    对所述底层特征进行池化处理,得到局部特征。
  9. 根据权利要求8所述的点云数据识别方法,其特征在于,所述PointNet++网络包含MLP层;所述对所述对齐后的局部数据进行特征提取,得到抽象后的底层特征,包括:
    将所述对齐后的局部数据输入至所述MLP层,通过所述MLP层对所述局部数据进行多级线性和非线性变换操作,将所述局部数据的表达从几何空间转换为语义空间;
    将进行表达转换的局部数据再次进行数据对齐操作以及MLP层操作,得到抽象后的底层特征。
  10. 根据权利要求8所述的点云数据识别方式,其特征在于,所述PointNet++网络包含池化层;所述对所述底层特征进行池化处理,得到局部特征;所述局部特征为所述局部数据的高级特征表达形式,包括:
    通过所述池化层对底层特征进行池化处理,得到局部特征;所述局部特征为所述局部数据的高级特征表达形式。
  11. 根据权利要求7所述的点云数据识别方法,其特征在于,所述局部数据包括多组局部数据,其中,所述局部数据与PointNet++网络之间的对应关系为一对一;
    所述PointNet++网络提取所述局部数据对应的局部特征,包括:
    获取与所述多组局部数据一一对应的多组PointNet++网络,所述多组PointNet++网络对所述多组局部数据处理得到多组局部特征。
  12. 根据权利要求1所述的点云数据识别方法,其特征在于,所述ViT网络提取所述单帧点云数据的全局特征,包括:
    所述ViT网络依据自注意力分数加权引入其他局部区域数据的影响,进行对所述单帧点云数据的全局特征的捕获。
  13. 根据权利要求1所述的点云数据识别方法,其特征在于,所述获取单帧点云数据包括:
    获取采集设备和采集参数;所述采集设备包括机械旋转式激光雷达、混合式激光雷达或固态激光雷达;
    采用所述采集设备,基于所述采集参数对单帧点云数据进行采集。
  14. 根据权利要求1至7任一项所述的点云数据识别方法,其特征在于,在获取单帧点云数据之前,还包括:
    获取点云训练集,并随机初始化所述PointNet++网络、所述ViT网络及所述类型识别过程中所需使用的模型权重;所述点云训练集中的单帧点云训练数据标注有对应的实际分类;
    将所述点云训练集中的每一所述单帧点云训练数据分割为所述预设数量的局部训练数据;
    将所述单帧点云训练数据对应的局部训练数据输入至所述PointNet++网络和所述ViT网络,并对所述PointNet++网络和所述ViT网络的输出结果进行融合,得到所述单帧点云训练数据的融合特征;
    利用所述单帧点云训练数据的融合特征对所述单帧点云训练数据进行类型识别,并利用得到的预测分类及所述单帧点云训练数据的实际分类计算损失值;
    利用梯度下降法及所述损失值对所述模型权重进行迭代更新,并进入将所述单帧点云训练数据对应的局部训练数据输入至所述PointNet++网络和所述ViT网络的步骤,直至迭代次数到达预设上限或所述损失值小于预设阈值。
  15. 根据权利要求14所述的方法,其特征在于,所述获取点云训练集,包括:
    按照预设比例从点云数据集中将标注的点云数据划分得到点云训练集。
  16. 根据权利要求1至7任一项所述的点云数据识别方法,其特征在于,所述点云数据识别方法应用于执行无人驾驶领域的目标识别任务。
  17. 一种点云数据识别装置,其特征在于,包括:
    获取及分割模块,用于获取单帧点云数据,并将所述单帧点云数据分割为预设数量的局部数据;
    第一输入模块,用于将所述局部数据并行输入至所述预设数量的PointNet++网络中,以使所述PointNet++网络提取所述局部数据对应的局部特征;
    第二输入模块,用于将所有所述局部数据输入至ViT网络中,以使所述ViT网络提取所述单帧点云数据的全局特征;
    融合及识别模块,用于融合所述局部特征和所述全局特征得到融合特征,并利用所 述融合特征对所述单帧点云数据进行类型识别。
  18. 根据权利要求17所述的点云数据识别装置,其特征在于,所述获取及分割模块,包括:
    划分子模块,用于利用聚类算法将所述单帧点云数据中的数据点划分至所述预设数量的数据簇中,得到所述局部数据;其中,所述聚类算法包括K均值算法、均值偏移聚类算法;
    统计子模块,用于对每一所述局部数据包含的数据点数量进行统计;
    移除子模块,用于若所述数据点数量大于预设数据点数量,则对所述数据点数量对应的目标局部数据中的数据点进行随机移除,直至移除后的数据点数量等于所述预设数据点数量;
    增加子模块,用于若所述数据点数量小于所述预设数据点数量,则在所述目标局部数据中增加新数据点,直至增加后的数据点数量等于所述预设数据点数量。
  19. 一种电子设备,其特征在于,包括:
    存储器,用于存储计算机程序;
    处理器,用于执行所述计算机程序时实现如权利要求1至16任一项所述点云数据识别方法。
  20. 一种计算机非易失性可读存储介质,其特征在于,所述计算机非易失性可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如权利要求1至16任一项所述点云数据识别方法。
PCT/CN2023/081972 2022-03-28 2023-03-16 一种点云数据识别方法、装置、电子设备及存储介质 WO2023185494A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210308663.4A CN114419570B (zh) 2022-03-28 2022-03-28 一种点云数据识别方法、装置、电子设备及存储介质
CN202210308663.4 2022-03-28

Publications (1)

Publication Number Publication Date
WO2023185494A1 true WO2023185494A1 (zh) 2023-10-05

Family

ID=81263029

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2023/081972 WO2023185494A1 (zh) 2022-03-28 2023-03-16 一种点云数据识别方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN114419570B (zh)
WO (1) WO2023185494A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649530A (zh) * 2024-01-30 2024-03-05 武汉理工大学 基于语义级拓扑结构的点云特征提取方法、系统及设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419570B (zh) * 2022-03-28 2023-04-07 苏州浪潮智能科技有限公司 一种点云数据识别方法、装置、电子设备及存储介质
CN115311274B (zh) * 2022-10-11 2022-12-23 四川路桥华东建设有限责任公司 一种基于空间变换自注意力模块的焊缝检测方法及系统
CN116523979B (zh) * 2023-04-24 2024-01-30 北京长木谷医疗科技股份有限公司 基于深度学习的点云配准方法、装置及电子设备
CN116824188B (zh) * 2023-06-05 2024-04-09 腾晖科技建筑智能(深圳)有限公司 一种基于多神经网络集成学习的吊物类型识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680542A (zh) * 2020-04-17 2020-09-18 东南大学 基于多尺度特征提取和Pointnet神经网络的钢卷点云识别与分类方法
CN112488210A (zh) * 2020-12-02 2021-03-12 北京工业大学 一种基于图卷积神经网络的三维点云自动分类方法
CN112907602A (zh) * 2021-01-28 2021-06-04 中北大学 一种基于改进k-近邻算法的三维场景点云分割方法
CN113239981A (zh) * 2021-04-23 2021-08-10 中国科学院大学 局部特征耦合全局表征的图像分类方法
US11222217B1 (en) * 2020-08-14 2022-01-11 Tsinghua University Detection method using fusion network based on attention mechanism, and terminal device
CN114419570A (zh) * 2022-03-28 2022-04-29 苏州浪潮智能科技有限公司 一种点云数据识别方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321920B (zh) * 2019-05-08 2021-10-22 腾讯科技(深圳)有限公司 图像分类方法、装置、计算机可读存储介质和计算机设备
CN111489358B (zh) * 2020-03-18 2022-06-14 华中科技大学 一种基于深度学习的三维点云语义分割方法
US20220036564A1 (en) * 2020-08-03 2022-02-03 Korea Advanced Institute Of Science And Technology Method of classifying lesion of chest x-ray radiograph based on data normalization and local patch and apparatus thereof
CN113378792B (zh) * 2021-07-09 2022-08-02 合肥工业大学 融合全局和局部信息的弱监督宫颈细胞图像分析方法
CN114170411A (zh) * 2021-12-06 2022-03-11 国能大渡河大岗山发电有限公司 一种融合多尺度信息的图片情感识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680542A (zh) * 2020-04-17 2020-09-18 东南大学 基于多尺度特征提取和Pointnet神经网络的钢卷点云识别与分类方法
US11222217B1 (en) * 2020-08-14 2022-01-11 Tsinghua University Detection method using fusion network based on attention mechanism, and terminal device
CN112488210A (zh) * 2020-12-02 2021-03-12 北京工业大学 一种基于图卷积神经网络的三维点云自动分类方法
CN112907602A (zh) * 2021-01-28 2021-06-04 中北大学 一种基于改进k-近邻算法的三维场景点云分割方法
CN113239981A (zh) * 2021-04-23 2021-08-10 中国科学院大学 局部特征耦合全局表征的图像分类方法
CN114419570A (zh) * 2022-03-28 2022-04-29 苏州浪潮智能科技有限公司 一种点云数据识别方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649530A (zh) * 2024-01-30 2024-03-05 武汉理工大学 基于语义级拓扑结构的点云特征提取方法、系统及设备
CN117649530B (zh) * 2024-01-30 2024-04-23 武汉理工大学 基于语义级拓扑结构的点云特征提取方法、系统及设备

Also Published As

Publication number Publication date
CN114419570A (zh) 2022-04-29
CN114419570B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
WO2023185494A1 (zh) 一种点云数据识别方法、装置、电子设备及存储介质
Wang et al. SaliencyGAN: Deep learning semisupervised salient object detection in the fog of IoT
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN111368685B (zh) 关键点的识别方法、装置、可读介质和电子设备
CN111062871B (zh) 一种图像处理方法、装置、计算机设备及可读存储介质
CN112184508B (zh) 一种用于图像处理的学生模型的训练方法及装置
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
EP4030348A1 (en) Neural network training method, data processing method, and related apparatuses
CN110569814B (zh) 视频类别识别方法、装置、计算机设备及计算机存储介质
JP7425147B2 (ja) 画像処理方法、テキスト認識方法及び装置
CN111680678B (zh) 目标区域识别方法、装置、设备及可读存储介质
CN111951154B (zh) 包含背景和介质的图片的生成方法及装置
CN111027576A (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
Gao et al. Counting dense objects in remote sensing images
JP2024513596A (ja) 画像処理方法および装置、ならびにコンピュータ可読ストレージ媒体
CN110852295A (zh) 一种基于多任务监督学习的视频行为识别方法
CN114612987A (zh) 一种表情识别方法及装置
CN115546549A (zh) 点云分类模型构建方法、点云分类方法、装置及设备
Niu et al. Boundary-aware RGBD salient object detection with cross-modal feature sampling
CN110135428B (zh) 图像分割处理方法和装置
WO2019037863A1 (en) SYSTEM AND METHOD FOR TAG INCREASE IN VIDEO DATA
CN114913330B (zh) 点云部件分割方法、装置、电子设备与存储介质
CN117036843A (zh) 目标检测模型训练方法、目标检测方法和装置
CN114596435A (zh) 语义分割标签的生成方法、装置、设备及存储介质
Pasqualino et al. A multi camera unsupervised domain adaptation pipeline for object detection in cultural sites through adversarial learning and self-training

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23777869

Country of ref document: EP

Kind code of ref document: A1