CN116386042A - 一种基于三维池化空间注意力机制的点云语义分割模型 - Google Patents
一种基于三维池化空间注意力机制的点云语义分割模型 Download PDFInfo
- Publication number
- CN116386042A CN116386042A CN202310307905.2A CN202310307905A CN116386042A CN 116386042 A CN116386042 A CN 116386042A CN 202310307905 A CN202310307905 A CN 202310307905A CN 116386042 A CN116386042 A CN 116386042A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- model
- point
- dimensional
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 46
- 238000011176 pooling Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 238000005070 sampling Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 abstract description 3
- 238000003062 neural network model Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于三维池化空间注意力机制的点云语义分割模型。本发明包括以下步骤:1、模型建立,设计一种基于三维池化空间注意力机制的点云语义分割模型,通过注意力机制学习三维空间中点云之间的关联性以及通过捕获局部邻域点云特征进一步捕获丰富的上下文三维空间语义信息。2、模型训练,首先对数据集预处理,然后输入到三维池化空间注意力机制的点云语义分割模型进行模型训练。3、模型推理,将测试集的点云数据输入到训练好的模型中,推理测试点云的语义类别预测值,评估预测准确度。本发明是一种针对点云语义分割的神经网络模型,特别是提出了一种三维池化空间注意力机制提取三维空间中点云与相邻点云之间的关联性的建模方法,获得了在三维点云语义分割领域较好的分割效果。
Description
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于三维池化空间注意力机制的点云语义分割网络模型。
背景技术
点云语义分割是计算机视觉的一个基础问题,广泛应用于自动驾驶、智能机器人、人机交互等等领域的场景理解。点云语义分割技术是将三维空间中具有相似语义信息的点给予一致的标签,解释不同的语义类别。例如,在自动驾驶场景中我们需要区分三维空间中属于汽车的所有点,并把这些点标记为一个语义类别。
传统的点云语义分割是通过数学方法,如三维几何的空间分布和直方图统计等,得到相应的特征,然后构建相应的模型,如随机森林(Random Forest)和条件随机场(Conditional Random Field)。传统方法在处理大数量的点云数据任务时,对点云数据处理速度缓慢。
近年来伴随着深度学习的不断发展,采用深度学习方法处理点云数据的分类和语义分割越来越受欢迎。如PointNet(Deep Learning on Point Sets for 3DClassification and Segmentation)直接对点云数据进行处理的方式成为计算机视觉方向上的主流研究方法。在点云的语义分割中,设计深度网络模型实现对点云数据的建模,分割的准确率得到了明显的提升,相较于二维图像的语义分割方法分割性能得到了大大的提升。
目前基于深度学习的点云语义分割的主要方法:(1)将点云映射成多个视角二维图像然后使用二维图像深度学习方法进行分类和分割,实现了对三维点云的分类和分割。但采用多个视角的图像,存在数据冗余和角度选取等问题,且并没有真正利用三维数据的结构信息;(2)直接将点云数据输入至网络模型进行处理,可以获得三维点云在空间上的位置信息,利用位置信息完成分类和分割任务,但未考虑到空间上点与其他点的相关性,提取的特征不够全面,在实际的应用场景中分割效果差。
因此,有必要设计一套高效的易于实现的点云语义分割深度网络模型。
发明内容
本发明提供一种基于三维池化空间注意力机制的点云语义分割模型的构建方法,该基于三维池化空间注意力模型效率高,易于实现。
发明的技术解决方案如下:
一种基于三维池化空间注意力机制的点云语义分割模型,其特征在于,包括数据预处理、模型的建立、模型的训练和验证;
数据预处理主要是对点云数据集进行点的筛选,得到点云集合P,对应的真实标签GT,构成训练集、测试集,为模型训练与测试提供数据基础;
模型的建立是通过分析点云数据的属性,设计具体的子模块,构建端到端的点云语义分割深度网络模型;
模型的训练和验证是确定所建立的模型的参数,并且验证所设计模型的分割效果;
基于三维池化空间注意力机制的点云语义分割模型按照以下步骤展开:
步骤1:模型建立;
步骤2:模型训练;
步骤3:模型推理。
步骤1中,具体设计一种基于三维池化空间注意力机制的点云语义分割模型,通过三维池化空间注意力机制学习三维空间中点与相邻点之间的关联性及构建局部邻域特征进一步捕获丰富的三维空间上下文信息,进而增强网络模型的分割准确性;
首先,对点云数据进行点的选取,通过最远点采样方法选取出有M个点的集合P;
然后,通过SA1、SA2、SA3模块提取局部点云特征,并对点云进行降维;再通过FP1、FP2、FP3模块对点云进行升维,并融合SA1、SA2、SA3模块输出的局部点云特征,得到局部点云特征其中Bn为批量处理大小,C为点云的特征通道维度,M为点云的数量;
步骤2中,首先对点云数据集进行预处理操作,对点云数据进行随机平移、随机旋转,对点云数据集采用最远点采样方法进行点的筛选,得到具有M个点的集合P;
然后对步骤1建立的三维池化空间注意力机制的点云语义分割模型进行训练,将点云集合P通过SA1、SA2、SA3、FP1、FP2、FP3模块、三维池化空间注意力PSAM子模块得到点云特征再经MLP层进行点云语义分割类别预测,将得到的预测值Z与真实值GT进行交叉熵运算,度量预测值与真实值的误差;通过反向传播对步骤1定义的网络模型参数进行迭代优化训练,训练到模型收敛为止;
步骤3中,将测试集的点云数据输入到训练好的模型中,推测测试点云数据的语义类别预测值,计算测试预测值与真实值的平均交并比MIoU,评估预测准确度;
步骤1所述的三维池化空间注意力机制的点云语义分割模型建立具体过程如下:
首先,对点云数据进行点的筛选,通过最远点采样方法选取具有M个点的集合P;
然后,通过SA1、SA2、SA3模块提取局部点云特征,并对点云进行降维;再通过FP1、FP2、FP3模块对点云进行升维,并融合SA1、SA2、SA3模块输出的局部点云特征,得到局部点云特征其中Bn为批量处理大小,C为点云的特征通道数,M为点云的数量;
最后,在得到局部点云特征G后,建立三维池化空间注意力模型PSAM;
其中,建立三维池化空间注意力模型PSAM,其特征在于包括以下操作:
①提取局部邻域特征:
a=MLP(G),b=MLP(G),c=MLP(G) (1)
其中MLP是一维的1×1卷积;
②计算点与其相邻点在三维空间中的关联性:
对特征信息a和b采用自适应最大池化操作进行指定维度大小的降维,得到局部点云特征:
A=AdaptiveMaxpool(a),B=AdaptiveMaxpool(b) (2)
然后,对局部特征A和B采用clustering操作来聚合一个点在三维空间上相邻点的相似度,即计算空间上一个点自身的特征信息和该点与三维空间中其他所有点之间的关联性;其中clustering操作具体过程如下:
③计算增强的点云特征Q:
collection(H,c)=Hh×ch+Sq(Hw·cw) (4)
步骤2所述的模型训练具体过程如下:
输入点云集合P,通过SA1、SA2、SA3、FP1、FP2、FP3模块进行局部特征提取,然后利用三维池化空间注意力子模块得到点云特征Q,最后通过一个MLP层进行点云语义分割预测,得到预测结果Z,计算测试预测值与真实值的平均交并比(MIoU),评估预测准确度,平均交并比的运算公式如下所示:
其中K是训练集和测试集的类别数,pij是类别为i的像素被预测为类别为j的数量,pii是正确分类的像素的数量。
本发明有益效果如下:
本发明提出的方法在针对点云语义分割的问题上相较于其他算法提高了精度。具体表现为:1)相对于以住一些网络模型本发明提出的模型比较容易实现;2)本发明的网络参数较少,轻量化了网络,有效地降低了模型训练的时间;3)本方法能够很方便的应用到实际场景任务中,具有通用性。
附图说明
图1为本发明的模型总结构图。
图2为本发明的三维池化空间注意力模型(PSAM)。
图3为本发明的模型在公开数据集上进行验证时的可视化结果。
图4为本发明的模型在实际场景中进行点云语义分割的可视化结果。
具体实施方式
为了使本发明的目的及技术方案更加清楚明白,以下结合附图和实施例,对本发明的应用原理作详细的描述。但本发明的保护范围并不限于以下具体实施例。
除非另有定义,下文中所使用的所有专业术语与本领域技术人员通常理解含义相同。本文中所使用的专业术语只是为了描述具体实施例的目的,并不是旨在限制本发明的保护范围。
实施例1:
如图1图2所示,本发明提供一种基于三维池化空间注意力机制的点云语义分割模型具体步骤如下:
步骤1所述的模型建立具体如下:
此发明采用S3DIS数据集,其中此数据集包含13个类别,作为训练和测试数据;
首先,使用最远点采样方法选取具有M=4096个点的点云集合P,具体过程为:
①输入点云有N个点,从点云中选取一个点I0作为起始点,得到采样点集合S={I0};
②用数组L记录所有N个点到采样点集合S中所有点的最小距离,则此时赋值为所有点到I0的距离;从中选取最大值对应的点I1加入采样点集合S={I0,I1};
③计算所有点到I1的距离,若该距离小于L[i]则赋值给L[i],这样数组L[i]就始终保持②中所说记录所有N个点到采样点集合S中所有点的最小距离;从中选取最大值对应的点I2加入采样点集合S={I0,I1,I2};
④重复②-③,直到完成M=4096个点的采样;
其中,SA模块具体操作如下:SA模块由Sample&Grouping子模块与PointNet子模块组成;Sample子模块即使用最远点采样算法对输入的点集合中采样特定数量的点,Grouping子模块即将Sample采样的点作为中心,以指定半径范围内,采样一定数量的相邻点;PointNet子模块即对Sample&Grouping模块划分的空间邻域的点进行特征提取,学习局部区域的点集特征;
FP模块具体操作如下:FP模块由IDW插值算法与PointNet子模块组成,IDW插值算法通过利用深层网络中每个点的特征信息,计算浅层网络中每个点的插值特征,PointNet子模块与SA中PointNet子模块作用类似,与其不同的是输入FP模块中PointNet子模块的特征进行了归一化处理;
最后,将局部点云特征G输入到三维池化空间注意力模块PSAM,增强点云之间的关联性;
其中,建立三维池化空间注意力模型PSAM,其特征在于包括以下操作:
①提取局部邻域特征:
a=MLP(G),b=MLP(G),c=MLP(G) (6)
其中MLP是一维的1×1卷积;
②计算点与其相邻点在三维空间中的关联性:
对特征信息a和b采用自适应最大池化操作进行指定维度大小的降维,得到局部点云特征:
A=AdaptiveMaxpool(a),B=AdaptiveMaxpool(b) (7)
然后,对局部特征A和B采用clustering操作来聚合一个点在三维空间上相邻点的相似度,即计算空间上一个点自身的特征信息和该点与三维空间中其他所有点之间的关联性;其中clustering操作具体过程如下:
③计算增强的点云特征Q:
collection(H,c)=Hh×ch+Sq(Hw·cw) (9)
至此完成模型建立的操作。
步骤2所述模型训练,具体如下:
对步骤1建立的模型进行训练,将点云集合P通过SA1、SA2、SA3、FP1、FP2、FP3模块、三维池化空间注意力PSAM子模块得到点云特征Q,再通过一个MLP层进行点云语义分割类别预测,将得到的预测值Z与真实值GT进行交叉熵运算,度量预测值与真实值的误差;通过反向传播对步骤1定义的网络模型参数进行迭代优化训练,训练到模型收敛为止;
至此完成模型训练的操作。
步骤3所述模型推理,具体如下:
在步骤2训练完成模型以后,固定模型参数,输入测试集的点云数据得到测试预测值,推理测试点云的语义类别预测值,计算测试预测值与真实值的平均交并比,评估预测准确度。
至此完成模型推理的操作。
下表为本发明所述的方法在S3DIS中的准确度。PointNet作为基于深度学习的点云语义分割开篇之作,Our为本发明所提供的深度模型,Ceiling,Floor表示数据集中待语义分割的类别物,采用平均交并比(MIoU)评估点云语义分割的平均准确度。
Claims (2)
1.一种基于三维池化空间注意力机制的点云语义分割模型的构建方法,其特征在于包括以下步骤:
步骤1:模型建立;
具体设计一种基于三维池化空间注意力机制的点云语义分割模型,在模型中通过注意力机制学习三维空间中点与点之间的关联性并获取局部邻域特征信息,进而增强网络模型的分割准确性;
首先,对点云数据进行点的筛选,通过最远点采样方法选取具有M个点的集合P;
然后,通过1SA1、SA2、SA3模块提取局部点云特征,并对点云进行降维;再通过FP1、FP2、FP3模块对点云进行升维,并融合SA1、SA2、SA3模块输出的局部点云特征,得到局部点云特征其中Bn为批量处理大小,C为点云的特征通道数,M为点云的数量;
其中,建立三维池化空间注意力模型PSAM,其特征在于包括以下操作:
①提取局部邻域特征:
a=MLP(G),b=MLP(G),c=MLP(G) (1)其中MLP是一维的1×1卷积;
11②计算点与其相邻点在三维空间中的关联性:
1对特征信息a和b采用自适应最大池化操作进行指定维度大小的降维,得到局部点云特征:
A=AdaptiveMaxpool(a),B=AdaptiveMaxpool(b) (2)
然后,对局部特征A和B采用clustering操作来聚合一个点在三维空间上相邻点的相似度,即计算空间上一个点自身的特征信息和该点与三维空间中其他所有点之间的关联性;其中clustering操作具体过程如下:
③计算增强的点云特征Q:
步骤2:模型训练;
对步骤1所建立的模型进行训练,训练到整个模型收敛为止;
步骤3:模型推理;
将测试集的点云数据输入到训练好的模型中,推理测试点云数据的语义类别预测值,评估预测准确度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310307905.2A CN116386042A (zh) | 2023-03-24 | 2023-03-24 | 一种基于三维池化空间注意力机制的点云语义分割模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310307905.2A CN116386042A (zh) | 2023-03-24 | 2023-03-24 | 一种基于三维池化空间注意力机制的点云语义分割模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116386042A true CN116386042A (zh) | 2023-07-04 |
Family
ID=86965016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310307905.2A Pending CN116386042A (zh) | 2023-03-24 | 2023-03-24 | 一种基于三维池化空间注意力机制的点云语义分割模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116386042A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117351212A (zh) * | 2023-11-30 | 2024-01-05 | 湘潭大学 | 一种基于双向多尺度注意力的水利环境下的点云分割方法 |
-
2023
- 2023-03-24 CN CN202310307905.2A patent/CN116386042A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117351212A (zh) * | 2023-11-30 | 2024-01-05 | 湘潭大学 | 一种基于双向多尺度注意力的水利环境下的点云分割方法 |
CN117351212B (zh) * | 2023-11-30 | 2024-03-01 | 湘潭大学 | 一种基于双向多尺度注意力的水利环境下的点云分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111489358B (zh) | 一种基于深度学习的三维点云语义分割方法 | |
CN111242208B (zh) | 一种点云分类方法、分割方法及相关设备 | |
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN106547880B (zh) | 一种融合地理区域知识的多维度地理场景识别方法 | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
CN111310861A (zh) | 一种基于深度神经网络的车牌识别和定位方法 | |
CN112907602B (zh) | 一种基于改进k-近邻算法的三维场景点云分割方法 | |
CN112529015A (zh) | 一种基于几何解缠的三维点云处理方法、装置及设备 | |
CN110929696A (zh) | 一种基于多模态注意与自适应融合的遥感图像语义分割方法 | |
CN114972213A (zh) | 一种基于机器视觉的两阶段主板图像缺陷检测及定位方法 | |
CN109299303B (zh) | 基于可变形卷积与深度网络的手绘草图检索方法 | |
CN112489081A (zh) | 一种视觉目标跟踪方法及装置 | |
CN110334584B (zh) | 一种基于区域全卷积网络的手势识别方法 | |
CN112861575A (zh) | 一种行人结构化方法、装置、设备和存储介质 | |
CN117252904B (zh) | 基于长程空间感知与通道增强的目标跟踪方法与系统 | |
CN115311502A (zh) | 基于多尺度双流架构的遥感图像小样本场景分类方法 | |
CN110490915B (zh) | 一种基于卷积受限玻尔兹曼机的点云配准方法 | |
CN116386042A (zh) | 一种基于三维池化空间注意力机制的点云语义分割模型 | |
CN114548253A (zh) | 一种基于图像识别及动态匹配的数字孪生模型构建系统 | |
CN114358246A (zh) | 三维点云场景的注意力机制的图卷积神经网络模块 | |
CN113780305B (zh) | 一种基于两种线索交互的显著性目标检测方法 | |
Li et al. | Few-shot meta-learning on point cloud for semantic segmentation | |
CN115471833A (zh) | 一种动态局部自注意力卷积网络点云分析系统及方法 | |
CN112365456A (zh) | 基于三维点云数据的变电站设备分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |