CN112819080A - 一种高精度通用的三维点云识别方法 - Google Patents
一种高精度通用的三维点云识别方法 Download PDFInfo
- Publication number
- CN112819080A CN112819080A CN202110163721.4A CN202110163721A CN112819080A CN 112819080 A CN112819080 A CN 112819080A CN 202110163721 A CN202110163721 A CN 202110163721A CN 112819080 A CN112819080 A CN 112819080A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- features
- representation
- feature
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000009466 transformation Effects 0.000 claims abstract description 28
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 238000005457 optimization Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims abstract description 4
- 230000002776 aggregation Effects 0.000 claims abstract 2
- 238000004220 aggregation Methods 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 14
- 238000000844 transformation Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- QIQWRCNAPQJQLL-COALEZEGSA-N (z)-but-2-enedioic acid;5-[(1r,2r)-2-(5,5-dimethylhex-1-ynyl)cyclopropyl]-1h-imidazole Chemical compound OC(=O)\C=C/C(O)=O.CC(C)(C)CCC#C[C@@H]1C[C@H]1C1=CN=CN1 QIQWRCNAPQJQLL-COALEZEGSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
- G06F18/2453—Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Nonlinear Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种高精度通用的三维点云识别方法,它包括:将点云的特征信息通过非线性映射得到不同变换空间下的表示;将得到的表示使用图注意力网络提取局部编码特征,通过全局空间融合得到全局编码特征,将局部编码特征和全局编码特征通过门控特征聚合机制得到融合后的点云特征;将融合后的点云特征送入分类器中得到预测结果;构建整体预测损失函数并加入独立性判别损失用于网络训练和优化,同时保存合适的模型参数。本发明在每个变换中使用图注意力卷积神经网络有效地提取点云特征,并通过门控机制高效的融合,同时引入希尔伯特‑施密特独立性指标对点云特征相似度进行衡量,并通过最小化特征相似度来减小信息冗余,以获得更加丰富的特征表示。
Description
技术领域
本发明涉及计算机视觉技术领域,属于一种基于深度学习的三维识别技术,具体来说,是一种高精度通用的三维点云识别方法,通过建立一个统一的网络框架完成对场景中点云分类、部分分割和语义分割的任务,以达到高精度点云识别的目的。
背景技术
近年来,二维图像的识别已经在应用中取得了一定的成功,但由于实际场景中物体均以三维形式存在,有效的对三维场景进行理解能够促进智能系统(如机器人、自动驾驶、虚拟/增强现实等技术)的快速发展。点云作为一种能够直观表示三维场景空间和几何形状信息的数据形式,被广泛应用于三维场景理解的研究中。目前,随着激光扫描等传感器技术的进步,点云数据采集获取已变得较为容易,但相关点云智能化处理识别方法还处于萌芽状态。此外,由于应用环境的复杂多样性,需要建立一个通用的统一框架来完成不同的点云识别任务。
点云的识别任务有多种,一般可分为点云分类、点云部分分割、点云语义分割等,点云分类是指按照点云的形状特征将其划分到对应的类别,点云部分分割是指将点云组成的形状划分为各个组成部分,点云语义分割是指将场景中点云划分为在语义上具有实际意义的不同类别。
在之前的研究方法中,研究人员通过采用多层感知机或三维卷积方法直接对点云特征进行建模,随着图卷积网络的兴起,很多方法转向采用图结构来充分捕获点云的局部和全局依赖关系,以完成对点云的精准识别。这些方法都通过单一的变换来捕获点云上下文的表示,然而这样会出现两个问题:其一,由于实际场景物体种类繁杂,不同物体间空间距离较近,容易出现特征混叠的现象,从而影响点云识别的结果;其二,这些方法均采用单一变换去提取点云的特征,并未从多个角度去考虑,从而获取的特征信息不够丰富,无法满足应用的需要;此外,在其他领域中多变换方法已被证明具有良好的性能去帮助网络学习更加丰富的特征表示。
发明内容
针对现有技术存在的上述问题,本发明旨在提供了一种基于多变换学习的三维点云识别方法,该方法将原始点云应用多变换,从多个变换后的嵌入点云空间中分别提取特征再高效融合,以提升网络对点云识别的精度和鲁棒性,增强模型的性能。
为实现上述技术目的,本发明采用的技术方案如下:
一种高精度通用的三维点云识别方法,包括:
将包含特征信息的点云通过非线性映射得到原始点云在不同变换空间下的表示;
将得到的表示使用图注意力卷积神经网络提取不同变换下点云的局部编码特征;
将得到的表示应用全局空间融合,并将其索引映射得到不同变换下点云的全局编码特征,所述全局编码特征与局部编码特征具有相同的特征表示形式;
将分别得到的局部编码特征和全局编码特征通过门控特征融合机制得到融合后的点云特征;
将融合后的点云特征送入分类器中得到预测结果;
对于非线性映射得到原始点云在不同变换空间下的表示,应用希尔伯特-施密特独立性指标衡量两两间相似度,建立独立性判别损失;
构建整体预测损失函数并加入独立性判别损失用于网络训练和优化,同时保存合适的模型参数。
进一步,所述非线性映射采用多层感知机来完成。
进一步,所述将得到的表示应用图结构通过注意力卷积神经网络提取不同变换下点云的局部编码特征包括:
对每个变换中的点云使用K近邻算法构建局部邻域;
计算邻域中心点c与邻域点k的相对坐标;
计算邻域中心点c与邻域点k的相对其他特征;
将相对坐标和相对其他特征分别进行编码再拼接,通过softmax函数得到注意力权重;
将注意力权重与对应特征相乘,得到编码后的点云局部编码特征。
进一步,所述全局空间融合将原始点云与非线性映射变换后的点云进行自适应的全局融合,计算公式如下:
其中门控权重Gj通过网络映射学习得到,计算如下:
进一步,若点云识别任务为部分分割任务或语义分割任务,则需要先将融合后的点云特征进行点云特征插值和上采样得到解码后的点云特征,再将解码后的点云特征送入分类器中得到预测结果。
进一步,所述分类器采用全连接层结构。
进一步,所述整体预测损失函数采用交叉熵损失函数。
本发明相比现有技术,具有如下有益效果:
1、通用性强。本申请建立一个统一的网络框架用于点云识别相关任务,适用于点云分类、点云部分分割和点云语义分割等任务,具有良好的适用能力。
2、精度高。在ModelNet40形状分类数据集上的总体精度达到了93.3,在ShapeNet部分分割数据集上mIoU达到了86.4,在S3DIS(Area 5)和ScanNet两个语义分割数据集上的mIoU分别达到了65.15和63.2。
3、鲁棒性好。由于网络从多个变换的角度出发去学习特征,能够获得更丰富的表示,此外,模型对数据适应能力强,能在广泛来源的数据中精准完成识别。
附图说明
图1为本发明一种三维点云识别方法的流程图;
图2为本发明一种三维点云识别方法的网络结构图;
图3为本发明中的门控特征融合结构示意图;
图4为本发明中的空间独立性判别模块图;
图5为采用ShapeNet、S3DIS和ScanNet数据集的点云识别效果图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
如图1、图2所示,一种高精度通用的三维点云识别方法,包括如下步骤:
S10:将包含特征信息的点云通过非线性映射得到原始点云在不同变换空间下的表示
点云的特征信息主要是通过读取设备读取点云的XYZ坐标信息、RGB颜色信息等,然后输入一个编码器空间映射模块,该编码器空间映射模块能够将点云的特征信息通过非线性映射得到原始点云在不同变换空间下的表示。
Pi=MLPi(P0),i=1,…,M
其中Pi为映射后的点云特征表示,M为变换的个数。
下面提供了一种提取局部编码特征方法,步骤为:
S21:对每个变换中的点云使用K近邻算法构建局部邻域;
softmax函数是多分类任务中常用的函数,其将分类的结果以概率的形式展现出来。
S30:将得到的表示应用全局空间融合,并将其索引映射得到不同变换下点云的全局编码特征F
全局空间融合是将原始与映射变换后的点云进行自适应的全局融合,计算公式如下:
其中门控权重Gj通过网络映射学习得到,计算如下:
S40:将分别得到的局部编码特征和全局编码特征通过门控特征融合机制得到融合后的点云特征
这里的局部编码特征和全局编码特征融合所使用的门控特征融合机制与S30中全局编码特征F所采用的全局融合方式相同,如图3所示。
S50:点云识别任务有多种可选的,若点云识别任务为部分分割任务或语义分割任务,需要解码器进行特征解码,具体为先将融合后的点云特征进行点云特征插值和上采样得到解码后的点云特征,再将解码后的点云特征送入分类器中得到预测结果,即跳到步骤S60。
若点云识别任务为分类任务,则省略到S50的插值、解码步骤,直接跳到S60。
S60:将融合后的点云特征送入分类器中得到预测结果
分类器采用全连接层结构,不同任务的全连接层数不同。
S70:对于步骤S10中非线性映射得到原始点云在不同变换空间下的表示,应用希尔伯特-施密特独立性指标(HSIC,Hilbert-Schmidt independence criterion)衡量两两间相似度,建立独立性判别损失
希尔伯特-施密特独立性指标是一种基于核函数的独立性判别指标,用来探索点云中点的高维潜在信息,具体计算公式如下所示:
HSIC(X,Y)=(N-1)-2tr(KXJKYJ)
S80:构建整体预测损失函数,将其与独立性判别损失相加用于网络训练和优化,同时保存合适的模型参数
整体预测损失函数采用交叉熵损失函数(Cross-Entropy Loss),而交叉熵损失函数特别适用于各种分类任务,用来衡量两个概率分布间的差异性,它是点云识别任务中一种通用的用来衡量预测与标签概率分布差异的方法。
图5示出了采用本申请进行点云识别的效果图,在ShapeNet部分分割数据集上mIoU达到了86.4,在S3DIS(Area 5)和ScanNet两个语义分割数据集上的mIoU分别达到了65.15和63.2。
以上对本申请提供的一种高精度通用的三维点云识别方法进行了详细介绍。具体实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
Claims (7)
1.一种高精度通用的三维点云识别方法,其特征在于,包括:
将包含特征信息的点云通过非线性映射得到原始点云在不同变换空间下的表示;
将得到的表示使用图注意力卷积神经网络提取不同变换下点云的局部编码特征;
将得到的表示应用全局空间融合,并将其索引映射得到不同变换下点云的全局编码特征,所述全局编码特征与局部编码特征具有相同的特征表示形式;
将分别得到的局部编码特征和全局编码特征通过门控特征聚合机制得到融合后的点云特征;
将融合后的点云特征送入分类器中得到预测结果;
对于非线性映射得到原始点云在不同变换空间下的表示,应用希尔伯特-施密特独立性指标衡量两两间相似度,建立独立性判别损失;
构建整体预测损失函数并加入独立性判别损失用于网络训练和优化,同时保存合适的模型参数。
2.根据权利要求1所述的三维点云识别方法,其特征在于,所述非线性映射采用多层感知机来完成。
3.根据权利要求2所述的三维点云识别方法,其特征在于,所述将得到的表示应用图结构通过注意力卷积神经网络提取不同变换下点云的局部编码特征包括:
对每个变换中的点云使用K近邻算法构建局部邻域;
计算邻域中心点c与邻域点k的相对坐标;
计算邻域中心点c与邻域点k的相对其他特征;
将相对坐标和相对其他特征分别进行编码再拼接,通过softmax函数得到注意力权重;
将注意力权重与对应特征相乘,得到编码后的点云局部编码特征。
5.根据权利要求1所述的三维点云识别方法,其特征在于,若点云识别任务为部分分割任务或语义分割任务,则需要先将融合后的点云特征进行点云特征插值和上采样得到解码后的点云特征,再将解码后的点云特征送入分类器中得到预测结果。
6.根据权利要求1所述的三维点云识别方法,其特征在于,所述分类器采用全连接层结构。
7.根据权利要求1所述的一种高精度通用的三维点云识别方法,其特征在于,所述整体预测损失函数采用交叉熵损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110163721.4A CN112819080B (zh) | 2021-02-05 | 2021-02-05 | 一种高精度通用的三维点云识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110163721.4A CN112819080B (zh) | 2021-02-05 | 2021-02-05 | 一种高精度通用的三维点云识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112819080A true CN112819080A (zh) | 2021-05-18 |
CN112819080B CN112819080B (zh) | 2022-09-02 |
Family
ID=75861920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110163721.4A Active CN112819080B (zh) | 2021-02-05 | 2021-02-05 | 一种高精度通用的三维点云识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112819080B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393474A (zh) * | 2021-06-10 | 2021-09-14 | 北京邮电大学 | 一种基于特征融合的三维点云的分类和分割方法 |
CN113706686A (zh) * | 2021-07-09 | 2021-11-26 | 苏州浪潮智能科技有限公司 | 一种三维点云重建结果补全方法及相关组件 |
CN114297237A (zh) * | 2021-12-14 | 2022-04-08 | 重庆邮电大学 | 基于类别融合的三维点云数据检索方法、装置及计算机设备 |
CN115937644A (zh) * | 2022-12-15 | 2023-04-07 | 清华大学 | 一种基于全局及局部融合的点云特征提取方法及装置 |
CN117576203A (zh) * | 2023-10-17 | 2024-02-20 | 中国矿业大学(北京) | 一种基于多头注意力特征增强的地下空间位置识别方法 |
CN118397192A (zh) * | 2024-06-14 | 2024-07-26 | 中国科学技术大学 | 一种基于双几何学习和自适应稀疏注意力的点云分析方法 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
US9869754B1 (en) * | 2017-03-22 | 2018-01-16 | Luminar Technologies, Inc. | Scan patterns for lidar systems |
CN107609520A (zh) * | 2017-09-15 | 2018-01-19 | 四川大学 | 障碍物识别方法、装置及电子设备 |
CN108090476A (zh) * | 2018-01-17 | 2018-05-29 | 四川大学 | 一种针对具有外部遮挡的3d人脸识别方法 |
CN110111345A (zh) * | 2019-05-14 | 2019-08-09 | 西安电子科技大学 | 一种基于注意力网络的3d点云分割方法 |
WO2019216975A1 (en) * | 2018-05-07 | 2019-11-14 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things |
CN110689008A (zh) * | 2019-09-17 | 2020-01-14 | 大连理工大学 | 一种面向单目图像的基于三维重建的三维物体检测方法 |
CN110929692A (zh) * | 2019-12-11 | 2020-03-27 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多传感器信息融合的三维目标检测方法及装置 |
CN111062423A (zh) * | 2019-11-29 | 2020-04-24 | 中国矿业大学 | 基于自适应特征融合的点云图神经网络的点云分类方法 |
CN111462324A (zh) * | 2020-05-18 | 2020-07-28 | 南京大学 | 一种在线时空语义融合方法和系统 |
CN111489358A (zh) * | 2020-03-18 | 2020-08-04 | 华中科技大学 | 一种基于深度学习的三维点云语义分割方法 |
CN111882593A (zh) * | 2020-07-23 | 2020-11-03 | 首都师范大学 | 结合注意力机制及三维图卷积网络的点云配准模型及方法 |
CN111902825A (zh) * | 2018-03-23 | 2020-11-06 | 多伦多大学管理委员会 | 多边形对象标注系统和方法以及训练对象标注系统的方法 |
CN111950467A (zh) * | 2020-08-14 | 2020-11-17 | 清华大学 | 基于注意力机制的融合网络车道线检测方法及终端设备 |
CN112070054A (zh) * | 2020-09-17 | 2020-12-11 | 福州大学 | 基于图结构与注意力机制的车载激光点云标线分类方法 |
CN112115744A (zh) * | 2019-06-20 | 2020-12-22 | 北京京东叁佰陆拾度电子商务有限公司 | 点云数据的处理方法及装置、计算机存储介质、电子设备 |
CN112257597A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民解放军战略支援部队信息工程大学 | 一种点云数据的语义分割方法 |
-
2021
- 2021-02-05 CN CN202110163721.4A patent/CN112819080B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
US9869754B1 (en) * | 2017-03-22 | 2018-01-16 | Luminar Technologies, Inc. | Scan patterns for lidar systems |
CN107609520A (zh) * | 2017-09-15 | 2018-01-19 | 四川大学 | 障碍物识别方法、装置及电子设备 |
CN108090476A (zh) * | 2018-01-17 | 2018-05-29 | 四川大学 | 一种针对具有外部遮挡的3d人脸识别方法 |
CN111902825A (zh) * | 2018-03-23 | 2020-11-06 | 多伦多大学管理委员会 | 多边形对象标注系统和方法以及训练对象标注系统的方法 |
WO2019216975A1 (en) * | 2018-05-07 | 2019-11-14 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things |
CN110111345A (zh) * | 2019-05-14 | 2019-08-09 | 西安电子科技大学 | 一种基于注意力网络的3d点云分割方法 |
CN112115744A (zh) * | 2019-06-20 | 2020-12-22 | 北京京东叁佰陆拾度电子商务有限公司 | 点云数据的处理方法及装置、计算机存储介质、电子设备 |
CN110689008A (zh) * | 2019-09-17 | 2020-01-14 | 大连理工大学 | 一种面向单目图像的基于三维重建的三维物体检测方法 |
CN111062423A (zh) * | 2019-11-29 | 2020-04-24 | 中国矿业大学 | 基于自适应特征融合的点云图神经网络的点云分类方法 |
CN110929692A (zh) * | 2019-12-11 | 2020-03-27 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多传感器信息融合的三维目标检测方法及装置 |
CN111489358A (zh) * | 2020-03-18 | 2020-08-04 | 华中科技大学 | 一种基于深度学习的三维点云语义分割方法 |
CN111462324A (zh) * | 2020-05-18 | 2020-07-28 | 南京大学 | 一种在线时空语义融合方法和系统 |
CN111882593A (zh) * | 2020-07-23 | 2020-11-03 | 首都师范大学 | 结合注意力机制及三维图卷积网络的点云配准模型及方法 |
CN111950467A (zh) * | 2020-08-14 | 2020-11-17 | 清华大学 | 基于注意力机制的融合网络车道线检测方法及终端设备 |
CN112070054A (zh) * | 2020-09-17 | 2020-12-11 | 福州大学 | 基于图结构与注意力机制的车载激光点云标线分类方法 |
CN112257597A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民解放军战略支援部队信息工程大学 | 一种点云数据的语义分割方法 |
Non-Patent Citations (1)
Title |
---|
冯思宇 等: "针对单样本人脸的三维部分人脸识别", 《计算机工程》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393474A (zh) * | 2021-06-10 | 2021-09-14 | 北京邮电大学 | 一种基于特征融合的三维点云的分类和分割方法 |
CN113393474B (zh) * | 2021-06-10 | 2022-05-13 | 北京邮电大学 | 一种基于特征融合的三维点云的分类和分割方法 |
CN113706686A (zh) * | 2021-07-09 | 2021-11-26 | 苏州浪潮智能科技有限公司 | 一种三维点云重建结果补全方法及相关组件 |
CN113706686B (zh) * | 2021-07-09 | 2023-07-21 | 苏州浪潮智能科技有限公司 | 一种三维点云重建结果补全方法及相关组件 |
CN114297237A (zh) * | 2021-12-14 | 2022-04-08 | 重庆邮电大学 | 基于类别融合的三维点云数据检索方法、装置及计算机设备 |
CN115937644A (zh) * | 2022-12-15 | 2023-04-07 | 清华大学 | 一种基于全局及局部融合的点云特征提取方法及装置 |
CN115937644B (zh) * | 2022-12-15 | 2024-01-02 | 清华大学 | 一种基于全局及局部融合的点云特征提取方法及装置 |
CN117576203A (zh) * | 2023-10-17 | 2024-02-20 | 中国矿业大学(北京) | 一种基于多头注意力特征增强的地下空间位置识别方法 |
CN118397192A (zh) * | 2024-06-14 | 2024-07-26 | 中国科学技术大学 | 一种基于双几何学习和自适应稀疏注意力的点云分析方法 |
CN118397192B (zh) * | 2024-06-14 | 2024-08-23 | 中国科学技术大学 | 一种基于双几何学习和自适应稀疏注意力的点云分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112819080B (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112819080B (zh) | 一种高精度通用的三维点云识别方法 | |
CN108734210B (zh) | 一种基于跨模态多尺度特征融合的对象检测方法 | |
CN110738697A (zh) | 基于深度学习的单目深度估计方法 | |
CN112990010B (zh) | 点云数据处理方法、装置、计算机设备和存储介质 | |
CN111291212A (zh) | 基于图卷积神经网络的零样本草图图像检索方法和系统 | |
CN111462210B (zh) | 一种基于极线约束的单目线特征地图构建方法 | |
CN115578574B (zh) | 一种基于深度学习和拓扑感知的三维点云补全方法 | |
CN113870160B (zh) | 一种基于变换器神经网络的点云数据处理方法 | |
Jiang et al. | Local and global structure for urban ALS point cloud semantic segmentation with ground-aware attention | |
CN113011430A (zh) | 大规模点云语义分割方法及系统 | |
CN118351320B (zh) | 基于三维点云的实例分割方法 | |
CN112418235A (zh) | 一种基于膨胀最近邻特征增强的点云语义分割方法 | |
Gao et al. | Research on multitask model of object detection and road segmentation in unstructured road scenes | |
CN117475228A (zh) | 一种基于双域特征学习的三维点云分类和分割方法 | |
CN110390336B (zh) | 一种提高特征点匹配精度的方法 | |
CN116485892A (zh) | 一种弱纹理物体的六自由度位姿估计方法 | |
CN116168162A (zh) | 一种多视角加权聚合的三维点云重建方法 | |
CN112365456B (zh) | 基于三维点云数据的变电站设备分类方法 | |
CN114187569A (zh) | 一种皮尔森系数矩阵与注意力融合的实时目标检测方法 | |
CN113688700B (zh) | 基于分层注意力采样策略的真实域三维点云物体识别方法 | |
CN118644784B (zh) | 一种融合注意力机制的多尺度特征聚合点云建筑物提取方法 | |
CN118470679B (zh) | 一种基于轻量级车道线分割识别方法及系统 | |
CN118429363A (zh) | 一种基于组别编码的三维高斯表征场景分割方法 | |
CN115496910B (zh) | 基于全连接图编码及双重扩张残差的点云语义分割方法 | |
CN112396593B (zh) | 一种基于关键帧选择和局部特征的闭环检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |