CN112819080B - 一种高精度通用的三维点云识别方法 - Google Patents

一种高精度通用的三维点云识别方法 Download PDF

Info

Publication number
CN112819080B
CN112819080B CN202110163721.4A CN202110163721A CN112819080B CN 112819080 B CN112819080 B CN 112819080B CN 202110163721 A CN202110163721 A CN 202110163721A CN 112819080 B CN112819080 B CN 112819080B
Authority
CN
China
Prior art keywords
point cloud
features
transformation
feature
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110163721.4A
Other languages
English (en)
Other versions
CN112819080A (zh
Inventor
雷印杰
杨昱威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202110163721.4A priority Critical patent/CN112819080B/zh
Publication of CN112819080A publication Critical patent/CN112819080A/zh
Application granted granted Critical
Publication of CN112819080B publication Critical patent/CN112819080B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2453Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明公开一种高精度通用的三维点云识别方法,它包括:将点云的特征信息通过非线性映射得到不同变换空间下的表示;将得到的表示使用图注意力网络提取局部编码特征,通过全局空间融合得到全局编码特征,将局部编码特征和全局编码特征通过门控特征聚合机制得到融合后的点云特征;将融合后的点云特征送入分类器中得到预测结果;构建整体预测损失函数并加入独立性判别损失用于网络训练和优化,同时保存合适的模型参数。本发明在每个变换中使用图注意力卷积神经网络有效地提取点云特征,并通过门控机制高效的融合,同时引入希尔伯特‑施密特独立性指标对点云特征相似度进行衡量,并通过最小化特征相似度来减小信息冗余,以获得更加丰富的特征表示。

Description

一种高精度通用的三维点云识别方法
技术领域
本发明涉及计算机视觉技术领域,属于一种基于深度学习的三维识别技术,具体来说,是一种高精度通用的三维点云识别方法,通过建立一个统一的网络框架完成对场景中点云分类、部分分割和语义分割的任务,以达到高精度点云识别的目的。
背景技术
近年来,二维图像的识别已经在应用中取得了一定的成功,但由于实际场景中物体均以三维形式存在,有效的对三维场景进行理解能够促进智能系统(如机器人、自动驾驶、虚拟/增强现实等技术)的快速发展。点云作为一种能够直观表示三维场景空间和几何形状信息的数据形式,被广泛应用于三维场景理解的研究中。目前,随着激光扫描等传感器技术的进步,点云数据采集获取已变得较为容易,但相关点云智能化处理识别方法还处于萌芽状态。此外,由于应用环境的复杂多样性,需要建立一个通用的统一框架来完成不同的点云识别任务。
点云的识别任务有多种,一般可分为点云分类、点云部分分割、点云语义分割等,点云分类是指按照点云的形状特征将其划分到对应的类别,点云部分分割是指将点云组成的形状划分为各个组成部分,点云语义分割是指将场景中点云划分为在语义上具有实际意义的不同类别。
在之前的研究方法中,研究人员通过采用多层感知机或三维卷积方法直接对点云特征进行建模,随着图卷积网络的兴起,很多方法转向采用图结构来充分捕获点云的局部和全局依赖关系,以完成对点云的精准识别。这些方法都通过单一的变换来捕获点云上下文的表示,然而这样会出现两个问题:其一,由于实际场景物体种类繁杂,不同物体间空间距离较近,容易出现特征混叠的现象,从而影响点云识别的结果;其二,这些方法均采用单一变换去提取点云的特征,并未从多个角度去考虑,从而获取的特征信息不够丰富,无法满足应用的需要;此外,在其他领域中多变换方法已被证明具有良好的性能去帮助网络学习更加丰富的特征表示。
发明内容
针对现有技术存在的上述问题,本发明旨在提供了一种基于多变换学习的三维点云识别方法,该方法将原始点云应用多变换,从多个变换后的嵌入点云空间中分别提取特征再高效融合,以提升网络对点云识别的精度和鲁棒性,增强模型的性能。
为实现上述技术目的,本发明采用的技术方案如下:
一种高精度通用的三维点云识别方法,包括:
将包含特征信息的点云通过非线性映射得到原始点云在不同变换空间下的表示;
将得到的表示使用图注意力卷积神经网络提取不同变换下点云的局部编码特征;
将得到的表示应用全局空间融合,并将其索引映射得到不同变换下点云的全局编码特征,所述全局编码特征与局部编码特征具有相同的特征表示形式;
将分别得到的局部编码特征和全局编码特征通过门控特征融合机制得到融合后的点云特征;
将融合后的点云特征送入分类器中得到预测结果;
对于非线性映射得到原始点云在不同变换空间下的表示,应用希尔伯特-施密特独立性指标衡量两两间相似度,建立独立性判别损失;
构建整体预测损失函数并加入独立性判别损失用于网络训练和优化,同时保存合适的模型参数。
进一步,所述非线性映射采用多层感知机来完成。
进一步,所述将得到的表示应用图结构通过注意力卷积神经网络提取不同变换下点云的局部编码特征包括:
对每个变换中的点云使用K近邻算法构建局部邻域;
计算邻域中心点c与邻域点k的相对坐标;
计算邻域中心点c与邻域点k的相对其他特征;
将相对坐标和相对其他特征分别进行编码再拼接,通过softmax函数得到注意力权重;
将注意力权重与对应特征相乘,得到编码后的点云局部编码特征。
进一步,所述全局空间融合将原始点云与非线性映射变换后的点云进行自适应的全局融合,计算公式如下:
Figure BDA0002936629450000021
其中门控权重Gj通过网络映射学习得到,计算如下:
Figure BDA0002936629450000031
进一步,若点云识别任务为部分分割任务或语义分割任务,则需要先将融合后的点云特征进行点云特征插值和上采样得到解码后的点云特征,再将解码后的点云特征送入分类器中得到预测结果。
进一步,所述分类器采用全连接层结构。
进一步,所述整体预测损失函数采用交叉熵损失函数。
本发明相比现有技术,具有如下有益效果:
1、通用性强。本申请建立一个统一的网络框架用于点云识别相关任务,适用于点云分类、点云部分分割和点云语义分割等任务,具有良好的适用能力。
2、精度高。在ModelNet40形状分类数据集上的总体精度达到了93.3,在ShapeNet部分分割数据集上mIoU达到了86.4,在S3DIS(Area 5)和ScanNet两个语义分割数据集上的mIoU分别达到了65.15和63.2。
3、鲁棒性好。由于网络从多个变换的角度出发去学习特征,能够获得更丰富的表示,此外,模型对数据适应能力强,能在广泛来源的数据中精准完成识别。
附图说明
图1为本发明一种三维点云识别方法的流程图;
图2为本发明一种三维点云识别方法的网络结构图;
图3为本发明中的门控特征融合结构示意图;
图4为本发明中的空间独立性判别模块图;
图5为采用ShapeNet、S3DIS和ScanNet数据集的点云识别效果图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
如图1、图2所示,一种高精度通用的三维点云识别方法,包括如下步骤:
S10:将包含特征信息的点云通过非线性映射得到原始点云在不同变换空间下的表示
点云的特征信息主要是通过读取设备读取点云的XYZ坐标信息、RGB颜色信息等,然后输入一个编码器空间映射模块,该编码器空间映射模块能够将点云的特征信息通过非线性映射得到原始点云在不同变换空间下的表示。
其中非线性映射采用多层感知机(Multi Layer Perceptron),具体地,对于输入点云
Figure BDA0002936629450000041
其中N表示点云中点的个数,应用多变换对点云映射的过程如下所示:
Pi=MLPi(P0),i=1,…,M
其中Pi为映射后的点云特征表示,M为变换的个数。
S20:将得到的表示使用图注意力卷积神经网络提取不同变换下点云的局部编码特征
Figure BDA0002936629450000042
下面提供了一种提取局部编码特征方法,步骤为:
S21:对每个变换中的点云使用K近邻算法构建局部邻域;
S22:按如下计算邻域中心点c与邻域点k的相对坐标
Figure BDA0002936629450000043
Figure BDA0002936629450000044
其中,
Figure BDA0002936629450000045
为局部领域中点k的坐标,
Figure BDA0002936629450000046
为邻域中心点c的坐标。
S23:计算邻域中心点c与邻域点k的相对其他特征
Figure BDA0002936629450000047
Figure BDA0002936629450000048
S24:将相对坐标
Figure BDA0002936629450000049
和相对其他特征
Figure BDA00029366294500000410
分别进行编码再拼接,通过softmax函数得到注意力权重(j=0,…,M,代表原始与其他变换的集合)
Figure BDA00029366294500000411
softmax函数是多分类任务中常用的函数,其将分类的结果以概率的形式展现出来。
S25:将注意力权重与对应特征
Figure BDA00029366294500000412
相乘,得到编码后的点云局部编码特征
Figure BDA00029366294500000413
S30:将得到的表示应用全局空间融合,并将其索引映射得到不同变换下点云的全局编码特征F
其中,全局编码特征F与局部编码特征
Figure BDA00029366294500000414
具有相同的特征表示形式。
全局空间融合是将原始与映射变换后的点云进行自适应的全局融合,计算公式如下:
Figure BDA0002936629450000051
其中门控权重Gj通过网络映射学习得到,计算如下:
Figure BDA0002936629450000052
需要说明的是,步骤S20中全局编码特征F与步骤S30局部编码特征
Figure BDA0002936629450000053
是并行获得,并无先后顺序。
S40:将分别得到的局部编码特征和全局编码特征通过门控特征融合机制得到融合后的点云特征
这里的局部编码特征和全局编码特征融合所使用的门控特征融合机制与S30中全局编码特征F所采用的全局融合方式相同,如图3所示。
S50:点云识别任务有多种可选的,若点云识别任务为部分分割任务或语义分割任务,需要解码器进行特征解码,具体为先将融合后的点云特征进行点云特征插值和上采样得到解码后的点云特征,再将解码后的点云特征送入分类器中得到预测结果,即跳到步骤S60。
若点云识别任务为分类任务,则省略到S50的插值、解码步骤,直接跳到S60。
S60:将融合后的点云特征送入分类器中得到预测结果
分类器采用全连接层结构,不同任务的全连接层数不同。
S70:对于步骤S10中非线性映射得到原始点云在不同变换空间下的表示,应用希尔伯特-施密特独立性指标(HSIC,Hilbert-Schmidt independence criterion)衡量两两间相似度,建立独立性判别损失
Figure BDA0002936629450000054
希尔伯特-施密特独立性指标是一种基于核函数的独立性判别指标,用来探索点云中点的高维潜在信息,具体计算公式如下所示:
HSIC(X,Y)=(N-1)-2tr(KXJKYJ)
其中的X,Y为随机变量,N为点云中点的数个数,tr()为矩阵的迹,
Figure BDA0002936629450000055
Figure BDA0002936629450000056
KX具有实体
Figure BDA0002936629450000057
其中k()为核函数,这里采用通用的高斯核,即满足
Figure BDA0002936629450000058
通过上述的定义,便可以计算两两变换(PX和PY)之间的HSIC(PX,PY),将其加和取平均得到总体的独立性判别损失
Figure BDA0002936629450000061
S80:构建整体预测损失函数,将其与独立性判别损失相加用于网络训练和优化,同时保存合适的模型参数
整体预测损失函数采用交叉熵损失函数(Cross-Entropy Loss),而交叉熵损失函数特别适用于各种分类任务,用来衡量两个概率分布间的差异性,它是点云识别任务中一种通用的用来衡量预测与标签概率分布差异的方法。
图5示出了采用本申请进行点云识别的效果图,在ShapeNet部分分割数据集上mIoU达到了86.4,在S3DIS(Area 5)和ScanNet两个语义分割数据集上的mIoU分别达到了65.15和63.2。
以上对本申请提供的一种高精度通用的三维点云识别方法进行了详细介绍。具体实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。

Claims (6)

1.一种高精度通用的三维点云识别方法,其特征在于,包括:
将包含特征信息的点云通过非线性映射得到原始点云在不同变换空间下的表示,所述非线性映射采用多层感知机;
将得到的表示使用图注意力卷积神经网络提取不同变换下点云的局部编码特征;
将得到的表示应用全局空间融合,并将其索引映射得到不同变换下点云的全局编码特征,所述全局编码特征与局部编码特征具有相同的特征表示形式;
将分别得到的局部编码特征和全局编码特征通过门控特征聚合机制得到融合后的点云特征;
将融合后的点云特征送入分类器中得到预测结果;
对于非线性映射得到原始点云在不同变换空间下的表示,应用希尔伯特-施密特独立性指标衡量两两间相似度,建立独立性判别损失;
构建整体预测损失函数并加入独立性判别损失用于网络训练和优化,同时保存合适的模型参数。
2.根据权利要求1所述的三维点云识别方法,其特征在于,所述将得到的表示应用图结构通过注意力卷积神经网络提取不同变换下点云的局部编码特征包括:
对每个变换中的点云使用K近邻算法构建局部邻域;
计算邻域中心点c与邻域点k的相对坐标;
计算邻域中心点c与邻域点k的相对其他特征;
将相对坐标和相对其他特征分别进行编码再拼接,通过softmax函数得到注意力权重;
将注意力权重与对应特征相乘,得到编码后的点云局部编码特征。
3.根据权利要求2所述的一种高精度通用的三维点云识别方法,其特征在于,所述全局空间融合将原始点云与非线性映射变换后的点云进行自适应的全局融合,计算公式如下:
Figure DEST_PATH_IMAGE002A
其中门控权重
Figure 113517DEST_PATH_IMAGE004
通过网络映射学习得到,计算如下:
Figure DEST_PATH_IMAGE006A
其中,
Figure 263876DEST_PATH_IMAGE008
为全局编码特征,
Figure 389964DEST_PATH_IMAGE010
为第
Figure 651181DEST_PATH_IMAGE012
个变换特征,
Figure 116797DEST_PATH_IMAGE012
为正整数,
Figure 844582DEST_PATH_IMAGE014
表示对第
Figure 661228DEST_PATH_IMAGE012
个变换特征
Figure 194978DEST_PATH_IMAGE010
进行映射得到的未归一化门控权重,Gj=softmax()表示通过softmax函数对得到的未归一化门控权重进行归一化,
Figure 577417DEST_PATH_IMAGE016
为原始不做变换的点云特征,
Figure 905516DEST_PATH_IMAGE018
原始不做变换的点云特征
Figure 943879DEST_PATH_IMAGE016
所对应的门控权重。
4.根据权利要求1所述的三维点云识别方法,其特征在于,若点云识别任务为部分分割任务或语义分割任务,则需要先将融合后的点云特征进行点云特征插值和上采样得到解码后的点云特征,再将解码后的点云特征送入分类器中得到预测结果。
5.根据权利要求1所述的三维点云识别方法,其特征在于,所述分类器采用全连接层结构。
6.根据权利要求1所述的一种高精度通用的三维点云识别方法,其特征在于,所述整体预测损失函数采用交叉熵损失函数。
CN202110163721.4A 2021-02-05 2021-02-05 一种高精度通用的三维点云识别方法 Active CN112819080B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110163721.4A CN112819080B (zh) 2021-02-05 2021-02-05 一种高精度通用的三维点云识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110163721.4A CN112819080B (zh) 2021-02-05 2021-02-05 一种高精度通用的三维点云识别方法

Publications (2)

Publication Number Publication Date
CN112819080A CN112819080A (zh) 2021-05-18
CN112819080B true CN112819080B (zh) 2022-09-02

Family

ID=75861920

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110163721.4A Active CN112819080B (zh) 2021-02-05 2021-02-05 一种高精度通用的三维点云识别方法

Country Status (1)

Country Link
CN (1) CN112819080B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393474B (zh) * 2021-06-10 2022-05-13 北京邮电大学 一种基于特征融合的三维点云的分类和分割方法
CN113706686B (zh) * 2021-07-09 2023-07-21 苏州浪潮智能科技有限公司 一种三维点云重建结果补全方法及相关组件
CN115937644B (zh) * 2022-12-15 2024-01-02 清华大学 一种基于全局及局部融合的点云特征提取方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9869754B1 (en) * 2017-03-22 2018-01-16 Luminar Technologies, Inc. Scan patterns for lidar systems
CN107609520A (zh) * 2017-09-15 2018-01-19 四川大学 障碍物识别方法、装置及电子设备
CN108090476A (zh) * 2018-01-17 2018-05-29 四川大学 一种针对具有外部遮挡的3d人脸识别方法
CN110689008A (zh) * 2019-09-17 2020-01-14 大连理工大学 一种面向单目图像的基于三维重建的三维物体检测方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111489358A (zh) * 2020-03-18 2020-08-04 华中科技大学 一种基于深度学习的三维点云语义分割方法
CN111882593A (zh) * 2020-07-23 2020-11-03 首都师范大学 结合注意力机制及三维图卷积网络的点云配准模型及方法
CN111902825A (zh) * 2018-03-23 2020-11-06 多伦多大学管理委员会 多边形对象标注系统和方法以及训练对象标注系统的方法
CN111950467A (zh) * 2020-08-14 2020-11-17 清华大学 基于注意力机制的融合网络车道线检测方法及终端设备
CN112115744A (zh) * 2019-06-20 2020-12-22 北京京东叁佰陆拾度电子商务有限公司 点云数据的处理方法及装置、计算机存储介质、电子设备
CN112257597A (zh) * 2020-10-22 2021-01-22 中国人民解放军战略支援部队信息工程大学 一种点云数据的语义分割方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112703457A (zh) * 2018-05-07 2021-04-23 强力物联网投资组合2016有限公司 用于使用工业物联网进行数据收集、学习和机器信号流传输实现分析和维护的方法和系统
CN110111345B (zh) * 2019-05-14 2023-04-28 西安电子科技大学 一种基于注意力网络的3d点云分割方法
CN111062423B (zh) * 2019-11-29 2022-04-26 中国矿业大学 基于自适应特征融合的点云图神经网络的点云分类方法
CN111462324B (zh) * 2020-05-18 2022-05-17 南京大学 一种在线时空语义融合方法和系统
CN112070054B (zh) * 2020-09-17 2022-07-29 福州大学 基于图结构与注意力机制的车载激光点云标线分类方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9869754B1 (en) * 2017-03-22 2018-01-16 Luminar Technologies, Inc. Scan patterns for lidar systems
CN107609520A (zh) * 2017-09-15 2018-01-19 四川大学 障碍物识别方法、装置及电子设备
CN108090476A (zh) * 2018-01-17 2018-05-29 四川大学 一种针对具有外部遮挡的3d人脸识别方法
CN111902825A (zh) * 2018-03-23 2020-11-06 多伦多大学管理委员会 多边形对象标注系统和方法以及训练对象标注系统的方法
CN112115744A (zh) * 2019-06-20 2020-12-22 北京京东叁佰陆拾度电子商务有限公司 点云数据的处理方法及装置、计算机存储介质、电子设备
CN110689008A (zh) * 2019-09-17 2020-01-14 大连理工大学 一种面向单目图像的基于三维重建的三维物体检测方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111489358A (zh) * 2020-03-18 2020-08-04 华中科技大学 一种基于深度学习的三维点云语义分割方法
CN111882593A (zh) * 2020-07-23 2020-11-03 首都师范大学 结合注意力机制及三维图卷积网络的点云配准模型及方法
CN111950467A (zh) * 2020-08-14 2020-11-17 清华大学 基于注意力机制的融合网络车道线检测方法及终端设备
CN112257597A (zh) * 2020-10-22 2021-01-22 中国人民解放军战略支援部队信息工程大学 一种点云数据的语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
针对单样本人脸的三维部分人脸识别;冯思宇 等;《计算机工程》;20160915;第42卷(第9期);144-150 *

Also Published As

Publication number Publication date
CN112819080A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
CN112819080B (zh) 一种高精度通用的三维点云识别方法
CN108734210B (zh) 一种基于跨模态多尺度特征融合的对象检测方法
CN108875813B (zh) 一种基于几何图像的三维网格模型检索方法
CN109375186B (zh) 基于深度残差多尺度一维卷积神经网络的雷达目标识别方法
CN111291212A (zh) 基于图卷积神经网络的零样本草图图像检索方法和系统
CN113657450B (zh) 基于注意机制的陆战场图像-文本跨模态检索方法及其系统
CN112990010B (zh) 点云数据处理方法、装置、计算机设备和存储介质
CN116229079A (zh) 一种基于视觉辅助和特征增强的三维点云语义分割方法及系统
Jiang et al. Local and global structure for urban ALS point cloud semantic segmentation with ground-aware attention
CN116612468A (zh) 基于多模态融合与深度注意力机制的三维目标检测方法
CN115497002A (zh) 一种多尺度特征融合的激光雷达遥感分类方法
CN114926742A (zh) 一种基于二阶注意力机制的回环检测及优化方法
CN112115806B (zh) 基于Dual-ResNet小样本学习的遥感影像场景精确分类方法
CN113011430A (zh) 大规模点云语义分割方法及系统
CN110390336B (zh) 一种提高特征点匹配精度的方法
CN116740422A (zh) 基于多模态注意力融合技术的遥感图像分类方法及装置
CN116485892A (zh) 一种弱纹理物体的六自由度位姿估计方法
CN115578574A (zh) 一种基于深度学习和拓扑感知的三维点云补全方法
CN114299346A (zh) 基于通道注意力的点云识别方法及系统
CN114187569A (zh) 一种皮尔森系数矩阵与注意力融合的实时目标检测方法
CN112365456A (zh) 基于三维点云数据的变电站设备分类方法
CN113688700B (zh) 基于分层注意力采样策略的真实域三维点云物体识别方法
Zhou et al. FENet: Fast Real-time Semantic Edge Detection Network
CN115496910B (zh) 基于全连接图编码及双重扩张残差的点云语义分割方法
CN114359902B (zh) 基于多尺度特征融合的三维点云语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant