CN112561796A - 基于自注意生成对抗网络的激光点云超分辨率重建方法 - Google Patents

基于自注意生成对抗网络的激光点云超分辨率重建方法 Download PDF

Info

Publication number
CN112561796A
CN112561796A CN202011392367.4A CN202011392367A CN112561796A CN 112561796 A CN112561796 A CN 112561796A CN 202011392367 A CN202011392367 A CN 202011392367A CN 112561796 A CN112561796 A CN 112561796A
Authority
CN
China
Prior art keywords
point cloud
features
dense
feature
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011392367.4A
Other languages
English (en)
Other versions
CN112561796B (zh
Inventor
秦翰林
李莹
延翔
马琳
林凯东
杨硕闻
乐阳
张嘉伟
姚迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202011392367.4A priority Critical patent/CN112561796B/zh
Publication of CN112561796A publication Critical patent/CN112561796A/zh
Application granted granted Critical
Publication of CN112561796B publication Critical patent/CN112561796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种基于自注意生成对抗网络的激光点云超分辨率重建方法,通过生成器网络中对激光点云图像进行特征提取,获得激光点云特征;对所述激光点云特征进行特征扩展,再进行坐标重建,获得密集点云数据;对所述密集点云数据进行鉴别确定对应的置信度;根据所述密集点云数据的置信度预判对应的密集点云数据,如果该置信度值接近1,则鉴别器预测输入可能来自具有高置信度的目标分布,否则来自生成器,对所述密集点云数据进行特征集成,获得输出特征;通过输出特征对对抗网络进行训练得到最终的稠密点云数据。本发明能够实现不同特征提取单元之间的特征信息共享,在提高重建精度的同时减小模型的大小,利于网络模型的轻量化。

Description

基于自注意生成对抗网络的激光点云超分辨率重建方法
技术领域
本发明属于激光点云数据超分辨率领域,具体涉及一种基于自注意生成对抗网络的激光点云超分辨率重建方法。
背景技术
随着无人驾驶技术的不断发展,近年来基于激光3D点云数据的三维数据显示、3D效果渲染、3D目标分割、检测识别等算法得到了越多的关注。但一般的激光雷达采集的原始3D点云数据均存在分布稀疏、均匀性差、噪声明显等缺点,以上缺点也体现在KITTI、ScanNet等广泛应用的公共基准数据集中。因此,在对原始3D点云数据进行后续处理和分析前,有必要对其进行预处理以提升原始点云数据的质量,为后续算法的开展提供更均匀、稠密的点云数据。
近年来基于神经网络的超分辨率技术在图像空间的成功应用推动了三维点集上采样方法的发展,大量的深度学习超分辨率技术已经在单图像超分辨率性能方面取得了显著的成果。然而,对于三维点云来说,这是一个挑战,因为与图像不同,点云数据具有非结构化和不规则的特点,而且点云通常是客户级扫描设备的结果,通常是稀疏的、有噪声的和不完整的。因此,上采样技术尤为重要,然而图像空间技术对点集的自适应并不简单。目前点云上采样的方法主要分为基于优化的方法和基于神经网络的方法。基于优化的方法大都依赖于几何拟合如正态估计和多尺度结构保持等先验知识;基于神经网络的方法近年来得到了一定的发展,这种方法多采用端对端的学习方法,通过一个卷积神经网络实现点云数据的多倍上采样。
发明内容
鉴于此,本发明的主要目的在于提供一种基于自注意生成对抗网络的激光点云超分辨率重建方法。
为达到上述目的,本发明实施例的技术方案是这样实现的:
本发明实施例提供一种基于自注意生成对抗网络的激光点云超分辨率重建方法,该方法为:
通过生成器网络中对激光点云图像进行特征提取,获得激光点云特征;
对所述激光点云特征进行特征扩展,再进行坐标重建,获得密集点云数据;
对所述密集点云数据进行鉴别确定对应的置信度;
根据所述密集点云数据的置信度预判对应的密集点云数据,如果该置信度值接近1,则鉴别器预测输入可能来自具有高置信度的目标分布,否则来自生成器,对所述密集点云数据进行特征集成,获得输出特征;
通过输出特征对对抗网络进行训练得到最终的稠密点云数据。
上述方案中,所述通过生成器网络中对激光点云图像进行特征提取,获得激光点云特征,具体为:在从大小为N×d的稀疏点云输入P中提取激光点云特征F(N×C),其中d为点云的维数,,将N×3的稀疏点云输入特征提取单元,特征提取单元由一系列密集块组成,每个密集块的内部采用密集连接方式,密集块之间采用长跳跃连接方式,实现不同特征提取单元之间的特征信息共享,在每个密集块中,将输入转换为固定数量的特征,使用基于特征的最近邻算法(KNN)对特征进行分组,通过密集连接的MLP链优化每个分组的特征,最后通过最大池化层计算激光点云特征。
上述方案中,所述对所述激光点云特征进行特征扩展,再进行坐标重建,获得密集点云数据,具体为:对提取的激光点云特征F进行拓展得到扩展特征Fup,对所述扩展特征Fup进行上采样,生成上采样后的扩展特征F′up后再对其下采样,然后通过计算上采样前和下采样后特征间的特征差Δ,将所述特征差Δ上采样得到上采样后的特征差Δup,再将所述上采样后的特征差Δup添加到上采样后的扩展特征F′up对扩展后的特征进行校正,获得校正后的扩展特征;所述扩展特征通过一组联合多层感知器(CMLP)回归得到点云的3D坐标集,每个MLP的输出即提取的点云特征可与后续的MLP共享重复使用,所述回归得到的点云坐标集即为最终网络输出的密集点云数据。
上述方案中,所述对所述密集点云数据进行鉴别确定对应的置信度,具体为:对于生成器网络G和判别器网络D采用最小平方损失作为对抗性损失。
上述方案中,所述根据所述密集点云数据的置信度预判对应的密集点云数据是来自置信度高的目标点云还是来自生成器,具体为:通过一组MLPs和最大池化层生成全局特征,并利用全连接层回归最终的置信度,若该置信度值接近1,则判别器预判其输入可能来自置信度高的目标点云,否则判定其来自生成器。
上述方案中,所述对所述密集点云数据进行特征集成,具体为:在自注意单元中通过两个独立的CMLP将输入特征转换成M和N,然后通过(3)式从M和N生成注意权重W,
W=fsoftmax(MTN) (3)
式中,fsoftmax表示softmax函数,将得到的加权特征W与原始输入特征T、通过另一个CMLP从输入中提取的特征K进行加权,最后生成输出特征。
上述方案中,所述通过输出特征对对抗网络进行训练得到最终的稠密点云数据,具体为:对采用均匀损失对生成器的Q值进行评估,根据最远采样点选择原则,对点云数据进行分块处理;
将点云局部分布的均匀性与局部非均匀性结合定义均匀性损失以促使产生均匀性更好的结果,PSR-Net模型的训练策略为利用最小化生成器LG和判别器LD对网络进行端对端训练,在整个网络训练的过程中,对生成器G和判别器D交替进行优化。
与现有技术相比,本发明的有益效果:
(1)本发明采用更高效的长跳跃连接实现不同特征提取单元之间的特征信息共享,在提高重建精度的同时减小模型的大小,有利于网络模型的轻量化;
(2)采用联合多层感知器从拓展特征中回归点云的3D坐标集,每个MLP的输出即提取的点云特征可与后续的MLP共享重复使用,从而能最大程度地保留原始点云数据的局部特征,提升特征提取效率。
(3)在自注意单元中引入多层感知器结构进行输入特征的提取和转换,在增强连接后的特征集成的同时提高了网络的效率,减少网络运行时间。
附图说明
图1为本发明的网络结构图;
图2为本发明的PSR-Net模型中特征提取单元的结构图;
图3为本发明的PSR-Net模型中联合多层感知器(CMLP)结构图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明实施例提供一种基于自注意生成对抗网络的激光点云超分辨率重建方法,如图1所示,该方法具体通过以下步骤实现:
步骤101:利用生成器网络的特征提取模块对输入的包含N个点的无序稀疏点云集进行点云深层特征提取。
具体地,在从大小为N×d的稀疏点云输入P中提取激光点云特征F(N×C),其中d为点云的维数,即空间坐标、距离、反射强度等,d=3即只考虑空间三维坐标信息,将N×d的稀疏点云输入特征提取单元,特征提取单元由一系列密集块组成,每个密集块的内部采用密集连接方式,在每个密集块中,将输入转换为固定数量的特征,使用基于特征的KNN方法对特征进行分组,通过密集连接的MLP链优化每个分组的特征,最后通过最大池化层计算激光点云特征。步骤102:将提取的特征通过特征扩展单元进行特征扩展。
具体地,特征扩展单元通过对提取的特征F进行拓展得到扩展特征Fup,该模块中引入自下向上结构的扩展单元以增强Fup中的特征变化与特征表示,使生成器能生成更多样化的点云分布。
拓展单元先对点云特征进行上采样,生成F′up后再对其下采样,然后通过计算上采样前和下采样后特征间的差Δ,将特征差Δ上采样得到Δup,再将Δup添加到F′up对扩展后的特征进行校正,该操作可避免繁琐的多步骤训练,实现网络轻量化,且有利于生成细节特征。
步骤103:利用点云生成模块进行坐标重建并基于最远点采样算法生成密集的点云数据Q。
具体地,首先通过一组联合多层感知器(CMLP)从拓展特征Fup中回归得到的点云的3D坐标集,联合多层感知器(CMLP)结构如图3所示,由于特征扩展只是对点云的局部进行拓展,Fup中的特征相当于原始点云分布中潜在的点,本质上很接近原始输入,因此上采样后仅保留距离采样点较远的rN个点。为此,F特征扩展到Fup的过程中,实际生成了(r+2)N个点云特征,该方法可从全局角度进一步提高上采样结果中点云分布的均匀性。
步骤104:将生成器得到的密集点云Q输入鉴别器中,区分其是否为生成器生成的结果。
具体地:为保证网络结构的轻量级,并有效利用点云的全局和局部信息,采用PCN中的基本网络结构进行全局特征提取。在该结构基础上,为改进特征学习,在特征连接之后添加了一个基于自注意机制的自相关单元。相较于MLP,该注意单元有利于增强特征集成,提高后续网络对特征的提取能力。在自注意单元之后,通过一组MLPs和最大池化层生成全局特征,并利用全连接层回归最终的置信度。若该置信度值接近1,则判别器预判其输入可能来自置信度高的目标点云,否则判定其来自生成器。
步骤105:利用自注意单元增强级联后的特征集成。
具体地,在判别器中采用了自注意单元,其结构如图3所示,通过两个独立的CMLP将输入特征转换成G和H,然后通过(1)式从G和H生成注意权重W。
W=fsoftmax(GTH) (1)
式中,fsoftmax表示softmax函数,将得到的加权特征W与原始输入特征T、通过另一个CMLP从输入中提取的特征K进行加权,最后生成输出特征。
步骤106:采用联合损失函数对网络进行端到端的训练。
具体地:网络中损失函数是由对抗性损失、均匀性损失两部分组成。对于生成器网络G和判别器网络D采用最小平方损失作为对抗性损失部分,如(2)和(3)式所示。
Figure BDA0002811319600000061
Figure BDA0002811319600000062
式中,D(Q)为D对生成器输出Q预测的置信度。训练过程中,生成器G旨在通过最小化Lgan(G)生成Q以混淆判别器D,而D的目的为通过最小化Lgan(D)以学习区分Q和
Figure BDA0002811319600000063
由于点云数据对结果分布的均匀性有要求,仅使用对抗性损失作为损失函数,训练网络难以很好地收敛。因此,为提高生成器的性能,采用均匀损失对生成器的Q值进行评估。具体地,遵循最远采样点选择原则,选取Q中的M个点,在半径为rd的球体范围内对每个选中的点进行查找,确定一个点集表示为Sj,其中j=1…M,当rd较小时,则Sj的分布大概位于球体表面面积为
Figure BDA0002811319600000064
的圆内。由于网络训练时基于patch进行的,因此首先对点云数据进行分块处理。通过随机查找确定200个网格曲面位置,以每个位置为中心选取一定范围块(占曲面的5%),在单位球内对每个块进行归一化处理,因此,每个块的面积可近似表示为π12。因此Sj中期望的点数所占百分比p为
Figure BDA0002811319600000065
Sj中期望的点数
Figure BDA0002811319600000066
为rNp。如(4)式所示,通过卡方模型计算|Sj|与
Figure BDA0002811319600000067
的偏差。
Figure BDA0002811319600000068
为了滤除点云局部的杂点影响,对Sj中的每个点,计算与其相邻的最近点的距离dj,k,其中k表示Sj中的第k个点。若Sj内的点均匀分布,假设Sj在平面内、按照六边形确定其相邻点,则期望的点到与其相邻点的距离
Figure BDA0002811319600000069
可近似表示为
Figure BDA00028113196000000610
同样地,通过卡方模型计算dj,k
Figure BDA00028113196000000611
二者的偏差,如(5)式所示。
Figure BDA00028113196000000612
式中,Uclutter表示点云局部分布的均匀性,用Uimbalances表示局部非均匀性,将二者结合定义均匀性损失以促使产生均匀性更好的结果,均匀性损失表示为(6)式。
Figure BDA0002811319600000071
PSR-Net模型的训练策略为利用最小化生成器LG和判别器LD对网络进行端对端训练。在整个网络训练的过程中,对生成器G和判别器D交替进行优化。网络的总损失函数表示为(7)、(8)式。
LG=λganLgan(G)+λuniLuni (7)
LD=Lgan(D) (8)
式中,λgan和λuni为权重。

Claims (7)

1.一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,该方法为:
通过生成器网络中对激光点云图像进行特征提取,获得激光点云特征;
对所述激光点云特征进行特征扩展,再进行坐标重建,获得密集点云数据;
对所述密集点云数据进行鉴别确定对应的置信度;
根据所述密集点云数据的置信度预判对应的密集点云数据,如果该置信度值接近1,则鉴别器预测输入可能来自具有高置信度的目标分布,否则来自生成器,对所述密集点云数据进行特征集成,获得输出特征;
通过输出特征对对抗网络进行训练得到最终的稠密点云数据。
2.根据权利要求1所述的一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,所述通过生成器网络中对激光点云图像进行特征提取,获得激光点云特征,具体为:在从大小为N×d的稀疏点云输入P中提取激光点云特征F(N×C),其中d为点云的维数,,将N×3的稀疏点云输入特征提取单元,特征提取单元由一系列密集块组成,每个密集块的内部采用密集连接方式,密集块之间采用长跳跃连接方式,实现不同特征提取单元之间的特征信息共享,在每个密集块中,将输入转换为固定数量的特征,使用基于特征的最近邻算法(KNN)对特征进行分组,通过密集连接的MLP链优化每个分组的特征,最后通过最大池化层计算激光点云特征。
3.根据权利要求2所述的一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,所述对所述激光点云特征进行特征扩展,再进行坐标重建,获得密集点云数据,具体为:对提取的激光点云特征F进行拓展得到扩展特征Fup,对所述扩展特征Fup进行上采样,生成上采样后的扩展特征F′up后再对其下采样,然后通过计算上采样前和下采样后特征间的特征差Δ,将所述特征差Δ上采样得到上采样后的特征差Δup,再将所述上采样后的特征差Δup添加到上采样后的扩展特征F′up对扩展后的特征进行校正,获得校正后的扩展特征;所述扩展特征通过一组联合多层感知器(CMLP)回归得到点云的3D坐标集,每个MLP的输出即提取的点云特征可与后续的MLP共享重复使用,所述回归得到的点云坐标集即为最终网络输出的密集点云数据。
4.根据权利要求3所述的一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,所述对所述密集点云数据进行鉴别确定对应的置信度,具体为:对于生成器网络G和判别器网络D采用最小平方损失作为对抗性损失。
5.根据权利要求4所述的一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,所述根据所述密集点云数据的置信度预判对应的密集点云数据是来自置信度高的目标点云还是来自生成器,具体为:通过一组MLPs和最大池化层生成全局特征,并利用全连接层回归最终的置信度,若该置信度值接近1,则判别器预判其输入可能来自置信度高的目标点云,否则判定其来自生成器。
6.根据权利要求5所述的一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,所述对所述密集点云数据进行特征集成,具体为:在自注意单元中通过两个独立的CMLP将输入特征转换成M和N,然后通过(3)式从M和N生成注意权重W,
W=fsoftmax(MTN) (3)
式中,fsoftmax表示softmax函数,将得到的加权特征W与原始输入特征T、通过另一个CMLP从输入中提取的特征K进行加权,最后生成输出特征。
7.根据权利要求6所述的一种基于自注意生成对抗网络的激光点云超分辨率重建方法,其特征在于,所述通过输出特征对对抗网络进行训练得到最终的稠密点云数据,具体为:对采用均匀损失对生成器的Q值进行评估,根据最远采样点选择原则,对点云数据进行分块处理;
将点云局部分布的均匀性与局部非均匀性结合定义均匀性损失以促使产生均匀性更好的结果,PSR-Net模型的训练策略为利用最小化生成器LG和判别器LD对网络进行端对端训练,在整个网络训练的过程中,对生成器G和判别器D交替进行优化。
CN202011392367.4A 2020-12-02 2020-12-02 基于自注意生成对抗网络的激光点云超分辨率重建方法 Active CN112561796B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011392367.4A CN112561796B (zh) 2020-12-02 2020-12-02 基于自注意生成对抗网络的激光点云超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011392367.4A CN112561796B (zh) 2020-12-02 2020-12-02 基于自注意生成对抗网络的激光点云超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN112561796A true CN112561796A (zh) 2021-03-26
CN112561796B CN112561796B (zh) 2024-04-16

Family

ID=75047280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011392367.4A Active CN112561796B (zh) 2020-12-02 2020-12-02 基于自注意生成对抗网络的激光点云超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN112561796B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096015A (zh) * 2021-04-09 2021-07-09 西安电子科技大学 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
CN113313835A (zh) * 2021-07-29 2021-08-27 深圳市数字城市工程研究中心 一种基于机载LiDAR点云的建筑物屋顶自动建模方法
CN113379646A (zh) * 2021-07-07 2021-09-10 厦门大学 一种利用生成对抗网络进行稠密点云补全的算法
CN113593043A (zh) * 2021-08-19 2021-11-02 中山大学 一种基于生成对抗网络的点云三维重建方法与系统
CN113988164A (zh) * 2021-10-21 2022-01-28 电子科技大学 一种面向代表点自注意力机制的轻量级点云目标检测方法
CN114863062A (zh) * 2022-06-07 2022-08-05 南京航空航天大学深圳研究院 基于点、体素特征表示的工业场景3d点云模型构建方法
WO2023010562A1 (zh) * 2021-08-06 2023-02-09 Oppo广东移动通信有限公司 点云处理方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3004572A1 (en) * 2017-05-24 2018-11-24 General Electric Company Neural network point cloud generation system
CN112001847A (zh) * 2020-08-28 2020-11-27 徐州工程学院 相对生成对抗超分辨率重建模型生成高质量图像的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3004572A1 (en) * 2017-05-24 2018-11-24 General Electric Company Neural network point cloud generation system
CN112001847A (zh) * 2020-08-28 2020-11-27 徐州工程学院 相对生成对抗超分辨率重建模型生成高质量图像的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
丁明航;邓然然;邵恒;: "基于注意力生成对抗网络的图像超分辨率重建方法", 计算机系统应用, no. 02 *
刘鹏飞;赵怀慈;李培玄;: "对抗网络实现单幅RGB重建高光谱图像", 红外与激光工程, no. 1 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096015A (zh) * 2021-04-09 2021-07-09 西安电子科技大学 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
CN113379646A (zh) * 2021-07-07 2021-09-10 厦门大学 一种利用生成对抗网络进行稠密点云补全的算法
CN113379646B (zh) * 2021-07-07 2022-06-21 厦门大学 一种利用生成对抗网络进行稠密点云补全的算法
CN113313835A (zh) * 2021-07-29 2021-08-27 深圳市数字城市工程研究中心 一种基于机载LiDAR点云的建筑物屋顶自动建模方法
CN113313835B (zh) * 2021-07-29 2021-11-09 深圳市数字城市工程研究中心 一种基于机载LiDAR点云的建筑物屋顶自动建模方法
WO2023010562A1 (zh) * 2021-08-06 2023-02-09 Oppo广东移动通信有限公司 点云处理方法和装置
CN113593043A (zh) * 2021-08-19 2021-11-02 中山大学 一种基于生成对抗网络的点云三维重建方法与系统
CN113593043B (zh) * 2021-08-19 2024-03-08 中山大学 一种基于生成对抗网络的点云三维重建方法与系统
CN113988164A (zh) * 2021-10-21 2022-01-28 电子科技大学 一种面向代表点自注意力机制的轻量级点云目标检测方法
CN113988164B (zh) * 2021-10-21 2023-08-08 电子科技大学 一种面向代表点自注意力机制的轻量级点云目标检测方法
CN114863062A (zh) * 2022-06-07 2022-08-05 南京航空航天大学深圳研究院 基于点、体素特征表示的工业场景3d点云模型构建方法
CN114863062B (zh) * 2022-06-07 2023-09-15 南京航空航天大学深圳研究院 基于点、体素特征表示的工业场景3d点云模型构建方法

Also Published As

Publication number Publication date
CN112561796B (zh) 2024-04-16

Similar Documents

Publication Publication Date Title
CN112561796B (zh) 基于自注意生成对抗网络的激光点云超分辨率重建方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN108510532B (zh) 基于深度卷积gan的光学和sar图像配准方法
CN103927531B (zh) 一种基于局部二值和粒子群优化bp神经网络的人脸识别方法
CN111310666B (zh) 一种基于纹理特征的高分辨率影像地物识别与分割方法
CN113361485B (zh) 基于光谱空间注意力融合和可变形卷积残差网络的高光谱图像分类方法
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
CN110084108A (zh) 基于gan神经网络的行人重识别系统及方法
CN111861906A (zh) 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法
Raparthi et al. Machine Learning Based Deep Cloud Model to Enhance Robustness and Noise Interference
Liu et al. APSNet: Toward adaptive point sampling for efficient 3D action recognition
Hu et al. RGB-D image multi-target detection method based on 3D DSF R-CNN
CN116486243A (zh) 基于DP-ViT的声呐图像目标检测方法
Wang et al. Lightweight deep neural networks for ship target detection in SAR imagery
Ma et al. LPI radar waveform recognition based on neural architecture search
CN113989612A (zh) 基于注意力及生成对抗网络的遥感影像目标检测方法
Ma Improving SAR target recognition performance using multiple preprocessing techniques
CN112132207A (zh) 基于多分支特征映射目标检测神经网络构建方法
CN115222998B (zh) 一种图像分类方法
CN116895016A (zh) 一种sar图像船舶目标生成与分类方法
Zhao et al. Seabed sediments classification based on side-scan sonar images using dimension-invariant residual network
Jiao et al. Research on convolutional neural network model for sonar image segmentation
Zhu et al. Synthetic aperture radar target classification based on 3-D convolutional neural network
CN111126310A (zh) 一种基于场景迁移的行人性别识别方法
CN113963274B (zh) 基于改进ssd算法的卫星影像目标智能识别系统与方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant