CN111062423A - 基于自适应特征融合的点云图神经网络的点云分类方法 - Google Patents

基于自适应特征融合的点云图神经网络的点云分类方法 Download PDF

Info

Publication number
CN111062423A
CN111062423A CN201911201999.5A CN201911201999A CN111062423A CN 111062423 A CN111062423 A CN 111062423A CN 201911201999 A CN201911201999 A CN 201911201999A CN 111062423 A CN111062423 A CN 111062423A
Authority
CN
China
Prior art keywords
feature
point cloud
features
local
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911201999.5A
Other languages
English (en)
Other versions
CN111062423B (zh
Inventor
周勇
郭睿
赵佳琦
夏士雄
张迪
姚睿
刘兵
杜文亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xuzhou Guanglian Technology Co ltd
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201911201999.5A priority Critical patent/CN111062423B/zh
Publication of CN111062423A publication Critical patent/CN111062423A/zh
Application granted granted Critical
Publication of CN111062423B publication Critical patent/CN111062423B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于自适应特征融合的点云图神经网络的点云分类方法,使用残差结构缓解梯度消失;使用全局特征与局部特征相融合,提升网络性能;使用权重自适应机制指导特征融合;本发明利用图神经网络关注局部特征,点云网络提取全局特征的同时加入残差块,将提取的全局特征与局部特征融合,在特征融合的时候对于不同的特征加入了权重自适应机制,从而优化模型性能。

Description

基于自适应特征融合的点云图神经网络的点云分类方法
技术领域
本发明属于图像处理技术领域,特别设计点云特征学习技术领域的一种基于自适应特征融合的点云图神经网络的点云分类方法。
背景技术
点云是在同一空间参考系下表达空间目标分步和目标表面特性的点的集合,一般由 RGBD设备抓取信息,在获取物体表面每个采样点的空间坐标后,得到的点的集合称为点云。点云是三维图像的一种表现形式,由于获得点设备的特性决定点云数据比rgb图像更有鲁棒性,受外界的影响更低。点云是直接测量未经过其他手段处理得到的信息,包含了最大化的原始信息,同时点云模型在处理海量数据的时候极具优势
点云分类的目标是将输入的数据准确区分为不同的类别。与图像分类类似,点云分类也是先提取特征,然后设计模型通过训练参数优化模型,最后利用学习得到的模型对输入进行分类。
目前,三维数据处理是计算机视觉领域的关键问题之一,点云分类是三维数据处理的关键环节。对于三维点云,数据正在迅速增长,获得点云数据的设备种类繁多,然而现在的设备仅仅是获取三维点云数据而不是拍摄图像并进行处理,庞大的点云数据没有充分得到学习利用。点云分类在三维重建,数字化建模,文物保护等方面具有广泛的应用价值。应用各种传统的计算机视觉和机器学习方法,已经对点云分类问题有了初步的解决方案。由于深度学习对当今时代各领域展现的强大作用使得计算机视觉领域的诸多问题包括三维点云分类也开始用深度学习结构来解决问题。
在点云上直接利用深度学习的开拓方法是对输入的每个点上分别训练一个多层感知器多层感知器MLP用于在点之间分享权重,再利用对称函数解决点云的无序性问题,应用T-Net 解决点云的旋转问题,相比于传统的点云学习方法复杂度没有增加的同时大大优化了点云分类准确度。
然而,现有的三维点云分类仍存在以下问题:
(1)点云的无结构性。点云是一种无网格、非结构化的数据,二维图像应用的CNN需要结构化的网格帮助。同时图像中的像素的数量通常由相机决定是一个给定的常数,然而点云的数量取决于各种传感器,可能会有较大的变化。
(2)点云的不变性排列。点云的本质是一系列点的集合,在集合上点的顺序不影响它在矩阵结构中的表达方式,相同的点云可以由两个完全不同的矩阵表示。
(3)点云中的旋转操作不应该改变物体本身,需要一个模块解决旋转带来的影响。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种基于自适应特征融合的点云图神经网络的点云分类方法,应用了变换矩阵消除点云的结构性影响。提出了一种融合全局特征与局部特征的点云分类网络,提取不同尺度特征,自适应融合全局特征和局部特征,从而优化网络的分类性能。同时我们设计了一种新的用于点云多分类任务的焦点损失函数 Focal loss,主要针对于样本的类别不均衡,目的是减少易分类样本的权重从而使得模型在训练时更专注于难分类的样本。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于自适应特征融合的点云图神经网络的点云分类方法,包括以下步骤:
步骤1,搭建点云网络。
步骤11,搭建连接点云网络特征提取器。
步骤111,获取训练样本图片点云信息作为输入数据,将输入数据记为原始特征P0,对原始特征P0做输入变换得到特征一P1
步骤112,特征一P1经过多层感知器mlp(64)得到特征二P2
步骤113,将原始特征P0和提取到的特征二P2由concat(P0,P2)得到的特征经过多层感知器mlp(64)得到特征三P3
concat(P0,P2)是将原始特征P0和特征二P2在维度上拼接。
步骤114,对特征三P3做输入变换操作得到特征四P4
步骤115,将原始特征P0、特征二P2、特征四P4由concat(P0,P2,P4)得到的特征经过多层感知器mlp(128)得到全局特征P5
concat(P0,P2,P4)是将原始特征P0、特征二P2、特征四P4在维度上拼接。
步骤12,搭建图神经点云网络特征提取器。
步骤121,对步骤111得到的特征一P1提取边缘特征再进行多层感知器mlp64得到第一特征D1
步骤122,对第一特征D1提取边缘特征再经过多层感知器mlp64得到第二特征D2
步骤123,对第二特征D2提取边缘特征再经过多层感知器mlp128得到第三特征D3
步骤124,对第三特征D3提取边缘特征再经过多层感知器mlp256得到第四特征D4
步骤13,引入权重自适应机制。
步骤131,对步骤121得到的第一特征D1升维得到128维特征,记为第一局部特征D10
步骤132,第二特征D2、第三特征D3、第四特征D4依次经过线性层分别得到128维特征,分别记为第二局部特征D20、第三局部特征D30、第四局部特征D40
步骤133,对全局特征P5与第一局部特征D10、第二局部特征D20、第三局部特征D30、第四局部特征D40赋予一个初始化权重参数数组并利用softmax函数将参数映射到区间(0,1) 中得到参数[x0,x1,x2,x3,x4]。
步骤134,自适应学习权重参数数组得到最优特征P:
P=x0*P5+x1*D10+x2*D20+x3*D30+x4*D40
步骤2,训练点云网络:
步骤21,最优特征P经过多层感知器mlp1024和最大值池化层得到第五特征Pm
步骤22,第五特征Pm经过多层感知器mlp(512,256,40)得到一个40维的特征,记为预测特征Pk,预测特征Pk对应于40类的分数值。
步骤23,使用损失函数来计算预测特征Pk与真实值的误差。
损失函数为:
Figure RE-GDA0002412815130000031
其中
Figure RE-GDA0002412815130000032
其中,Lfl表示损失,
Figure RE-GDA0002412815130000033
表示第t个物体的预测值,γ表示焦点参数,代表平滑调整调整简单样本被加权的速率,T表示总的类别数,ak表示第个k个输入值
步骤24,使用整体精度OA作为评价指标来判断模型性能,取整体精度OA最高的为最后模型,得到最终训练好的点云网络。
步骤3,运行点云网络。将待分类的三维图像的点云信息输入到训练好的点云网络进行分类。
优选的:步骤24中整体精度OA计算公式如下:
Figure RE-GDA0002412815130000041
其中,θ表示整体精度,Ni表示被正确分为类别i的物体数目,N表示总的物体数目,k 表示总的类别数。
本发明相比现有技术,具有以下有益效果:
本发明提供一种基于自适应特征融合的点云图神经网络的点云分类方法,可以有效利用点云数据,将全局特征与局部特征融合,利用全局特征来弥补局部特征的整体性,自适应的调整全局特征与局部特征的权重,使得全局特征的丰富信息与局部特征中关键信息相结合,可以更有效的提取点云数据特征从而优化点云分类精度。同时我们设计了一种新的用于点云多分类任务的焦点损失函数Focal loss,主要针对于样本的类别不均衡,目的是减少易分类样本的权重从而使得模型在训练时更专注于难分类的样本。
附图说明
图1为本发明的网络结构图。
图2为本发明的步骤图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
如图1所示为一种基于自适应特征融合的点云图神经网络的点云分类方法,具体步骤如下:
步骤一、搭建点云网络
(11)搭建链接点云网络特征提取器。
(111)获取训练样本图片点云信息作为输入数据,将输入数据记为原始特征P0,对输入特征P0做输入变换得到特征一P1
(112)特征一P1经过多层感知器mlp(64)得到特征二P2
(113)原始特征P0和提取到的特征二P2由concat(P0,P2)得到的特征经过多层感知器mlp(64)得到特征三P3。concat(P0,P2)是将原始特征P0和特征二P2在维度上拼接。
(114)对特征三P3做输入变换操作得到特征四P4
(115)将原始特征P0、特征二P2、特征四P4由concat(P0,P2,P4)得到的特征经过多层感知器mlp(128)得到全局特征P5。concat(P0,P2,P4)是将原始特征P0、特征二P2、特征四P4在维度上拼接。
(12)搭建图神经点云网络特征提取器。
(121)对步骤(111)得到的特征一P1提取边缘特征再经过多层感知器mlp(64)得到第一特征D1
(122)对第一特征D1提取边缘特征再经过多层感知器mlp(64)得到第二特征D2
(123)对第二特征D2提取边缘特征再经过多层感知器mlp(128)得到第三特征D3
(124)对第三特征D3提取边缘特征再经过多层感知器mlp(256)得到第四特征D4
(13)引入权重自适应机制。
(131)将(121)中得到的第一特征D1升维得到128维第一局部特征D10
(132)第二特征D2、第三特征D3、第四特征D4依次经过线性层分别得到128维特征,分别记为第二局部特征D20、第三局部特征D30、第四局部特征D40
(133)对全局特征P5与第一局部特征D10、第二局部特征D20、第三局部特征D30、第四局部特征D40赋予一个初始化权重参数数组并利用softmax函数将参数映射到(0,1)中得到参数[x0,x1,x2,x3,x4]。
(134)自适应学习权重参数数组得到最优特征P:
P=x0*P5+x1*D10+x2*D20+x3*D30+x4*D40
步骤二、点云网络训练
(21)训练网络。
(211)最优特征P经过最大值池化层得到第五特征Pm
(212)第五特征Pm经过多层感知器mlp(512,256,40)得到一个40维的预测特征Pk对应于 40类的分数值。
(213)使用Focal loss损失函数来计算模型预测特征Pk实值的误差。
损失函数为:
Figure RE-GDA0002412815130000051
其中:
Figure RE-GDA0002412815130000061
其中,Lfl表示损失,
Figure RE-GDA0002412815130000062
表示第t个物体的预测值,γ表示焦点参数,代表平滑调整调整简单样本被加权的速率,T表示总的类别数,ak表示第个k个输入值。
使用整体精度OA作为评价指标来判断模型性能,取整体精度OA最高的为最后模型,得到最终训练好的点云网络。OA整体精度,其计算正确分类的样本数目与样本总数之比,在用于点云分类问题的modlenet40数据集中,即是正确分类的点云样本数目与与样本总数之比。
Figure RE-GDA0002412815130000063
其中,θ表示整体精度,Ni表示被正确分为类别i的物体数目,N表示总的物体数目,k表示总的类别数。
步骤三、运行点云网络。
将待分类的三维图像的点云信息输入到训练好的点云网络进行分类。
表1不同分类方法的精度比较
Figure RE-GDA0002412815130000064
如表1所示,采用不同的点云分类方法与本发明的方法的精度比较,本发明的分类精度明显的高于其他方法。
本发明使用一种残差结构缓解全局特征提取网络的梯度消失问题,使用全局特征与局部特征相融合,利用全局特征的丰富信息与局部特征的关键信息互补提升网络性能,使用权重自适应机制为局部特征与全局特征分配最适合的权重而不是直接融合全局特征与局部特征,本发明利用图神经网络关注局部特征,点云网络提取全局特征的同时加入残差块,将提取的全局特征与局部特征融合,在特征融合的时候对于不同的特征加入了权重自适应机制,从而优化模型性能。同时我们设计了一种新的用于点云多分类任务的焦点损失函数Focal loss,主要针对于样本的类别不均衡,目的是减少易分类样本的权重从而使得模型在训练时更专注于难分类的样本。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (2)

1.一种基于自适应特征融合的点云图神经网络的点云分类方法,其特征在于,包括以下步骤:
步骤1,搭建点云网络;
步骤11,搭建连接点云网络特征提取器;
步骤111,获取训练样本图片点云信息作为输入数据,将输入数据记为原始特征P0,对原始特征P0做输入变换得到特征一P1
步骤112,特征一P1经过多层感知器mlp(64)得到特征二P2
步骤113,将原始特征P0和提取到的特征二P2由concat(P0,P2)得到的特征经过多层感知器mlp(64)得到特征三P3
concat(P0,P2)是将特征一P0和特征二P2在维度上拼接;
步骤114,对特征三P3做输入变换操作得到特征四P4
步骤115,将原始特征P0、特征二P2、特征四P4由concat(P0,P2,P4)得到的特征经过多层感知器mlp(128)得到全局特征P5
concat(P0,P2,P4)是将原始特征P0、特征二P2、特征四P4在维度上拼接;
步骤12,搭建图神经点云网络特征提取器;
步骤121,对步骤111得到的特征一P1提取边缘特征再进行多层感知器mlp64得到第一特征D1
步骤122,对第一特征D1提取边缘特征再经过多层感知器mlp64得到第二特征D2
步骤123,对第二特征D2提取边缘特征再经过多层感知器mlp128得到第三特征D3
步骤124,对第三特征D3提取边缘特征再经过多层感知器mlp256得到第四特征D4
步骤13,引入权重自适应机制;
步骤131,对步骤121得到的第一特征D1升维得到128维特征,记为第一局部特征D10
步骤132,第二特征D2、第三特征D3、第四特征D4依次经过线性层分别得到128维特征,分别记为第二局部特征D20、第三局部特征D30、第四局部特征D40
步骤133,对全局特征P5与第一局部特征D10、第二局部特征D20、第三局部特征D30、第四局部特征D40赋予一个初始化权重参数数组并利用softmax函数将参数映射到区间(0,1)中得到参数[x0,x1,x2,x3,x4];
步骤134,自适应学习权重参数数组得到最优特征P:
P=x0*P5+x1*D10+x2*D20+x3*D30+x4*D40
步骤2,训练点云网络:
步骤21,最优特征P经过多层感知器mlp(1024)和最大值池化层得到第五特征Pm
步骤22,第五特征Pm经过多层感知器mlp(512,256,40)得到一个40维的特征,记为预测特征Pk,预测特征Pk对应于40类的分数值;
步骤23,使用损失函数来计算预测特征Pk与真实值的误差;
损失函数为:
Figure FDA0002296109770000021
其中
Figure FDA0002296109770000022
其中,Lfl表示损失,
Figure FDA0002296109770000023
表示第t个物体的预测值,γ表示焦点参数,代表平滑调整调整简单样本被加权的速率,T表示总的类别数,ak表示第个k个输入值;
步骤24,使用整体精度OA作为评价指标来判断模型性能,取整体精度OA最高的为最后模型,得到最终训练好的点云网络;
步骤3,运行点云网络;将待分类的三维图像的点云信息输入到训练好的点云网络进行分类。
2.根据权利要求1所述基于自适应特征融合的点云图神经网络的点云分类方法,其特征在于:步骤24中整体精度OA计算公式如下:
Figure FDA0002296109770000024
其中,θ表示整体精度,Ni表示被正确分为类别i的物体数目,N表示总的物体数目,k表示总的类别数。
CN201911201999.5A 2019-11-29 2019-11-29 基于自适应特征融合的点云图神经网络的点云分类方法 Active CN111062423B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911201999.5A CN111062423B (zh) 2019-11-29 2019-11-29 基于自适应特征融合的点云图神经网络的点云分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911201999.5A CN111062423B (zh) 2019-11-29 2019-11-29 基于自适应特征融合的点云图神经网络的点云分类方法

Publications (2)

Publication Number Publication Date
CN111062423A true CN111062423A (zh) 2020-04-24
CN111062423B CN111062423B (zh) 2022-04-26

Family

ID=70299656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911201999.5A Active CN111062423B (zh) 2019-11-29 2019-11-29 基于自适应特征融合的点云图神经网络的点云分类方法

Country Status (1)

Country Link
CN (1) CN111062423B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626217A (zh) * 2020-05-28 2020-09-04 宁波博登智能科技有限责任公司 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN112633376A (zh) * 2020-12-24 2021-04-09 南京信息工程大学 基于深度学习的点云数据地物分类方法、系统与存储介质
CN112819080A (zh) * 2021-02-05 2021-05-18 四川大学 一种高精度通用的三维点云识别方法
CN113052109A (zh) * 2021-04-01 2021-06-29 西安建筑科技大学 一种3d目标检测系统及其3d目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171217A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于点融合网络的三维物体检测方法
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171217A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于点融合网络的三维物体检测方法
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAICHUN MO等: "StructureNet", 《ACM TRANSACTIONS ON GRAPHICS (TOG)》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626217A (zh) * 2020-05-28 2020-09-04 宁波博登智能科技有限责任公司 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN111626217B (zh) * 2020-05-28 2023-08-22 宁波博登智能科技有限公司 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN112633376A (zh) * 2020-12-24 2021-04-09 南京信息工程大学 基于深度学习的点云数据地物分类方法、系统与存储介质
CN112819080A (zh) * 2021-02-05 2021-05-18 四川大学 一种高精度通用的三维点云识别方法
CN113052109A (zh) * 2021-04-01 2021-06-29 西安建筑科技大学 一种3d目标检测系统及其3d目标检测方法

Also Published As

Publication number Publication date
CN111062423B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
CN111062423B (zh) 基于自适应特征融合的点云图神经网络的点云分类方法
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN111160297A (zh) 基于残差注意机制时空联合模型的行人重识别方法及装置
Li et al. Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
CN112541532B (zh) 基于密集连接结构的目标检测方法
CN113591968A (zh) 一种基于非对称注意力特征融合的红外弱小目标检测方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
CN113076994A (zh) 一种开集域自适应图像分类方法及系统
CN114972312A (zh) 基于YOLOv4-Tiny改进的绝缘子缺陷检测方法
Li et al. A review of deep learning methods for pixel-level crack detection
CN116342894B (zh) 基于改进YOLOv5的GIS红外特征识别系统及方法
CN112288758B (zh) 一种电力设备红外与可见光图像配准方法
CN112819063A (zh) 一种基于改进的Focal损失函数的图像识别方法
Zhou et al. Defect detection method based on knowledge distillation
CN117152601A (zh) 一种基于动态感知区域路由的水下目标检测方法及系统
CN116030292A (zh) 基于改进ResNext的混凝土表面粗糙度检测方法
CN115049842B (zh) 一种飞机蒙皮图像损伤检测与2d-3d定位方法
CN110826575A (zh) 一种基于机器学习的水下目标识别方法
CN116051808A (zh) 一种基于YOLOv5的轻量化零件识别定位方法
CN115331021A (zh) 基于多层特征自身差异融合的动态特征提取与描述方法
Zhang et al. Yolo-infrared: Enhancing yolox for infrared scene
Pang et al. Target tracking based on siamese convolution neural networks
CN114140524A (zh) 一种多尺度特征融合的闭环检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221111

Address after: 221000 Building A13, Safety Technology Industrial Park, Tongshan District, Xuzhou City, Jiangsu Province

Patentee after: XUZHOU GUANGLIAN TECHNOLOGY Co.,Ltd.

Address before: 221116 Research Institute of China University of Mining and Technology, Tongshan University Road, Xuzhou City, Jiangsu Province

Patentee before: CHINA University OF MINING AND TECHNOLOGY

TR01 Transfer of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Point Cloud Classification Method Based on Adaptive Feature Fusion of Point Cloud Graph Neural Network

Effective date of registration: 20231106

Granted publication date: 20220426

Pledgee: Xuzhou Huaichang Investment Co.,Ltd.

Pledgor: XUZHOU GUANGLIAN TECHNOLOGY Co.,Ltd.

Registration number: Y2023980063946

PE01 Entry into force of the registration of the contract for pledge of patent right