CN110543581A - 基于非局部图卷积网络的多视图三维模型检索方法 - Google Patents

基于非局部图卷积网络的多视图三维模型检索方法 Download PDF

Info

Publication number
CN110543581A
CN110543581A CN201910848660.8A CN201910848660A CN110543581A CN 110543581 A CN110543581 A CN 110543581A CN 201910848660 A CN201910848660 A CN 201910848660A CN 110543581 A CN110543581 A CN 110543581A
Authority
CN
China
Prior art keywords
model
graph convolution
network
view
local graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910848660.8A
Other languages
English (en)
Other versions
CN110543581B (zh
Inventor
高赞
李荫民
程志勇
陈达
舒明雷
聂礼强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Computer Science Center National Super Computing Center in Jinan
Original Assignee
Shandong Computer Science Center National Super Computing Center in Jinan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Computer Science Center National Super Computing Center in Jinan filed Critical Shandong Computer Science Center National Super Computing Center in Jinan
Priority to CN201910848660.8A priority Critical patent/CN110543581B/zh
Publication of CN110543581A publication Critical patent/CN110543581A/zh
Priority to AU2020204549A priority patent/AU2020204549A1/en
Priority to AU2020104423A priority patent/AU2020104423A4/en
Application granted granted Critical
Publication of CN110543581B publication Critical patent/CN110543581B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

该发明属于计算机视觉及深度学习领域,针对当前基于视图的深度学习方法不能捕获三维模型全面的空间信息的缺点,基于非局部图卷积网络的多视图三维模型检索方法挖掘融合多视图的高响应特征,从而得到单一紧凑的高辨别性模型描述符。其优越性能在三维模型检索中得到验证。该发明具体包含以下步骤:(1)获取模型的多视角图像,(2)多视角图像预处理,(3)设计非局部图卷积网络,(4)非局部图卷积网络训练,(5)提取模型深度特征,(6)三维模型的检索匹配。

Description

基于非局部图卷积网络的多视图三维模型检索方法
技术领域
本发明属于计算机视觉及深度学习领域,发明基于非局部图卷积网络的多视图三维模型检索方法挖掘融合多视图的高响应特征,从而得到单一紧凑的高辨别性模型描述符,该发明显著提高了三维模型检索的性能。
背景技术
图像检索是自图像化计算机诞生以来就一直存在的迫切需求,早期的研究人员开发了大量的图像检索算法来满足这种需求,如尺度不变特征变换方法,估计最近邻方法,弱监督深度度量学习,二部图和特征学习等。近年来随着计算机硬件性能的增强,以及多种三维传感器,三维建模软件的快速发展,三维模型成为许多领域的基础组件,同时对三维模型的检索成为其重要程序,因此设计开发基于三维模型检索算法是当前计算机视觉领域的一个研究热点。三维模型检索方法的研究又分为两个阶段:(1)早期基于传统方法的三维模型检索方法。(2)基于深度神经网络的三维模型检索算法。
早期基于传统方法的三维模型检索算法中包含基于模型的三维模型检索算法和基于多视图的三维模型检索算法。三维模型检索过程有两个关键步骤:(1)特征提取,(2)模型检索。早期的基于模型的算法在特征提取过程中有基于网格的表示以及基于点云的表示,其特征设计大多基于自身的几何性质及其形状。在检索方法中研究者开发了多种模型检索方法。有研究者将3D形状信息转换为直方图,使用欧氏距离来对两个模型的直方图进行比较从而得到其相似度。
在基于深度神经网络的三维模型检索方法中,同样包含基于模型的三维模型检索算法以及基于多视图的三维模型检索算法,其检索的关键步骤同传统方法相似。深度神经网络在图像分类,图像分割等领域实现了优良的性能,因此有许多基于深度神经网络的三维模型检索方法被提出。基于模型的方法中其主要使用三维卷积或者使用二维卷积来捕捉模型的点云,网格的特征信息。而在基于多视图的算法开始使用神经网络来提取深度学习特征,如AlexNet,GoogLeNet,VGG,ResNet等深度神经网络。然后使用传统的检索算法来对三维模型进行检索。但单纯使用神经网络所提取的视图特征不能包含三维模型的全面信息。
在基于多视角的三维模型检索中,每个三维模型都有多个视角图像表示,但是现有的深度神经网络主要用来识别单个图像,其识别效果受限于信息的不全面性。如何聚合多视角图像信息,如何捕获模型的空间特征是提高三维模型检索性能的关键。
发明内容
该发明针对当前基于视图的深度学习方法不能捕获三维模型全面的空间信息的缺点,因此提供基于非局部图卷积网络的多视图三维模型检索方法挖掘融合多视图的高响应特征,从而得到单一紧凑的高辨别性模型描述符。其优越性能在三维模型检索中得到验证。
基于非局部图卷积网络的多视图三维模型检索方法在三维模型检索中拥有优越的性能,包括如下几个步骤:
第一步、获取模型的多视角图像
本发明适用于现实世界物体,也适用于计算机制作三维模型,在获取模型的多视图图像时,现实世界物体可以通过设置多个多角度摄像头来捕捉物体的各个角度视图,计算机三维模型可以通过软件的模拟相机设置好多角度来捕捉其各个角度视图;
第二步、多视角图像预处理
为了更好的训练网络以及符合本发明设计的非局部图卷积网络的检索要求,需要对多视角图像进行预处理。其中包括图像裁剪,图像尺寸重置,图像翻转以及图像归一化等;
第三步、设计非局部图卷积网络
本发明针对现有神经网络无法全面捕捉模型自身的空间信息的问题,设计发明了非局部图卷积网络来挖掘融合多视图的高响应特征,非局部图卷积网络包含以下几个模块:卷积模块一,图卷积模块,卷积模块二,图卷积模块,卷积模块三,特征融合模块,模型分类模块;
第四步、非局部图卷积网络训练
通过以上三步,得到训练非局部图卷积网络需要的数据以及其网络架构,本发明使用pytoch深度学习框架来训练网络模型,使用语言为python3.6。该网络同时可同时输入多张图像,随着迭代次数的增多,其损失函数随之下降直到收敛,收敛条件为稳定在1×10^(-3)左右;
第五步、提取模型深度特征
提取模型深度特征时仍然使用pytorch深度学习框架,训练好本发明设计的非局部图卷积网络后,得到训练好的非局部图卷积网络模型参数,然后将检索匹配要用到的所有三维模型输入预训练好的非局部图卷积网络中,通过前面的卷积模块与图卷积模块挖掘到多视图的高响应特征,使用max-pooling操作来对多视图融合,进而得到单一紧凑的高辨别性模型描述符;
第六步、三维模型的检索匹配
对三维模型检索时主要是其模型相关性的度量方法,本发明使用基于L2范数的欧几里得度量方法来计算两个模型的距离,使用其距离大小来表示三维模型之间的相关性。其计算公式如下:
(1)
a,b分别代表两个不同的模型,其中为计算所得的两模型间的距离,分别表示ai维特征及bi维特征。
本发明的优点和有益效果;
1)针对多视角图像,使用非局部图卷积层来捕获多视图间的高级空间特征。2)利用max-pooling来融合多视图,得到其高响应特征,从而获取紧凑的高辨别力的模型描述符。3)本发明的基于非局部图卷积网络的多视图三维模型检索方法在三维模型检索中实现了优良性能。
附图说明
图1为本发明的流程图。
图2为本发明设计的非局部图卷积网络。
图3为三维模型的多视图表示示例。
图4为三维模型的多视角获取示例。
图5为MVRED数据集上本发明与目前先进方法的性能对比。
图6为NTU数据集上本发明与目前先进方法的性能对比。图5图6中目前方法的对应文献如下所示。
[1] Krizhevsky A, Sutskever I, Hinton G E, et al. ImageNetClassification with Deep Convolutional Neural Networks[J]. neural informationprocessing systems, 2012, 141(5): 1097-1105.
[2] He K, Zhang X, Ren S, et al. Deep Residual Learning for ImageRecognition[J]. computer vision and pattern recognition, 2016: 770-778.
[3] Su H, Maji S, Kalogerakis E, et al. Multi-view Convolutional NeuralNetworks for 3D Shape Recognition[J]. international conference on computervision, 2015: 945-953.
具体实施方式
下面结合附图对本发明作进一步的描述。
实施例1
如图1,其为本发明的基于非局部图卷积网络的多视图三维模型检索方法实现步骤流程图,该方法的实现步骤细节如下:
步骤一获取模型的多视角图像
本发明适用于现实世界物体,也适用于计算机制作三维模型,在获取模型的多视图图像时,现实世界物体可以通过设置多个多角度摄像头来捕捉物体的各个角度视图,捕捉现实世界物体图像时多组摄像头最好均匀分布,以获取信息丰富的多视图图像。在本发明实施例中,以30度为间隔在物体周围放置12个摄像机,以捕获12张模型多视角图片。计算机三维模型可以通过软件的模拟相机设置好多角度来捕捉其各个角度视图,设置虚拟摄像机来渲染每个网格。同以上摄像头设置相同,通过每隔30度在网格周围放置12个虚拟摄像机来创建12个渲染视图。假若有n个类,每个类有m个模型,则该三维模型数据集共可获取到n×m×12张多视角图像。
步骤二多视角图像预处理
为了更好的训练网络以及符合本发明设计的非局部图卷积网络的检索要求,需要对多视角图像进行预处理。其中包括图像裁剪,图像尺寸重置,图像翻转以及图像归一化等。其中数据归一化是用来对原始数据归一化到固定区间上的统计分布以保证程序收敛加快。原始图像尺寸统一化是因为网络模型设计好之后,其尺寸固定,因此输入图像尺寸要符合网络模型所需尺寸。随机裁剪,图像水平翻转以及竖直反转是为了增加数据量从而使训练模型参数泛化,以及防止网络模型过拟合。
步骤三设计非局部图卷积网络
本发明针对现有神经网络无法全面捕捉模型自身的空间信息的问题,设计发明了非局部图卷积网络来挖掘融合多视图的高响应特征,非局部图卷积网络包含以下几个模块:卷积模块一,图卷积模块,卷积模块二,图卷积模块,卷积模块三,特征融合模块,模型分类模块;卷积模块一包含一个步幅为2,卷积核为7x7的卷积层,卷积层后面是一个步幅为2,核为3x3的最大池化层。连接在卷积模块一用来图卷积模块捕获多视图间所包含的空间特征,由非局部均值的思想启发而来,如下是其定义的形式:
(2)
其中i为搜索区域,为区域中的其他点,为权重其由匹配块之间的相关性来决定,i点对应的输出。本发明使用图卷积的方式来捕捉视图之间的长依赖关系,从如何建立模型多视图之间的的联系来设计卷积形式。其中该非局部图卷积的形式如下:
(3)
其中i为输出位置的索引,其可以是对应的空间位置,其响应由与其他视图各对应点计算得来。x为输入信号,即各视图的特征,y为对应的与x大小相同的输出信号。对匹配函数f用来计算输入信号纸间的关联性,一元函数g用来对输入缩放,使用函数对求和后的输出信号进行归一化。
对匹配函数f其计算公式如下:
(4)
其中的表示形式为的表现形式为为对应的卷积层参数。归一化因子
一元函数g为线性函数:
(5)
其中为了使非局部操作可以合并到许多现有架构的卷积网络中,则该非局部模块以如下形式定义:
(6)
其中表示一个残差连接,由(3)式计算得到,为原始输入,为该图卷积模块的最终输出。这种残差连接的方式可以将该非局部模块插入到任何预先训练好的网络模型中,且并不会破坏该原有模型的初始化行为。
在非局部模块之后是卷积模块二包含8个步幅1×1,核为3×3的卷积层,在模块二后边再次加入非局部模块用以捕捉高级模型空间特征,之后是卷积模块三,其包含18个步幅1×1,核为3×3的卷积层用于提取各多视图图像的高维抽象特征,提取到各多视图图像的高维抽象特征后使用max-pooling操作将其聚合为一个单一紧凑的高辨别性模型描述符。后续加入分类器来对进行分类及对模型调整。其使用softmax分类损失函数来进行分类调整。
步骤四非局部图卷积网络训练
通过以上三步,得到训练非局部图卷积网络需要的数据以及其网络架构,本发明使用pytoch深度学习框架来训练网络模型,使用语言为python3.6。该网络同时可同时输入多张图像。其中,本发明实施例为一个模型12个视图,则输入的图像数量为12的倍数。在初始参数设置中,将迭代轮数设置为40,每次迭代32个样本,其中初始学习率设置为0.001,预训练网络模型参数使用在大型数据集imagenet上预训练好的网络模型参数。本发明使用自适应梯度优化器,其可以针对不同参数来自适应调整学习率。随着迭代次数的增多,其损失函数值随之下降直到收敛,收敛条件为损失函数值稳定在左右;
步骤五提取模型深度特征
提取模型深度特征时仍然使用pytorch深度学习框架,训练好本发明设计的非局部图卷积网络后,得到训练好的非局部图卷积网络模型参数,然后将检索匹配要用到的所有三维模型输入预训练好的非局部图卷积网络中,模型输入为代表单个模型的多张视图图像,通过前面的卷积模块与图卷积模块挖掘到多视图的高响应特征,使用max-pooling操作来对多视图融合,进而得到单一紧凑的高辨别性模型描述符;本发明使用max-pooling操作后的输出作为模型特征,其特征维度为512;
步骤六三维模型的检索匹配
给定一个模型,在目标数据集中找到同该模型属于同类的模型即相关模型,设检索模型集为Q,待查询数据集为G,则目标是在G中找到与Q中模型相关的模型。其实现形式为计算模型与数据集G中各个模型的相关性,根据相关性大小进行排序,从而得到与模型相关的模型。其具体实现形式如下所示。
检索模型集与待查询数据集都需要使用特征向量表示,本发明发明使用第五步来提取特征。得到检索数据集与待查询数据集中各个模型的特征表示后,计算模型Q_i同待查询数据集G中各个模型的距离,用如下形式表示:
(7)
为模型之间的距离,其中为两个模型之间的距离度量方法,使用欧氏距离作为本发明的距离度量方法,其计算过程如下:
(8)
其中x,y分别代表不同模型,其中表示两模型间的距离为后边进行排序,分别表示xi维特征及yi维特征。计算得到G中各个模型距离之后,对该距离进行排序,可以取前k个作为与相关的模型。依次计算得到G中与Q中模型相关的模型。
为了验证本发明的有效性,在公开的三维模型数据集MVRED和NTU上进行了评测,不同算法与本发明方法的性能比较如图6所示,从这些图可以看出,本发明提出的基于非局部图卷积网络的多视图三维模型检索方法具有优良的性能。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.基于非局部图卷积网络的多视图三维模型检索方法,其特征在于包括如下几个步骤:
第一步、获取模型的多视角图像
通过设置多个多角度摄像头来捕捉物体的各个角度视图,计算机三维模型通过软件的模拟相机设置好多角度来捕捉其各个角度视图;
第二步、多视角图像预处理
对多视角图像进行预处理,包括图像裁剪,图像尺寸重置,图像翻转以及图像归一化等;
第三步、设计非局部图卷积网络
设计非局部图卷积网络来挖掘融合多视图的高响应特征,非局部图卷积网络包含以下几个模块:卷积模块一,图卷积模块,卷积模块二,图卷积模块,卷积模块三,特征融合模块,模型分类模块;
第四步、非局部图卷积网络训练
通过以上三步,得到训练非局部图卷积网络需要的数据以及其网络架构,使用pytoch深度学习框架来训练网络模型,使用语言为python3.6,该网络同时可同时输入多张图像,随着迭代次数的增多,其损失函数随之下降直到收敛,收敛条件为稳定在1×10^(-3)左右;
第五步、提取模型深度特征
在提取模型深度特征时仍然使用pytorch深度学习框架,训练好非局部图卷积网络后,得到训练好的非局部图卷积网络模型参数,然后将检索匹配要用到的所有三维模型输入预训练好的非局部图卷积网络中,通过前面的卷积模块与图卷积模块挖掘到多视图的高响应特征,使用max-pooling操作来对多视图融合,进而得到单一紧凑的高辨别性模型描述符;
第六步、三维模型的检索匹配
对三维模型检索时主要是其模型相关性的度量方法,使用基于L2范数的欧几里得度量方法来计算两个模型的距离,使用其距离大小来表示三维模型之间的相关性,其计算公式如下:
(1)
a,b分别代表两个不同的模型,其中为计算所得的两模型间的距离,分别表示ai维特征及bi维特征。
CN201910848660.8A 2019-09-09 2019-09-09 基于非局部图卷积网络的多视图三维模型检索方法 Active CN110543581B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910848660.8A CN110543581B (zh) 2019-09-09 2019-09-09 基于非局部图卷积网络的多视图三维模型检索方法
AU2020204549A AU2020204549A1 (en) 2019-09-09 2020-07-08 Multi-View Three-Dimensional Model Retrieval Method Based on Non-Local Graph Convolutional Network
AU2020104423A AU2020104423A4 (en) 2019-09-09 2020-07-08 Multi-View Three-Dimensional Model Retrieval Method Based on Non-Local Graph Convolutional Network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910848660.8A CN110543581B (zh) 2019-09-09 2019-09-09 基于非局部图卷积网络的多视图三维模型检索方法

Publications (2)

Publication Number Publication Date
CN110543581A true CN110543581A (zh) 2019-12-06
CN110543581B CN110543581B (zh) 2023-04-04

Family

ID=68713110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910848660.8A Active CN110543581B (zh) 2019-09-09 2019-09-09 基于非局部图卷积网络的多视图三维模型检索方法

Country Status (2)

Country Link
CN (1) CN110543581B (zh)
AU (2) AU2020204549A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310821A (zh) * 2020-02-11 2020-06-19 佛山科学技术学院 多视图特征融合方法、系统、计算机设备及存储介质
CN111694976A (zh) * 2020-06-10 2020-09-22 上海理工大学 一种基于多视角卷积池化的三维点云数据检索方法
CN111797269A (zh) * 2020-07-21 2020-10-20 天津理工大学 基于多级视图关联卷积网络的多视图三维模型检索方法
CN113096234A (zh) * 2019-12-23 2021-07-09 复旦大学 利用多张彩色图片生成三维网格模型的方法及装置
WO2021169404A1 (zh) * 2020-02-26 2021-09-02 腾讯科技(深圳)有限公司 深度图像生成方法、装置及存储介质
CN113393582A (zh) * 2021-05-24 2021-09-14 电子科技大学 一种基于深度学习的三维物体重建算法
CN114036969A (zh) * 2021-03-16 2022-02-11 上海大学 一种多视角情况下的3d人体动作识别算法
CN114842350A (zh) * 2022-03-26 2022-08-02 西北工业大学 遥感图像中的目标检测方法、装置
CN115240093A (zh) * 2022-09-22 2022-10-25 山东大学 基于可见光和激光雷达点云融合的输电通道自动巡检方法
CN117237580A (zh) * 2023-09-26 2023-12-15 中国科学院沈阳自动化研究所 一种基于多视图和加工特征识别的cad模型匹配方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528826A (zh) * 2016-11-18 2017-03-22 广东技术师范学院 一种基于深度学习的多视图外观专利图像检索方法
CN106570192A (zh) * 2016-11-18 2017-04-19 广东技术师范学院 一种基于深度学习的多视图图像检索方法
CN106951923A (zh) * 2017-03-21 2017-07-14 西北工业大学 一种基于多视角信息融合的机器人三维形状识别方法
CN107066559A (zh) * 2017-03-30 2017-08-18 天津大学 一种基于深度学习的三维模型检索方法
CN107133284A (zh) * 2017-04-18 2017-09-05 天津大学 一种基于流行学习的视图三维模型检索方法
CN109635843A (zh) * 2018-11-14 2019-04-16 浙江工业大学 一种基于多视角图像的三维物体模型分类方法
CN109902590A (zh) * 2019-01-30 2019-06-18 西安理工大学 深度多视图特征距离学习的行人重识别方法
CN110147460A (zh) * 2019-04-23 2019-08-20 湖北大学 基于卷积神经网络与多视角图的三维模型检索方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528826A (zh) * 2016-11-18 2017-03-22 广东技术师范学院 一种基于深度学习的多视图外观专利图像检索方法
CN106570192A (zh) * 2016-11-18 2017-04-19 广东技术师范学院 一种基于深度学习的多视图图像检索方法
CN106951923A (zh) * 2017-03-21 2017-07-14 西北工业大学 一种基于多视角信息融合的机器人三维形状识别方法
CN107066559A (zh) * 2017-03-30 2017-08-18 天津大学 一种基于深度学习的三维模型检索方法
CN107133284A (zh) * 2017-04-18 2017-09-05 天津大学 一种基于流行学习的视图三维模型检索方法
CN109635843A (zh) * 2018-11-14 2019-04-16 浙江工业大学 一种基于多视角图像的三维物体模型分类方法
CN109902590A (zh) * 2019-01-30 2019-06-18 西安理工大学 深度多视图特征距离学习的行人重识别方法
CN110147460A (zh) * 2019-04-23 2019-08-20 湖北大学 基于卷积神经网络与多视角图的三维模型检索方法及装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096234A (zh) * 2019-12-23 2021-07-09 复旦大学 利用多张彩色图片生成三维网格模型的方法及装置
CN111310821A (zh) * 2020-02-11 2020-06-19 佛山科学技术学院 多视图特征融合方法、系统、计算机设备及存储介质
CN111310821B (zh) * 2020-02-11 2023-11-21 佛山科学技术学院 多视图特征融合方法、系统、计算机设备及存储介质
WO2021169404A1 (zh) * 2020-02-26 2021-09-02 腾讯科技(深圳)有限公司 深度图像生成方法、装置及存储介质
CN111694976A (zh) * 2020-06-10 2020-09-22 上海理工大学 一种基于多视角卷积池化的三维点云数据检索方法
CN111797269A (zh) * 2020-07-21 2020-10-20 天津理工大学 基于多级视图关联卷积网络的多视图三维模型检索方法
CN114036969A (zh) * 2021-03-16 2022-02-11 上海大学 一种多视角情况下的3d人体动作识别算法
CN114036969B (zh) * 2021-03-16 2023-07-25 上海大学 一种多视角情况下的3d人体动作识别算法
CN113393582A (zh) * 2021-05-24 2021-09-14 电子科技大学 一种基于深度学习的三维物体重建算法
CN114842350A (zh) * 2022-03-26 2022-08-02 西北工业大学 遥感图像中的目标检测方法、装置
CN114842350B (zh) * 2022-03-26 2024-10-15 西北工业大学 遥感图像中的目标检测方法、装置
CN115240093A (zh) * 2022-09-22 2022-10-25 山东大学 基于可见光和激光雷达点云融合的输电通道自动巡检方法
CN115240093B (zh) * 2022-09-22 2022-12-23 山东大学 基于可见光和激光雷达点云融合的输电通道自动巡检方法
CN117237580A (zh) * 2023-09-26 2023-12-15 中国科学院沈阳自动化研究所 一种基于多视图和加工特征识别的cad模型匹配方法及系统

Also Published As

Publication number Publication date
AU2020104423A4 (en) 2021-05-27
AU2020204549A1 (en) 2021-03-25
CN110543581B (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
CN110543581B (zh) 基于非局部图卷积网络的多视图三维模型检索方法
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
Zhang et al. PCAN: 3D attention map learning using contextual information for point cloud based retrieval
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
CN110457515B (zh) 基于全局特征捕捉聚合的多视角神经网络的三维模型检索方法
Zhong Intrinsic shape signatures: A shape descriptor for 3D object recognition
Lynen et al. Placeless place-recognition
CN104090972B (zh) 用于三维城市模型检索的图像特征提取和相似性度量方法
CN109766873B (zh) 一种混合可变形卷积的行人再识别方法
CN111625667A (zh) 一种基于复杂背景图像的三维模型跨域检索方法及系统
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN105205135B (zh) 一种基于主题模型的3d模型检索方法及其检索装置
CN109919084B (zh) 一种基于深度多索引哈希的行人重识别方法
CN111709317B (zh) 一种基于显著性模型下多尺度特征的行人重识别方法
Lu et al. Pic-net: Point cloud and image collaboration network for large-scale place recognition
CN111797269A (zh) 基于多级视图关联卷积网络的多视图三维模型检索方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
Ye et al. Place recognition in semi-dense maps: Geometric and learning-based approaches
Xie et al. RGB-D object tracking with occlusion detection
Chen et al. Robust feature matching via local consensus
Lee et al. Learning to distill convolutional features into compact local descriptors
Sriram et al. Analytical review and study on object detection techniques in the image
CN114266967A (zh) 基于符号距离特征的跨源遥感数据目标识别方法
Cinaroglu et al. Long-term image-based vehicle localization improved with learnt semantic descriptors
CN111597367B (zh) 基于视图和哈希算法的三维模型检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant