CN113283469A - 基于视图的三维模型检索的图嵌入无监督特征学习方法 - Google Patents

基于视图的三维模型检索的图嵌入无监督特征学习方法 Download PDF

Info

Publication number
CN113283469A
CN113283469A CN202110401532.6A CN202110401532A CN113283469A CN 113283469 A CN113283469 A CN 113283469A CN 202110401532 A CN202110401532 A CN 202110401532A CN 113283469 A CN113283469 A CN 113283469A
Authority
CN
China
Prior art keywords
model
dimensional model
graph
retrieved
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110401532.6A
Other languages
English (en)
Inventor
魏志强
贾东宁
许佳立
殷波
李一方
孙娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Qingdao National Laboratory for Marine Science and Technology Development Center
Original Assignee
Ocean University of China
Qingdao National Laboratory for Marine Science and Technology Development Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China, Qingdao National Laboratory for Marine Science and Technology Development Center filed Critical Ocean University of China
Priority to CN202110401532.6A priority Critical patent/CN113283469A/zh
Publication of CN113283469A publication Critical patent/CN113283469A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种基于视图的三维模型检索的图嵌入无监督特征学习方法。所述基于图嵌入无监督特征学习的三维模型检索方法包括:获取待检索三维模型以及获取三维数据库;获取待检索三维模型及预设三维模型的视图特征;根据待检索三维模型的视图特征以及预设三维模型的视图特征获取第一模型排序图;对第一模型排序图进行修正生成第二模型排序图;根据第二模型排序图获取正标签估计信息以及负标签估计信息;根据所述正标签估计信息以及负标签估计信息进行度量学习获取度量模型;根据所述度量模型生成检索图;根据所述待检索三维模型的视图特征以及所述检索图,获取最终标签。采用本申请的方法可以得到稳定的检索图和判别距离度量。

Description

基于视图的三维模型检索的图嵌入无监督特征学习方法
技术领域
本发明涉及三维模型检索技术领域,具体涉及一种基于视图的三维模型 检索的图嵌入无监督特征学习方法以及基于视图的三维模型检索的图嵌入无 监督特征学习装置。
背景技术
随着三维模型获取和打印技术的发展,三维模型呈爆炸性增长。由于三 维数据的庞大和不断增长,先进的模式识别技术已成为处理这些数据以解决 许多实际问题的基础,例如,数字娱乐,CAD,医学诊断和三维场景理解。 由于2D图像/视频检索任务的成功,三维模型检索引起了人们更多的关注,并 为此提出了多种方法。
给定一个查询模型,三维模型检索目标是从三维模型数据集中找到相关 的模型。现有的三维模型检索工作大致可分为两种:基于模型的方法和基于 视图的方法。在基于模型的方法中,每个三维模型都由体积或点集表示。这 些特征主要提取图形特征,例如表面分布、基于体素的特征、形状描述和傅 里叶描述来表示三维模型,从而保留三维模型的空间结构和几何信息。这些 方法的局限性在于模型质量低、计算量大。此外,当只有模型的视觉外观可 用时,用这些方法表示模型是非常困难的。
近年来,基于视图的三维模型检索已经做了大量的工作。许多文献利用 深度神经网络来描述三维模型的多视图特征。特别地,多视图卷积神经网络 对多个视图采用最大池运算来生成模型级描述符。为了探索多个观点之间的 相关性,冯等人利用基于组的模块来利用组级描述符。王等人根据视图的相 似性,将视图周期性地聚集成不同的集合并将集合中的特征集中起来学习模 型表示。这些方法高度依赖于大量标记样本,以确保模型能够学习有用的模 式,而不是过度拟合数据。然而,对于大多数实际应用来说,大规模的三维 标记数据总是很难获得。
三维模型分类和检索目前面临的主要挑战为:
1)由于三维模型质量低,计算量大,现有的方法表示模型非常困难;
2)基于视图的三维模型检索的方法高度依赖于大量标记样本,对于大多 数实际应用来说,莫得三维标记数据总是很难获得。
因此,希望有一种技术方案来克服或至少减轻现有技术的至少一个上述 难点。
发明内容
本发明的目的在于提供一种基于视图的三维模型检索的图嵌入无监督特 征学习方法,来克服或至少减轻现有技术的至少一个上述缺陷。
本发明的一个方面,提供一种基于视图的三维模型检索的图嵌入无监督 特征学习方法,所述基于视图的三维模型检索的图嵌入无监督特征学习方法 包括:
获取待检索三维模型;
获取三维数据库,所述三维数据库中包括多个预设三维模型;
获取待检索三维模型的视图特征以及各个预设三维模型的视图特征;
根据所述待检索三维模型的视图特征以及所述预设三维模型的视图特征 获取第一模型排序图,所述第一模型排序图包括待检索三维模型分别与各个 三维模型的第一距离信息;
对所述第一模型排序图进行修正,从而生成第二模型排序图,所述第二 模型排序图包括待检索三维模型分别与各个三维模型的第二距离信息;
根据所述第二模型排序图获取正标签估计信息以及负标签估计信息;
根据所述正标签估计信息以及负标签估计信息进行度量学习,从而获取 度量模型;
根据所述度量模型生成检索图,所述检索图包括待检索三维模型分别与 各个三维模型的第三距离信息;
根据所述待检索三维模型的视图特征以及所述检索图,获取最终标签。
可选地,所述根据所述待检索三维模型的视图特征以及所述预设三维模 型的视图特征获取第一模型排序图包括:
根据所述待检索三维模型的视图特征以及所述预设三维模型的视图特征 获取待检索三维模型分别与各个三维模型的第一距离信息;
将所述待检索三维模型分别与各个三维模型的第一距离信息进行排序, 从而得到所述第一模型排序图。
可选地,所述对所述第一模型排序图进行修正,从而生成第二模型排序 图包括:
根据所述第一模型排序图获取第一近邻样本;
根据所述第一近邻样本获取第二近邻样本;
根据所述第二近邻样本获取第二模型排序图。
可选地,所述根据所述第二近邻样本获取第二模型排序图包括:
根据所述第二近邻样本以及所述待检索三维模型的视图特征以及所述预 设三维模型的视图特征获取待检索三维模型分别与各个三维模型的第二距离 信息;
将所述待检索三维模型分别与各个三维模型的第二距离信息进行排序, 从而得到所述第二模型排序图。
可选地,所述根据所述第二模型排序图获取正标签估计信息以及负标签 估计信息包括:
根据所述排序领域样本集以及所述第二模型排序图获取正标签估计信 息;
根据所述第二模型排序图获取正标签估计信息。
可选地,根据所述正标签估计信息以及负标签估计信息进行度量学习, 从而获取度量模型包括:
生成损失函数;
根据所述损失函数以及所述正标签估计信息以及负标签估计信息进行度 量学习,从而获取度量模型。
可选地,根据所述度量模型生成检索图包括:
根据所述度量模型以及所述待检索三维模型的视图特征以及所述预设三 维模型的视图特征获取待检索三维模型分别与各个三维模型的第三距离信 息;
将所述待检索三维模型分别与各个三维模型的第三距离信息进行排序, 从而得到所述检索图。
本申请还提供了一种基于视图的三维模型检索的图嵌入无监督特征学习 装置,所述基于视图的三维模型检索的图嵌入无监督特征学习装置包括:
待检索三维模型获取模块,所述待检索三维模型获取模块用于获取待检 索三维模型;
三维数据库获取模块,所述三维数据库获取模块用于获取三维数据库, 所述三维数据库中包括多个预设三维模型;
视图特征获取模块,所述视图特征获取模块用于获取待检索三维模型的 视图特征以及各个预设三维模型的视图特征;
第一模型排序图获取模块,所述第一模型排序图获取模块用于根据所述 待检索三维模型的视图特征以及所述预设三维模型的视图特征获取第一模型 排序图,所述第一模型排序图包括待检索三维模型分别与各个三维模型的第 一距离信息;
修正模块,所述修正模块用于对所述第一模型排序图进行修正,从而生 成第二模型排序图,所述第二模型排序图包括待检索三维模型分别与各个三 维模型的第二距离信息;
标签估计模块,所述标签估计模块用于根据所述第二模型排序图获取正 标签估计信息以及负标签估计信息;
度量学习模块,所述度量学习模块用于根据所述正标签估计信息以及负 标签估计信息进行度量学习,从而获取度量模型;
检索图生成模块,所述检索图生成模块用于根据所述度量模型生成检索 图,所述检索图包括待检索三维模型分别与各个三维模型的第三距离信息;
最重标签获取模块,所述最重标签获取模块用于根据所述待检索三维模 型的视图特征以及所述检索图,获取最终标签。
本申请还提供了一种电子设备,包括存储器、处理器以及存储在所述存 储器中并能够在所述处理器上运行的计算机程序,所述处理器执行所述计算 机程序时实现如上所述的基于视图的三维模型检索的图嵌入无监督特征学习 方法。
本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存 储有计算机程序,所述计算机程序被处理器执行时能够实现如上所述的基于 视图的三维模型检索的图嵌入无监督特征学习方法。
有益效果
采用本申请的基于视图的三维模型检索的图嵌入无监督特征学习方法可 以得到稳定的检索图和判别距离度量,相对于现有技术,结果更为稳定,最 重标签更为准确。
附图说明
图1为本发明第一实施例的基于视图的三维模型检索的图嵌入无监督特 征学习方法的流程示意图。
图2是现有技术的相似性度量结果的示意图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请 实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。在附 图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似 功能的元件。所描述的实施例是本申请一部分实施例,而不是全部的实施例。 下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能 理解为对本申请的限制。基于本申请中的实施例,本领域普通技术人员在没 有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范 围。下面结合附图对本申请的实施例进行详细说明。
在本申请的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、 “前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底” “内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系, 仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件 必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请 保护范围的限制。
图1为本发明第一实施例的基于视图的三维模型检索的图嵌入无监督特 征学习方法的流程示意图。
如图1所示的基于视图的三维模型检索的图嵌入无监督特征学习方法包 括:
步骤1:获取待检索三维模型;
步骤2:获取三维数据库,三维数据库中包括多个预设三维模型;
步骤3:获取待检索三维模型的视图特征以及各个预设三维模型的视图 特征;
步骤4:根据待检索三维模型的视图特征以及预设三维模型的视图特征 获取第一模型排序图,第一模型排序图包括待检索三维模型分别与各个三维 模型的第一距离信息;
步骤5:对第一模型排序图进行修正,从而生成第二模型排序图,第二 模型排序图包括待检索三维模型分别与各个三维模型的第二距离信息;
步骤6:根据第二模型排序图获取正标签估计信息以及负标签估计信息;
步骤7:根据正标签估计信息以及负标签估计信息进行度量学习,从而 获取度量模型;
步骤8:根据度量模型生成检索图,检索图包括待检索三维模型分别与 各个三维模型的第三距离信息;
步骤9:根据待检索三维模型的视图特征以及所述检索图,获取最终标 签。
采用本申请的基于视图的三维模型检索的图嵌入无监督特征学习方法可 以得到稳定的检索图和判别距离度量,相对于现有技术,结果更为稳定,最 重标签更为准确。
在本实施例中,根据待检索三维模型的视图特征以及预设三维模型的视 图特征获取第一模型排序图包括:
根据待检索三维模型的视图特征以及预设三维模型的视图特征获取待检 索三维模型分别与各个三维模型的第一距离信息;
将待检索三维模型分别与各个三维模型的第一距离信息进行排序,从而 得到第一模型排序图。
对于任意两个三维模型Vi和Vj(可以是待检索三维模型也可以是预设三 维模型),利用集对集距离度量配对模型的相似度,并利用相似度构造第一 模型排序图。与那些对每个模型的所有视图都一视同仁的方法不同,我们采 用正则化仿射壳(RAH)来减少噪声视图的影响,并抑制最终模型表示中不 必要的成分。对于模型,其RAH表示定义如下:
Figure BDA0003020497710000061
其中,
j∈{1,2,...,s},s是视图数,
Figure BDA0003020497710000062
是l2范数。式(1)将原始的一组视图级特征 转换为具有所学系数的单个特征向量。此特征空间下两个模型之间的距离为
Figure BDA0003020497710000063
Vi模型和Vj模型之间的最终距离以对数逻辑形式表示:
Figure BDA0003020497710000064
随后,根据式2,我们可以根据待检索三维模型的视图特征以及预设三 维模型的视图特征获取待检索三维模型分别与各个三维模型的第一距离信 息;将所述待检索三维模型分别与各个三维模型的第一距离信息进行排序, 从而得到所述第一模型排序图,其表示为R0(p,G)={g1,g2,...,gN},其中 dM(p,gi)<dM(p,gi+1)。
在本实施例中,所述对所述第一模型排序图进行修正,从而生成第二模 型排序图包括:
根据第一模型排序图获取第一近邻样本;
根据第一近邻样本获取第二近邻样本;
根据第二近邻样本获取第二模型排序图。
仅使用视觉特征进行图形处理可能会限制整体性能,因为每个3D模型 甚至与属于同一类的其他模型都可能有显著差异,邻域的上下文信息可以增 强相似度测量。在这一部分中,我们利用k-倒数最近邻的信息对第一模型排 序图进行了改进。
具体地,在本实施例中,根据排序领域样本集获取第一近邻样本,即:
R1(p,k1)={gi|(gi∈R0(p,k1))∧(p∈R0(gi,k1))} (3)
其中,R1为第一近邻样本,R0为第一模型排序图。
由于k-倒数邻域来自k-近邻,并且由于姿态和视角的变化,正样本可能 来自k-近邻。为了增强邻域,我们将R1(p,k1)中每个候选者的k1附加邻域增量 地添加到更健壮的集R2(p,k1)中:
Figure BDA0003020497710000071
其中,
R1为第一近邻样本,R2为第二近邻样本。
然后,我们考虑R2(p,k1)作为上下文知识来重新计算p和gi之间的距离。 如果两个模型相似,则它们的k倒数近邻集相互重叠,即集合中存在一些共 享样本。共享的样本越多,两个模型就越相似。p和gi之间新的距离可以通 过它们的k倒数集的Jaccard度量计算为
Figure BDA0003020497710000072
其中||表示集合中的候选数目,我们采用Jaccard距离重新计算p和gi之间的相似 性。随后,我们使用dJ(,)得到第二模型排序图R*
在本实施例中,根据第二近邻样本获取第二模型排序图包括:
根据第二近邻样本以及待检索三维模型的视图特征以及所述预设三维模 型的视图特征获取待检索三维模型分别与各个三维模型的第二距离信息;
将待检索三维模型分别与各个三维模型的第二距离信息进行排序,从而 得到所述第二模型排序图。
在本实施例中,根据第二模型排序图获取正标签估计信息以及负标签估 计信息包括:
根据排序领域样本集以及第二模型排序图获取正标签估计信息;
根据第二模型排序图获取正标签估计信息。
在本实施例中,根据正标签估计信息以及负标签估计信息进行度量学习, 从而获取度量模型包括:
生成损失函数;
根据损失函数以及正标签估计信息以及负标签估计信息进行度量学习, 从而获取度量模型。
具体地,在本实施例中,我们利用查询模型的kreciprol信息发现查询模 型与其秩图之间的对标签信息。我们将
Figure BDA0003020497710000081
表示为顶部k个邻居,
Figure BDA0003020497710000082
表示为底 部k个样本。为了简化参数设置,我们定义了
Figure BDA0003020497710000083
1)正标签估计信息:在这一部分中,我们利用查询模型的邻居信息来估 计成对模型是否属于同一类。一般来说,如果每个查询模型的邻居都是准确 的,也就是说顶部邻居来自相同的类别,我们可以直接使用查询的顶部k个 邻居作为阳性样本:
Figure BDA0003020497710000084
或者定义一个阈值θ来选择置信正样本:
Figure BDA0003020497710000085
实际上,在查询模型的顶部k个邻居中总是存在几个错误的阳性结果。如 果只选择前k个样本作为阳性样本,会导致k较大的错误阳性样本太多,k较 小的阳性样本太少;同时,如果使用阈值θ来选择样本,很难定义一个合适 的全局阈值来满足所有的查询样本。为了同时抑制具有顶部k个邻域和阈值 的负样本,我们引入了一种数据驱动机制来自动定义阈值来选择顶部k个邻 域中的正样本。(正负与阴阳),我们同时使用第一模型排序图R0和第二模 型排序图R*来估计正面标签,而且,如果我们对所有正面标签一视同仁,即 y+(p,q)=1,这是不合理的。因此,我们设计一个带有高斯核的软标签作为正 标签。具体来说,我们将公式5和公式6修改如下:
Figure BDA0003020497710000091
其中,
Figure BDA0003020497710000092
此设置旨在尽可能多地选择正样本,并使用 自适应阈值限制硬负样本。
2)负标签估计:根据前面的描述,相似的模型有相似的top-k邻居。直 观地说,如果p与q相似,q的bottom-k样本与p不同,如果只使用查询模型 的bottom-k样本作为负样本,则由于它们离查询样本较远,对度量学习区分 硬负样本的贡献较小,容易产生负标签。根据这一假设,我们利用查询本身 的bottom-k信息和类似查询模型gi的bottom-k样本来估计负标签,定义为:
Figure BDA0003020497710000093
其中
Figure BDA0003020497710000094
在本实施例中,根据度量模型生成检索图包括:
根据度量模型以及待检索三维模型的视图特征以及预设三维模型的视图 特征获取待检索三维模型分别与各个三维模型的第三距离信息;
将待检索三维模型分别与各个三维模型的第三距离信息进行排序,从而 得到检索图。
具体地,在给定上述分段中估计的正对和负对的情况下,我们可以设计损 失函数来学习判别度量,并像许多有监督的工作那样增强检索任务。具体来 说,损失函数可设计如下:
Figure BDA0003020497710000095
其中,μ是恒定的正偏压,并且是所有样本对之间的平均距离,以考虑DM的下限为零。在矩阵M下,DM表示Vi和Vj之间的距离,用
Figure BDA0003020497710000096
表示。模型Vi的一阶统计量
Figure BDA0003020497710000097
和模型Vj
Figure BDA0003020497710000098
表示样 本集在高维空间中的平均位置,用来表示每个视图集,并用于度量学习。
logistic函数提供了一个软边界来分离这两个类,我们可以通过以下方法 获得概率度量学习问题:
Figure BDA0003020497710000101
其中ωij是处理不平衡正负对的参数,如果y(i,j)>0,由
Figure BDA0003020497710000102
定义,如果 y(i,j)<0,定义为
Figure BDA0003020497710000103
Npos是正样本对的数目、Nneg是负样本对的数目。随 后,我们可以使用现有的加速近端梯度算法来求解方程(10),并得到最优 的M。我们可以将M分解为M=PPT。P是一个投影度量(映射矩阵)。这 样,可以将模型p和模型gi
Figure BDA0003020497710000104
之间的马氏距离 转换为欧氏距离,如下所示,
Figure BDA0003020497710000105
在学习P之后,我们可以使用公式11重新计算两个模型之间的相似性度 量,并更新图结构以选择高置信度对。随后,我们可以利用这些对学习新的P 来更新图。通过迭代重复整个过程,更新后的图可以产生更可靠的结果,并 且可以进一步改进之前学习到的度量。最后,经过几次迭代,可以得到稳定 的秩图和判别距离度量。
下面以举例的方式对本申请进行进一步详细阐述,可以理解的是,该举例 并不构成对本申请的任何限制。
1、数据集
三个常用的三维模型数据集被用于评估,包括NTU、MV-RED和ETH。 NTU数据集包含来自万维网页面的549个模型,这些模型有47个类别,所 有这些模型都可以通过Internet免费下载。所有模型都转换为Wavefront 文件格式,并保存为Obj文档格式,每个对象包括60个不同的视图样本。 MV-RED由60个类别的505个对象组成。每一个对象同时被三个方向的三 台摄像机记录下来。对于数据采集,Camera-45和Camera-60分别通过步进 电机控制的表均匀旋转,每10度采集36个RGB图像。自顶向下视图中的一 个RGB图像由Camera-90捕捉。因此,每个对象拥有73个图像。ETH数据 集包含8个类别和80个对象。每个对象有41个不同的视图,这些视图均匀 地分布在上视图半球上,相机的所有位置都是通过将八面体的面细分到第三 个递归级别来确定的。
2、评估标准
为了对每个数据集进行评估,将每个三维模型选择一次作为检索查询。 为了评估三维模型检索的性能,我们采用了七种常用的标准,包括AUC、NN、 FT、ST、F-Measure、DCG和ANMRR。精确召回曲线能够全面展示检索性 能,它通过改变模型检索中区分相关性和不相关性的阈值来说明精确性和召 回措施。计算PR曲线下面积(AUC)可用于定量评估。最近邻(NN)定义 为评估最近邻返回结果的检索精度。第一层(FT)用于计算前κ个结果的召 回率,其中κ是查询最相关对象的数量。第二层(ST)被定义为对前2κ结果 的召回率。F度量(F)联合评估最高相关结果的精确度和召回率,它考虑每 个查询的前20个返回结果。贴现累积收益(DCG)根据排名位置对相关结 果的价值进行贴现,由于用户认为较低的结果较少,因此将相关结果分配给 权重较高的排名最高的位置。平均归一化检索秩(ANMRR)通过考虑排序顺 序来评估排序性能,并使用检索对象中相关对象的排序信息来度量检索结果。 ANMRR值越低表示性能越好。
3、实验设置与竞争方法
对于单视图图像的特征表示,我们采用了在ImageNet数据集上预先训 练的AlexNet模型来提取视觉特征。所有视图图像首先调整为256x256。我 们使用第二个最后完全连接的层的输出作为视觉表示,它为每个视图生成 4096维向量。共采用7种基线方法(包括两种基于距离的方法,最近邻(NN) 和Hausdorff距离(HAUS),两种基于统计的方法自适应视图聚类(AVC) 和无摄像机约束视图(CCFV),三种基于图的方法,加权二部图匹配(WBGM)、 多模态团图比较了匹配(MCG)和层次图结构学习(HGS))进行比较。相 关工作部分讨论了相竞争的方法。
4、实验结果与讨论
在NTU、MVRED和ETH上进行了大量实验来评估该方法的有效性。
实施例1
与现有技术比较:与现有方法的比较显示在图2中。一般来说,本申请 的方法在三个数据集上都优于基于距离和统计的方法,这说明本申请的方法 利用图结构和图匹配来学习三维模型的模型空间特征,从而有利于相似性度 量。与三种方法相比,我们的方法在所有被评估数据集上都取得了竞争性的 性能。具体来说,我们可以得到几个观察结果:
1)与基于距离的方法相比,该方法在所有三个数据集上均优于NN和HUAS。具体而言,
在NTU数据集上,我们的方法在基于NN,FT,ST,F-measure,DCG和DC 的增益方面分别比基于距离的方法提高了4.8%-21.2%,19.6%-28.8%,17.4 %-21.8%,15.9%-24.5%。ANMRR下降了15.8%-28.4%(图2(a))。 在MVRED(图2(b))上,我们观察到了5.2%-47.7%,14.8%-87.3%,14.6%-75.0%, 14.8%-67.1%,10.6%-72.9%的增益。ANMRR下降13.7%-37.6%。在ETH(图2 (c))上,我们可以实现3.9%-21.5%,9.6%-51.1%,5.2%-23.6%,3.5 %-18.6%,7.1%-39.0%的增长并实现ANMRR下降32.4%-66.7%。
与基于统计的方法相比,本申请的方法在NTU上基于NN,FT,ST, F-measure,DCG的增益分别为9.2%-100.3%、20.6%-97.3%、17.8%-74.4%、 18.1%-75.3%、17.8%-104.9%,ANMRR下降16.1%-35.9%。在MVRED上,增益 可以达到5.2%-47.7%,14.8%-87.3%,14.6%-75.0%,14.8%-67.1%,10.6%-72.9%, ANMRR下降13.7%-37.6%。在ETH上,增益分别为3.9%-21.5%、9.6%-51.1%、 5.2%-23.6%、3.5%-18.6%、7.1%-39.0%,ANMRR下降32.4%-66.7%。
3)与基于图的方法相比,本申请的方法在NTU上基于NN,FT,ST, F-measure,DCG的增益分别为0.1%-6.6%,2.0%-16.6%,1.9%-16.6%, 2.8%-14.8%,0.9%-13.3%,ANMRR下降2.2%-13.6%。在图2(b)中,在 MVRED上的增益改善分别为0.3%-1.1%,16.0%-1.9%,14.0%-2.3%, 14.5%-2.1%,10.9%-0.7%,ANMRR下降14.5%-2.1%。在ETH上,由图2(c) 所示,我们可以观测到基于NN,FT,ST,F-measure,DCG增益为1.3%-5.3%, 1.3%-11.2%,2.2%-4.4%,1.7%-3.7%,1.2%-8.8%。ANMRR下降6.9%-36.3%。
实施例2
邻居数敏感性分析:在MVRED数据集上评估邻居数和的影响。结果 如图2所示。我们把和从5调到30。当我们改变时,根据经验将设置为 20,然后通过将固定为最佳值来调整。通过增加来改善性能,并且当κ1= 10时获得最佳结果。我们观察到,在峰值到达后分配给κ1一个大值时,性能 降低。由于邻域集合中的负样本较多,过多的邻域会对相似性度量产生负面 影响.可以找到k2的类似观测。根据上述观察,设置κ1=10和κ2=20可以得到 最佳结果。在所有的实验中,我们使用10作为邻域大小来构造秩图,使用 20作为邻域大小来预测正负标签。
实施例3
视图数敏感性分析:对于大多数实际应用,人们总是希望在尽可能少的视 图图像的情况下进行三维模型检索。因此,我们通过改变MVRED上使用的 视图数来评估检索性能,MVRED是实际应用中最具挑战性的三维数据集。 为了进一步验证该方法的稳健性,我们将其与其他有代表性的方法进行了比 较,特别是将视图数从10调整到70,步长为10。并对特定视点数平均10 次随机试验。根据比较结果,我们有以下观察结果:
1)所有的方法都可以通过增加视图数目得到一致的改进,这是合理的, 因为更多的视图可以传达三维模型更多的的外观和结构特征。
2)我们的方法在所有的评价标准上都能持续地优于竞争方法。当视图数 从10增加到70时,我们的方法可以获得基于AUC,FT,ST,F-measure的 12.1%,6.1%,14.8%,6.7%,4.9%的增益,且ANMRR下降4.6%。特别是, 我们的40个视图的方法优于次优的方法,在AUC、FT、ST、F-measure、 DCG可以获得6.0%、5.5%、3.8%、4.4%、3.6%的增益,ANMRR下降5.7%。
实施例4
迭代次数的灵敏度分析:学习投影度量后,可以用更新初始图,迭代学习投影度量。 我们将迭代次数从1变为5。在NTU、MVRED和ETH上进行比较。从结果可以看出, 迭代法可以提高系统的性能。具体来说,就NN而言,我们可以在ETH上得到98.8%, 在MVRED上得到83.0%,在NTU上得到77.0%。而且,只有经过几次迭代才能得到稳 定的结果。因此,该方法具有很强的鲁棒性,可以获得较高的性能。考虑到性能和计算成 本,我们在实验中使用了T=3。
表1不同的数据集的速度比较(S/Query)
Figure BDA0003020497710000131
实施例5
特征可视化:我们使用来自ETH的8个类别中的3280个样本(一个3D 模型的每个视图都被视为一个样本)和来自MVRED和NTU的8个类别中 的其他3280个样本,通过t-SNE[46]对我们的方法前后的视觉特征进行可视 化。我们有以下观测:(1)原始特征没有被很好区分,来自不同类别的样本 在ETH上碰撞成一团混乱,而我们的方法显然可以很好地分离来自不同类别 的样本。(2)属于同一类的原始特征是分散的,并且不同类的原始特征是混 淆的。然而,我们的方法仍然可以成功地将样本从不同的类别中分离出来, 并将它们与相应的簇对齐,从而可以压缩属于同一类别的样本。这些深入的 结果显示了我们的图形信息嵌入特征空间策略的有效性。
实施例6
速度分析:对于实际应用,速度是评价检索性能的重要因素。为了证明 我们的方法的有效性,我们在表一中的三个数据集上演示了不同方法的速度。 为了公平比较,所有方法都在单核Windows 7旗舰x64上进行了测试 (CPU:3.3ghz;RAM:8GB)。实验结果表明,我们的方法比其他方法快得多。 具体来说,我们提出的方法查询一次NTU数据集只需0.25s,而在NTU上取 得次优结果的HGS则需要31.63s。考虑到速度,次优的方法是NN(5.04s), 而其性能远低于我们的方法。
实施例7
现有方法的标签估计:我们在三个数据集上通过使用现有的方法初始化 等级图来评估所提出的方法。结果分别列在表2、3和4。从结果来看,我们 有以下观察结果:
1)在三个数据集上,我们的方法在所有的评价标准上都优于所有基于距 离、基于统计和基于图的方法。例如,就NN,FT,ST,F-measure,DCG, AUC和ANN而言,我们的方法提高了最优方法HGS的性能,分别提高了 1.7%,6.6%,2.7%,3.6%,3.7%,4.9%。就NTU的ANMRR而言,下降 了6.7%,如表2所示。在MVRED上,我们的方法提高了HGS的性能,NN、 FT、ST、F-measure、DCG、AUC分别提高了0.7%、7.0%、3.0%、4.2%、 4.4%、4.5%,ANMRR下降了7.7%,如表3所示。在ETH上,如表4所示, 我们的方法提高了HGS的性能,NN、FT、ST、F-measure、DCG、AUC分 别提高了2.6%、0.3%、1.4%、0.3%、0.6%、0.1%,ANMRR下降4.7%。
2)即使使用性能较低的方法初始化秩图,我们的方法仍然可以提高性能。 特别是对于基于距离的NN,我们可以得到在ETH数据集基于NN,FT,ST, F-measure,DCG,AUC的6.8%,4.2%,1.5%,1.2%,5.0%,4.6%的增益, 以及15.8%的ANMRR上的下降,如表4所示。类似的性能可以在NTU和 MVRED上获得,分别如表2和表3所示。
表2 NTU中标签估计与现有方法的比较
Figure BDA0003020497710000141
Figure BDA0003020497710000151
表3 MVRED中标签估计与现有方法的比较
Figure BDA0003020497710000152
表4 ETH中标签估计与现有方法的比较
Figure BDA0003020497710000153
Figure BDA0003020497710000161
本申请还提供了一种基于视图的三维模型检索的图嵌入无监督特征学习 装置,所述基于视图的三维模型检索的图嵌入无监督特征学习装置包括待检 索三维模型获取模块、三维数据库获取模块、视图特征获取模块、第一模型 排序图获取模块标签估计模块、度量学习模块、检索图生成模块、最重标签 获取模块以及修正模块,其中,
待检索三维模型获取模块用于获取待检索三维模型;三维数据库获取模 块用于获取三维数据库,三维数据库中包括多个预设三维模型;
视图特征获取模块用于获取待检索三维模型的视图特征以及各个预设三 维模型的视图特征;
第一模型排序图获取模块用于根据待检索三维模型的视图特征以及预设 三维模型的视图特征获取第一模型排序图,第一模型排序图包括待检索三维 模型分别与各个三维模型的第一距离信息;
修正模块用于对第一模型排序图进行修正,从而生成第二模型排序图, 第二模型排序图包括待检索三维模型分别与各个三维模型的第二距离信息;
标签估计模块用于根据所述第二模型排序图获取正标签估计信息以及负 标签估计信息;
度量学习模块用于根据正标签估计信息以及负标签估计信息进行度量学 习,从而获取度量模型;
检索图生成模块用于根据度量模型生成检索图,检索图包括待检索三维 模型分别与各个三维模型的第三距离信息;
最重标签获取模块用于根据待检索三维模型的视图特征以及检索图,获 取最终标签。
需要说明的是,前述对方法实施例的解释说明也适用于本实施例的装置, 此处不再赘述。
本申请还提供了一种电子设备,包括存储器、处理器以及存储在存储器 中并能够在处理器上运行的计算机程序,处理器执行计算机程序时实现如上 的基于视图的三维模型检索的图嵌入无监督特征学习方法。
举例来说,电子设备包括输入设备、输入接口、中央处理器、存储器、 输出接口以及输出设备。其中,输入接口、中央处理器、存储器以及输出接 口通过总线相互连接,输入设备和输出设备分别通过输入接口和输出接口与 总线连接,进而与计算设备的其他组件连接。具体地,输入设备接收来自外 部的输入信息,并通过输入接口将输入信息传送到中央处理器;中央处理器 基于存储器中存储的计算机可执行指令对输入信息进行处理以生成输出信 息,将输出信息临时或者永久地存储在存储器中,然后通过输出接口将输出 信息传送到输出设备;输出设备将输出信息输出到计算设备的外部供用户使 用。
本申请还提供了一种计算机可读存储介质,计算机可读存储介质存储有 计算机程序,计算机程序被处理器执行时能够实现如上的基于视图的三维模 型检索的图嵌入无监督特征学习方法。
本申请虽然以较佳实施例公开如上,但其实并不是用来限定本申请,任 何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动 和修改,因此,本申请的保护范围应当以本申请权利要求所界定的范围为准。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/ 输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动,媒体可以 由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、 程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、 其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可 编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数据多功能光盘(DVD)或其他光学存储、磁盒式磁 带、磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储 可以被计算设备访问的信息。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机 程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软 件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含 有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
此外,显然“包括”一词不排除其他单元或步骤。装置权利要求中陈述 的多个单元、模块或装置也可以由一个单元或总装置通过软件或硬件来实现。 第一、第二等词语用来标识名称,而不标识任何特定的顺序。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和 计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或 框图中的每个方框可以代表一个模块、程序段、或代码的一部分,模块、程 序段、或代码的一部分包括一个或多个用于实现规定的逻辑功能的可执行指 令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以 不同于附图中所标注的顺序发生。例如,两个接连地标识的方框实际上可以 基本并行地执行,他们有时也可以按相反的顺序执行,这依所涉及的功能而 定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或总流程 图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统 来实现,或者可以用专用硬件与计算机指令的组合来实现。
在本实施例中所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor, DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可 编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器 件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处 理器或者该处理器也可以是任何常规的处理器等。
存储器可用于存储计算机程序和/或模块,处理器通过运行或执行存储在 存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现装 置/终端设备的各种功能。存储器可主要包括存储程序区和存储数据区,其中, 存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放 功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数 据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存 储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存 储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存 卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存 储器件。
在本实施例中,装置/终端设备集成的模块/单元如果以软件功能单元的 形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存 储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流 程,也可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储 于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述 各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程 序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记 录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM, Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、 电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介 质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增 减。
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描 述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员 而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或 改进,均属于本发明要求保护的范围。

Claims (10)

1.一种基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,所述基于视图的三维模型检索的图嵌入无监督特征学习方法包括:
获取待检索三维模型;
获取三维数据库,所述三维数据库中包括多个预设三维模型;
获取待检索三维模型的视图特征以及各个预设三维模型的视图特征;
根据所述待检索三维模型的视图特征以及所述预设三维模型的视图特征获取第一模型排序图,所述第一模型排序图包括待检索三维模型分别与各个三维模型的第一距离信息;
对所述第一模型排序图进行修正,从而生成第二模型排序图,所述第二模型排序图包括待检索三维模型分别与各个三维模型的第二距离信息;
根据所述第二模型排序图获取正标签估计信息以及负标签估计信息;
根据所述正标签估计信息以及负标签估计信息进行度量学习,从而获取度量模型;
根据所述度量模型生成检索图,所述检索图包括待检索三维模型分别与各个三维模型的第三距离信息;
根据所述待检索三维模型的视图特征以及所述检索图,获取最终标签。
2.如权利要求1所述的基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,所述根据所述待检索三维模型的视图特征以及所述预设三维模型的视图特征获取第一模型排序图包括:
根据所述待检索三维模型的视图特征以及所述预设三维模型的视图特征获取待检索三维模型分别与各个三维模型的第一距离信息;
将所述待检索三维模型分别与各个三维模型的第一距离信息进行排序,从而得到所述第一模型排序图。
3.如权利要求2所述的基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,所述对所述第一模型排序图进行修正,从而生成第二模型排序图包括:
根据所述第一模型排序图获取第一近邻样本;
根据所述第一近邻样本获取第二近邻样本;
根据所述第二近邻样本获取第二模型排序图。
4.如权利要求3所述的基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,所述根据所述第二近邻样本获取第二模型排序图包括:
根据所述第二近邻样本以及所述待检索三维模型的视图特征以及所述预设三维模型的视图特征获取待检索三维模型分别与各个三维模型的第二距离信息;
将所述待检索三维模型分别与各个三维模型的第二距离信息进行排序,从而得到所述第二模型排序图。
5.如权利要求4所述的基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,所述根据所述第二模型排序图获取正标签估计信息以及负标签估计信息包括:
根据所述排序领域样本集以及所述第二模型排序图获取正标签估计信息;
根据所述第二模型排序图获取正标签估计信息。
6.如权力要求5所述的基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,根据所述正标签估计信息以及负标签估计信息进行度量学习,从而获取度量模型包括:
生成损失函数;
根据所述损失函数以及所述正标签估计信息以及负标签估计信息进行度量学习,从而获取度量模型。
7.如权利要求6所述的基于视图的三维模型检索的图嵌入无监督特征学习方法,其特征在于,根据所述度量模型生成检索图包括:
根据所述度量模型以及所述待检索三维模型的视图特征以及所述预设三维模型的视图特征获取待检索三维模型分别与各个三维模型的第三距离信息;
将所述待检索三维模型分别与各个三维模型的第三距离信息进行排序,从而得到所述检索图。
8.一种基于视图的三维模型检索的图嵌入无监督特征学习装置,其特征在于,所述基于图嵌入无监督特征学习的三维模型检索装置包括:
待检索三维模型获取模块,所述待检索三维模型获取模块用于获取待检索三维模型;
三维数据库获取模块,所述三维数据库获取模块用于获取三维数据库,所述三维数据库中包括多个预设三维模型;
视图特征获取模块,所述视图特征获取模块用于获取待检索三维模型的视图特征以及各个预设三维模型的视图特征;
第一模型排序图获取模块,所述第一模型排序图获取模块用于根据所述待检索三维模型的视图特征以及所述预设三维模型的视图特征获取第一模型排序图,所述第一模型排序图包括待检索三维模型分别与各个三维模型的第一距离信息;
修正模块,所述修正模块用于对所述第一模型排序图进行修正,从而生成第二模型排序图,所述第二模型排序图包括待检索三维模型分别与各个三维模型的第二距离信息;
标签估计模块,所述标签估计模块用于根据所述第二模型排序图获取正标签估计信息以及负标签估计信息;
度量学习模块,所述度量学习模块用于根据所述正标签估计信息以及负标签估计信息进行度量学习,从而获取度量模型;
检索图生成模块,所述检索图生成模块用于根据所述度量模型生成检索图,所述检索图包括待检索三维模型分别与各个三维模型的第三距离信息;
最重标签获取模块,所述最重标签获取模块用于根据所述待检索三维模型的视图特征以及所述检索图,获取最终标签。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并能够在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于视图的三维模型检索的图嵌入无监督特征学习方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时能够实现如权利要求1至7中任一项所述的基于视图的三维模型检索的图嵌入无监督特征学习方法。
CN202110401532.6A 2021-04-14 2021-04-14 基于视图的三维模型检索的图嵌入无监督特征学习方法 Pending CN113283469A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110401532.6A CN113283469A (zh) 2021-04-14 2021-04-14 基于视图的三维模型检索的图嵌入无监督特征学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110401532.6A CN113283469A (zh) 2021-04-14 2021-04-14 基于视图的三维模型检索的图嵌入无监督特征学习方法

Publications (1)

Publication Number Publication Date
CN113283469A true CN113283469A (zh) 2021-08-20

Family

ID=77276758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110401532.6A Pending CN113283469A (zh) 2021-04-14 2021-04-14 基于视图的三维模型检索的图嵌入无监督特征学习方法

Country Status (1)

Country Link
CN (1) CN113283469A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792859A (zh) * 2021-09-13 2021-12-14 中南大学 一种无监督形状对应方法及人体形状对应方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190392351A1 (en) * 2018-06-22 2019-12-26 Amadeus S.A.S. System and method for evaluating and deploying unsupervised or semi-supervised machine learning models
CN111382300A (zh) * 2020-02-11 2020-07-07 山东师范大学 基于组对深度特征学习的多视图三维模型检索方法及系统
CN112085072A (zh) * 2020-08-24 2020-12-15 北方民族大学 基于时空特征信息的草图检索三维模型的跨模态检索方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190392351A1 (en) * 2018-06-22 2019-12-26 Amadeus S.A.S. System and method for evaluating and deploying unsupervised or semi-supervised machine learning models
CN111382300A (zh) * 2020-02-11 2020-07-07 山东师范大学 基于组对深度特征学习的多视图三维模型检索方法及系统
CN112085072A (zh) * 2020-08-24 2020-12-15 北方民族大学 基于时空特征信息的草图检索三维模型的跨模态检索方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李文辉: "基于内容的三维模型检索关键技术研究", 《万方数据》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792859A (zh) * 2021-09-13 2021-12-14 中南大学 一种无监督形状对应方法及人体形状对应方法

Similar Documents

Publication Publication Date Title
Lu et al. Dense and sparse reconstruction error based saliency descriptor
Chuang et al. A feature learning and object recognition framework for underwater fish images
CN107103326B (zh) 基于超像素聚类的协同显著性检测方法
Liu et al. Multi-modal clique-graph matching for view-based 3d model retrieval
Wang et al. Background-driven salient object detection
CN109829353B (zh) 一种基于空间约束的人脸图像风格化方法
CN110222572A (zh) 跟踪方法、装置、电子设备及存储介质
CN111753119A (zh) 一种图像搜索方法、装置、电子设备及存储介质
WO2010043954A1 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
CN107704509B (zh) 一种联合稳定区域与深度学习的重排序方法
Kim et al. Robust facial landmark extraction scheme using multiple convolutional neural networks
Singh et al. A novel position prior using fusion of rule of thirds and image center for salient object detection
CN115063526A (zh) 二维图像的三维重建方法、系统、终端设备及存储介质
CN113378620B (zh) 监控视频噪声环境下跨摄像头行人重识别方法
Liao et al. Multi-scale saliency features fusion model for person re-identification
Shen et al. Gestalt rule feature points
CN113283469A (zh) 基于视图的三维模型检索的图嵌入无监督特征学习方法
CN110070626B (zh) 一种基于多视角分类的三维物体检索方法
Liao et al. Fast hierarchical animated object decomposition using approximately invariant signature
Elashry et al. Feature matching enhancement using the graph neural network (gnn-ransac)
Florindo et al. Texture descriptors by a fractal analysis of three-dimensional local coarseness
Dalara et al. Entity Recognition in Indian Sculpture using CLAHE and machine learning
Hassan et al. Salient object detection based on CNN fusion of two types of saliency models
Tang et al. A GMS-guided approach for 2D feature correspondence selection
CN113129351A (zh) 一种基于光场傅里叶视差分层的特征检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210820