CN110737788B - 快速的三维模型索引建立及检索方法 - Google Patents
快速的三维模型索引建立及检索方法 Download PDFInfo
- Publication number
- CN110737788B CN110737788B CN201910980788.XA CN201910980788A CN110737788B CN 110737788 B CN110737788 B CN 110737788B CN 201910980788 A CN201910980788 A CN 201910980788A CN 110737788 B CN110737788 B CN 110737788B
- Authority
- CN
- China
- Prior art keywords
- model
- view
- retrieval
- dimensional
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 22
- 238000009877 rendering Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000002474 experimental method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241000277284 Salvelinus fontinalis Species 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
快速的三维模型索引建立及检索方法,本发明涉及三维模型检索过程中,二维视图表征三维模型存在冗余的问题以及检索效率低下的问题。目前基于视图的三维模型检索是先将三维模型投影成二维视图集合,然后采用深度学习技术对其进行分类和检索。然而,现有的方法在精度和效率方面都有待提升。为此,本发明采用K‑means方法选出代表性视图来替代投影所产生的所有视图,极大的减少了投影视图的数量。然后利用训练好的卷积神经网络(CNN)提取具有代表性的特征,并将特征按类别建立索引。检索时,利用CNN首先将代表性视图分到一个类别中,然后相似度匹配仅在该类别中进行而不是所有类别。通过这种方式,减少了检索算法的搜索空间。此外,本发明提出了一种视图递增的检索方法,该方法在满足条件时,提前终止检索,使得检索平均时间进一步减少,再次提高了检索效率。本发明应用于三维模型检索。
Description
技术领域
本发明涉及三维模型检索过程中,三维模型的二维代表性视图选取、索引建立以及检索过程中的相似度匹配问题。
背景技术
近年来,三维模型被广泛用于计算机辅助设计(Computer Aided Design,CAD)、虚拟现实、3D动画和影视、医学诊断、3D游戏、机械制造等领域。三维模型数量的飞速增长为模型增量设计提供了大量素材。根据产品之间的相似性,最大限度地重用已有的设计资源来开发新产品,不仅可以降低时间成本,而且还可以有效的提高产品可靠性。三维模型数目的剧增带来了一个现实的问题,那就是如何在海量模型中快速搜索到需要的模型,这正是三维模型检索要解决的问题。
三维模型检索分为模型索引建立和模型检索两步。基于二维视图的索引建立是在不同的角度对三维模型投影,得到一组二维视图。然后提取二维视图的特征表示来建立索引,达到了将三维模型检索转换成二维视图检索的目的。目前基于视图的三维模型检索方法大都存在冗余信息,这严重影响了模型检索的精度和速度。为了提高视图的代表性,提出了一种基于K-means视图获取方法,以提高投影视图的表示能力、减少投影视图的数量。
提取到代表性视图后需要提取特征以建立索引。传统的特征提取方法依赖于人的经验,主观性强,消耗大量的人力物力,还无法提取到典型特征。深度学习能让机器自动学习客观对象的多层抽象和表示,从而理解各类复杂对象的内在含义,在三维模型检方面具有很大的潜力。卷积神经网络(Convolution Neural Network,CNN)是一种深度学习网络,利用卷积核来自动提取特征,省去了人工提取特征的步骤。基于卷积神经网络的检索方法能有效提升图像对象的识别精度。因此,本发明利用训练好的CNN提取代表性视图的特征,并按类别建立索引。
在模型检索方面,目前的方法投影并提取特征以后,需要与所有模型的全部索引进行相识度匹配,这降低了检索的效率。因此,我们采用先分类再检索的方式,减少了检索算法的搜索空间。与此同时,提出了一种基于视图递增的三维模型检索方法。该方法对于待检索模型,依次选择代表性视图进行相似度匹配,当可以确定所需模型时,提前终止检索,从而进一步提高了检索效率。
发明内容
本发明的目的是为了解决三维模型检索过程中,三维模型的表征问题和检索效率低下问题。
上述发明目的主要是通过以下技术方案实现的:
快速的三维模型索引建立及检索方法,包含三个阶段模型训练、代表性视图索引建立和视图递增的相似度匹配:
所述模型训练阶段包含步骤:
S1、按照本发明的方法获取本地模型的二维视图;
步骤S1获取二维视图的方法如下:
S11、对模型进行预处理,获取模型的边界信息,遍历模型点的坐标,计算确定缩放比例和模型的位置中心,对模型进行平移和缩放;
S12、投影点选取,将单位圆平均划分为4个区域,每个区域中心设置一个投影相机,其他相机位于通过中心的等分线上,等分线之间的夹角相等,并确保每个相机的镜头指向球心;
S13、模型渲染,取多光源的方式进行模型渲染,首先设置一个强度较低的环境光,然后在(0,0,1),(0,0,-1),(0,1,0),(0,-1,0),(1,0,0),(-1,0,0)6个点,即模型的上下左右前后6个方向设置6个亮度较低的点光源,最后在每个相机的位置设置一个亮度较高的点光源,采集视图时开启;
S14、经过以上处理,每个模型获取到40张二维视图。
S2、将S1得到的投影视图作为训练数据,放入ResNet50卷积神经网络中进行训练;
所述代表性视图索引建立阶段包含步骤:
S3、对S1得到的投影视图利用K-means算法进行聚类,并将聚类后的视图放入S2训练好的模型中进行特征提取,按照类别建立索引;
当用K-means对二维视图进行聚类时,首先确定类别K的值,S1中投影得到40张视图,经验证,K的取值范围为10-20时最佳,然后用手肘法确定K的最终值,选择最靠近每个类别中心的视图作为代表视图,最终得到K个二维代表性视图表示一个三维模型。
所述视图递增的检索阶段包含步骤:
S4、对待检索模型按照S1的方法进行投影,并将投影得到的二维视图利用S2训练好的模型进行分类和特征提取;
S5、综合S4的二维视图分类结果,确定模型的最终类别;
步骤S5确定模型类别步骤如下:
S51、统计每张视图的最终分类类别,视图数量最多的类别即为模型的最终类别,若出现两个类别视图数一致的情况则执行步骤S52;
S52、获取每张视图的分类概率列表,将不同视图的对应类别概率相加求平均,概率最大的类别即为模型的最终类别。
S6、在S5确定的类别下按照本发明的方法进行相似度匹配,得到检索结果。
步骤S6的相似度匹配算法如下:
S61、依次输入待检索模型聚类后的视图,如果该输入视图和一个模型视图之间的距离小于η时停止检索,输出检索结果,否则执行步骤S62;
S62、记录该视图的最佳匹配模型,若某个最匹配模型的数量达到5时,停止检索,输出检索结果,否则执行步骤S63;
S63、记录输入视图和所有本地模型视图之间的欧氏距离,与上一张视图计算得到的欧式距离对应累加,更新检索结果,执行步骤S61直到无待检索模型视图输入,最后输出检索结果。
优选的,S61中的距离为欧式距离,检索结果按照欧氏距离从小到大的顺序排序,特别的,η的确定方式如下:
通过遍历同一个模型两个相邻投影点所产生的两个视图间的距离(以下称为相邻视图距离)来选取η的大概范围,经过实验发现,即使在同一个数据集中,不同类别间的相邻视图距离取值也不同,为了兼顾检索数据库中各个类别,同时也为了提高检索的精度,本发明取检索数据库中每类模型的最小的相邻视图距离平均值为最终η值。
发明效果
本发明提供了一种快速的三维模型索引建立及检索方法。在模型训练阶段,首先通过本发明的方法对三维模型进行二维视图投影,并利用投影得到的视图进行CNN模型训练;在代表性视图索引建立阶段,采用K-means的方法对二维视图进行聚类,选取离聚类中心最近的视图为代表性视图,最终一个模型得到K张视图,利用训练好的模型进行特则提取并按照类别建立索引;在检索阶段,对待检索模型按照同样的方法获取代表性视图,然后通过CNN预测代表性视图的类别,并通过累加概率最大值确定其最终类别,最后在该类别内按照本发明的相似度匹配算法进行检索。实验表明,本发明可以极大地提高检索效率。
附图说明
图1模型预处理示意图;
图2投影点相机位置图;
图3模型渲染过程中固定点光源分布图;
图4最终检索效果;
图5本发明在ModelNet10数据库中平均相似度匹配次数对比图。
具体实施方法
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本发明提供的一种快速的三维模型检索方法,包含模型训练阶段、代表性视图索引建立阶段和视图递增的检索阶段:
所述模型训练阶段包含步骤:
S1、按照本发明的方法获取本地模型的二维视图;
S2、将S1得到的投影视图作为训练数据,放入ResNet50卷积神经网络中进行训练;
所述代表性视图索引建立阶段包含步骤:
S3、对S1得到的投影利用K-means算法进行聚类,并将聚类后的视图放入S2训练好的模型中进行特征提取,按照类别建立索引;
所述视图递增的检索阶段包含步骤:
S4、对待检索模型按照S1的方法进行投影,并将投影得到的二维视图利用S2训练好的模型进行分类和特征提取;
S5、综合S4的二维视图分类结果,确定模型的最终类别;
S6、在S5的类别范围内按照本发明的策略进行检索,得到检索结果。
本发明实施例通过在模型训练阶段,以本文所述发放获取二维视图为训练数据,放入ResNet50网络中进行模型训练;代表性视图索引建立阶段,通过K-means聚类方法获取代表性视图,利用之前训练好的网络模型提取这些视图特征并建立本地索引;视图递增的检索阶段,首先确定待检索模型的类别,然后在此类别内按照本发明所述方法以视图递增的形式进行相似度匹配,最后得到检索结果;通过本发明提供的方法可以有效地提高三维模型检索效率。
下面对本发明实施例进行详细的说明:
本发明实施例为在ModelNet10数据库中检索chair_890,应用本发明方法检索包含模型训练阶段、代表性视图索引建立阶段和视图递增的检索阶段:
所述模型训练阶段包含步骤:
S1、按照本发明的方法获取本地模型的二维视图;
步骤S1获取二维视图的方法如下:
如图1所示,
S11、模型预处理,将模型平移旋转到坐标原点,对所有本地模型执行同样操作;
如图2所示,
S12、投影点选取,将单位圆平均划分为4个区域,每个区域中心设置一个投影相机,其他相机位于通过中心的等分线上,等分线之间的夹角相等,并确保每个相机的镜头指向球心;
如图3所示,
S13、模型渲染,取多光源的方式进行模型渲染,首先设置一个强度较低的环境光,然后在(0,0,1),(0,0,-1),(0,1,0),(0,-1,0),(1,0,0),(-1,0,0)6个点,即模型的上下左右前后6个方向设置6个亮度较低的点光源,最后在每个相机的位置设置一个亮度较高的点光源,采集视图时开启;
S14、经过以上处理,每个模型获取到40张二维视图,ModelNet10数据库共获取159640张二维视图。
S2、将S1得到的投影视图作为训练数据,放入ResNet50中进行训练;
将S1得到的视图全部输入到ResNet50中进行训练,得到的一个训练好的ResNet50深度神经网络模型。
所述代表性视图索引建立阶段包含步骤:
S3、对S1得到的投影利用K-means算法进行聚类,并将聚类后的视图放入S2训练好的模型中进行特征提取,按照类别建立索引;
本文按照K-means的方法对视图进行聚类,每个模型聚类时的K值选取不同,均值约为14,聚类后的视图按照S2训练好的模型提取特征,并按类别建立索引。
所述视图递增的检索阶段包含步骤:
S4、对待检索模型按照S1的方法进行投影,并将投影得到的二维视图利用S2训练好的模型进行分类和特征提取;
同样使用K-means对二维视图进行聚类,K的取值范围大致为10-20,然后用手肘法确定K的最终值为15,选择最靠近每个类别中心的视图作为代表视图,最终得到15个二维代表性视图表示一个三维模型。
S5、综合S4的二维视图分类结果,确定模型的最终类别;
步骤S5确定模型类别方法为:统计每个视图的最终分类类别,chair类别下有15张视图,则模型最终类别为chair。
S6、在S5确定的类别下按照本发明的策略进行检索,得到检索结果。
步骤S6的检索方法如下:
S61、输入一张chair_890聚类后的视图,和本地模型间的视图计算欧式距离,无小于η的值,执行S62;
S62、记录该视图的最佳匹配模型为chair_713,最匹配模型的数量均未达到5,执行步骤S63;
S63、记录输入视图和所有本地模型视图之间的欧氏距离,与上一张视图计算得到的欧式距离对应累加,更新检索结果,仍有视图输入,继续执行步骤S61直到无输入,最后输出检索结果。
优选的,S61中的η值按照以下方式确定:
通过遍历同一个模型两个相邻投影点所产生的两个视图间的距离(以下称为相邻视图距离)来选取η的大概范围,ModelNet10数据库中,每类模型的最小的相邻视图距离平均值为,为1.641,则η值为1.641。
本实施例中,ModelNet10训练集模型分为10类,共3991个模型,平均每类有399个模型;按照S1方法,每个模型可得到40张二维视图,按照S3的方法聚类后,平均每个模型可得14张二维视图;两张视图间计算距离所花费时间约为(5*10-4)秒。为体现本发明的有效性,分为如下几种情况进行对比:
1、若不执行步骤S3、S4、S5、S6,则检索一次所花费的时间约为:
40*3991*40*5*10-4秒
2、若不执行S3、S4、S6,则检索一次花费时间约为:
40*399*40*5*10-4秒,比情况1减少了90%。
3、若不执行S6,则检索一次花费时间约为:
14*399*14*5*10-4秒,比情况2减少了87.75%。
4、若执行本发明所有步骤,则检索一次花费时间约为:
11*399*14*5*10-4秒,比情况3减少了21.5%。
另外,本实施例的最终检索效果如图4示,在ModelNet10数据库中一次检索的平均相似度匹配次数对比如图5所示,可以看出,本发明提出的检索方法可以在保证精度的基础上提升检索的效率。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明做出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (3)
1.快速的三维模型索引建立及检索方法,其特征在于,包含模型训练阶段、代表性视图索引建立阶段和视图递增的检索阶段:
所述模型训练阶段包含步骤:
S1、按照步骤S11-S14的方法获取本地三维模型的二维视图;
S11、对三维模型进行预处理,获取模型的边界信息,遍历模型点的坐标,计算确定缩放比例和模型的位置中心,对模型进行平移和缩放;
S12、投影点选取,将单位圆平均划分为4个区域,每个区域中心设置一个投影相机,其他相机位于通过中心的等分线上,等分线之间的夹角相等,并确保每个相机的镜头指向球心;
S13、模型渲染,取多光源的方式进行模型渲染,首先设置一个强度较低的环境光,然后在(0,0,1),(0,0,-1),(0,1,0),(0,-1,0),(1,0,0),(-1,0,0)6个点,即模型的上下左右前后6个方向设置6个亮度较低的点光源,最后在每个相机的位置设置一个亮度较高的点光源,采集视图时开启;
S14、经过以上处理,每个模型获取到40张二维视图;
S2、将S1得到的投影视图作为训练数据,放入ResNet50卷积神经网络中进行训练;
所述代表性视图索引建立阶段包含步骤:
S3、对S1得到的投影利用K-means算法进行聚类,并将聚类后的视图放入S2训练好的模型中进行特征提取,按照类别建立索引;
所述视图递增的检索阶段包含步骤:
S4、对待检索模型按照S1的方法进行投影,并将投影得到的二维视图利用S2训练好的模型进行分类和特征提取;
S5、综合S4的二维视图分类结果,确定模型的最终类别;
S6、在S5确定的类别下按照步骤S61-S63的方法进行相似度匹配,得到检索结果;
S61、依次输入待检索模型聚类后的视图,如果该输入视图和一个模型视图之间的距离小于η时停止检索,输出检索结果,否则执行步骤S62;
S62、记录该视图的最佳匹配模型,若某个最匹配模型的数量达到5时,停止检索,输出检索结果,否则执行步骤S63;
S63、记录输入视图和所有本地模型视图之间的欧氏距离,与上一张视图计算得到的欧式距离对应累加,更新检索结果,执行步骤S61直到无待检索模型视图输入,最后输出检索结果。
2.如权利要求1所述的索引建立及检索方法,其特征在于,步骤S5确定模型类别方法为:
S51、统计每张视图的最终分类类别,视图数量最多的类别即为模型的最终类别,若出现两个类别视图数一致的情况则执行步骤S52;
S52、获取每张视图的分类概率列表,将不同视图的对应类别概率相加求平均,概率最大的类别即为模型的最终类别。
3.如权利要求1所述的索引建立及检索方法,其特征在于,步骤S61中的η的确定方式如下:
通过遍历同一个模型两个相邻投影点所产生的两个视图间的距离即相邻视图距离,来选取η的大概范围,经过实验发现,即使在同一个数据集中,不同类别间的相邻视图距离取值也不同,为了兼顾检索数据库中各个类别,同时也为了提高检索的精度,取检索数据库中每类模型的最小的相邻视图距离平均值为最终η值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910980788.XA CN110737788B (zh) | 2019-10-16 | 2019-10-16 | 快速的三维模型索引建立及检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910980788.XA CN110737788B (zh) | 2019-10-16 | 2019-10-16 | 快速的三维模型索引建立及检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110737788A CN110737788A (zh) | 2020-01-31 |
CN110737788B true CN110737788B (zh) | 2022-05-31 |
Family
ID=69269075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910980788.XA Expired - Fee Related CN110737788B (zh) | 2019-10-16 | 2019-10-16 | 快速的三维模型索引建立及检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110737788B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001232B (zh) * | 2020-07-09 | 2023-10-13 | 北京北大千方科技有限公司 | 含个体特征的机场客流出行链精准感知装置 |
CN112818451A (zh) * | 2021-02-02 | 2021-05-18 | 盈嘉互联(北京)科技有限公司 | 一种基于vgg的bim模型最佳视觉角度构建方法 |
CN113744404B (zh) * | 2021-07-21 | 2023-09-08 | 合肥泰瑞数创科技有限公司 | 三维模型的对比处理方法及系统 |
CN114863186B (zh) * | 2022-06-02 | 2024-10-01 | 哈尔滨理工大学 | 基于双Transformer分支的三维模型分类方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101004748A (zh) * | 2006-10-27 | 2007-07-25 | 北京航空航天大学 | 基于二维草图的三维模型检索方法 |
CN101350016A (zh) * | 2007-07-20 | 2009-01-21 | 富士通株式会社 | 三维模型检索装置及方法 |
CN101916284A (zh) * | 2010-08-19 | 2010-12-15 | 西北工业大学 | 基于形状朝向多分辨率分析的三维模型检索方法 |
JP2015201151A (ja) * | 2014-04-04 | 2015-11-12 | 国立大学法人豊橋技術科学大学 | 三次元モデル検索システム、及び三次元モデル検索方法 |
CN106844620A (zh) * | 2017-01-19 | 2017-06-13 | 天津大学 | 一种基于视图的特征匹配三维模型检索方法 |
CN108009222A (zh) * | 2017-11-23 | 2018-05-08 | 浙江工业大学 | 基于较优视图和深度卷积神经网络的三维模型检索方法 |
CN108389251A (zh) * | 2018-03-21 | 2018-08-10 | 南京大学 | 基于融合多视角特征的投影全卷积网络三维模型分割方法 |
CN110019914A (zh) * | 2018-07-18 | 2019-07-16 | 王斌 | 一种支持三维场景交互的三维模型数据库检索方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3081955A1 (en) * | 2015-04-13 | 2016-10-19 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Mri method for determining signature indices of an observed tissue from signal patterns obtained by motion-probing pulsed gradient mri |
US20190251744A1 (en) * | 2018-02-12 | 2019-08-15 | Express Search, Inc. | System and method for searching 3d models using 2d images |
-
2019
- 2019-10-16 CN CN201910980788.XA patent/CN110737788B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101004748A (zh) * | 2006-10-27 | 2007-07-25 | 北京航空航天大学 | 基于二维草图的三维模型检索方法 |
CN101350016A (zh) * | 2007-07-20 | 2009-01-21 | 富士通株式会社 | 三维模型检索装置及方法 |
CN101916284A (zh) * | 2010-08-19 | 2010-12-15 | 西北工业大学 | 基于形状朝向多分辨率分析的三维模型检索方法 |
JP2015201151A (ja) * | 2014-04-04 | 2015-11-12 | 国立大学法人豊橋技術科学大学 | 三次元モデル検索システム、及び三次元モデル検索方法 |
CN106844620A (zh) * | 2017-01-19 | 2017-06-13 | 天津大学 | 一种基于视图的特征匹配三维模型检索方法 |
CN108009222A (zh) * | 2017-11-23 | 2018-05-08 | 浙江工业大学 | 基于较优视图和深度卷积神经网络的三维模型检索方法 |
CN108389251A (zh) * | 2018-03-21 | 2018-08-10 | 南京大学 | 基于融合多视角特征的投影全卷积网络三维模型分割方法 |
CN110019914A (zh) * | 2018-07-18 | 2019-07-16 | 王斌 | 一种支持三维场景交互的三维模型数据库检索方法 |
Non-Patent Citations (5)
Title |
---|
Bo Ding 等.An Efficient 3D Model Retrieval Method Based on Convolutional Neural Network.《Complexity》.2020,1-14. * |
MA Kassimi 等.3D model retrieval based on semantic and shape indexes.《International Journal of Computer Science Issues》.2011,第8卷(第3期),1-7. * |
Tarik Filali Ansary 等.A Bayesian 3-D Search Engine Using Adaptive Views Clustering.《IEEE Transactions on Multimedia》.2006,第9卷(第1期),78-88. * |
师阳.基于视图的三维模型检索方法研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2019,(第04(2019)期),I138-1096. * |
汤磊.基于卷积神经网络的三维模型检索.《中国优秀硕士学位论文全文数据库 信息科技辑》.2021,(第09(2021)期),I138-648. * |
Also Published As
Publication number | Publication date |
---|---|
CN110737788A (zh) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110737788B (zh) | 快速的三维模型索引建立及检索方法 | |
CN110598554B (zh) | 基于对抗学习的多人姿态估计方法 | |
CN107833213B (zh) | 一种基于伪真值自适应法的弱监督物体检测方法 | |
CN108038122B (zh) | 一种商标图像检索的方法 | |
CN109671102B (zh) | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 | |
Fuh et al. | Hierarchical color image region segmentation for content-based image retrieval system | |
Ab Jabal et al. | Leaf features extraction and recognition approaches to classify plant | |
CN103678504B (zh) | 基于相似度的乳腺图像的匹配图像检索方法及检索系统 | |
CN110210431B (zh) | 一种基于点云语义标注和优化的点云分类方法 | |
CN103593654A (zh) | 一种人脸定位的方法与装置 | |
CN107730553B (zh) | 一种基于伪真值搜寻法的弱监督物体检测方法 | |
KR101386513B1 (ko) | 공간적 피라미드 기반의 가중 비오에프 히스토그램 및 랜덤 포레스트를 이용한 사람 행동 인식 방법 | |
CN111125396B (zh) | 一种单模型多分支结构的图像检索方法 | |
Soudy et al. | RepConv: A novel architecture for image scene classification on Intel scenes dataset | |
CN111709317A (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
CN115203408A (zh) | 一种多模态试验数据智能标注方法 | |
CN114882351B (zh) | 一种基于改进YOLO-V5s的多目标检测与跟踪方法 | |
CN102708367A (zh) | 基于目标轮廓特征的图像识别方法 | |
Chang et al. | Unsupervised video shot detection using clustering ensemble with a color global scale-invariant feature transform descriptor | |
US20190377823A1 (en) | Unsupervised classification of documents using a labeled data set of other documents | |
Sarker et al. | Transformer-based person re-identification: a comprehensive review | |
CN105404682A (zh) | 一种基于数字图像内容的图书检索方法 | |
Xu et al. | Robust seed localization and growing with deep convolutional features for scene text detection | |
Pandey et al. | A hierarchical clustering approach for image datasets | |
CN110956177A (zh) | 一种混合型验证码的识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220531 |