CN111125395A - 一种基于双分支深度学习的cad图纸检索方法及系统 - Google Patents

一种基于双分支深度学习的cad图纸检索方法及系统 Download PDF

Info

Publication number
CN111125395A
CN111125395A CN201911039339.1A CN201911039339A CN111125395A CN 111125395 A CN111125395 A CN 111125395A CN 201911039339 A CN201911039339 A CN 201911039339A CN 111125395 A CN111125395 A CN 111125395A
Authority
CN
China
Prior art keywords
legend
branch
cadrawing
double
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911039339.1A
Other languages
English (en)
Other versions
CN111125395B (zh
Inventor
何政
叶刚
王中元
傅佑铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201911039339.1A priority Critical patent/CN111125395B/zh
Publication of CN111125395A publication Critical patent/CN111125395A/zh
Application granted granted Critical
Publication of CN111125395B publication Critical patent/CN111125395B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于双分支深度学习的CAD图纸检索方法,包括CAD图纸标注,双支深度卷积网络构建,包括获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支;进行损失函数设置,三元测试组的构建,训练样本的构建,包括从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;对每组图例进行锚图例、正图例和负图例的分配;空间映射,根据训练样本对双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;对于任意待检索CAD图纸,利用训练好的双支深度卷积网络实现空间映射,获取匹配结果。

Description

一种基于双分支深度学习的CAD图纸检索方法及系统
技术领域
本发明涉及通信技术领域,尤其是涉及一种基于双分支深度学习的CAD图纸检索方法及系统。
背景技术
凭借强大的图形处理能力与简洁的实操性,计算机辅助设计(CAD)技术已经被广泛应用于建筑工程、化工设计等各个领域。作为CAD技术的核心组成部分,CAD图纸也越来越多的成为工程开发、产品设计的重要组成部分。面对种类繁多,需求巨大的CAD图纸数据,如何快速、精准的查找到满足用户特定需求的设计图纸,日渐成为各领域研发和创新面临的重大问题和挑战。
现有检索识别技术大多依赖于CAD图纸的几何特征和拓扑特征,忽略了局部显著特征对图纸检索识别的重要影响,另外常用的基于深度学习的图像检索技术通常将整个CAD图纸图像作为输入,直接获取视觉特征,在识别效率和精度上都有所欠缺。这是由于CAD图纸种类繁多,不同类别的图纸,如室内装修CAD图纸和工场建造CAD图纸,具有明显的类间视觉差异;相同类别的不同CAD图纸具有个体化的类内视觉差异。本专利充分利用类间与类内的差异特点与联系,设计双支深度卷积网络,分别实现类内与类间两个层次的特征提取,根据多层次特征,实现CAD图纸更快速,更准确的检索。
发明内容
为解决上述现有技术的问题,本发明提供一种双分支深度学习的CAD图纸检索方法及系统。
本发明的技术方案提供一种基于双分支深度学习的CAD图纸检索方法,包括如下步骤:
步骤1,CAD图纸标注,包括对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
步骤2,双支深度卷积网络构建,包括获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
步骤3,损失函数设置,包括设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
Figure BDA0002252417390000021
其中,函数
Figure BDA0002252417390000022
对网络进行训练时,f(·)表示训练使用的是步骤2)构建的双支深度卷积网络,N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,通过L的最大化实现网络的训练和优化;
步骤4,三元测试组的构建,包括设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
步骤5,训练样本的构建,包括从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据步骤4对每组图例进行锚图例、正图例和负图例的分配;
步骤6,空间映射,根据步骤4所得训练样本对步骤2所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
步骤7,检索实现,包括对于任意待检索CAD图纸,利用步骤6训练好的双支深度卷积网络实现空间映射,获取匹配结果。
而且,步骤4中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13
Figure BDA0002252417390000023
时,选取max(Siftnumj12,Siftnumj13)对应的图例作为正图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为负图例;其它情况下,CADrawingj2,CADrawingj3任意选取作为正或负图例;其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大。
本发明提供一种基于双分支深度学习的CAD图纸检索系统,包括如下模块:
CAD图纸标注模块,用于对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
双支深度卷积网络构建模块,用于获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
损失函数模块,用于设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
Figure BDA0002252417390000031
其中,函数
Figure BDA0002252417390000032
对网络进行训练时,f(·)表示训练使用的是构建的双支深度卷积网络,N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,通过L的最大化实现网络的训练和优化;
三元测试组构建模块,用于设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
训练样本构建模块,用于从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据三元测试组构建模块的设定对每组图例进行锚图例、正图例和负图例的分配;
空间映射模块,用于根据训练样本构建模块所得训练样本对构建所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
检索实现模块,用于包括对于任意待检索CAD图纸,利用空间映射模块训练好的双支深度卷积网络实现空间映射,获取匹配结果。
而且,三元测试组构建模块中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13
Figure BDA0002252417390000041
时,选取max(Siftnumj12,Siftnumj13)对应的图例作为正图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为负图例;其它情况下,CADrawingj2,CADrawingj3任意选取作为正或负图例;其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大。
现有CAD图纸检索方法多是依赖传统的手工提取特征的方式,实现对象检索,这种方法过分依赖于特征的选择,提取的特征也难以完全表达跨场景跨类型的CAD图纸。本方案将深度卷积网络框架引入到CAD图纸检索领域中,设计构造具有二分支架构的深度卷积网络:其中一个分支负责高层特征(类间特征)的提取;另一个分支负责底层特征(类内特征)的提取。最终利用三元组损失函数对网络进行监督学习,实现端对端多层次的深度特征的提取与目标检索。分层特征的构建与获取,从根本上提升了检索识别效率。同时借助针对CAD图纸检测的三元组损失函数的设计与构建,进一步提升了检索的辨识粒度,大幅度地提升了检索结果的准确度。
附图说明
图1为本发明构建的双支深度卷积网络结构示意图。
图2为本发明实施例的流程图。
具体实施方式
为了更好地理解本发明的技术方案,下面结合附图和实施例对本发明做进一步的详细说明。
参见图2,本发明实施例提供的一种基于深度学习的CAD图纸检索方法,包括以下步骤:
1)CAD图纸标注。具体实施时,可以利用已有的CAD图纸库,或者预先收集CAD图纸样本数据,并对各图纸数据进行预先标注,图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别(如室内装修类,室外场景类等)。
2)双支深度卷积网络构建。VGG网络是最常用的基于深度学习的识别模型之一,在目标识别任务中具有优秀的性能和出众的表现,,本专利提出在VGG网络结构的基础上构建双支深度学习模型,以实现更高效能的检索模型。双支网络结构如附图1所示,卷积层1-卷积层3作为共享层,获取样本的浅层深度特征,类间特征提取作为网络的一支,根据图纸种类Class作为标签,通过卷积层4_1,卷积层5_1和两个全连接层(全连接层6_1和全连接层7_1)获取图纸的类别特征Attribute_feature,以实现类别识别;类似,类内特征利用相似的结构,通过卷积层4_2,卷积层5_2和两个全连接层(全连接层6_2和全连接层7_2)获取图纸的类内特征Sample_feature,以实现实例聚类;共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合(拼接)后,进行双层全连接映射输入到损失函数中。其中,卷积层1、卷积层2、卷积层5_1、卷积层5_2带有池化层。
3)损失函数设计。深度学习中,常用的分类方法是利用softmax等函数直接输出样本的类别,这种方式一定程度上限制了图像检中对检索对象的辨识粒度,本发明提出利用三元组损失函数训练深度网络,提升检索辨识能力。
具体步骤:设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚(Anchor)图例,即图像imgi本身,posi是anci的正(Positive)图例,即与imgi具有相同ID(IDi)的图像(imgi本身除外),neg是与imgi具有不同ID(IDi)的图像,称为负(Negative)图例,通过优化空间构建函数L:
Figure BDA0002252417390000051
其中,函数
Figure BDA0002252417390000052
对网络进行训练时,f(·)表示训练使用的是步骤2)构建的双支深度卷积网络(深度学习模型),N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,实施例优选设置的默认取值是0.5。通过L的最大化实现网络的训练和优化。
4)三元测试组的构建。
对于任意的三元图例组<CADrawingj1,CADrawingj2,CADrawingj3>,anc的选取是任意、无约束的,剩余两个图例根据下述步骤进行pos图例和neg图例的分配。
具体步骤:对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,任意选取其中一个图例作为anc,如选取图例CADrawingj1作为anc。对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13。当
Figure BDA0002252417390000061
时,选取max(Siftnumj12,Siftnumj13)对应的图例作为pos图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为neg图例;其它情况下,CADrawingj2,CADrawingj3可以任意选取作为pos或neg图例。其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大,实施例优选设置的默认选取0.3。
5)训练样本的构建。从CAD图纸库中以随机抽取的方式,选取M组具有不同构成的三元图例组,每组图例中保证至少有两个图例是属于同一对象或类别,表示为
Figure BDA0002252417390000062
根据步骤4对每组图例CADrawingk1,CADrawingk2,CADrawingk3进行<anc,pos,neg>的分配,将<anc,pos,neg>作为输入,maxL作为优化标准,对网络进行训练。
6)空间映射。根据步骤5)所得M组三元组,步骤2)选取的深度卷积网络(深度学习模型)可得充分的训练,输出图例的特征表达向量,将CAD图纸从原始的图像空间映射到特征表达向量空间{Vec},可表示为:对于CAD图纸样本CADrawingl,f(CADrawingl)→Vecl,其中f(·)表示训练使用的是步骤2)构建的深度卷积网络(深度学习模型)。在{Vec}中,向量之间的欧式距离可以直接反应向量之间的相似程度。
实施例中,对步骤5所得M组三元组,输入到步骤2)中提出的双支深度卷积网络中,进行组内向量优化(类内距离尽可能小,类间距离尽可能大),最后得到的是每个图纸的向量化表达,向量之间的距离直接表示了对应图纸间的相似度。
7)实现检索。对于任意待检索CAD图纸CADrawingjc,利用训练好的深度网络f(·)实现空间映射:f(CADrawingjc)→Vecjc,根据优选采用的匹配指标Top-5 Match,即在{Vec}中选取距离Vecjc最近的5个向量,这五个向量对应的CAD图纸即是CADrawingjc的TOP-5最优匹配。
具体实施时,可采用软件方式实现流程的自动运行。运行流程的装置也应当在本发明的保护范围内。本发明实施例提供一种基于双分支深度学习的CAD图纸检索系统,包括如下模块:
CAD图纸标注模块,用于对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
双支深度卷积网络构建模块,用于获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
损失函数模块,用于设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
Figure BDA0002252417390000071
其中,函数
Figure BDA0002252417390000072
对网络进行训练时,f(·)表示训练使用的是构建的双支深度卷积网络,N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,通过L的最大化实现网络的训练和优化;
三元测试组构建模块,用于设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
训练样本构建模块,用于从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据三元测试组构建模块的设定对每组图例进行锚图例、正图例和负图例的分配;
空间映射模块,用于根据训练样本构建模块所得训练样本对构建所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
检索实现模块,用于包括对于任意待检索CAD图纸,利用空间映射模块训练好的双支深度卷积网络实现空间映射,获取匹配结果。
具体模块实现可参见相应步骤,本发明不予赘述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替换。

Claims (4)

1.一种基于双分支深度学习的CAD图纸检索方法,其特征在于,包括如下步骤:
步骤1,CAD图纸标注,包括对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
步骤2,双支深度卷积网络构建,包括获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
步骤3,损失函数设置,包括设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
Figure FDA0002252417380000011
其中,函数
Figure FDA0002252417380000012
对网络进行训练时,f(·)表示训练使用的是步骤2)构建的双支深度卷积网络,N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,通过L的最大化实现网络的训练和优化;
步骤4,三元测试组的构建,包括设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
步骤5,训练样本的构建,包括从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据步骤4对每组图例进行锚图例、正图例和负图例的分配;
步骤6,空间映射,根据步骤4所得训练样本对步骤2所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
步骤7,检索实现,包括对于任意待检索CAD图纸,利用步骤6训练好的双支深度卷积网络实现空间映射,获取匹配结果。
2.根据权利要求1所述的基于双分支深度学习的CAD图纸检索方法,其特征在于:步骤4中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13
Figure FDA0002252417380000021
时,选取max(Siftnumj12,Siftnumj13)对应的图例作为正图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为负图例;其它情况下,CADrawingj2,CADrawingj3任意选取作为正或负图例;其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大。
3.一种基于双分支深度学习的CAD图纸检索系统,其特征在于,包括如下模块:
CAD图纸标注模块,用于对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
双支深度卷积网络构建模块,用于获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
损失函数模块,用于设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
Figure FDA0002252417380000022
其中,函数
Figure FDA0002252417380000023
对网络进行训练时,f(·)表示训练使用的是构建的双支深度卷积网络,N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,通过L的最大化实现网络的训练和优化;
三元测试组构建模块,用于设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
训练样本构建模块,用于从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据三元测试组构建模块的设定对每组图例进行锚图例、正图例和负图例的分配;
空间映射模块,用于根据训练样本构建模块所得训练样本对构建所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
检索实现模块,用于包括对于任意待检索CAD图纸,利用空间映射模块训练好的双支深度卷积网络实现空间映射,获取匹配结果。
4.根据权利要求3所述的基于双分支深度学习的CAD图纸检索系统,其特征在于:三元测试组构建模块中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13
Figure FDA0002252417380000031
时,选取max(Siftnumj12,Siftnumj13)对应的图例作为正图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为负图例;其它情况下,CADrawingj2,CADrawingj3任意选取作为正或负图例;其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大。
CN201911039339.1A 2019-10-29 2019-10-29 一种基于双分支深度学习的cad图纸检索方法及系统 Active CN111125395B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911039339.1A CN111125395B (zh) 2019-10-29 2019-10-29 一种基于双分支深度学习的cad图纸检索方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911039339.1A CN111125395B (zh) 2019-10-29 2019-10-29 一种基于双分支深度学习的cad图纸检索方法及系统

Publications (2)

Publication Number Publication Date
CN111125395A true CN111125395A (zh) 2020-05-08
CN111125395B CN111125395B (zh) 2021-07-20

Family

ID=70495462

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911039339.1A Active CN111125395B (zh) 2019-10-29 2019-10-29 一种基于双分支深度学习的cad图纸检索方法及系统

Country Status (1)

Country Link
CN (1) CN111125395B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951263A (zh) * 2020-08-26 2020-11-17 桂林电子科技大学 一种基于卷积神经网络的机械零件图纸检索方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100717A1 (en) * 2014-12-17 2016-06-23 Google Inc. Generating numeric embeddings of images
CN106951911A (zh) * 2017-02-13 2017-07-14 北京飞搜科技有限公司 一种快速的多标签图片检索系统及实现方法
CN107330100A (zh) * 2017-07-06 2017-11-07 北京大学深圳研究生院 基于多视图联合嵌入空间的图像‑文本双向检索方法
US20190102908A1 (en) * 2017-10-04 2019-04-04 Nvidia Corporation Iterative spatio-temporal action detection in video
CN110188225A (zh) * 2019-04-04 2019-08-30 吉林大学 一种基于排序学习和多元损失的图像检索方法
CN110263644A (zh) * 2019-05-21 2019-09-20 华南师范大学 基于三胞胎网络的遥感图像分类方法、系统、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100717A1 (en) * 2014-12-17 2016-06-23 Google Inc. Generating numeric embeddings of images
CN106951911A (zh) * 2017-02-13 2017-07-14 北京飞搜科技有限公司 一种快速的多标签图片检索系统及实现方法
CN107330100A (zh) * 2017-07-06 2017-11-07 北京大学深圳研究生院 基于多视图联合嵌入空间的图像‑文本双向检索方法
US20190102908A1 (en) * 2017-10-04 2019-04-04 Nvidia Corporation Iterative spatio-temporal action detection in video
CN110188225A (zh) * 2019-04-04 2019-08-30 吉林大学 一种基于排序学习和多元损失的图像检索方法
CN110263644A (zh) * 2019-05-21 2019-09-20 华南师范大学 基于三胞胎网络的遥感图像分类方法、系统、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XINWEI HE等: "Triplet-Center Loss for Multi-view 3D Object Retrieval", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
陈玄等: "基于融合卷积神经网络模型的手写数字识别", 《计算机工程》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951263A (zh) * 2020-08-26 2020-11-17 桂林电子科技大学 一种基于卷积神经网络的机械零件图纸检索方法

Also Published As

Publication number Publication date
CN111125395B (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN109002834B (zh) 基于多模态表征的细粒度图像分类方法
CN106127785B (zh) 基于流形排序和随机游走的图像显著性检测方法
CN111489358A (zh) 一种基于深度学习的三维点云语义分割方法
WO2022252274A1 (zh) 基于PointNet网络点云分割及虚拟环境生成方法和装置
CN108288088A (zh) 一种基于端到端全卷积神经网络的场景文本检测方法
CN112907602B (zh) 一种基于改进k-近邻算法的三维场景点云分割方法
CN108664999A (zh) 一种分类模型的训练方法及其装置、计算机服务器
CN112016601B (zh) 基于知识图谱增强小样本视觉分类的网络模型构建方法
CN112633350A (zh) 一种基于图卷积的多尺度点云分类实现方法
CN112347970A (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN110942110A (zh) 一种三维模型的特征提取方法和装置
CN113033454A (zh) 一种城市视频摄像中建筑物变化的检测方法
CN115147599A (zh) 一种面向遮挡和截断场景的多几何特征学习的物体六自由度位姿估计方法
CN113129284A (zh) 一种基于5g云边协同的外观检测方法及实现系统
CN111125395B (zh) 一种基于双分支深度学习的cad图纸检索方法及系统
CN116310466A (zh) 基于局部无关区域筛选图神经网络的小样本图像分类方法
CN112669452B (zh) 一种基于卷积神经网络多分支结构的物体定位方法
Jiang et al. Extracting 3-D structural lines of building from ALS point clouds using graph neural network embedded with corner information
CN112330699B (zh) 一种基于重叠区域对齐的三维点云分割方法
CN108229692B (zh) 一种基于双重对比学习的机器学习识别方法
CN116108549B (zh) 一种绿色建筑构件组合虚拟装配系统及方法
CN115359304B (zh) 一种面向单幅图像特征分组的因果不变性学习方法及系统
CN103942779A (zh) 一种基于图论和半监督学习相结合的图像分割方法
CN116386042A (zh) 一种基于三维池化空间注意力机制的点云语义分割模型
Li et al. Few-shot meta-learning on point cloud for semantic segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant