CN111914912A - 一种基于孪生条件对抗网络的跨域多视目标识别方法 - Google Patents

一种基于孪生条件对抗网络的跨域多视目标识别方法 Download PDF

Info

Publication number
CN111914912A
CN111914912A CN202010687755.9A CN202010687755A CN111914912A CN 111914912 A CN111914912 A CN 111914912A CN 202010687755 A CN202010687755 A CN 202010687755A CN 111914912 A CN111914912 A CN 111914912A
Authority
CN
China
Prior art keywords
domain
target
network
twin
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010687755.9A
Other languages
English (en)
Other versions
CN111914912B (zh
Inventor
刘安安
郭富宾
周河宇
宋丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010687755.9A priority Critical patent/CN111914912B/zh
Publication of CN111914912A publication Critical patent/CN111914912A/zh
Application granted granted Critical
Publication of CN111914912B publication Critical patent/CN111914912B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于孪生条件对抗网络的跨域多视目标识别方法,包括:将孪生网络形式的网络结构作为特征提取器用于提取原域和目标域样本的特征;构建域鉴别器用于对齐原域和目标域样本特征,采用原域样本特征训练分类器,使对齐后的原域和目标域样本特征在类层次上具有区分性;将对齐后的原域和目标域样本特征均输入到分类器中,分别获取输出结果,再将输出结果和对应的样本特征经过非线性映射后作为域鉴别器的输入;结合分类器和域鉴别器的分类损失作为网络损失,利用反向传播训练特征提取器,将目标域的分类结果也作为条件对抗网络的输入;利用训练好的特征提取器,提取目标域样本的特征,进行跨域的多视目标识别,提升了识别精度。

Description

一种基于孪生条件对抗网络的跨域多视目标识别方法
技术领域
本发明涉及多视目标识别领域,尤其涉及一种基于孪生条件对抗网络的跨域多视目标识别方法。
背景技术
随着技术的发展,多视目标的识别任务受到了越来越多的关注[1],也有了越来越多的突破[2]。但是三维模型的相关数据库还比较少,同时包含的三维模型数量量级比较低。例如比较有名的两个数据库:ModelNet40[3],ShapeNetCore 55[4],虽然他们中的三维模型已经涉及生活中普遍存在的类别,也有很多研究者借助其去训练和验证自己提出的算法。但是他们自身包含三维物体的数量还是很有限的,对算法的研究和进一步提升有很大制约。同时相比图像数据集,例如ImageNet数据集百万量级以上,这个数量更是相距甚远。
多视目标识别领域目前一种比较主流的方法,是利用相机去获取三维模型多个视角的视图集作为多视目标的表示,然后设计算法提取视图特征并进行融合,取得了出色的成果。比如GVCNN[5]、MVCNN[6]就是其中比较具有代表性的算法。
在跨域学习领域中,目前由于对抗网络的提出,也涌现了越来越多优秀的方法,但是简单的对抗网络在复杂的数据样本中,很容易造成负迁移效果,问题亟待解决,比如JAN[7]
目前针对于跨域的多视目标识别的问题上,研究的成果还比较少,面临的挑战主要有三个方面:
1、如何提取不同域(图像和三维模型)的具有可识别的域不变性的特征;
2、如何捕捉不同域数据的多模态结构;
3、如何在类层次上使得不同类之间的特征具有可鉴别力。
发明内容
本发明提供了一种基于孪生条件对抗网络的跨域多视目标识别方法,本方法根据新的网路结构可以很好的捕捉不同数据域的多模态结构,应对复杂数据样本的状况,可提取具有鉴别力的特征,从而达到提升跨域多视目标识别精度的目的,详见下文描述:
一种基于孪生条件对抗网络的跨域多视目标识别方法,所述方法包括以下步骤:
将孪生网络形式的网络结构作为特征提取器用于提取原域和目标域样本的特征;
构建域鉴别器用于对齐原域和目标域样本特征,采用原域样本特征训练分类器,使对齐后的原域和目标域样本特征在类层次上具有区分性;
将对齐后的原域和目标域样本特征均输入到分类器中,分别获取输出结果,再将输出结果和对应的样本特征经过非线性映射后作为域鉴别器的输入;
结合分类器和域鉴别器的分类损失作为网络损失,利用反向传播训练特征提取器,将目标域的分类结果也作为条件对抗网络的输入;
利用训练好的特征提取器,提取目标域样本的特征,进行跨域的多视目标识别。
其中,所述非线性映射具体为:
通过两个张量进行矩阵乘法去模拟一个协方差的效果,进而捕捉数据分布中的多模态结构。
进一步地,所述域鉴别器与特征提取器共同组成条件对抗网络,用于捕捉不同域数据的多模态结构。
进一步地,所述方法还包括:利用虚拟相机对三维模型数据库中的三维模型进行虚拟拍照,生成多视图数据,将多视图数据作为网络的输入。
本发明提供的技术方案的有益效果是:
1、本发明设计了条件对抗网络结构,将输入样本的分类信息与样本特征一同输入到对抗网络中作为约束条件,现有域适应领域的方法通常采用以样本的特征作为输入,虽然可以在一定程度上取得比较好的迁移效果,但容易造成负迁移,本发明可以借助样本分类信息对于训练过程的迁移方向,进行一定程度的引导和约束,遏制负迁移;
2、本发明设计了非线性映射模块整合样本特征和分类信息作为条件对抗网络的输入,现有技术提出的整合样本特征和分类信息的方法,都是一种线性方法,受限于线性结合本身拟合能力较差的事实,与之相比本发明可以捕捉不同域数据的多模态结构信息,在具有复杂数据分布的样本域上,也具有良好的迁移能力;
3、本发明提出新的训练手段,使用目标的域(三维模型)分类结果作为一种伪标签联合目标域样本特征同原域(图像)样本特征和样本分类结果共同指导鉴别器,现有技术在无监督场景下往往会忽略这部分信息,因为目标域是没有标签的,分类结果是不准确的,但随着训练迭代次数的增加会变的更加准确,也能为鉴别器提供有用信息提高多视目标识别的精度;
4、本发明设计了全新的条件对抗网络结构,可以进行跨域的多视目标识别,以往研究主要集中在三维物体本身的数据集上,对于利用其他域的数据集,并没有进行太多的研究,而本发明设计了一个全新的端到端的网络结构提高了识别精度。
附图说明
图1为一种基于孪生条件对抗网络的跨域多视目标识别方法的流程图;
图2为利用虚拟相机生成三维模型的多视图的示意图;
图3为孪生条件对抗网络的结构图;
图4为AlexNet提取的原域和目标域样本特征的可视化图;
图5为孪生条件对抗网络提取的原域和目标域样本特征的可视化图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
实施例1
一种基于孪生条件对抗网络的跨域多视目标识别方法,参见图1,该方法包括以下步骤:
101:利用虚拟相机对三维模型数据库中的三维模型进行虚拟拍照,生成多视图数据,将多视图数据作为网络的输入;
102:设计一个孪生网络形式的网络结构作为特征提取器用于提取不同域样本(模型的多视图数据,图像域的2D图像)的特征;
其中,三维模型域作为目标域,图像域等作为原域,即通过特征提取器提取到原域样本特征和目标域样本特征。
其中,孪生是设计了多路结构完全相同的AlexNet网络,且多路AlexNet网络参数共享,这样结构可以同时完成对三维模型和图像的特征提取。
103:构建域鉴别器去分辨样本的域类别(原域或目标域),该域鉴别器用于对齐原域和目标域样本特征,同时用原域样本特征训练一个分类器,使对齐后的原域和目标域样本特征可以在类层次上具有区分性;
其中,域鉴别器是一个二分类的分类器,用于分辨输入来自原域还是目标域,构建域鉴别器的步骤为本领域技术人员所公知,本发明实施例对此不做赘述。
104:将对齐后的原域和目标域样本特征都输入到分类器中,分别获取分类输出结果,再将分类输出结果和对应的样本特征经过非线性映射后作为域鉴别器的输入,域鉴别器与步骤102中的特征提取器共同组成条件对抗网络,更好的捕捉不同域数据的多模态结构;
即,将对齐后的原域样本特征输入到分类器中,获取原域的分类输出结果,再将原域的分类输出结果和原域样本特征经过非线性映射后作为域鉴别器的输入;将对齐后的目标域样本特征输入到分类器中,获取目标域的分类输出结果,再将目标域的分类输出结果和目标域的样本特征经过非线性映射后作为域鉴别器的输入。
其中,非线性映射由本发明设计的非线性映射模块完成,这个操作可以理解为通过两个张量进行矩阵乘法去模拟一个协方差的效果捕捉数据分布中的多模态结构。
进一步地,对抗网络具体为:在设计域鉴别器和特征提取器的时候,让其互为竞争对抗的关系。域鉴别器的目的是为了分辨输入是来自哪个域,而特征提取器的目的是让域鉴别器无法分辨输入来自哪个域。所谓条件,一般对抗网络主要采用样本特征作为域鉴别器输入,这样做很容易引发样本的负迁移,本发明为对抗网络在迁移过程增加条件约束,即引入样本分类信息一同作为域鉴别器的输入,有效的减少了负迁移。
105:结合分类器的分类损失和域鉴别器的分类损失作为整个网络损失,利用反向传播算法训练特征提取器,在训练过程将目标域的分类结果也作为条件对抗网络的输入;
106:最后利用训练好的特征提取器,提取目标域样本的特征,进行跨域的多视目标识别。
综上所述,本发明实施例针对三维模型的跨域检索设计了全新孪生条件对抗网络(图3),对齐不同域的特征分布,捕捉不同域数据的多模态结构,提高了多视目标识别精度。
实施例2
下面结合具体的实例、计算公式对实施例1中的方案进行进一步地介绍,详见下文描述:
201:首先利用虚拟相机对三维模型数据库中的模型进行虚拟拍照,生成多视图数据作为网络的输入;
其中,上述步骤201主要包括:
在虚拟空间内,在三维模型的质心每隔30度放置一个虚拟相机,位置完全均匀的分布在三维模型的周围。通过选取不同的间隔角度,可以获取模型的不同组视图,从而获取模型的多视图数据。
202:将孪生网络作为特征提取器用于提取不同域样本(三维模型的多视图数据,图像域的2D图像)的特征,其中三维模型域作为目标域,其他域作为原域。
其中,本发明用Ds,Dt分别代表原域和目标域,Xs,Xt代表原域样本和目标域样本,F(.)代表特征提取器,fs,ft分别代表原域样本特征,则:
fs=F(Xs)
ft=F(Xt)
203:构建域鉴别器去分辨样本的域类别(原域或目标域)用于对齐原域样本和目标域样本的特征,并用原域样本提取好的特征去训练一个分类器,使原域和目标域对齐后的特征可以在类层次具有区分性。
其中,本发明用G1(.),G2(.)分别代表域鉴别器,分类器。
204:将原域和目标域样本特征都输入到分类器中,获取分类输出结果,再将其和样本特征经过非线性映射后作为域鉴别器的输入,此时域鉴别器和特征提取器共同组成条件对抗网络,可以更好的捕捉不同域数据的多模态结构;
其中,本发明用gs,gt分别代表原域和目标分类输出结果,则:
gs=G2(fs)
gt=G2(ft)
本发明用
Figure BDA0002588200240000051
代表非线性映射,gds,gdt代表域鉴别器的输出,则:
Figure BDA0002588200240000052
Figure BDA0002588200240000053
其中,非线性映射是一种矩阵相乘的操作,本发明提出的映射方法,相比现有技术中的线性操作的映射方法,有很大优越性。当分别对两种映射的结果进行期望操作时,线性操作的计算过程,如公式所示:
Figure BDA0002588200240000054
其中,E代表期望操作,x,y代表特征和分类信息,
Figure BDA0002588200240000055
代表线性拼接。很明显线性操作结果的期望相当于特征和分类信息分别独立期望计算所得。本发明提出的非线性的操作时,如公式所示:
Figure BDA0002588200240000056
Figure BDA0002588200240000061
代表非线性操作,C代表类别数,相当于对不同类别的分类条件概率下的特征进行期望计算的结果,更能反应数据分布的真实情况。
205:结合分类器的分类损失和域鉴别器的分类损失作为整个网络损失,利用反向传播算法训练特征提取器将目标域的分类结果也作为条件对抗网络的输入:
其中,域鉴别器的分类损失定义为:E1
Figure BDA0002588200240000062
分类器的分类损失被定义为E2
Figure BDA0002588200240000063
其中,L(.)是交叉熵损失,ns为原域样本数量(图像),nt为目标域样本数量(三维模型),gs原域分类输出结果,ys为原域输入样本类别,yt为目标域输入样本类别。
整个网络损失E为:
E=E1-αE2
其中,α是超参数,用来平衡两个不同的分类损失。
206:最后利用训练好的特征提取器,分别提取原域样本和目标域样本的特征,进行跨域的多视目标识别。
实施例3
下面结合具体的试验对实施例1和2中的方案进行可行性验证,详见下文描述:
采用三维模型中六个常用的评测指标:NN,FT,ST,F,DCG,ANMMR[8]去衡量本方法的性能。
这六项评测标准的实施方法为:
NN:计算最近匹配模型属于查询类别的百分比;
FT:计算第一个K相关匹配样本的召回率,其中K是查询类别的基数;
ST:计算第一个2K相关匹配样本的召回率;
F:对一定数量的检索结果进行精度和召回率的综合测量;
DCG:给与查询图像相关的三维模型赋予较高权重,给无关的三维模型赋予较低的权重,然后进行统计测量;
ANMMR:通过权重排序列表来度量排名性能,其中考虑到顶部检索模型中相关模型的排名信息。
其中,前五项的数值越高代表方法性能越好,第六项数值越低代表方法性能越好。本发明实施例利用ModelNet40[3]和从互联收集来的图像组成用于评测方法性能的数据集。将本方法(Ours)与现有的具有代表性的多视目标识别方法(AlexNet)和跨域方法(MEDA,JGSA,JAN和RevGard)进行对比,结果见下表:
Figure BDA0002588200240000071
可以发现,相比于现有的方法,本发明提出的基于孪生条件对抗网络的跨域多视目标识别具有超过当前主流方法的良好性能。
实施例4:
下面结合特征可视化技术对实施例1和2中的方案进行可行性验证:
因为本方法使以AlexNet为基础上搭建的条件对抗网络,所以这里分别将AlexNet和提出的孪生条件对抗网络所提取的特征进行特征可视化,将二者的可视化效果进行对比,可以验证本发明提出的条件对抗网络的所起到作用。
将AlexNet提取的特征和经过条件对抗网络提取的特征进行特征可视化(见图4和图5,不同颜色代表不同的域)进行对比,可以发现AlexNet提取的特征,不同域特征分隔的很开,经过本方法提取的特征不同域靠拢在了一起,并且会有明显的分簇,这验证了本方法很好的解决了目前跨域多视目标识别遇到的挑战,所提取的特征在域层次得到了对齐且类层次有很好的区分度。
参考文献:
[1]S Jeannin,S Jeannin.MPEG7 Visual part of experimentation ModelVersion 7[J].ISO/IEC JTC1/SC29/WG11 N,2001,3914.
[2]张飞.三维模型特征提取和相关反馈算法研究与实现[D].西北大学,2010.
[3]Z.Wu,S.Song,A.Khosla,F.Yu,L.Zhang,X.Tang,and J.Xiao.3d shapenets:Adeep representation for volumetric shapes.In Proceedings ofIEEE Conference onComputer Vision and Pattern Recognition(CVPR),2015
[4]Savva M,Yu F,Su H,et al.Large-scale 3D shape retrieval fromShapeNet core55[C]//Eurographics Workshop on 3d Object Retrieval.EurographicsAssociation,2016.
[5]QiC R,Su H,Mo K,et al.PointNet:Deep Learning on Point Sets for 3DClassification and Segmentation[J].2016.
[6]Su H,Maji S,Kalogerakis E,et al.Multi-view Convolutional NeuralNetworks for 3D Shape Recognition[J].2015.
[7]Sugiyama M,Suzuki T,Nakajima S,et al.Direct importance estimationfor covariate shift adaptation[J].Annals of the Institute ofStatisticalMathematics,2008,60(4):699-746.
[8]Liu A,Nie W,Gao Y,et al.View-Based 3-D Model Retrieval:A Benchmark[J].IEEE TRANSACTIONS ON CYBERNETICS,2018.
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于孪生条件对抗网络的跨域多视目标识别方法,其特征在于,所述方法包括以下步骤:
将孪生网络形式的网络结构作为特征提取器用于提取原域和目标域样本的特征;
构建域鉴别器用于对齐原域和目标域样本特征,采用原域样本特征训练分类器,使对齐后的原域和目标域样本特征在类层次上具有区分性;
将对齐后的原域和目标域样本特征均输入到分类器中,分别获取输出结果,再将输出结果和对应的样本特征经过非线性映射后作为域鉴别器的输入;
结合分类器和域鉴别器的分类损失作为网络损失,利用反向传播训练特征提取器,将目标域的分类结果也作为条件对抗网络的输入;
利用训练好的特征提取器,提取目标域样本的特征,进行跨域的多视目标识别。
2.根据权利要求1所述的一种基于孪生条件对抗网络的跨域多视目标识别方法,其特征在于,所述非线性映射具体为:
通过两个张量进行矩阵乘法去模拟一个协方差的效果,进而捕捉数据分布中的多模态结构。
3.根据权利要求1所述的一种基于孪生条件对抗网络的跨域多视目标识别方法,其特征在于,所述域鉴别器与特征提取器共同组成条件对抗网络,用于捕捉不同域数据的多模态结构。
4.根据权利要求1所述的一种基于孪生条件对抗网络的跨域多视目标识别方法,其特征在于,所述方法还包括:利用虚拟相机对三维模型数据库中的三维模型进行虚拟拍照,生成多视图数据,将多视图数据作为网络的输入。
CN202010687755.9A 2020-07-16 2020-07-16 一种基于孪生条件对抗网络的跨域多视目标识别方法 Active CN111914912B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010687755.9A CN111914912B (zh) 2020-07-16 2020-07-16 一种基于孪生条件对抗网络的跨域多视目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010687755.9A CN111914912B (zh) 2020-07-16 2020-07-16 一种基于孪生条件对抗网络的跨域多视目标识别方法

Publications (2)

Publication Number Publication Date
CN111914912A true CN111914912A (zh) 2020-11-10
CN111914912B CN111914912B (zh) 2023-06-13

Family

ID=73281580

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010687755.9A Active CN111914912B (zh) 2020-07-16 2020-07-16 一种基于孪生条件对抗网络的跨域多视目标识别方法

Country Status (1)

Country Link
CN (1) CN111914912B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113190733A (zh) * 2021-04-27 2021-07-30 中国科学院计算技术研究所 基于多平台的网络事件流行度预测方法与系统
CN114997175A (zh) * 2022-05-16 2022-09-02 电子科技大学 一种基于领域对抗训练的情感分析方法
CN117274619A (zh) * 2023-11-21 2023-12-22 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于风格融合对比学习的跨域目标识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法
CN110135365A (zh) * 2019-05-20 2019-08-16 厦门大学 基于幻觉对抗网络的鲁棒目标跟踪方法
CN110413924A (zh) * 2019-07-18 2019-11-05 广东石油化工学院 一种半监督多视图学习的网页分类方法
WO2019228358A1 (zh) * 2018-05-31 2019-12-05 华为技术有限公司 深度神经网络的训练方法和装置
CN111078916A (zh) * 2019-11-01 2020-04-28 天津大学 一种基于多层次特征对齐网络的跨域三维模型检索方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019228358A1 (zh) * 2018-05-31 2019-12-05 华为技术有限公司 深度神经网络的训练方法和装置
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法
CN110135365A (zh) * 2019-05-20 2019-08-16 厦门大学 基于幻觉对抗网络的鲁棒目标跟踪方法
CN110413924A (zh) * 2019-07-18 2019-11-05 广东石油化工学院 一种半监督多视图学习的网页分类方法
CN111078916A (zh) * 2019-11-01 2020-04-28 天津大学 一种基于多层次特征对齐网络的跨域三维模型检索方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WENHUI LI 等: "SHREC 2019 - Monocular Image Based 3D Model Retrieval", EUROGRAPHICS WORKSHOP ON 3D OBJECT RETRIEVAL (2019) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113190733A (zh) * 2021-04-27 2021-07-30 中国科学院计算技术研究所 基于多平台的网络事件流行度预测方法与系统
CN113190733B (zh) * 2021-04-27 2023-09-12 中国科学院计算技术研究所 基于多平台的网络事件流行度预测方法与系统
CN114997175A (zh) * 2022-05-16 2022-09-02 电子科技大学 一种基于领域对抗训练的情感分析方法
CN117274619A (zh) * 2023-11-21 2023-12-22 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于风格融合对比学习的跨域目标识别方法
CN117274619B (zh) * 2023-11-21 2024-02-09 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于风格融合对比学习的跨域目标识别方法

Also Published As

Publication number Publication date
CN111914912B (zh) 2023-06-13

Similar Documents

Publication Publication Date Title
CN107515895B (zh) 一种基于目标检测的视觉目标检索方法与系统
CN106021362B (zh) 查询式的图片特征表示的生成、图片搜索方法和装置
CN111914912B (zh) 一种基于孪生条件对抗网络的跨域多视目标识别方法
Gao et al. Multi‐dimensional data modelling of video image action recognition and motion capture in deep learning framework
CN108280187B (zh) 一种基于卷积神经网络深度特征的分级图像检索方法
CN111078916A (zh) 一种基于多层次特征对齐网络的跨域三维模型检索方法
CN113255895B (zh) 基于图神经网络表示学习的结构图对齐方法和多图联合数据挖掘方法
CN105205135B (zh) 一种基于主题模型的3d模型检索方法及其检索装置
CN109308486A (zh) 基于深度学习的多源图像融合和特征提取算法
CN108960142B (zh) 基于全局特征损失函数的行人再识别方法
CN109063649A (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN104933029A (zh) 一种基于概率主题模型的文本图像联合语义分析方法
Liang et al. Uncertainty learning for noise resistant sketch-based 3d shape retrieval
CN108897791A (zh) 一种基于深度卷积特征和语义相似度量的图像检索方法
CN105808665A (zh) 一种新的基于手绘草图的图像检索方法
CN110751027A (zh) 一种基于深度多示例学习的行人重识别方法
CN102855488A (zh) 三维手势识别方法和系统
CN102693316A (zh) 基于线性泛化回归模型的跨媒体检索方法
CN110580510A (zh) 一种聚类结果评价方法和系统
CN104966075A (zh) 一种基于二维判别特征的人脸识别方法与系统
Zhao et al. A comprehensive performance evaluation of 3-D transformation estimation techniques in point cloud registration
Xing et al. Fuzzy c-means algorithm automatically determining optimal number of clusters
CN110796182A (zh) 一种少量样本的票据分类方法及系统
CN104143088A (zh) 一种基于图像检索和特征权重学习的人脸识别方法
CN113051962B (zh) 基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant