CN110717526B - 一种基于图卷积网络的无监督迁移学习方法 - Google Patents

一种基于图卷积网络的无监督迁移学习方法 Download PDF

Info

Publication number
CN110717526B
CN110717526B CN201910899732.1A CN201910899732A CN110717526B CN 110717526 B CN110717526 B CN 110717526B CN 201910899732 A CN201910899732 A CN 201910899732A CN 110717526 B CN110717526 B CN 110717526B
Authority
CN
China
Prior art keywords
network
sample
samples
target domain
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910899732.1A
Other languages
English (en)
Other versions
CN110717526A (zh
Inventor
吴庆耀
吴汉瑞
叶宇中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910899732.1A priority Critical patent/CN110717526B/zh
Publication of CN110717526A publication Critical patent/CN110717526A/zh
Application granted granted Critical
Publication of CN110717526B publication Critical patent/CN110717526B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图卷积网络的无监督迁移学习方法。所述方法包括:从数据库中得到用于迁移学习的源域和目标域样本,对其进行特征提取以及构建相关性关系图;将样本特征和关系图放入已构建的图卷积网络中将样本特征映射到具有强判别性的特征空间并构成样本新的特征;对学习到的特征空间及新样本特征进行分布对齐,使得新样本特征具有良好的迁移性能;同时,构建一个分类网络并学习一个目标域数据的分类器;重复使用梯度下降法直到图卷积网络及分类网络的损失函数收敛,并对未标注的目标域数据进行预测。本发明结合了模型判别能力和知识迁移能力两个特征,能用于困难的无监督迁移学习场景,在实际场景的应用中有良好的分类学习和数据标注能力。

Description

一种基于图卷积网络的无监督迁移学习方法
技术领域
本发明涉及无监督迁移学习领域,具体涉及一种基于图卷积网络的无监督迁移学习方法。
背景技术
近年来,人工智能技术迅猛发展,在多种实地应用场景下起到了很强的作用。人工智能技术的核心是其算法的学习以及预测。然而,随着实际应用场景的多样性和复杂性的增加。传统人工智能算法的短板越来越突出。这主要是由于传统人工智能算法是假设所学习的数据是服从同一分布的,只有服从这样的假设才能够表现出良好的结果。
然而,实际应用中由于不同时间不同地域等各种原因造成数据往往是不完全服从同一分布的,这就需要迁移学习技术把学习到的知识从源域应用到目标域。一类比较困难且很有价值的实际问题是源域和目标域数据分布存在差异,且目标域不存在标注数据,这就是无监督的迁移学习问题。目前有一些应用方法关注到这个问题,但多数解决该问题方法存在一个不足,即忽略了数据的几何信息,而这些几何信息对于学习样本之间的相关性具有重要意义。如何利用数据的几何信息,学习从一个领域到另外一个领域的知识迁移,并进行预测,具有极强的研究价值和实际意义。
发明内容
本发明的目的是提供一种基于图卷积网络的无监督迁移学习方法,克服现有技术存在的不足。
本发明的目的至少通过如下技术方案之一实现。
一种基于图卷积网络的无监督迁移学习方法,包括以下步骤:
S1:从数据库中得到用于迁移学习的源域和目标域样本,对数据样本即源域样本和目标域样本进行特征提取,并基于近邻算法模型构建各数据样本之间的相关性关系图;
S2:将步骤S1中得到的样本特征和关系图放入已构建的图卷积网络中,以提取关系图中数据样本的几何信息,从而将样本特征映射到具有强判别性的特征空间,并构成样本新的特征;
S3:利用最大平均差异对步骤S2中学习到的特征空间及新样本特征进行分布对齐,使得新样本特征具有良好的迁移性能;同时,构建一个分类网络,利用分类网络的损失函数学习一个目标域数据的分类器;
S4:重复使用梯度下降法减小图卷积网络的损失及分类网络的损失,直到图卷积网络及分类网络的损失函数收敛,并使用收敛后图卷积网络和分类网络的参数对未标注的目标域数据进行预测。
进一步地,步骤S1中,具体步骤如下:
S1.1:从数据库中取出数据,包括源域样本和目标域样本;利用特征提取算法提取源域样本和目标域样本的特征;进行特征提取后,源域样本特征表示为
Figure BDA0002211429380000021
其中nS为源域样本的个数,下标S代表源域;源域的样本类别表示为/>
Figure BDA0002211429380000022
对于第i个源域样本xS,i,yS,i∈{1,...,C}为类别空间,C为总类别数;目标域样本特征表示为/>
Figure BDA0002211429380000023
其中nT为目标域样本的个数,下标T代表目标域,xT,i表示第i个目标域样本;X=[XS,XT]=[x1,...,xn]T为两个域的数据样本特征的集合,两个域的样本总数n=nS+nT;目标域样本无类别标记,两个域的样本提取后的特征维度均为d,且类别空间一致,即两个域样本所属的类别可能相同;
S1.2:利用近邻算法模型(kNN)对步骤S1.1提取到的特征进行关系图的构建;令矩阵A为数据样本之间的相关性邻接矩阵,给定第i个数据样本xi和第j个数据样本xj,构建算法为:
Figure BDA0002211429380000024
其中,Aij为A的第i行第j列的元素,Nk(xi)表示第i个数据样本xi的k个近邻;之后对邻接矩阵做正则化处理,即:
Figure BDA0002211429380000025
其中,Dii=∑jAij,Dii为D的第i行第i列的元素;邻接矩阵A正则化处理后所得的/>
Figure BDA0002211429380000026
即为构建得到的关系图。
进一步地,步骤S1.1中,所述特征提取算法为尺度不变特征变换算法(SIFT)或者预训练好的深度网络模型。
进一步地,步骤S2中,所述图卷积网络的模型为三层网络模型,具体表示为:
Figure BDA0002211429380000031
其中,W={W(0),W(1),W(2)}是训练过程中要学习的图卷积参数W(0)、W(1)、W(2)分别为全卷积网络第一、第二、第三层的网络参数,σ(·)为修正线性单元(ReLU)激活函数;X为S1.1中所述两个域的数据样本特征的集合,通过模型G(·)学到新的特征Z=[ZS,ZT]=[z1,...,zi,zn]T,ZS,ZT分别为源域和目标域样本新的特征,n为两个域的样本特征总数,zi表示第i个数据样本的新特征。
进一步地,步骤S3中,具体步骤如下:
S3.1:利用最大平均差异(MMD)对齐步骤S2所述的特征空间,使得样本新的特征具有良好的迁移性能;
S3.2:构建一个分类网络,通过样本新的特征中属于源域样本的部分,以及这些样本的对应标签,采用分类损失函数进行训练,学到一个目标域数据的分类器。
进一步地,步骤S3.1中,最大平均差异的目标函数为:
Figure BDA0002211429380000032
/>
其中,Ω(·,·)为最大平均差异的目标函数,h(·)为映射函数,zS,i代表第i个源域样本的新特征,zT,i代表第i个目标域样本的新特征。
进一步地,分类网络由支持向量机或多层感知机构成。
进一步地,步骤S3.2中,所述分类损失函数为:
Figure BDA0002211429380000033
lCE为源域所有数据样本的交叉熵损失,其中,当第i个源域样本属于第ξ类,即yS,i=ξ,(ξ∈[1,2...,C])时,有
Figure BDA0002211429380000034
fc(zS,i)为软最大值分类函数,即:f(zS,i)=softmax(ΘzS,i),其中Θ=[θ1,...,θc,...,θC]T,θc表示类别c的参数;fc(zS,i)为分类器f(zS,i)输出的第c个元素,f(·)则为目标域数据的分类器。
进一步地,步骤S4中,所述图卷积网络的损失函数是:
l=lCE(yS,f(ZS))+λΩ(ZS,ZT);
l为图卷积网络的损失函数,lCE为步骤S3.2中的分类损失函数,Ω(·,·)为步骤S3.1中的数据分布对齐损失;λ为人工给定的权衡参数。
进一步地,步骤S4中,判定损失收敛及对未标注的目标域数据进行预测的方法为:重复使用梯度下降法应用于图卷积网络的损失函数l以及分类网络的损失函数lCE,直到图卷积网络和分类网络的网络损失的减少在多轮迭代中均少于μ,μ为人工设定的阈值,获得最优的图卷积网络和分类网络参数W*和Θ*,上标*代表最优参数;给定一个学到的目标域样本zT,对其预测结果为:
Figure BDA0002211429380000041
即/>
Figure BDA0002211429380000042
中最大值元素的索引。
与现有技术相比,本发明具有如下优点和技术效果:
本发明结合了模型判别能力和知识迁移能力两个特征,利用图卷积学习数据几何关系的优势,学习源域和目标域数据的特征空间,该空间中的特征既具有强判别性,又有较好的迁移性能,从而提升了目标域分类学习的准确率。
附图说明
图1为本发明实施例的一种基于图卷积网络的无监督迁移学习方法的流程图。
图2为本发明实施例的构建模型的流程图。
图3为AlexNet模型提取出的域特征及通过本方法提取出的域特征的横向比较示意图。
具体实施方式
下面结合实施例及附图对本发明的具体实施做进一步详细的描述,但本发明的实施方式不限于此。
实施例:
如图1、图2所示,一种基于图卷积网络的无监督迁移学习方法,包括以下步骤:
S1:从数据库中得到用于迁移学习的源域和目标域样本,对数据样本即源域样本和目标域样本进行特征提取,并基于近邻算法模型构建各数据样本之间的相关性关系图;本实施例中的源域和目标域样本分别为来自不同地方的电脑显示器图片,其中,源域图片来自网上商城,目标域图片来自普通相机,它们的分布显然是不同的;具体地,利用预训练的AlexNet网络模型对这些图片进行特征提取,并利用k近邻算法构建各数据样本之间的相关性关系图;
S2:将步骤S1中得到的样本特征和关系图放入已构建的图卷积网络中,以提取关系图中数据样本的几何信息,从而将样本特征映射到具有强判别性的特征空间,并构成样本新的特征;
S3:利用最大平均差异对步骤S2中学到的来自于网上商城的源域图片和来自于普通相机的目标域图片的特征空间及新样本特征进行分布对齐,使得这些新样本特征具有良好的迁移性能;同时,构建一个分类网络,利用分类网络的损失学习一个目标域数据的分类器;
S4:重复使用梯度下降法减小图卷积网络的损失及分类网络的损失,直到图卷积网络及分类网络的损失函数收敛,并使用收敛后图卷积网络和分类网络的参数对未标注的目标域数据进行预测。
进一步地,步骤S1中,具体步骤如下:
S1.1:从数据库中取出图像数据,分为源域和目标域数据。在本实施例中,源域是摘至网上商城的有标注图片,目标域数据是由数码相机拍摄的无标注图片。利用AlexNet预训练网络进行特征提取后,源域样本特征表示为
Figure BDA0002211429380000051
其中nS为源域样本的个数,下标S代表源域;源域的样本类别表示为/>
Figure BDA0002211429380000052
对于第i个源域样本xS,i,yS,i∈{1,...,C}为类别空间,C为总类别数;目标域样本特征表示为
Figure BDA0002211429380000053
其中nT为目标域样本的个数,下标T代表目标域,xT,i表示第i个目标域样本。X=[XS,XT]=[x1,...,xn]T为两个域的数据样本特征的集合,两个域的样本总数n=nS+nT;目标域样本无类别标记,两个域的样本提取后的特征维度均为d,且类别空间一致,即两个域样本所属的类别可能相同;
S1.2:利用近邻算法模型(kNN)对步骤S1.1提取到的特征进行关系图的构建。令矩阵A为数据样本之间的相关性邻接矩阵,给定第i个数据样本xi和第j个数据样本xj,构建算法为:
Figure BDA0002211429380000054
其中,Aij为A的第i行第j列的元素,Nk(xi)表示第i个数据样本xi的k个近邻;之后对邻接矩阵做正则化处理,即:
Figure BDA0002211429380000061
其中,Dii=∑jAij,Dii为D的第i行第i列的元素;邻接矩阵A正则化处理后所得的/>
Figure BDA0002211429380000062
即为构建得到的关系图。/>
进一步地,步骤S2中,所述图卷积网络的模型为三层网络模型,具体表示为:
Figure BDA0002211429380000063
其中,W={W(0),W(1),W(2)}是训练过程中要学习的图卷积参数,W(0)、W(1)、W(2)分别为全卷积网络第一、第二、第三层的网络参数,σ(·)为修正线性单元(ReLU)激活函数;X为S1.1中所述两个域的数据样本特征的集合,通过模型G(·)学到新的特征Z=[ZS,ZT]=[z1,...,zi,zn]T,ZS,ZT分别为源域和目标域样本新的特征,n为两个域的样本特征总数。zi表示第i个数据样本的新特征。
进一步地,步骤S3的具体步骤如下
S3.1:利用最大平均差异(MMD)对齐步骤S2所述的特征空间,使得样本新的特征具有良好的迁移性能;
S3.2:构建一个分类网络,在本实施例中,采用两层感知机对分类网络进行构建。通过样本新的特征中属于源域样本的部分,以及这些样本的对应标签,采用分类损失函数进行训练,学到一个目标域数据的分类器。
进一步地,步骤S3.1中,利用最大平均差异(MMD)对学到的两个域的新特征做分布对齐,目标函数为:
Figure BDA0002211429380000064
其中,Ω(·,·)为最大平均差异的目标函数,h(·)为映射函数,zS,i代表第i个源域样本的新特征,zT,i代表第i个目标域样本的新特征。
在本实施例中采用再生核希尔伯特空间计算最大平均差异,即:
Figure BDA0002211429380000065
其中κ(·,·)为高斯核,
Figure BDA0002211429380000066
δ>0是带宽参数。
进一步地,步骤S3.2中,所述分类损失函数为:
Figure BDA0002211429380000071
lCE为源域所有数据样本的交叉熵损失,其中,当第i个源域样本属于第ξ类,即yS,i=ξ,(ξ∈[1,2...,C])时,有
Figure BDA0002211429380000072
fc(zS,i)为软最大值分类函数,即:f(zS,i)=softmax(ΘzS,i),其中Θ=[θ1,...,θc,...,θC]T,θc表示类别c的参数;fc(zS,i)为分类器f(zS,i)输出的第c个元素,f(·)则为目标域数据的分类器。
进一步地,步骤S4中,所述图卷积网络的损失函数是:
l=lCE(yS,f(ZS))+λΩ(ZS,ZT);
l为图卷积网络的损失函数,lCE为步骤S3.2中的分类损失函数,Ω(·,·)为步骤S3.1中的数据分布对齐损失;λ为人工给定的权衡参数。
进一步地,步骤S4中,判定损失收敛及对未标注的目标域数据进行预测的方法为:重复使用梯度下降法应用于图卷积网络的损失函数l以及分类网络的损失函数lCE,直到图卷积网络和分类网络的网络损失的减少在多轮迭代中均少于μ,μ为人工设定的阈值,获得最优的图卷积网络和分类网络参数W*和Θ*,上标*代表最优参数;给定一个学到的目标域样本zT,对其预测结果为:
Figure BDA0002211429380000073
即/>
Figure BDA0002211429380000074
中最大值元素的索引。
在本实施例中,源域图片和目标域图片均为5种类别。如图3所示,将通过AlexNet模型提取出的域特征及通过本方法提取出的域特征,通过t-SNE降维后在二维平面上展示以作横向比较(每一类用一个形状表示)。可以看出,由于源域和目标域的特征分布不同,通过AlexNet模型提取的域特征十分散乱,同一类别的特征往往不处在一个范围之中,使得对其进行分类十分困难。本发明提取出的特征有效地避免了源域与目标域图片的分布差异,使得同一类别的样本不论来自何种域均能分布至相近范围,因此分类模型可以很好地实现对无标注的目标域样本进行正确的类别识别。和现有的其他方法相比,本发明能更有效地利用有标注的源域信息对无标注的目标域信息进行识别。
以上所述,仅为本发明优选的实施例,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明所公开的范围内,根据本发明的技术方法及其发明构思加以等同替换或改变,都属于本发明的保护范围。

Claims (9)

1.一种基于图卷积网络的无监督迁移学习方法,其特征在于,包括以下步骤:
S1:从数据库中得到用于迁移学习的源域和目标域样本,对数据样本即源域样本和目标域样本进行特征提取,并基于近邻算法模型构建各数据样本之间的相关性关系图;具体步骤如下:
S1.1:从数据库中取出数据,包括源域样本和目标域样本;利用特征提取算法提取源域样本和目标域样本的特征;进行特征提取后,源域样本特征表示为
Figure FDA0004179151280000011
其中nS为源域样本的个数,下标S代表源域;源域的样本类别表示为/>
Figure FDA0004179151280000012
对于第i个源域样本xS,i,yS,i∈{1,...,C}为类别空间,C为总类别数;目标域样本特征表示为/>
Figure FDA0004179151280000013
其中nT为目标域样本的个数,下标T代表目标域,xT,i表示第i个目标域样本;X=[XS,XT]=[x1,...,xn]T为两个域的数据样本特征的集合,两个域的样本总数n=nS+nT;目标域样本无类别标记,两个域的样本提取后的特征维度均为d,且类别空间一致;
S1.2:利用近邻算法模型对步骤S1.1提取到的特征进行关系图的构建;令矩阵A为数据样本之间的相关性邻接矩阵,给定第i个数据样本xi和第j个数据样本xj,构建算法为:
Figure FDA0004179151280000014
其中,Aij为A的第i行第j列的元素,Nk(xi)表示第i个数据样本xi的k个近邻;之后对邻接矩阵做正则化处理,即:
Figure FDA0004179151280000015
其中,Dii=∑jAij,Dii为D的第i行第i列的元素;邻接矩阵A正则化处理后所得的/>
Figure FDA0004179151280000016
即为构建得到的关系图;
S2:将步骤S1中得到的样本特征和关系图放入已构建的图卷积网络中,以提取关系图中数据样本的几何信息,从而将样本特征映射到具有强判别性的特征空间,并构成样本新的特征;
S3:利用最大平均差异对步骤S2中学习到的特征空间及新样本特征进行分布对齐,使得新样本特征具有良好的迁移性能;同时,构建一个分类网络,利用分类网络的损失学习一个目标域数据的分类器;
S4:重复使用梯度下降法减小图卷积网络的损失及分类网络的损失,直到图卷积网络及分类网络的损失函数收敛,并使用收敛后图卷积网络和分类网络的参数对未标注的目标域数据进行预测。
2.根据权利要求1所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S1.1中,所述特征提取算法为尺度不变特征变换算法或者预训练好的深度网络模型。
3.根据权利要求1所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S2中,所述图卷积网络的模型为三层网络模型,具体表示为:
Figure FDA0004179151280000021
其中,W={W(0),W(1),W(2)}是训练过程中要学习的图卷积参数,W(0)、W(1)、W(2)分别为全卷积网络第一、第二、第三层的网络参数,σ(·)为修正线性单元激活函数;X为S1.1中所述两个域的数据样本特征的集合,通过模型G(·)学到新的特征Z=[ZS,ZT]=[z1,...,zi,zn]T,ZS,ZT分别为源域和目标域样本新的特征,n为两个域的样本特征总数,zi表示第i个数据样本的新特征。
4.根据权利要求1所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S3中,具体步骤如下:
S3.1:利用最大平均差异对齐步骤S2所述的特征空间,使得样本新的特征具有良好的迁移性能;
S3.2:构建一个分类网络,通过样本新的特征中属于源域样本的部分,以及这些样本的对应标签,采用分类损失函数进行训练,学到一个目标域数据的分类器。
5.根据权利要求3述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S3.1中,最大平均差异的目标函数为:
Figure FDA0004179151280000022
其中,Ω(·,·)为最大平均差异的目标函数,h(·)为映射函数,zS,i代表第i个源域样本的新特征,zT,i代表第i个目标域样本的新特征。
6.根据权利要求3所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S3.2中,分类网络由支持向量机或多层感知机构成。
7.根据权利要求3所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S3.2中,所述分类损失函数为:
Figure FDA0004179151280000031
lCE为源域所有数据样本的交叉熵损失,其中,当第i个源域样本属于第ξ类,即yS,i=ξ,(ξ∈[1,2...,C])时,有
Figure FDA0004179151280000032
fc(zS,i)为软最大值分类函数,即:f(zS,i)=softmax(ΘzS,i),其中Θ=[θ1,...,θc,...,θC]T,θc表示类别c的参数;fc(zS,i)为分类器f(zS,i)输出的第c个元素,f(·)则为目标域数据的分类器。
8.根据权利要求1所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S4中,所述图卷积网络的损失函数是:
l=lCE(yS,f(ZS))+λΩ(ZS,ZT);
l为图卷积网络的损失函数,lCE为步骤S3.2中的分类损失函数,Ω(·,·)为步骤S3.1中的数据分布对齐损失;λ为人工给定的权衡参数。
9.根据权利要求7所述的一种基于图卷积网络的无监督迁移学习方法,其特征在于:步骤S4中,判定损失收敛及对未标注的目标域数据进行预测的方法为:通过重复使用梯度下降法使得图卷积网络的损失函数l以及分类网络的损失函数lCE收敛,直到图卷积网络和分类网络的网络损失的减少在多轮迭代中均少于μ,μ为人工设定的阈值,获得最优的图卷积网络和分类网络参数W*和Θ*,上标*代表最优参数;给定一个学到的目标域样本zT,对其预测结果为:
Figure FDA0004179151280000033
即/>
Figure FDA0004179151280000034
中最大值元素的索引。/>
CN201910899732.1A 2019-09-23 2019-09-23 一种基于图卷积网络的无监督迁移学习方法 Active CN110717526B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910899732.1A CN110717526B (zh) 2019-09-23 2019-09-23 一种基于图卷积网络的无监督迁移学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910899732.1A CN110717526B (zh) 2019-09-23 2019-09-23 一种基于图卷积网络的无监督迁移学习方法

Publications (2)

Publication Number Publication Date
CN110717526A CN110717526A (zh) 2020-01-21
CN110717526B true CN110717526B (zh) 2023-06-02

Family

ID=69210783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910899732.1A Active CN110717526B (zh) 2019-09-23 2019-09-23 一种基于图卷积网络的无监督迁移学习方法

Country Status (1)

Country Link
CN (1) CN110717526B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113159081B (zh) * 2020-01-23 2024-06-21 华为技术有限公司 一种图像处理方法以及相关设备
CN111353988B (zh) * 2020-03-03 2021-04-23 成都大成均图科技有限公司 Knn动态自适应的双图卷积图像分割方法和系统
CN111723823B (zh) * 2020-06-24 2023-07-18 河南科技学院 一种基于第三方迁移学习的水下目标检测方法
CN111950372A (zh) * 2020-07-13 2020-11-17 南京航空航天大学 一种基于图卷积网络的无监督行人重识别方法
CN111932540B (zh) * 2020-10-14 2021-01-05 北京信诺卫康科技有限公司 一种针对新冠肺炎临床分型的ct影像对比特征学习方法
US11416469B2 (en) 2020-11-24 2022-08-16 International Business Machines Corporation Unsupervised feature learning for relational data
CN112613666B (zh) * 2020-12-26 2023-02-14 福建维力能源科技有限公司 一种基于图卷积神经网络和迁移学习的电网负荷预测方法
CN112733859B (zh) * 2021-01-25 2023-12-19 重庆大学 一种组织病理学图像的深度迁移半监督域自适应分类方法
CN112861879B (zh) * 2021-02-23 2022-11-01 中国科学院计算技术研究所 基于双重迁移的认知障碍辅助决策支持方法和系统
CN113160135A (zh) * 2021-03-15 2021-07-23 华南理工大学 基于无监督迁移图片分类的结肠病变智能识别方法、系统及介质
CN113553917B (zh) * 2021-06-30 2023-04-28 电子科技大学 一种基于脉冲迁移学习的办公设备识别方法
CN114500325B (zh) * 2022-01-27 2023-07-18 重庆邮电大学 一种基于无监督迁移学习的sdn控制器故障自适应智能检测方法
CN115424262A (zh) * 2022-08-04 2022-12-02 暨南大学 一种用于优化零样本学习的方法
CN115758130A (zh) * 2022-09-30 2023-03-07 中国民用航空飞行学院 一种无监督迁移学习的滚动轴承故障诊断方法及系统
CN115546567B (zh) * 2022-12-01 2023-04-28 成都考拉悠然科技有限公司 一种无监督领域适应分类方法、系统、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376578A (zh) * 2018-08-27 2019-02-22 杭州电子科技大学 一种基于深度迁移度量学习的小样本目标识别方法
CN109614980A (zh) * 2018-10-16 2019-04-12 杭州电子科技大学 一种基于半监督广域迁移度量学习的小样本目标识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376578A (zh) * 2018-08-27 2019-02-22 杭州电子科技大学 一种基于深度迁移度量学习的小样本目标识别方法
CN109614980A (zh) * 2018-10-16 2019-04-12 杭州电子科技大学 一种基于半监督广域迁移度量学习的小样本目标识别方法

Also Published As

Publication number Publication date
CN110717526A (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN110717526B (zh) 一种基于图卷积网络的无监督迁移学习方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
CN111723675B (zh) 基于多重相似性度量深度学习的遥感图像场景分类方法
CN110929679B (zh) 一种基于gan的无监督自适应行人重识别方法
CN113408605B (zh) 基于小样本学习的高光谱图像半监督分类方法
CN108596203B (zh) 并联池化层对受电弓碳滑板表面磨耗检测模型的优化方法
CN113326731B (zh) 一种基于动量网络指导的跨域行人重识别方法
CN110097060B (zh) 一种面向树干图像的开集识别方法
CN112651262B (zh) 一种基于自适应行人对齐的跨模态行人重识别方法
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
CN109766873B (zh) 一种混合可变形卷积的行人再识别方法
CN113297936B (zh) 一种基于局部图卷积网络的排球群体行为识别方法
CN113674252A (zh) 一种基于图神经网络的组织细胞病理图像诊断系统
CN113592894B (zh) 一种基于边界框和同现特征预测的图像分割方法
CN109446897B (zh) 基于图像上下文信息的场景识别方法及装置
CN104462818B (zh) 一种基于Fisher准则的嵌入流形回归模型
CN112347930B (zh) 基于自学习半监督深度神经网络高分影像场景分类方法
CN115240024A (zh) 一种联合自监督学习和半监督学习的地外图片分割方法和系统
CN110852292B (zh) 一种基于跨模态多任务深度度量学习的草图人脸识别方法
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN112183464A (zh) 基于深度神经网络和图卷积网络的视频行人识别方法
CN114357221B (zh) 一种基于图像分类的自监督主动学习方法
CN116452862A (zh) 基于领域泛化学习的图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant