CN113420888A - 一种基于泛化域自适应的无监督联邦学习方法 - Google Patents

一种基于泛化域自适应的无监督联邦学习方法 Download PDF

Info

Publication number
CN113420888A
CN113420888A CN202110619751.1A CN202110619751A CN113420888A CN 113420888 A CN113420888 A CN 113420888A CN 202110619751 A CN202110619751 A CN 202110619751A CN 113420888 A CN113420888 A CN 113420888A
Authority
CN
China
Prior art keywords
domain
model
target
source
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110619751.1A
Other languages
English (en)
Other versions
CN113420888B (zh
Inventor
王斌
李港
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum East China
Original Assignee
China University of Petroleum East China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum East China filed Critical China University of Petroleum East China
Priority to CN202110619751.1A priority Critical patent/CN113420888B/zh
Publication of CN113420888A publication Critical patent/CN113420888A/zh
Application granted granted Critical
Publication of CN113420888B publication Critical patent/CN113420888B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于泛化域自适应的无监督联邦学习方法,该方法包括:在联邦学习框架下,基于类别质心的分布式模型参数加权平均聚合方法;发明了特征提取、分类学习两段异步式的学习方法,在源域固定特征分类器训练特征提取,而在目标域固定特征提取器学习特征分类器;提出了基于通信轮数的数据交互方式,不需要每次训练都传递数据,而是在客户端训练多个轮数之后更新服务器上的模型参数。本发明的方法能够应用于分布式无监督场景下面向域泛化的工业互联网场景中,提高了客户端之间的通信效率,保障了用户隐私。基于质心的加权平均方式克服了客户端之间数据量不一致而导致的特征偏移情况,较好的完成了服务器端的特征汇聚,提高了目标域的类别预测准确率。

Description

一种基于泛化域自适应的无监督联邦学习方法
技术领域
本发明属于计算机科学领域,涉及一种基于泛化域自适应的无监督联邦学习方法。
背景技术
近年来,机器学习得到深入发展,一些提升机器学习性能的技术也应运而生。然而,机 器学习任务通常需要大量已标记数据,尤其是对于训练深度模型来说。众所周知,对数据打 标签是一项既费时又费力的工作。目前,存在各种各样的数据集,但是当一项新任务出现的 时候,由于分布差异,在这些数据集上训练的模型不能对新任务有很好的效果。如何在这种 源域和目标域概率分布不一致的情况下进行学习即为域自适应学习问题。
具体来说,在拥有已标记源域数据和未标记目标域数据的情况下学习目标模型就是域自 适应(一般指无监督域自适应)。为了提升适应性能,即目标模型的准确率,往往系统在设 计的时候不止使用一个源域。如何通过多源域的学习建立模型应用到分布式客户端中的无标 签数据,得到尽可能高的准确率,是本发明的主要研究场景。因为客户端是分布式结构,要 想获得一个统一的模型在各客户端都保证准确性,需要在训练过程中大量传输数据,这样会 严重影响用户的隐私安全。为了保护隐私,在训练模型的过程当中,域间不能够大量传递数 据。联邦学习可以在一定程度上缓解上述问题。联邦学习可以认为是一种分布式机器学习, 分布式客户端间仅需要在训练阶段互相传递梯度而不是数据。但是,联邦对抗域自适应要求 每个源域在每个小批量之后和目标域交换和更新模型参数,这不但降低了准确率而且也会产 生很高的通信成本且容易发生隐私泄露。特别是当目标客户端(目标域)上是无标签数据, 无法参与模型训练,只能被动接受训练好的模型,然后进行标签预测的情况下。如何保证在 低通信量的基础上尽可能的提高域间泛化能力,保证目标域的预测准确率,是本发明主要研 究问题。
本发明将包含多域模型泛化均衡在内的整个过程叫做自监督联邦域自适应,主要的步骤 如下:
S1,以联邦学习的架构方式组织的分布式客户端和服务器。客户端的任务是存储数据、 训练模型,服务器的任务是聚合、分发特征梯度。其中,源域客户端上都有带标签的数据, 目标域上的数据没有标签。
S2,将各源域的模型参数发送到服务器端进行聚合,在进行加权平均以后再分发回各个 客户端,经过多轮交互,直到定义的损失函数值最小,代表模型已经收敛。其中,本发明提 出了分段式的异步训练方法。在源域上固定特征分类器,训练特征提取器,而在目标域上固 定特征提取器,训练特征分类器。此外,本发明提出服务器上聚合时的加权系数为源域数据 各个分类的质心。
S3,将模型参数传到目标服务器,冻结目标服务器(也称作目标域)上的特征提取器, 开始用目标域上的数据训练目标域的分类器,因为是无标签数据,所以需要采用伪标签技术, 直到信息最大化,训练停止。本步骤的意义是用最小的代价缩小了源域和目标域之间的特征 距离,提高目标域上的信息损失,提高了预测准确率。最后,在目标域上用训练好的特征提 取器和分类器预测数据的标签。
本发明的技术方案特征和改进为:
对于步骤S2,本发明提出了多域模型泛化均衡框架,它以联邦平均的机制进行源客户端 (源域)之间的模型交互。不同于常见的客户端之间交互数据、训练、计算梯度,然后更新 各域模型参数的方法。当每个源域在本地训练模型时,会利用标签平滑技术提高模型的泛化 能力。本发明设计的交叉熵损失函数为:
Figure BDA0003099084590000021
在(1)式中,
Figure BDA0003099084590000022
指的是K维向量a的softmax输出中第k个元素,而q是一个k维向量,除了正确标签对应的位置是“1”,其余都是“0”。为了提高模型的鉴别能 力,标签平滑被应用到源模型的学习中。加入标签平滑技术之后,损失函数变成了:
Figure BDA0003099084590000023
Figure BDA0003099084590000024
其中,K代表类别数,α是平滑系数,通常设为0.1。
在每一轮通信当中,客户端多次将自己的模型发送到服务器端并用加权平均的方式进行 聚合。最后服务器端将更新后的模型参数分发给每个客户端。这个过程会被执行若干次,直 到模型收敛。之后得到的模型可以认为是域泛化的结果,因为此时目标域还是未知的。
对于步骤S2,本发明提出来了一种基于通信轮数的特征更新策略。一般情况下,客户端 之间通信轮数越多效果越好,为了获得更好的性能,常见研究中规定服务器每次训练都需要 传递一次参数。然而,无限制增加通信轮数不但使得准确率的提升越来越不明显,而且通信 成本也会同比例上升,因此通信轮数r的设置非常关键,这关系到客户端之间传递数据量的 大小,即整个系统的执行效率。鉴于以上分析,本发明规定每次迭代聚合r次模型(r∈R&r ≤1)。为了执行r轮聚合,可以将每次迭代平均分成r个阶段,每个阶段结束后聚合模型。 r=0.2表示每5次迭代聚合一次;r=1表示每一次迭代聚合一次。
对于步骤2,本发明还提出来了一种基于质心的源域模型参数加权策略。已有无监督域 自适应方法通常采用的是基于数据集大小的加权策略,但是此方法受到数据集影响太大,无 法保证小数据集在特征聚集时所占的比重。本发明提出的加权策略定义如下:
假设现在已经拥有K个源域所上传的源模型{w1,w2,…,wK}。将它们直接进行平均得到一 个初步模型w0
Figure BDA0003099084590000031
接着,把w0分发到目标域和每个源域,让它们按照下文中计算质心的方法计算并返回各 个类别的质心。此时,假定类别数为L,则每个源域的质心为
Figure BDA0003099084590000032
目标域的 质心为
Figure BDA0003099084590000033
每个域上传的一组质心的大小只与类别数和特征向量的大小有关, 而这两者相对于模型来说是很小的。由此可见,这个过程几乎不会对通信效率造成影响。然 后,计算每个源域的质心和目标域对应质心的余弦相似度并求和:
Figure BDA0003099084590000034
因为余弦相似度的取值范围是[-1,1],为了让sumk非负,最终的和值为:
sumk=sumk+L (6)
最后,利用这个和值来计算权重:
Figure BDA0003099084590000035
至此,通过获得的权重就可以重新聚合各个源模型了。
对于步骤S3,本文提出来了在训练目标域时,先用训练好的源模型初始化目标模型,然 后冻结特征提取器(在训练时参数不更新),开始训练目标模型的分类器。值得一提的是, 已有算法在训练目标模型时固定的是分类器,只训练了特征提取器。而本发明采用的是固定 特征提取器,只训练目标域上的分类器。
目标模型训练的损失函数由两部分构成,即信息最大化损失和伪标签交叉熵损失。
(1)信息最大化
理想的概率向量输出应该和one-hot编码相似,但是不同类别样本的概率向量又彼此不同。 因此,本发明应用信息最大化损失让概率最大标签的概率尽量大(预测结果的个别确定性) 的同时使预测出来的每种类别的标签在数量上基本相同(预测结果的全局多样性)。IM损失 又由Lent和Ldiv两部分组成:
Figure BDA0003099084590000041
Figure BDA0003099084590000042
其中,ft(x)=ht(gt(x))是每个目标样本的K维输出,gT表示特征提取器,ht表示分类 器,
Figure BDA0003099084590000043
是整个目标域概率向量的按元素运算的均值。Lent(ft;Xt)是让每个 样本的预测结果更加确定;Ldiv(ft;Xt)是促进概率向量输出的多样性。
(2)伪标签
单纯使用IM损失,可能会让模型朝着错误的方向发展。这种消极的影响来自于不准确 的网络输出。例如:一个来自第一类的目标域样本,它经过网络后得到的概率向量为[0.34,0.36,0.1,0.1,0.1],那么它可能被迫有一个这样的预期输出[0.0,1.0,0.0,0.00.0]。为了缓解 这个影响,需要对每个未标记数据应用伪标签来更好地监督分类器的训练。在这里,本发明 应用了自监督伪标签策略来减少这种不利因素带来的影响。
首先,通过以下公式得到目标域中每个类的质心:
Figure BDA0003099084590000044
这些质心可以稳定和更可靠地表征目标域内不同类别的分布。然后,利用最近质心分类 器得到每个样本的伪标签:
Figure BDA0003099084590000045
Df(a,b)测量的是a,b之间的Cosine距离。具体形式为:
Figure BDA0003099084590000046
通过以下公式,采用迭代的方式,不断更新目标质心:
Figure BDA0003099084590000047
Figure BDA0003099084590000048
因为
Figure BDA0003099084590000049
是通过由无监督方式产生的质心生成的,
Figure BDA00030990845900000410
被称为自监督伪标签。实际操作中, 上式会反复执行多次,即质心和伪标签会被更新多轮。然而,更新一次通常就能得到足够好 的伪标签。值得一提的是,实际计算中会在特征向量上加一维非零数(例如1),以免除零 错误发生。
综上所述,给定源模型fs(x)=hs(gs(x))和上面的伪标签,本发明会固定特征提取器 gt=gs而去学习分类器ht,总的目标域的损失函数如下:
Figure BDA0003099084590000051
其中,β大于等于0,用来控制伪标签交叉熵损失的权重。
算法最终只产生一个结果模型,且源模型和目标模型的训练完全分离。两步操作解耦之 后,效率有本质上的提高。
附图说明
图1为本发明中基于泛化域自适应的无监督联邦学习方法的流程图。
图2为本发明中多域模型泛化均衡模型数据交互流程示意图。
图3为本发明中分段式的异步训练方法流程示意图
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
一种基于泛化域自适应的无监督联邦学习方法,如图1所示,为本发明的一种基于泛化 域自适应的无监督联邦学习方法的流程图,该方法包含:
S1,以联邦学习的架构方式组织的分布式客户端和服务器,如图2所示。源域和目标域 (客户端)的任务是存储数据、训练模型,服务器的任务是聚合、分发特征梯度。其中,源 域客户端上都有带标签的数据,目标域上的数据没有标签。
S2,将各源域的模型参数发送到服务器端进行聚合,在进行加权平均以后再分发回各个 客户端,经过多轮交互,直到定义的损失函数值最小,代表模型已经收敛。流程如图3所示。 其中,本发明提出了分段式的异步训练方法。在源域上固定特征分类器,训练特征提取器, 而在目标域上固定特征提取器,训练特征分类器。此外,本发明提出服务器上聚合时的加权 系数为源域数据各个分类的质心,这有别于根据数量决定权重而忽略特征散度的常见做法。
S3,将模型参数传到目标服务器,冻结目标服务器(也称作目标域)上的特征提取器。 开始用目标域上的数据训练分类器,因为是无标签数据,采用伪标签技术生成标签。计算目 标域的质心,进行模型参数训练,直到信息最大化。具体流程见图2。本步骤的意义是用最 小的代价缩小了源域和目标域之间的特征距离,提高目标域上的信息损失,提高了预测准确 率。最后,在目标域上用训练好的特征提取器和分类器预测数据的标签。
综上所述,本发明的基于泛化域自适应的无监督联邦学习方法适用于需要进行特征迁移 的工业互联网场景中,并对互联网中客户端间的信息交互,建立了一套专门针对域自适应问 题的自监督联邦学习方法,适用于多个人工智能领域,具有广泛的应用场景。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不 应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改 和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (5)

1.一种基于泛化域自适应的无监督联邦学习方法,其特征及具体步骤如下:
S1,以联邦学习的架构方式组织的分布式客户端和服务器。客户端的任务是存储数据、训练模型,服务器的任务是聚合、分发特征梯度。其中,源域客户端上都有带标签的数据,目标域上的数据没有标签。
S2,将各源域的模型参数发送到服务器端进行聚合,在进行加权平均以后再分发回各个客户端,经过多轮交互,直到定义的损失函数值最小,代表模型已经收敛。其中,本发明提出了分段式的异步训练方法。在源域上固定特征分类器,训练特征提取器,而在目标域上固定特征提取器,训练特征分类器。此外,本发明提出服务器上聚合时的加权系数为源域数据各个分类的质心。
S3,将模型参数传到目标服务器,冻结目标服务器(也称作目标域)上的特征提取器,开始用目标域上的数据训练目标域的分类器,因为是无标签数据,所以需要采用伪标签技术创建伪标签,进行训练直到信息最大化。本步骤的意义是用最小的代价缩小了源域和目标域之间的特征距离,减少了目标域上的信息损失,提高了预测准确率。最后,在目标域上用训练好的特征提取器和分类器预测数据的标签。
2.根据权利要求1所述的一种基于泛化域自适应的无监督联邦学习方法,其特征在于,对于步骤S2,本发明提出了多域模型泛化均衡框架,它以联邦平均的机制进行源客户端(源域)之间的模型参数交互。这样的数据交互方式不同于常见的客户端之间交互数据、训练、计算梯度,然后更新各域模型参数的方法,具有速度快、数据隐私保护好的优点。
当每个源域在本地训练模型时,会利用标签平滑技术提高模型的泛化能力。本发明设计的交叉熵损失函数为:
Figure FDA0003099084580000011
在(1)式中,
Figure FDA0003099084580000012
指的是K维向量a的softmax输出中第k个元素,而q是一个k维向量,除了正确标签对应的位置是“1”,其余都是“0”。为了提高模型的鉴别能力,标签平滑被应用到源模型的学习中。加入标签平滑技术之后,损失函数变成了:
Figure FDA0003099084580000013
Figure FDA0003099084580000014
其中,K代表类别数,α是平滑系数,通常设为0.1。
在每一轮通信当中,客户端将各自的模型发送到服务器端并用加权平均的方式进行聚合。最后服务器端将更新后的模型参数分发给每个客户端。这个过程会被执行若干次,直到模型收敛。之后得到的模型可以认为是域泛化的结果,因为此时目标域还是未知的。
3.根据权利要求1所述的一种基于泛化域自适应的无监督联邦学习方法,其特征在于,对于步骤S2,本发明提出来了一种基于通信轮数的特征更新策略。一般情况下,客户端之间通信轮数越多效果越好,为了获得更好的性能,常见研究中规定服务器每次训练都需要传递一次参数。然而,无限制增加通信轮数不但使得准确率的提升越来越不明显,而且通信成本也会同比例上升,因此通信轮数r的设置非常关键,这关系到客户端之间传递数据量的大小,即整个系统的执行效率。鉴于以上分析,本发明规定每次迭代聚合r次模型(r∈R&r≤1)。为了执行r轮聚合,可以将每次迭代平均分成r个阶段,每个阶段结束后聚合模型。r=0.2表示每5次迭代聚合一次;r=1表示每一次迭代聚合一次。
4.根据权利要求1所述的一种基于泛化域自适应的无监督联邦学习方法,其特征在于,对于步骤S2,本发明提出来了一种基于质心的源域模型参数加权策略。已有无监督域自适应方法通常采用的是基于数据集大小的加权策略,但是此方法受到数据集影响太大,无法保证小数据集在特征聚集时所占的比重。本发明提出的加权策略定义如下:
假设现在已经拥有K个源域所上传的源模型{w1,w2,…,wK}。将它们直接进行平均得到一个初步模型w0
Figure FDA0003099084580000021
接着,把w0分发到目标域和每个源域,让它们按照下文中计算质心的方法计算并返回各个类别的质心。此时,假定类别数为L,则每个源域的质心为
Figure FDA0003099084580000022
目标域的质心为
Figure FDA0003099084580000023
每个域上传的一组质心的大小只与类别数和特征向量的大小有关,而这两者相对于模型来说是很小的。由此可见,这个过程几乎不会对通信效率造成影响。然后,计算每个源域的质心和目标域对应质心的余弦相似度并求和:
Figure FDA0003099084580000024
因为余弦相似度的取值范围是[-1,1],为了让sumk非负,最终的和值为:
sumk=sumk+L (6)
最后,利用这个和值来计算权重:
Figure FDA0003099084580000031
至此,通过获得的权重就可以重新聚合各个源模型了。
5.根据权利要求1所述的一种基于泛化域自适应的无监督联邦学习方法,其特征在于,对于步骤S3,在训练目标域时,本发明先用训练好的源模型初始化目标模型,然后冻结特征提取器(在训练时参数不更新),开始训练目标模型的分类器。值得一提的是,已有算法在训练目标模型时固定的是分类器,只训练了特征提取器。而本发明采用的是固定特征提取器,训练目标模型针对目标域的分类器。
目标模型训练的损失函数由两部分构成,即信息最大化损失和伪标签交叉熵损失。
(1)信息最大化
理想的概率向量输出应该和one-hot编码相似,但是不同类别样本的概率向量又彼此不同。因此,本发明应用信息最大化损失让概率最大标签的概率尽量大(预测结果的个别确定性)的同时使预测出来的每种类别的标签在数量上基本相同(预测结果的全局多样性)。
IM损失又由Lent和Ldiv两部分组成:
Figure FDA0003099084580000032
Figure FDA0003099084580000033
其中,ft(x)=ht(gt(x))是每个目标样本的K维输出,gt表示特征提取器,ht表示分类器,
Figure FDA0003099084580000034
是整个目标域概率向量的按元素运算的均值。Lent(ft;Xt)是让每个样本的预测结果更加确定;Ldiv(ft;Xt)是促进概率向量输出的多样性。
(2)伪标签
单纯使用IM损失,可能会让模型朝着错误的方向发展。这种消极的影响来自于不准确的网络输出。例如:一个来自第一类的目标域样本,它经过网络后得到的概率向量为[0.34,0.36,0.1,0.1,0.1],那么它可能被迫有一个这样的预期输出[0.0,1.0,0.0,0.00.0]。为了缓解这个影响,需要对每个未标记数据应用伪标签来更好地监督分类器的训练。在这里,本发明应用了自监督伪标签策略来减少这种不利因素带来的影响。
首先,通过以下公式得到目标域中每个类的质心:
Figure FDA0003099084580000041
这些质心可以稳定和更可靠地表征目标域内不同类别的分布。然后,利用最近质心分类器得到每个样本的伪标签:
Figure FDA0003099084580000042
Df(a,b)测量的是a,b之间的Cosine距离。具体形式为:
Figure FDA0003099084580000043
通过以下公式,采用迭代的方式,不断更新目标质心:
Figure FDA0003099084580000044
Figure FDA0003099084580000045
因为
Figure FDA0003099084580000046
是通过由无监督方式产生的质心生成的,
Figure FDA0003099084580000047
被称为自监督伪标签。实际操作中,上式会反复执行多次,即质心和伪标签会被更新多轮。然而,更新一次通常就能得到足够好的伪标签。值得一提的是,实际计算中会在特征向量上加一维非零数(例如1),以免除零错误发生。
综上所述,给定源模型fs(x)=hs(gs(x))和上面的伪标签,本发明会固定特征提取器gt=gs而去学习分类器ht,总的目标域的损失函数如下:
Figure FDA0003099084580000048
其中,β大于等于0,用来控制伪标签交叉熵损失的权重。
算法最终只产生一个结果模型,且源模型和目标模型的训练完全分离。两步操作解耦之后,效率有本质上的提高。
CN202110619751.1A 2021-06-03 2021-06-03 一种基于泛化域自适应的无监督联邦学习方法 Active CN113420888B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110619751.1A CN113420888B (zh) 2021-06-03 2021-06-03 一种基于泛化域自适应的无监督联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110619751.1A CN113420888B (zh) 2021-06-03 2021-06-03 一种基于泛化域自适应的无监督联邦学习方法

Publications (2)

Publication Number Publication Date
CN113420888A true CN113420888A (zh) 2021-09-21
CN113420888B CN113420888B (zh) 2023-07-14

Family

ID=77713784

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110619751.1A Active CN113420888B (zh) 2021-06-03 2021-06-03 一种基于泛化域自适应的无监督联邦学习方法

Country Status (1)

Country Link
CN (1) CN113420888B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989595A (zh) * 2021-11-05 2022-01-28 西安交通大学 一种基于阴影模型的联邦多源域适应方法及系统
CN114239862A (zh) * 2021-12-23 2022-03-25 电子科技大学 一种保护用户数据隐私的抗拜占庭攻击的联邦学习方法
CN114785608A (zh) * 2022-05-09 2022-07-22 中国石油大学(华东) 一种基于去中心化联邦学习的工业控制网络入侵检测方法
CN114882245A (zh) * 2022-04-22 2022-08-09 山东大学 一种联邦多任务学习中基于特征提取-子任务分类器的数据标签分类方法及系统
CN115731424A (zh) * 2022-12-03 2023-03-03 北京邮电大学 基于强化联邦域泛化的图像分类模型训练方法及系统
CN115880538A (zh) * 2023-02-17 2023-03-31 阿里巴巴达摩院(杭州)科技有限公司 图像处理模型的域泛化、图像处理的方法及设备
CN115987694A (zh) * 2023-03-20 2023-04-18 杭州海康威视数字技术股份有限公司 基于多域联邦的设备隐私保护方法、系统和装置
WO2023066288A1 (zh) * 2021-10-21 2023-04-27 维沃移动通信有限公司 模型请求方法、模型请求处理方法及相关设备
CN116257972A (zh) * 2022-11-29 2023-06-13 元始智能科技(南通)有限公司 基于领域自适应和联邦学习的设备状态评估方法及系统
CN116525117A (zh) * 2023-07-04 2023-08-01 之江实验室 一种面向数据分布漂移检测与自适应的临床风险预测系统
CN116701939A (zh) * 2023-06-09 2023-09-05 浙江大学 一种基于机器学习的分类器训练方法及装置
CN116962085A (zh) * 2023-09-20 2023-10-27 北京交通大学 鲁棒的个性化联邦学习方法、装置、系统及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909865A (zh) * 2019-11-18 2020-03-24 福州大学 边缘计算中基于分层张量分解的联邦学习方法
CN112183764A (zh) * 2020-10-12 2021-01-05 中国石油大学(华东) 一种基于区块链和联邦学习的物联网设备故障检测方法
CN112235384A (zh) * 2020-10-09 2021-01-15 腾讯科技(深圳)有限公司 分布式系统中的数据传输方法、装置、设备及存储介质
CN112241752A (zh) * 2019-07-18 2021-01-19 阿里巴巴集团控股有限公司 模型训练方法、数据处理方法、分类方法、装置、设备
CN112364913A (zh) * 2020-11-09 2021-02-12 重庆大学 一种基于核心数据集的联邦学习通信量优化方法及系统
CN112532451A (zh) * 2020-11-30 2021-03-19 安徽工业大学 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质
CN112541580A (zh) * 2020-12-31 2021-03-23 南京航空航天大学 一种基于主动对抗学习的半监督域自适应方法
CN112668472A (zh) * 2020-12-28 2021-04-16 中国科学院自动化研究所 基于联邦学习的虹膜图像特征提取方法、系统和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241752A (zh) * 2019-07-18 2021-01-19 阿里巴巴集团控股有限公司 模型训练方法、数据处理方法、分类方法、装置、设备
CN110909865A (zh) * 2019-11-18 2020-03-24 福州大学 边缘计算中基于分层张量分解的联邦学习方法
CN112235384A (zh) * 2020-10-09 2021-01-15 腾讯科技(深圳)有限公司 分布式系统中的数据传输方法、装置、设备及存储介质
CN112183764A (zh) * 2020-10-12 2021-01-05 中国石油大学(华东) 一种基于区块链和联邦学习的物联网设备故障检测方法
CN112364913A (zh) * 2020-11-09 2021-02-12 重庆大学 一种基于核心数据集的联邦学习通信量优化方法及系统
CN112532451A (zh) * 2020-11-30 2021-03-19 安徽工业大学 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质
CN112668472A (zh) * 2020-12-28 2021-04-16 中国科学院自动化研究所 基于联邦学习的虹膜图像特征提取方法、系统和装置
CN112541580A (zh) * 2020-12-31 2021-03-23 南京航空航天大学 一种基于主动对抗学习的半监督域自适应方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
JIAN LIANG等: ""Do We Really Need to Access the Source Data? Source Hypothesis Transfer for Unsupervised Domain Adaptation"", 《ARXIV》 *
JIAN LIANG等: ""Do We Really Need to Access the Source Data? Source Hypothesis Transfer for Unsupervised Domain Adaptation"", 《ARXIV》, 1 June 2021 (2021-06-01), pages 1 - 12 *
王健宗等: ""联邦学习算法综述"", 《大数据》 *
王健宗等: ""联邦学习算法综述"", 《大数据》, 31 December 2020 (2020-12-31), pages 1 - 19 *
芦效峰等: ""一种面向边缘计算的高效异步联邦学习机制"", 《计算机研究与发展》 *
芦效峰等: ""一种面向边缘计算的高效异步联邦学习机制"", 《计算机研究与发展》, vol. 57, no. 12, 31 December 2020 (2020-12-31), pages 2571 - 2582 *
范苍宁等: ""深度域适应综述: 一般情况与复杂情况"", 《自动化学报》 *
范苍宁等: ""深度域适应综述: 一般情况与复杂情况"", 《自动化学报》, vol. 47, no. 3, 31 March 2021 (2021-03-31), pages 515 - 548 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023066288A1 (zh) * 2021-10-21 2023-04-27 维沃移动通信有限公司 模型请求方法、模型请求处理方法及相关设备
CN113989595B (zh) * 2021-11-05 2024-05-07 西安交通大学 一种基于阴影模型的联邦多源域适应方法及系统
CN113989595A (zh) * 2021-11-05 2022-01-28 西安交通大学 一种基于阴影模型的联邦多源域适应方法及系统
CN114239862A (zh) * 2021-12-23 2022-03-25 电子科技大学 一种保护用户数据隐私的抗拜占庭攻击的联邦学习方法
CN114882245A (zh) * 2022-04-22 2022-08-09 山东大学 一种联邦多任务学习中基于特征提取-子任务分类器的数据标签分类方法及系统
CN114882245B (zh) * 2022-04-22 2023-08-25 山东大学 一种联邦多任务学习中基于特征提取-子任务分类器的数据标签分类方法及系统
CN114785608B (zh) * 2022-05-09 2023-08-15 中国石油大学(华东) 一种基于去中心化联邦学习的工业控制网络入侵检测方法
CN114785608A (zh) * 2022-05-09 2022-07-22 中国石油大学(华东) 一种基于去中心化联邦学习的工业控制网络入侵检测方法
CN116257972B (zh) * 2022-11-29 2024-02-20 元始智能科技(南通)有限公司 基于领域自适应和联邦学习的设备状态评估方法及系统
CN116257972A (zh) * 2022-11-29 2023-06-13 元始智能科技(南通)有限公司 基于领域自适应和联邦学习的设备状态评估方法及系统
CN115731424B (zh) * 2022-12-03 2023-10-31 北京邮电大学 基于强化联邦域泛化的图像分类模型训练方法及系统
CN115731424A (zh) * 2022-12-03 2023-03-03 北京邮电大学 基于强化联邦域泛化的图像分类模型训练方法及系统
CN115880538A (zh) * 2023-02-17 2023-03-31 阿里巴巴达摩院(杭州)科技有限公司 图像处理模型的域泛化、图像处理的方法及设备
CN115987694A (zh) * 2023-03-20 2023-04-18 杭州海康威视数字技术股份有限公司 基于多域联邦的设备隐私保护方法、系统和装置
CN116701939A (zh) * 2023-06-09 2023-09-05 浙江大学 一种基于机器学习的分类器训练方法及装置
CN116701939B (zh) * 2023-06-09 2023-12-15 浙江大学 一种基于机器学习的分类器训练方法及装置
CN116525117A (zh) * 2023-07-04 2023-08-01 之江实验室 一种面向数据分布漂移检测与自适应的临床风险预测系统
CN116525117B (zh) * 2023-07-04 2023-10-10 之江实验室 一种面向数据分布漂移检测与自适应的临床风险预测系统
CN116962085A (zh) * 2023-09-20 2023-10-27 北京交通大学 鲁棒的个性化联邦学习方法、装置、系统及存储介质
CN116962085B (zh) * 2023-09-20 2023-12-08 北京交通大学 鲁棒的个性化联邦学习方法、装置、系统及存储介质

Also Published As

Publication number Publication date
CN113420888B (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
CN113420888A (zh) 一种基于泛化域自适应的无监督联邦学习方法
Mokhtari et al. Global convergence of online limited memory BFGS
Chang et al. Provable benefits of overparameterization in model compression: From double descent to pruning neural networks
CN113033822A (zh) 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统
CN114863175A (zh) 一种无监督多源部分域适应图像分类方法
CN114708479A (zh) 一种基于图结构和特征的自适应防御方法
CN117151208B (zh) 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质
Banerjee et al. Boosting exploration in actor-critic algorithms by incentivizing plausible novel states
CN114444737B (zh) 基于迁移学习的路面养护智能规划方法
CN114282440B (zh) 一种抽水蓄能机组调节系统鲁棒辨识方法
CN116402126A (zh) 一种防御数据投毒攻击的联邦学习方法
CN109189973B (zh) 基于策略梯度的大规模图像检索方法及装置
Zhao et al. Dynamic Ensemble of Low-fidelity Experts: Mitigating NAS “Cold-Start”
CN114444605A (zh) 一种基于双重不平衡场景下的无监督域适应方法
US11620576B1 (en) Systems and methods for knowledge transfer in machine learning
Anand et al. Addressing Sample Efficiency and Model-bias in Model-based Reinforcement Learning
Jun et al. A multi-attribute group decision-making approach based on uncertain linguistic information
CN115618754B (zh) 多智能体的价值评估方法、装置和可读储存介质
CN117829274B (zh) 模型融合方法、装置、设备、联邦学习系统及存储介质
CN116800453A (zh) 一种基于模型迁移的智能抽水蓄能电站在线入侵检测方法
Li et al. Approximate policy iteration with unsupervised feature learning based on manifold regularization
Wu et al. Global update guided federated learning
Liedtka et al. Fully Heterogeneous Collective Regression
CN111080053B (zh) 一种基于ehf-was的电网发展策略效率效益评估方法
Xiaoyu et al. Reinforcement-learning-based miniature UAV identification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant