CN117114139A - 一种面向噪声标签的联邦学习方法 - Google Patents

一种面向噪声标签的联邦学习方法 Download PDF

Info

Publication number
CN117114139A
CN117114139A CN202311165703.5A CN202311165703A CN117114139A CN 117114139 A CN117114139 A CN 117114139A CN 202311165703 A CN202311165703 A CN 202311165703A CN 117114139 A CN117114139 A CN 117114139A
Authority
CN
China
Prior art keywords
noise
client
local
data
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311165703.5A
Other languages
English (en)
Inventor
袁稚庭
张宏鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202311165703.5A priority Critical patent/CN117114139A/zh
Publication of CN117114139A publication Critical patent/CN117114139A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向噪声标签的联邦学习方法,包括获取各客户端样本数据的每个类别对应的本地原型,并在服务器端聚合各客户端本地原型得到各类别的全局原型;计算各客户端样本数据与全局原型的相似度,并根据相似度获得噪声数据集和干净数据集;基于干净数据集分别对各客户端的本地模型进行训练,并基于训练后的本地模型对噪声数据集进行预测,根据预测的结果为噪声数据集中的数据赋予伪标签;通过客户端中的干净数据集和赋予伪标签后的噪声数据集对本地模型进行训练,获得本地模型参数;服务端根据各客户端的本地模型参数获得全局模型参数。该方法增强客户端样本数据的标签质量,使噪声数据也能应用到模型训练上,提升了模型的泛化性和精度。

Description

一种面向噪声标签的联邦学习方法
技术领域
本发明涉及人工智能联邦学习技术领域,尤其是涉及一种面向噪声标签的联邦学习方法。
背景技术
随着大数据的发展以及智能设备的普及,每个用户都会产生大量的数据,而集合用户产生的海量数据对于模型训练是至关重要的,但是此类数据难以被管理并且会产生隐私问题。为了能够在满足数据隐私、数据安全以及法规的前提下利用这些数据,联邦学习被提出。
联邦学习(又可以称为联合学习、联盟学习)是一种机器学习框架,可以有效帮助多个客户端(机构)在满足用户隐私保护和数据安全的要求下,进行数据使用和机器学习建模。在联邦学习里,各个客户端通过中心服务器进行协调,在各个客户端和中心服务器彼此信任的情况下(无恶意猜测和攻击)可以达到理想的隐私保护要求,中心服务器只负责协调、聚合等功能,模型依旧仅根据客户端本地的数据进行模型训练,然后将训练好的模型参数聚合到服务器端。其中,在客户端更新的模型称为本地模型,在服务端更新的模型称为全局模型。
然而在联邦学习中,数据标注质量低是一个较为普遍的问题。在不同的客户端下,由于不同的人对于不同专业知识的掌握程度不同并且主观看法也不一定相同,所以数据标注的质量也往往不相同。在每个客户端中,都有一定比例的数据被打错标签,以噪声的形式存在。
现有的解决联邦学习中带有噪声标签数据的方法往往会提出一些偏离实际情况的假设,比如假定部分客户端只拥有无噪声的干净数据集或是假定所有的客户端都持有干净的数据集,又比如假定服务器端具有干净的代理数据集,但上述假设在实际的联邦学习场景下难以实现,且由此训练得到的模型的泛化性和精度不理想。
发明内容
本发明要解决的技术问题在于提供一种面向噪声标签的联邦学习方法,提升训练数据的可用性,解决实际联邦学习场景下噪声标签对训练模型的影响,由此提高模型的泛化性和精度,本发明采用如下技术方案:
本发明提供一种面向噪声标签的联邦学习方法,包括:
获取各客户端样本数据的每个类别对应的本地原型Pk,c,并在服务器端将各个客户端相同类别的本地原型Pk,c聚合得到每个类别的全局原型Pc
计算各客户端样本数据与全局原型Pc的相似度,并根据相似度进行噪声检测获得噪声数据集Nk和干净数据集Ck
基于各客户端的干净数据集Ck分别对各客户端的本地模型进行训练,并基于训练后的本地模型对噪声数据集Nk进行预测,以及根据预测的结果为噪声数据集Nk中的数据赋予伪标签;
通过客户端中的干净数据集Ck和赋予伪标签后的噪声数据集Nk对本地模型进行训练,获得本地模型参数并传递于服务器端;
服务端接收本地模型参数信息,根据各客户端的本地模型参数获得全局模型参数。
进一步的,还包括更新噪声数据集Nk中噪声数据的伪标签,具体为:
修改本地模型的损失函数用于控制噪声数据集Nk的损失在总体损失上的所占比例,损失函数计算公式如下:
其中,是客户端k通过干净数据集Ck对本地模型进行训练时的损失函数,/>是客户端k通过噪声数据集Nk对本地模型进行训练时的损失函数,α是/>占总体损失的比例;
通过该客户端的干净数据集Ck和赋予伪标签后的噪声数据集Nk同时对本地模型进行训练,训练完成后的本地模型再对噪声数据集Nk中的噪声数据进行预测,根据预测的结果更新噪声数据集Nk中的噪声数据的伪标签。
进一步的,获取各客户端样本数据的每个类别对应的本地原型Pk,c包括:
对于任一客户端k,针对每一类别生成该客户端的本地原型Pk,c,Pk,c为在客户端k下标签为c的样本的嵌入表达的归一化均值,计算公式如下:
其中,表示数据集中客户端k下标签为c的样本,/>是给定本地模型θk下样本/>的嵌入表达。
进一步的,在服务器端将各个客户端相同类别的本地原型Pk,c聚合得到每个类别的全局原型Pc包括:
获取客户端k下标签为c的本地原型Pk,c后,于服务器端将不同客户端的本地原型Pk,c进行聚合,获得每个类别的全局原型Pc,Pc为同一个类别下不同客户端的本地原型Pk,c的均值,计算公式如下:
其中,K表示客户端的集合。
进一步的,计算各客户端样本与全局原型Pc的相似度包括:
获取全局类别原型Pc后,通过余弦函数对样本的嵌入表达和全局原型Pc进行相似性度量,计算公式如下:
由此获得包含样本以及该样本与全局原型Pc相似度的相似性集合Sk,c
进一步的,根据相似度获取噪声检测获得噪声数据集Nk和干净数据集Ck包括:
通过二维的高斯混合模型在相似性集合Sk,c上进行无监督的聚类,将数据匹配两个高斯分布,其中相似性高的一类为干净数据集Ck,另一类相似性低的为噪声数据集Nk,实现本地的噪声检测。
进一步的,还包括对客户端中的干净数据和赋予伪标签后的噪声数据进行数据增强,通过增强后的数据对本地模型进行训练更新本地模型参数。
进一步的,通过Mixup数据增强方法对数据进行增强,具体为:
对于干净数据,在干净数据集内进行随机混合,计算公式如下:
对于噪声数据,将噪声数据与干净数据进行混合并对噪声数据取较小的权重,计算公式如下:
本发明还提供一种联邦学习系统,包括多个客户端和服务端;
所述多个客户端,被配置为上述所述面向噪声标签的联邦学习方法更新本地模型参数;
所述服务端,被配置为接收各客户端的本地原型Pk,c并聚合为各类别的全局原型Pc;并根据各客户端的本地模型参数更新全局模型参数。
本发明还提供一种电子设备,包括:
一个或多个处理器,以及存储器;
其中,所述存储器用于存储一个或多个可执行指令;
所述一个或多个处理器被配置为执行所述一个或多个可执行指令以实现上述所述面向噪声标签的联邦学习方法或者上述所述的联邦学习系统,由此更新全局模型参数进行分类预测。
相比于现有技术,本发明提供的面向噪声标签的联邦学习方法,具有如下有益效果:
本发明通过于服务器端将各个客户端相同类别的本地原型Pk,c聚合得到每个类别的全局原型Pc,并计算得到各客户端样本数据与全局原型Pc的相似度,根据相似度进行噪声检测并获得噪声数据集Nk和干净数据集Ck;通过干净数据集Ck,训练模型,将训练好的模型对噪声数据集Nk中的样本进行预测,并根据预测结果对该噪声数据集Nk中的噪声数据标签进行修正,增强客户端样本数据的标签质量,使其应用到本地模型的训练上,在不利用代理数据集或干净客户端的前提下,解决实际联邦学习场景下噪声标签对本地模型训练的影响,提升了模型的泛化性和精度。
进一步的,修改各客户端本地模型损失函数,然后再通过干净数据集Ck和打好伪标签的噪声数据集Nk同时对本地模型进行训练,利用训练好的本地模型重新对噪声数据集中的数据进行预测更新伪标签;进而使得本地模型谨慎地从噪声数据中进行学习,提高了训练数据的可用性。
附图说明
图1为本发明实施例提供的面向噪声标签的联邦学习方法的流程图。
具体实施方法
为了进一步理解本发明,下面结合实施例对本发明优选实施方案进行描述,但是应当理解,这些描述只是为进一步说明本发明的特征和优点,而不是对本发明权利要求的限制。
一种面向噪声标签的联邦学习方法,其流程如图1所示,包括如下步骤:
S1、获取各客户端样本数据的每个类别对应的本地原型Pk,c,并在服务器端将各个客户端相同类别的本地原型Pk,c聚合得到每个类别的全局原型Pc
数据集中类别依据数据标签进行区分,在每个客户端计算每个类别的本地原型Pk,c,本地原型Pk,c为样本的嵌入表达的归一化均值。基于部分客户端不均匀的数据集,本地原型可能并不全面,所以需要将本地原型聚合到服务端计算全局原型Pc。于是在服务器端将相同标签不同客户端的本地原型Pk,c进行聚合并获得每个类别的全局原型Pc,便于提升后续操作中噪声检测的准确性。在原型传输过程中不涉及各客户端训练数据的传输,保护了数据隐私,保证了数据的安全性。。
具体包括:
S11、每一个客户端k,对于该客户端中样本数据的每一个类别生成该客户端的本地原型Pk,c。Pk,c被定义为在客户端k下标签为c的样本的嵌入表达的归一化均值,计算公式如下:
其中,表示数据集中客户端k下标签为c的样本,/>是给定模型θk下样本/>的嵌入表达。
S12、获取每个客户端k下标签为c的本地原型Pk,c后,在服务器端将不同客户端的本地原型Pk,c进行聚合,获得每个类别的全局原型Pc。Pc被定义为同一个类别下不同客户端的本地原型Pk,c的均值,计算公式如下:
其中,K表示客户端的集合。
S2、获取各客户端样本与全局原型Pc的相似度,并根据相似度进行噪声检测获得噪声数据集Nk和干净数据集Ck
本实施例中,由于余弦函数在高维空间上具有良好的表现,所以通过余弦函数将每个客户端中样本的嵌入表达和该类别的全局原型Pc进行相似性度量,由此分别获得各客户端每个类别样本与全局原型Pc的相似性集合。直观上来讲,干净样本的嵌入表达与该类别的全局原型Pc之间具有较高的相似性,而噪声样本的嵌入表达则会呈现出较低的相似度,进一步的,通过二维的高斯混合模型于相似性集合上进行聚类,实现本地的噪声检测,并根据聚类结果得到样本数据集中对应的的噪声数据集Nk和干净数据集Ck
具体包括:
S21、获取全局类别原型Pc后,通过余弦函数对样本的嵌入表达和全局原型Pc进行相似性度量,计算公式如下:
由此获得全局原型Pc与样本的相似性集合Sk,c,集合中包含了样本以及该样本与全局原型Pc的相似度。
S22、使用二维的高斯混合模型在集合Sk,c上进行无监督的聚类,实现本地的噪声检测,并得到具有噪声数据集Nk以及干净数据集Ck
二维高斯混合模型对数据进行无监督的聚类,将数据匹配两个高斯分布,即将数据分为两类,其中相似性高的一类为干净数据集Ck,另一类相似性低的为噪声数据集Nk
S3、于每个客户端通过该客户端的干净数据集对本地模型进行训练,并通过训练后的本地模型为噪声数据集Nk中的噪声数据进行预测打伪标签;然后通过该客户端的干净数据集Ck和打伪标签后的噪声数据集Nk同时对本地模型进行训练,更新噪声数据集Nk的伪标签。
具体包括:
S31、在每个客户端k上,通过该客户端的干净数据集Ck对本地模型进行训练;
S32、通过干净数据集Ck训练好的本地模型对噪声数据集Nk中的数据进行预测,根据预测的结果为该数据打上伪标签。以分类模型为例,用分类模型对噪声数据进行预测,预测得到的结果概率最大的那一类就当作该数据的伪标签。利用伪标签方法对噪声数据集Nk中的数据的标签进行纠正,使得噪声数据集中的数据也可以应用到本地模型的训练上,提高了本地模型的泛化性。
S33、修改本地模型的损失函数使得更新后的损失函数为通过干净数据集Ck对本地模型进行训练时的损失函数与通过一定比例的噪声数据集Nk对本地模型进行训练时的损失函数的和:
其中,是客户端k下利用干净数据集Ck对模型进行训练时的损失函数,/>是客户端k下利用噪声数据集Nk对模型进行训练时的损失函数,α是/>占总体损失的比例。需要说明的是,α需要取一个较小的值,使得噪声数据集Nk对模型的影响比较小,即噪声数据集Nk对模型的影响低于干净数据集Ck对模型的影响,使得噪声数据集Nk的损失在总体损失上只占较小比例,从而模型能够谨慎地从噪声数据中学习到知识,本实施例中,α取值为0.1。
S34、更新完损失函数后,同时通过干净数据集Ck和噪声数据集Nk对本地模型进行训练。
S35、利用训练好的本地模型重新对噪声数据集Nk中的数据进行预测并打上伪标签,对噪声数据集Nk中的标签进行纠正。
需要说明的是,在实际应用时,根据需求和效果对S33-S35的操作可进行循环,循环次数依据实际效果而定,以此使得修正后的标签质量达到最优。
S4、对客户端中的干净数据和赋予伪标签后的噪声数据进行数据增强,通过增强后的数据对本地模型进行训练更新本地模型参数。
为了增强模型的鲁棒性并弥补部分客户端数据较少的问题,对客户端中的干净数据和更新伪标签后的噪声数据进行数据增强,通过增强后的数据对本地模型进行训练更新本地模型参数;其中,通过Mixup数据增强方法对数据进行增强,由此增强训练数据并且能够让本地模型谨慎地从噪声数据中学习;具体为:
对于干净样本,在干净样本集内进行随机混合,计算公式如下:
对于噪声样本,由于随机混合噪声样本可能会产生更大的负面影响,所以对于噪声样本,只将噪声样本与干净样本进行混合并对噪声样本取较小的权重,计算公式如下:
本实施例中,噪声样本权重λ取值为0.2,利用混合后的数据对本地模型重新进行训练,由此增强了本地模型的泛化能力。
S5、服务端接收本地模型参数的更改信息,根据若干客户端更新的本地模型参数更新全局模型参数。
上述联邦学习方法对噪声数据集Nk中的标签进行纠正,增强了客户端数据的标签质量,使其应用到模型的训练上,在不利用代理数据集或干净客户端的前提下,解决实际联邦学习场景下噪声标签对模型的影响。进一步的,通过修改模型损失函数的方式,再通过干净数据集Ck和打好伪标签的噪声数据集Nk同时对本地模型进行训练并更新伪标签,进而使得本地模型谨慎地从噪声数据中进行学习,提高了训练数据的可用性,提升了模型的泛化性和精度。
本发明还提供一种联邦学习系统,所述系统包括多个客户端和服务端;所述多个客户端,被配置为利用上述所述的面向噪声标签的联邦学习方法对本地模型进行训练,更新本地模型参数;所述服务端,被配置为接收各客户端的本地原型Pk,c并聚合为各类别的全局原型Pc;根据各客户端的本地模型的参数更新全局模型参数。
本发明还提供一种电子设备,所述电子设备包括一个或多个处理器;以及存储器,其中存储器用于存储一个或多个可执行指令;所述一个或多个处理器被配置为执行所述一个或多个可执行指令以实现上述所述的联邦学习方法或者上述所述的联邦学习系统更新好的全局模型进行分类预测。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种面向噪声标签的联邦学习方法,其特征在于,包括:
获取各客户端样本数据的每个类别对应的本地原型Pk,c,并在服务器端将各个客户端相同类别的本地原型Pk,c聚合得到每个类别的全局原型Pc
计算各客户端样本数据与全局原型Pc的相似度,并根据相似度进行噪声检测获得噪声数据集Nk和干净数据集Ck
基于各客户端的干净数据集Ck分别对各客户端的本地模型进行训练,并基于训练后的本地模型对噪声数据集Nk进行预测,以及根据预测的结果为噪声数据集Nk中的数据赋予伪标签;
通过客户端中的干净数据集Ck和赋予伪标签后的噪声数据集Nk对本地模型进行训练,获得本地模型参数并传递于服务器端;
服务端接收本地模型参数信息,根据各客户端的本地模型参数获得全局模型参数。
2.根据权利要求1所述的面向噪声标签的联邦学习方法,其特征在于,还包括更新噪声数据集Nk中噪声数据的伪标签,具体为:
修改本地模型的损失函数用于控制噪声数据集Nk的损失在总体损失上的所占比例,损失函数计算公式如下:
其中,是客户端k通过干净数据集Ck对本地模型进行训练时的损失函数,/>是客户端k通过噪声数据集Nk对本地模型进行训练时的损失函数,α是/>占总体损失的比例;
通过该客户端的干净数据集Ck和赋予伪标签后的噪声数据集Nk同时对本地模型进行训练,训练完成后的本地模型再对噪声数据集Nk中的噪声数据进行预测,根据预测的结果更新噪声数据集Nk中的噪声数据的伪标签。
3.根据权利要求1或2所述的面向噪声标签的联邦学习方法,其特征在于,获取各客户端样本数据的每个类别对应的本地原型Pk,c包括:
对于任一客户端k,针对每一类别生成该客户端的本地原型Pk,c,Pk,c为在客户端k下标签为c的样本的嵌入表达的归一化均值,计算公式如下:
其中,表示数据集中客户端k下标签为c的样本,/>是给定本地模型θk下样本的嵌入表达。
4.根据权利要求3所述的面向噪声标签的联邦学习方法,其特征在于,在服务器端将各个客户端相同类别的本地原型Pk,c聚合得到每个类别的全局原型Pc包括:
获取客户端k下标签为c的本地原型Pk,c后,于服务器端将不同客户端的本地原型Pk,c进行聚合,获得每个类别的全局原型Pc,Pc为同一个类别下不同客户端的本地原型Pk,c的均值,计算公式如下:
其中,K表示客户端的集合。
5.根据权利要求1所述的面向噪声标签的联邦学习方法,其特征在于,计算各客户端样本与全局原型Pc的相似度包括:
获取全局类别原型Pc后,通过余弦函数对样本的嵌入表达和全局原型Pc进行相似性度量,计算公式如下:
由此获得包含样本以及该样本与全局原型Pc相似度的相似性集合Sk,c
6.根据权利要求5所述的面向噪声标签的联邦学习方法,其特征在于,根据相似度获取噪声检测获得噪声数据集Nk和干净数据集Ck包括:
通过二维的高斯混合模型在相似性集合Sk,c上进行无监督的聚类,将数据匹配两个高斯分布,其中相似性高的一类为干净数据集Ck,另一类相似性低的为噪声数据集Nk,实现本地的噪声检测。
7.根据权利要求1-6任一项所述的面向噪声标签的联邦学习方法,其特征在于,
还包括对客户端中的干净数据和赋予伪标签后的噪声数据进行数据增强,通过增强后的数据对本地模型进行训练更新本地模型参数。
8.根据权利要求7所述的面向噪声标签的联邦学习方法,其特征在于,通过Mixup数据增强方法对数据进行增强,具体为:
对于干净数据,在干净数据集内进行随机混合,计算公式如下:
对于噪声数据,将噪声数据与干净数据进行混合并对噪声数据取较小的权重,计算公式如下:
9.一种联邦学习系统,其特征在于,包括:多个客户端和服务端;
所述多个客户端,被配置为利用权利要求1-8任一项所述面向噪声标签的联邦学习方法更新本地模型参数;
所述服务端,被配置为接收各客户端的本地原型Pk,c并聚合为各类别的全局原型Pc;并根据各客户端的本地模型参数更新全局模型参数。
10.一种电子设备,其特征在于,包括:
一个或多个处理器,以及存储器;
其中,所述存储器用于存储一个或多个可执行指令;
所述一个或多个处理器被配置为执行所述一个或多个可执行指令以实现1-8任一项所述面向噪声标签的联邦学习方法或者权利要求9所述的联邦学习系统,由此更新全局模型参数进行分类预测。
CN202311165703.5A 2023-09-11 2023-09-11 一种面向噪声标签的联邦学习方法 Pending CN117114139A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311165703.5A CN117114139A (zh) 2023-09-11 2023-09-11 一种面向噪声标签的联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311165703.5A CN117114139A (zh) 2023-09-11 2023-09-11 一种面向噪声标签的联邦学习方法

Publications (1)

Publication Number Publication Date
CN117114139A true CN117114139A (zh) 2023-11-24

Family

ID=88812694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311165703.5A Pending CN117114139A (zh) 2023-09-11 2023-09-11 一种面向噪声标签的联邦学习方法

Country Status (1)

Country Link
CN (1) CN117114139A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117875455A (zh) * 2024-03-08 2024-04-12 南京信息工程大学 一种基于数据增强的联邦学习数据投毒防御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117875455A (zh) * 2024-03-08 2024-04-12 南京信息工程大学 一种基于数据增强的联邦学习数据投毒防御方法

Similar Documents

Publication Publication Date Title
He et al. Neural factorization machines for sparse predictive analytics
CN109919209B (zh) 一种领域自适应深度学习方法及可读存储介质
US11636314B2 (en) Training neural networks using a clustering loss
CN112949837A (zh) 一种基于可信网络的目标识别联邦深度学习方法
CN112446423B (zh) 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
US10346782B2 (en) Adaptive augmented decision engine
Kurve et al. Multicategory crowdsourcing accounting for variable task difficulty, worker skill, and worker intention
CN109564575A (zh) 使用机器学习模型来对图像进行分类
US20210117786A1 (en) Neural networks for scalable continual learning in domains with sequentially learned tasks
CN115102763A (zh) 基于可信联邦学习多域DDoS攻击检测方法与装置
CN117114139A (zh) 一种面向噪声标签的联邦学习方法
JP2022547248A (ja) コンテンツ配信画像の自動生成のためのスケーラブルアーキテクチャ
CN112016686A (zh) 一种基于深度学习模型的对抗性训练方法
CN113330462A (zh) 使用软最近邻损失的神经网络训练
US20200074073A1 (en) System and process for generating passwords or password guesses
WO2023284516A1 (zh) 基于知识图谱的信息推荐方法、装置、设备、介质及产品
Ye et al. Reducing bias to source samples for unsupervised domain adaptation
Wei et al. Contrastive distortion‐level learning‐based no‐reference image‐quality assessment
CN112116025A (zh) 用户分类模型的训练方法、装置、电子设备及存储介质
US20220222578A1 (en) Method of training local model of federated learning framework by implementing classification of training data
US20210166131A1 (en) Training spectral inference neural networks using bilevel optimization
WO2017107551A1 (zh) 信息确定方法及装置
Chen et al. Learning with noisy foundation models
CN112116024B (zh) 用户分类模型的方法、装置、电子设备和存储介质
Efromovich Nonparametric regression with missing data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination