CN119005299A - 一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统 - Google Patents

一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统 Download PDF

Info

Publication number
CN119005299A
CN119005299A CN202411066474.6A CN202411066474A CN119005299A CN 119005299 A CN119005299 A CN 119005299A CN 202411066474 A CN202411066474 A CN 202411066474A CN 119005299 A CN119005299 A CN 119005299A
Authority
CN
China
Prior art keywords
local
feature extractor
global
client
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202411066474.6A
Other languages
English (en)
Inventor
齐广飞
屈志昊
叶保留
谢在鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202411066474.6A priority Critical patent/CN119005299A/zh
Publication of CN119005299A publication Critical patent/CN119005299A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统,所述方法包括:客户端利用本地的数据进行蒸馏训练,将样本同时输入到全局特征提取器和局部特征提取器中得到样本的全局全局特征和局部特征;使用均方误差损失衡量全局特征和局部特征之间的差距;通过同时最小化分类损失和蒸馏损失,局部特征提取器同时学习到全局特征信息和局部特征信息,分类器学习本地信息;本地训练完成后,各个客户端将局部特征提取器上传到服务器,而分类器头保持在本地;服务器将各个客户端上传的局部特征提取器进行聚合,得到新一轮的全局特征提取器;此过程反复进行,直至模型收敛或者达到指定的模型精度。本发明提高了客户端个性化模型的精度。

Description

一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及 系统
技术领域
本发明涉及分布式计算、深度学习技术领域,具体涉及一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统。
背景技术
传统的集中式机器学习中,数据通常集中在一个地方进行训练,这可能涉及将数据集上传到云端或者中心服务器。然而,这种方式存在着隐私泄露和数据安全的风险,尤其是当数据包含个人身份信息或敏感商业数据时。此外,数据集过大时,传输和处理数据也会变得非常昂贵和低效,并且传输数据还会带来非常大的通信开销。
近年来,随着移动设备的普及和边缘计算的兴起,联邦学习受到了越来越多的关注。联邦学习通过在本地设备上进行模型训练,并仅共享模型更新的梯度或参数,以实现在多个设备上学习全局模型的目标。联邦学习允许数据始终保存在用户本地设备中,不必将数据传输到云端或服务器,这种数据存储和处理方式可以有效的保护数据隐私,降低了数据泄露的风险。目前,联邦学习已被应用到许多现实场景,例如推荐系统、医疗保健、金融等。
尽管联邦学习在解决数据隐私和安全性方面取得了显著的成就,但它仍然面临着一些挑战,其中最要的挑战之一就是各参与方的数据异质性。由于联邦学习独特的训练模式,数据往往由端侧产生,这些参与方的数据往往是由其用户、场景、偏好等因素影响,造成各个参与方的数据分布往往不相同。因此,非独立同分布数据是联邦学习中天然存在的一个问题。数据异构性会导致“客户端漂移”现象,即客户端的本地更新方向偏离全局的更新方向,这是由客户端局部优化目标和全局优化目标不一致造成的,这会造成模型收敛速度减慢和性能下降。由于全局和局部数据分布不相同,使用经典的联邦平均算法(FedAvg)等联邦学习算法得到的单一全局模型并不适用于各个客户端。
因此,为了解决训练单一全局模型的困难,个性化联邦学习被提出。这种方法致力于为每个客户端构建符合其数据分布的个性化模型。常见的方法包括模型正则化、数据增强和局部微调等。除此之外,模型解耦也是一个重要的研究方向。多任务学习和表示学习的成功表明,将模型解耦为负责提取低维特征的特征提取器和处理与任务强相关的分类器是一种有效的策略。在个性化联邦学习中,特征提取器通过所有客户端共同训练以学习通用的表示,而分类器则进行私有训练,以完成本地分类任务,图1展示了模型解耦方法的训练过程,首先服务器向客户端发送全局特征提取器的参数,客户端收到服后,将其应用到局部模型中,然后客户端利用自己本地的数据训练局部模型,训练完成后客户端仅上传本地的特征提取器的参数,待所有客户端均完成上传后,服务器聚合所有客户端的特征提取器参数,得到新一轮的全局特征提取器参数,反复迭代这一过程直至模型收敛。然而,特征提取器的本地训练通常只能学习到本地的个性化特征信息,而忽视了全局特征信息,导致局部特征提取器可能偏离全局特征标准,从而失去通用性,进而影响全局模型的聚合效果。此外,仅从参数级别共享特征提取器并不足以从异构数据中获得通用的特征。最近的一些研究提出,在共享特征提取器的基础上,将本地样本的局部特征与全局特征进行特征对齐,从特征级别额外学习通用特征,例如FedPAC(Personalized Federated Learning withFeature Alignment and Classifier Collaboration)提出将本地特征与全局特征质心进行对齐。GPFL(GPFL:Simultaneously Learning Global and Personalized FeatureInformation for Personalized Federated Learning)则提出将本地特征与全局类别嵌入进行对齐,以引入全局特征信息到本地训练中。然而,这两种方法都需要与服务器通信额外的全局特征信息(全局特征质心或者全局类别嵌入),这会带来额外的隐私和通信开销问题,并且无法为客户端的特征提取器提供细粒度的特征指导。
发明内容
发明目的:本发明提出一种基于知识蒸馏实现特征对齐的个性化联邦学习方法,该方法通过知识蒸馏技术实现特征信息的有效传递,使得客户端同时学习个性化和全局特征信息,这在一定程度上提升了局部特征提取器的泛化能力,而且客户端与服务器之间不需要传输额外的特征信息,仅需要传输特征提取器参数,这可以避免额外的通信开销和隐私泄露问题。此外,该方法还能实现细粒度的特征对齐,有效地限制了局部特征提取器的多样性并促进了全局聚合,这使得客户端可以运行更多的本地更新,以通信高效的方式学习通用表示。
本发明还提供一种基于知识蒸馏实现特征对齐的个性化联邦学习系统。
技术方案:为了实现以上发明目的,本发明的技术方案如下:
一种基于知识蒸馏实现特征对齐的个性化联邦学习方法,包括以下步骤:
服务器向客户端发送全局特征提取器参数;
客户端收到全局特征提取器参数后,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
客户端利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,各个客户端向服务器上传自己的局部特征提取器参数;
服务器收到客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
迭代以上过程,直至模型收敛或达到指定的模型精度。
优选的,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,包括:
对于单个训练样本xm,客户端利用保存的全局特征提取器副本对其进行处理,得到全局特征表示其中,φg表示全局特征提取器,表示是由φg参数化的函数,是经过函数处理后的一个向量,包含了样本xm的全局特征信息;
利用局部模型获得局部特征和预测输出,包括:
对于单个训练样本xm,客户端利用局部模型θi对样本进行处理,得到局部特征fφi(xm)和预测输出其中,局部模型θi由局部特征提取器φi和局部分类器Xi组成,i表示第i个客户端,是由φi参数化的函数,表示经过函数处理后的一个向量,包含了样本xm的局部特征信息,表示局部分类器Xi对样本xm的预测结果。
优选的,蒸馏损失计算方法如下:
其中,表示第i个客户端的蒸馏损失,ni为第i个客户端的训练样本的数量。
优选的,分类损失计算方法如下:
其中,表示第i个客户端的分类损失,yij是样本xm属于类别j的真实标签的概率,是局部模型预测的样本xm属于类别j的标签的概率。
优选的,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型,表示如下:
其中,β为平衡分类损失和蒸馏损失的超参数,用以控制全局特征提取器向局部特征提取器转移的知识程度。
优选的,服务器聚合各客户端的局部特征提取器的方法如下:
其中,为第t+1个全局轮次的全局特征提取器,为第i个客户端在第t个全局轮次的局部特征提取器,αi为聚合权重,k为上传本地局部特征提取器的客户端总数目,ni为第i个客户端拥有的数据量。
本发明还提供一种基于知识蒸馏实现特征对齐的个性化联邦学习方法系统,包括服务器和若干客户端,其特征在于,所述服务器和客户端被配置为迭代执行以下过程,直至模型收敛或达到指定的模型精度:
服务器向客户端发送全局特征提取器参数;
客户端收到全局特征提取器参数后,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
客户端利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,各个客户端向服务器上传自己的局部特征提取器参数;
服务器收到客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器。
本发明还提供一种计算机设备,包括:一个或多个处理器;存储器;以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置为由所述一个或多个处理器执行,所述程序被处理器执行时实现如下步骤:
向客户端发送本轮全局特征提取器参数;以及
接收客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
或者,所述程序被处理器执行时实现如下步骤:
接收服务器下发的全局特征提取器参数,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,向服务器上传自己的局部特征提取器参数。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
向客户端发送本轮全局特征提取器参数;以及
接收客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
或者,所述计算机程序被处理器执行时实现如下步骤:
接收服务器下发的全局特征提取器参数,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,向服务器上传自己的局部特征提取器参数。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明提出一种新颖的个性化联邦学习新方法,该方法将知识蒸馏技术引入到个性化联邦学习中,以实现对特征信息的有效传递。通过知识蒸馏,客户端能够从全局特征提取器中获取到丰富的特征知识,然后将这些知识应用到局部模型的训练中。这样一来,客户端不仅能够根据本地数据训练出个性化的模型,还能够借助全局特征信息提升特征提取器的泛化能力。允许客户端在训练过程中同时学习个性化和全局特征信息。通过这种方式,不仅能够解决数据异质性带来的问题,还能够有效地提升局部特征提取器的泛化能力,从而进一步改善联邦学习的性能。(2)该发明实现了细粒度的特征对齐,能够使得局部特征提取器在训练过程中更加一致,减少了模型之间的差异性。这样一来,当客户端进行本地更新时,所学习到的特征更加一致,更具有代表性,能够更好地反映全局数据的特征。同时,通过促进全局聚合,能够将各个客户端学习到的特征信息有效地整合起来,形成更加完整和准确的全局表示。该发明允许客户端以通信高效的方式进行更多的本地更新,能够更充分地利用分布式环境下的资源,加速模型的收敛速度。这不仅提高了联邦学习的效率,也降低了通信开销,使得该发明在实际应用中更加具有可行性和可扩展性。(3)本发明为解决联邦学习中的非独立同分布数据开辟了新的机会。
附图说明
图1是一般的个性化联邦学习中模型解耦方法的训练流程图;
图2是一般的知识蒸馏示意图;
图3是根据本发明的客户端知识蒸馏示意图;
图4是根据本发明的基于知识蒸馏的实现特征对齐的个性化联邦学习方法训练流程图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
知识蒸馏是一种模型压缩技术,旨在通过传输一个模型(通常是较大、复杂的模型)的“知识”给另一个模型(通常是较小、简化的模型),从而使后者能够学习到前者的“知识”,同时保持其性能或提升性能。该方法最初由Hinton等人提出,并在深度学习领域得到广泛应用。在知识蒸馏中,通常有两个模型参与:教师模型和学生模型。知识蒸馏的目标是通过学生模型模仿教师模型的输出或者中间层特征来引导学生模型学习。在知识蒸馏的训练过程中,学生模型在优化过程中既要尽量减小真实标签损失,又要尽量减小蒸馏损失以此来学习教师模型的“知识”,图2为知识蒸馏的示意图。
本发明在联邦学习客户端上,将本地模型划分为特征提取器和分类器。根据联邦学习机制,客户端每一轮训练得到客户端本地的特征提取器参数,上送给服务器,由服务器进行聚合形成全局特征提取器,并在下一轮迭代下发给客户端。本发明上下文中,全局特征提取器是服务器聚合后分发给所有客户端的共享特征提取器参数,局部特征提取器是每个客户端基于全局特征提取器参数在本地数据上进行个性化训练后的特征提取器参数。本发明结合蒸馏技术,将全局特征提取器视作教师模型,局部特征提取器视作学生模型,在图3中展示了本地蒸馏的示意图。通过全局特征提取器向局部特征提取器转移知识,能够让客户端在训练过程中同时学习个性化和全局特征信息。这不仅能够解决数据异质性带来的问题,还能够有效地提升局部特征提取器的泛化能力,从而进一步改善联邦学习的性能。
参照图4,本发明提出的基于知识蒸馏实现特征对齐的个性化联邦学习方法,具体包括以下步骤:
步骤1,服务器向选定的客户端发送全局特征提取器参数。
在每一轮训练的开始,服务器向选定的客户端发送全局特征提取器的参数,该全局特征提取器的参数来自于上一轮客户端训练得到的局部特征提取器的聚合。如果是第一轮全局迭代,发送的是服务器初始化的所有模型参数,包括特征提取器参数和分类器参数,此轮之后仅向客户端发送特征提取器参数。
步骤2,客户端将全局特征提取器参数应用到本地。
对于收到全局特征提取器参数的客户端,使用全局特征提取器参数覆盖掉本地的特征提取器参数,以确保所有客户端从相同的特征提取器模型基础开始个性化训练。应确保数据在传输过程中没有被损坏,可以将收到的全局特征提取器的架构与本地的特征提取器模型的架构相对比,如果相同,则视为数据没有被损坏,否则视为损坏,如果有损坏,客户端则需要向服务器请求获取全局特征提取器参数。如果没有损坏,客户端则在本地保存一份全局特征提取器参数副本,然后解析全局特征提取器,包括特征提取器的架构信息和具体的参数数据,然后读取本地的特征提取器参数,将全局特征提取器的参数逐一赋值给本地特征提取器对应的参数。
步骤3,客户端利用本地的数据进行本地训练。
本发明实施例中是对图像识别模型的训练,将图像训练集送入网络,根据网络的实际输出与期望输出间的差别来调整参数。训练模型的步骤如下:
a、客户端将本地模型(θ)划分为特征提取器(φ)和分类器(χ),其中χ是最后一层全连接层。特征提取器负责从输入数据中提取高维特征,由多层卷积层或全连接层组成,分类器利用特征提取器提取的特征进行分类,一般由若干全连接层组成,最后一层输出类别概率。在这里我们将最后一层全连接层称为分类器,分类器之外的所有层称为特征提取器。
本地模型(θ)是一个广义的概念,指从输入数据中提取特征的模型部分,它由特征提取器(φ)和分类器(χ)组成。在模型训练过程中,特征提取器主要分为全局特征提取器(φg)和局部特征提取器(φi),如上所述,全局特征提取器是服务器聚合后分发给所有客户端的共享特征提取器参数,客户端会在本地保存一份全局特征提取器参数副本;局部特征提取器是每个客户端基于全局特征提取器参数在本地数据上进行个性化训练后的特征提取器参数。客户端i的特征提取器表示为φi,全局特征提取器表示为φg。局部模型(θi)由局部特征提取器(φi)和局部分类器(χi)组成。
记fφ是一个由φ参数化的函数,将数据点由d维射到k维的特征空间,φ:是一个由χ参数化的函数,将K维特征映射到标签空间χ:因此,客户端的本地损失函数可表示为:
b、选择训练集合中的一个图像样本(xm),xn为图像数据,为标签,即图像所属的类别;
c、将图像样本xn输入到本地保存的全局特征提取器φg的副本中,计算特征提取器的实际输出即样本的全局特征;
d、将图像样本xm输入到局部模型θi中,经过局部特征提取器φi得到样本的局部特征经过局部分类器χi得到对样本xm预测概率
e、计算样本xm的全局特征与局部特征之间的差异,即蒸馏损失。这里的蒸馏损失使用均方误差损失。蒸馏损失可表示为:
f、计算预测值与实际值之间的误差。使用交叉熵损失函数衡量模型预测输出与真实标签之间的误差,分类损失可表示为:
其中yij是第i个客户端上样本xm的真实标签的概率,是第i个客户端上局部模型预测的标签的概率;
g、计算总体损失。总体损失是蒸馏损失和分类损失的加权和:
其中β为平衡本地交叉熵损失和蒸馏损失的超参数,用以控制全局特征提取器向本地特征提取器转移的知识程度;通过最小化本地损失客户端可利用本地数据学习个性化的头部,同时也能显式的将本地特征与全局特征进行对齐,本地特征提取器能够同时学习到局部和全局的特征信息。
h、利用反向传播根据损失计算关于模型参数的梯度信息
i、优化模型参数。使用随机梯度下降优化算法更新模型参数:
其中η为超参数,控制模型参数的更新幅度,表示在训练的第t个全局轮次中第k个客户端的第j次本地更新后的局部模型参数。
j、对每个图像样本重复上述a-i过程,直至遍历完整个图像样本集,完成本地数据集一次训练迭代;
k、重复上述a-j过程,客户端完成本地数据集多轮训练迭代。
步骤4,客户端上传自己的特征提取器参数。
在本地训练完成后,各个客户端将训练后的特征提取器参数上传到中央服务器。此时,各客户端的分类器部分保持在本地,不进行上传。
步骤5,服务器聚合客户端的特征提取器参数。
服务器接收到所有客户端上传的特征提取器参数后,根据各个客户端的数据量来确定聚合权重。数据量越大的客户端,其模型参数在聚合过程中所占的权重也越大。服务器使用这些权重对各客户端的特征提取器参数进行加权平均,得到新一轮的全局特征提取器。聚合方式如下:
其中ni为第i个客户端拥有的数据量,k为上传特征提取器的客户端总数目,为第t+1个全局轮次的全局特征提取器。
步骤6、重复以上步骤1-步骤5,直至模型收敛或者达到指定的模型精度。
本发明还提供一种基于知识蒸馏实现特征对齐的个性化联邦学习方法系统,包括服务器和若干客户端,其特征在于,所述服务器和客户端被配置为迭代执行以下过程,直至模型收敛或达到指定的模型精度:
服务器向客户端发送全局特征提取器参数;
客户端收到全局特征提取器参数后,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
客户端利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,各个客户端向服务器上传自己的局部特征提取器参数;
服务器收到客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器。
本发明还提供一种计算机设备,包括:一个或多个处理器;存储器;以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置为由所述一个或多个处理器执行,所述程序被处理器执行时实现如下步骤:
向客户端发送本轮全局特征提取器参数;以及
接收客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
或者,所述程序被处理器执行时实现如下步骤:
接收服务器下发的全局特征提取器参数,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,向服务器上传自己的局部特征提取器参数。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
向客户端发送本轮全局特征提取器参数;以及
接收客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
或者,所述计算机程序被处理器执行时实现如下步骤:
接收服务器下发的全局特征提取器参数,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,向服务器上传自己的局部特征提取器参数。
本发明的实施例可作为方法、装置、计算机设备或计算机程序产品提供,能够采用完全硬件、完全软件或软硬件结合的形式实现。本发明可包含在计算机可用存储介质(如磁盘存储器、CD-ROM、光学存储器)上的计算机程序产品。这些程序指令可以指引通用计算机、专用计算机、嵌入式处理器或其他可编程设备的处理器,生成用于执行流程图中指定功能的装置。计算机程序指令可存储在计算机可读存储器中,或装载到计算机或其他可编程设备上,以实现指定功能的操作步骤。

Claims (9)

1.一种基于知识蒸馏实现特征对齐的个性化联邦学习方法,其特征在于,包括以下步骤:
服务器向客户端发送全局特征提取器参数;
客户端收到全局特征提取器参数后,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
客户端利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,各个客户端向服务器上传自己的局部特征提取器参数;
服务器收到客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
迭代以上过程,直至模型收敛或达到指定的模型精度。
2.根据权利要求1所述的方法,其特征在于,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,包括:
对于单个训练样本xm,客户端利用保存的全局特征提取器副本对其进行处理,得到全局特征表示其中,φg表示全局特征提取器,表示是由φg参数化的函数,是经过函数处理后的一个向量,包含了样本xm的全局特征信息;
利用局部模型获得局部特征和预测输出,包括:
对于单个训练样本xm,客户端利用局部模型θi对样本进行处理,得到局部特征和预测输出其中,局部模型θi由局部特征提取器φi和局部分类器xi组成,i表示第i个客户端,是由φi参数化的函数,表示经过函数处理后的一个向量,包含了样本xm的局部特征信息,表示局部分类器χi对样本xm的预测结果。
3.根据权利要求2所述的方法,其特征在于,蒸馏损失计算方法如下:
其中,表示第i个客户端的蒸馏损失,ni为第i个客户端的训练样本的数量。
4.根据权利要求2所述的方法,其特征在于,分类损失计算方法如下:
其中,表示第i个客户端的分类损失,yij是样本xm属于类别j的真实标签的概率,是局部模型预测的样本xm属于类别j的标签的概率。
5.根据权利要求1所述的方法,其特征在于,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型,表示如下:
其中,β为平衡分类损失和蒸馏损失的超参数,用以控制全局特征提取器向局部特征提取器转移的知识程度。
6.根据权利要求1所述的方法,其特征在于,服务器聚合各客户端的局部特征提取器的方法如下:
其中,为第t+1个全局轮次的全局特征提取器,为第i个客户端在第t个全局轮次的局部特征提取器,αi为聚合权重,k为上传本地局部特征提取器的客户端总数目,ni为第i个客户端拥有的数据量。
7.一种基于知识蒸馏实现特征对齐的个性化联邦学习方法系统,包括服务器和若干客户端,其特征在于,所述服务器和客户端被配置为迭代执行以下过程,直至模型收敛或达到指定的模型精度:
服务器向客户端发送全局特征提取器参数;
客户端收到全局特征提取器参数后,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
客户端利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,各个客户端向服务器上传自己的局部特征提取器参数;
服务器收到客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器。
8.一种计算机设备,其特征在于,包括:一个或多个处理器;存储器;以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置为由所述一个或多个处理器执行,所述程序被处理器执行时实现如下步骤:
向客户端发送本轮全局特征提取器参数;以及
接收客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
或者,所述程序被处理器执行时实现如下步骤:
接收服务器下发的全局特征提取器参数,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,向服务器上传自己的局部特征提取器参数。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如下步骤:
向客户端发送本轮全局特征提取器参数;以及
接收客户端的局部特征提取器参数后,根据各个客户端拥有的数据量确定聚合权重,基于聚合权重对各客户端的局部特征提取器进行聚合,得到新一轮全局特征提取器;
或者,所述计算机程序被处理器执行时实现如下步骤:
接收服务器下发的全局特征提取器参数,保存一份全局特征提取器参数副本,并使用该参数覆盖掉本地的局部特征提取器参数;
利用本地数据进行蒸馏训练,对于每个训练样本,利用保存的全局特征提取器副本获取全局特征,利用局部模型获得局部特征和预测输出,根据全局特征和局部特征的差异得到蒸馏损失,根据预测输出和实际值的差异得到分类损失,结合蒸馏损失和分类损失得到总损失,通过最小化总损失来优化局部模型;
本地训练完成后,向服务器上传自己的局部特征提取器参数。
CN202411066474.6A 2024-08-05 2024-08-05 一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统 Pending CN119005299A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202411066474.6A CN119005299A (zh) 2024-08-05 2024-08-05 一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202411066474.6A CN119005299A (zh) 2024-08-05 2024-08-05 一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统

Publications (1)

Publication Number Publication Date
CN119005299A true CN119005299A (zh) 2024-11-22

Family

ID=93491649

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202411066474.6A Pending CN119005299A (zh) 2024-08-05 2024-08-05 一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统

Country Status (1)

Country Link
CN (1) CN119005299A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119229223A (zh) * 2024-12-04 2024-12-31 山东省工业技术研究院 基于原型引导的联邦一致性表示学习系统及方法
CN120509507A (zh) * 2025-07-18 2025-08-19 浙江大学 一种基于自适应特征对齐的个性化全局原型联邦学习方法及系统
CN120832536A (zh) * 2025-09-19 2025-10-24 哈尔滨工程大学三亚南海创新发展基地 一种面向无配对多视图数据的统一聚类方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119229223A (zh) * 2024-12-04 2024-12-31 山东省工业技术研究院 基于原型引导的联邦一致性表示学习系统及方法
CN120509507A (zh) * 2025-07-18 2025-08-19 浙江大学 一种基于自适应特征对齐的个性化全局原型联邦学习方法及系统
CN120832536A (zh) * 2025-09-19 2025-10-24 哈尔滨工程大学三亚南海创新发展基地 一种面向无配对多视图数据的统一聚类方法

Similar Documents

Publication Publication Date Title
CN119005299A (zh) 一种基于知识蒸馏实现特征对齐的个性化联邦学习方法及系统
CN114492833A (zh) 基于梯度记忆的车联网联邦学习分层知识安全迁移方法
CN114693993B (zh) 一种图像处理和图像分类方法、装置、设备及存储介质
CN109983480A (zh) 使用聚类损失训练神经网络
CN114861936B (zh) 用于分布式机器学习的基于特征原型的联邦增量学习方法
CN117994635B (zh) 一种噪声鲁棒性增强的联邦元学习图像识别方法及系统
CN115471700B (zh) 一种基于知识传输的图像分类模型训练方法及分类方法
CN116384504B (zh) 联邦迁移学习系统
CN115495771A (zh) 基于自适应调整权重的数据隐私保护方法及系统
CN116227578A (zh) 一种无源域数据的无监督领域适应方法
CN119180305B (zh) 基于梯度相似性超网的多目标神经架构搜索方法和系统
CN114444654A (zh) 一种面向nas的免训练神经网络性能评估方法、装置和设备
CN115577797A (zh) 一种基于本地噪声感知的联邦学习优化方法及系统
CN111966495A (zh) 数据处理方法和装置
Ouyang et al. Enhancing federated learning with dynamic weight adjustment based on particle swarm optimization
CN116978100A (zh) 人脸识别模型训练方法、人脸识别方法、装置及存储介质
CN120338139B (zh) 基于进化聚类的个性化联邦学习方法
CN120707948A (zh) 基于深度学习的图像大数据分类识别方法和系统
CN120494135A (zh) 一种基于参数解耦的个性化联邦学习方法
CN118519096B (zh) 基于增量学习的雷达复合干扰识别方法、系统、介质和设备
CN111523649B (zh) 针对业务模型进行数据预处理的方法及装置
CN117934890B (zh) 基于局部和全局邻居对齐的原型对比图像聚类方法及系统
CN116957017A (zh) 面向计算机设备中的神经网络模型的加速方法及装置
CN116452955A (zh) 基于原型引导交叉训练机制的联邦学习系统及方法
CN114792114A (zh) 一种基于黑盒多源域通用场景下的无监督域适应方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination