CN115081532A - 基于记忆重放和差分隐私的联邦持续学习训练方法 - Google Patents

基于记忆重放和差分隐私的联邦持续学习训练方法 Download PDF

Info

Publication number
CN115081532A
CN115081532A CN202210775381.5A CN202210775381A CN115081532A CN 115081532 A CN115081532 A CN 115081532A CN 202210775381 A CN202210775381 A CN 202210775381A CN 115081532 A CN115081532 A CN 115081532A
Authority
CN
China
Prior art keywords
layer
network
training
federal
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210775381.5A
Other languages
English (en)
Inventor
张琛
白航
鱼滨
解宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202210775381.5A priority Critical patent/CN115081532A/zh
Publication of CN115081532A publication Critical patent/CN115081532A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

一种基于记忆重放和差分隐私的联邦持续学习训练方法,其步骤为:中央服务器对生成对抗网络进行训练,生成一组伪图像组成伪样本集,将伪样本集与联邦学习全局网络下发给每个客户端,客户端使用记忆重放方法将下发的伪样本集与本地样本集混合训练,将训练好的联邦学习全局网络与添加差分隐私噪声的本地样本集异步地上传至中央服务器,中央服务器对上传的本地网络参数进行加权聚合并更新联邦学习全局网络,当没有新任务到达时结束训练。本发明的方法在不加重客户端计算负担的前提下,降低了客户端对旧任务知识的遗忘,保护了客户端的隐私,提高了联邦学习全局模型的训练效率。

Description

基于记忆重放和差分隐私的联邦持续学习训练方法
技术领域
本发明属于数据处理技术领域,更进一步涉及机器学习模型梯度数据处理技术领域中的一种基于记忆重放和差分隐私的联邦持续学习训练方法。本发明可用于客户端协同持续训练机器学习模型。
背景技术
通常,联邦学习利用分布在客户端本地的隐私数据通过服务器与客户端交互式通信训练的方式获得一个具有良好预测能力的机器学习模型。具体来说,中央服务器通过聚合本地客户端经过本地训练获得的本地模型梯度,获得一个新的全局模型。然后,中央服务器将该全局模型作为下一全局训练回合的初始模型下发给各个客户端,客户端在本地数据集上使用该模型进行本地训练。该联邦学习全局模型更新过程迭代进行,直到满足确定的训练终止条件。通常作为联邦学习中客户端的智能边缘设备面临着持续不断采集的大量任务数据流。但是,联邦学习中的客户端本地模型对旧任务的性能通常会在新任务到来时急剧下降,这被称为灾难性遗忘问题。因此,在任务数据流中的持续学习能力成为制约联邦学习走向实际应用的主要因素。如何减轻联邦学习本地模型在任务数据流中的灾难性遗忘问题成为了发展联邦学习的关键问题。
中山大学在其申请的专利文献“一种基于联邦学习的在线学习方法、系统、计算机设备及介质”(申请号:202110865716.8,申请公布号:CN 113743616 A,公布日期2021.01.15)中提出了一种基于联邦学习的在线学习方法。该方法实现的步骤是:(1)服务器初始化全局模型的参数,统一将全局模型派发给每个用户终端;(2)每个用户终端接收全局模型;(3)每个用户终端持续采集用户行为产生的数据,并保存于用户终端本地;(4)每个用户终端利用持续采集的数据按到来轮次加权计算损失函数Fk,对接收到的全局模型进行在线学习训练;(5)每个用户终端将训练好的全局模型参数上传至服务器;(6)服务器进行参数聚合,生成新的全局模型;(7)判断是否达到在线学习终止条件,若是,则在线学习训练结束;否则,返回步骤(3)。该方法存在的不足之处是,联邦在线学习对新旧数据进行按到来轮次加权计算每个客户端的损失函数Fk,虽然可以处理实时收集的相同任务数据以更新本地模型,但当收集到新任务数据时客户端本地模型就会被新任务知识覆盖,从而逐渐忘记了旧任务知识,发生严重的灾难性遗忘问题,从而导致联邦本地模型在遇到训练过的旧任务时需要重新训练。
Yoon等人在其发表的论文“Federated Continual Learning with WeightedInter-client Transfer”(International Conference on Machine Learning 2021.)中提出了一种基于联邦加权客户间传输的联邦持续学习方法(FedWeIT)。该方法的主要步骤是:(1)服务器初始化全局模型和共享参数B;(2)随机采样知识库kb;(3)对每个可以通信的本地客户端下发全局模型与知识库kb;(4)本地客户端使用APD持续学习算法进行本地训练,并将客户端的模型参数计算分解为自适应任务特定参数A和全局共享参数B;(5)客户端将训练后得到的共享参数B与自适应任务特定参数A上传给服务器;(6)服务器使用收到的共享参数B进行聚合更新全局模型;(7)服务器使用自适应参数A更新知识库kb;(8)判断是否有新任务到达,若有进行步骤(3),否则训练结束。该方法存在的不足之处是:在本地客户端进行模型参数计算分解与训练任务会给客户端带来沉重的计算负担,降低了模型预测精度,且该方法没有考虑服务器与客户端间传输数据时可能会造成的隐私安全问题,因此该方法不适用于联邦学习中计算资源(例如CPU,内存,电池等)受限的客户端(例如手机,智能穿戴设备,IoT设备等)。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于记忆重放和差分隐私的联邦持续学习方法,用于解决联邦学习中计算资源受限的客户端本地模型在任务数据流中的灾难性遗忘,导致的联邦本地模型在遇到训练过的旧任务时需要重新训练的问题,以及提高联邦学习中通信数据的隐私保护。
实现本发明目的的技术思路是:本发明通过在中央服务器中维护一个由生成对抗网络GAN组成的记忆生成器模型,利用客户端上传的数据持续积累客户端任务知识,并将生成的任务伪数据下发给客户端,客户端将接收到的伪数据与当前任务数据按重要性比例混合训练,从而能实现在不加重客户端计算负担的情况下有效地恢复旧任务知识。此外,本发明通过向服务器与客户端通信的数据信息中添加差分隐私噪声并异步传输采样数据,从而降低了通信过程中用户隐私泄露的风险,以此来提高联邦学习中通信数据的隐私保护与通信效率。
为实现上述目的,发明采用的技术方案包括如下步骤:
步骤1,生成客户端本地样本集:
步骤1.1,选取至少55000张图像组成样本集,该样本集至少包括五个种类;
步骤1.2,从每个种类样本集中各随机抽取至少1400张图像组成一个客户端的本地样本集;
步骤1.3,采用与步骤1.2相同的方法,得到至少10个客户端的本地样本集设置每个客户端的任务样本集按先后顺序到达,当新任务样本集到达时旧任务的样本集立即被丢弃;
步骤2,生成服务器中生成对抗网络的训练集;
步骤3,构建联邦学习全局网络;
步骤4,构建生成对抗网络:
步骤4.1,构建生成对抗网络中的生成网络(Generator);
步骤4.2,构建生成对抗网络中的判别网络(Discriminator);
步骤5,对生成对抗网络进行训练:
步骤5.1,生成对抗网络生成一张伪图像并标注为负样本;
步骤5.2,使用训练集中的图像与伪图像共同对生成对抗网络进行训练;
步骤5.3,利用梯度下降方法,迭代更新生成对抗网络的参数,判断损失函数是否收敛,若收敛,则执行步骤5.4,否则,执行步骤5.1;
步骤5.4,将一组随机生成的100维高斯噪声向量输入训练好的生成对抗网络中,输出一组生成的伪图像作为伪样本集;
步骤6,使用记忆重放方法训练联邦学习全局网络:
步骤6.1,选取最多5个客户端,并将构建的联邦学习全局网络和伪样本集下发给每个参加本轮训练的客户端;
步骤6.2,按每个任务的重要性比率组合部分伪样本集与部分本地样本集;
步骤6.3,客户端使用混合后的本地样本集,迭代训练更新网络参数,直到总损失函数收敛为止,将训练好的联邦学习全局网络参数异步地上传给服务器;
步骤7,对选取的本地图像添加本地差分隐私噪声;
步骤8,对所有联邦学习全局网络参数加权聚合;
步骤9,判断是否有下一个任务到达,若是,则更新下一个任务的重要性比率,返回步骤5,否则,执行步骤10;
步骤10,联邦持续学习训练结束。
本发明与现有技术相比具有如下优点:
第一,本发明通过在中央服务器中构建了一个由生成对抗网络GAN,克服了现有技术存在的计算资源受限的客户端本地模型在任务数据流中发生灾难性遗忘,导致的联邦本地模型在遇到训练过的旧任务时需要重新训练的缺陷,使得本发明在不加重客户端本地计算负担的前提下,提高了客户端本地模型对旧任务的预测精度。
第二,本发明通过向服务器与客户端通信的梯度数据信息中添加差分隐私噪声并异步传输采样数据,克服了现有技术存在的服务器与客户端间传输数据时可能会造成的隐私安全问题,使得本发明在不影响联邦学习训练精度的前提下,降低了传输过程中通信成本,提高了隐私安全性。
附图说明
图1为本发明的流程图。
具体实施方式
本发明的实施例是以数字图像识别为例,客户端是为参加联邦学习的分布在不同地区的移动设备,服务器为云服务器阿里云或华为云。
参照图1,对本发明的实现步骤做进一步的详细描述。
步骤1,生成每个客户端的本地样本集。
步骤1.1,本发明的实施例是将手写数字灰度图像MNIST(Mixed NationalInstitute of Standards and Technology database)数据集中所有图像组成样本集,该样本集中包括从0到9的10个种类。从该样本集的每种类别中随机选取5500张图像,将其中每两个类别的图像共11000张图像作为一个单独任务的样本集。共得到五个任务的样本集。按各个任务知识所需保留时间的长短将这五个任务的重要性比率r依次设置为0.1,0.3,0.5,0.8,0.9。
步骤1.2,从五个任务的样本集中每次各随机抽取1400张图像组成一个客户端的本地样本集。
步骤1.3,采用采用与步骤1.2相同的方法,得到10个客户端的本地样本集,设置每个客户端的任务样本集按先后顺序到达,当新任务样本集到达时旧任务的样本集立即被丢弃。
步骤2,生成服务器中生成对抗网络的训练集。
从第一个任务样本集中选取100张图像组成训练集,该训练集中至少包括一个种类,并将所有选取的图像标注为正样本。
步骤3,构建服务器中的联邦学习全局网络。
根据步骤1中的数字图像数据集,本发明在服务器中搭建一个七层的卷积神经网络作为联邦学习全局网络,其结构依次为:第一卷积层,第一池化层,第二卷积层,第二池化层,第三卷积层,第一全连接层,第二全连接层。将第一至第三卷积层的维度分别设置为28*28,13*13,5*5,卷积核的个数分别设置为32,64,64,卷积核的大小均设置为3*3,步长均设置为1,激活函数均采用Relu函数。将第一、第二池化层的池化窗口尺寸均为2*2,滑动步长均设置为2。将第一、第二全连接层的维度分别设置为64,10。该联邦学习全局网络能够基于图像样本集完成图像分类学习任务。
步骤4,构建服务器中的生成对抗网络。
步骤4.1,本发明在服务器中构建了一个生成对抗网络GAN用于积累客户端知识并生成旧任务数据。该生成对抗网络由生成网络(Generator)和判别网络(Discriminator)两部分组成,生成网络和判别网络相互对抗生成与真实数据分布相同的伪样本集。其中,生成网络(Generator)由编码器、卷积长短期记忆网络LSTM、解码器组成,卷积长短期记忆网络LSTM是一个五层的反卷积神经网络,其结构依次为:第一反卷积层,第二反卷积层,第三反卷积层,池化层,归一化层;将第一至第三反卷积层的维度分别设置为5*5,13*13,28*28,卷积核的大小均设置为3*3;将池化层的池化窗口尺寸设置为2*2;将归一化层的维度设置为10。
步骤4.2,生成对抗网络中的判别网络(Discriminator)是一个五层的卷积神经网络,其结构依次为:第一卷积层,第二卷积层,第三卷积层,池化层,归一化层,将第一至第三卷积层的维度分别设置为28*28,13*13,5*5,卷积核的大小均设置为3*3,卷积核的大小均设置为3*3,池化层的池化窗口尺寸设置为2*2,归一化层的维度设置为10。
步骤5,当新任务到达时对生成对抗网络进行训练。
步骤5.1,将一个随机生成的100维高斯噪声向量输入到生成对抗网络中,将输出的图像作为伪图像,并将该伪图像标注为负样本。
步骤5.2,从训练集中随机选取一张图像,将所选图像与伪图像输入到生成对抗网络中进行非线性映射,输出每个样本对应的各自的正、负预测标签与特征向量。
步骤5.3,利用梯度下降方法,用损失函数迭代更新生成对抗网络的参数,判断损失函数是否收敛,若收敛,则执行步骤5.4,否则,执行步骤5.1。
步骤5.4,将一组随机生成的100维高斯噪声向量输入训练好的生成对抗网络中,通过生成网络,对高斯噪声向量和类别标签向量进行非线性映射,输出一组生成的伪图像,将该组伪图像作为伪样本集Dp
步骤6,使用记忆重放方法训练联邦学习全局网络。
步骤6.1,从所有客户端中随机选取5个客户端,作为参与本轮训练联邦学习全局网络的客户端;同时将构建的联邦学习全局网络和伪样本集Dp下发给每个参加本轮训练的客户端。
步骤6.2,按每个任务的重要性比率组合部分伪样本集Dp与部分本地样本集,得到混合后的本地样本集。
步骤6.3,参与本轮训练的所有客户端使用混合后的本地样本集,利用本地随机梯度下降法,迭代更新联邦学习全局网络的各层参数,直到联邦学习全局网络训练的总损失函数收敛为止,得到训练好的联邦学习全局网络,该联邦学习全局网络保持了对旧任务的预测能力,将训练好的联邦学习全局网络参数异步地上传给服务器。
所述总损失函数L'为:
Figure BDA0003726821230000061
其中,r表示步骤1.2中定义的每个任务的重要性比率,
Figure BDA0003726821230000062
表示使用客户端的本地样本集Dk中的样本计算的部分损失函数,
Figure BDA0003726821230000063
表示使用服务器下发的伪样本集Dp中的样本计算的部分损失函数。
其中,L损失函数是以下公式计算得到:
Figure BDA0003726821230000064
其中,N表示样本集中样本的总数,∑表示求和操作,log表示以自然常数e为底的对数操作,pn表示样本集中第n个样本的全局网络预测标签,yn表示样本集中第n个样本的真实标签。
步骤7,对选取的本地图像添加符合拉普拉斯分布的本地差分隐私噪声:
在当前本地任务样本集中随机选取最少100个图像样本,在所选的每个图像中添加隐私预算ε≥0的符合拉普拉斯分布的本地差分隐私噪声,将得到的添加噪声后的样本图像异步地上传给服务器,作为下一个任务到达时生成对抗网络的训练集。
步骤8,利用下述聚合公式,服务器对训练好的联邦学习全局网络的所有参数进行加权聚合,得到聚合后的联邦学习全局网络参数:
Figure BDA0003726821230000071
其中,wg表示聚合后的联邦学习全局网络参数,∑表示求和操作,K表示参与本轮训练联邦学习全局网络的客户端总数,nk表示参与本轮训练联邦学习全局网络的客户端中第k个客户端的样本集的个数,N表示训练集中样本的总数,wk表示第k个客户端训练好的联邦学习全局网络的参数。
由于本地用户的样本量的分布不均衡会极大影响联邦学习全局模型的精确度,样本量小的本地模型梯度所占的权重较低,对联邦学习全局网络影响较小;样本量大的本地模型梯度所占的权重较高,对联邦学习全局网络影响较大。因此,该加权聚合方式通过综合各个本地用户训练得到的本地模型梯度,在一定程度上消除了本地用户的样本量不均衡问题对全局网络精确度的影响,有利于联邦学习全局网络的优化。
步骤9,判断是否有下一个任务到达,若是,则更新下一个任务的重要性比率,返回步骤5,否则,执行步骤10;
步骤10,联邦持续学习训练结束。
下面结合仿真实验对本发明的效果做进一步的说明。
1.仿真实验条件:
本发明的仿真实验的硬件平台为:处理器为Intel(R)Xeon(R)CPU E5-2650 v4,主频为2.20GHz,内存256GB。
本发明的仿真实验的软件平台为:Ubuntu 18.04操作系统和python 3.8。
本发明仿真实验所使用的数据集有来自美国国家标准与技术研究所的MNIST手写识别图像数据集。该数据集是美国国家标准与技术研究所通过对250个人的手写数字内容进行处理后生成的。其中的参与者一半来自高中学生,另一半来自人口普查工作人员。MNIST数据集共有70000条数据,包括60000条训练集数据和10000条测试集数据。每个样本都是一张28*28像素的灰度手写数字图片。
2.仿真内容及其结果分析:
本发明仿真实验是采用本发明和三个现有相关技术(FedAVG训练方法、Fed-EWC训练方法、FedWeIT训练方法)分别在MNIST-FIVE任务流数据集上进行全局模型训练,获得训练结果。仿真实验所模拟的场景是10个持有隐私数据的本地客户端面临先后到达的五个不同任务,他们协同训练一个联邦学习全局模型。其中,隐私数据采用本仿真实验所设定的数据集。
在仿真实验中,采用的四个现有技术是指:
现有技术FedAVG训练方法是指,Mcmahan等人在“Communication-EfficientLearning of Deep Networks from Decentralized Data,2016”中提出的联邦平均聚合训练方法,简称FedAVG训练方法。
现有技术Fed-EWC训练方法是指,Kirkpatrick等人在“Overcoming CatastrophicForgetting in Neural Networks.Proceedings of the national academy ofsciences,2017”中提出的持续学习训练方法用于联邦学习,简称Fed-EWC联邦持续学习训练方法。
现有技术FedWeIT训练方法是指,Yoon等人在“Federated Continual Learningwith Weighted Inter-client Transfer,PMLR,2021”中提出的联邦持续学习训练方法,简称FedWeIT联邦持续学习训练方法。
为了验证本发明仿真实验的效果,利用分别当五个任务到达时的客户端本地模型对任务1的预测精确度作为评价指标分别对四种方法的联邦持续学习训练结果进行评价。将所有结果绘制成表1。
表1.仿真实验中本发明和各现有技术训练结果的定量分析表
Figure BDA0003726821230000081
Figure BDA0003726821230000091
结合表1可以看出,在本发明中联邦学习全局网络对任务1的分类准确率在经过5个任务训练完成后仍保持在88.6%,并未发生明显下降,且准确率均高于其他3种现有技术方法,证明本发明通过使用旧任务记忆重放与本地差分隐私的方法,防止了任务流中联邦学习全局网络对旧任务知识的遗忘。本发明结合了生成对抗网络GAN和持续学习的特性,使得最终训练好的联邦学习全局网络能在不加重客户端计算负担的情况下,降低了客户端对旧任务知识的遗忘,保护了客户端的隐私,提高了联邦学习全局模型的训练效率。
以上仿真实验表明:本发明方法利用旧任务记忆重放,本地差分隐私的方法进行联邦持续学习训练,解决了现有技术方法中存在的旧任务知识的灾难性遗忘和隐私泄露的问题,是一种隐私保护且高效实用的联邦持续学习训练方法。

Claims (5)

1.一种基于记忆重放和差分隐私的联邦持续学习训练方法,其特征在于,使用记忆重放方法训练联邦学习全局网络,对选取的本地图像添加本地差分隐私噪声;该训练方法的具体步骤包括如下:
步骤1,生成客户端本地样本集:
步骤1.1,选取至少55000张图像组成样本集,该样本集中至少包括五个种类,将每个类至少包含11000张图像样本组成任务样本集;
步骤1.2,从每个任务样本集中各随机抽取至少1400张图像组成一个客户端的本地样本集;
步骤1.3,采用与步骤1.2相同的方法,得到至少10个客户端的本地样本集,设置每个客户端的任务样本集按先后顺序到达,当新任务样本集到达时旧任务的样本集立即被丢弃;
步骤2,生成服务器中生成对抗网络的训练集:
从第一个任务样本集中选取至少100张图像组成训练集,该训练集中至少包括一个种类;将所有图像标注为正样本;
步骤3,构建联邦学习全局网络:
在服务器中搭建一个七层的卷积神经网络作为联邦学习全局网络,其结构依次为:第一卷积层,第一池化层,第二卷积层,第二池化层,第三卷积层,第一全连接层,第二全连接层,将第一至第三卷积层的维度分别设置为28*28,13*13,5*5,卷积核的大小均设置为3*3,第一、第二池化层的池化窗口尺寸均设置为2*2,第一、第二全连接层的维度分别设置为64,10;
步骤4,构建生成对抗网络:
步骤4.1,生成对抗网络中的生成网络由编码器、卷积长短期记忆网络LSTM、解码器组成,卷积长短期记忆网络LSTM是一个五层的反卷积神经网络,其结构依次为:第一反卷积层,第二反卷积层,第三反卷积层,池化层,归一化层;将第一至第三反卷积层的维度分别设置为5*5,13*13,28*28,卷积核的大小均设置为3*3;将池化层的池化窗口尺寸设置为2*2;将归一化层的维度设置为10;
步骤4.2,生成对抗网络中的判别网络是一个五层的卷积神经网络,其结构依次为:第一卷积层,第二卷积层,第三卷积层,池化层,归一化层,将第一至第三卷积层的维度分别设置为28*28,13*13,5*5,卷积核的大小均设置为3*3,卷积核的大小均设置为3*3,池化层的池化窗口尺寸设置为2*2,归一化层的维度设置为10;
步骤5,对生成对抗网络进行训练:
步骤5.1,将一个随机生成的100维高斯噪声向量输入到生成对抗网络中,将输出的图像作为伪图像,并将该伪图像标注为负样本;
步骤5.2,从训练集中随机选取一张图像,将所选图像与伪图像输入到生成对抗网络中进行非线性映射,输出每个样本对应的各自的正、负预测标签与特征向量;
步骤5.3,利用梯度下降方法,用损失函数迭代更新生成对抗网络的参数,判断损失函数是否收敛,若收敛,则执行步骤5.4,否则,执行步骤5.1;
步骤5.4,将一组随机生成的100维高斯噪声向量输入训练好的生成对抗网络中,通过生成网络,对高斯噪声向量和类别标签向量进行非线性映射,输出一组生成的伪图像,将该组伪图像作为伪样本集;
步骤6,使用记忆重放方法训练联邦学习全局网络:
步骤6.1,从所有客户端中随机选取最多5个客户端,作为参与本轮训练联邦学习全局网络的客户端;同时将构建的联邦学习全局网络和伪样本集下发给每个参加本轮训练的客户端;
步骤6.2,按每个任务的重要性比率组合部分伪样本集与部分本地样本集,得到混合后的本地样本集;
步骤6.3,参与本轮训练的所有客户端使用混合后的本地样本集,利用本地随机梯度下降法,迭代更新网络参数,直到联邦学习全局网络训练的总损失函数收敛为止,得到训练好的联邦学习全局网络,该联邦学习全局网络保持了对旧任务的预测能力,将训练好的联邦学习全局网络参数异步地上传给服务器;
步骤7,对选取的本地图像添加本地差分隐私噪声:
在当前本地任务样本集中随机选取最少100个图像样本,在所选的每个图像中添加隐私预算ε≥0的符合拉普拉斯分布的本地差分隐私噪声,将得到的添加噪声后的样本图像异步地上传给服务器,作为下一个任务到达时生成对抗网络的训练集;
步骤8,对所有联邦学习全局网络参数加权聚合:
利用如下聚合公式,服务器将接收到的训练好的联邦学习全局网络参数进行加权聚合,得到聚合后的联邦学习全局网络参数:
Figure FDA0003726821220000031
其中,wg表示聚合后的联邦学习全局网络参数,∑表示求和操作,K表示参与本轮训练联邦学习全局网络的客户端总数,nk表示参与本轮训练联邦学习全局网络的客户端中第k个客户端的样本集的个数,N表示训练集中样本的总数,wk表示第k个客户端训练好的联邦学习全局网络的参数;
步骤9,判断是否有下一个任务到达,若是,则更新下一个任务的重要性比率,返回步骤5,否则,执行步骤10;
步骤10,联邦持续学习训练结束。
2.根据权利要求1所述的基于记忆重放和差分隐私的联邦持续学习训练方法,其特征在于:步骤3中所述的联邦学习全局网络是一个七层的卷积神经网络,其结构为第一卷积层,第一池化层,第二卷积层,第二池化层,第三卷积层,第一全连接层,第二全连接层,将第一至第三卷积层的维度分别设置为28*28,13*13,5*5,卷积核的大小均设置为3*3,第一、第二池化层的池化窗口尺寸均设置为2*2,第一、第二全连接层的维度分别设置为64,10。
3.根据权利要求1所述的基于记忆重放和差分隐私的联邦持续学习训练方法,其特征在于:步骤4中所述的生成对抗网络由生成网络与判别网络组成,其中生成网络由编码器、卷积长短期记忆网络LSTM、解码器组成,卷积长短期记忆网络LSTM是一个五层的反卷积神经网络,其结构依次为:第一反卷积层,第二反卷积层,第三反卷积层,池化层,归一化层;其中,判别网络是一个五层的卷积神经网络,其结构依次为:第一卷积层,第二卷积层,第三卷积层,池化层,归一化层,将第一至第三卷积层的维度分别设置为28*28,13*13,5*5,卷积核的大小均设置为3*3,卷积核的大小均设置为3*3,池化层的池化窗口尺寸设置为2*2,归一化层的维度设置为10。
4.根据权利要求1所述的基于记忆重放和差分隐私的联邦持续学习训练方法,其特征在于:步骤6.3中所述的联邦学习全局网络训练的总损失函数如下:
Figure FDA0003726821220000041
其中,L'表示总损失函数,r表示每个任务的重要性比率,
Figure FDA0003726821220000042
表示使用客户端的本地样本集D k中的样本计算的部分损失函数,
Figure FDA0003726821220000043
表示使用服务器下发的伪样本集Dp中的样本计算的部分损失函数;
其中,L损失函数是以下公式计算得到:
Figure FDA0003726821220000044
其中,N表示样本集中样本的总数,∑表示求和操作,log表示以自然常数e为底的对数操作,pn表示样本集中第n个样本的全局网络预测标签,yn表示样本集中第n个样本的真实标签。
5.根据权利要求1所述的基于记忆重放和差分隐私的联邦持续学习训练方法,其特征在于:步骤7中所述的添加本地差分隐私噪声方法如下:在当前本地任务样本集中随机选取一部分图像,在所选的每个图像中添加隐私预算ε≥0的符合拉普拉斯分布的本地差分隐私噪声。
CN202210775381.5A 2022-07-01 2022-07-01 基于记忆重放和差分隐私的联邦持续学习训练方法 Pending CN115081532A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210775381.5A CN115081532A (zh) 2022-07-01 2022-07-01 基于记忆重放和差分隐私的联邦持续学习训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210775381.5A CN115081532A (zh) 2022-07-01 2022-07-01 基于记忆重放和差分隐私的联邦持续学习训练方法

Publications (1)

Publication Number Publication Date
CN115081532A true CN115081532A (zh) 2022-09-20

Family

ID=83257324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210775381.5A Pending CN115081532A (zh) 2022-07-01 2022-07-01 基于记忆重放和差分隐私的联邦持续学习训练方法

Country Status (1)

Country Link
CN (1) CN115081532A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115577797A (zh) * 2022-10-18 2023-01-06 东南大学 一种基于本地噪声感知的联邦学习优化方法及系统
CN115731424A (zh) * 2022-12-03 2023-03-03 北京邮电大学 基于强化联邦域泛化的图像分类模型训练方法及系统
CN116128164A (zh) * 2023-04-13 2023-05-16 南京邮电大学 一种基于隐私保护的电力负荷短期预测系统及方法
CN116363678A (zh) * 2023-05-31 2023-06-30 华南理工大学 一种数学公式图像的识别方法、系统和计算机设备
CN117576742A (zh) * 2023-11-21 2024-02-20 南京林业大学 一种基于分块联邦学习的手指静脉识别方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115577797A (zh) * 2022-10-18 2023-01-06 东南大学 一种基于本地噪声感知的联邦学习优化方法及系统
CN115577797B (zh) * 2022-10-18 2023-09-26 东南大学 一种基于本地噪声感知的联邦学习优化方法及系统
CN115731424A (zh) * 2022-12-03 2023-03-03 北京邮电大学 基于强化联邦域泛化的图像分类模型训练方法及系统
CN115731424B (zh) * 2022-12-03 2023-10-31 北京邮电大学 基于强化联邦域泛化的图像分类模型训练方法及系统
CN116128164A (zh) * 2023-04-13 2023-05-16 南京邮电大学 一种基于隐私保护的电力负荷短期预测系统及方法
CN116363678A (zh) * 2023-05-31 2023-06-30 华南理工大学 一种数学公式图像的识别方法、系统和计算机设备
CN116363678B (zh) * 2023-05-31 2023-08-11 华南理工大学 一种数学公式图像的识别方法、系统和计算机设备
CN117576742A (zh) * 2023-11-21 2024-02-20 南京林业大学 一种基于分块联邦学习的手指静脉识别方法

Similar Documents

Publication Publication Date Title
CN115081532A (zh) 基于记忆重放和差分隐私的联邦持续学习训练方法
CN110084365B (zh) 一种基于深度学习的服务提供系统及方法
CN111145116B (zh) 一种基于生成对抗网络的海面雨天图像样本增广方法
CN111160474A (zh) 一种基于深度课程学习的图像识别方法
CN110837850A (zh) 一种基于对抗学习损失函数的无监督域适应方法
CN113065974B (zh) 一种基于动态网络表示学习的链路预测方法
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
CN114514519A (zh) 使用异构模型类型和架构的联合学习
CN114332984B (zh) 训练数据处理方法、装置和存储介质
CN109949200B (zh) 基于滤波器子集选择和cnn的隐写分析框架构建方法
CN115829027A (zh) 一种基于对比学习的联邦学习稀疏训练方法及系统
CN114612715A (zh) 基于本地差分隐私的边缘联邦图像分类方法
CN114564746A (zh) 基于客户端权重评价的联邦学习方法和系统
CN112183742A (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
Wang et al. A multi-dimensional aesthetic quality assessment model for mobile game images
CN115496970A (zh) 图像任务模型的训练方法、图像识别方法以及相关装置
Gharibi et al. Refinedfed: A refining algorithm for federated learning
CN111626380A (zh) 一种基于超像素和卷积网络的极化sar图像分类方法
Lia et al. Privacy-preserving machine learning using federated learning and secure aggregation
CN112967210B (zh) 一种基于全卷积孪生网络的无人机图像去噪方法
CN114639174A (zh) 联邦协作下的隐私型深度伪造检测方法
CN111860557B (zh) 图像处理方法及装置、电子设备及计算机存储介质
CN115906153A (zh) 面向样本不均衡场景下的联邦学习优化方法、装置及系统
Zhang et al. Federated multi-task learning with non-stationary heterogeneous data
CN113239829B (zh) 基于空间占用概率特征的跨维度遥感数据目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination