CN111611610B - 联邦学习信息处理方法、系统、存储介质、程序、终端 - Google Patents

联邦学习信息处理方法、系统、存储介质、程序、终端 Download PDF

Info

Publication number
CN111611610B
CN111611610B CN202010282762.0A CN202010282762A CN111611610B CN 111611610 B CN111611610 B CN 111611610B CN 202010282762 A CN202010282762 A CN 202010282762A CN 111611610 B CN111611610 B CN 111611610B
Authority
CN
China
Prior art keywords
model
gradient
participants
parameter
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010282762.0A
Other languages
English (en)
Other versions
CN111611610A (zh
Inventor
樊凯
赵斌
金海�
尤伟
李晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202010282762.0A priority Critical patent/CN111611610B/zh
Publication of CN111611610A publication Critical patent/CN111611610A/zh
Application granted granted Critical
Publication of CN111611610B publication Critical patent/CN111611610B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于无线通信网络技术领域,公开了一种联邦学习信息处理方法、系统、存储介质、程序、终端,参数服务器确认训练任务及初始参数,并初始化全局模型;参数服务器随机选择部分参与者下发模型参数,加密并通过代理服务器转发;参与者接受模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;参数服务器接受所有参与者的梯度,整合并更新全局模型;重复进行模型的下发—训练—更新过程,直到达到预期损失函数。本发明实现数据隐私的保护;减少了参数服务器的通信开销,并且实现了参与者的匿名。

Description

联邦学习信息处理方法、系统、存储介质、程序、终端
技术领域
本发明属于无线通信网络技术领域,尤其涉及一种联邦学习信息处理方法、系统、存储介质、程序、终端。
背景技术
目前,随着物联网,大数据和5G网络架构的快速发展和广泛应用,网络边缘设备生成的海量数据和实时服务需求已远远超过了传统云计算模型的能力,边缘计算将云服务扩展到网络边缘,具有低延迟,较小的带宽和隐私保护的优势。边缘计算充分利用了大量分布式边缘节点的计算能力,从而降低了云数据中心的计算压力,但是,边缘节点的管理也更加复杂,一些安全性较差的边缘节点可能会受到入侵者的恶意攻击,此外网络边缘的用户或设备生成的数据可能包含用户的隐私数据,例如位置信息,身体状况和活动记录。为了充分利用边缘数据,基于人工智能的方法挖掘数据信息,发现新的模式和知识,以提取新的和有价值的信息,但是,直接在多个边缘节点之间共享私有数据可能会导致很大的隐私泄露风险。
联邦学习(Federated Learning)是一种基于分布式数据训练模型的可行方法,该方法将私有数据保留在边缘节点中,通过共享参数训练模型,从而防止了原始数据的隐私泄露。但是,恶意参与者可能会通过共享参数推测他人的隐私,同时,好奇的服务器能够将参数与参与者链接起来。基于差分隐私的方法,可以为数据提供强隐私保护,通过在参数上添加噪声,减少模型隐私泄露的可能性。同时,同态加密和安全多方计算方法,通过隐藏原始数据,保证数据的隐私。
然而,现有的方案依旧没有完全解决如何平衡模型隐私与效率的问题。
通过上述分析,现有技术存在的问题及缺陷为:
(1)联邦学习分享参数泄露用户隐私,如何保证数据的隐私,防止参数隐私泄露是一个技术难题。
(2)在保证参数服务器与参与者通信的情况下,如何防止服务器将参与者与参数链接起来,实现参与者身份匿名是一个技术难题。
(3)大多数方法以降低模型性能或系统效率为代价提供隐私,如何平衡隐私与效率是一个技术难题。
解决以上问题及缺陷的难度为:(1)联邦学习分享参数泄露用户隐私,如何保证数据的隐私,防止参数隐私泄露是一个技术难题。
(2)在保证参数服务器与参与者通信的情况下,如何防止服务器将参与者与参数链接起来,实现参与者身份匿名是一个技术难题。
(3)大多数方法以降低模型性能或系统效率为代价提供隐私,如何平衡隐私与效率是一个技术难题。
解决以上问题及缺陷的意义为:联邦学习信息处理方法,实现参与者的匿名,同时防止模型参数泄露参与者隐私,适用性高,能够用于边缘计算等实际场景。
发明内容
针对现有技术存在的问题,本发明提供了一种联邦学习信息处理方法、系统、存储介质、程序、终端。
本发明是这样实现的,一种联邦学习信息处理方法,所述联邦学习信息处理方法包括:
第一步,参数服务器确认训练任务及初始参数,并初始化全局模型;
第二步,参数服务器随机选择部分参与者下发模型参数,加密并通过代理服务器转发;
第三步,参与者接受模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
第四步,参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
第五步,参数服务器接受所有参与者的梯度,整合并更新全局模型;
第六步,重复进行模型的下发—训练—更新过程,直到达到预期损失函数。
进一步,所述第一步的模型初始化包括:参数服务器确定训练任务,训练过程,以及相应的参数,并初始化全局模型
Figure BDA0002447340810000031
进一步,所述第二步的模型下发包括:
步骤一,参数服务器随机选择m个参与者,全局模型
Figure BDA0002447340810000032
分别用这m个参与者的公钥(PK1',PK2',…,PKm')加密,得到模型的密文数据:
Figure BDA0002447340810000033
步骤二,参数服务器将加密数据发送至代理服务器,代理服务器再转发给所有参与者。
进一步,所述第三步的本地优化包括:所有参与者接收密文数据后,用自己的私钥解密,若能解密得到明文,则随机选择
Figure BDA0002447340810000034
个参数,并替换对应本地模型上的参数值,得到本地模型Wi t,并在本地数据集Di上优化模型,最小化损失函数:
Figure BDA0002447340810000035
其中,ni是数据集的样本数,xj表示某一样本,f(xj,Wi t)是样本通过模型输出的标签,yj是样本本身标签;
通过小批量梯度下降法优化模型,将数据集Di分为大小为b_size大小的子数据集的集合Bi,对于Bi中每个子数据集b,根据梯度下降更新模型参数:
Wi t←Wi t-αΔL(Wi t;b);
其中,α是学习率,ΔL是损失函数在b上的梯度,对Bi中所有子数据集更新完一次后即为一个epoch,经过多个epoch后得到预期优化模型。
进一步,所述第四步的梯度上传包括:
步骤一,计算模型梯度,即优化后模型与原全局模型的参数差值:
Figure BDA0002447340810000041
步骤二,选择其中最大的λu×|ΔWi t|个梯度上传,保持梯度不变,其余梯度置为0,将要上传的梯度范围限制在[-r,r],敏感度Δf不超过2r,为每个梯度添加噪音,满足ε-差分隐私:
Figure BDA0002447340810000042
其中,f(D)代表原梯度值,A(D)代表添加噪音之后的梯度值,d取值1;
步骤三,将添加噪音之后的梯度用参数服务器公钥加密,并发送到代理服务器,然后由代理服务器转发给参数服务器。
进一步,所述第五步的模型更新包括:参数服务器接收并解密来自m个参与者的梯度值,整合优化得到全局模型
Figure BDA0002447340810000043
全局模型的任一参数
Figure BDA0002447340810000044
为:
Figure BDA0002447340810000045
其中,
Figure BDA0002447340810000046
是原全局模型的参数值,
Figure BDA0002447340810000047
是参与者i对应的梯度值;
所述第六步的迭代训练包括:继续上述的模型下发—优化—更新过程,直到模型达到预期损失函数:
Figure BDA0002447340810000048
本发明的另一目的在于提供一种接收用户输入程序存储介质,所存储的计算机程序使电子设备执行权利要求任意一项所述包括下列步骤:
第一步,参数服务器确认训练任务及初始参数,并初始化全局模型;
第二步,参数服务器随机选择部分参与者下发模型参数,加密并通过代理服务器转发;
第三步,参与者接受模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
第四步,参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
第五步,参数服务器接受所有参与者的梯度,整合并更新全局模型;
第六步,重复进行模型的下发—训练—更新过程,直到达到预期损失函数。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施所述的联邦学习信息处理方法。
本发明的另一目的在于提供一种实施所述的联邦学习信息处理方法的联邦学习信息处理系统,所述联邦学习信息处理系统包括:
模型初始化模块,用于实现参数服务器确认训练任务及初始参数,初始化全局模型;
模型下发模块,用于实现参数服务器随机选择部分参与者下发模型,加密并通过代理服务器转发;
本地优化模块,用于实现参与者接收模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
梯度上传模块,用于实现参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
模型更新模块,用于实现参数服务器接收所有参与者上传的梯度,整合并更新全局模型;
迭代训练模块,用于重复进行上述模型下发—优化—更新过程,直到模型达到预期损失函数。
本发明的另一目的在于提供一种终端,所述终端搭载所述的联邦学习信息处理系统。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明实现多源数据的人工智能模型训练,保证数据分离,无需分享原数据,从而防止数据的直接隐私泄露;本发明通过分享更少的参数实现模型训练,减少隐私泄露;同时在参数上添加噪声实现差分隐私,实现强隐私保护,从而防止数据的间接隐私泄露;本发明引入代理服务器用于参数服务器与参与者的通信,减少参数服务器的通信开销;而且实现参与者身份匿名,防止参数服务器将参数与参与者链接起来。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的联邦学习信息处理方法流程图。
图2是本发明实施例提供的联邦学习信息处理系统的结构示意图;
图中:1、模型初始化模块;2、模型下发模块;3、本地优化模块;4、梯度上传模块;5、模型更新模块;6、迭代训练模块。
图3是本发明实施例提供的联邦学习信息处理方法实现流程图。
图4是本发明实施例提供的联邦学习信息处理方法准确率—上传率图;
图中:(a)MNIST MLPλd=1;(b)MNIST CNNλd=1。
图5是本发明实施例提供的联邦学习信息处理方法准确率—下载率图;
图中:(a)MNIST MLPλu=1;(b)MNIST CNNλu=1。
图6是本发明实施例提供的联邦学习信息处理方法准确率—隐私预算图;
图中:(a)MNIST MLPλd=1,r=0.001;(b)MNIST CNNλd=1,r=0.001。
图7是本发明实施例提供的联邦学习信息处理方法准确率—参与者数目图。
图8是本发明实施例提供的联邦学习信息处理方法多个应用场景下效果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种联邦学习信息处理方法、系统、存储介质、程序、终端,下面结合附图对本发明作详细的描述。
如图1所示,本发明提供的联邦学习信息处理方法包括以下步骤:
S101:参数服务器确认训练任务及初始参数,初始化全局模型;
S102:参数服务器随机选择部分参与者下发模型,加密并通过代理服务器转发;
S103:参与者接收模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
S104:参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
S105:参数服务器接收所有参与者上传的梯度,整合并更新全局模型;
S106:重复进行上述模型下发—优化—更新过程,直到模型达到预期损失函数。
如图2所示,本发明提供的联邦学习信息处理系统包括:
模型初始化模块1,用于实现参数服务器确认训练任务及初始参数,初始化全局模型;
模型下发模块2,用于实现参数服务器随机选择部分参与者下发模型,加密并通过代理服务器转发;
本地优化模块3,用于实现参与者接收模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
梯度上传模块4,用于实现参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
模型更新模块5,用于实现参数服务器接收所有参与者上传的梯度,整合并更新全局模型;
迭代训练模块6,用于重复进行上述模型下发—优化—更新过程,直到模型达到预期损失函数。
下面结合附图对本发明的技术方案作进一步的描述。
如图3所示,本发明实施例提供的联邦学习信息处理方法具体包括以下步骤:
步骤一:模型初始化。
参数服务器确定训练任务,训练过程,以及相应的参数,并初始化全局模型
Figure BDA0002447340810000081
步骤二:模型下发。
2.1)参数服务器随机选择m个参与者,将此时的全局模型
Figure BDA0002447340810000082
分别用这m个参与者的公钥(PK1',PK2',…,PKm')加密,得到模型的密文数据:
Figure BDA0002447340810000083
2.2)参数服务器将加密数据发送至代理服务器,代理服务器再转发给所有参与者。代理服务器与未被选择参与训练的参与者由于缺少密钥,所以无法解密并获得模型参数。
步骤三:本地优化。
所有参与者接收密文数据后,用自己的私钥解密,若能解密得到明文,则随机选择
Figure BDA0002447340810000084
个参数,并替换对应本地模型上的参数值,得到本地模型Wi t,并在本地数据集Di上优化模型,最小化损失函数:
Figure BDA0002447340810000085
其中,ni是数据集的样本数,xj表示某一样本,f(xj,Wi t)是样本通过模型输出的标签,yj是样本本身标签。
此外,通过小批量梯度下降法优化模型,将数据集Di分为大小为b_size大小的子数据集的集合Bi,对于Bi中每个子数据集b,根据梯度下降更新模型参数:
Wi t←Wi t-αΔL(Wi t;b);
其中,α是学习率,ΔL是损失函数在b上的梯度,对Bi中所有子数据集更新完一次后即为一个epoch,经过多个epoch后得到预期优化模型。
步骤四:梯度上传。
4.1)计算模型梯度,即优化后模型与原全局模型的参数差值:
Figure BDA0002447340810000091
4.2)选择其中最大的λu×|ΔWi t|个梯度上传,即保持这些梯度不变,其余梯度置为0,将要上传的梯度范围限制在[-r,r],敏感度Δf不超过2r,为每个梯度添加噪音,使其满足ε-差分隐私:
Figure BDA0002447340810000092
其中,f(D)代表原梯度值,A(D)代表添加噪音之后的梯度值,d取值1。
4.3)将添加噪音之后的梯度用参数服务器公钥加密,并发送到代理服务器,然后由代理服务器转发给参数服务器。
步骤五:模型更新。
参数服务器接收并解密来自m个参与者的梯度值,整合优化得到全局模型
Figure BDA0002447340810000093
全局模型的任一参数
Figure BDA0002447340810000094
为:
Figure BDA0002447340810000095
其中,
Figure BDA0002447340810000096
是原全局模型的参数值,
Figure BDA0002447340810000097
是参与者i对应的梯度值。
步骤六:迭代训练。
继续上述的模型下发—优化—更新过程,直到模型达到预期损失函数:
Figure BDA0002447340810000098
下面结合附图对本发明的技术效果作详细的描述。
如图4所示,本发明实施例提供的联邦学习信息处理方法准确率—上传率关系如下:
1)在CNN和MLP两种神经网络结构中,本发明都具有较高准确率,本发明适用于多种神经网络结构。
2)当参数上传率下降一个数量级时,本发明准确率几乎不下降,本发明能通过减少参数分享有效减少隐私泄露。
3)当参数上传率下降时,本发明训练过程迭代次数增加。
如图5所示,本发明实施例提供的联邦学习信息处理方法准确率—下载率关系如下:
1)在CNN和MLP两种神经网络结构中,本发明都具有较高准确率,本发明适用于多种神经网络结构。
2)当参数下载率下降一个数量级时,本发明准确率几乎不下降,本发明能通过减少参数分享有效减少隐私泄露。
3)当参数下载率下降时,本发明训练过程迭代次数增加。
4)即使不下载任何参数,本发明也能达到一定准确率。
如图6所示,本发明实施例提供的联邦学习信息处理方法准确率—隐私预算如下:
1)在CNN和MLP两种神经网络结构中,本发明都具有较高准确率,本发明适用于多种神经网络结构。
2)隐私预算ε越小,本发明准确率越低,提供的隐私保护越强。
3)隐私预算ε大于等于10时,本发明准确率几乎不下降,本发明较好地平衡隐私与效率。
如图7所示,本发明实施例提供的联邦学习信息处理方法准确率—参与者数目如下:
1)在多源数据集上,本发明具有较高准确率0.902,本发明适用于多源数据分析。
2)相较于FL,本发明通过减少参数分享及差分隐私提供隐私保护,准确率仅下降约1%,本发明在牺牲较少准确率的情况下提供强隐私保护。
3)相较于DP-FL,本发明通过减少参数分享减少隐私泄露,且准确率更高。
4)准确率几乎不随参与者数目变化,本发明具有可扩展性。
如图8所示,本发明实施例提供的联邦学习信息处理方法多个应用场景下效果如下:
1)相较于FL,本发明通过减少参数分享及差分隐私提供隐私保护,准确率仅下降约1%,本发明在牺牲较少准确率的情况下提供强隐私保护。
2)相较于DP-FL,本发明通过减少参数分享减少隐私泄露,且本发明准确率高于DP-FL约0.5%~1%。
3)本发明在Reuters、20newsgroups以及Ohsumed等多个应用场景下都有较高准确率,本发明适用于多源数据的分析。
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。

Claims (4)

1.一种联邦学习信息处理方法,其特征在于,所述联邦学习信息处理方法包括:
第一步,参数服务器确认训练任务及初始参数,并初始化全局模型;
第二步,参数服务器随机选择部分参与者下发模型参数,加密并通过代理服务器转发;
第三步,参与者接受模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
第四步,参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
第五步,参数服务器接受所有参与者的梯度,整合并更新全局模型;
第六步,重复进行模型的下发—训练—更新过程,直到达到预期损失函数;
所述第一步的模型初始化包括:参数服务器确定训练任务,训练过程,以及相应的参数,并初始化全局模型
Figure FDA0004051750500000011
所述第二步的模型下发包括:
步骤一,参数服务器随机选择m个参与者,全局模型
Figure FDA0004051750500000012
分别用这m个参与者的公钥(PK1',PK2',...,PKm')加密,得到模型的密文数据:
Figure FDA0004051750500000013
步骤二,参数服务器将加密数据发送至代理服务器,代理服务器再转发给所有参与者;
所述第三步的本地优化包括:所有参与者接收密文数据后,用自己的私钥解密,若能解密得到明文,则随机选择
Figure FDA0004051750500000014
个参数,并替换对应本地模型上的参数值,得到本地模型Wi t,并在本地数据集Di上优化模型,最小化损失函数:
Figure FDA0004051750500000015
其中,ni是数据集的样本数,xj表示某一样本,f(xj,Wi t)是样本通过模型输出的标签,yj是样本本身标签;
通过小批量梯度下降法优化模型,将数据集Di分为大小为b_size大小的子数据集的集合Bi,对于Bi中每个子数据集b,根据梯度下降更新模型参数:
Wi t←Wi t-αΔL(Wi t;b);
其中,α是学习率,ΔL是损失函数在b上的梯度,对Bi中所有子数据集更新完一次后即为一个epoch,经过多个epoch后得到预期优化模型;
所述第四步的梯度上传包括:
步骤一,计算模型梯度,即优化后模型与原全局模型的参数差值:
Figure FDA0004051750500000021
步骤二,选择其中最大的λu×|ΔWi t|个梯度上传,保持梯度不变,其余梯度置为0,将要上传的梯度范围限制在[-r,r],敏感度Δf不超过2r,为每个梯度添加噪音,满足ε-差分隐私:
Figure FDA0004051750500000022
其中,f(D)代表原梯度值,A(D)代表添加噪音之后的梯度值,d取值1;
步骤三,将添加噪音之后的梯度用参数服务器公钥加密,并发送到代理服务器,然后由代理服务器转发给参数服务器;
所述第五步的模型更新包括:参数服务器接收并解密来自m个参与者的梯度值,整合优化得到全局模型
Figure FDA0004051750500000023
全局模型的任一参数
Figure FDA0004051750500000024
为:
Figure FDA0004051750500000025
其中,
Figure FDA0004051750500000026
是原全局模型的参数值,
Figure FDA0004051750500000027
是参与者i对应的梯度值;
所述第六步的迭代训练包括:继续上述的模型下发—优化—更新过程,直到模型达到预期损失函数:
Figure FDA0004051750500000028
2.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求1所述的联邦学习信息处理方法。
3.一种实施权利要求1所述的联邦学习信息处理方法的联邦学习信息处理系统,其特征在于,所述联邦学习信息处理系统包括:
模型初始化模块,用于实现参数服务器确认训练任务及初始参数,初始化全局模型;
模型下发模块,用于实现参数服务器随机选择部分参与者下发模型,加密并通过代理服务器转发;
本地优化模块,用于实现参与者接收模型部分参数并覆盖本地模型,利用本地数据对模型进行优化;
梯度上传模块,用于实现参与者根据优化结果计算模型梯度,选择其中部分上传,对上传梯度添加噪声实现差分隐私,加密并通过代理服务器转发;
模型更新模块,用于实现参数服务器接收所有参与者上传的梯度,整合并更新全局模型;
迭代训练模块,用于重复进行上述模型下发—优化—更新过程,直到模型达到预期损失函数。
4.一种终端,其特征在于,所述终端搭载权利要求3所述的联邦学习信息处理系统。
CN202010282762.0A 2020-04-12 2020-04-12 联邦学习信息处理方法、系统、存储介质、程序、终端 Active CN111611610B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010282762.0A CN111611610B (zh) 2020-04-12 2020-04-12 联邦学习信息处理方法、系统、存储介质、程序、终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010282762.0A CN111611610B (zh) 2020-04-12 2020-04-12 联邦学习信息处理方法、系统、存储介质、程序、终端

Publications (2)

Publication Number Publication Date
CN111611610A CN111611610A (zh) 2020-09-01
CN111611610B true CN111611610B (zh) 2023-05-30

Family

ID=72195866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010282762.0A Active CN111611610B (zh) 2020-04-12 2020-04-12 联邦学习信息处理方法、系统、存储介质、程序、终端

Country Status (1)

Country Link
CN (1) CN111611610B (zh)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016932B (zh) * 2020-09-04 2024-05-17 中国银联股份有限公司 测试方法、装置、服务器及介质
CN112070240B (zh) * 2020-09-07 2022-10-14 清华大学 一种高效通信的分层联邦学习框架及其优化方法和系统
CN111784002B (zh) * 2020-09-07 2021-01-19 腾讯科技(深圳)有限公司 分布式数据处理方法、装置、计算机设备及存储介质
CN112183587B (zh) * 2020-09-10 2022-04-08 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) 一种海上风电场生物监测方法、系统、计算机设备和存储介质
CN112052480B (zh) * 2020-09-11 2024-07-23 哈尔滨工业大学(深圳) 一种模型训练过程中的隐私保护方法、系统及相关设备
CN112116008B (zh) * 2020-09-18 2024-07-05 平安科技(深圳)有限公司 基于智能决策的目标检测模型的处理方法、及其相关设备
CN112232527B (zh) * 2020-09-21 2024-01-23 北京邮电大学 安全的分布式联邦深度学习方法
CN112183612B (zh) * 2020-09-24 2023-01-24 重庆邮电大学 一种基于参数扩充的联合学习方法、装置及系统
CN113919511A (zh) * 2020-09-24 2022-01-11 京东科技控股股份有限公司 联邦学习方法及装置
CN112164224A (zh) * 2020-09-29 2021-01-01 杭州锘崴信息科技有限公司 信息安全的交通信息处理系统、方法、设备及存储介质
CN111931242B (zh) * 2020-09-30 2021-02-19 国网浙江省电力有限公司电力科学研究院 一种数据共享方法以及应用其的计算机设备及可读存储介质
CN112199702B (zh) * 2020-10-16 2024-07-26 鹏城实验室 一种基于联邦学习的隐私保护方法、存储介质及系统
CN112257105B (zh) * 2020-10-19 2022-01-11 中山大学 一种基于参数替换算法的联邦学习方法及系统
CN114667523A (zh) * 2020-10-23 2022-06-24 北京小米移动软件有限公司 模型训练方法、装置、服务器、终端和存储介质
CN112565331B (zh) * 2020-11-02 2022-08-12 中山大学 一种基于边缘计算的端-边协同联邦学习优化方法
CN112101555A (zh) * 2020-11-13 2020-12-18 支付宝(杭州)信息技术有限公司 多方联合训练模型的方法和装置
CN113923225A (zh) * 2020-11-16 2022-01-11 京东科技控股股份有限公司 基于分布式架构的联邦学习平台、方法、设备和存储介质
CN112381000B (zh) * 2020-11-16 2024-08-27 深圳前海微众银行股份有限公司 基于联邦学习的人脸识别方法、装置、设备及存储介质
CN112381428B (zh) * 2020-11-19 2023-09-19 平安科技(深圳)有限公司 基于强化学习的业务分配方法、装置、设备及存储介质
CN113255924B (zh) * 2020-11-25 2023-03-24 中兴通讯股份有限公司 联邦学习参与者选择方法、装置、设备和存储介质
CN112446544B (zh) * 2020-12-01 2024-09-24 平安科技(深圳)有限公司 交通流预测模型训练方法、装置、电子设备及存储介质
CN112383440A (zh) * 2020-12-01 2021-02-19 苏州中德双智科创发展有限公司 云端模型准确性提高方法、装置、电子设备及存储介质
CN112488398A (zh) * 2020-12-03 2021-03-12 广东电力通信科技有限公司 一种基于mec边缘智能网关的用电管理方法及系统
CN112686368A (zh) * 2020-12-10 2021-04-20 广州广电运通金融电子股份有限公司 更新中心方的合作式学习方法、存储介质、终端和系统
CN112464290B (zh) * 2020-12-17 2024-03-19 浙江工业大学 一种基于自编码器的垂直联邦学习防御方法
CN112668128B (zh) * 2020-12-21 2024-05-28 国网辽宁省电力有限公司物资分公司 联邦学习系统中终端设备节点的选择方法及装置
CN112769766B (zh) * 2020-12-23 2023-03-24 广东电网有限责任公司梅州供电局 基于联邦学习的电力边缘物联网数据安全聚合方法和系统
CN112668726B (zh) * 2020-12-25 2023-07-11 中山大学 一种高效通信且保护隐私的个性化联邦学习方法
EP4258104A4 (en) * 2020-12-31 2024-02-07 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR TRANSMITTING MODEL DATA
CN114765625B (zh) * 2020-12-31 2024-08-16 新智云数据服务有限公司 基于联合学习的信息交互方法、装置和系统
CN112770291B (zh) * 2021-01-14 2022-05-31 华东师范大学 基于联邦学习和信任评估的分布式入侵检测方法及系统
CN112749403B (zh) * 2021-01-19 2022-03-18 山东大学 一种适用于边缘物联代理装置的边缘数据加密方法
CN112949868B (zh) * 2021-01-29 2022-12-27 北京邮电大学 一种基于区块链的异步联邦学习方法、装置及电子设备
CN112818394A (zh) * 2021-01-29 2021-05-18 西安交通大学 具有本地隐私保护的自适应异步联邦学习方法
CN112989369B (zh) * 2021-02-09 2022-03-25 山东大学 一种适用于动态分布式物联网系统的数据加密学习方法
CN113379708A (zh) * 2021-02-26 2021-09-10 山东大学 一种基于联邦学习的空调外机外观检测方法及系统
CN112966298B (zh) * 2021-03-01 2022-02-22 广州大学 一种复合隐私保护方法、系统、计算机设备及存储介质
CN113037662A (zh) * 2021-03-02 2021-06-25 电子科技大学 一种基于联邦学习的移动设备射频分布识别方法
CN113807534B (zh) * 2021-03-08 2023-09-01 京东科技控股股份有限公司 联邦学习模型的模型参数训练方法、装置和电子设备
CN112926088B (zh) * 2021-03-18 2024-03-19 之江实验室 一种基于博弈论的联邦学习隐私策略选择方法
CN112949741B (zh) * 2021-03-18 2023-04-07 西安电子科技大学 基于同态加密的卷积神经网络图像分类方法
CN112799708B (zh) * 2021-04-07 2021-07-13 支付宝(杭州)信息技术有限公司 联合更新业务模型的方法及系统
WO2022217784A1 (zh) * 2021-04-15 2022-10-20 腾讯云计算(北京)有限责任公司 数据处理方法、装置、设备以及介质
EP4327251A1 (en) * 2021-04-20 2024-02-28 Qualcomm Incorporated Reporting for machine learning model updates
CN113191504B (zh) * 2021-05-21 2022-06-28 电子科技大学 一种面向计算资源异构的联邦学习训练加速方法
CN113435592B (zh) * 2021-05-22 2023-09-22 西安电子科技大学 一种隐私保护的神经网络多方协作无损训练方法及系统
CN113435472A (zh) * 2021-05-24 2021-09-24 西安电子科技大学 车载算力网络用户需求预测方法、系统、设备、介质
US11907403B2 (en) * 2021-06-10 2024-02-20 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Dynamic differential privacy to federated learning systems
CN113221183B (zh) * 2021-06-11 2022-09-16 支付宝(杭州)信息技术有限公司 实现隐私保护的多方协同更新模型的方法、装置及系统
CN113255004B (zh) * 2021-06-16 2024-06-14 大连理工大学 一种安全且高效的联邦学习内容缓存方法
CN113449318B (zh) * 2021-06-18 2024-03-19 北京明朝万达科技股份有限公司 一种数据分级模型训练方法、装置、数据分级方法、装置
CN113554182B (zh) * 2021-07-27 2023-09-19 西安电子科技大学 一种横向联邦学习系统中拜占庭节点的检测方法及系统
CN113642664B (zh) * 2021-08-24 2024-02-20 安徽大学 一种基于联邦学习的隐私保护图像分类方法
CN113836322B (zh) * 2021-09-27 2024-06-28 平安科技(深圳)有限公司 文章查重方法和装置、电子设备、存储介质
CN114003950A (zh) * 2021-10-19 2022-02-01 南京三眼精灵信息技术有限公司 基于安全计算的联邦机器学习方法、装置、设备及介质
KR102651443B1 (ko) * 2021-11-04 2024-03-26 광주과학기술원 분산 해독 키 기반의 연합 학습 방법
CN114186213B (zh) * 2022-02-16 2022-07-05 深圳致星科技有限公司 基于联邦学习的数据传输方法及装置、设备和介质
CN114357526A (zh) * 2022-03-15 2022-04-15 中电云数智科技有限公司 抵御推断攻击的医疗诊断模型差分隐私联合训练方法
CN114707662B (zh) * 2022-04-15 2024-06-18 支付宝(杭州)信息技术有限公司 联邦学习方法、装置及联邦学习系统
CN115310121B (zh) * 2022-07-12 2023-04-07 华中农业大学 车联网中基于MePC-F模型的实时强化联邦学习数据隐私安全方法
CN115277264B (zh) * 2022-09-28 2023-03-24 季华实验室 一种基于联邦学习的字幕生成方法、电子设备及存储介质
CN115424079B (zh) * 2022-09-30 2023-11-24 深圳市大数据研究院 基于联邦边缘学习的图像分类方法以及相关设备
CN115860789B (zh) * 2023-03-02 2023-05-30 国网江西省电力有限公司信息通信分公司 一种基于frl的ces日前调度方法
CN116781836B (zh) * 2023-08-22 2023-12-01 云视图研智能数字技术(深圳)有限公司 一种全息远程教学方法及系统
CN117933427B (zh) * 2024-03-19 2024-05-28 南京邮电大学 一种智能电网双重采样优化的差分隐私联邦学习方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109684855A (zh) * 2018-12-17 2019-04-26 电子科技大学 一种基于隐私保护技术的联合深度学习训练方法
CN110069770A (zh) * 2019-03-07 2019-07-30 阿里巴巴集团控股有限公司 一种数据处理系统、方法及计算机设备
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
WO2020029589A1 (zh) * 2018-08-10 2020-02-13 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109684855A (zh) * 2018-12-17 2019-04-26 电子科技大学 一种基于隐私保护技术的联合深度学习训练方法
CN110069770A (zh) * 2019-03-07 2019-07-30 阿里巴巴集团控股有限公司 一种数据处理系统、方法及计算机设备
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chunyong Yin等.Location Privacy Protection Based on Differential Privacy Strategy for Big Data in Industrial Internet of Things.IEEE Transactions on Industrial Informatics .2017,第第14卷卷(第第14卷期),第3628 - 3636页. *
刘俊旭等.机器学习的隐私保护研究综述.计算机研究与发展.2020,(第02期),第346-362页. *
刘睿瑄等.机器学习中的隐私攻击与防御.软件学报.2020,第31卷(第03期),第866-892页. *

Also Published As

Publication number Publication date
CN111611610A (zh) 2020-09-01

Similar Documents

Publication Publication Date Title
CN111611610B (zh) 联邦学习信息处理方法、系统、存储介质、程序、终端
Zheng et al. Aggregation service for federated learning: An efficient, secure, and more resilient realization
Liu et al. Privacy-preserving aggregation in federated learning: A survey
Beck et al. {PrivApprox}:{Privacy-Preserving} Stream Analytics
CN111428887B (zh) 一种基于多个计算节点的模型训练控制方法、装置及系统
CN112347500B (zh) 分布式系统的机器学习方法、装置、系统、设备及存储介质
CN112380578A (zh) 一种基于区块链和可信执行环境的边缘计算框架
Sharma et al. PrivateGraph: Privacy-preserving spectral analysis of encrypted graphs in the cloud
Hu et al. Batch image encryption using generated deep features based on stacked autoencoder network
CN111222645A (zh) 基于物联网区块链量子算法人工智能的管理系统及方法
Cao et al. A federated deep learning framework for privacy preservation and communication efficiency
Folkerts et al. REDsec: Running encrypted discretized neural networks in seconds
Danner et al. Robust fully distributed minibatch gradient descent with privacy preservation
CN116882524A (zh) 一种满足参与方的个性化隐私保护需求的联邦学习方法和系统
CN116561787A (zh) 视觉图像分类模型的训练方法、装置及电子设备
Bandaru et al. Block chain enabled auditing with optimal multi‐key homomorphic encryption technique for public cloud computing environment
US20240177018A1 (en) Systems and Methods for Differentially Private Federated Machine Learning for Large Models and a Strong Adversary
CN117349685A (zh) 一种通信数据的聚类方法、系统、终端及介质
Zhang et al. Efficient federated learning framework based on multi-key homomorphic encryption
CN117131942A (zh) 一种具有隐私性保护的图注意力网络推理方法及系统
Gao et al. Secure contact tracing platform from simplest private set intersection cardinality
Akram et al. Privacy Preserving Inference for Deep Neural Networks: Optimizing Homomorphic Encryption for Efficient and Secure Classification
JP7058440B2 (ja) 学習システム及び学習方法
Shen et al. Privacy-preserving multi-party deep learning based on homomorphic proxy re-encryption
Benamira et al. TT-TFHE: a Torus Fully Homomorphic Encryption-Friendly Neural Network Architecture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant