CN115021905A - 一种联邦学习本地模型参数聚合方法 - Google Patents

一种联邦学习本地模型参数聚合方法 Download PDF

Info

Publication number
CN115021905A
CN115021905A CN202210568921.2A CN202210568921A CN115021905A CN 115021905 A CN115021905 A CN 115021905A CN 202210568921 A CN202210568921 A CN 202210568921A CN 115021905 A CN115021905 A CN 115021905A
Authority
CN
China
Prior art keywords
client
central server
mask
model parameters
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210568921.2A
Other languages
English (en)
Other versions
CN115021905B (zh
Inventor
王伟
叶珩
刘吉强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CN202210568921.2A priority Critical patent/CN115021905B/zh
Publication of CN115021905A publication Critical patent/CN115021905A/zh
Application granted granted Critical
Publication of CN115021905B publication Critical patent/CN115021905B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0816Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
    • H04L9/0819Key transport or distribution, i.e. key establishment techniques where one party creates or otherwise obtains a secret value, and securely transfers it to the other(s)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/04Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
    • H04L63/0428Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
    • H04L63/0435Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload wherein the sending and receiving network entities apply symmetric encryption, i.e. same key used for encryption and decryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/20Network architectures or network communication protocols for network security for managing network security; network security policies in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0861Generation of secret information including derivation or calculation of cryptographic keys or passwords

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明提供了一种联邦学习本地模型参数聚合方法。该方法包括:联邦学习的中心服务器初始化全局模型,将最新的全局模型参数进行发布;各个客户端向中心服务器请求用于计算掩码的秘密,各个客户端接收服务器下发的用于计算掩码的秘密;各个客户端使用本地数据在全局模型参数基础上进行本地训练,获得本地模型参数;各个客户端利用秘密计算出掩码,向中心服务器上传利用自己的掩码隐私保护处理后的本地模型参数;中心服务器消除客户端上传的本地模型参数所带掩码,所有客户端的本地模型参数进行聚合,进行全局模型更新。本发明方法在有效保护了联邦学习客户端上传的隐私性的同时,取消了客户端间的交互要求,极大提升了隐私保护的联邦学习效率。

Description

一种联邦学习本地模型参数聚合方法
技术领域
本发明涉及联邦学习参数聚合技术领域,尤其涉及一种联邦学习本地模型参数聚合方法。
背景技术
联邦学习(Federated Learning,FL)是一种机器学习框架,旨在尽可能使用不同分布的数据特性来进一步提高机器学习的模型可用性。联邦学习使用不同设备的本地模型参数代替原始数据来进行模型训练,不仅可以加快模型的训练速度,还可以避免繁重的数据传输任务,降低原始数据的泄漏可能。
每一轮训练,每个参与方上传其本地训练得到的梯度或模型参数,通过中心服务器进行联邦平均获得全局模型,然后下发到各个参与方进行下一轮的训练。这样,客户端的数据不用离开本地,所有模型的训练都在客户端本地进行,以此保护客户端的本地数据隐私。但是,由于基于模型参数的逆向推理攻击的出现,客户端本地模型训练完毕后得到的模型参数也需要经过隐私保护技术的处理才能上传至云端。因此,开发一种高效、安全的联邦学习本地模型参数聚合方法是非常重要且有意义的。
目前,现有技术中的一种隐私保护联邦学习参数聚合方法包括:双层掩码聚合法。这里的双层掩码包括:客户端间通过两两协商获得的对称可消去第一层掩码;客户端自身随机生成的第二层掩码。通过对本地模型参数进行掩码保护,可以有效对实现对联邦学习中隐私推理攻击的防御。
该方法的处理过程包括:
第一步:中心服务器初始化全局模型,分发给各个客户端。
第二步:各客户端协商获得第一层对称掩码,同时,随机生成自身第二层掩码。每个客户端将这两层掩码与其余客户端及中心服务器进行门限为t的m份秘密共享。
第三步:各客户端使用本地数据在全局模型上计算得到最新本地模型参数。
第四步:各客户端上传本地模型参数至中心服务器,上传时,使用掩码对其进行保护。
第五步:中心服务器聚合所有客户端的本地模型参数,消去掩码后求平均以获得最新模型参数。使用最新模型参数对全局模型进行更新后分发至所有客户端以进行新一轮的联邦学习。
上述现有技术中的一种隐私保护联邦学习参数聚合方法的缺点为:客户端间需要两两交互以协商获得第一层对称掩码,交互需求较高。各客户端还需要秘密共享自身两层掩码以支持中心服务器聚合时的掩码消除功能。
发明内容
本发明的实施例提供了一种联邦学习本地模型参数聚合方法,以实现有效对防御联邦学习中隐私推理攻击。
为了实现上述目的,本发明采取了如下技术方案。
一种联邦学习本地模型参数聚合方法,包括:
联邦学习的中心服务器初始化全局模型,将最新的全局模型参数进行发布;
联邦学习的各个客户端向中心服务器请求用于计算掩码的秘密,各个客户端接收服务器下发的用于计算掩码的秘密,并获取中心服务器发布的全局模型参数;
各个客户端使用本地数据,在全局模型参数基础上进行本地训练,获得本地模型参数;
各个客户端利用秘密计算出掩码,向中心服务器上传利用自己的掩码隐私保护处理后的本地模型参数;
中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数,中心服务器将所有客户端的本地模型参数进行聚合,进行全局模型更新。
优选地,所述的联邦学习的中心服务器初始化全局模型,将最新的全局模型参数进行发布,包括:
定义联邦学习系统中有一个中心服务和m个客户端,各个客户端分别标号为1,…,m,w_i表示当前训练轮次客户端i对全局模型训练后的本地模型参数,中心服务器维护适配相关任务的机器学习模型,在每轮训练开始时,联邦学习的中心服务器初始化全局模型,生成和分发新一轮的全局联邦学习模型。
优选地,所述的联邦学习的各个客户端向中心服务器请求用于计算掩码的秘密,各个客户端接收服务器下发的用于计算掩码的秘密,并获取中心服务器发布的全局模型参数,包括:
各个客户端向中心服务器提出掩码需求,中心服务器中的可信模块选取秘密fi与随机数种子ri,中心服务器将秘密fi与随机数种子ri下发给客户端i;
中心服务器随机选取yi<f1,利用中国剩余定理计算C≡y1g1st1+y2g2st2+…+ymgmstm,f1f2...fm为定两两互质的正整数,y1y2...ym为任意整数,F=Πfi,gi=F/fi,gisti≡1 mod fi,中心服务器每次更新最新全局模型参数时,将F,C作为公共参数一并发布。
优选地,所述的各个客户端使用本地数据,在全局模型参数基础上进行本地训练,获得本地模型参数,包括:
各个客户端使用本地数据在联邦学习最新全局模型的公共参数F,C的基础上,计算得出本地模型参数w_i,
Figure BDA0003659406630000031
神经网络模型为O,本地数据为D,
Figure BDA0003659406630000032
为求导,Ot+1=Ot+ηwt,wi为模型更新时的梯度,η为学习率。
优选地,所述的各个客户端利用秘密计算出掩码,向中心服务器上传利用自己的掩码隐私保护处理后的本地模型参数,包括:
各个客户端使用中国剩余定理计算yi=C mod f1,mask1=yigisti,mask2=PRG(ri),各个客户端获得当前轮次自身应使用的掩码mask=mask1+mask2
各个客户端向中心服务器上传的信息为k_i=w_i+mask。
优选地,所述的中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数,中心服务器将所有客户端的本地模型参数进行聚合,进行全局模型更新,包括:
中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数,,中心服务器聚合所有客户端上传的本地模型参数,计算得到∑w_i=∑k_i–C-∑PRG(ri),中心服务器使用获得的∑wi/m来更新全局模型,并分发新一轮的全局联邦学习模型;
当客户端断线时,中心服务器在聚合后统计断线客户端列表,统一向可信模块查询后消除断线客户端掩码。
由上述本发明的实施例提供的技术方案可以看出,本发明实施例的基于中国剩余定理生成掩码的联邦学习本地模型参数聚合方法,在有效保护了联邦学习客户端上传的隐私性的同时,取消了客户端间的交互要求,极大提升了隐私保护的联邦学习效率。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种联邦学习本地模型参数聚合方法的实现原理图;
图2为本发明实施例提供的一种联邦学习本地模型参数聚合方法中的各实体的运行过程与交互关系示意图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
定义1:联邦学习。本发明中,定义联邦学习系统中有m个客户端,分别标号为1,…,m·。w_i表示当前训练轮次客户端i对全局模型训练后的本地模型参数。
定义2:中国剩余定理。给出了一元线性同余方程组有解的判定条件,并用构造法给出了在有解情况下解的具体形式C≡y1g1st1+y2g2st2+…+ymgmstm。其中,f1f2...fm为定两两互质的正整数,y1y2...ym为任意整数。F=Πfi,gi=F/fi,gisti≡1 mod fi
本发明提出了一种基于中国剩余定理生成掩码的联邦学习本地模型参数聚合方法,能够支持联邦学习客户端本地模型参数的安全聚合,同时能够高效处理联邦学习客户端的断线问题。传统方法需要客户端进行一定的交互以协商获得对称掩码,同时,传统方法对客户端断线处理的支持需要依靠客户端间的秘密共享技术,随着客户端的增多,其通讯开销增加,方案普适性降低。本发明所使用的方法是基于中国剩余定理来计算每个客户端的掩码,所有客户端均能通过服务器下发的秘密密钥来动态计算本轮上传时自身需要使用的掩码。此外,客户端的断线处理能力是通过服务器对中国剩余定理的公共参数的动态调整来实现的。
本发明实施例提供的一种联邦学习本地模型参数聚合方法的实现原理如图1所示,该方法中的各实体的运行过程与交互关系示意图如图2所示,该方法包括如下的处理步骤:
步骤S10、联邦学习的中心服务器初始化全局模型,将最新的全局模型参数进行发布;
步骤S20、联邦学习的各个客户端与服务器进行交互,向中心服务器请求用于计算掩码的秘密,各个客户端接收服务器下发的用于计算掩码的秘密,并获取中心服务器发布的全局模型参数;
步骤S30、各个客户端使用本地数据,在全局模型参数基础上进行本地训练,获得本地模型参数;
步骤S40、各个客户端利用秘密计算出掩码,向中心服务器上传利用自己的掩码隐私保护处理后的本地模型参数;
步骤S50、中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数。中心服务器将所有客户端的本地模型参数进行聚合,进行全局模型更新。
具体的,在上述步骤S10中,联邦学习中心服务器维护适配相关任务的机器学习模型。每轮训练开始时,联邦学习的中心服务器初始化全局模型,各个客户端应从中心服务器获取最新全局模型参数,生成和分发新一轮的全局联邦学习模型。
具体的,在上述步骤S20中,各个客户端向中心服务器提出掩码需求,中心服务器中的可信模块选取秘密fi与随机数种子ri,中心服务器将秘密fi与随机数种子ri下发给客户端i。此后,中心服务器随机选取yi<f1并计算C≡y1g1st1+y2g2st2+…+ymgmstm;其中,f1f2…fm为定两两互质的正整数,F=Πfi,gi=F/fi,gisti≡1modfi。中心服务器每次更新最新模型参数时,将F,C作为公共参数一并发布。
具体的,在上述步骤S30中,各个客户端使用本地数据在联邦学习最新全局模型上计算得出本地模型参数w_i。
Figure BDA0003659406630000061
神经网络模型为O,本地数据为D,
Figure BDA0003659406630000062
为求导,Oi+1=Ot+ηwt,wi为模型更新时的梯度,η为学习率。
具体的,在上述步骤S40中,联邦学习客户端在上传本地模型参数时,需要对其进行一定程度的隐私保护处理。传统的联邦学习方法使用双重掩码的隐私保护处理方式来保证上传数据的隐私性。本发明使用中国剩余定理计算出的掩码代替客户端间两两协商获得的对称掩码,以取消联邦学习客户端间的交互要求。
各个客户端使用中国剩余定理计算yi=Cmodf1,mask1=yigisti,mask2=PRG(ri),各个客户端获得当前轮次自身应使用的掩码mask=mask1+mask2
各个客户端向中心服务器上传的信息为k_i=w_i+mask。
具体的,在上述步骤S50中,中心服务器聚合所有客户端上传的本地模型参数,计算得到∑w_i=∑k_i–C-∑PRG(ri)。
这里,ri由中心服务器上可信模块分发,当客户端断线时,中心服务器可以在聚合后统计断线客户端列表,统一向可信模块查询后消除断线客户端掩码。
中心服务器使用获得的∑wi/m来更新全局模型。
综上所述,本发明实施例的联邦学习本地模型参数聚合方法取消了客户端间交互要求,支持客户端更为高效的动态掩码生成,有效实现对联邦学习中隐私推理攻击的防御,支持客户端动态加入与退出。
本发明实施例的联邦学习本地模型参数聚合方法能够支持联邦学习客户端的本地模型参数的安全聚合,同时能够高效处理联邦学习客户端的断线问题。该方法是基于中国剩余定理来计算每个客户端的掩码,所有客户端均能通过服务器下发的秘密来动态计算本轮上传时自身需要使用的掩码。此外,客户端的断线处理能力是通过服务器对中国剩余定理的公共参数的动态调整来实现的。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (6)

1.一种联邦学习本地模型参数聚合方法,其特征在于,包括:
联邦学习的中心服务器初始化全局模型,将最新的全局模型参数进行发布;
联邦学习的各个客户端向中心服务器请求用于计算掩码的秘密,各个客户端接收服务器下发的用于计算掩码的秘密,并获取中心服务器发布的全局模型参数;
各个客户端使用本地数据,在全局模型参数基础上进行本地训练,获得本地模型参数;
各个客户端利用秘密计算出掩码,向中心服务器上传利用自己的掩码隐私保护处理后的本地模型参数;
中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数,中心服务器将所有客户端的本地模型参数进行聚合,进行全局模型更新。
2.根据权利要求1所述的方法,其特征在于,所述的联邦学习的中心服务器初始化全局模型,将最新的全局模型参数进行发布,包括:
定义联邦学习系统中有一个中心服务和m个客户端,各个客户端分别标号为1,…,m,w_i表示当前训练轮次客户端i对全局模型训练后的本地模型参数,中心服务器维护适配相关任务的机器学习模型,在每轮训练开始时,联邦学习的中心服务器初始化全局模型,生成和分发新一轮的全局联邦学习模型。
3.根据权利要求2所述的方法,其特征在于,所述的联邦学习的各个客户端向中心服务器请求用于计算掩码的秘密,各个客户端接收服务器下发的用于计算掩码的秘密,并获取中心服务器发布的全局模型参数,包括:
各个客户端向中心服务器提出掩码需求,中心服务器中的可信模块选取秘密fi与随机数种子ri,中心服务器将秘密fi与随机数种子ri下发给客户端i;
中心服务器随机选取yi<f1,利用中国剩余定理计算C≡y1g1st1+y2g2st2+…+ymgmstm,f1f2…fm为定两两互质的正整数,y1y2...ym为任意整数,F=Πfi,gi=F/fi,gisti≡1modfi,中心服务器每次更新最新全局模型参数时,将F,C作为公共参数一并发布。
4.根据权利要求3所述的方法,其特征在于,所述的各个客户端使用本地数据,在全局模型参数基础上进行本地训练,获得本地模型参数,包括:
各个客户端使用本地数据在联邦学习最新全局模型的公共参数F,C的基础上,计算得出本地模型参数w_i,
Figure FDA0003659406620000021
神经网络模型为O,本地数据为D,
Figure FDA0003659406620000022
为求导,Ot+1=Ot+ηwt,wi为模型更新时的梯度,η为学习率。
5.根据权利要求4所述的方法,其特征在于,所述的各个客户端利用秘密计算出掩码,向中心服务器上传利用自己的掩码隐私保护处理后的本地模型参数,包括:
各个客户端使用中国剩余定理计算yi=Cmodf1,mask1=yigisti,mask2=PRG(ri),各个客户端获得当前轮次自身应使用的掩码mask=mask1+mask2
各个客户端向中心服务器上传的信息为k_i=w_i+mask。
6.根据权利要求5所述的方法,其特征在于,所述的中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数,中心服务器将所有客户端的本地模型参数进行聚合,进行全局模型更新,包括:
中心服务器消除客户端上传的本地模型参数所带掩码,获取客户端的本地模型参数,,中心服务器聚合所有客户端上传的本地模型参数,计算得到∑w_i=∑k_i–C-∑PRG(ri),中心服务器使用获得的∑wi/m来更新全局模型,并分发新一轮的全局联邦学习模型;
当客户端断线时,中心服务器在聚合后统计断线客户端列表,统一向可信模块查询后消除断线客户端掩码。
CN202210568921.2A 2022-05-24 2022-05-24 一种联邦学习本地模型更新参数聚合方法 Active CN115021905B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210568921.2A CN115021905B (zh) 2022-05-24 2022-05-24 一种联邦学习本地模型更新参数聚合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210568921.2A CN115021905B (zh) 2022-05-24 2022-05-24 一种联邦学习本地模型更新参数聚合方法

Publications (2)

Publication Number Publication Date
CN115021905A true CN115021905A (zh) 2022-09-06
CN115021905B CN115021905B (zh) 2023-01-10

Family

ID=83068354

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210568921.2A Active CN115021905B (zh) 2022-05-24 2022-05-24 一种联邦学习本地模型更新参数聚合方法

Country Status (1)

Country Link
CN (1) CN115021905B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115907029A (zh) * 2022-11-08 2023-04-04 北京交通大学 面向联邦学习投毒攻击的防御方法及系统
WO2024093426A1 (zh) * 2022-11-03 2024-05-10 支付宝(杭州)信息技术有限公司 基于联邦机器学习的模型训练方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287377A (zh) * 2020-11-25 2021-01-29 南京星环智能科技有限公司 基于联邦学习的模型训练方法、计算机设备及存储介质
CN114338045A (zh) * 2022-01-14 2022-04-12 中国人民解放军战略支援部队信息工程大学 基于区块链和联邦学习的情报数据可验证性安全共享方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287377A (zh) * 2020-11-25 2021-01-29 南京星环智能科技有限公司 基于联邦学习的模型训练方法、计算机设备及存储介质
CN114338045A (zh) * 2022-01-14 2022-04-12 中国人民解放军战略支援部队信息工程大学 基于区块链和联邦学习的情报数据可验证性安全共享方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024093426A1 (zh) * 2022-11-03 2024-05-10 支付宝(杭州)信息技术有限公司 基于联邦机器学习的模型训练方法和装置
CN115907029A (zh) * 2022-11-08 2023-04-04 北京交通大学 面向联邦学习投毒攻击的防御方法及系统

Also Published As

Publication number Publication date
CN115021905B (zh) 2023-01-10

Similar Documents

Publication Publication Date Title
CN115021905B (zh) 一种联邦学习本地模型更新参数聚合方法
CN110572253B (zh) 一种联邦学习训练数据隐私性增强方法及系统
US20210143987A1 (en) Privacy-preserving federated learning
Conway-Jones et al. Demonstration of federated learning in a resource-constrained networked environment
Zhao et al. A mathematical framework for analyzing adaptive incentive protocols in P2P networks
GB2606867A (en) Secure federation of distributed stochastic gradient descent
Tian et al. Robust and privacy-preserving decentralized deep federated learning training: Focusing on digital healthcare applications
CN115310121B (zh) 车联网中基于MePC-F模型的实时强化联邦学习数据隐私安全方法
CN112818369B (zh) 一种联合建模方法及装置
CN102394899A (zh) 提高文件下载速度的点播系统及方法
CN114418134A (zh) 一种基于区块链的联邦学习方法和系统
CN112929223A (zh) 一种基于联邦学习方式训练神经网络模型的方法及系统
CN115883053A (zh) 基于联邦机器学习的模型训练方法和装置
CN104917604B (zh) 一种密钥分配方法
CN114760023A (zh) 基于联邦学习的模型训练方法、装置及存储介质
CN103685497B (zh) 一种在线存储共享方法和系统
CN103916328B (zh) 内容分发网络及对等网络的流量控制方法及系统
CN106790689A (zh) 基于对等网络的节点推荐方法、服务器和客户端
CN113887746A (zh) 基于联合学习的降低通信压力的方法及装置
CN105530321B (zh) 浏览器客户端访问设备的方法、客户端、服务器及系统
JP2004341152A (ja) 秘密分散方法、秘密分散システム、及び分散演算装置
Behnke Increasing the supported number of participants in distributed virtual environments
Kim et al. Privacy Enhanced Federated Learning Utilizing Differential Privacy and Interplanetary File System
Budhkar et al. Two-tier peer selection strategy to minimize delay in P2P live streaming systems
CN117640253B (zh) 基于同态加密的联邦学习隐私保护方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant