WO2023138152A1 - 一种基于区块链的联邦学习方法和系统 - Google Patents

一种基于区块链的联邦学习方法和系统 Download PDF

Info

Publication number
WO2023138152A1
WO2023138152A1 PCT/CN2022/128938 CN2022128938W WO2023138152A1 WO 2023138152 A1 WO2023138152 A1 WO 2023138152A1 CN 2022128938 W CN2022128938 W CN 2022128938W WO 2023138152 A1 WO2023138152 A1 WO 2023138152A1
Authority
WO
WIPO (PCT)
Prior art keywords
gradient
node
consensus
model
consensus nodes
Prior art date
Application number
PCT/CN2022/128938
Other languages
English (en)
French (fr)
Inventor
张暐
马利
Original Assignee
广州广电运通金融电子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 广州广电运通金融电子股份有限公司 filed Critical 广州广电运通金融电子股份有限公司
Publication of WO2023138152A1 publication Critical patent/WO2023138152A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services

Definitions

  • the central server sends the initial model to each participant, and the participants use their own datasets to train the model and send the weight updates in the model to the central server.
  • the central server aggregates the models received from the participants for updates and resends the aggregated model updates to the participants. The whole process is repeated until the model converges, reaching a preset maximum number of iterations or a maximum training time.
  • Fig. 2 is a flow chart of an embodiment of a blockchain-based federated learning method provided by the present disclosure
  • the federated model is a parameter model optimized based on gradient information or Hessian matrix information.
  • the bank nodes train the federation model according to the sample data on the nodes to obtain the corresponding first gradient value.
  • the gradient calculation of each bank is independent and not affected by each other;
  • the coordinating terminal After the coordinating terminal aggregates the gradient, it encrypts the gradient information according to the public key of each bank, and sends it to each bank to update the parameters of the model on the node.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及智能网络模型,尤其涉及一种基于区块链的联邦学习方法和系统。一种基于区块链的联邦学习方法,包括:多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。相比于传统的串行的联邦学习方法,则可以显著的节约时间,再者,各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,可以提升训练过程中的安全性。

Description

一种基于区块链的联邦学习方法和系统
本公开要求于2022年01月20日提交中国专利局、申请号为202210068502.2、发明名称为“一种基于区块链的联邦学习方法和系统”的中国专利申请的优先权,其全部内容通过引用结合在本公开中。
技术领域
本公开涉及智能网络模型,尤其涉及一种基于区块链的联邦学习方法和系统。
背景技术
在传统的横向联邦模式下,中央服务器将初始模型发送给每个参与者,参与者使用自己的数据集训练模型,并将模型中的权重更新发送给中央服务器。中央服务器聚合从参与者接收的模型进行更新,并将聚合的模型更新再次发送给参与者。整个过程将重复进行,直到模型收敛,达到预设最大迭代次数或最长训练时间。
在区块链系统中,所有节点都平等地参与数据记录,上链数据对所有节点都是公开透明的,具有可追踪的特点。此外,分布式的存储机制将数据进行多次备份,可以避免因单点故障造成的数据丢失,从而保证数据的安全性。由于联邦学习具有分布式、本地计算等特征,与区块链所具有的去中心化、分布式计算等特征有诸多相似之处,与区块链相融合是一大技术趋势。在区块链上的联邦场景中,学习方法较少,公开号为CN 112801307 A的专利文献公开了一种区块链上联邦学习方法,主要方案为“第一个共识节点对联邦模型进行训练,获取梯度值,并加密后发送至区块链系统;从第二个共识节点开始,共识节点按预设顺序获取前一个共识节点的梯度值并进行解密,将解密后的梯度值与本节点对联邦模型进行训练获取的梯度值相加后再次进行加密后发送至区块链,直至最后一个共识节点发送最新加密后的梯度值 至区块链;第一个共识节点将最后一个共识节点发送至区块链的加密后的梯度值进行解密,获取最终梯度值,并发送至所述区块链”,该方案存在以下不足:
1)违反平等性原则。区块链上的联合建模中,起始的共识节点掌握了全部节点的梯度聚合信息,不符合区块链和联邦学习的平等性原则,少数节点掌握了大量的信息。
2)效率低下。在共识节点上重复串行地加密、解密梯度信息,一个节点上的梯度计算依赖于上一个节点的计算,没有充分利用区块链互联互通的特性。
3)安全性低下。初始共识节点挑选是随机的,如果挑选不当,比如是不诚实的参与者,那么可能会导致模型训练失败或者信息泄漏。
这些问题会在实际中带来严重的应用限制。
发明内容
(一)要解决的技术问题
本公开要解决的技术问题是:传统的联邦学习方法效率较低、安全性较低。
(二)技术方案
为了解决上述技术问题,本公开采取了以下技术方案:
一方面,本公开提供一种基于区块链的联邦学习方法,包括:
多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;
判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
优选的,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
优选的,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
优选的,在进行训练前,将联邦学习的各参与方注册成为区块链系统上的节点;所述节点包括协调端和至少一个共识节点;其中,所述协调端建立包含联邦模型的初始信息的智能合约;所有所述共识节点从所述协调端获取联邦模型的所述初始信息。
优选的,在终止训练后,还包括:
各个共识节点对各自的联邦模型就行参数微调,得到对应的个性化联邦模型。
优选的,所述联邦模型为基于梯度信息或海森矩阵信息优化的参数模型。
优选的,还包括:
迁移学习:以协调端的联邦模型的模型参数为源域,以共识节点的本地模型的模型参数为目标域进行迁移学习,其中在用于迁移学习的目标函数中设计源域与目标域分布的差异。
另一方面,本公开提供一种基于区块链的联邦学习系统,包括:
多个共识节点,用于根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
协调端,用于将接收到的多个所述第一梯度值进行聚合处理,得 到第二梯度值并分发到各个所述共识节点;以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新,并判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
优选的,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值
优选的,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
(三)有益效果
相较于现有技术,本公开提供的一种基于区块链的联邦学习方法和系统,具有以下有益效果:
使用本公开提供的基于区块链的联邦学习方法,各个共识节点在训练后,并行的将第一梯度值发送到协调端,协调端将得到第一梯度值进行聚合处理,得到第二梯度值进行分发,进而各个节点再使用第二梯度值进行联邦模型的优化,相比于传统的串行的联邦学习方法,则可以显著的节约时间,再者,各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,可以提升训练过程中的安全性。
附图说明
图1是本公开提供的基于区块链的联邦学习方法的流程图;
图2是本公开提供的基于区块链的联邦学习方法一种实施例的流 程图;
图3是本公开提供的基于区块链的联邦学习系统的结构框图;
图4是本公开提供的基于区块链的联邦学习系统应用联邦学习方法的实施示意图。
具体实施方式
为使本公开的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本公开进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本公开,并不用于限定本公开。
本领域技术人员应当理解,前面的一般描述和下面的详细描述是本公开的示例性和说明性的具体实施例,不意图限制本公开。
本文中术语“包括”,“包含”或其任何其他变体旨在覆盖非排他性包括,使得包括步骤列表的过程或方法不仅包括那些步骤,而且可以包括未明确列出或此类过程或方法固有的其他步骤。同样,在没有更多限制的情况下,以“包含...一个”开头的一个或多个设备或子系统,元素或结构或组件也不会没有更多限制,排除存在其他设备或其他子系统或其他元素或其他结构或其他组件或其他设备或其他子系统或其他元素或其他结构或其他组件。在整个说明书中,短语“在一个实施例中”,“在另一个实施例中”的出现和类似的语言可以但不一定都指相同的实施例。
除非另有定义,否则本文中使用的所有技术和科学术语具有与本公开所属领域的普通技术人员通常所理解的相同含义。
请参阅图1-图4,本公开提供一种基于区块链的联邦学习方法,包括:
多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;具体的,所述共识节点为各个参阅训练联邦模型参与端或参与设备,本领域的技术人员可以根据实际需求对各个共识节点上的联邦模型进行训练,最终得到所述第一梯度值。优选的,多个共识节点上的联邦模型的初始参数为协调端提供。
进一步的,作为优选方案,本实施例中,共识节点中的联邦模型的初始信息由协调端提供。具体的,将联邦学习的各个各参与方分别注册成为所述区块链系统上的节点,包括协调端节点和不少于一个共识节点;所述协调端节点建立智能合约;所述智能合约中包含联邦模型的初始信息;所有共识节点获取协调端节点中联邦模型的初始信息;所述初始信息包含用于训练所述联邦模型的特征参数。
进一步的,作为优选方案,本实施例中,所述联邦模型为基于梯度信息或海森矩阵信息优化的参数模型。
所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;具体的,每个所述共识节点将自己拥有的第一梯度值再发送给协调端进行梯度的聚合,即进行加和的操作,则使协调端得到的第二梯度值具有多个所述共识节点的梯度信息,因此可以保证联邦学习的效果。
判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。具体的,所述终止条件为训练次数达到预定次数或联邦模型达到预定运行效果。
使用本公开提供的基于区块链的联邦学习方法,各个共识节点在训练后,并行的将第一梯度值发送到协调端,协调端将得到第一梯度值进行聚合处理,得到第二梯度值进行分发,进而各个节点再使用第二梯度值进行联邦模型的优化,相比于传统的串行的联邦学习方法,则可以显著的节约时间,再者,各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,可以提升训练过程中的安全性。
进一步的,作为优选方案,本实施例中,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于 共识节点的数量;具体的,每个共识节点的第一梯度值均对外进行拆分共享,拆分的份数可以是共识节点的数量,也可以是小于共识节点的数量,即可以随机选择m个共识节点(m<n)来进行秘密分享,例如图4中所示,节点1-4,均分别向其他节点发送对应的梯度子值;优选的,在每次进行拆分共享时,每个共识节点中,所述预定个数的值时相同的;进一步的,每个共识节点的预定个数可以灵活设定,即各个共识节点之间预定个数可以不同。
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。即,多个所述共识节点会将得到的新的第一梯度值发送到协调端中进行处理。各个所述共识节点的通过对梯度值切分再聚合的方式保证了梯度计算结果一致。具体的,各个共识节点设定为只要接收到梯度子值就进行数据合成操作,得到所述第二梯度值,这样,无论自身的预定个数是多少,都可以生成最终的、准确的第二梯度值。所述合成操作优选为对所述梯度子值进行加法处理,具体的处理过程,本领域的技术人员可以根据实际需求设定。
在本实施例中,首先进行第一梯度值的拆分,并分别发送到其他的预定个数的共识节点中,即相互之间先进行一轮梯度值共享,首先可以显著提高联邦模型的训练效率,缩短训练时间,如果存在n个共识节点,每次拆分的预定个数也是n,则每次训练一共可以节约n-1*T的时间(T为加解密的单位时间)。
进一步的,作为优选方案,本实施例中,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
进一步的,作为优选方案,本实施例中,所述同态加密算法为Paillier算法、具有加法同态性质的非对称算法中的一种。同态加密算法不局限于Paillier算法,所有具有加法同态性质的非对称算法都可以作为节点上梯度传输的密码学算法。
进一步的,作为优选方案,本实施例中,在进行训练前,将联邦学习的各参与方注册成为区块链系统上的节点;所述节点包括协调端和至少一个共识节点;其中,所述协调端建立包含联邦模型的初始信息的智能合约;所有所述共识节点从所述协调端获取联邦模型的所述初始信息。即,所述共识节点中的联邦模型的初始信息由所述协调端提供,保证联邦模型初始信息的共同性。
以下以银行联盟链上的评分卡模型的联邦学习为例,做具体说明,实施流程如下:
1)n个银行形成的联盟链上,银行节点根据节点上的样本数据对联邦模型进行训练,获取对应的第一梯度值,每一个银行的梯度计算都是独立的,不受彼此的影响;
2)每个银行都将自己的第一梯度值随机切分成n份,得到:
g=g 1+g 2+……+g m,m≤n;其中,g为第一梯度值;g i(i=1、2、……、m)为梯度子值。
3)每个银行自己保留其中一份梯度子值,其余份的梯度子值分别用其余参与方银行的公钥加密,发送给对应的银行,相应的,每个银行都会接收到用自己公钥加密的其他参与方银行的梯度子值,这里使用同态加密算法,将传来的梯度值全部加起来以后,再用自己的私钥进行解密:
g new=Dec(Enc(g 1)+Enc(g 2)+……+Enc(g j));
其中,g new为新的第一梯度值;g i(i=1、2、……、j)为接收到的梯度子值;Dec表示解密,Enc表示加密。
4)每一个银行现在拥有的第一梯度值,是所有参与方银行所贡献。每个银行将自己拥有的第一梯度值再发送给协调协调端进行梯度的聚 合得到第二梯度值,因为对梯度采取的是加和的操作,所以各个银行的梯度切分再聚合的方式保证了梯度计算结果一致。
5)协调端聚合梯度后,将梯度信息按照每个银行的公钥加密,发送给各个银行进行节点上模型的参数更新。
重复步骤1)到步骤5),直到满足终止条件。
在一些实施例中,具体实施中不局限于银行的评分卡模型联邦学习任务,还包括具有区块链性质的联邦学习任务,具体的应用过程相同,不做赘述。
进一步的,作为优选方案,本实施例中,在终止训练后,还包括:
各个共识节点对各自的联邦模型就行参数微调,得到对应的个性化联邦模型。具体的,共识节点的模型参数上传至协调端,由协调端对所接收的来自各个共识点的模型参数进行聚合,迭代次数达到预设条件后,将训练后的模型参数下发至各个共识节点,各共识节点上对模型参数进行微调,得到共识节点上的模型,经过微调后,各个共识节点上的模型可能均不一样,即可得到能够适应本地数据的联邦模型。
进一步的,作为优选方案,本实施例中,还包括:
迁移学习:以协调端的联邦模型的模型参数为源域,以共识节点的本地模型的模型参数为目标域进行迁移学习,其中在用于迁移学习的目标函数中设计源域与目标域分布的差异。保证各个共识节点得到的联邦模型均以协调端的联邦模型为基础得到,在保证自身个性化的同时,同意运行效果。
还可包括混合联邦中的横向学习部分。
请参阅图3-图4,本公开还提供一种基于区块链的联邦学习系统,包括:
多个共识节点,用于根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
协调端,用于将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点;以使各个所述共识节点基于 所述第二梯度值对所述联邦模型进行参数更新,并判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
进一步的,作为优选方案,本实施例中,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
进一步的,作为优选方案,本实施例中,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
进一步的,作为优选方案,本实施例中,所述同态加密算法为Paillier算法、具有加法同态性质的非对称算法中的一种。
可以理解的是,对本领域普通技术人员来说,可以根据本公开的技术方案及其发明构思加以等同替换或改变,而所有这些改变或替换都应属于本公开所附的权利要求的保护范围。
工业实用性
本公开提供的基于区块链的联邦学习方法方法,各个共识节点在训练后,并行的将第一梯度值发送到协调端,协调端对第一梯度值进行聚合处理,得到第二梯度值进行分发,进而各个节点再使用第二梯度值进行联邦模型的优化,由于各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,因此不仅可以提升训练过程中的安全性, 还可以显著的节约时间,具有很强的工业实用性。

Claims (10)

  1. 一种基于区块链的联邦学习方法,其特征在于,包括:
    多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
    所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;
    判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
  2. 根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
    每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
    每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
  3. 根据权利要求2所述的基于区块链的联邦学习方法,其特征在于,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
    各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
  4. 根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,在进行训练前,将联邦学习的各参与方注册成为区块链系统上的节点; 所述节点包括协调端和至少一个共识节点;其中,所述协调端建立包含联邦模型的初始信息的智能合约;所有所述共识节点从所述协调端获取联邦模型的所述初始信息。
  5. 根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,在终止训练后,还包括:
    各个共识节点对各自的联邦模型就行参数微调,得到对应的个性化联邦模型。
  6. 根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,所述联邦模型为基于梯度信息或海森矩阵信息优化的参数模型。
  7. 根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,还包括:
    迁移学习:以协调端的联邦模型的模型参数为源域,以共识节点的本地模型的模型参数为目标域进行迁移学习,其中在用于迁移学习的目标函数中设计源域与目标域分布的差异。
  8. 一种基于区块链的联邦学习系统,其特征在于,包括:
    多个共识节点,用于根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
    协调端,用于将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点;以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新,并判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
  9. 根据权利要求8所述的基于区块链的联邦学习系统,其特征在于,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
    每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
    每个所述共识节点将保留的以及接收到的梯度子值进行合成操作, 生成第三梯度值作为新的第一梯度值。
  10. 根据权利要求9所述的基于区块链的联邦学习系统,其特征在于,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
    各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
PCT/CN2022/128938 2022-01-20 2022-11-01 一种基于区块链的联邦学习方法和系统 WO2023138152A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210068502.2A CN114418134A (zh) 2022-01-20 2022-01-20 一种基于区块链的联邦学习方法和系统
CN202210068502.2 2022-01-20

Publications (1)

Publication Number Publication Date
WO2023138152A1 true WO2023138152A1 (zh) 2023-07-27

Family

ID=81274444

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/128938 WO2023138152A1 (zh) 2022-01-20 2022-11-01 一种基于区块链的联邦学习方法和系统

Country Status (2)

Country Link
CN (1) CN114418134A (zh)
WO (1) WO2023138152A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117371025A (zh) * 2023-09-18 2024-01-09 泉城省实验室 一种去中心化机器学习模型训练方法及系统
CN117472866A (zh) * 2023-12-27 2024-01-30 齐鲁工业大学(山东省科学院) 一种区块链监管与激励下的联邦学习数据共享方法
CN117521151A (zh) * 2024-01-05 2024-02-06 齐鲁工业大学(山东省科学院) 一种基于区块链的去中心化联邦学习数据共享方法
CN117708887A (zh) * 2024-02-05 2024-03-15 智慧眼科技股份有限公司 一种基于纵向逻辑回归的联邦学习模型获取方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114418134A (zh) * 2022-01-20 2022-04-29 广州广电运通金融电子股份有限公司 一种基于区块链的联邦学习方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200202243A1 (en) * 2019-03-05 2020-06-25 Allegro Artificial Intelligence Ltd Balanced federated learning
CN111552986A (zh) * 2020-07-10 2020-08-18 鹏城实验室 基于区块链的联邦建模方法、装置、设备及存储介质
CN111970304A (zh) * 2020-08-28 2020-11-20 光大科技有限公司 消息处理方法和装置
CN112232527A (zh) * 2020-09-21 2021-01-15 北京邮电大学 安全的分布式联邦深度学习方法
CN112860800A (zh) * 2021-02-22 2021-05-28 深圳市星网储区块链有限公司 基于区块链和联邦学习的可信网络应用方法和装置
CN114418134A (zh) * 2022-01-20 2022-04-29 广州广电运通金融电子股份有限公司 一种基于区块链的联邦学习方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200202243A1 (en) * 2019-03-05 2020-06-25 Allegro Artificial Intelligence Ltd Balanced federated learning
CN111552986A (zh) * 2020-07-10 2020-08-18 鹏城实验室 基于区块链的联邦建模方法、装置、设备及存储介质
CN111970304A (zh) * 2020-08-28 2020-11-20 光大科技有限公司 消息处理方法和装置
CN112232527A (zh) * 2020-09-21 2021-01-15 北京邮电大学 安全的分布式联邦深度学习方法
CN112860800A (zh) * 2021-02-22 2021-05-28 深圳市星网储区块链有限公司 基于区块链和联邦学习的可信网络应用方法和装置
CN114418134A (zh) * 2022-01-20 2022-04-29 广州广电运通金融电子股份有限公司 一种基于区块链的联邦学习方法和系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117371025A (zh) * 2023-09-18 2024-01-09 泉城省实验室 一种去中心化机器学习模型训练方法及系统
CN117371025B (zh) * 2023-09-18 2024-04-16 泉城省实验室 一种去中心化机器学习模型训练方法及系统
CN117472866A (zh) * 2023-12-27 2024-01-30 齐鲁工业大学(山东省科学院) 一种区块链监管与激励下的联邦学习数据共享方法
CN117472866B (zh) * 2023-12-27 2024-03-19 齐鲁工业大学(山东省科学院) 一种区块链监管与激励下的联邦学习数据共享方法
CN117521151A (zh) * 2024-01-05 2024-02-06 齐鲁工业大学(山东省科学院) 一种基于区块链的去中心化联邦学习数据共享方法
CN117521151B (zh) * 2024-01-05 2024-04-09 齐鲁工业大学(山东省科学院) 一种基于区块链的去中心化联邦学习数据共享方法
CN117708887A (zh) * 2024-02-05 2024-03-15 智慧眼科技股份有限公司 一种基于纵向逻辑回归的联邦学习模型获取方法及系统
CN117708887B (zh) * 2024-02-05 2024-04-30 智慧眼科技股份有限公司 一种基于纵向逻辑回归的联邦学习模型获取方法及系统

Also Published As

Publication number Publication date
CN114418134A (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
WO2023138152A1 (zh) 一种基于区块链的联邦学习方法和系统
CN110572253B (zh) 一种联邦学习训练数据隐私性增强方法及系统
WO2021022707A1 (zh) 一种混合联邦学习方法及架构
CN111368319B (zh) 一种联邦学习环境下基于区块链的数据安全访问方法
Zhang Key management scheme for secure channel establishment in fog computing
CN110599163B (zh) 一种面向区块链交易监管的交易记录外包方法
CN113824728A (zh) 一种基于数据加密的网络通信方法及系统
CN112990276A (zh) 基于自组织集群的联邦学习方法、装置、设备及存储介质
CN112329072A (zh) 一种基于安全多方计算的模型联合训练方法
CN112288094A (zh) 联邦网络表示学习方法及系统
CN112818369B (zh) 一种联合建模方法及装置
CN105915333B (zh) 一种基于属性加密的高效密钥分发方法
CN115765965A (zh) 基于联邦学习和双联盟区块链的医疗数据安全共享方法
CN111581648B (zh) 在不规则用户中保留隐私的联邦学习的方法
CN116957064A (zh) 基于知识蒸馏的联邦学习隐私保护模型训练方法及系统
CN115630713A (zh) 样本标识符不相同下的纵向联邦学习方法、设备和介质
CN106888213A (zh) 云密文访问控制方法及系统
CN114491616A (zh) 基于区块链和同态加密的联邦学习方法和应用
CN116865938A (zh) 基于秘密共享和同态加密的多服务器联邦学习方法
CN111769945B (zh) 基于区块链的拍卖处理方法和区块链节点
CN117034287A (zh) 基于隐私计算互联互通技术的多方联合建模安全增强方法
CN114723068A (zh) 联邦模型训练方法及装置
TWI782701B (zh) 區塊鏈錢包的非互動式批核系統及其方法
CN115758402A (zh) 结合同态加密和模型水印的人工智能模型联邦学习方法
CN116011014A (zh) 一种隐私计算方法和隐私计算系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22921576

Country of ref document: EP

Kind code of ref document: A1