CN114418134A - 一种基于区块链的联邦学习方法和系统 - Google Patents
一种基于区块链的联邦学习方法和系统 Download PDFInfo
- Publication number
- CN114418134A CN114418134A CN202210068502.2A CN202210068502A CN114418134A CN 114418134 A CN114418134 A CN 114418134A CN 202210068502 A CN202210068502 A CN 202210068502A CN 114418134 A CN114418134 A CN 114418134A
- Authority
- CN
- China
- Prior art keywords
- gradient
- values
- nodes
- consensus
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000004220 aggregation Methods 0.000 claims abstract description 13
- 230000002776 aggregation Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000013526 transfer learning Methods 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及智能网络模型,尤其涉及一种基于区块链的联邦学习方法和系统。一种基于区块链的联邦学习方法,包括:多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。相比于传统的串行的联邦学习方法,则可以显著的节约时间,再者,各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,可以提升训练过程中的安全性。
Description
技术领域
本发明涉及智能网络模型,尤其涉及一种基于区块链的联邦学习方法和系统。
背景技术
在传统的横向联邦模式下,中央服务器将初始模型发送给每个参与者,参与者使用自己的数据集训练模型,并将模型中的权重更新发送给中央服务器。中央服务器聚合从参与者接收的模型进行更新,并将聚合的模型更新再次发送给参与者。整个过程将重复进行,直到模型收敛,达到预设最大迭代次数或最长训练时间。
在区块链系统中,所有节点都平等地参与数据记录,上链数据对所有节点都是公开透明的,具有可追踪的特点。此外,分布式的存储机制将数据进行多次备份,可以避免因单点故障造成的数据丢失,从而保证数据的安全性。由于联邦学习具有分布式、本地计算等特征,与区块链所具有的去中心化、分布式计算等特征有诸多相似之处,与区块链相融合是一大技术趋势。在区块链上的联邦场景中,学习方法较少,公开好为CN 112801307 A的专利文献公开了一种区块链上联邦学习方法,主要方案为“第一个共识节点对联邦模型进行训练,获取梯度值,并加密后发送至区块链系统;从第二个共识节点开始,共识节点按预设顺序获取前一个共识节点的梯度值并进行解密,将解密后的梯度值与本节点对联邦模型进行训练获取的梯度值相加后再次进行加密后发送至区块链,直至最后一个共识节点发送最新加密后的梯度值至区块链;第一个共识节点将最后一个共识节点发送至区块链的加密后的梯度值进行解密,获取最终梯度值,并发送至所述区块链”,该方案存在以下不足:
1)违反平等性原则。区块链上的联合建模中,起始的共识节点掌握了全部节点的梯度聚合信息,不符合区块链和联邦学习的平等性原则,少数节点掌握了大量的信息。
2)效率低下。在共识节点上重复串行的加密、解密梯度信息,一个节点上的梯度计算依赖于上一个节点的计算,没有充分利用区块链互联互通的特性。
3)安全性低下。初始共识节点挑选是随机的,如果挑选不当,比如是不诚实的参与者,那么可能会导致模型训练失败或者信息泄漏。
这些问题会在实际中带来严重的应用限制。
发明内容
鉴于上述现有技术的不足之处,本发明的目的在于提供一种基于区块链的联邦学习方法和系统,用于解决背景技术中提到的技术问题。
为了达到上述目的,本发明采取了以下技术方案:
一方面,本发明提供一种基于区块链的联邦学习方法,包括:
多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;
判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
优选的,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
优选的,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
优选的,在进行训练前,将联邦学习的各参与方注册成为区块链系统上的节点;所述节点包括协调端和至少一个共识节点;其中,所述协调端建立包含联邦模型的初始信息的智能合约;所有所述共识节点从所述协调端获取联邦模型的所述初始信息。
优选的,在终止训练后,还包括:
各个共识节点对各自的联邦模型就行参数微调,得到对应的个性化联邦模型。
优选的,所述联邦模型为基于梯度信息或海森矩阵信息优化的参数模型。
优选的,还包括:
迁移学习:以协调端的联邦模型的模型参数为源域,以共识节点的本地模型的模型参数为目标域进行迁移学习,其中在用于迁移学习的目标函数中设计源域与目标域分布的差异。
另一方面,本发明提供一种基于区块链的联邦学习系统,包括:
多个共识节点,用于根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
协调端,用于将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点;以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新,并判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
优选的,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值
优选的,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
相较于现有技术,本发明提供的一种基于区块链的联邦学习方法和系统,具有以下有益效果:
使用本发明提供的基于区块链的联邦学习方法,各个共识节点在训练后,并行的将第一梯度值发送到协调端,协调端将得到第一梯度值进行聚合处理,得到第二梯度值进行分发,进而各个节点再使用第二梯度值进行联邦模型的优化,相比于传统的串行的联邦学习方法,则可以显著的节约时间,再者,各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,可以提升训练过程中的安全性。
附图说明
图1是本发明提供的基于区块链的联邦学习方法的流程图。
图2是本发明提供的基于区块链的联邦学习方法一种实施例的流程图。
图3是本发明提供的基于区块链的联邦学习系统的结构框图。
图4是本发明提供的基于区块链的联邦学习系统应用联邦学习方法的实施示意图。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本领域技术人员应当理解,前面的一般描述和下面的详细描述是本发明的示例性和说明性的具体实施例,不意图限制本发明。
本文中术语“包括”,“包含”或其任何其他变体旨在覆盖非排他性包括,使得包括步骤列表的过程或方法不仅包括那些步骤,而且可以包括未明确列出或此类过程或方法固有的其他步骤。同样,在没有更多限制的情况下,以“包含...一个”开头的一个或多个设备或子系统,元素或结构或组件也不会没有更多限制,排除存在其他设备或其他子系统或其他元素或其他结构或其他组件或其他设备或其他子系统或其他元素或其他结构或其他组件。在整个说明书中,短语“在一个实施例中”,“在另一个实施例中”的出现和类似的语言可以但不一定都指相同的实施例。
除非另有定义,否则本文中使用的所有技术和科学术语具有与本发明所属领域的普通技术人员通常所理解的相同含义。
请参阅图1-图4,本发明提供一种基于区块链的联邦学习方法,包括:
多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;具体的,所述共识节点为各个参阅训练联邦模型参与端或参与设备,本领域的技术人员可以根据实际需求对各个共识节点上的联邦模型进行训练,最终得到所述第一梯度值。优选的,多个共识节点上的联邦模型的初始参数为协调端提供。
进一步的,作为优选方案,本实施例中,共识节点中的联邦模型的初始信息由协调端提供。具体的,将联邦学习的各个各参与方分别注册成为所述区块链系统上的节点,包括协调端节点和不少于一个共识节点;所述协调端节点建立智能合约;所述智能合约中包含联邦模型的初始信息;所有共识节点获取协调端节点中联邦模型的初始信息;所述初始信息包含用于训练所述联邦模型的特征参数。
进一步的,作为优选方案,本实施例中,所述联邦模型为基于梯度信息或海森矩阵信息优化的参数模型。
所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;具体的,每个所述共识节点将自己拥有的第一梯度值再发送给协调端进行梯度的聚合,即进行加和的操作,则使协调端得到的第二梯度值具有多个所述共识节点的梯度信息,因此可以保证联邦学习的效果。
判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。具体的,所述终止条件为训练次数达到预定次数或联邦模型达到预定运行效果。
使用本发明提供的基于区块链的联邦学习方法,各个共识节点在训练后,并行的将第一梯度值发送到协调端,协调端将得到第一梯度值进行聚合处理,得到第二梯度值进行分发,进而各个节点再使用第二梯度值进行联邦模型的优化,相比于传统的串行的联邦学习方法,则可以显著的节约时间,再者,各个共识节点都是平等的记录和计算,不依赖于初始节点的诚实性,可以提升训练过程中的安全性。
进一步的,作为优选方案,本实施例中,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;具体的,每个共识节点的第一梯度值均对外进行拆分共享,拆分的份数可以是共识节点的数量,也可以是小于共识节点的数量,即可以随机选择m个共识节点(m<n)来进行秘密分享,例如图4中所示,节点1-4,均分别向其他节点发送对应的梯度子值;优选的,在每次进行拆分共享时,每个共识节点中,所述预定个数的值时相同的;进一步的,每个共识节点的预定个数可以灵活设定,即各个共识共识节点之间预定个数可以不同。
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。即,多个所述共识节点会将得到的新的第一梯度值发送到协调端中进行处理。各个所述共识节点的通过对梯度值切分再聚合的方式保证了梯度计算结果一致。具体的,各个共识节点设定为只要接收到梯度子值就进行数据合成操作,得到所述第二梯度值,这样,无论自身的预定个数是多少,都可以生成最终的、准确的第二梯度值。所述合成操作优选为对所述梯度子值进行加法处理,具体的处理过程,本领域的技术人员可以根据实际需求设定。
在本实施例中,首先进行第一梯度值的拆分,并分别发送到其他的预定个数的共识节点中,即相互之间先进行一轮梯度值共享,首先可以显著提高联邦模型的训练效率,缩短训练时间,如果存在n个共识节点,每次拆分的预定个数也是n,则每次训练一共可以节约n-1*T的时间(T为加解密的单位时间)。
进一步的,作为优选方案,本实施例中,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
进一步的,作为优选方案,本实施例中,所述同态加密算法为Paillier算法、具有加法同态性质的非对称算法中的一种。同态加密算法不局限于Paillier算法,所有具有加法同态性质的非对称算法都可以作为节点上梯度传输的密码学算法。
进一步的,作为优选方案,本实施例中,在进行训练前,将联邦学习的各参与方注册成为区块链系统上的节点;所述节点包括协调端和至少一个共识节点;其中,所述协调端建立包含联邦模型的初始信息的智能合约;所有所述共识节点从所述协调端获取联邦模型的所述初始信息。即,所述共识节点中的联邦模型的初始信息由所述协调端提供,保证联邦模型初始信息的共同性。
以下以银行联盟链上的评分卡模型的联邦学习为例,做具体说明,实施流程如下:
1)n个银行形成的联盟链上,银行节点根据节点上的样本数据对联邦模型进行训练,获取对应的第一梯度值,每一个银行的梯度计算都是独立的,不受彼此的影响;
2)每个银行都将自己的第一梯度值随机切分成n份,得到:
g=g1+g2+……+gm,m≤n;其中,g为第一梯度值;gi(i=1、2、……、m)为梯度子值。
3)每个银行自己保留其中一份梯度子值,其余份的梯度子值分别用其余参与方银行的公钥加密,发送给对应的银行,相应的,每个银行都会接收到用自己公钥加密的其他参与方银行的梯度子值,这里使用同态加密算法,将传来的梯度值全部加起来以后,再用自己的私钥进行解密:
gnew=Dec(Enc(g1)+Enc(g2)+……+Enc(gj));
其中,gnew为新的第一梯度值;gi(i=1、2、……、j)为接收到的梯度子值;Dec表示解密,Enc表示加密。
4)每一个银行现在拥有的第一梯度值,是所有参与方银行所贡献。每个银行将自己拥有的第一梯度值再发送给协调协调端进行梯度的聚合得到第二梯度值,因为对梯度采取的是加和的操作,所以各个银行的梯度切分再聚合的方式保证了梯度计算结果一致。
5)协调端聚合梯度后,将梯度信息按照每个银行的公钥加密,发送给各个银行进行节点上模型的参数更新。
重复步骤1)到步骤5),直到满足终止条件。
在一些实施例中,具体实施中不局限于银行的评分卡模型联邦学习任务,还包括具有区块链性质的联邦学习任务,具体的应用过程相同,不做赘述。
进一步的,作为优选方案,本实施例中,在终止训练后,还包括:
各个共识节点对各自的联邦模型就行参数微调,得到对应的个性化联邦模型。具体的,共识节点的模型参数上传至协调端,由协调端对所接收的来自各个共识点的模型参数进行聚合,迭代次数达到预设条件后,将训练后的模型参数下发至各个共识节点,各共识节点上对模型参数进行微调,得到共识节点上的模型,经过微调后,各个共识节点上的模型可能均不一样,即可得到能够适应本地数据的联邦模型。
进一步的,作为优选方案,本实施例中,还包括:
迁移学习:以协调端的联邦模型的模型参数为源域,以共识节点的本地模型的模型参数为目标域进行迁移学习,其中在用于迁移学习的目标函数中设计源域与目标域分布的差异。保证各个共识节点得到的联邦模型均以协调端的联邦模型为基础得到,在保证自身个性化的同时,同意运行效果。
还可包括混合联邦中的横向学习部分。
请参阅图3-图4,本发明还提供一种基于区块链的联邦学习系统,包括:
多个共识节点,用于根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
协调端,用于将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点;以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新,并判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
进一步的,作为优选方案,本实施例中,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
进一步的,作为优选方案,本实施例中,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
进一步的,作为优选方案,本实施例中,所述同态加密算法为Paillier算法、具有加法同态性质的非对称算法中的一种。
可以理解的是,对本领域普通技术人员来说,可以根据本发明的技术方案及其发明构思加以等同替换或改变,而所有这些改变或替换都应属于本发明所附的权利要求的保护范围。
Claims (10)
1.一种基于区块链的联邦学习方法,其特征在于,包括:
多个共识节点根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
所述协调端将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点,以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新;
判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
2.根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
3.根据权利要求2所述的基于区块链的联邦学习方法,其特征在于,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
4.根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,在进行训练前,将联邦学习的各参与方注册成为区块链系统上的节点;所述节点包括协调端和至少一个共识节点;其中,所述协调端建立包含联邦模型的初始信息的智能合约;所有所述共识节点从所述协调端获取联邦模型的所述初始信息。
5.根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,在终止训练后,还包括:
各个共识节点对各自的联邦模型就行参数微调,得到对应的个性化联邦模型。
6.根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,所述联邦模型为基于梯度信息或海森矩阵信息优化的参数模型。
7.根据权利要求1所述的基于区块链的联邦学习方法,其特征在于,还包括:
迁移学习:以协调端的联邦模型的模型参数为源域,以共识节点的本地模型的模型参数为目标域进行迁移学习,其中在用于迁移学习的目标函数中设计源域与目标域分布的差异。
8.一种基于区块链的联邦学习系统,其特征在于,包括:
多个共识节点,用于根据样本数据对联邦模型进行训练,分别得到对应的第一梯度值并发送到协调端;
协调端,用于将接收到的多个所述第一梯度值进行聚合处理,得到第二梯度值并分发到各个所述共识节点;以使各个所述共识节点基于所述第二梯度值对所述联邦模型进行参数更新,并判定更新后的联邦模型是否满足终止条件,若是则终止训练,若否则再次进行训练。
9.根据权利要求8所述的基于区块链的联邦学习系统,其特征在于,多个所述共识节点在分别得到所述第一梯度值后,还执行以下操作:
每个所述共识节点对所述第一梯度值进行拆分操作,得到预定个数的梯度子值;每个所述共识节点保留其中一个所述梯度子值,并将其余的梯度子值分别发送到其他共识节点中;所述预定个数小于或等于共识节点的数量;
每个所述共识节点将保留的以及接收到的梯度子值进行合成操作,生成第三梯度值作为新的第一梯度值。
10.根据权利要求9所述的基于区块链的联邦学习系统,其特征在于,共识节点之间传输梯度子值时、以及共识节点与协调端之间传输所述第一梯度值或所述第二梯度值时,对于传输的数据采用同态加密算法进行加密;其中,
各个共识节点以及协调端分别存储有其他节点的用于加密的公钥以及当前节点的用于解密的私钥;在发送数据到某一节点时,使用对应节点的公钥对数据进行加密;在接收到其他节点发送的数据时,使用当前节点的私钥对数据进行解密。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210068502.2A CN114418134A (zh) | 2022-01-20 | 2022-01-20 | 一种基于区块链的联邦学习方法和系统 |
PCT/CN2022/128938 WO2023138152A1 (zh) | 2022-01-20 | 2022-11-01 | 一种基于区块链的联邦学习方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210068502.2A CN114418134A (zh) | 2022-01-20 | 2022-01-20 | 一种基于区块链的联邦学习方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114418134A true CN114418134A (zh) | 2022-04-29 |
Family
ID=81274444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210068502.2A Pending CN114418134A (zh) | 2022-01-20 | 2022-01-20 | 一种基于区块链的联邦学习方法和系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114418134A (zh) |
WO (1) | WO2023138152A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023138152A1 (zh) * | 2022-01-20 | 2023-07-27 | 广州广电运通金融电子股份有限公司 | 一种基于区块链的联邦学习方法和系统 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117371025B (zh) * | 2023-09-18 | 2024-04-16 | 泉城省实验室 | 一种去中心化机器学习模型训练方法及系统 |
CN117196017B (zh) * | 2023-09-28 | 2024-08-02 | 数力聚(北京)科技有限公司 | 一种轻量级隐私保护和完整性验证的联邦学习方法、系统、设备及介质 |
CN117472866B (zh) * | 2023-12-27 | 2024-03-19 | 齐鲁工业大学(山东省科学院) | 一种区块链监管与激励下的联邦学习数据共享方法 |
CN117521151B (zh) * | 2024-01-05 | 2024-04-09 | 齐鲁工业大学(山东省科学院) | 一种基于区块链的去中心化联邦学习数据共享方法 |
CN117708887B (zh) * | 2024-02-05 | 2024-04-30 | 智慧眼科技股份有限公司 | 一种基于纵向逻辑回归的联邦学习模型获取方法及系统 |
CN118368053B (zh) * | 2024-06-17 | 2024-09-20 | 山东大学 | 一种基于分片区块链的链上链下协同安全计算方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200202243A1 (en) * | 2019-03-05 | 2020-06-25 | Allegro Artificial Intelligence Ltd | Balanced federated learning |
CN111552986B (zh) * | 2020-07-10 | 2020-11-13 | 鹏城实验室 | 基于区块链的联邦建模方法、装置、设备及存储介质 |
CN111970304A (zh) * | 2020-08-28 | 2020-11-20 | 光大科技有限公司 | 消息处理方法和装置 |
CN112232527B (zh) * | 2020-09-21 | 2024-01-23 | 北京邮电大学 | 安全的分布式联邦深度学习方法 |
CN112860800A (zh) * | 2021-02-22 | 2021-05-28 | 深圳市星网储区块链有限公司 | 基于区块链和联邦学习的可信网络应用方法和装置 |
CN114418134A (zh) * | 2022-01-20 | 2022-04-29 | 广州广电运通金融电子股份有限公司 | 一种基于区块链的联邦学习方法和系统 |
-
2022
- 2022-01-20 CN CN202210068502.2A patent/CN114418134A/zh active Pending
- 2022-11-01 WO PCT/CN2022/128938 patent/WO2023138152A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023138152A1 (zh) * | 2022-01-20 | 2023-07-27 | 广州广电运通金融电子股份有限公司 | 一种基于区块链的联邦学习方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2023138152A1 (zh) | 2023-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114418134A (zh) | 一种基于区块链的联邦学习方法和系统 | |
CN112149160B (zh) | 基于同态伪随机数的联邦学习隐私保护方法及系统 | |
CN106603233B (zh) | 远程开标型招投标系统用的加解密方法 | |
CN110572253A (zh) | 一种联邦学习训练数据隐私性增强方法及系统 | |
CN114730420A (zh) | 用于生成签名的系统和方法 | |
CN107528688A (zh) | 一种基于加密委托技术的区块链密钥保管及恢复方法、装置 | |
CN114254386B (zh) | 基于层次聚合和区块链的联邦学习隐私保护系统及方法 | |
CN111861473B (zh) | 电子招投标系统及方法 | |
GB2606867A (en) | Secure federation of distributed stochastic gradient descent | |
CN110599163B (zh) | 一种面向区块链交易监管的交易记录外包方法 | |
CN112183767A (zh) | 一种多密钥下模型聚合的联邦学习方法及相关设备 | |
CN111274594B (zh) | 一种基于区块链的安全大数据隐私保护共享方法 | |
CN113824728A (zh) | 一种基于数据加密的网络通信方法及系统 | |
CN112818369B (zh) | 一种联合建模方法及装置 | |
CN113407963B (zh) | 基于signsgd的联邦学习梯度安全聚合方法 | |
CN114650134A (zh) | 一种基于秘密共享的纵向隐私保护逻辑回归方法 | |
CN112819058B (zh) | 一种具有隐私保护属性的分布式随机森林评估系统与方法 | |
CN115270145A (zh) | 一种基于联盟链和联邦学习的用户窃电行为检测方法及系统 | |
CN117421762A (zh) | 基于差分隐私和同态加密的联邦学习隐私保护方法 | |
CN111769945B (zh) | 基于区块链的拍卖处理方法和区块链节点 | |
CN114443754A (zh) | 基于区块链的联邦学习处理方法、装置、系统以及介质 | |
CN102907041B (zh) | 一种数据共享系统、数据分发系统以及数据保护方法 | |
CN118133985A (zh) | 任务处理方法、装置、系统及介质 | |
CN114386071A (zh) | 去中心的联邦聚类方法、装置、电子设备及存储介质 | |
CN106888213A (zh) | 云密文访问控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |