CN113902127A - 一种区块链赋能的异步联邦学习方法 - Google Patents
一种区块链赋能的异步联邦学习方法 Download PDFInfo
- Publication number
- CN113902127A CN113902127A CN202111182862.7A CN202111182862A CN113902127A CN 113902127 A CN113902127 A CN 113902127A CN 202111182862 A CN202111182862 A CN 202111182862A CN 113902127 A CN113902127 A CN 113902127A
- Authority
- CN
- China
- Prior art keywords
- node
- model
- local
- block chain
- secondary node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000002776 aggregation Effects 0.000 claims abstract description 14
- 238000004220 aggregation Methods 0.000 claims abstract description 14
- 239000003999 initiator Substances 0.000 claims abstract description 5
- 230000008569 process Effects 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 abstract description 4
- 230000007246 mechanism Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 6
- 230000008520 organization Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种区块链赋能的异步联邦学习方法,属于通信技术领域。在本发明提出的应用场景下,任务发起者(即主节点)为诚实节点,是完全可信的,任务协助者(即次节点)中可能包含恶意节点。这些节点可以是一些金融机构或部门企业,他们都具有较好的计算能力,由于数据的缺乏需要联合建立一个复杂模型。按分工将节点分为主节点和次节点两类,上一轮中信誉值最高的次节点会在本轮担任领导者,它会收集次节点本地模型和信誉值并打包上传区块。主节点在完成本地聚合后会判断是否模型是否收敛,未收敛则将全局模型及次节点信誉值上传区块链,开启下一轮联合训练。
Description
技术领域
本发明属于通信技术领域,涉及一种区块链赋能的异步联邦学习方法。
背景技术
得益于机器学习领域的快速发展,算法能够比人更快、更准确地从业务流程中积累的数据里,发掘出从对人类来说可能非常复杂的“模式和洞察”。然而决定一个学习算法是否精准高效的重要条件之一便是训练数据的量级是否足够。为了完成一个复杂的学习任务,往往需要多方协作建立模型,而其中的数据隐秘性不能得到保障。
联邦学习能够在不共享原始数据的情况下进行协作模型学习,并日益吸引科技巨头和需要隐私保护的行业的关注。数据位于多个数据拥有者处,且数据间的公共实体重合度较高而特征重合度较低,被称为垂直分布数据(Vertically Data)。由于数据拥有者之间的利益冲突或是法律法规限制,数据不能直接进行共享,例如多家家金融(银行、电商公司和保险公司等)向客户提供不同的服务,拥有客户不同方面的数据,但他们所服务的客户群体有较大的重叠。由于客户间的原始数据没有进行交互,FL保护了用户的隐私,并将数据采集、训练和模型存储的机器学习过程解耦到中央服务器上。
虽然联邦学习能够解决数据拥有者之间的数据隐私问题,但由于数据间的频繁交互以及中央服务器的暴露性,其抗攻击能力面临极大的挑战。区块链技术中的分布式存储带来的不可篡改性以及恶意节点识别技术能够很好地解决数据可靠性传输以及抵抗恶意攻击的问题。而联邦学习作为一种分布式学习架构,恰好能够为区块链技术的融合提供很好的基础。
而针对传统同步联邦学习中,节点间算力不均带来的高算力节点资源浪费,本发明提供一种异步全局聚合方法,次节点端的高算力节点可以进行多次本地训练,而主节点在等待次节点本地模型期间可以一直进行本地训练,充分利用有效资源。
发明内容
有鉴于此,本发明的目的在于提供一种区块链赋能的异步联邦学习方法。
为达到上述目的,本发明提供如下技术方案:
第一步,本发明根据网络中节点对其他节点数据的需求,以及对数据在传输中安全性的要求,提供了一种区块链赋能的异步联邦学习方法,该方法执行流程如下:
S1:网络中的主节点作任务发起者,其它次节点为任务协作者。主节点向区块链网络上传最新全局模型,次节点从区块链网络下载全局模型进行本地更新;
S2:次节点在完成本地更新后,向状态服务器发送状态查询信息以确定是否继续进行本地训练;
S3:当次节点进入共识流程,由上一轮迭代中信誉值最高的次节点担任领导者,次节点之间进行交叉验证以确定本地更新模型的正确性,从而达成共识;
S4:在步骤S3基础上,次节点根据所获取到的其余次节点信息计算自身信誉值,并将其发送至领导者,由领导者收集所有次节点的模型更新以及信誉值信息,并将其打包上传至区块链网络;
S5:在接收到次节点的模型更新后,协调器向主节点发送消息,通知主节点进行全局聚合操作;
S6:主节点将接收到的次节点的更新的模型与本地模型进行聚合,并将聚合后的全局模型以及次节点信誉值打包上传至区块链网络。
第二步,在步骤S1中,依据节点在任务中角色将网络节点划分为主节点和次节点。在网络中仅有一个主节点,其余节点皆为次节点。主节点包含任务训练所需要的部分数据特征以及标签,次节点仅有可供训练的部分数据特征。在任务初始化阶段,主节点与次节点会先使用同态加密算法交换各自所需数据特征以本地模型更新。主节点将聚合后的全局模型上传至区块链网络之后,进行本地模型更新,直至收到协调器发送的全局聚合信号。
第三步,在步骤S2中,提供一种半异步本地模型更新方法。次节点k向状态服务器发送带有其当前状态(k,ik,rk,ck,tk)的查询消息。状态响应消息将指导次节点k执行相应的操作ak。如果ak=1,则次节点k进入下一轮本地迭代,并继续本地训练。否则,次节点k将收到ak=0,由此最小化整体等待时间,即所有次节点空闲时间dwait。此时,次节点k的剩余空闲时间不足以进行下一次本地迭代,否则整体等待时间dwait将会增加,因此,次节点k应立即进入共识流程。其中k表示次节点k、ik表示本地迭代计数(iteration)、rk表示循环计数(round)、ck表示本地迭代的计算时间(computation time)以及发送该消息时的时间戳tk(timestamp)。
第四步,在步骤S3中,提供一种基于PBFT的共识算法。在每次任务的第一轮训练中,随机选取领导者,随后训练中皆由上一轮训练中信誉值最高的节点担当领导者。
第五步,在步骤S4中,提供一种基于共识的信誉值更新方法。基于共识阶段获取到的全部次节点信息(包括本地更新模型、本地迭代次数以及上一轮的信誉值),计算出节点信誉值R,R为0~100的实数。采用熵权法更新信誉值,假设有K个次节点,表示次节点k的第i个指标的标准化值,可得的占比为:
由此,指标i的熵权值为:
由此,可得节点k的信誉值(满分100)为:
第六步,在步骤S5中,提供一种全局模型异步聚合方法。主节点在上传最新全局模型至区块链网络之后,开始进行本地训练,等待协调器的聚合消息。协调器在收到来自次节点的打包区块之后,向主节点发出聚合消息,主节点下载次节点信息,并将本地模型与下载的模型进行聚合,聚合公式为:
第七步,在步骤S6中,主节点将聚合后的全局模型上传至区块链网络以供次节点下载,并开启新一轮本地训练,直至下一次次节点的模型更新完成。
本发明的有益效果在于:本发明设计了一种区块链赋能的异步联邦学习方法。在该方法中,主节点与次节点分管训练任务中的不同阶段,且共同维护一条公共区块链来保障信息的传输可靠性以及整体系统的抗攻击能力。此外,本方案的领导者挑选基于信誉值,且在一次共识中仅有一名领导者,有效地避免了区块上传的分叉风险。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明实施例所涉及方法的结构示意图;
图2为本发明实施例中的区块链块内数据示意图;
图3为本发明实施例提供的流程示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
图1示出了本发明实施例所涉及的结构的一种可能的应用场景。如图1所示,该网络中的节点分为主节点和次节点,主节点为单个机构节点,为任务发起者,在任务中为主导角色;次节点由多个机构节点组成,为任务发起者提供建模协助。次节点中可能包含恶意节点,恶意节点的筛选由信誉值决定,信誉值低于阈值的机构节点会在下一轮迭代中被排除。此外,所有机构共同维护一个区块链网络,模型更新以及信誉值更新都会被记录在区块交易中,以确保信息安全和不可篡改性。
1.计算模型
机构k完成本地训练所需时间为:
其中,ck表示在机构k中训练一个数据样本所需的CPU周期数;Dk表示机构k的本地数据集的数据样本数量;表示机构k所能提供的CPU周期频率。由于经过样本对齐操作后的数据样本(x,y)大小是相同的,机构k训练本地模型所需要的CPU周期数可表示为ckDk,机构k在一次迭代训练中CPU能耗为:
其中,β为机构k计算机组芯片的有效电容系数。
2.通信模型
本网络场景中,考虑两个通信开销,包括次节点共识以及领导者上传区块的时间开销。
区块链共识分为块传播和块验证两部分。
在块传播阶段,由领导者向其余次节点广播区块,若机构k为领导者,则其数据传输速率(bits/s)可以使用香农公式表示:
其中,B表示带宽,pk表示机构k的发射功率,hk→k'表示机构k到另一次节点的信道增益,n0表示噪声功率。由此,机构k在交叉验证阶段中,区块传播时延为:
其中,δb为区块大小。
在块验证阶段,各机构对领导者广播的块内容进行确认,确认时延可表示为:
领导者上传区块时延可表示为:
其中,sk→p表示机构k到主节点的传输速率。
那么,领导者k上传区块的能耗为:
3.领导者的选举
为了确定共识阶段的领导者,以及筛选出恶意节点,本发明利用机构的信誉值表示其可信度,信誉值在0~100之间。机构的信誉值越高,其可信度就越高,因此由可信度最高的机构担任领导者可以保证结果的相对可信。根据信誉值的高低,可以将信任状态区分如下:
Great:R∈(ν,100],该状态下的机构节点为领导者候补节点,优先级根据分数由高到低排列;
Average:R∈(μ,ν],该状态下的机构节点为普通节点,负责本地更新及交叉验证,不参与领导者选举;
Poor:R∈(0,μ],该状态下的机构节点被判定为恶意节点,将会被剔除任务训练队列。
根据领导者候补节点中的信誉值,机构k被选为领导者的概率如下:
4.块内数据
图2所示为本发明实施例中的区块链块内数据示意图,区块打包方式分为两种,第一,主节点负责打包上传区块,交易内容包括全局模型以及次节点信誉值;第二,次节点中的领导者打包上传区块链,交易内容包括本地模型更新以及次节点信誉值。区块链由两种区块交替循环组成,所有机构(包括主节点)共同维护该区块链。
5.优化目标建模
本发明提出一种区块链赋能的异步联邦学习方法,为最小化总时延,包括次节点本地模型更新时延、共识时延以及领导者区块上传时延,优化函数可表示为:
其中,约束条件C1表示分配给模型计算和区块验证的计算资源不能超过节点的有效资源;约束条件C2表示区块确认时间不能超过最大容忍时延;约束条件C3是节点发射功率约束;约束条件C4表示计算资源限制;约束条件C5和C6表示本地模型更新及区块确认功耗限制。
6.基于区块链赋能的异步联邦学习流程图
图3所示为本发明提出的基于区块链赋能的异步联邦学习流程图,其具体步骤如下所示:
S301:系统初始化;
S302:主节点与次节点进行样本对齐;
S303:主节点上传全局模型并开始本地训练;
S304:次节点下载全局模型;
S305:次节点使用本地数据进行模型训练;
S306:次节点完成一轮本地迭代之后,向状态服务器发起询问,请求下一个动作.如果返回动作信息为0,则进入共识阶段,如果返回动作信息为1,则重复步骤S305;
S307:由上一轮信誉值最高的次节点担任领导者;
S308~S311:次节点间达成共识;
S308:预准备;
S309:准备;
S310:提交;
S311:回复;
S312:共识结果判定,如果结果一致票数超过2/3,则进入下一步,否则进入视图更换流程,重复步骤S308;
S313:次节点根据共识阶段所接收到的其他机构节点信息,使用公式(6)更新各自信誉值;
S314:领导者收集全部次节点的信誉值,并将其与模型更新打包生成区块,上传至区块链;
S315:状态服务器在接收到来自次节点的上传数据后,会向主节点发出全局聚合消息,通知主节点准备进行聚操作;
S316:主节点从区块链下载次节点的数据信息,并将其中模型更新与自身本地更新进行聚合;
S317:判定全局模型是否收敛,如果收敛则进入下一步骤,否则重复步骤S303;
S318:运行结束。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.一种区块链赋能的异步联邦学习方法,其特征在于:该方法包括以下步骤:
S1:网络中的主节点作任务发起者,其它次节点为任务协作者。主节点向区块链网络上传最新全局模型,次节点从区块链网络下载全局模型进行本地更新;
S2:次节点在完成本地更新后,向状态服务器发送状态查询信息以确定是否继续进行本地训练;
S3:当次节点进入共识流程,由上一轮迭代中信誉值最高的次节点担任领导者,次节点之间进行交叉验证以确定本地更新模型的正确性,从而达成共识;
S4:在S3的基础上,次节点根据所获取到的其余次节点信息计算自身信誉值,并将其发送至领导者,由领导者收集所有次节点的模型更新以及信誉值信息,并将其打包上传至区块链网络;
S5:在接收到次节点的模型更新后,协调器向主节点发送消息,通知主节点进行全局聚合操作;
S6:主节点将接收到的次节点的更新的模型与本地模型进行聚合,并将聚合后的全局模型以及次节点信誉值打包上传至区块链网络。
2.根据权利要求1所述的一种区块链赋能的异步联邦学习方法,其特征在于:在所述S1中,仅有一个主节点,其余节点皆为次节点;主节点包含任务训练所需要的部分数据特征以及标签,次节点仅有可供训练的部分数据特征;在任务初始化阶段,主节点与次节点会先使用同态加密算法交换各自所需数据特征以本地模型更新;主节点将聚合后的全局模型上传至区块链网络之后,进行本地模型更新,直至收到协调器发送的全局聚合信号。
3.根据权利要求2所述的一种区块链赋能的异步联邦学习方法,其特征在于:在所述S2中,次节点k向状态服务器发送带有其当前状态的查询消息;状态响应消息将指导次节点k执行相应的操作ak;次节点k依据操作指示决定继续本地训练或是进入共识流程。
4.根据权利要求3所述的一种区块链赋能的异步联邦学习方法,其特征在于:在所述S3中,在每次任务的第一轮训练中,随机选取领导者,随后训练中皆由上一轮训练中信誉值最高的节点担当领导者。
5.根据权利要求4所述的一种区块链赋能的异步联邦学习方法,其特征在于:在所述S4中,基于共识阶段获取到的全部次节点信息,包括本地更新模型、本地迭代次数以及上一轮的信誉值;采用熵权法计算出节点信誉值R,R为0~100的实数。
6.根据权利要求5所述的一种区块链赋能的异步联邦学习方法,其特征在于:在所述S5中,主节点在上传最新全局模型至区块链网络之后,开始进行本地训练,等待协调器的聚合消息;协调器在收到来自次节点的打包区块之后,向主节点发出聚合消息,主节点下载次节点信息,并将本地模型与下载的模型进行聚合。
7.根据权利要求6所述的一种区块链赋能的异步联邦学习方法,其特征在于:在所述S6中,主节点将聚合后的全局模型上传至区块链网络以供次节点下载,并开启新一轮本地训练,直至下一次次节点的模型更新完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111182862.7A CN113902127A (zh) | 2021-10-11 | 2021-10-11 | 一种区块链赋能的异步联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111182862.7A CN113902127A (zh) | 2021-10-11 | 2021-10-11 | 一种区块链赋能的异步联邦学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113902127A true CN113902127A (zh) | 2022-01-07 |
Family
ID=79191466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111182862.7A Pending CN113902127A (zh) | 2021-10-11 | 2021-10-11 | 一种区块链赋能的异步联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113902127A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115062320A (zh) * | 2022-04-26 | 2022-09-16 | 西安电子科技大学 | 异步机制的隐私保护联邦学习方法、装置、介质及系统 |
CN115426206A (zh) * | 2022-11-07 | 2022-12-02 | 中邮消费金融有限公司 | 一种基于同态加密技术的图反欺诈能力赋能的方法及系统 |
CN116541871A (zh) * | 2023-07-06 | 2023-08-04 | 北京鼎轩科技有限责任公司 | 一种数据处理方法、分布式系统、计算机设备及存储介质 |
-
2021
- 2021-10-11 CN CN202111182862.7A patent/CN113902127A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115062320A (zh) * | 2022-04-26 | 2022-09-16 | 西安电子科技大学 | 异步机制的隐私保护联邦学习方法、装置、介质及系统 |
CN115062320B (zh) * | 2022-04-26 | 2024-04-26 | 西安电子科技大学 | 异步机制的隐私保护联邦学习方法、装置、介质及系统 |
CN115426206A (zh) * | 2022-11-07 | 2022-12-02 | 中邮消费金融有限公司 | 一种基于同态加密技术的图反欺诈能力赋能的方法及系统 |
CN116541871A (zh) * | 2023-07-06 | 2023-08-04 | 北京鼎轩科技有限责任公司 | 一种数据处理方法、分布式系统、计算机设备及存储介质 |
CN116541871B (zh) * | 2023-07-06 | 2023-08-29 | 北京鼎轩科技有限责任公司 | 一种数据处理方法、分布式系统、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | A communication efficient collaborative learning framework for distributed features | |
Liu et al. | Fedcoin: A peer-to-peer payment system for federated learning | |
US11621847B2 (en) | Consensus layer architecture for maintaining security with reduced processing power dependency in untrusted decentralized computing platforms | |
Liu et al. | Fedbcd: A communication-efficient collaborative learning framework for distributed features | |
US20230039182A1 (en) | Method, apparatus, computer device, storage medium, and program product for processing data | |
CN113902127A (zh) | 一种区块链赋能的异步联邦学习方法 | |
Qi et al. | Model aggregation techniques in federated learning: A comprehensive survey | |
CN110771127B (zh) | 用于区块链网络中一致分布式内存池的方法和系统 | |
WO2021217863A1 (zh) | 订单标识生成方法、装置、服务器及存储介质 | |
CN112799708B (zh) | 联合更新业务模型的方法及系统 | |
CN113469373A (zh) | 基于联邦学习的模型训练方法、系统、设备及存储介质 | |
US20220101189A1 (en) | Federated inference | |
WO2021189908A1 (zh) | 基于深度学习的图像分类方法、装置、服务器及介质 | |
CN111478795B (zh) | 一种基于混合拜占庭容错的联盟区块链网络共识方法 | |
CN113342418B (zh) | 基于区块链的分布式机器学习任务卸载方法 | |
Sowmiya et al. | A heuristic K-anonymity based privacy preserving for student management hyperledger fabric blockchain | |
CN112749827A (zh) | 金融信息处理方法、装置、电子设备及存储介质 | |
Chu | Task offloading based on deep learning for blockchain in mobile edge computing | |
CN116627970A (zh) | 一种基于区块链和联邦学习的数据共享方法及装置 | |
CN113283778A (zh) | 一种基于安全性评价的分层汇聚联邦学习方法 | |
Mugunthan et al. | BlockFLow: Decentralized, privacy-preserving, and accountable federated machine learning | |
Rahmadika et al. | Reliable collaborative learning with commensurate incentive schemes | |
Firdaus et al. | Personalized federated learning for heterogeneous data: A distributed edge clustering approach | |
CN112766560B (zh) | 联盟区块链网络优化方法、装置、系统和电子设备 | |
Ali et al. | A systematic review of federated learning incentive mechanisms and associated security challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |