CN115622777A - 一种基于联盟链的多中心联邦学习数据共享方法 - Google Patents
一种基于联盟链的多中心联邦学习数据共享方法 Download PDFInfo
- Publication number
- CN115622777A CN115622777A CN202211246167.7A CN202211246167A CN115622777A CN 115622777 A CN115622777 A CN 115622777A CN 202211246167 A CN202211246167 A CN 202211246167A CN 115622777 A CN115622777 A CN 115622777A
- Authority
- CN
- China
- Prior art keywords
- node
- nodes
- group
- data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/176—Support for shared access to files; File sharing support
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1441—Countermeasures against malicious traffic
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开了一种基于联盟链的多中心联邦学习数据共享方法,包括由联盟链网络、星际文件系统网络以及联邦学习单元组成的系统,还包括以下步骤:S1:初始化;S2:身份注册和授权;S3:联合建模准备;S4:联合建模训练;S5:联合建模组内聚合;S6:联合建模组间聚合;S7:联合建模结束;本发明中既能够确保数据不可篡改,又能够实现数据溯源;提升了系统的高可用性和安全性;既能够排除恶意节点,又能够提高吞吐量;采用信誉值评估机制,提高共享模型的质量。
Description
技术领域
本发明属于模型敏感数据隐私保护技术领域,涉及一种基于联盟链的多中心联邦学习数据共享方法。
背景技术
随着信息技术的快速发展,医疗服务逐渐向数字化、信息化转型。医疗数据作为重要数据资产也在不断被分析和挖掘,不同组织机构之间的医疗数据交换与共享能够使得医疗数据发挥更高价值;单个医疗机构存在数据不足和维度不够丰富的问题。因此,跨地区、跨机构的医疗数据共享需求日益增长。然而,近年来在数据共享过程中数据安全事件屡见不鲜,伴随着出现了数据保护与数据利用之间的矛盾冲突,也导致“数据饥饿”新的问题出现。
为了解决上述问题;当前有如下三种解决方案:第一种方案是采用区块链技术结合MPC实现数据共享虽然能够保护数据的隐私,但是这种方式计算开销大、能耗高,并且对网络的带宽和延迟要求较高;第二种方案是采用区块链技术结合TEE实现数据共享,该方案利用TEE的高效率计算,弥补区块链技术的计算缺陷,然而在现有系统上升级硬件环境,这会导致硬件成本增加,系统设计的复杂度增大;第三种方案是采用区块链技术结合FL实现数据安全共享方案虽然能够在不共享原始数据的情况下,完成了计算任务并且保护了数据所有者的隐私,但是这种架构会存在众多安全威胁。
所以为了解决这些挑战,急需提出一种基于联盟链的多中心联邦学习数据共享方法。
发明内容
针对上述问题,本发明提出了一种提高了系统吞吐量、有效抵御恶意攻击者参与建模的基于联盟链的多中心联邦学习数据共享方法。
为了实现上述目的,本发明采用的技术方案如下:一种基于联盟链的多中心联邦学习数据共享方法,包括由联盟链网络、星际文件系统网络以及联邦学习单元组成的系统,还包括以下步骤:
S1:初始化;将意向组成联盟的所有节点进行资格审查,将审查通过的节点根据共识算法动态分成多个小组,每个小组内选出一个节点作为汇聚节点,小组之间形成联盟链网络;
S2:身份注册和授权;每个节点均需要联盟链网络中的智能合约单元完成身份检验,每个节点能够作为任务发布者上传任务需要和任务信息到联盟链网络;
S3:联合建模准备;任务发布者可作为数据请求方并需要提供统一的联邦学习单元和共享模型,剩余部分或者全部节点可作为数据提供方通过联邦学习单元和共享模型进行本地数据处理和模型测试,数据提供方再将数据处理和模型测试的结果发布到联盟链网络;
S4:联合建模训练;任务发布者通告所有数据提供方开始训练任务,数据提供方在本地数据集训练局部模型,训练完成后,将本地模型参数上传到星际文件系统网络并获取返回值,再将返回值上传到联盟链网络,当上传的数据提供方的数量达到阈值时,汇聚节点给智能合约单元发出聚合任务请求并执行步骤S5;
S5:联合建模组内聚合;汇聚节点将组内其他数据提供方上传的本地模型参数下载到本体,并根据基于信誉值的加权联邦平均算法进行组内聚合任务;
S6:联合建模组间聚合;当所有汇聚节点完成组内聚合任务后,采用轮询机制从汇聚节点中选出一个节点承担组间聚合任务,将所有小组上传的本地模型参数聚合成新模型参数,并更新共享模型;
S7:联合建模结束;在步骤S6完成本轮更新共享模型后,根据历史行为和当前行为评估数据提供方的信誉值,完成数据提供方的信誉值更新;在根据全局配置信息,继续进行下一轮训练任务,执行步骤4、步骤5、步骤6、步骤7直到共享模型收敛。
进一步的,所述共识算法包括节点分组步骤和共识通信步骤。
进一步的,所述节点分组步骤描述如下:
设联盟链网络中有N个节点,选择不同地区的G个节点作为中心节点,将其他节点表示为no,中心节点表示为ng;当节点no与中心节点ng的距离是最近的时候,则no属于Cg集群,其计算方法如下:
先获取联盟链网络中所有节点的物理位置,通过计算欧式距离对节点进行分组,其他节点到中心节点的距离表示为Dist,计算公式如下:
其中,o∈[1,N-G],g∈[1,G],no坐标为(xo,yo),ng坐标为(xg,yg);
在C个小组中,依次在每个组内计算某个节点到组内其他节点的欧式距离之和最小,当该节点为中心节点,则迭代结束;否则该节点替代中心节点,继续执行下述计算公式:
其中,ni代表Cg集群中的一个节点,nj代表Cg集群中的其他节点。
进一步的,所述共识通信步骤描述如下:
A、区块通告:联盟链网络中的一个汇聚节点将一段时间数据请求打包成区块,封装成通告消息,并通告给其他小组的汇聚节点;
B、组内共识:各个组的汇聚节点收到通告消息后,各个小组在组内进行PBFT共识,并发送确认信息a给汇聚节点,则进入组间共识;
C、组间共识:当汇聚节点收到[G/2]个汇聚节点的确认消息a后,汇聚节点再次发送确认消息b,其他汇聚节点接收到重复确认消息b后,再次向汇聚节点发送确认信息c,并进入区块同步;
D、区块同步:组内和组间的共识过程均完成,由小组的汇聚节点发送执行信息d,通知组内接入及诶点执行区块写入到本地,待所有汇聚节点发送消息e,完成共识通信。
进一步的,所述基于信誉值的加权联邦平均算法包括信誉值计算步骤和模型聚合步骤。
进一步的,所述信誉值计算步骤描述如下:
首先信誉值属性矩阵表示为P,其中xo表示参与者模型训练历史评估的信誉值,xi表示模型测试准确率,x2表示模型测试损失,x3表示训练集大小,x4表示学习率,x5表示局部迭代轮次,x6表示局部批处理大小;信誉值的计算公式如下:
采用均值方差归一化对信誉值属性集合进行预处理;
其中,xij为第i个数据提供方的第j个指标的数据值,yij为归一化后的数据值,μ表示信誉值属性集合的均值,S表示信誉值属性集合的方差;
接着计算各属性的信息熵,计算公式如下:
接着,根据信息熵确定各信誉值属性的权重值,计算公式如下:
其中,t为属性的个数,Ej为第j个属性的信息熵;
最后根据属性权重,计算信誉值,计算公式如下:
进一步的,所述模型聚合步骤描述如下:
首先,小组内采用汇聚节点承担聚合任务;其次,有轮询机制选择一个汇聚节点,汇聚节点完成组间的聚合任务,生成共享模型;最后,本轮任务训练结束,将共享模型参数分发给所述数据提供方更新本地模型,迭代直至收敛。
与现有技术相比,本发明具有以下有益效果:
本发明中,可以采用联盟链网络记录医疗数据共享过程,既能够确保数据不可篡改,又能够实现数据溯源;
本发明中,采用多个汇聚节点组成多中心节点轮流承担中心服务器,并且采用信誉机制选举节点,提升了系统的高可用性和安全性;
本发明中,采用共识算法,既能够排除恶意节点,又能够提高吞吐量;
本发明中,采用信誉值评估机制,提高共享模型的质量。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明所述的一种基于联盟链的多中心联邦学习数据共享方法,包括由联盟链网络、星际文件系统网络以及联邦学习单元组成的系统,还包括以下步骤:
S1:初始化;将意向组成联盟的所有节点进行资格审查,将审查通过的节点根据共识算法动态分成多个小组,每个小组内选出一个节点作为汇聚节点,小组之间形成联盟链网络;
S2:身份注册和授权;每个节点均需要联盟链网络中的智能合约单元完成身份检验,每个节点能够作为任务发布者上传任务需要和任务信息到联盟链网络;
S3:联合建模准备;任务发布者可作为数据请求方并需要提供统一的联邦学习单元和共享模型,剩余部分或者全部节点可作为数据提供方通过联邦学习单元和共享模型进行本地数据处理和模型测试,数据提供方再将数据处理和模型测试的结果发布到联盟链网络;
S4:联合建模训练;任务发布者通告所有数据提供方开始训练任务,数据提供方在本地数据集训练局部模型,训练完成后,将本地模型参数上传到星际文件系统网络并获取返回值,再将返回值上传到联盟链网络,当上传的数据提供方的数量达到阈值时,汇聚节点给智能合约单元发出聚合任务请求并执行步骤S5;
S5:联合建模组内聚合;汇聚节点将组内其他数据提供方上传的本地模型参数下载到本体,并根据基于信誉值的加权联邦平均算法进行组内聚合任务;
S6:联合建模组间聚合;当所有汇聚节点完成组内聚合任务后,采用轮询机制从汇聚节点中选出一个节点承担组间聚合任务,将所有小组上传的本地模型参数聚合成新模型参数,并更新共享模型;
S7:联合建模结束;在步骤S6完成本轮更新共享模型后,根据历史行为和当前行为评估数据提供方的信誉值,完成数据提供方的信誉值更新;在根据全局配置信息,继续进行下一轮训练任务,执行步骤4、步骤5、步骤6、步骤7直到共享模型收敛。
本发明中,可以采用联盟链网络记录医疗数据共享过程,既能够确保数据不可篡改,又能够实现数据溯源;采用多个汇聚节点组成多中心节点轮流承担中心服务器,并且采用信誉机制选举节点,提升了系统的高可用性和安全性;采用共识算法,既能够排除恶意节点,又能够提高吞吐量;采用信誉值评估机制,提高共享模型的质量。
本发明中,所述共识算法包括节点分组步骤和共识通信步骤;具体的,所述节点分组步骤描述如下:
设联盟链网络中有N个节点,选择不同地区的G个节点作为中心节点,将其他节点表示为no,中心节点表示为ng;当节点no与中心节点ng的距离是最近的时候,则no属于Cg集群,其计算方法如下:
先获取联盟链网络中所有节点的物理位置,通过计算欧式距离对节点进行分组,其他节点到中心节点的距离表示为Dist,计算公式如下:
其中,o∈[1,N-G],g∈[1,G],no坐标为(xo,yo),ng坐标为(xg,yg);
在C个小组中,依次在每个组内计算某个节点到组内其他节点的欧式距离之和最小,当该节点为中心节点,则迭代结束;否则该节点替代中心节点,继续执行下述计算公式:
其中,ni代表Cg集群中的一个节点,nj代表Cg集群中的其他节点。
具体的,所述共识通信步骤描述如下:
A、区块通告:联盟链网络中的一个汇聚节点将一段时间数据请求打包成区块,封装成通告消息,并通告给其他小组的汇聚节点;
B、组内共识:各个组的汇聚节点收到通告消息后,各个小组在组内进行PBFT共识,并发送确认信息a给汇聚节点,则进入组间共识;
C、组间共识:当汇聚节点收到[G/2]个汇聚节点的确认消息a后,汇聚节点再次发送确认消息b,其他汇聚节点接收到重复确认消息b后,再次向汇聚节点发送确认信息c,并进入区块同步;
D、区块同步:组内和组间的共识过程均完成,由小组的汇聚节点发送执行信息d,通知组内接入及诶点执行区块写入到本地,待所有汇聚节点发送消息e,完成共识通信。
本发明中,所述基于信誉值的加权联邦平均算法包括信誉值计算步骤和模型聚合步骤。
具体的,所述信誉值计算步骤描述如下:
首先信誉值属性矩阵表示为P,其中xo表示参与者模型训练历史评估的信誉值,xi表示模型测试准确率,x2表示模型测试损失,x3表示训练集大小,x4表示学习率,x4表示局部迭代轮次,x6表示局部批处理大小;信誉值的计算公式如下:
采用均值方差归一化对信誉值属性集合进行预处理;
其中,xij为第i个数据提供方的第j个指标的数据值,yij为归一化后的数据值,μ表示信誉值属性集合的均值,S表示信誉值属性集合的方差;
接着计算各属性的信息熵,计算公式如下:
接着,根据信息熵确定各信誉值属性的权重值,计算公式如下:
其中,t为属性的个数,Ej为第j个属性的信息熵;
最后根据属性权重,计算信誉值,计算公式如下:
所述模型聚合步骤描述如下:
首先,小组内采用汇聚节点承担聚合任务;其次,有轮询机制选择一个汇聚节点,汇聚节点完成组间的聚合任务,生成共享模型;最后,本轮任务训练结束,将共享模型参数分发给所述数据提供方更新本地模型,迭代直至收敛;
具体的;更新本地模型中,假设训练集由H个参与者组成,第h个参与者数据的组成的集合为Dh,学习率为η,当前全局模型参数为wt,第h个数据提供方使用本地数据训练并更新本地模型参数。
H个参与者分别在本地计算梯度和本地更新参数:
再进行组内聚合时,参与者h将本地训练更新后的模型参数上传到联盟链网络。当接收到H个参与者模型参数,触发智能合约通知汇聚节点开始聚合任务。此时汇聚节点ng更新临时全局模型参数,表示为:
其中,Rh表示参与者h在第t轮评估的信誉值;
再进行组间聚合时,汇聚节点ng将本组聚合的模型参数上传到联盟链网络。当接收到临时全局模型参数达到阈值,触发智能合约单元通知承担组间聚合任务的汇聚节点ng,开始模型参数聚合,此时汇聚节点ng更新全局模型参数Wt+1,表示为:
其中,Rg表示汇聚节点g在第t轮评估的信誉值。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于联盟链的多中心联邦学习数据共享方法,其特征在于,包括由联盟链网络、星际文件系统网络以及联邦学习单元组成的系统,还包括以下步骤:
S1:初始化;将意向组成联盟的所有节点进行资格审查,将审查通过的节点根据共识算法动态分成多个小组,每个小组内选出一个节点作为汇聚节点,小组之间形成联盟链网络;
S2:身份注册和授权;每个节点均需要联盟链网络中的智能合约单元完成身份检验,每个节点能够作为任务发布者上传任务需要和任务信息到联盟链网络;
S3:联合建模准备;任务发布者可作为数据请求方并需要提供统一的联邦学习单元和共享模型,剩余部分或者全部节点可作为数据提供方通过联邦学习单元和共享模型进行本地数据处理和模型测试,数据提供方再将数据处理和模型测试的结果发布到联盟链网络;
S4:联合建模训练;任务发布者通告所有数据提供方开始训练任务,数据提供方在本地数据集训练局部模型,训练完成后,将本地模型参数上传到星际文件系统网络并获取返回值,再将返回值上传到联盟链网络,当上传的数据提供方的数量达到阈值时,汇聚节点给智能合约单元发出聚合任务请求并执行步骤S5;
S5:联合建模组内聚合;汇聚节点将组内其他数据提供方上传的本地模型参数下载到本体,并根据基于信誉值的加权联邦平均算法进行组内聚合任务;
S6:联合建模组间聚合;当所有汇聚节点完成组内聚合任务后,采用轮询机制从汇聚节点中选出一个节点承担组间聚合任务,将所有小组上传的本地模型参数聚合成新模型参数,并更新共享模型;
S7:联合建模结束;在步骤S6完成本轮更新共享模型后,根据历史行为和当前行为评估数据提供方的信誉值,完成数据提供方的信誉值更新;在根据全局配置信息,继续进行下一轮训练任务,执行步骤4、步骤5、步骤6、步骤7直到共享模型收敛。
2.根据权利要求1所述的基于联盟链的多中心联邦学习数据共享方法,其特征在于:所述共识算法包括节点分组步骤和共识通信步骤。
3.根据权利要求2所述的基于联盟链的多中心联邦学习数据共享方法,其特征在于:所述节点分组步骤描述如下:
设联盟链网络中有N个节点,选择不同地区的G个节点作为中心节点,将其他节点表示为no,中心节点表示为ng;当节点no与中心节点ng的距离是最近的时候,则no属于Cg集群,其计算方法如下:
先获取联盟链网络中所有节点的物理位置,通过计算欧式距离对节点进行分组,其他节点到中心节点的距离表示为Dist,计算公式如下:
其中,O∈[1,N-G],g∈[1,G],no坐标为(xo,yo),ng坐标为(xg,yg);
在C个小组中,依次在每个组内计算某个节点到组内其他节点的欧式距离之和最小,当该节点为中心节点,则迭代结束;否则该节点替代中心节点,继续执行下述计算公式:
其中,ni代表Cg集群中的一个节点,nj代表Cg集群中的其他节点。
4.根据权利要求3所述的基于联盟链的多中心联邦学习数据共享方法,其特征在于:所述共识通信步骤描述如下:
A、区块通告:联盟链网络中的一个汇聚节点将一段时间数据请求打包成区块,封装成通告消息,并通告给其他小组的汇聚节点;
B、组内共识:各个组的汇聚节点收到通告消息后,各个小组在组内进行PBFT共识,并发送确认信息a给汇聚节点,则进入组间共识;
C、组间共识:当汇聚节点收到[G/2]个汇聚节点的确认消息a后,汇聚节点再次发送确认消息b,其他汇聚节点接收到重复确认消息b后,再次向汇聚节点发送确认信息c,并进入区块同步;
D、区块同步:组内和组间的共识过程均完成,由小组的汇聚节点发送执行信息d,通知组内接入及诶点执行区块写入到本地,待所有汇聚节点发送消息e,完成共识通信。
5.根据权利要求1所述的基于联盟链的多中心联邦学习数据共享方法,其特征在于:所述基于信誉值的加权联邦平均算法包括信誉值计算步骤和模型聚合步骤。
6.根据权利要求5所述的基于联盟链的多中心联邦学习数据共享方法,其特征在于:所述信誉值计算步骤描述如下:
首先信誉值属性矩阵表示为P,其中xo表示参与者模型训练历史评估的信誉值,xi表示模型测试准确率,x2表示模型测试损失,x3表示训练集大小,x4表示学习率,x5表示局部迭代轮次,x6表示局部批处理大小;信誉值的计算公式如下:
采用均值方差归一化对信誉值属性集合进行预处理;
其中,xij为第i个数据提供方的第j个指标的数据值,yij为归一化后的数据值,μ表示信誉值属性集合的均值,S表示信誉值属性集合的方差;
接着计算各属性的信息熵,计算公式如下:
接着,根据信息熵确定各信誉值属性的权重值,计算公式如下:
其中,t为属性的个数,Ej为第j个属性的信息熵;
最后根据属性权重,计算信誉值,计算公式如下:
7.根据权利要求5所述的基于联盟链的多中心联邦学习数据共享方法,其特征在于:所述模型聚合步骤描述如下:
首先,小组内采用汇聚节点承担聚合任务;其次,有轮询机制选择一个汇聚节点,汇聚节点完成组间的聚合任务,生成共享模型;最后,本轮任务训练结束,将共享模型参数分发给所述数据提供方更新本地模型,迭代直至收敛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211246167.7A CN115622777A (zh) | 2022-10-09 | 2022-10-09 | 一种基于联盟链的多中心联邦学习数据共享方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211246167.7A CN115622777A (zh) | 2022-10-09 | 2022-10-09 | 一种基于联盟链的多中心联邦学习数据共享方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115622777A true CN115622777A (zh) | 2023-01-17 |
Family
ID=84863326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211246167.7A Pending CN115622777A (zh) | 2022-10-09 | 2022-10-09 | 一种基于联盟链的多中心联邦学习数据共享方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115622777A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116389193A (zh) * | 2023-04-21 | 2023-07-04 | 安徽大学 | 一种基于双联盟区块链和联邦学习的虚拟网络映射方法 |
CN116566846A (zh) * | 2023-07-05 | 2023-08-08 | 中国电信股份有限公司 | 模型的管理方法、系统以及共享节点、网络节点 |
CN117472866A (zh) * | 2023-12-27 | 2024-01-30 | 齐鲁工业大学(山东省科学院) | 一种区块链监管与激励下的联邦学习数据共享方法 |
-
2022
- 2022-10-09 CN CN202211246167.7A patent/CN115622777A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116389193A (zh) * | 2023-04-21 | 2023-07-04 | 安徽大学 | 一种基于双联盟区块链和联邦学习的虚拟网络映射方法 |
CN116389193B (zh) * | 2023-04-21 | 2024-05-07 | 安徽大学 | 一种基于双联盟区块链和联邦学习的虚拟网络映射方法 |
CN116566846A (zh) * | 2023-07-05 | 2023-08-08 | 中国电信股份有限公司 | 模型的管理方法、系统以及共享节点、网络节点 |
CN116566846B (zh) * | 2023-07-05 | 2023-09-22 | 中国电信股份有限公司 | 模型的管理方法、系统以及共享节点、网络节点 |
CN117472866A (zh) * | 2023-12-27 | 2024-01-30 | 齐鲁工业大学(山东省科学院) | 一种区块链监管与激励下的联邦学习数据共享方法 |
CN117472866B (zh) * | 2023-12-27 | 2024-03-19 | 齐鲁工业大学(山东省科学院) | 一种区块链监管与激励下的联邦学习数据共享方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113794675B (zh) | 基于区块链和联邦学习的分布式物联网入侵检测方法及系统 | |
CN115622777A (zh) | 一种基于联盟链的多中心联邦学习数据共享方法 | |
CN112949837B (zh) | 一种基于可信网络的目标识别联邦深度学习方法 | |
CN112348204A (zh) | 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法 | |
CN113268776A (zh) | 基于区块链的模型联合训练方法及装置 | |
CN114626547A (zh) | 一种基于区块链的群组协同学习方法 | |
CN112799708A (zh) | 联合更新业务模型的方法及系统 | |
An et al. | PPQC: A blockchain-based privacy-preserving quality control mechanism in crowdsensing applications | |
Shi et al. | Fedfaim: A model performance-based fair incentive mechanism for federated learning | |
CN113298267B (zh) | 一种基于节点嵌入差异检测的垂直联邦模型防御方法 | |
CN115952532A (zh) | 一种基于联盟链联邦学习的隐私保护方法 | |
Li et al. | Feel: Federated end-to-end learning with non-iid data for vehicular ad hoc networks | |
Fan et al. | Mobile devices strategies in blockchain-based federated learning: A dynamic game perspective | |
CN116627970A (zh) | 一种基于区块链和联邦学习的数据共享方法及装置 | |
CN115481441A (zh) | 面向联邦学习的差分隐私保护方法及装置 | |
Halgamuge et al. | Trust model to minimize the influence of malicious attacks in sharding based blockchain networks | |
CN113452752A (zh) | 一种多域物联网场景下的信任管理、博弈方法、系统 | |
Wang et al. | Blockchain-based federated learning in mobile edge networks with application in internet of vehicles | |
Cheng et al. | Dynamic games for social model training service market via federated learning approach | |
CN114169387A (zh) | 模型训练方法和装置、电子设备、存储介质 | |
CN117171786A (zh) | 一种抵御投毒攻击的去中心化联邦学习方法 | |
CN116186629B (zh) | 基于个性化联邦学习的金融客户分类及预测方法、装置 | |
CN117216788A (zh) | 基于区块链的联邦学习隐私保护视频场景识别方法 | |
Jiao et al. | A blockchain federated learning scheme based on personalized differential privacy and reputation mechanisms | |
Qi et al. | A hybrid incentive mechanism for decentralized federated learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |