CN114418133A - 一种基于区块链的异步联邦学习方法、系统、设备及介质 - Google Patents

一种基于区块链的异步联邦学习方法、系统、设备及介质 Download PDF

Info

Publication number
CN114418133A
CN114418133A CN202210068500.3A CN202210068500A CN114418133A CN 114418133 A CN114418133 A CN 114418133A CN 202210068500 A CN202210068500 A CN 202210068500A CN 114418133 A CN114418133 A CN 114418133A
Authority
CN
China
Prior art keywords
model
block chain
asynchronous
training
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210068500.3A
Other languages
English (en)
Inventor
苏新铎
戴晶帼
陈�光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRG Banking Equipment Co Ltd
Original Assignee
GRG Banking Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GRG Banking Equipment Co Ltd filed Critical GRG Banking Equipment Co Ltd
Priority to CN202210068500.3A priority Critical patent/CN114418133A/zh
Publication of CN114418133A publication Critical patent/CN114418133A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于区块链的异步联邦学习方法、系统、设备及介质,其异步联邦学习方法包括:接收任一区块链节点上传的原始模型,为原始模型标记赋值为0的序号,将原始模型及其对应的序号保存在区块链上;控制参与节点依次接收区块链上带有序号的原始模型,根据序号计算对应的时延系数,使用时延系数和对应的原始模型在本地进行聚合以计算获得全局模型;利用当前所述参与节点的本地数据对所述全局模型进行训练,直至满足停止条件才停止训练任务以在训练完毕后获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上。本发明可提高系统安全性,同时提高联邦学习效率。

Description

一种基于区块链的异步联邦学习方法、系统、设备及介质
技术领域
本发明涉及区块链技术领域,尤其涉及一种基于区块链的异步联邦学习方法、系统、设备及存储介质。
背景技术
目前,现有的联邦学习系统通常需要一个中心方进行模型整合,即中心方需要获取每个节点每一轮学习训练所得的模型,并需要等待每一轮全部或大部分参与节点完成训练后再对获得的模型进行聚合;但是,利用中心方进行模型聚合的方法有可能通过模型推理出节点的本地数据,若在联邦学习中节点本身和相互通信时遭到恶意攻击行为,则面临本地数据泄露风险。且在网络中各节点计算效率不同,若存在算力不足的节点,则需要花费大量的时间用于等待算力不足的节点完成模型训练后才可进行模型聚合,导致模型收敛缓慢,大大降低了联邦学习的效率。
为了解决中心方导致的问题,现有技术中也存在使用区块链实现异步联邦学习的方法,例如专利文献CN 112949868 A所公开的《一种基于区块链的异步联邦学习方法、装置及电子设备》,该专利文献记载着当存在多个基于同一模型(即文中所称“第一全局模型”)使用本地数据训练得到的新模型(即文中所称“第二全局模型”)时,该技术方案中“按照目标条件,在所述多个第二全局模型中选取目标全局模型,并将所述目标全局模型作为新的第一全局模型存储至区块链中”,即对于未被选中的模型丢弃,是一种对于算力和数据的损失,无法充分发挥异步系统的优越性。
发明内容
为了克服上述技术问题,本发明的目的之一在于提供一种基于区块链的异步联邦学习方法。
本发明的目的之二在于提供一种基于区块链的异步联邦学习系统。
本发明的目的之三在于提供一种电子设备。
本发明的目的之四在于提供一种计算机可读存储介质。
本发明的目的之一采用如下技术方案实现:
一种基于区块链的异步联邦学习方法,包括:
接收任一区块链节点上传的原始模型,为所述原始模型标记赋值为0的序号,将所述原始模型及其对应的所述序号保存在所述区块链上;
控制参与节点依次接收所述区块链上带有所述序号的所述原始模型,根据所述序号计算对应的时延系数,使用所述时延系数和对应的所述原始模型在本地进行聚合以计算获得全局模型;
利用当前所述参与节点的本地数据对所述全局模型进行训练,直至满足停止条件才停止训练任务以在训练完毕后获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上。
进一步地,在所述控制参与节点接收所述区块链上带有所述序号的所述原始模型的之前,还包括:
对所述参与节点进行身份验证以确保每个所述参与节点在通过其身份验证后才允许所述参与节点接收所述区块链上带有所述序号的模型。
进一步地,计算获得所述全局模型的方法为:
Xt←(1-αt)Xt-1txnew
其中,Xt代表序号t时的全局模型;Xt-1代表序号t-1时的全局模型;αt代表时延系数,与时间有关;xnew代表基于Xt-1模型使用本地数据训练得到的本地模型。
进一步地,所述时延系数的计算方法为:
αt←α×f(t-τ);
f(t-τ)=(t-τ+1)-1
其中,αt代表时延系数,α代表超参数,取值在(0,1)之间,t-τ代表当前最新的序号与本地模型使用的全局模型序号的差;f()代表时延函数。
进一步地,判断是否满足所述停止条件的方法为:
判断所述全局模型在进行训练过程中是否收敛,若收敛则满足停止条件;或,
判断训练任务的执行时间是否超过预设时间,若超过则满足停止条件;或,
判断在预设时间内参与训练的所述区块链节点的数量是否小于预设值,若是则满足停止条件。
进一步地,若判断得出所述执行时间超过预设时间,或在所述预设时间内参与训练的所述区块链节点的数量小于所述预设值时,生成并推送任务失败提示消息。
进一步地,当满足所述停止条件时,还包括:
调取预设的激励政策,结合所述区块链记录的各节点参与情况生成并推送对应的发放奖励资源。
本发明的目的之二采用如下技术方案实现:
一种基于区块链的异步联邦学习系统,执行如上述的基于区块链的异步联邦学习方法,其系统应用在包含目标节点和参与节点的区块链上;
所述目标节点用于根据任务需求上传原始模型,为所述原始模型标记赋值为0的序号,将所述原始模型及其对应的所述序号保存在所述区块链上;
所述参与节点用于接收所述区块链上带有所述序号的所述原始模型,根据所述序号计算对应的时延系数,使用所述时延系数和对应的所述原始模型在本地进行聚合以计算获得全局模型;利用当前所述参与节点的本地数据对所述全局模型进行训练以获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上,直至当前节点参与情况满足停止条件才停止训练任务。
本发明的目的之三采用如下技术方案实现:
一种电子设备,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现基于区块链的异步联邦学习方法。
本发明的目的之四采用如下技术方案实现:
一种存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述的基于区块链的异步联邦学习方法。
相比现有技术,本发明的有益效果在于:
(1)本发明基于区块链技术实现联邦学习过程,实现了去中心化的联邦学习,提高了联邦学习系统的安全性;
(2)使用异步联邦学习,并通过时延系数体现不同时刻模型对全局模型的影响,避免了系统中其余节点等待、堵塞的情况,还可解决因各节点训练效率不同而导致模型收敛缓慢的问题,提高了联邦学习整体效率;
(3)记录每个节点的模型更新历史,从而实现可追溯,并为参与节点提供可信的贡献激励评估机制。
附图说明
图1为本发明基于区块链的异步联邦学习方法的流程示意图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
在现有的联邦学习系统中往往需要一个中心方进行模型聚合,在模型聚合过程中,中心方可以得到全部节点的每一轮的模型,导致中心方有可能通过模型推理出节点的本地数据,存在一定的安全隐患;且由于各节点训练效率不同,直接进行模型聚合需要等待每一轮全部(或者大部分)参与节点完成训练后再进行聚合,若网络中存在算力不足的节点,会导致模型收敛缓慢,大大降低联邦学习系统的效率;再加上,现有基于区块链的异步联邦学习过程中对于未被选中的模型进行丢弃,无法充分利用各节点的算力,造成一定程度的算力和数据损失,无法充分发挥异步系统的优越性。
基于上述种种问题,本实施例提供一种基于区块链的异步联邦学习方法,利用区块链实现去中心化,保证信息不被篡改,可对恶意节点进行检测及追溯,有效防止联邦学习中节点本身和相互通信的过程中可能遭到的恶意攻击行为,提高安全性,同时还可有效利用各参与节点的算力,大幅度提高联邦学习效率。
如图1所示,本实施例基于区块链的异步联邦学习方法具体包括如下步骤:
步骤S1:接收任一区块链节点上传的原始模型,为所述原始模型标记赋值为0的序号,将所述原始模型及其对应的所述序号保存在所述区块链上;
步骤S2:控制参与节点依次接收所述区块链上带有所述序号的所述原始模型,根据所述序号计算对应的时延系数,使用所述时延系数和对应的所述原始模型在本地进行聚合以计算获得全局模型;
步骤S3:利用当前所述参与节点的本地数据对所述全局模型进行训练以获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上;
步骤S4:判断当前节点参与情况是否满足停止条件,若不满足则跳转步骤S2继续进行训练任务,若满足则停止训练任务。
本实施例中,任务发起方通过任意一区块链节点提供原始模型,其中包括了模型结构以及模型参数,并将原始模型及其赋值为0的序号保存在区块链上。参与节点接收区块链上带有序号的原始模型的之前,还需要对参与节点身份进行验证,当一参与节点通过其授权验证以及身份验证时才可让该参与节点从区块链上得到带有序号的原始模型,以提高系统安全性的同时还可实现溯源效果。
参与节点从链上得到带有序号的原始模型,根据序号计算对应的时延系数,其中,所述时延系数的计算公式为:
αt←α×f(t-τ);
f(t-τ)=(t-τ+1)-1
该公式中αt代表时延系数,α代表超参数,取值在(0,1)之间,t-τ代表当前最新的序号与本地模型使用的全局模型序号的差;其中f()代表时延函数,时延函数的计算方法也可以选择其他满足要求的函数,只需f()的性质满足下述要求:1、当t=τ时,f()=1;2、f()恒大于0;3、t-τ增大时,f()单调减小。其他函数可以是:f(t-τ)=2*(1+et-τ)-1
参与节点根据序号计算时延系数后,使用时延系数和对应的原始模型在本地进行聚合以计算出全局模型,具体公式为:
Xt←(1-αt)Xt-1txnew
其中,Xt代表序号t时的全局模型;Xt-1代表序号t-1时的全局模型;αt代表时延系数,与时间有关;xnew代表基于Xt-1模型使用本地数据训练得到的本地模型。
举个例子,从序号为0时的全局模型X0计算得到序号为2时的全局模型X2的计算公式如下:
X1←(1-α1)X01x1
X2←(1-α2)X12x2=(1-α121α2)X0+(α11α2)x12x2
……
其中,初始化模型X0,每一次的本地模型xnew,对应的序号t均保存在链上。
参与节点使用本地数据对所述全局模型进行训练以获得本地模型,并在训练完成后将本地模型的序号加一,并将新的本地模型所对应的模型参数及模型所对应的序号均保存在区块链上。
其后新加入新的参与节点,需要对新加入的参与节点进行授权和身份验证后再重复步骤S2~S4,直至当前节点参与情况满足停止条件才结束训练任务。
而本实施例中判断当前节点参与情况是否满足停止条件的方法包括:
a、判断模所述全局模型在进行训练过程中是否收敛,若收敛则满足停止条件,此时训练任务属于正常结束情况,此时可调取预设的激励政策,结合区块链记录的各节点参与情况生成并推送对应的发放奖励资源;例如,根据节点上传本地模型的次数发放奖励。
b、判断训练任务的执行时间是否超过预设时间,若超过则满足停止条件;此时出现超时属于训练任务失败的情况,此时任务结束并生成并推送任务失败提示信息,以告知用户训练失败的原因。
c、判断在预设时间内参与训练的所述区块链节点的数量是否小于预设值,若是则满足停止条件,若参与节点数量过少,也同样可视为任务失败情况,此时任务结束并生成并推送任务失败提示信息,以告知用户训练失败的原因。
在进行停止条件判断时若满足以上任一停止条件都结合当前训练任务,若判断过程中未出现上述任一停止条件,则继续循环执行步骤S2~S4的任务训练。
实施例二
本实施例提供一种基于区块链的异步联邦学习系统,执行如实施例一所述的基于区块链的异步联邦学习方法,其系统应用在包含目标节点和参与节点的区块链上;
所述目标节点用于根据任务需求上传原始模型,为所述原始模型标记赋值为0的序号,将所述原始模型及其对应的所述序号保存在所述区块链上;
所述参与节点用于接收所述区块链上带有所述序号的所述原始模型,根据所述序号计算对应的时延系数,使用所述时延系数和对应的所述原始模型在本地进行聚合以计算获得全局模型;利用当前所述参与节点的本地数据对所述全局模型进行训练,直至满足停止条件才停止训练任务以在训练完毕后获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上。
本实施例利用区块链技术实现去中心化目的,保证信息不被篡改,可对恶意节点进行检测及追溯,有效防止联邦学习中节点本身和相互通信的过程中可能遭到的恶意攻击行为。实现去中心化指的是,每个节点通过链上保存的信息独立计算最新的全局模型。相同时刻计算得到的全局模型相同。因此不需要特定的中心节点提供模型聚合功能,从而避免了不可信中心方带来的问题。保证信息不被篡改指的是,更新模型所需的信息均存储在链上,由于区块链本身的特性(修改大量区块的成本极高,从而几乎是不可能的),数据一经发布无法被篡改;可对恶意节点进行检测及追溯指的是用户/系统可通过其他手段对链上的模型信息进行检测,判断是否是恶意节点。恶意节点指的是具有恶意攻击行为的节点,目的在于入侵、控制甚至破坏整个网络,例如使用噪声充当本地模型影响模型收敛。因为区块链中的每一笔交易记录中均绑定了交易者信息,因此可以被完整记录和追溯,不可被摧毁或篡改。
而本实施例采用异步联邦学习可允许参与节点独立获取到最新的全局模型,不需要等到一定数目的节点均就绪后再更新模型,无需等待因此不会造成堵塞。异步联邦学习的另一个好处在于允许节点灵活的接入训练任务,节点利用率更高,灵活断开训练任务,不影响其他节点。时延系数α的作用在于,因为各节点计算效率不同,模型的新鲜度不同,因此在聚合时对全局模型的影响也不同。举例来说,A,B两节点均是基于序号t-1的模型进行训练,其中A节点算力好运算快,先完成模型fA训练并更新到链上,并将序号更新为t;此时C节点加入,并基于序号t的模型fC并进行本地训练,完成模型训练并连同序号t+1一起更新到链上;同时,B节点训练速度慢,刚刚完成了模型fB并更新到链上,此时模型fB的序号为t;此时B节点序号t小于链上最新序号t+1,被视为陈旧节点,在模型聚合时fB的权重应当小于fC的权重。相当于通过设置时延系数α,使得陈旧的节点的模型在全局模型上合并时系数更低,通过这种方式有效利用计算效率不同的节点设备,充分发挥了异步系统的优越性。
实施例三
本实施例提供一种电子设备,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现实施例一中的基于区块链的异步联邦学习方法;另外,本实施例还提供一种存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述的基于区块链的异步联邦学习方法。
本实施例中的设备及存储介质与前述实施例中的方法是基于同一发明构思下的两个方面,在前面已经对方法实施过程作了详细的描述,所以本领域技术人员可根据前述描述清楚地了解本实施例中的设备及存储介质的结构及实施过程,为了说明书的简洁,在此就不再赘述。
上述实施方式仅为本发明的优选实施方式,不能以此来限定本发明保护的范围,本领域的技术人员在本发明的基础上所做的任何非实质性的变化及替换均属于本发明所要求保护的范围。

Claims (10)

1.一种基于区块链的异步联邦学习方法,其特征在于,包括:
接收任一区块链节点上传的原始模型,为所述原始模型标记赋值为0的序号,将所述原始模型及其对应的所述序号保存在所述区块链上;
控制参与节点依次接收所述区块链上带有所述序号的所述原始模型,根据所述序号计算对应的时延系数,使用所述时延系数和对应的所述原始模型在本地进行聚合以计算获得全局模型;
利用当前所述参与节点的本地数据对所述全局模型进行训练,直至满足停止条件才停止训练任务以在训练完毕后获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上。
2.根据权利要求1所述的基于区块链的异步联邦学习方法,其特征在于,在所述控制参与节点接收所述区块链上带有所述序号的所述原始模型的之前,还包括:
对所述参与节点进行身份验证以确保每个所述参与节点在通过其身份验证后才允许所述参与节点接收所述区块链上带有所述序号的模型。
3.根据权利要求1所述的基于区块链的异步联邦学习方法,其特征在于,计算获得所述全局模型的方法为:
Xt←(1-αt)Xt-1txnew
其中,Xt代表序号t时的全局模型;Xt-1代表序号t-1时的全局模型;αt代表时延系数,与时间有关;xnew代表基于Xt-1模型使用本地数据训练得到的本地模型。
4.根据权利要求3所述的基于区块链的异步联邦学习方法,其特征在于,所述时延系数的计算方法为:
αt←α×f(t-τ);
f(t-τ)=(t-τ+1)-1
其中,αt代表时延系数,α代表超参数,取值在(0,1)之间,t-τ代表当前最新的序号与本地模型使用的全局模型序号的差;f()代表时延函数。
5.根据权利要求1所述的基于区块链的异步联邦学习方法,其特征在于,判断是否满足所述停止条件的方法为:
判断所述全局模型在进行训练过程中是否收敛,若收敛则满足停止条件;或,
判断训练任务的执行时间是否超过预设时间,若超过则满足停止条件;或,
判断在预设时间内参与训练的所述区块链节点的数量是否小于预设值,若是则满足停止条件。
6.根据权利要求5所述的基于区块链的异步联邦学习方法,其特征在于,若判断得出所述执行时间超过预设时间,或在所述预设时间内参与训练的所述区块链节点的数量小于所述预设值时,生成并推送任务失败提示消息。
7.根据权利要求1所述的基于区块链的异步联邦学习方法,其特征在于,当满足所述停止条件时,还包括:
调取预设的激励政策,结合所述区块链记录的各节点参与情况生成并推送对应的发放奖励资源。
8.一种基于区块链的异步联邦学习系统,其特征在于,执行如权利要求1~7任意一项所述的基于区块链的异步联邦学习方法,其系统应用在包含目标节点和参与节点的区块链上;
所述目标节点用于根据任务需求上传原始模型,为所述原始模型标记赋值为0的序号,将所述原始模型及其对应的所述序号保存在所述区块链上;
所述参与节点用于接收所述区块链上带有所述序号的所述原始模型,根据所述序号计算对应的时延系数,使用所述时延系数和对应的所述原始模型在本地进行聚合以计算获得全局模型;利用当前所述参与节点的本地数据对所述全局模型进行训练,直至满足停止条件才停止训练任务以在训练完毕后获得本地模型,对所述本地模型所对应的所述序号进行递增,并将所述本地模型参数及其对应的所述序号保存在所述区块链上。
9.一种电子设备,其特征在于,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1~7任一所述的基于区块链的异步联邦学习方法。
10.一种存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被执行时实现权利要求1~7任一所述的基于区块链的异步联邦学习方法。
CN202210068500.3A 2022-01-20 2022-01-20 一种基于区块链的异步联邦学习方法、系统、设备及介质 Pending CN114418133A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210068500.3A CN114418133A (zh) 2022-01-20 2022-01-20 一种基于区块链的异步联邦学习方法、系统、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210068500.3A CN114418133A (zh) 2022-01-20 2022-01-20 一种基于区块链的异步联邦学习方法、系统、设备及介质

Publications (1)

Publication Number Publication Date
CN114418133A true CN114418133A (zh) 2022-04-29

Family

ID=81275855

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210068500.3A Pending CN114418133A (zh) 2022-01-20 2022-01-20 一种基于区块链的异步联邦学习方法、系统、设备及介质

Country Status (1)

Country Link
CN (1) CN114418133A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117094420A (zh) * 2023-10-20 2023-11-21 浙江大学 一种模型训练方法、装置和功率预测方法以及设备和介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117094420A (zh) * 2023-10-20 2023-11-21 浙江大学 一种模型训练方法、装置和功率预测方法以及设备和介质
CN117094420B (zh) * 2023-10-20 2024-02-06 浙江大学 一种模型训练方法、装置和功率预测方法以及设备和介质

Similar Documents

Publication Publication Date Title
WO2021114929A1 (zh) 基于区块链的模型联合训练方法及装置
Eyal et al. Majority is not enough: Bitcoin mining is vulnerable
Yun et al. DQN-based optimization framework for secure sharded blockchain systems
CN105214310A (zh) 一种游戏战斗校验方法、系统及服务端
CN112132579B (zh) 一种区块链共识节点更新方法及装置
CN105045597B (zh) 一种java卡对象调用方法及装置
AU2023270268A1 (en) Declarative smart contracts
CN113992526B (zh) 一种基于可信度计算的联盟链跨链数据融合方法
CN110288348B (zh) 基于传播活跃度和资产证明的区块链共识方法及系统
CN113010922B (zh) 一种防篡改的能源工业互联网多边缘链数据共享方法
JP2022033570A (ja) 攻撃シナリオシミュレーション装置、攻撃シナリオ生成システム、および攻撃シナリオ生成方法
CN114418133A (zh) 一种基于区块链的异步联邦学习方法、系统、设备及介质
CN116233177A (zh) 基于区块链和动态信誉的车联网数据安全共享方法及系统
CN111865595B (zh) 一种区块链的共识方法及装置
CN111346371A (zh) 一种信息处理方法、装置及计算机可读存储介质
CN112565370B (zh) 基于无线通信与区块链场景的计算结果验证方法及系统
CN109241783A (zh) 移动终端管控策略的实施方法及装置
CN109472600B (zh) 一种区块链可信验证方法及装置
Tajeddine et al. PATROL-F–a comprehensive reputation-based trust model with fuzzy subsystems
CN112948847B (zh) 基于区块链的数据共享系统及数据正确性验证方法
CN109699030A (zh) 无人机认证方法、装置、设备和计算机可读存储介质
CN112860807B (zh) 一种适用于无线区块链网络的容错共识方法
CN115190027A (zh) 一种基于网络数字孪生体的自然故障生存性评估方法
CN108418800B (zh) 基于资格迹和在线更新式的电力信息系统安全策略系统
Jha et al. Enforcing semantic integrity on untrusted clients in networked virtual environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination