CN113609508B - 一种基于区块链的联邦学习方法、装置、设备及存储介质 - Google Patents
一种基于区块链的联邦学习方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113609508B CN113609508B CN202110976766.3A CN202110976766A CN113609508B CN 113609508 B CN113609508 B CN 113609508B CN 202110976766 A CN202110976766 A CN 202110976766A CN 113609508 B CN113609508 B CN 113609508B
- Authority
- CN
- China
- Prior art keywords
- training
- model
- participant
- encryption
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Storage Device Security (AREA)
Abstract
本发明公开了一种基于区块链的联邦学习方法、装置、设备及存储介质。该方法包括:当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;将训练数据存储至各个参与方节点的私有数据存储区域;调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种基于区块链的联邦学习方法、装置、设备及存储介质。
背景技术
随着物联网和边缘计算的兴起,大数据往往不会汇聚成一个单一的整体,而是分布在许多方面或者不同的位置。具体来讲:联邦学习具有以下特征:
1.有两个或者更多的参与方节点协作构建一个共享的机器学习模型。每一个参与方节点都有各自的用于训练该模型的数据。
2.参与方节点自己的数据一般是需要隐私保护的,也就是不会让别的参与方节点获取。
3.任何参与方节点不能从训练模型推测出其他参与方节点的原始训练数据。
4.联邦学习场景下的训练效果要足够接近将所有数据集中后进行训练的效果。
如图1所示,图1展示了一种常见的客户-服务器(C-S,client-server)架构下的横向联邦学习架构。横向联邦学习是指参与方节点的数据集具有相同的特征空间、不同的样本空间(训练数据)的场景。参与者A、B、C使用自己的本地数据对初始模型进行训练后,将各自更新后的模型加密传输发送给聚合服务器。聚合服务器通过联邦平均算法等方法将从参与者发送来的模型聚合更新好,并且将聚合后的模型再发送回各个参与者。这个过程可以重复执行,直到被训练的模型收敛。通过此流程,所有参与者既保证了本地数据的隐私性和安全性,又共同训练、完善和分享了训练模型,达到了互利共赢的目的。
存在的问题:
1.开发一个基于上述C-S架构的联邦学习平台非常复杂,需要解决许多加密传输、身份识别等许多区块链平台已经完成的事情。
2.无法对联邦学习的过程进行可信存证和追溯。
3.各参与方节点都需要信任第三方聚合服务器,聚合服务器存在获取或者泄漏各参与方节点中间训练模型的风险。
发明内容
本发明实施例提供一种基于区块链的联邦学习方法、装置、设备及存储介质,以解决无法对联邦学习的过程进行可信存证和追溯,以及聚合服务器存在获取或者泄漏各参与方节点中间训练模型的风险的问题,大大简化联邦学习平台实现的复杂度,有利于加速联邦学习的应用和推广。
第一方面,本发明实施例提供了一种基于区块链的联邦学习方法,包括:
当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
将训练数据存储至各个参与方节点的私有数据存储区域;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
进一步的,调用每个参与方节点上安装的训练算法智能合约,基于训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型,包括:
根据所述每个参与方节点对应的训练算法智能合约在每个参与方节点的子账本上安装训练算法智能合约;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到中间训练模型;
参与方节点使用同态算法对所述中间训练模型进行加密和签名,得到加密中间训练模型,并将所述加密中间训练模型写入所述子账本。
进一步的,所述联邦学习训练实例启动指令还携带每个参与方节点对应的评估算法智能合约;
相应的,在使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型之后,还包括:
在各个参与方节点接收到所述加密聚合联邦模型之后,会启动各自的评估算法智能合约以及模型评测数据对所述加密聚合联邦模型进行评测,得到所述加密聚合联邦模型对应的收敛参数;
如果各参与方节点对所述收敛参数达成共识,则将所述加密聚合联邦模型标记为最终模型,停止下一轮训练;
如果各参与方节点对所述收敛参数未达成共识,则各参与方节点基于所述训练数据对所述加密聚合联邦模型进行训练,直至各参与方节点对第三方安全多方计算服务节点计算出的加密聚合联邦模型对应的收敛参数达成共识,停止训练。
进一步的,在调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型之后,还包括:
使用区块链账本的读写权限控制策略设置所述加密中间训练模型仅供第三方安全多方计算服务节点读写。
第二方面,本发明实施例还提供了一种基于区块链的联邦学习装置,该装置包括:
创建模块,用于当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
存储模块,用于将训练数据存储至各个参与方节点的私有数据存储区域;
第一训练模块,用于调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
运算模块,用于在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
进一步的,所述第一训练模块具体用于:
根据所述每个参与方节点对应的训练算法智能合约在每个参与方节点的子账本上安装训练算法智能合约;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到中间训练模型;
参与方节点使用同态算法对所述中间训练模型进行加密和签名,得到加密中间训练模型,并将所述加密中间训练模型写入所述子账本。
进一步的,所述联邦学习训练实例启动指令还携带每个参与方节点对应的评估算法智能合约;
相应的,还包括:
评测模块,用于在各个参与方节点接收到所述加密聚合联邦模型之后,会启动各自的评估算法智能合约以及模型评测数据对所述加密聚合联邦模型进行评测,得到所述加密聚合联邦模型对应的收敛参数;
标记模块,用于如果各参与方节点对所述收敛参数达成共识,则将所述加密聚合联邦模型标记为最终模型,停止下一轮训练;
第二训练模块,用于如果各参与方节点对所述收敛参数未达成共识,则各参与方节点基于所述训练数据对所述加密聚合联邦模型进行训练,直至各参与方节点对第三方安全多方计算服务节点计算出的加密聚合联邦模型对应的收敛参数达成共识,停止训练。
进一步的,还包括:
权限设置模块,用于在调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型之后,使用区块链账本的读写权限控制策略设置所述加密中间训练模型仅供第三方安全多方计算服务节点读写。
第三方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明实施例中任一所述的基于区块链的联邦学习方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例中任一所述的基于区块链的联邦学习方法。
本发明实施例通过当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;将训练数据存储至各个参与方节点的私有数据存储区域;调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型,解决无法对联邦学习的过程进行可信存证和追溯,以及聚合服务器存在获取或者泄漏各参与方中间训练模型的风险的问题,大大简化联邦学习平台实现的复杂度,有利于加速联邦学习的应用和推广。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是现有技术中客户-服务器架构下的横向联邦学习系统示意图;
图2a是本发明实施例中的一种基于区块链的联邦学习方法的流程图;
图2b是本发明实施例中的基于区块链(联盟链)和安全多方计算的联邦学习方案的图示;
图3是本发明实施例中的一种基于区块链的联邦学习装置的结构示意图;
图4是本发明实施例中的一种电子设备的结构示意图;
图5是本发明实施例中的一种包含计算机程序的计算机可读存储介质的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。此外,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。此外,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本发明使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
图2a为本发明实施例提供的一种基于区块链的联邦学习方法的流程图,本实施例可适用于基于区块链的联邦学习的情况,该方法可以由本发明实施例中的基于区块链的联邦学习装置来执行,该装置可采用软件和/或硬件的方式实现,如图2a所示,该方法具体包括如下步骤:
S110,当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约。
其中,所述参与方节点为参与方对应的区块链节点。
具体的,底层联盟链支持私有数据功能,即每个区块链节点可以有自己的私有数据,区块链节点所有者设置私有数据可以被区块链同步机制同步到哪些其它节点或者只能被本节点访问。私有数据的摘要值(Hash值)会被自动存放在所有节点都可以访问的公共账本上,因此,节点所有者对私有数据的修改可以被区块链上的所有其他参与方节点察觉,虽然他们可能无法读取私有数据。
具体的,底层联盟链支持多账本机制,每次启动一个独立的联邦学习训练实例,都会创建一个子账本。其中,所述子账本为新的公共账本,每个子账本可以对应不同的参与方节点集合,不加入此账本的参与方节点无法访问此账本的数据和联邦学习训练实例,例如可以是,子账本1对应参与方节点A、参与方节点B、参与方节点C和第三方安全计算服务节点,子账本2对应参与方节点A、参与方节点C和第三方安全计算服务节点,参与方节点B不可以访问子账本2的数据和联邦学习训练实例。
具体的,子账本上的智能合约和数据都相互隔离,每个联邦学习训练实例都可以保持互相独立和隔离。每个参与方节点可以同时加入多个联邦学习训练实例,每个参与方节点可以同时加入多个对应的子账本,以实现计算资源的复用,降低使用成本。
S120,将训练数据存储至各个参与方节点的私有数据存储区域。
具体的,各参与方节点将训练数据都存放在各自节点的私有数据中,每个子账本都可以有自己独立的私有数据。当一个参与方节点加入多个联邦学习训练实例时,也同时加入了多个子账本,从而也有多个不同子账本上的私有数据实例,这些私有数据实例也是相互隔离的。
具体的,使用区块链的私有数据机制解决了联邦学习中的数据隐私问题。
S130,调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型。
其中,所述目标模型可以为初始模型,也可以为者聚合后的联邦模型。
具体的,模型的训练算法通过智能合约的形式实现,并由各参与方节点审阅代码达成共识后,安装在各自的区块链节点,并与指定公共账本相关联。训练的初始模型在各方达成共识后,作为训练算法智能合约的初始化参数在该智能合约执行初始化的时候,被写入到公共账本。因为训练算法智能合约和初始模型都由各参与方节点达成共识后签名确认,所以任何一方都无法篡改。区块链节点上安装的训练算法智能合约可以读取节点本地的训练数据和公共账本上的初始模型或者聚合后的联邦模型进行训练。
具体的,使用区块链的共识机制、账本同步机制、身份标志与验证机制解决了联邦学习中C-S网络、通信和身份认证问题。训练算法和评估算法以智能合约的形式实现,经各方签名共识后方可使用。使训练算法和评估算法公开透明,且不可篡改。
S140,在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
具体的,第三方安全多方计算服务节点提供公共的安全多方计算服务,通过以智能合约形式实现的同态加密算法对其他联邦学习参与方节点提交的更新模型进行聚合计算。其他联邦学习参与方节点提交的中间训练模型都经过了同态加密算法的加密,基于同态加密算法的智能合约可以在更新模型处于加密的情况下对这些模型进行聚合计算,计算得到的聚合联邦模型会被写入公共账本,并且同步到账本上的其他联邦学习参与方节点。作为计算结果的聚合联邦模型也是被同态加密算法加密的,只有各参与方节点才可以解密聚合联邦模型进行使用,第三方安全多方计算服务提供者无法解密,因而克服了传统的C-S架构聚合服务器泄露中间训练模型的风险。
具体的,标记各参与方节点训练生成的中间训练模型为ma、mb、mc,各参与方节点使用相同的同态算法公钥私钥对为(pubkey,privatekey)。参与方节点同态算法加密函数使用公钥pubkey,做初始化,E=Encryptor.init(pubkey),解密函数使用私钥privatekey做初始化D=Decryptor.init(privatekey)。加密后的模型为:ema=E(ma),加密后的模型只有用私钥privatekey才能解密,也就是m=D(ema)。安全多方计算服务的基于同态算法的聚合算法标记为:E.aggregator()。聚合后的联邦模型为:eim=E.aggregator(ema,emb,emc),该聚合后的联邦模型也是被加密的,只有用解密函数D才可以解开,解密后的联邦模型为:im=D(eim)。只有参与方节点有私钥privatekey可以解开。
本发明实施中目标模型、中间训练模型和聚合后的联邦模型都签名上链后进行存证,全程可追溯不可篡改。本发明实施例使用基于区块链的安全多方计算技术进行中间训练模型的聚合计算,避免聚合服务提供者的信任问题和数据泄露风险。且本发明实施例复用了区块链的大量基础功能,大大简化联邦学习平台实现的复杂度,有利于加速联邦学习的应用和推广。
可选的,调用每个参与方节点上安装的训练算法智能合约,基于训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型,包括:
根据所述每个参与方节点对应的训练算法智能合约在每个参与方节点的子账本上安装训练算法智能合约;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到中间训练模型;
参与方节点使用同态算法对所述中间训练模型进行加密和签名,得到加密中间训练模型,并将所述加密中间训练模型写入所述子账本。
具体的,训练算法智能合约和评估算法智能合约完成初始化之后,联盟学习业务层发送指令给联邦学习的各个参与方节点开始首轮训练。每个参与方节点都使用训练算法智能合约和训练数据对子账本上的目标模型进行训练,训练产生的中间训练模型由该参与方节点使用同态算法加密并签名后被写入公共账本。每个参与方节点生成的中间训练模型都是独立的,其他参与方节点无法篡改,可追溯。
可选的,所述联邦学习训练实例启动指令还携带每个参与方节点对应的评估算法智能合约;
相应的,在使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型之后,还包括:
在各个参与方节点接收到所述加密聚合联邦模型之后,会启动各自的评估算法智能合约以及模型评测数据对所述加密聚合联邦模型进行评测,得到所述加密聚合联邦模型对应的收敛参数;
如果各参与方节点对所述收敛参数达成共识,则将所述加密聚合联邦模型标记为最终模型,停止下一轮训练;
如果各参与方节点对所述收敛参数未达成共识,则各参与方节点基于所述训练数据对所述加密聚合联邦模型进行训练,直至各参与方节点对第三方安全多方计算服务节点计算出的加密聚合联邦模型对应的收敛参数达成共识,停止训练。
具体的,各个参与方节点同步到公共账本上的加密聚合联邦模型之后,会启动各自的评估算法智能合约以及公共账本上模型评测数据对加密聚合联邦模型进行评测。如果各参与方节点对训练的收敛参数达成共识,则聚合联邦模型会被标记为最终模型,停止下一轮训练;如果各参与方节点对训练的收敛参数未达成共识,则各参与方节点用使用本地的私有数据(训练数据)对加密聚合联邦模型进行新一轮的训练。如此反复迭代,直到第三方安全多方计算服务计算出的聚合联邦模型达到收敛。
可选的,在调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型之后,还包括:
使用区块链账本的读写权限控制策略设置所述加密中间训练模型仅供第三方安全多方计算服务节点读写。
具体的,各参与方节点使用区块链账本的读写权限控制策略将中间训练模型设置为只有第三方安全多方计算服务的区块链节点可以读写,其它参与方节点是无法读取的。所有参与方节点都使用相同的同态算法公私钥对,如果允许参与方节点读取其他参与方节点写入账本的加密中间训练模型,那么就可以进行解密,从而造成中间数据泄露。
在一个具体的例子中,如图2b所示,联邦学习业务层向参与方节点发送联邦学习训练实例启动指令,创建子账本,图2b中参与者A和参与者C同时加入了公共账本1和公共账本2上的联邦学习训练实例,可以同时访问这两个账本。参与者B只加入了公共账本1上的联邦学习训练实例,只能访问公共账本1上的数据。各参与方节点将训练数据都存放在各自节点的私有数据中,每个子账本都可以有自己独立的私有数据。当一个参与方节点加入多个联邦学习训练实例时,也同时加入了多个子账本,从而也有多个不同子账本上的私有数据实例,这些私有数据实例也是相互隔离的。模型的训练算法通过智能合约的形式实现,并由各方审阅代码达成共识后,安装在各自的区块链节点,并与指定公共账本相关联(即可以在该账本上执行该智能合约)。训练的初始模型在各方达成共识后,作为训练算法智能合约的初始化参数在该智能合约执行初始化的时候,被写入到公共账本。因为训练算法智能合约和初始模型都由各参与方节点达成共识后签名确认,所以任何一方都无法篡改。参与方节点上安装的训练算法智能合约可以读取节点本地的私有数据(训练数据)和公共账本上的初始模型或者聚合后的联邦模型进行训练。训练算法智能合约和评估算法智能合约完成初始化之后,联盟学习平台业务层可以发指令给联邦学习的各个参与方节点开始首轮训练。每个参与方节点都使用训练算法智能合约和本地节点上的私有数据中的训练数据对公共账本上的初始模型进行训练,训练产生的中间训练模型由该参与方节点使用同态算法加密并签名后被写入公共账本。每个参与方节点生成的中间训练模型都是独立的,其他参与方节点无法篡改,可追溯。各参与方节点使用区块链账本的读写权限控制策略将中间训练模型设置为只有第三方安全多方计算服务的区块链节点可以读写,其它参与方节点是无法读取的。因为所有参与方节点都使用相同的同态算法公私钥对,如果允许参与方节点读取其他参与方节点写入账本的加密中间训练模型,那么其可以进行解密,从而造成中间数据泄露。第三方安全多方计算服务提供者只是一个计算能力的提供方。第三方安全多方计算服务检测到更新到公共账本的中间训练模型后,会使用本地的基于同态算法的安全多方计算(或基于其它技术的安全多方计算算法)智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,计算出的聚合联邦模型被写入公共账本并且同步到各个参与方节点上,每个参与方节点都有权限读取。各个参与方节点同步到公共账本上的加密聚合联邦模型之后,会启动各自的评估算法智能合约以及公共账本上模型评测数据对加密聚合联邦模型进行评测。如果各参与方节点对训练的收敛参数达成共识,则聚合联邦模型会被标记为最终模型,停止下一轮训练;否则各参与方节点用使用本地的私有数据(训练数据)对该聚合联邦模型进行新一轮的训练。如此反复迭代,直到第三方安全多方计算服务计算出的聚合联邦模型达到收敛。
本实施例的技术方案,通过当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;将训练数据存储至各个参与方节点的私有数据存储区域;调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型,解决无法对联邦学习的过程进行可信存证和追溯,以及聚合服务器存在获取或者泄漏各参与方中间训练模型的风险的问题,大大简化联邦学习平台实现的复杂度,有利于加速联邦学习的应用和推广。
图3为本发明实施例提供的一种基于区块链的联邦学习装置的结构示意图。本实施例可适用于基于区块链的联邦学习的情况,该装置可采用软件和/或硬件的方式实现,该装置可集成在任何提供基于区块链的联邦学习功能的设备中,如图3所示,所述基于区块链的联邦学习装置具体包括:创建模块210、存储模块220、第一训练模块230和运算模块240。
其中,创建模块,用于当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
存储模块,用于将训练数据存储至各个参与方节点的私有数据存储区域;
第一训练模块,用于调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
运算模块,用于在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
可选的,所述第一训练模块具体用于:
根据所述每个参与方节点对应的训练算法智能合约在每个参与方节点的子账本上安装训练算法智能合约;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到中间训练模型;
参与方节点使用同态算法对所述中间训练模型进行加密和签名,得到加密中间训练模型,并将所述加密中间训练模型写入所述子账本。
可选的,所述联邦学习训练实例启动指令还携带每个参与方节点对应的评估算法智能合约;
相应的,还包括:
评测模块,用于在各个参与方节点接收到所述加密聚合联邦模型之后,会启动各自的评估算法智能合约以及模型评测数据对所述加密聚合联邦模型进行评测,得到所述加密聚合联邦模型对应的收敛参数;
标记模块,用于如果各参与方节点对所述收敛参数达成共识,则将所述加密聚合联邦模型标记为最终模型,停止下一轮训练;
第二训练模块,用于如果各参与方节点对所述收敛参数未达成共识,则各参与方节点基于所述训练数据对所述加密聚合联邦模型进行训练,直至各参与方节点对第三方安全多方计算服务节点计算出的加密聚合联邦模型对应的收敛参数达成共识,停止训练。
可选的,还包括:
权限设置模块,用于在调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型之后,使用区块链账本的读写权限控制策略设置所述加密中间训练模型仅供第三方安全多方计算服务节点读写。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
本实施例的技术方案,通过当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;将训练数据存储至各个参与方节点的私有数据存储区域;调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型,解决无法对联邦学习的过程进行可信存证和追溯,以及聚合服务器存在获取或者泄漏各参与方中间训练模型的风险的问题,大大简化联邦学习平台实现的复杂度,有利于加速联邦学习的应用和推广。
图4为本发明实施例中的一种电子设备的结构示意图。图4示出了适于用来实现本发明实施方式的示例性电子设备12的框图。图4显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。另外,本实施例中的电子设备12,显示器24不是作为独立个体存在,而是嵌入镜面中,在显示器24的显示面不予显示时,显示器24的显示面与镜面从视觉上融为一体。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of Independent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的基于区块链的联邦学习方法:
当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
将训练数据存储至各个参与方节点的私有数据存储区域;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
图5为本发明实施例中的一种包含计算机程序的计算机可读存储介质的结构示意图。本发明实施例提供了一种计算机可读存储介质61,其上存储有计算机程序610,该程序被一个或多个处理器执行时实现如本申请所有发明实施例提供的基于区块链的联邦学习方法:
当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
将训练数据存储至各个参与方节点的私有数据存储区域;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种基于区块链的联邦学习方法,其特征在于,所述方法包括:
当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
将训练数据存储至各个参与方节点的私有数据存储区域;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型;
所述联邦学习训练实例启动指令还携带每个参与方节点对应的评估算法智能合约;
相应的,在使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型之后,还包括:
在各个参与方节点接收到所述加密聚合联邦模型之后,会启动各自的评估算法智能合约以及模型评测数据对所述加密聚合联邦模型进行评测,得到所述加密聚合联邦模型对应的收敛参数;
如果各参与方节点对所述收敛参数达成共识,则将所述加密聚合联邦模型标记为最终模型,停止下一轮训练;
如果各参与方节点对所述收敛参数未达成共识,则各参与方节点基于所述训练数据对所述加密聚合联邦模型进行训练,直至各参与方节点对第三方安全多方计算服务节点计算出的加密聚合联邦模型对应的收敛参数达成共识,停止训练。
2.根据权利要求1所述的方法,其特征在于,调用每个参与方节点上安装的训练算法智能合约,基于训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型,包括:
根据所述每个参与方节点对应的训练算法智能合约在每个参与方节点的子账本上安装训练算法智能合约;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到中间训练模型;
参与方节点使用同态算法对所述中间训练模型进行加密和签名,得到加密中间训练模型,并将所述加密中间训练模型写入所述子账本。
3.根据权利要求1所述的方法,其特征在于,在调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型之后,还包括:
使用区块链账本的读写权限控制策略设置所述加密中间训练模型仅供第三方安全多方计算服务节点读写。
4.一种基于区块链的联邦学习装置,其特征在于,所述装置包括:
创建模块,用于当接收到业务层发送的联邦学习训练实例启动指令时,创建子账本,其中,所述联邦学习训练实例启动指令携带至少两个参与方节点的训练数据和每个参与方节点对应的训练算法智能合约;
存储模块,用于将训练数据存储至各个参与方节点的私有数据存储区域;
第一训练模块,用于调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型;
运算模块,用于在第三方安全多方计算服务节点检测到各个参与方节点提交的加密中间训练模型之后,使用智能合约对各个参与方节点提交的加密中间训练模型进行聚合运算,得到加密聚合联邦模型;
所述联邦学习训练实例启动指令还携带每个参与方节点对应的评估算法智能合约;
相应的,还包括:
评测模块,用于在各个参与方节点接收到所述加密聚合联邦模型之后,会启动各自的评估算法智能合约以及模型评测数据对所述加密聚合联邦模型进行评测,得到所述加密聚合联邦模型对应的收敛参数;
标记模块,用于如果各参与方节点对所述收敛参数达成共识,则将所述加密聚合联邦模型标记为最终模型,停止下一轮训练;
第二训练模块,用于如果各参与方节点对所述收敛参数未达成共识,则各参与方节点基于所述训练数据对所述加密聚合联邦模型进行训练,直至各参与方节点对第三方安全多方计算服务节点计算出的加密聚合联邦模型对应的收敛参数达成共识,停止训练。
5.根据权利要求4所述的装置,其特征在于,所述第一训练模块具体用于:
根据所述每个参与方节点对应的训练算法智能合约在每个参与方节点的子账本上安装训练算法智能合约;
调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到中间训练模型;
参与方节点使用同态算法对所述中间训练模型进行加密和签名,得到加密中间训练模型,并将所述加密中间训练模型写入所述子账本。
6.根据权利要求4所述的装置,其特征在于,还包括:
权限设置模块,用于在调用每个参与方节点上安装的训练算法智能合约,基于所述训练数据对所述子账本上的目标模型进行模型训练,得到加密中间训练模型之后,使用区块链账本的读写权限控制策略设置所述加密中间训练模型仅供第三方安全多方计算服务节点读写。
7.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述处理器实现如权利要求1-3中任一所述的方法。
8.一种包含计算机程序的计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被一个或多个处理器执行时实现如权利要求1-3中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110976766.3A CN113609508B (zh) | 2021-08-24 | 2021-08-24 | 一种基于区块链的联邦学习方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110976766.3A CN113609508B (zh) | 2021-08-24 | 2021-08-24 | 一种基于区块链的联邦学习方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113609508A CN113609508A (zh) | 2021-11-05 |
CN113609508B true CN113609508B (zh) | 2023-09-26 |
Family
ID=78341859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110976766.3A Active CN113609508B (zh) | 2021-08-24 | 2021-08-24 | 一种基于区块链的联邦学习方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113609508B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114006769B (zh) * | 2021-11-25 | 2024-02-06 | 中国银行股份有限公司 | 基于横向联邦学习的模型训练方法及其设备 |
CN114254386B (zh) * | 2021-12-13 | 2024-06-07 | 北京理工大学 | 基于层次聚合和区块链的联邦学习隐私保护系统及方法 |
CN114239857B (zh) * | 2021-12-29 | 2022-11-22 | 湖南工商大学 | 基于联邦学习的数据确权方法、装置、设备及介质 |
CN114339733B (zh) * | 2021-12-30 | 2023-12-01 | 中国电信股份有限公司 | 模型训练方法及相关设备 |
CN114897177B (zh) * | 2022-04-06 | 2024-07-23 | 中国电信股份有限公司 | 数据建模方法、装置、电子设备及存储介质 |
CN114760023A (zh) * | 2022-04-19 | 2022-07-15 | 光大科技有限公司 | 基于联邦学习的模型训练方法、装置及存储介质 |
CN115169576B (zh) * | 2022-06-24 | 2024-02-09 | 上海富数科技有限公司 | 基于联邦学习的模型训练方法、装置及电子设备 |
CN115297008B (zh) * | 2022-07-07 | 2023-08-22 | 鹏城实验室 | 基于智算网络的协同训练方法、装置、终端及存储介质 |
CN118157891A (zh) * | 2022-12-07 | 2024-06-07 | 中国移动通信有限公司研究院 | 用户识别方法、装置、相关设备及存储介质 |
CN116582341B (zh) * | 2023-05-30 | 2024-06-04 | 连连银通电子支付有限公司 | 异常检测方法、装置、设备及存储介质 |
CN116402169B (zh) * | 2023-06-09 | 2023-08-15 | 山东浪潮科学研究院有限公司 | 一种联邦建模验证方法、装置、设备及存储介质 |
CN117892339B (zh) * | 2023-12-28 | 2024-08-23 | 暨南大学 | 一种基于区块链的高可信度联合模型训练方法及系统 |
CN117714217B (zh) * | 2024-02-06 | 2024-05-28 | 河北数云堂智能科技有限公司 | 一种可信联邦智能安全计算平台的方法和装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493216A (zh) * | 2018-09-30 | 2019-03-19 | 北京小米移动软件有限公司 | 模型训练方法、装置、系统及存储介质 |
CN109685511A (zh) * | 2018-05-30 | 2019-04-26 | 上海分壳信息技术股份有限公司 | 基于区块链的数据使用权交易方法 |
CN111062044A (zh) * | 2019-12-09 | 2020-04-24 | 支付宝(杭州)信息技术有限公司 | 基于区块链的模型联合训练方法及装置 |
CN111212110A (zh) * | 2019-12-13 | 2020-05-29 | 清华大学深圳国际研究生院 | 一种基于区块链的联邦学习系统及方法 |
CN111539731A (zh) * | 2020-06-19 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 基于区块链的联邦学习方法及装置和电子设备 |
CN111598186A (zh) * | 2020-06-05 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 基于纵向联邦学习的决策模型训练方法、预测方法及装置 |
CN112199719A (zh) * | 2020-10-10 | 2021-01-08 | 深圳前海微众银行股份有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
CN112232527A (zh) * | 2020-09-21 | 2021-01-15 | 北京邮电大学 | 安全的分布式联邦深度学习方法 |
CN112583575A (zh) * | 2020-12-04 | 2021-03-30 | 华侨大学 | 一种车联网中基于同态加密的联邦学习隐私保护方法 |
CN112686393A (zh) * | 2020-12-31 | 2021-04-20 | 华南理工大学 | 一种联邦学习系统 |
CN113011598A (zh) * | 2021-03-17 | 2021-06-22 | 深圳技术大学 | 一种基于区块链的金融数据信息联邦迁移学习方法及装置 |
CN113204787A (zh) * | 2021-05-06 | 2021-08-03 | 广州大学 | 基于区块链的联邦学习隐私保护方法、系统、设备和介质 |
-
2021
- 2021-08-24 CN CN202110976766.3A patent/CN113609508B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685511A (zh) * | 2018-05-30 | 2019-04-26 | 上海分壳信息技术股份有限公司 | 基于区块链的数据使用权交易方法 |
CN109493216A (zh) * | 2018-09-30 | 2019-03-19 | 北京小米移动软件有限公司 | 模型训练方法、装置、系统及存储介质 |
CN111062044A (zh) * | 2019-12-09 | 2020-04-24 | 支付宝(杭州)信息技术有限公司 | 基于区块链的模型联合训练方法及装置 |
CN111212110A (zh) * | 2019-12-13 | 2020-05-29 | 清华大学深圳国际研究生院 | 一种基于区块链的联邦学习系统及方法 |
CN111598186A (zh) * | 2020-06-05 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 基于纵向联邦学习的决策模型训练方法、预测方法及装置 |
CN111539731A (zh) * | 2020-06-19 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 基于区块链的联邦学习方法及装置和电子设备 |
CN112232527A (zh) * | 2020-09-21 | 2021-01-15 | 北京邮电大学 | 安全的分布式联邦深度学习方法 |
CN112199719A (zh) * | 2020-10-10 | 2021-01-08 | 深圳前海微众银行股份有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
CN112583575A (zh) * | 2020-12-04 | 2021-03-30 | 华侨大学 | 一种车联网中基于同态加密的联邦学习隐私保护方法 |
CN112686393A (zh) * | 2020-12-31 | 2021-04-20 | 华南理工大学 | 一种联邦学习系统 |
CN113011598A (zh) * | 2021-03-17 | 2021-06-22 | 深圳技术大学 | 一种基于区块链的金融数据信息联邦迁移学习方法及装置 |
CN113204787A (zh) * | 2021-05-06 | 2021-08-03 | 广州大学 | 基于区块链的联邦学习隐私保护方法、系统、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113609508A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113609508B (zh) | 一种基于区块链的联邦学习方法、装置、设备及存储介质 | |
JP6892513B2 (ja) | 信頼できる実行環境に基づいたオフチェーンスマートコントラクトサービス | |
KR102145701B1 (ko) | 안전한 다자 계산에서 참가자에 의한 입력 데이터의 허위 표시 방지 | |
KR102215245B1 (ko) | 준동형 암호화를 사용하는 블록체인 데이터 보호 | |
KR102348768B1 (ko) | 동형 암호화를 이용한 블록체인 데이터 보호 | |
US9158925B2 (en) | Server-aided private set intersection (PSI) with data transfer | |
US11176282B2 (en) | Encrypting data associated with decentralized identifier | |
WO2019120326A2 (en) | Managing sensitive data elements in a blockchain network | |
TW201947445A (zh) | 區塊鏈資料處理方法、裝置、處理設備及系統 | |
TW201947910A (zh) | 一種區塊鏈資料處理方法、裝置、處理設備及系統 | |
TW201947444A (zh) | 一種區塊鏈資料處理方法、裝置、處理設備及系統 | |
US11251977B2 (en) | Validation data structure for decentralized identity claim | |
CN113162752B (zh) | 基于混合同态加密的数据处理方法和装置 | |
CN113792347B (zh) | 基于区块链的联邦学习方法、装置、设备及存储介质 | |
US20130305054A1 (en) | Truly anonymous cloud key broker | |
US20220164267A1 (en) | Failover between decentralized identity stores | |
CN111625852A (zh) | 一种基于文档和用户私钥的混合云架构下的电子签名方法 | |
Keshta et al. | Blockchain aware proxy re-encryption algorithm-based data sharing scheme | |
US20200265031A1 (en) | Hybrid centralized and decentralized enterprise system | |
EP4026291A1 (en) | Control of the delegated use of did-related data | |
CN114244525A (zh) | 请求数据处理方法、装置、设备及存储介质 | |
CN111478776B (zh) | 一种具有数字身份的可信混合云系统及其构建方法 | |
CN113344705A (zh) | 基于区块链的数据共享方法和系统 | |
CN116095671A (zh) | 一种基于元宇宙的资源共享方法及其相关设备 | |
CN112581285B (zh) | 一种股权交易系统中基于区块链的账户生成方法、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |