CN111967610B - 基于区块链的联邦学习激励方法、装置、设备及存储介质 - Google Patents

基于区块链的联邦学习激励方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111967610B
CN111967610B CN202010832482.2A CN202010832482A CN111967610B CN 111967610 B CN111967610 B CN 111967610B CN 202010832482 A CN202010832482 A CN 202010832482A CN 111967610 B CN111967610 B CN 111967610B
Authority
CN
China
Prior art keywords
data
participant
local
model
federal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010832482.2A
Other languages
English (en)
Other versions
CN111967610A (zh
Inventor
李瑞男
狄潇然
张亚泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bank of China Ltd
Original Assignee
Bank of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of China Ltd filed Critical Bank of China Ltd
Priority to CN202010832482.2A priority Critical patent/CN111967610B/zh
Publication of CN111967610A publication Critical patent/CN111967610A/zh
Application granted granted Critical
Publication of CN111967610B publication Critical patent/CN111967610B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/64Protecting data integrity, e.g. using checksums, certificates or signatures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明实施例提供了一种基于区块链的联邦学习激励方法、装置、设备及存储介质,其中,该方法包括:获取各个参与方的本地数据和本地模型;基于联邦学习框架对所有参与方的本地数据进行训练,得到联邦模型;分别计算各个本地模型的性能指数,计算联邦模型的性能指数;针对每个参与方,根据该参与方的本地模型的性能指数和联邦模型的性能指数,计算该参与方的本地数据对所述联邦学习框架的数据贡献度;根据各个参与方的数据贡献度,向各个参与方分配激励值,将相关数据存区块链上。该方案促使参与方更加积极地为联邦学习提供数据,有利于优化联邦模型,有利于联邦学习框架的推广,该方法具有准确性、可靠性。

Description

基于区块链的联邦学习激励方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,特别涉及一种基于区块链的联邦学习激励方法、装置、设备及存储介质。
背景技术
目前,联邦学习框架是一种分布式的人工智能模型训练框架,可以使多个参与方在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,解决数据孤岛,为不同公司的孤岛数据,提供了一个好的数据价值挖掘平台,通过联邦学习得到的联邦模型可以比单独任何一个公司仅靠自己的数据训练的模型效果更好。
但是,目前参与方没有主动创造使用数据的动力,不利于优化联邦模型,不利于联邦学习框架的持续发展,不利于联邦学习框架的推广。
发明内容
本发明实施例提供了一种基于区块链的联邦学习激励方法,以解决现有技术中联邦模型优化受限、联邦学习框架推广受限的技术问题。该方法包括:
获取各个参与方的本地数据和本地模型,所述本地模型是各个参与方基于自身的所述本地数据训练得到的;
基于联邦学习框架对所有参与方的所述本地数据进行训练,得到联邦模型;
分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数;
针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度;
根据各个参与方的所述数据贡献度,向各个参与方分配激励值;
将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上;
其中,将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上,包括:
针对每个参与方,计算该参与方的所述本地模型与一个随机数拼接后的哈希值,使用该参与方的公钥加密对应的所述一个随机数,将该参与方的所述本地模型、哈希值以及加密后的所述一个随机数存储在所述区块链上;
还包括:
各参与方从区块链获取各个参与方的数据贡献度;
出现参与方对数据贡献度有意见时,各个参与方使用新地址将新的本地数据上传区块链,重新计算各个参与方的数据贡献度。
本发明实施例还提供了一种基于区块链的联邦学习激励装置,以解决现有技术中联邦模型优化受限、联邦学习框架推广受限的技术问题。该装置包括:
本地数据处理模块,用于获取各个参与方的本地数据和本地模型,所述本地模型是各个参与方基于自身的所述本地数据训练得到的;
联邦数据处理模块,用于基于联邦学习框架对所有参与方的所述本地数据进行训练,得到联邦模型;
性能计算模块,用于分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数;
贡献度计算模块,用于针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度;
激励分配模块,用于根据各个参与方的所述数据贡献度,向各个参与方分配激励值;
数据存储模块,用于将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上;
其中,所述数据存储模块,用于针对每个参与方,计算该参与方的所述本地模型与一个随机数拼接后的哈希值,使用该参与方的公钥加密对应的所述一个随机数,将该参与方的所述本地模型、哈希值以及加密后的所述一个随机数存储在所述区块链上;
激励分配模块,还用于:
各参与方从区块链获取各个参与方的数据贡献度;
出现参与方对数据贡献度有意见时,各个参与方使用新地址将新的本地数据上传区块链,重新计算各个参与方的数据贡献度。
本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意的基于区块链的联邦学习激励方法,以解决现有技术中联邦模型优化受限、联邦学习框架推广受限的技术问题。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任意的基于区块链的联邦学习激励方法,以解决现有技术中联邦模型优化受限、联邦学习框架推广受限的技术问题。
在本发明实施例中,提出了分别得到各个参与方的基于自身本地数据训练的本地模型,进而根据所有参与方的本地数据训练得到联邦模型,进而分别计算联邦模型的性能指数和各个参与方的本地模型的性能指数,再根据每个参与方的本地模型的性能指数和联邦模型的性能指数,计算每个参与方的本地数据对联邦学习框架的数据贡献度,最后,根据各个参与方的数据贡献度,向各个参与方分配激励值。实现了根据各个参与方对联邦学习框架的数据贡献度来向各个参与方分配激励值,数据贡献度的大小直观反映了参与方的数据对提升、优化联邦模型的贡献程度,激励值的分配实现了通过激励机制来促进、激励参与方积极参与、投入到联邦学习,有利于促使参与方主动、积极地创造使用数据,更加积极地为联邦学习提供数据,进而有利于优化联邦模型,有利于联邦学习框架的持续发展,有利于联邦学习框架的推广;同时,上述基于区块链的联邦学习激励方法通过将参与方的数据贡献度与本地模型的性能和联邦模型的性能关联起来,而不考虑各个参与方提供数据的质量和数量,使得将数据贡献度量化问题转化为数值化、简单化,也相对更具有准确性或者可靠性,也有利于上述基于区块链的联邦学习激励方法更简单、有效;此外,区块链的使用,以便后续可以基于区块链的不可篡改性,对上述基于区块链的联邦学习激励方法分配激励的过程进行公开复盘、追溯。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。在附图中:
图1是本发明实施例提供的一种基于区块链的联邦学习激励方法的流程图;
图2是本发明实施例提供的一种实施上述基于区块链的联邦学习激励方法的流程图;
图3是本发明实施例提供的一种计算机设备的结构框图;
图4是本发明实施例提供的一种基于区块链的联邦学习激励装置的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施方式和附图,对本发明做进一步详细说明。在此,本发明的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。
在本发明实施例中,提供了一种基于区块链的联邦学习激励方法,如图1所示,该方法包括:
步骤102:获取各个参与方的本地数据和本地模型,所述本地模型是各个参与方基于自身的所述本地数据训练得到的;
步骤104:基于联邦学习框架对所有参与方的所述本地数据进行训练,得到联邦模型;
步骤106:分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数;
步骤108:针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度;
步骤110:根据各个参与方的所述数据贡献度,向各个参与方分配激励值;
步骤112:将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上。
由图1所示的流程可知,在本发明实施例中,提出了分别得到各个参与方的基于自身本地数据训练的本地模型,进而根据所有参与方的本地数据训练得到联邦模型,进而分别计算联邦模型的性能指数和各个参与方的本地模型的性能指数,再根据每个参与方的本地模型的性能指数和联邦模型的性能指数,计算每个参与方的本地数据对联邦学习框架的数据贡献度,最后,根据各个参与方的数据贡献度,向各个参与方分配激励值。实现了根据各个参与方对联邦学习框架的数据贡献度来向各个参与方分配激励值,数据贡献度的大小直观反映了参与方的数据对提升、优化联邦模型的贡献程度,激励值的分配实现了通过激励机制来促进、激励参与方积极参与、投入到联邦学习,有利于促使参与方主动、积极地创造使用数据,更加积极地为联邦学习提供数据,进而有利于优化联邦模型,有利于联邦学习框架的持续发展,有利于联邦学习框架的推广;同时,上述基于区块链的联邦学习激励方法通过将参与方的数据贡献度与本地模型的性能和联邦模型的性能关联起来,而不考虑各个参与方提供数据的质量和数量,使得将数据贡献度量化问题转化为数值化、简单化,也相对更具有准确性或者可靠性,也有利于上述基于区块链的联邦学习激励方法更简单、有效;此外,区块链的使用,以便后续可以基于区块链的不可篡改性,对上述基于区块链的联邦学习激励方法分配激励的过程进行公开复盘、追溯。
具体实施时,联邦学习的各个参与方基于本地数据训练本地模型的过程以及联邦学习框架基于所有参与方的本地数据训练联邦模型的过程的实现方式,本申请不做具体限定,可以基于现有方式实现。
具体实施时,为了进一步体现联邦学习激励机制的有效、准确性,在本实施例中,采用统一的、不单独涉及任意参与方的数据来计算各个本地模型的性能指数和所述联邦模型的性能指数,具体的,运行联邦模型,通过运行联邦模型不断获取新的数据,采用部分或全部运行联邦模型得到的数据来计算各个本地模型的性能指数和联邦模型的性能指数。
具体实施时,计算各个本地模型的性能指数和联邦模型的性能指数的具体方式本申请不做限定,可以采用现有的性能计算函数实现,例如,可以采用AUC、ACC或者RMSE等函数。
具体实施时,计算出各个本地模型的性能指数和联邦模型的性能指数后,可以通过以下公式计算出每个参与方的本地数据对联邦学习框架的数据贡献度:
M_index=F(M,Data)
Mi_index=F(Mi,Data)
其中,Pi表示第i个参与方的所述本地数据对所述联邦学习框架的数据贡献度;M表示所述联邦模型;Mi表示第i个参与方的所述本地模型;M_index表示所述联邦模型的性能指数;Mi_index表示第i个参与方的所述本地模型的性能指数;Data表示运行所述联邦模型得到的数据;F(·)表示性能指数的计算函数。
具体实施时,计算出每个参与方的本地数据对联邦学习框架的数据贡献度后,即可按照数据贡献度向各个参与方分配激励值,以激励、促使参与方更积极地参与、使用联邦学习,进而为联邦学习提供数据。具体的,在分配激励值的过程中,数据贡献度与激励值成正比,即数据贡献度越大激励值越大;同时。激励值的来源可以是预设激励额度也可以是通过运行联邦模型获取的价值额度等等,即按照数据贡献度将预设激励额度或运行联邦模型获取的价值额度划分为多个对应的激励值,进而将各个激励值对应分配给各个参与方。
具体实施时,为了进一步体现上述基于区块链的联邦学习激励方法的公开性、可查性、可信度,在本实施例中,将所述基于区块链的联邦学习激励方法的所有相关数据存储在区块链上,以便后续可以基于区块链的不可篡改性,对上述基于区块链的联邦学习激励方法分配激励的过程进行公开复盘、追溯。由于区块链的不可篡改性,为整个基于区块链的联邦学习激励方法提供了对所有历史数据的无条件信任性,保证了后续复盘和审计的可信度和各个参与方的可接受程度。
具体实施时,上述基于区块链的联邦学习激励方法的相关数据可以是所述基于区块链的联邦学习激励方法执行过程中涉及的任何数据,例如,可以是各个参与方的本地数据、本地模型、联邦模型、运行联邦模型得到的数据、本地数据的性能指数、联邦模型的性能指数、数据贡献度等数据中的任意部分或全部数据。
具体实施时,为了进一步体现上述基于区块链的联邦学习激励方法的真实可靠、可信度,在本实施例中,在将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上的过程中,当将各个参与方的本地模型上传区块链时,为了避免某一参与方的本地模型被篡改、计算数据贡献程度时对某个参与方偏袒等不公平、不可靠的情况发生,在本实施例中,针对每个参与方,计算该参与方的所述本地模型与一个随机数拼接后的哈希值,使用该参与方的公钥加密对应的所述一个随机数,将该参与方的所述本地模型、哈希值以及加密后的所述一个随机数存储在所述区块链上。这样的存储方式并没有在区块链存储数据上直观、直接地显示出各个本地模型与各个参与方的对应关系,使得对某个参与方偏袒等不公平、不可靠的情况无法发生,同时,为了后续数据的可追溯、可复盘性,将本地模型Mi与一个随机数拼接后的计算哈希值Hi,使用该参与方的公钥加密对应的所述一个随机数,得到Ridec,存储哈希值Hi和加密的随机数Ridec后,只有每个参与方自身可以解密出随机数,进而确定出各个参与方与本地模型的对应关系。此外,本申请发明人发现,本地模型可能数据量较大,直接加密本地模型再存储的方式数据处理效率较低,通过本实施例中将本地模型与一个随机数拼接后的计算哈希值,使用该参与方的公钥加密随机数,进而存储哈希值和加密的随机数的方式可以有效提高数据处理效率。
具体实施时,如果复盘结果不一致,则可以要求各个参与方使用新地址将新的Mi、Hi和Ridec上传区块链,重新计算各个参与方的数据贡献度。
具体实施时,上述基于区块链的联邦学习激励方法可以从各个参与方或区块链上获取各个参与方的本地模型来进行后续的性能参数的计算。
具体实施时,计算模型性能参数的数据以及数据贡献度也可以通过哈希值的形式存储的区块链上,各个参与方可以通过区块链获取各个参与方的数据贡献度,以便了解、知晓自身数据贡献度的大小。
具体实施时,以下详细描述实施上述基于区块链的联邦学习激励方法的过程,如图2所示,该过程包括以下步骤:
S1:各个参与方对需要上传区块链的数据进行hash计算,然后,将需要上传区块链的数据上传区块链。
S2:各个参与方将本地数据提供给联邦学习框架,联邦学习框架基于所有参与方的本地数据训练得到联邦模型。
S3:运行联邦模型,将运行联邦模型得到的数据作为测试数据Data。
S4:从区块链上接收各个节点发送过来的本地模型,使用测试数据Data计算各个本地模型的性能指数和联邦模型的性能指数,计算得到各个参与方的本地数据对联邦学习框架的数据贡献度。
S5:对数据贡献度和测试数据Data求hash值,将数据贡献度和测试数据Data的哈希值上传区块链。
S6:各个参与方从区块链下载获取各个参与方的数据贡献度。
S7:各参与方对数据贡献度无意见,则根据计算的数据贡献度进行激励值分配。否则,重新准备数据,回到S1。另外,如果有新的参与方或者某一个参与方增加了投入联邦的数据,也回到S1重新计算数据贡献度。
在本实施例中,提供了一种计算机设备,如图3所示,包括存储器302、处理器304及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意的基于区块链的联邦学习激励方法。
具体的,该计算机设备可以是计算机终端、服务器或者类似的运算装置。
在本实施例中,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述任意的基于区块链的联邦学习激励方法的计算机程序。
具体的,计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机可读存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读存储介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
基于同一发明构思,本发明实施例中还提供了一种基于区块链的联邦学习激励装置,如下面的实施例所述。由于基于区块链的联邦学习激励装置解决问题的原理与基于区块链的联邦学习激励方法相似,因此基于区块链的联邦学习激励装置的实施可以参见基于区块链的联邦学习激励方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图4是本发明实施例的基于区块链的联邦学习激励装置的一种结构框图,如图4所示,该装置包括:
本地数据处理模块402,用于获取各个参与方的本地数据和本地模型,所述本地模型是各个参与方基于自身的所述本地数据训练得到的;
联邦数据处理模块404,用于基于联邦学习框架对所有参与方的所述本地数据进行训练,得到联邦模型;
性能计算模块406,用于分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数;
贡献度计算模块408,用于针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度;
激励分配模块410,用于根据各个参与方的所述数据贡献度,向各个参与方分配激励值;
数据存储模块412,用于将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上。
在一个实施例中,所述性能计算模块,具体用于获取运行所述联邦模型得到的数据,利用所述数据分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数。
在一个实施例中,所述贡献度计算模块,具体用于通过以下公式计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度:
M_index=F(M,Data)
Mi_index=F(Mi,Data)
其中,Pi表示第i个参与方的所述本地数据对所述联邦学习框架的数据贡献度;M表示所述联邦模型;Mi表示第i个参与方的所述本地模型;M_index表示所述联邦模型的性能指数;Mi_index表示第i个参与方的所述本地模型的性能指数;Data表示运行所述联邦模型得到的数据;F(·)表示性能指数的计算函数。
在一个实施例中,所述数据存储模块,用于针对每个参与方,计算该参与方的所述本地模型与一个随机数拼接后的哈希值,使用该参与方的公钥加密对应的所述一个随机数,将该参与方的所述本地模型、哈希值以及加密后的所述一个随机数存储在所述区块链上。
本发明实施例实现了如下技术效果:提出了分别得到各个参与方的基于自身本地数据训练的本地模型,进而根据所有参与方的本地数据训练得到联邦模型,进而分别计算联邦模型的性能指数和各个参与方的本地模型的性能指数,再根据每个参与方的本地模型的性能指数和联邦模型的性能指数,计算每个参与方的本地数据对联邦学习框架的数据贡献度,最后,根据各个参与方的数据贡献度,向各个参与方分配激励值。实现了根据各个参与方对联邦学习框架的数据贡献度来向各个参与方分配激励值,数据贡献度的大小直观反映了参与方的数据对提升、优化联邦模型的贡献程度,激励值的分配实现了通过激励机制来促进、激励参与方积极参与、投入到联邦学习,有利于促使参与方主动、积极地创造使用数据,更加积极地为联邦学习提供数据,进而有利于优化联邦模型,有利于联邦学习框架的持续发展,有利于联邦学习框架的推广;同时,上述基于区块链的联邦学习激励方法通过将参与方的数据贡献度与本地模型的性能和联邦模型的性能关联起来,而不考虑各个参与方提供数据的质量和数量,使得将数据贡献度量化问题转化为数值化、简单化,也相对更具有准确性或者可靠性,也有利于上述基于区块链的联邦学习激励方法更简单、有效;此外,区块链的使用,以便后续可以基于区块链的不可篡改性,对上述基于区块链的联邦学习激励方法分配激励的过程进行公开复盘、追溯。
显然,本领域的技术人员应该明白,上述的本发明实施例的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于区块链的联邦学习激励方法,其特征在于,包括:
获取各个参与方的本地数据和本地模型,所述本地模型是各个参与方基于自身的所述本地数据训练得到的;
基于联邦学习框架对所有参与方的所述本地数据进行训练,得到联邦模型;
分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数;
针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度;
根据各个参与方的所述数据贡献度,向各个参与方分配激励值;
将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上;
其中,将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上,包括:
针对每个参与方,计算该参与方的所述本地模型与一个随机数拼接后的哈希值,使用该参与方的公钥加密对应的所述一个随机数,将该参与方的所述本地模型、哈希值以及加密后的所述一个随机数存储在所述区块链上;
还包括:
各参与方从区块链获取各个参与方的数据贡献度;
出现参与方对数据贡献度有意见时,各个参与方使用新地址将新的本地数据上传区块链,重新计算各个参与方的数据贡献度。
2.如权利要求1所述的基于区块链的联邦学习激励方法,其特征在于,分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数,包括:
获取运行所述联邦模型得到的数据,利用所述数据分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数。
3.如权利要求1所述的基于区块链的联邦学习激励方法,其特征在于,针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度,包括:
通过以下公式计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度:
M_index=F(M,Data)
Mi_index=F(Mi,Data)
其中,Pi表示第i个参与方的所述本地数据对所述联邦学习框架的数据贡献度;M表示所述联邦模型;Mi表示第i个参与方的所述本地模型;M_index表示所述联邦模型的性能指数;Mi_index表示第i个参与方的所述本地模型的性能指数;Data表示运行所述联邦模型得到的数据;F(·)表示性能指数的计算函数。
4.一种基于区块链的联邦学习激励装置,其特征在于,包括:
本地数据处理模块,用于获取各个参与方的本地数据和本地模型,所述本地模型是各个参与方基于自身的所述本地数据训练得到的;
联邦数据处理模块,用于基于联邦学习框架对所有参与方的所述本地数据进行训练,得到联邦模型;
性能计算模块,用于分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数;
贡献度计算模块,用于针对每个参与方,根据该参与方的所述本地模型的性能指数和所述联邦模型的性能指数,计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度;
激励分配模块,用于根据各个参与方的所述数据贡献度,向各个参与方分配激励值;
数据存储模块,用于将所述基于区块链的联邦学习激励方法的相关数据存储在区块链上;
其中,所述数据存储模块,用于针对每个参与方,计算该参与方的所述本地模型与一个随机数拼接后的哈希值,使用该参与方的公钥加密对应的所述一个随机数,将该参与方的所述本地模型、哈希值以及加密后的所述一个随机数存储在所述区块链上;
激励分配模块,还用于:
各参与方从区块链获取各个参与方的数据贡献度;
出现参与方对数据贡献度有意见时,各个参与方使用新地址将新的本地数据上传区块链,重新计算各个参与方的数据贡献度。
5.如权利要求4所述的基于区块链的联邦学习激励装置,其特征在于,所述性能计算模块,具体用于获取运行所述联邦模型得到的数据,利用所述数据分别计算各个所述本地模型的性能指数,计算所述联邦模型的性能指数。
6.如权利要求4所述的基于区块链的联邦学习激励装置,其特征在于,所述贡献度计算模块,具体用于通过以下公式计算该参与方的所述本地数据对所述联邦学习框架的数据贡献度:
M_index=F(M,Data)
Mi_index=F(Mi,Data)
其中,Pi表示第i个参与方的所述本地数据对所述联邦学习框架的数据贡献度;M表示所述联邦模型;Mi表示第i个参与方的所述本地模型;M_index表示所述联邦模型的性能指数;Mi_index表示第i个参与方的所述本地模型的性能指数;Data表示运行所述联邦模型得到的数据;F(·)表示性能指数的计算函数。
7.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至3中任一项所述的基于区块链的联邦学习激励方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至3中任一项所述的基于区块链的联邦学习激励方法。
CN202010832482.2A 2020-08-18 2020-08-18 基于区块链的联邦学习激励方法、装置、设备及存储介质 Active CN111967610B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010832482.2A CN111967610B (zh) 2020-08-18 2020-08-18 基于区块链的联邦学习激励方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010832482.2A CN111967610B (zh) 2020-08-18 2020-08-18 基于区块链的联邦学习激励方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111967610A CN111967610A (zh) 2020-11-20
CN111967610B true CN111967610B (zh) 2024-02-23

Family

ID=73388791

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010832482.2A Active CN111967610B (zh) 2020-08-18 2020-08-18 基于区块链的联邦学习激励方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111967610B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598132A (zh) * 2020-12-04 2021-04-02 光大科技有限公司 模型训练方法及装置、存储介质、电子装置
CN112784994B (zh) * 2020-12-31 2023-03-03 浙江大学 基于区块链的联邦学习数据参与方贡献值计算和激励方法
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及系统
CN113297593A (zh) * 2021-05-14 2021-08-24 同盾控股有限公司 基于隐私计算的贡献度计算方法及装置、设备、介质
CN113239879B (zh) * 2021-06-01 2023-07-04 平安科技(深圳)有限公司 联邦模型训练、证件检测方法、装置、设备及介质
CN113298404A (zh) * 2021-06-03 2021-08-24 光大科技有限公司 联邦学习参与方工作量确定方法及装置
CN113434269A (zh) * 2021-06-10 2021-09-24 湖南天河国云科技有限公司 基于区块链的分布式隐私计算方法及装置
CN113469371B (zh) * 2021-07-01 2023-05-02 建信金融科技有限责任公司 联邦学习方法和装置
CN113709014B (zh) * 2021-08-10 2023-04-07 深圳致星科技有限公司 联邦学习审计的数据收集方法、介质及装置
CN114301573B (zh) * 2021-11-24 2023-05-23 超讯通信股份有限公司 联邦学习模型参数传输方法及系统
CN115423208A (zh) * 2022-09-27 2022-12-02 深圳先进技术研究院 基于隐私计算的电子保函价值预测方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2343658A1 (en) * 2009-12-18 2011-07-13 Siemens IT Solutions and Services GmbH Federation as a process
CN110443073A (zh) * 2019-07-31 2019-11-12 南瑞集团有限公司 一种基于区块链的防篡改数据存储方法、装置及系统
CN110490335A (zh) * 2019-08-07 2019-11-22 深圳前海微众银行股份有限公司 一种计算参与者贡献率的方法及装置
CN110610242A (zh) * 2019-09-02 2019-12-24 深圳前海微众银行股份有限公司 一种联邦学习中参与者权重的设置方法及装置
CN110717671A (zh) * 2019-10-08 2020-01-21 深圳前海微众银行股份有限公司 一种确定参与方贡献度的方法及装置
CN111125779A (zh) * 2019-12-17 2020-05-08 山东浪潮人工智能研究院有限公司 一种基于区块链的联邦学习方法及装置
CN111180061A (zh) * 2019-12-09 2020-05-19 广东工业大学 融合区块链与联邦学习的共享医疗数据智能辅助诊断系统
CN111212110A (zh) * 2019-12-13 2020-05-29 清华大学深圳国际研究生院 一种基于区块链的联邦学习系统及方法
CN111444848A (zh) * 2020-03-27 2020-07-24 广州英码信息科技有限公司 一种基于联邦学习的特定场景模型升级方法和系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2343658A1 (en) * 2009-12-18 2011-07-13 Siemens IT Solutions and Services GmbH Federation as a process
CN110443073A (zh) * 2019-07-31 2019-11-12 南瑞集团有限公司 一种基于区块链的防篡改数据存储方法、装置及系统
CN110490335A (zh) * 2019-08-07 2019-11-22 深圳前海微众银行股份有限公司 一种计算参与者贡献率的方法及装置
CN110610242A (zh) * 2019-09-02 2019-12-24 深圳前海微众银行股份有限公司 一种联邦学习中参与者权重的设置方法及装置
CN110717671A (zh) * 2019-10-08 2020-01-21 深圳前海微众银行股份有限公司 一种确定参与方贡献度的方法及装置
CN111180061A (zh) * 2019-12-09 2020-05-19 广东工业大学 融合区块链与联邦学习的共享医疗数据智能辅助诊断系统
CN111212110A (zh) * 2019-12-13 2020-05-29 清华大学深圳国际研究生院 一种基于区块链的联邦学习系统及方法
CN111125779A (zh) * 2019-12-17 2020-05-08 山东浪潮人工智能研究院有限公司 一种基于区块链的联邦学习方法及装置
CN111444848A (zh) * 2020-03-27 2020-07-24 广州英码信息科技有限公司 一种基于联邦学习的特定场景模型升级方法和系统

Also Published As

Publication number Publication date
CN111967610A (zh) 2020-11-20

Similar Documents

Publication Publication Date Title
CN111967610B (zh) 基于区块链的联邦学习激励方法、装置、设备及存储介质
TW201947446A (zh) 基於區塊鏈的資訊監管方法及裝置
Greengard Following the crowd
CN109670333B (zh) 一种去中心化芯片研发交易数据存储方法及系统
CN110046907A (zh) 基于区块链的合同签署方法及装置、电子设备、存储介质
CN112202554B (zh) 基于信息的属性生成密钥的信息处理方法、装置及设备
CN108156232A (zh) 数据共享方法及装置
CN110071897B (zh) 一种基于移动端的区块链系统
CN106686105A (zh) 推送消息的方法、计算设备、服务器及信息分享系统
CN109447820A (zh) 数据处理方法、装置、计算机设备及存储介质
CN113011598A (zh) 一种基于区块链的金融数据信息联邦迁移学习方法及装置
CN110060153A (zh) 一种基于多个区块链网络的数据存证方法及系统
TW202040407A (zh) 塊鏈式帳本中的資料驗證方法、系統、裝置及設備
CN110197445A (zh) 知识产权状态的生成、查询方法、计算机设备及存储介质
CN111443894A (zh) 一种基于区块链的随机数生成方法、设备及介质
CN108259207A (zh) 流量统计方法、客户端、服务器及系统
CN110096511B (zh) 基于私有链的数据一致性验证方法、装置、设备及介质
CN105224541B (zh) 数据的唯一性控制方法、信息存储方法及装置
CN110119947B (zh) 共享工作量证明算力生成共生区块链的方法和设备
CN112967119A (zh) 一种基于区块链的投标方法及设备、介质
CN109978556A (zh) 一种农产品追溯方法、装置、电子设备和存储介质
US20200043016A1 (en) Network node for processing measurement data
CN112950341A (zh) 一种基于区块链的会计系统
CN113259384B (zh) 基于区块链的机理模型调用信息处理方法、服务器及系统
CN109660357A (zh) 数字资产注册方法、验证方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant