CN118095474A - 联邦学习方法、装置、电子设备及存储介质 - Google Patents
联邦学习方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN118095474A CN118095474A CN202211468309.4A CN202211468309A CN118095474A CN 118095474 A CN118095474 A CN 118095474A CN 202211468309 A CN202211468309 A CN 202211468309A CN 118095474 A CN118095474 A CN 118095474A
- Authority
- CN
- China
- Prior art keywords
- data
- training
- model
- training data
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000012549 training Methods 0.000 claims abstract description 341
- 238000012216 screening Methods 0.000 claims abstract description 88
- 230000004931 aggregating effect Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 238000005315 distribution function Methods 0.000 claims description 5
- 238000012886 linear function Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种联邦学习方法、装置、电子设备及存储介质,涉及计算机技术领域。方法包括:服务器将第一模型数据、筛选条件数据,上传至区块链;多个第一终端分别通过区块链获取第一模型数据,并分别通过第一模型数据进行模型训练,得到第一训练数据;区块链获取各个第一训练数据,通过筛选条件数据,对第一训练数据进行筛选,得到至少一个满足筛选条件数据的第二训练数据;服务器获取各个第二训练数据;对各个第二训练数据进行聚合,通过聚合后的第二训练数据对第一模型数据进行更新,得到第二模型数据。本公开通过筛选条件数据对第一训练数据进行筛选,能够避免恶意的第一终端的攻击,并且提高了第二模型数据的可靠性。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种联邦学习方法、装置、电子设备及存储介质。
背景技术
联邦学习(Federated Machine Learning,FML)是一种可以联合分布于多个终端上的数据,实现模型的训练的技术。示例性地,服务器可以获取多个参与方的数据,来进行模型的更新。通过联邦学习的技术可以保护用户隐私与数据安全。
在相关技术中,由于联邦学习的数据来自不同参与方,参与方之间缺乏信任,服务器需要在多方不信任的基础上协作运算。并且,联邦学习的过程中可能存在较难识别各个参与方提供数据的质量的问题。
因此,目前亟需一种可以提高各个联邦学习参与方的可信度的方法,从而避免恶意参与方的攻击。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种联邦学习方法、装置、电子设备及存储介质,至少在一定程度上提高了各个联邦学习参与方的可信度。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的一个方面,提供一种联邦学习方法,包括:服务器将第一模型数据、筛选条件数据,上传至区块链;多个参与联邦学习的第一终端分别通过区块链获取该第一模型数据,并分别通过该第一模型数据进行模型训练,得到第一训练数据,其中,任一第一终端得到一个第一训练数据;区块链获取各个第一训练数据,通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;服务器通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对该第一模型数据进行更新,得到第二模型数据。
在本公开的一些实施例中,该筛选条件数据包括:预设精确度数据、梯度允许偏差数据;该第一训练数据包括:梯度数据、训练模型数据,训练精度数据;
该通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据,包括:区块链将满足该训练精度数据不小于预设精确度数据、该梯度数据满足梯度允许偏差数据、该训练模型数据与第一模型数据一致,三项中至少一项的第一训练数据,作为第二训练数据。
在本公开的一些实施例中,该第一训练数据还包括:终端标识数据,训练回合数据,训练样品数据、权重数据、偏置数据以及上传时间数据。
在本公开的一些实施例中,本公开实施例提供的联邦学习方法还包括:区块链将该第二训练数据进行向量转化加密与哈希计算,得到哈希值;
其中,该服务器通过区块链获取各个第二训练数据,包括:服务器通过区块链获取该哈希值与解码矩阵;通过该解码矩阵对该哈希值进行解密,得到各个第二训练数据。
该服务器将第一模型数据、筛选条件数据,上传至区块链,包括:服务器将该第一模型数据、该筛选条件数据以及收敛条件数据,上传至该区块链;
其中,本公开实施例提供的联邦学习方法还包括:区块链判断该第二训练数据是否满足该收敛条件数据;若各个第二训练数据满足该收敛条件信息,将该第二模型数据作为联邦学习结果;若各个第二训练数据不满足该收敛条件信息,迭代执行如下操作,直至各个更新后的第二训练数据满足该收敛条件信息时,将更新后的第二模型数据,作为联邦学习结果:
服务器将该第二模型数据上传至区块链;各个第二终端分别通过该区块链获取该第二模型数据,并分别通过该第二模型数据进行模型训练,得到更新后的第一训练数据,其中,各个第二终端为各个第二训练数据所分别对应的终端;区块链分别获取各个更新后的第一训练数据,并通过该筛选条件数据,对各个更新后的第一训练数据进行筛选,得到至少一个更新后的第二训练数据;服务器获取各个更新后的第二训练数据,并通过各个更新后的第二训练数据,对该第二模型数据进行更新,得到更新后的第二模型数据。
在本公开的一些实施例中,该筛选条件数据还包括:预设常规函数规律数据,该预设常规函数规律数据包括:线性函数规律数据、幂函数规律数据、拉普拉斯分布函数规律数据;
本公开实施例提供的联邦学习方法还包括:当经历多次迭代时,该区块链判断各个第二终端各次迭代后得到的更新后的第一训练数据是否符合该预设常规函数规律数据;该区块链将符合该预设常规函数规律数据的更新后的第一训练数据删去,得到至少一个更新后的第二训练数据。
在本公开的一些实施例中,当各个第二训练数据不满足该收敛条件信息时,本公开实施例提供的联邦学习方法还包括:区块链生成共识代码,并将该共识代码发送给服务器与各个第二终端;
该服务器将该第二模型数据上传至区块链,包括:服务器根据该共识代码对该第二模型数据进行加密,并将加密后的第二模型数据上传至区块链;
该各个第二终端分别通过该区块链获取该第二模型数据,包括:各个第二终端分别通过该共识代码对该加密后的第二模型数据进行解密,得到该第二模型数据。
在本公开的一些实施例中,该服务器将第一模型数据、筛选条件数据,上传至区块链之后,该方法还包括:区块链将该第一模型数据、该筛选条件数据形成智能合约,并向多个第一终端进行发布。
根据本公开的另一个方面,提供一种联邦学习系统,包括:服务器、多个参与联邦学习的第一终端以及区块链;
其中,该服务器,用于将第一模型数据、筛选条件数据,上传至该区块链;
多个参与联邦学习的第一终端,用于分别通过区块链获取该第一模型数据,并分别通过该第一模型数据进行模型训练,得到第一训练数据,其中,任一第一终端得到一个第一训练数据;
该区块链,用于获取各个第一训练数据,通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
该服务器,还用于通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对该第一模型数据进行更新,得到第二模型数据。
根据本公开的另一个方面,提供一种联邦学习装置,该装置应用于服务器,包括:
数据上传模块,用于将第一模型数据、筛选条件数据,上传至区块链,该区块链用于将该第一模型数据发送至多个参与联邦学习的第一终端;任一第一终端用于获取该第一模型数据,并通过该第一模型数据进行模型训练,得到第一训练数据;区块链用于获取各个第一训练数据,通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
第二模型数据确定模块,用于通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对该第一模型数据进行更新,得到第二模型数据。
根据本公开的另一个方面,提供一种联邦学习装置,该装置应用于区块链,包括:
数据获取模块,用于获取服务器上传的第一模型数据、筛选条件数据;
第一模型数据发送模块,用于将该第一模型数据发送至多个参与联邦学习的第一终端,任一第一终端用于通过区块链获取该第一模型数据,并通过该第一模型数据进行模型训练,得到第一训练数据;
第一训练数据筛选模块,用于获取各个第一训练数据,通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
第二训练数据发送模块,用于将各个第二训练数据发送给服务器,该服务器用于获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对该第一模型数据进行更新,得到第二模型数据。
根据本公开的再一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储该处理器的可执行指令;其中,该处理器配置为经由执行该可执行指令来执行上述的联邦学习方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的联邦学习方法。
根据本公开的另一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本公开任一实施例中的各种可选方式中提供的联邦学习方法。
本公开的实施例所提供的技术方案,可以通过筛选条件数据来对多个参与联邦学习的第一终端对应的第一训练数据进行筛选。从而可以对各个第一终端进行筛选。因此,本公开可以提高各个参与联邦学习的第一终端的可信度,避免了恶意的第一终端的攻击。并且本公开提高了第二模型数据的可靠性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种系统结构的示意图;
图2示出本公开实施例中一种联邦学习方法的流程图;
图3示出本公开实施例中一种另一种联邦学习方法的流程图;
图4示出本公开实施例中一种联邦学习方法的过程示意图;
图5示出本公开实施例中一种联邦学习装置示意图;
图6示出本公开实施例中另一种联邦学习装置示意图;
图7示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了一种可以应用于本公开实施例的联邦学习方法或联邦学习装置的示例性系统架构的示意图。
如图1所示,系统架构100可以包括参与联邦学习的第一终端101、102、103,区块链104和服务器105。
其中,服务器105可以用于将第一模型数据、筛选条件数据,上传至区块链104。之后,参与联邦学习的第一终端101、102、103,用于分别通过区块链105获取该第一模型数据,并分别根据本公开实施例提供的方法得到第一训练数据。之后,第一终端101、102、103可以分别将得到的第一训练数据上传至区块链104。区块链104,用于获取各个第一训练数据,并对各个第一训练数据进行筛选,得到至少一个满足筛选条件数据的第二训练数据。之后,区块链104可以向服务器105发送各个第二训练数据。服务器105用于获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对第一模型数据进行更新,得到第二模型数据。
示例性地,在第一终端101、102、103和区块链104之间,以及区块链104和服务器105之间均可以通过网络来提供通信链路的介质,该网络可以是有线网络,也可以是无线网络。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
第一终端101、102、103可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、增强现实设备、虚拟现实设备等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端101、102、103所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
可选地,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
需要说明的是,本领域技术人员可以知晓,该示例性系统架构中第一终端101、102、103以及服务器105的数量仅为举例,并不用于限制本公开。根据实际需要,可以具有任意数目的第一终端与服务器。并且,图1中的区块链104可以包含的任一个数的区块链节点,本公开实施例也不对此进行限定。
下面结合附图及实施例对本示例实施方式进行详细说明。
首先,本公开实施例中提供了一种联邦学习方法,该方法可以由任意具备计算处理能力的电子设备执行。
图2示出本公开实施例中一种联邦学习方法的流程图,如图2所示,本公开实施例中提供的联邦学习方法包括如下步骤S202至S208。
S202,服务器将第一模型数据、筛选条件数据,上传至区块链。
示例性地,该区块链可以包括多个区块链节点,本公开中的服务器可以与该区块链中的任一区块链节点进行连接,以进行数据的传输。
本公开实施例不对该第一模型数据的类型进行限定,该第一模型数据可以为任一类型的模型的相关数据,该模型的类型可以根据经验或应用场景进行确定,例如可以为神经网络模型、决策树模型等。示例性地,本公开实施例的应用场景可以为数据搜索、用户偏好计算、病毒程序检测等等,本公开不对此进行限制。
以数据搜索场景为例,用户可以通过用户终端向服务器发送数据搜索请求。该服务器则可以根据该第一模型数据对应的模型,来对数据搜索请求进行响应,获取对应的数据搜索结果。并将该对应的数据搜索结果返回用户终端。该第一模型数据可以通过本公开实施例提供的联邦学习方法来进行更新,以获取更好的模型计算效果。
另外,筛选条件数据可以用于对各个参与联邦学习的第一终端返回的第一训练数据进行筛选。该筛选条件数据可以包括的各个数据可以参见下述S206中的相关描述。
在一些实施例中,服务器将第一模型数据、筛选条件数据,上传至区块链之后,本公开实施例提供的联邦学习方法还可包括:区块链将第一模型数据、筛选条件数据形成智能合约,并向多个第一终端进行发布。
本公开实施例不对该智能合约的内容进行限定,例如该智能合约的触发条件可以为服务器的的联邦学习请求,该第一模型数据与筛选条件数据可以位于该联邦学习请求中。当区块链获取该联邦学习请求,则可以将该第一模型数据与筛选条件数据等形成智能合约并发布。
本公开通过智能合约技术,可以使区块链对上传的第一训练数据的来源进行监控,并可以进行恶意第一终端的识别和剔除。因此可以提高各个参与联邦学习的第一终端的可信度,避免了恶意的第一终端的攻击。
S204,多个参与联邦学习的第一终端分别通过区块链获取第一模型数据,并分别通过第一模型数据进行模型训练,得到第一训练数据,其中,任一第一终端得到一个第一训练数据。
示例性地,该多个参与联邦学习的第一终端中均包含有本地数据。在任一第一终端获取了第一模型数据后,即可以通过本地数据对第一模型数据进行模型训练,得到该第一终端对应的第一训练数据。
在一些实施例中,第一训练数据可以包括梯度数据、训练模型数据,训练精度数据。
示例性地,任一第一终端对应的梯度数据可以用于描述该第一终端此次模型训练对应的梯度值。任一第一终端对应的训练模型数据可以为该第一终端此次模型训练所采用的训练模型对应的数据。任一第一终端对应的训练精度数据可以用于描述此次模型训练的精确度。
在一些实施例中,第一训练数据还可以包括终端标识数据,训练回合数据,训练样品数据、权重数据、偏置数据以及上传时间数据。
示例性地,任一第一终端对应的终端标识数据可以用于标识该第一终端的身份。各个第一终端对应的终端标识数据均不相同。
任一第一终端对应的训练回合数据可以用于描述该第一终端当前进行模型训练的次数。该训练回合数据的取值可以为正整数。
任一第一终端对应的训练样品数据可以为该第一终端此次进行模型训练所用的训练样品。任一第一终端对应的训练样品数据包含在该第一终端的本地数据中。
示例性地,当此次联邦学习为横向联邦学习,则该训练样品数据可以为多个个体的同一特征。而当此次联邦学习为纵向联邦学习,该训练样品数据可以为同一个体的多个特征。以该训练样品数据为一个个体的两个特征为例,该训练样品数据可以表示为{xi,yi}。
任一第一终端对应的权重数据可以为本次模型训练得到的权重信息。该权重信息可以为本次模型训练中任一相关参数的权重信息,其可以基于经验或应用场景进行确定,本公开实施例不对此进行限定。
任一第一终端对应的偏置数据可以用于描述该第一终端本次模型训练对应的偏置。任一第一终端对应的上传时间数据可以用于描述该第一终端将第一训练数据上传至区块链的时间。
示例性地,在各个第一终端得到第一训练数据后,可以分别将第一训练数据上传到区块链中。需要说明的是,各个第一终端可以通过相同或不同的区块链节点来上传对应的第一训练数据。
本公开实施例不限定各个第一终端将第一训练数据上传到区块链的方法,例如,各个第一终端可以分别将其对应的第一训练数据,通过同态加密技术转化为参数特征向量,再将该参数特征向量分别上传至区块链。
示例性地,该通过同态加密技术转化得到的参数特征向量,例如可以为e(e可以为大于1的整数)维,该e维的参数特征向量w可以表示为w=[w1,w2,……,we]。
其中,w1,w2,……,we可以分别表示第一训练数据中的各个数据,例如梯度数据、训练模型数据,训练精度数据等。在一些实施例中,该第一训练数据中的各个数据还可包括终端标识数据,训练回合数据,训练样品数据、权重数据、偏置数据以及上传时间数据。
S206,区块链获取各个第一训练数据,通过筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据。
在一些实施例中,该筛选条件数据可以包括预设精确度数据、梯度允许偏差数据。
示例性地,该预设精确度数据可以用于描述模型训练预期需要达到的精确度的取值。该预设精确度数据可以表示为Q,Q的取值可以为一个百分数。
示例性地,梯度允许偏差数据可以用于描述模型训练对应的梯度数据允许的偏差范围。该梯度数据允许的偏差范围可以表示为Φ,Φ的取值可以为一个正数。
在示例性实施例中,该预设精确度数据与梯度允许偏差数据,均可以通过服务器进行设置,本公开实施例不对该预设精确度数据与梯度允许偏差数据的确定方法进行限定,该预设精确度数据与梯度允许偏差数据的取值均可以根据经验或应用场景进行确定。
以第一训练数据包括梯度数据、训练模型数据、训练精度数据为例。在该种情况下,通过筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据,包括:区块链将满足训练精度数据不小于预设精确度数据、梯度数据满足梯度允许偏差数据、训练模型数据与第一模型数据一致,三项中至少一项的第一训练数据,作为第二训练数据。
在示例性实施例中,区块链可以根据筛选条件数据,确定各个第一训练数据的训练精度数据是否不小于预设精确度数据,确定各个第一训练数据的梯度数据是否满足梯度允许偏差数据,并确定各个第一训练数据的训练模型数据与第一模型数据一致。当任一第一训练数据满足上述三项中的至少一项,则可以将该第一训练数据,作为第二训练数据。在该种情况下,若任一第一训练数据不满足上述的全部三项,则区块链将上传该第一训练数据的第一终端视为恶意终端,并将该第一训练数据删去。
在一种可能的实施方式中,区块链可以将训练精度数据不小于预设精确度数据,梯度数据满足梯度允许偏差数据,且训练模型数据与第一模型数据的第一训练数据,作为第二训练数据。在该种情况下,若任一第一训练数据不满足上述三项中的任意一项,则区块链将上传该第一训练数据的第一终端视为恶意终端,并将该第一训练数据删去。
在一种可能的实施方式中,区块链还可以对训练回合数据进行筛选。示例性地,该当各个第一终端上传第一训练数据时,区块链还可以对训练回合数据进行识别,确定该训练回合数据是否为1,若任一第一训练数据中的训练回合数据不为1,则将该第一训练数据删去。
在区块链得到至少一个第二训练数据后,区块链可以向服务器发送第二训练数据。本公开实施例不限定向服务器发送第二训练数据的方法。
在一些实施例中,区块链可以将第二训练数据进行向量转化加密与哈希计算,得到哈希值。并向服务器发送该哈希值与解码矩阵。该解码矩阵用于服务器对该哈希值进行解码,得到对应的第二训练数据。
本公开实施例不对该向量转化加密与哈希计算的方法进行限定。示例性地,可以通过如下公式1所示的加密函数C(k),对第二训练数据进行向量转化加密。
其中,当第二训练数据中的任一数据i的取值属于0≤|i|<0.5的区间,则可以通过(0,0)向量来表示该数据。当第二训练数据中的任一数据i的取值属于0.5≤|i|<3的区间,则可以通过(0,1)向量来表示该数据。当第二训练数据中的任一数据i的取值属于|i|≥4.5的区间,则可以通过(1,1)向量来表示该数据。
之后,区块链即可以对该加密后得到的各个向量进行哈希计算,得到哈希值。
S208,服务器通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对第一模型数据进行更新,得到第二模型数据。
本公开实施例不限定对第一模型数据进行更新,得到第二模型数据的方法。该方法可以根据各个应用场景下,第一模型数据与第二模型数据的类型进行确定。
在一些实施例中,服务器通过区块链获取各个第二训练数据,可以包括:服务器通过区块链获取哈希值与解码矩阵;通过解码矩阵对哈希值进行解密,得到各个第二训练数据。
本公开实施例不对该解码矩阵的形式进行限定,该解码矩阵的形式可以根据哈希计算的方式进行确定。
本公开实施例中服务器与区块链之间仅交互哈希值,需要解码矩阵才能各个第二训练数据进行聚合。因此,本公开可以进一步确保第二训练数据的可靠性,从而提高了第二模型数据的可靠性。另外,仅交互哈希值可以减少交互数据的通信损耗,提升效能。
在一些实施例中,服务器将第一模型数据、筛选条件数据,上传至区块链之外,还可以将收敛条件数据上传至区块链。
示例性地,该收敛条件数据可以表示为一个损失函数,该损失函数例如为交叉熵损失函数或0/1损失函数等。本公开实施例不对该损失函数的形式进行限定。
在该种情况下,本公开实施例提供的联邦学习方法还可包括:区块链判断第二训练数据是否满足收敛条件数据;若各个第二训练数据满足收敛条件信息,将第二模型数据作为联邦学习结果;若各个第二训练数据不满足收敛条件信息,迭代执行如下操作,直至各个更新后的第二训练数据满足收敛条件信息时,将更新后的第二模型数据,作为联邦学习结果:
服务器将第二模型数据上传至区块链;各个第二终端分别通过区块链获取第二模型数据,并分别通过第二模型数据进行模型训练,得到更新后的第一训练数据,其中,各个第二终端为各个第二训练数据所分别对应的终端;区块链分别获取各个更新后的第一训练数据,并通过筛选条件数据,对各个更新后的第一训练数据进行筛选,得到至少一个更新后的第二训练数据;服务器获取各个更新后的第二训练数据,并通过各个更新后的第二训练数据,对第二模型数据进行更新,得到更新后的第二模型数据。
在示例性实施例中,区块链可以对各个第一终端上传的第二训练数据进行整合,并通过收敛条件数据,判断整合后的第二训练数据是否达到了模型训练结束的标准。当第二训练数据不满足收敛条件数据,即未达到模型训练结束的标准时,服务器则需在服务器对第一模型数据进行更新,得到第二模型数据之后,对该第二模型数据进行获取。并将该第二模型数据发布给各个第二终端。
需要说明的是,在区块链之前对第一训练数据进行筛选时,将不满足筛选条件数据的各个第一训练数据删去,得到满足筛选条件数据的第二训练数据。各个第二训练数据所对应的第一终端,即为第二终端。示例性地,此处删去的第一训练数据所对应的第一终端,不会再次进行下一次模型训练。在下一次迭代过程中,区块链仅会将第二模型数据发送给第二终端。因此,区块链的筛选即可以视为对第一训练数据的筛选,也可以视为对第一终端的筛选。
各个第二终端可以对第二模型数据进行获取,并分别通过第二终端中的本地数据,对第二模型数据进行模型训练,得到更新后的第一训练数据。之后,各个第二终端可以重复S204的步骤,得到更新后的第一训练数据。然后,可以重复S206至S208的步骤,获取更新后的第二模型数据。若本次迭代过程中,区块链判断更新后的第二训练数据依旧不满足收敛条件数据。则服务器可以继续将本次得到的更新后的第二模型数据再次发送至区块链,以进行下一次迭代。直至得到满足收敛条件数据的更新后的第二模型数据,则结束,将最后一次迭代得到的更新后的第二模型数据作为联邦学习结果。
在一些实施例中,筛选条件数据还包括:预设常规函数规律数据,预设常规函数规律数据包括:线性函数规律数据、幂函数规律数据、拉普拉斯分布函数规律数据。
在该种情况下,本公开实施例提供的联邦学习方法还可包括:当经历多次迭代时,区块链判断各个第二终端各次迭代后得到的更新后的第一训练数据是否符合预设常规函数规律数据;区块链将符合预设常规函数规律数据的更新后的第一训练数据删去,得到至少一个更新后的第二训练数据。
示例性地,以经过了四次迭代为例,终端A参与了上述的四次迭代,其第一次迭代时得到的第一训练数据记为a1,而后三次迭代时得到的更新后的第一训练数据可以被分别记为a2、a3与a4。在第四次迭代时,区块链获取a4后,可以对a1、a2、a3与a4是否符合预设常规函数规律数据进行判断。若该a1、a2、a3与a4符合任一种预设常规函数规律数据,则将该a4删去。若第四次迭代得到的更新后的第二训练数据不满足收敛条件数据,则该终端A不再进行后续的迭代过程。
示例性地,线性函数规律数据用于描述线性函数的规律。幂函数规律数据用于描述幂函数的规律。拉普拉斯分布函数规律数据用于描述拉普拉斯分布函数的规律。
当各个第二训练数据不满足收敛条件信息时,本公开实施例不对服务器将第二模型数据发送给区块链的方法进行限定。在一些实施例中,区块链可以生成共识代码,并将共识代码发送给服务器与各个第二终端。之后,服务器可以根据共识代码对第二模型数据进行加密,并将加密后的第二模型数据上传至区块链。而各个第二终端可以分别通过共识代码对加密后的第二模型数据进行解密,得到第二模型数据。示例性地,区块链可以根据随机函数,得到共识代码。本公开不限定该随机函数。
需要说明的是,通过共识代码,服务器和第一终端之间可以验证双方的可信度。交互的第二模型数据通过共识代码进行加密,使攻击者无法通过攻击服务器和第一终端之间的交互信息,直接获得第二模型数据。
本公开的实施例所提供的方案,可以通过筛选条件数据来对多个参与联邦学习的第一终端对应的第一训练数据进行筛选。从而可以对各个第一终端进行筛选。因此,本公开可以提高各个参与联邦学习的第一终端的可信度,避免了恶意的第一终端的攻击。并且本公开提高了第二模型数据的可靠性。
如图3所示,本公开实施例还提供了另一种联邦学习方法的流程图。
S302,服务器将第一模型数据、筛选条件数据,上传至区块链。
S304,区块链接收该第一模型数据与筛选条件数据,并将第一模型数据发布至各个第一终端。
S306,各个第一终端分别获取第一模型数据;第一终端分别通过第一模型数据进行模型训练,得到第一训练数据;分别将第一训练数据发送至区块链。
S308,区块链获取各个第一训练数据,通过筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;将第二训练数据发送至服务器。
S310,服务器获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对第一模型数据进行更新,得到第二模型数据。
并且,在一些实施例中,服务器还可以将该第二模型数据,再次发送至区块链,并通过各个第二终端对第二模型数据进行模型训练,以迭代获取更新后的第二模型数据。需要说明的是,该联邦学习系统中服务器、各个第一终端以及区块链所执行的步骤可以参见上述S202至S208的步骤,此处不再赘述。
图4示出了一种联邦学习方法的过程示意图,如图4所示。图4中,服务器与区块链进行交互的操作可以包括1、联邦学习任务上链发布;2、请求哈希值;3、获取共识代码、解码矩阵服务器。其中,该联邦学习任务中即可以包括第一模型数据、筛选条件数据。服务器的操作还可以包括:1、聚合第二训练数据;2、基于共识代码加密第二模型数据。
区块链的操作可以包括:1、验证第一训练数据的安全性,并剔除恶意节点;2、加密第二训练数据,得到对应的哈希值;3、分配共识代码、解码矩阵。
各个参与者的操作可以包括:1、请求上链,上传第一训练数据;2、获得共识代码。该个联邦学习的参与者即为上述的各个第一终端。如图4所示,可以有M个参与者,M可以为正整数。
需要说明的是,图4中各个操作的实现方式可以参见上述S202至S208,此处不再赘述。
基于同一发明构思,本公开实施例中还提供了一种联邦学习装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图5示出本公开实施例中一种联邦学习装置示意图,该装置应用于服务器,如图5所示,该装置包括:
数据上传模块501,用于将第一模型数据、筛选条件数据,上传至区块链,该区块链用于将该第一模型数据发送至多个参与联邦学习的第一终端;任一第一终端用于获取该第一模型数据,并通过该第一模型数据进行模型训练,得到第一训练数据;区块链用于获取各个第一训练数据,通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
第二模型数据确定模块502,用于通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对该第一模型数据进行更新,得到第二模型数据。
图6示出本公开实施例中另一种联邦学习装置示意图,该装置应用于区块链,如图6所示,该装置包括:
数据获取模块601,用于获取服务器上传的第一模型数据、筛选条件数据;
第一模型数据发送模块602,用于将该第一模型数据发送至多个参与联邦学习的第一终端,任一第一终端用于通过区块链获取该第一模型数据,并通过该第一模型数据进行模型训练,得到第一训练数据;
第一训练数据筛选模块603,用于获取各个第一训练数据,通过该筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
第二训练数据发送模块604,用于将各个第二训练数据发送给服务器,该服务器用于获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对该第一模型数据进行更新,得到第二模型数据。
本公开的实施例所提供的装置,可以通过筛选条件数据来对多个参与联邦学习的第一终端对应的第一训练数据进行筛选。从而可以对各个第一终端进行筛选。因此,本公开可以提高各个参与联邦学习的第一终端的可信度,避免了恶意的第一终端的攻击。并且本公开提高了第二模型数据的可靠性。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7来描述根据本公开的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730。
其中,该存储单元存储有程序代码,该程序代码可以被该处理单元710执行,使得该处理单元710执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7201和/或高速缓存存储单元7202,还可以进一步包括只读存储单元(ROM)7203。
存储单元720还可以包括具有一组(至少一个)程序模块7205的程序/实用工具7204,这样的程序模块7205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备740(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当该程序产品在终端设备上运行时,该程序代码用于使该终端设备执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,该程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围由所附的权利要求指出。
Claims (13)
1.一种联邦学习方法,其特征在于,包括:
服务器将第一模型数据、筛选条件数据,上传至区块链;
多个参与联邦学习的第一终端分别通过区块链获取所述第一模型数据,并分别通过所述第一模型数据进行模型训练,得到第一训练数据,其中,任一第一终端得到一个第一训练数据;
区块链获取各个第一训练数据,通过所述筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
服务器通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对所述第一模型数据进行更新,得到第二模型数据。
2.根据权利要求1所述的联邦学习方法,其特征在于,所述筛选条件数据包括:预设精确度数据、梯度允许偏差数据;所述第一训练数据包括:梯度数据、训练模型数据,训练精度数据;
所述通过所述筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据,包括:
区块链将满足所述训练精度数据不小于预设精确度数据、所述梯度数据满足梯度允许偏差数据、所述训练模型数据与第一模型数据一致,三项中至少一项的第一训练数据,作为第二训练数据。
3.根据权利要求2所述的联邦学习方法,其特征在于,所述第一训练数据还包括:终端标识数据,训练回合数据,训练样品数据、权重数据、偏置数据以及上传时间数据。
4.根据权利要求1至3任一所述的联邦学习方法,其特征在于,所述方法还包括:
区块链将所述第二训练数据进行向量转化加密与哈希计算,得到哈希值;
其中,所述服务器通过区块链获取各个第二训练数据,包括:
服务器通过区块链获取所述哈希值与解码矩阵;
通过所述解码矩阵对所述哈希值进行解密,得到各个第二训练数据。
5.根据权利要求2所述的联邦学习方法,其特征在于,所述服务器将第一模型数据、筛选条件数据,上传至区块链,包括:
服务器将所述第一模型数据、所述筛选条件数据以及收敛条件数据,上传至所述区块链;
其中,所述方法还包括:
区块链判断所述第二训练数据是否满足所述收敛条件数据;
若各个第二训练数据满足所述收敛条件信息,将所述第二模型数据作为联邦学习结果;若各个第二训练数据不满足所述收敛条件信息,迭代执行如下操作,直至各个更新后的第二训练数据满足所述收敛条件信息时,将更新后的第二模型数据,作为联邦学习结果:
服务器将所述第二模型数据上传至区块链;
各个第二终端分别通过所述区块链获取所述第二模型数据,并分别通过所述第二模型数据进行模型训练,得到更新后的第一训练数据,其中,各个第二终端为各个第二训练数据所分别对应的终端;
区块链分别获取各个更新后的第一训练数据,并通过所述筛选条件数据,对各个更新后的第一训练数据进行筛选,得到至少一个更新后的第二训练数据;
服务器获取各个更新后的第二训练数据,并通过各个更新后的第二训练数据,对所述第二模型数据进行更新,得到更新后的第二模型数据。
6.根据权利要求5所述的联邦学习方法,其特征在于,所述筛选条件数据还包括:预设常规函数规律数据,所述预设常规函数规律数据包括:线性函数规律数据、幂函数规律数据、拉普拉斯分布函数规律数据;
所述方法还包括:
当经历多次迭代时,所述区块链判断各个第二终端各次迭代后得到的更新后的第一训练数据是否符合所述预设常规函数规律数据;
所述区块链将符合所述预设常规函数规律数据的更新后的第一训练数据删去,得到至少一个更新后的第二训练数据。
7.根据权利要求5或6所述的联邦学习方法,其特征在于,当各个第二训练数据不满足所述收敛条件信息时,所述方法还包括:
区块链生成共识代码,并将所述共识代码发送给服务器与各个第二终端;
所述服务器将所述第二模型数据上传至区块链,包括:
服务器根据所述共识代码对所述第二模型数据进行加密,并将加密后的第二模型数据上传至区块链;
所述各个第二终端分别通过所述区块链获取所述第二模型数据,包括:
各个第二终端分别通过所述共识代码对所述加密后的第二模型数据进行解密,得到所述第二模型数据。
8.根据权利要求1至3任一所述的联邦学习方法,其特征在于,所述服务器将第一模型数据、筛选条件数据,上传至区块链之后,所述方法还包括:
区块链将所述第一模型数据、所述筛选条件数据形成智能合约,并向多个第一终端进行发布。
9.一种联邦学习系统,其特征在于,包括:服务器、多个参与联邦学习的第一终端以及区块链;
其中,所述服务器,用于将第一模型数据、筛选条件数据,上传至所述区块链;
多个参与联邦学习的第一终端,用于分别通过区块链获取所述第一模型数据,并分别通过所述第一模型数据进行模型训练,得到第一训练数据,其中,任一第一终端得到一个第一训练数据;
所述区块链,用于获取各个第一训练数据,通过所述筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
所述服务器,还用于通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对所述第一模型数据进行更新,得到第二模型数据。
10.一种联邦学习装置,其特征在于,应用于服务器,包括:
数据上传模块,用于将第一模型数据、筛选条件数据,上传至区块链,所述区块链用于将所述第一模型数据发送至多个参与联邦学习的第一终端;任一第一终端用于获取所述第一模型数据,并通过所述第一模型数据进行模型训练,得到第一训练数据;区块链用于获取各个第一训练数据,通过所述筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
第二模型数据确定模块,用于通过区块链获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对所述第一模型数据进行更新,得到第二模型数据。
11.一种联邦学习装置,其特征在于,应用于区块链,包括:
数据获取模块,用于获取服务器上传的第一模型数据、筛选条件数据;
第一模型数据发送模块,用于将所述第一模型数据发送至多个参与联邦学习的第一终端,任一第一终端用于通过区块链获取所述第一模型数据,并通过所述第一模型数据进行模型训练,得到第一训练数据;
第一训练数据筛选模块,用于获取各个第一训练数据,通过所述筛选条件数据,对各个第一训练数据进行筛选,得到第一训练数据中至少一个满足筛选条件数据的第二训练数据;
第二训练数据发送模块,用于将各个第二训练数据发送给服务器,所述服务器用于获取各个第二训练数据,并对各个第二训练数据进行聚合,通过聚合后的第二训练数据对所述第一模型数据进行更新,得到第二模型数据。
12.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~8中任意一项所述的联邦学习方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~8中任意一项所述的联邦学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211468309.4A CN118095474A (zh) | 2022-11-22 | 2022-11-22 | 联邦学习方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211468309.4A CN118095474A (zh) | 2022-11-22 | 2022-11-22 | 联邦学习方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118095474A true CN118095474A (zh) | 2024-05-28 |
Family
ID=91163816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211468309.4A Pending CN118095474A (zh) | 2022-11-22 | 2022-11-22 | 联邦学习方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118095474A (zh) |
-
2022
- 2022-11-22 CN CN202211468309.4A patent/CN118095474A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220318907A1 (en) | Systems and methods for generating secure, encrypted communications across distributed computer networks for authorizing use of cryptography-based digital repositories in order to perform blockchain operations in decentralized applications | |
CN112347500B (zh) | 分布式系统的机器学习方法、装置、系统、设备及存储介质 | |
CN111950030A (zh) | 基于区块链的数据共享存储方法、终端设备和存储介质 | |
Ma et al. | An authentication and secure communication scheme for in-vehicle networks based on SOME/IP | |
CN109474616B (zh) | 多平台数据共享方法和装置及计算机可读存储介质 | |
CN114567643B (zh) | 跨区块链的数据流转方法、装置及相关设备 | |
WO2024093426A1 (zh) | 基于联邦机器学习的模型训练方法和装置 | |
CN113901505A (zh) | 数据共享方法、装置、电子设备及存储介质 | |
CN114051031B (zh) | 基于分布式身份的加密通讯方法、系统、设备及存储介质 | |
CN117349685A (zh) | 一种通信数据的聚类方法、系统、终端及介质 | |
Meng et al. | Data sharing mechanism of sensors and actuators of industrial IoT based on blockchain-assisted identity-based cryptography | |
CN116629379A (zh) | 联邦学习聚合方法及装置、存储介质及电子设备 | |
US20230245111A1 (en) | Systems and methods for requesting secure, encrypted communications across distributed computer networks for authorizing use of cryptography-based digital repositories in order to perform blockchain operations in decentralized applications | |
US20230246817A1 (en) | Systems and methods for generating secure, encrypted communications across distributed computer networks for authorizing use of cryptography-based digital repositories in order to perform blockchain operations in decentralized applications | |
CN118095474A (zh) | 联邦学习方法、装置、电子设备及存储介质 | |
CN116415267A (zh) | 一种联合学习模型迭代更新方法、装置、系统及存储介质 | |
CN112712428A (zh) | 基于区块链的电子存证方法和电子设备 | |
US11755746B1 (en) | Systems and methods for conducting blockchain actions based on network mappings of self-executing program characteristics | |
US11882228B1 (en) | Systems and methods for generating shell-wrapped self-executing programs for conducting cryptographically secure actions | |
CN117633848B (zh) | 用户信息联合处理方法、装置、设备和计算机可读介质 | |
US20230246850A1 (en) | Systems and methods for generating secure, encrypted communications across distributed computer networks for authorizing use of cryptography-based digital repositories in order to perform blockchain operations in decentralized applications | |
CN114765634B (zh) | 网络协议识别方法、装置、电子设备及可读存储介质 | |
Pham | BREPubSub: A Secure Publish-Subscribe Model using Blockchain and Re-encryption for IoT Data Sharing Management | |
WO2023124312A1 (zh) | 联合学习中的预测方法及装置 | |
CN115515135A (zh) | 联盟通信方法、系统、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication |