CN113988318A - 联邦学习方法、装置、电子设备和介质 - Google Patents

联邦学习方法、装置、电子设备和介质 Download PDF

Info

Publication number
CN113988318A
CN113988318A CN202111229404.4A CN202111229404A CN113988318A CN 113988318 A CN113988318 A CN 113988318A CN 202111229404 A CN202111229404 A CN 202111229404A CN 113988318 A CN113988318 A CN 113988318A
Authority
CN
China
Prior art keywords
model parameter
training
model
parameter values
parameter value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111229404.4A
Other languages
English (en)
Inventor
陈世武
王炜
江军
杨渝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Topsec Technology Co Ltd
Beijing Topsec Network Security Technology Co Ltd
Beijing Topsec Software Co Ltd
Original Assignee
Beijing Topsec Technology Co Ltd
Beijing Topsec Network Security Technology Co Ltd
Beijing Topsec Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Topsec Technology Co Ltd, Beijing Topsec Network Security Technology Co Ltd, Beijing Topsec Software Co Ltd filed Critical Beijing Topsec Technology Co Ltd
Priority to CN202111229404.4A priority Critical patent/CN113988318A/zh
Publication of CN113988318A publication Critical patent/CN113988318A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/04Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
    • H04L63/0428Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及一种联邦学习方法、装置、电子设备和介质;其中,该方法包括:响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值;从区块链系统中获取本轮训练过程的最终模型参数值;根据最终模型参数值,对联邦学习基础模型的参数值进行更新。本公开实施例能够降低数据被恶意篡改和隐私泄露的风险,使不同参与方之间建立不基于信任的协作,提升联邦学习基础模型的准确度。

Description

联邦学习方法、装置、电子设备和介质
技术领域
本公开涉及联邦学习领域,尤其涉及一种联邦学习方法、装置、电子设备和介质。
背景技术
目前,各组织和机构在业务开展过程中积累了大量业务数据,但这些数据基本上都以数据孤岛的形式存在,其价值未得到有效利用。
为解决数据孤岛问题并且对数据进行保护,现有技术中通常采用联邦学习方法使得各个参与方能够在不直接交换原始数据的前提下,协同的训练机器学习模型,实现互利共赢。但是,在进行联邦学习模型训练时,训练过程依赖于中心化的协调方,导致联邦学习效率得不到保障。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种联邦学习方法、装置、电子设备和介质。
第一方面,本公开提供了一种联邦学习方法,包括:
响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值;
从区块链系统中获取本轮训练过程的最终模型参数值,其中,所述最终模型参数值由所述区块链系统通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值进行汇总计算后得到;
根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新。
可选的,所述响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值之前,还包括:
从所述区块链系统中获取目标汇总聚合节点,其中,所述目标汇总聚合节点由所述区块链系统根据预设随机方式确定,所述目标汇总聚合节点的个数大于预设个数。
可选的,所述目标汇总聚合节点包括第一汇总聚合节点;
所述从区块链系统中获取本轮训练过程的最终模型参数值之前,还包括:
根据所述第一汇总聚合节点的公钥对所述模型参数值进行加密,得到第一模型参数值,并将第一模型参数值存储至所述区块链系统中;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点在线时,通过所述第一汇总聚合节点获取所有第一模型参数值,通过所述第一汇总聚合节点的私钥对所有第一模型参数值进行解密,并对解密后得到的所有模型参数值进行汇总计算后得到。
可选的,所述目标汇总聚合节点还包括第二汇总聚合节点;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点不在线时,通过所述第二汇总聚合节点向所述技术方发起数据转换请求,以供所述技术方通过代理重加密方式将所述第一模型参数值转换为第二模型参数值,并将所述第二模型参数值发送给所述第二汇总聚合节点,通过所述第二汇总聚合节点的私钥对所有第二模型参数值进行解密,对解密后得到的所有模型参数值进行汇总计算后得到,其中,所述第二模型参数值为根据所述第二汇总聚合节点的公钥对所述模型参数值进行加密后得到。
可选的,所述根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新之后,还包括:
等待开始下一轮模型训练的消息,并响应所述开始下一轮模型训练的消息,进行新一轮的训练过程;
响应于所述技术方发布的所述联邦学习基础模型的训练过程结束的消息,并根据所述消息结束所述联邦学习基础模型的训练过程。
可选的,所述消息由所述技术方确定新的最终模型参数值满足预设精度或者训练轮数达到预设阈值后发布。
可选的,所述本地训练样本集通过以下方式得到:
根据本地数据的类型,调用所述技术方提供的数据规范样式和/或训练样本集生成工具,从所述本地数据中提取生成所述本地训练样本集所需的特征;
根据所述特征生成所述联邦学习基础模型对应的本地训练样本集。
第二方面,本公开提供了一种联邦学习装置,包括:
训练模块,用于响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值;
获取模块,用于从区块链系统中获取本轮训练过程的最终模型参数值,其中,所述最终模型参数值由所述区块链系统通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值进行汇总计算后得到;
更新模块,用于根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新。
可选的,上述装置还包括:
节点确定模块,用于响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值之前,从所述区块链系统中获取目标汇总聚合节点,其中,所述目标汇总聚合节点由所述区块链系统根据预设随机方式确定,所述目标汇总聚合节点的个数大于预设个数。
可选的,所述目标汇总聚合节点包括第一汇总聚合节点;上述装置还包括:
存储模块,用于从区块链系统中获取本轮训练过程的最终模型参数值之前,根据所述第一汇总聚合节点的公钥对所述模型参数值进行加密,得到第一模型参数值,并将第一模型参数值存储至所述区块链系统中;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点在线时,通过所述第一汇总聚合节点获取所有第一模型参数值,通过所述第一汇总聚合节点的私钥对所有第一模型参数值进行解密,并对解密后得到的所有模型参数值进行汇总计算后得到。
可选的,所述目标汇总聚合节点还包括第二汇总聚合节点;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点不在线时,通过所述第二汇总聚合节点向所述技术方发起数据转换请求,以供所述技术方通过代理重加密方式将所述第一模型参数值转换为第二模型参数值,并将所述第二模型参数值发送给所述第二汇总聚合节点,通过所述第二汇总聚合节点的私钥对所有第二模型参数值进行解密,对解密后得到的所有模型参数值进行汇总计算后得到,其中,所述第二模型参数值为根据所述第二汇总聚合节点的公钥对所述模型参数值进行加密后得到。
可选的,上述装置还包括:
响应模块,用于根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新之后,等待开始下一轮模型训练的消息,并响应所述开始下一轮模型训练的消息,进行新一轮的训练过程;
结束模块,用于响应于所述技术方发布的所述联邦学习基础模型的训练过程结束的消息,并根据所述消息结束所述联邦学习基础模型的训练过程。
可选的,所述消息由所述技术方确定新的最终模型参数值满足预设精度或者训练轮数达到预设阈值后发布。
可选的,所述本地训练样本集通过以下方式得到:
根据本地数据的类型,调用所述技术方提供的数据规范样式和/或训练样本集生成工具,从所述本地数据中提取生成所述本地训练样本集所需的特征;
根据所述特征生成所述联邦学习基础模型对应的本地训练样本集。
第三方面,本公开还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本公开实施例中的任一种所述的联邦学习方法。
第四方面,本公开还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开实施例中的任一种所述的联邦学习方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:首先响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值,然后从区块链系统中获取本轮训练过程的最终模型参数值,最后根据最终模型参数值,对联邦学习基础模型的参数值进行更新。本公开实施例能够降低数据被恶意篡改和隐私泄露的风险,使不同参与方之间建立不基于信任的协作,提升联邦学习基础模型的准确度。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本公开实施例提供的方法中涉及的三类参与方之间的逻辑关系示意图;
图2是本公开实施例提供的一种联邦学习方法的流程示意图;
图3A是本公开实施例提供的另一种联邦学习方法的流程示意图;
图3B是本公开实施例提供的功能模块及其相互关系的示意图;
图4是本公开实施例提供的一种联邦学习装置的结构示意图;
图5是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
图1是本公开实施例提供的方法中涉及的三类参与方之间的逻辑关系示意图,如图1所示:
本实施例中涉及的参与方可以包括:数据方(即数据拥有方的简称)110、技术方(即技术支持方的简称)120以及安全审计方140。其中,联邦学习过程中主要涉及到的是数据方110和技术方120,并且基于区块链系统130实现,安全审计方140不参与联邦学习过程。数据方110和区块链系统130能够进行数据交互,技术方120和区块链系统130能够进行数据交互。
数据方110可以理解为在日常生产经营活动中,积累了大量的原始数据,且在生产环境中持续产生业务数据,但数据分析能力较弱,需要外部机构提供数据分析能力支持的机构,例如,可以包括生产重要物资的各企事业单位、科研机构,以及教育机构等。本公开可以涉及一个或多个数据方,图中以一个为例进行说明。
技术方120可以理解为在数据分析技术和能力上有深厚积累,但由于自身不处于生产环境中,缺乏用于数据分析的原始业务数据的机构,例如,可以包括高技术企业或者数据分析相关研究机构等。本公开可以涉及一个或多个技术方,图中以一个为例进行说明。
区块链系统130可以理解为由数据方110、技术方120以及安全审计方140联合建立的区块链网络,用于支持和实现联邦学习过程。联邦学习可以理解为使得各个参与方能够在不直接交换原始数据的前提下,协同训练联邦学习基础模型,实现互利共赢的方法。该区块链网络属于联盟链网络,因此属于各参与方的网络节点需要通过区块链系统130中的接入身份认证模块完成身份验证过程,并且在通过身份认证后的网络节点才能加入区块链网络。网络节点可以理解为连接到区块链网络的计算机。
安全审计方140可以理解为监控数据方110和技术方120是否有违规操作,以及模型训练过程中是否发生隐私泄露等安全问题的机构,可以由政府监管机构或其它第三方安全审计机构担任。在安全审计方140中部署有安全审计模块,主要作用是监控整个模型训练过程,以便及时发现违规操作以及隐私数据泄露等安全问题。本公开可以涉及一个或多个安全审计方,图中以一个为例进行说明。
图2是本公开实施例提供的一种联邦学习方法的流程示意图。本实施例可适用于基于区块链进行联邦学习的情况。本实施例方法可由联邦学习装置来执行,该装置可采用硬件/或软件的方式来实现,并可配置于电子设备中。如图2所示,该方法具体包括如下:
S210,响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值。
其中,技术方中部署有模型训练同步模块,主要用于同步每轮联邦学习基础模型训练的开始时间和结束时间,并监控各数据方的模型参数值是否已完成共识上链。共识上链可以理解为经过区块链系统共识验证后存储在区块链上。本地训练样本集可以理解为各数据方生成的训练样本集。联邦学习基础模型可以理解为由技术方提供的训练模型。
对于不同的数据类型,技术方可以根据实践经验以及协商后确定初始机器学习算法模型,然后采用模拟数据或者本地积累的真实数据对初始机器学习算法模型进行训练后,生成联邦学习基础模型,通过区块链系统将联邦学习基础模型及初始化模型参数值同步给各数据方。并且技术方能够通过模型训练同步模块发布开始本轮模型训练的消息,各数据方在接收到技术方发布的开始本轮模型训练的消息之后,能够响应于开始本轮模型训练的消息,并且基于本地训练样本集对技术方同步的联邦学习基础模型进行训练,在经过本轮训练之后,各数据方就得到了本轮训练过程的模型参数值。
S220,从区块链系统中获取本轮训练过程的最终模型参数值。
其中,最终模型参数值由区块链系统通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值进行汇总计算后得到。最终模型参数值可以理解为经过各数据方本轮模型训练后得到的最优模型参数值。目标汇总聚合节点可以理解为从各数据方或者技术方中选取出的节点,主要用于对各数据方每一轮训练过程得到的模型参数值进行汇总计算。
各数据方在得到本轮训练过程的模型参数值之后,会将本轮训练过程的模型参数值存储至区块链系统中。由于本轮训练过程的模型参数值较多,因此区块链系统需要通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值通过相应的汇总聚合算法进行汇总计算,以便确定出本轮训练过程的最终模型参数值。在区块链系统确定出本轮训练过程的最终模型参数值之后,各数据方就能够从区块链系统中获取到本轮训练过程的最终模型参数值,以便进行后续的模型训练。
S230,根据最终模型参数值,对联邦学习基础模型的参数值进行更新。
各数据方通过区块链系统中部署的智能合约模块中的模型参数值更新合约能够获取到本轮训练过程的最终模型参数值,根据该最终模型参数值,能够对联邦学习基础模型的参数值进行更新,即:将本轮的最终模型参数值作为下一轮模型训练的初始模型参数值,以便后续对更新了参数值之后的联邦学习基础模型继续进行训练。
在本实施例中,首先响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值,然后从区块链系统中获取本轮训练过程的最终模型参数值,最后根据最终模型参数值,对联邦学习基础模型的参数值进行更新,通过上述方法能够降低数据被恶意篡改和隐私泄露的风险,使不同参与方之间建立不基于信任的协作,提升联邦学习基础模型的准确度。
在一些实施例中,可选的,所述响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值之前,还可以具体包括:从所述区块链系统中获取目标汇总聚合节点,其中,所述目标汇总聚合节点由所述区块链系统根据预设随机方式确定,所述目标汇总聚合节点的个数大于预设个数。
其中,预设随机方式可以为可验证随机函数(Verifiable Random Function,简称VRF),也可以是其他随机算法,本实施例不做具体限制。预设个数也可以为预先确定的数值,也可以根据实际情况确定。优选的,预设个数的数值大于或者等于1。目标个数为目标汇总聚合节点的个数,例如可以为2个。
具体的,区块链系统中部署有汇总聚合节点选取模块,通过该汇总聚合节点选取模块,可以在每轮模型训练开始前,或者初次模型训练开始前,或者其他时间,使用VRF随机选择目标个数的汇总聚合节点,即目标汇总聚合节点,并在区块链系统中全网广播选举结果。由于区块链系统中全网广播了目标汇总聚合节点的选举结果,因此各数据方从区块链系统中能够获取到目标汇总聚合节点的公钥等相关信息。
需要说明的是,本实施例不限制通过汇总聚合节点选取模块确定目标汇总聚合节点的时间。
本实施例中,从区块链系统中获取目标汇总聚合节点,有利于各数据方后续获取到最终模型参数值以及根据目标汇总聚合节点的公钥对每轮训练过程得到的模型参数值进行加密。
在一些实施例中,可选的,所述目标汇总聚合节点包括第一汇总聚合节点;所述从区块链系统中获取本轮训练过程的最终模型参数值之前,还可以具体包括:根据所述第一汇总聚合节点的公钥对所述模型参数值进行加密,得到第一模型参数值,并将第一模型参数值存储至所述区块链系统中;相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点在线时,通过所述第一汇总聚合节点获取所有第一模型参数值,通过所述第一汇总聚合节点的私钥对所有第一模型参数值进行解密,并对解密后得到的所有模型参数值进行汇总计算后得到。
具体的,当目标汇总聚合节点包括第一汇总聚合节点时,各数据方根据第一汇总聚合节点的公钥对本轮训练过程的模型参数值进行加密,能够得到第一模型参数值,并将第一模型参数值存储至区块链系统中。区块链系统在第一汇总聚合节点在线时,通过第一汇总聚合节点能够获取所有第一模型参数值,并通过第一汇总聚合节点的私钥对所有第一模型参数值进行解密,通过第一汇总聚合节点对解密后得到的所有模型参数值进行汇总计算后就得到了本轮训练过程的最终模型参数值。其中,第一汇总聚合节点可以通过智能合约模块中的模型参数获取合约提取区块链系统中存储的各数据方上传的第一模型参数值。
本实施例中,通过非对称加密算法对本轮训练过程的模型参数值进行加密以及对所有第一模型参数值进行解密,能够解决数据在区块链系统的存储过程中可能发生的隐私泄露问题,进一步提高存储过程的安全性。
在本实施例中,进一步的,第一汇总聚合节点根据智能合约模块中的模型参数值加密上链合约,使用自身的私钥对本轮训练过程的最终模型参数值进行加密后存储在区块链系统中,便于技术方通过第一汇总聚合节点的公钥从区块链系统中获取本轮训练过程的最终模型参数值。
在一些实施例中,可选的,所述方法还包括:
响应于技术方发布的结束本轮模型训练的消息,结束本轮训练过程。
具体的,技术方通过模型训练同步模块判断已存储的第一模型参数值的数量,当该数量超过阈值时,通过模型训练同步模块发布结束本轮模型训练的消息,以防止每轮训练耗时过长。各数据方在接收到技术方发布的结束本轮模型训练的消息之后,响应于该结束本轮模型训练的消息,从而能够结束本轮训练过程。
本实施例中,通过上述方法结束本轮训练过程,能够防止每轮训练耗时过长,提高工作效率,避免增加模型训练的时间。
在一些实施例中,可选的,所述目标汇总聚合节点还包括第二汇总聚合节点;相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点不在线时,通过所述第二汇总聚合节点向所述技术方发起数据转换请求,以供所述技术方通过代理重加密方式将所述第一模型参数值转换为第二模型参数值,并将所述第二模型参数值发送给所述第二汇总聚合节点,通过所述第二汇总聚合节点的私钥对所有第二模型参数值进行解密,对解密后得到的所有模型参数值进行汇总计算后得到,其中,所述第二模型参数值为根据所述第二汇总聚合节点的公钥对所述模型参数值进行加密后得到。
具体的,目标汇总聚合节点还包括第二汇总聚合节点,当区块链系统在第一汇总聚合节点不在线时,由于第一汇总聚合节点通过其私钥和第二汇总聚合节点的公钥生成了转换密钥,并且将该转换密钥根据技术方的公钥加密后通过加密信道发送给各技术方,因此当需要进行目标汇总聚合节点替换时,区块链系统通过第二汇总聚合节点向技术方发起数据转换请求,以供技术方调用自身的代理重加密模块实现重加密过程。重加密过程为:技术方根据转换密钥通过代理重加密方式将第一模型参数值转换为第二模型参数值,并将第二模型参数值通过加密信道发送给第二汇总聚合节点,通过第二汇总聚合节点的私钥对所有第二模型参数值进行解密,通过第二汇总聚合节点对解密后得到的所有模型参数值进行汇总计算后就得到了本轮训练过程的最终模型参数值。
本实施例中,通过第二汇总聚合节点能够在第一汇总聚合节点不在线时,及时替换第一汇总聚合节点,避免了单点故障对模型训练过程的不利影响,以及通过采用区块链、联邦学习和代理重加密相结合的方式,有效降低传统联邦学习中面临的数据被恶意篡改和隐私泄露的风险。
在本实施例中,进一步的,第二汇总聚合节点根据智能合约模块中的模型参数值加密上链合约,使用自身的私钥对本轮训练过程的最终模型参数值进行加密后存储在区块链系统中,便于技术方根据第二汇总聚合节点的公钥从区块链系统中获取本轮训练过程的最终模型参数值。
在一些实施例中,可选的,若目标汇总聚合节点均不在线,则由所述区块链系统重新确定出新的目标汇总聚合节点。
本实施例中,在目标汇总聚合节点均不在线,即发生故障时,重新确定新的目标汇总聚合节点能够保证模型训练过程的顺利进行,并且在目标汇总聚合节点均不在线时,各数据方应该采用上一轮次开始时的初始模型参数值重新进行模型训练。
在一些实施例中,可选的,目标汇总聚合节点与技术方建立并保持心跳连接,以验证目标汇总聚合节点是否在线。
本实施例中,通过心跳连接能够确定目标汇总聚合节点是否在线,当第一汇总聚合节点不在线时,能够及时用新的汇总聚合节点进行替换,从而保证模型参数值的汇总计算过程顺利进行,提升联邦学习方法运行过程的稳定性和鲁棒性。
图3A是本公开实施例提供的另一种联邦学习方法的流程示意图。本实施例是在上述实施例的基础上进行优化。可选的,本实施例对联邦学习基础模型的参数值进行更新之后的过程进行详细的解释说明。
如图3A所示,该方法具体包括如下:
S310,响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值。
S320,从区块链系统中获取本轮训练过程的最终模型参数值。
S330,根据最终模型参数值,对联邦学习基础模型的参数值进行更新。
S340,等待开始下一轮模型训练的消息,并响应开始下一轮模型训练的消息,进行新一轮的训练过程。
各数据方在完成本轮训练之后,等待开始下一轮模型训练的消息,当接收到技术方通过模型训练同步模块发布的开始下一轮模型训练的消息之后,各数据方响应开始下一轮模型训练的消息,并基于上一轮更新后的模型参数值进行新一轮的训练过程。
S350,响应于技术方发布的联邦学习基础模型的训练过程结束的消息,并根据消息结束联邦学习基础模型的训练过程。
各数据方在接收到技术方通过模型训练同步模块发布的联邦学习基础模型的训练过程结束的消息之后,说明联邦学习基础模型的训练过程已经结束,各数据方需要根据该消息结束联邦学习基础模型的训练过程。
在本实施例中,可选的,所述消息由所述技术方确定新的最终模型参数值满足预设精度或者训练轮数达到预设阈值后发布。
其中,预设精度可以是预先设定好的,也可以视具体情况而定,本实施例不做具体限制。预设阈值可以是预先设定好的,也可以视具体情况而定,本实施例不做具体限制。
本实施例中,当技术方确定新的最终模型参数值满足预设精度或者训练轮数达到预设阈值后,通过模型训练同步模块发布联邦学习基础模型的训练过程结束的消息,能够及时结束联邦学习基础模型的训练过程,避免造成资源的浪费。
在本实施例中,可选的,所述本地训练样本集可以具体通过以下方式得到:根据本地数据的类型,调用所述技术方提供的数据规范样式和/或训练样本集生成工具,从所述本地数据中提取生成所述本地训练样本集所需的特征;根据所述特征生成所述联邦学习基础模型对应的本地训练样本集。
具体的,针对不同数据类型,技术方能够提供相应的数据规范样式和/或训练样本集生成工具,数据方在对联邦学习基础模型进行训练之前,通过数据方中部署的本地训练样本生成模块能够根据本地数据的类型,调用技术方提供的数据规范样式和/或训练样本集生成工具,从本地数据中提取生成本地训练样本集所需的特征,在提取到特征之后,根据该特征生成联邦学习基础模型对应的本地训练样本集。
本实施例中,通过上述方法生成本地训练样本集能够节省时间,降低参与联邦学习的技术门槛。
在本实施例中,进一步的,从本地数据中提取到生成本地训练样本集所需的特征之后,还可以对该特征进行预处理,例如,数据丰富化或者特征降维处理等,有利于后续生成本地训练样本集,能够提高工作效率。
在本实施例中,可选的,在根据所述消息结束所述联邦学习基础模型的训练过程之后,还包括:
接收区块链系统根据预先定义的规则所确定的激励。
具体的,区块链系统根据预先定义的规则,通过激励计算与分配合约能够确定出各参与方(数据方和技术方)在模型训练过程中所做的贡献,从而根据各参与方的贡献给予各参与方相应的激励。数据方以及技术方能够接收区块链系统根据预先定义的规则所确定的激励。
本实施例中,通过上述方法能够提升各参与方的工作积极性,有利于后续进行新的模型训练过程。
示例性的,图3B是本公开实施例提供的功能模块及其相互关系的示意图,如图3B所示,给出了其中一种方式。
从图3B中可知,本公开实施例中共涉及到以下功能模块:接入身份认证模块、本地训练样本生成模块、智能合约模块、模型训练同步模块、汇总聚合节点选取模块、代理重加密模块以及安全审计模块。其中,接入身份认证模块、本地训练样本生成模块、智能合约模块、模型训练同步模块、汇总聚合节点选取模块以及安全审计模块都能够与区块链系统进行数据交互,汇总聚合节点选取模块与代理重加密模块进行数据交互,并且上述各模块的作用以及部署位置已经在本公开实施例中说明过,此处不再赘述。
示例性的,本公开中的联邦学习方法可以应用于多机构或组织以分布式协同的方式生成网络安全威胁检测系统,下面以一个具体的例子来对本公开中的联邦学习方法的应用过程进行说明。
根据网络安全威胁协同检测的技术需求,以下将阐述使用本公开的联邦学习方法在分布式网络安全威胁检测系统生成过程中通过区块链保证分布式学习过程数据的安全存储并通过代理重加密实现模型参数值的可信重加密,从而提升安全威胁检测准确率,并解决数据样本不足的问题,具体流程如下:
1、区块链系统的构建
各参与方(包括数据方、技术方以及安全审计方)联合建立联盟链网络,并且属于各参与方的网络节点需要通过接入身份认证模块完成身份验证过程,通过接入身份认证的网络节点才能加入联盟链网络。
2、本地训练样本集生成
在进行模型训练之前,数据方需要根据本地数据的类型,调用技术方提供的数据规范样式和/或训练样本集生成工具,从本地数据中提取生成本地训练样本集所需的特征,并根据特征生成联邦学习基础模型对应的本地训练样本集。本地数据可来源于数据方部署的各种网络安全设备,例如,入侵检测系统(Intrusion Detection System,简称IDS)、入侵防御系统(Intrusion Prevention System,简称IPS)或者统一威胁管理(Unified ThreatManagement,简称UTM)等的告警事件数据,并混合正常数据。
其中,联邦学习方式可采用横向联邦学习。
3、联邦学习基础模型的确定与同步
对于不同数据类型,网络安全的技术方根据实践经验并经协商后选择对应的机器学习算法模型,并采用模拟数据或本地真实数据对该机器学习算法模型进行训练后,生成联邦学习基础模型,并通过区块链系统将联邦学习基础模型及初始化模型参数值同步给各数据方。
4、目标汇总聚合节点的选取
每轮模型训练开始前,通过汇总聚合节点选取模块,确定目标汇总聚合节点,例如第一汇总聚合节点和第二汇总聚合节点,并全网广播选举结果。在每轮模型训练开始前,第一汇总聚合节点使用自己的私钥和第二汇总聚合节点的公钥生成转换密钥,并将转换密钥分别使用技术方的公钥加密后通过加密信道发送给各技术方。之后,技术方通过区块链系统的模型训练同步模块发布开始本轮模型训练的消息。
5、模型参数迭代训练
模型参数迭代训练的具体训练过程如下:
(1)数据方基于本地训练样本集对联邦学习基础模型进行训练,完成本轮模型训练后,通过第一汇总聚合节点的公钥对本轮训练过程的模型参数值进行加密,经区块链系统共识验证后存储在区块链系统中。
(2)技术方通过模型训练同步模块判断已存储(也称上链)的加密模型参数值的数量,当数量超过某一阈值(例如,超过数据方总数量的2/3)时,通过模型训练同步模块广播本轮模型训练结束的消息。未在该时间段内完成模型参数值存储的数据方停止模型训练或停止存储本轮训练所得的模型参数值。
(3)第一汇总聚合节点通过模型参数获取合约提取区块链系统中存储的各数据方发布的加密模型参数值,使用其私钥进行解密,经汇总计算后获得本轮的最终模型参数值,并使用其私钥进行签名后,经区块链网络共识机制存储在区块链系统中。
若第一汇总聚合节点出现故障(例如,第一汇总聚合节点与所有技术方均断开心跳连接),则由第二汇总聚合节点进行汇总聚合,获得本轮的最终模型参数值,并使用其私钥进行签名后,经区块链网络共识验证后存储在区块链系统中。
若第二汇总聚合节点也出现故障,则技术方通过模型训练同步模块发布本轮次模型参数汇总聚合失败的消息,并通知汇总聚合节点选取模块重新确定出新的目标汇总聚合节点,各数据方采用上一轮次开始时的模型参数值重新进行模型训练。
(4)各数据方通过模型参数值更新合约获取本轮经加密的模型参数值,使用第一或第二汇总聚合节点的公钥解密后,更新联邦学习基础模型的参数值。
(5)循环进行上述训练过程,直到最终模型参数值满足预设精度或者训练轮数达到预设阈值后,结束模型参数迭代训练过程。
6、模型生成贡献统计与激励分配
区块链系统根据预先定义的规则,通过激励计算与分配合约统计各参与方在模型训练中所做的贡献,例如通过是否积极参与模型训练等维度来统计贡献,给予一定的经济激励,例如现金奖励。
对每一种安全威胁检测模型对按照上述训练过程循环进行,每个模型的训练过程结束后,一方面,可将联邦学习得到的最终模型应用于生产环境中进行网络安全威胁检测,另一方面,也可集成到各参与方已建的网络安全威胁监测与分析等相关系统中。通过对多种模型进行训练,形成完善的分布式网络安全威胁检测系统,能够对多种网络安全威胁进行分布式检测。
在本实施例中,首先响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值,接着从区块链系统中获取本轮训练过程的最终模型参数值,根据最终模型参数值,对联邦学习基础模型的参数值进行更新,然后等待开始下一轮模型训练的消息,并响应开始下一轮模型训练的消息,进行新一轮的训练过程,最后响应于技术方发布的联邦学习基础模型的训练过程结束的消息,并根据消息结束联邦学习基础模型的训练过程,通过上述方法能够及时结束联邦学习基础模型的训练过程,避免造成资源的浪费,有效降低传统联邦学习中面临的数据被恶意篡改和隐私泄露的风险,使不同参与方之间建立不基于信任的协作,提升联邦学习基础模型的准确度,并有效缓解某些场景下的训练样本不足的问题。
图4是本公开实施例提供的一种联邦学习装置的结构示意图;该装置配置于电子设备中,可实现本申请任意实施例所述的联邦学习方法。该装置具体包括如下:
训练模块410,用于响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值;
获取模块420,用于从区块链系统中获取本轮训练过程的最终模型参数值,其中,所述最终模型参数值由所述区块链系统通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值进行汇总计算后得到;
更新模块430,用于根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新。
在本实施例中,可选的,上述装置还包括:
节点确定模块,用于响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值之前,从所述区块链系统中获取目标汇总聚合节点,其中,所述目标汇总聚合节点由所述区块链系统根据预设随机方式确定,所述目标汇总聚合节点的个数大于预设个数。
在本实施例中,可选的,所述目标汇总聚合节点包括第一汇总聚合节点;上述装置还包括:
存储模块,用于从区块链系统中获取本轮训练过程的最终模型参数值之前,根据所述第一汇总聚合节点的公钥对所述模型参数值进行加密,得到第一模型参数值,并将第一模型参数值存储至所述区块链系统中;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点在线时,通过所述第一汇总聚合节点获取所有第一模型参数值,通过所述第一汇总聚合节点的私钥对所有第一模型参数值进行解密,并对解密后得到的所有模型参数值进行汇总计算后得到。
在本实施例中,可选的,所述目标汇总聚合节点还包括第二汇总聚合节点;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点不在线时,通过所述第二汇总聚合节点向所述技术方发起数据转换请求,以供所述技术方通过代理重加密方式将所述第一模型参数值转换为第二模型参数值,并将所述第二模型参数值发送给所述第二汇总聚合节点,通过所述第二汇总聚合节点的私钥对所有第二模型参数值进行解密,对解密后得到的所有模型参数值进行汇总计算后得到,其中,所述第二模型参数值为根据所述第二汇总聚合节点的公钥对所述模型参数值进行加密后得到。
在本实施例中,可选的,上述装置还包括:
响应模块,用于根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新之后,等待开始下一轮模型训练的消息,并响应所述开始下一轮模型训练的消息,进行新一轮的训练过程;
结束模块,用于响应于所述技术方发布的所述联邦学习基础模型的训练过程结束的消息,并根据所述消息结束所述联邦学习基础模型的训练过程。
在本实施例中,可选的,所述消息由所述技术方确定新的最终模型参数值满足预设精度或者训练轮数达到预设阈值后发布。
在本实施例中,可选的,所述本地训练样本集通过以下方式得到:
根据本地数据的类型,调用所述技术方提供的数据规范样式和/或训练样本集生成工具,从所述本地数据中提取生成所述本地训练样本集所需的特征;
根据所述特征生成所述联邦学习基础模型对应的本地训练样本集。
通过本公开实施例提供的联邦学习装置,首先响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值,然后从区块链系统中获取本轮训练过程的最终模型参数值,最后根据最终模型参数值,对联邦学习基础模型的参数值进行更新,通过上述方法能够降低数据被恶意篡改和隐私泄露的风险,使不同参与方之间建立不基于信任的协作,提升联邦学习基础模型的准确度。
本公开实施例所提供的联邦学习装置可执行本公开任意实施例所提供的联邦学习方法,具备执行方法相应的功能模块和有益效果。
图5是本公开实施例提供的一种电子设备的结构示意图。如图5所示,该电子设备包括处理器510和存储装置520;电子设备中处理器510的数量可以是一个或多个,图5中以一个处理器510为例;电子设备中的处理器510和存储装置520可以通过总线或其他方式连接,图5中以通过总线连接为例。
存储装置520作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本公开实施例中的联邦学习方法对应的程序指令/模块。处理器510通过运行存储在存储装置520中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现本公开实施例所提供的联邦学习方法。
存储装置520可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置520可进一步包括相对于处理器510远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本实施例提供的一种电子设备可用于执行上述任意实施例提供的联邦学习方法,具备相应的功能和有益效果。
本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于实现本公开实施例所提供的联邦学习方法。
当然,本公开实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本公开任意实施例所提供的联邦学习方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本公开可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述的方法。
值得注意的是,上述联邦学习装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本公开的保护范围。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种联邦学习方法,其特征在于,所述方法包括:
响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值;
从区块链系统中获取本轮训练过程的最终模型参数值,其中,所述最终模型参数值由所述区块链系统通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值进行汇总计算后得到;
根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新。
2.根据权利要求1所述的方法,其特征在于,所述响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值之前,还包括:
从所述区块链系统中获取目标汇总聚合节点,其中,所述目标汇总聚合节点由所述区块链系统根据预设随机方式确定,所述目标汇总聚合节点的个数大于预设个数。
3.根据权利要求1所述的方法,其特征在于,所述目标汇总聚合节点包括第一汇总聚合节点;
所述从区块链系统中获取本轮训练过程的最终模型参数值之前,还包括:
根据所述第一汇总聚合节点的公钥对所述模型参数值进行加密,得到第一模型参数值,并将第一模型参数值存储至所述区块链系统中;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点在线时,通过所述第一汇总聚合节点获取所有第一模型参数值,通过所述第一汇总聚合节点的私钥对所有第一模型参数值进行解密,并对解密后得到的所有模型参数值进行汇总计算后得到。
4.根据权利要求3所述的方法,其特征在于,所述目标汇总聚合节点还包括第二汇总聚合节点;
相应的,所述最终模型参数值由所述区块链系统在所述第一汇总聚合节点不在线时,通过所述第二汇总聚合节点向所述技术方发起数据转换请求,以供所述技术方通过代理重加密方式将所述第一模型参数值转换为第二模型参数值,并将所述第二模型参数值发送给所述第二汇总聚合节点,通过所述第二汇总聚合节点的私钥对所有第二模型参数值进行解密,对解密后得到的所有模型参数值进行汇总计算后得到,其中,所述第二模型参数值为根据所述第二汇总聚合节点的公钥对所述模型参数值进行加密后得到。
5.根据权利要求1所述的方法,其特征在于,所述根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新之后,还包括:
等待开始下一轮模型训练的消息,并响应所述开始下一轮模型训练的消息,进行新一轮的训练过程;
响应于所述技术方发布的所述联邦学习基础模型的训练过程结束的消息,并根据所述消息结束所述联邦学习基础模型的训练过程。
6.根据权利要求5所述的方法,其特征在于,所述消息由所述技术方确定新的最终模型参数值满足预设精度或者训练轮数达到预设阈值后发布。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述本地训练样本集通过以下方式得到:
根据本地数据的类型,调用所述技术方提供的数据规范样式和/或训练样本集生成工具,从所述本地数据中提取生成所述本地训练样本集所需的特征;
根据所述特征生成所述联邦学习基础模型对应的本地训练样本集。
8.一种联邦学习装置,其特征在于,所述装置包括:
训练模块,用于响应于技术方发布的开始本轮模型训练的消息,基于本地训练样本集对联邦学习基础模型进行训练,得到本轮训练过程的模型参数值;
获取模块,用于从区块链系统中获取本轮训练过程的最终模型参数值,其中,所述最终模型参数值由所述区块链系统通过目标汇总聚合节点获取所有模型参数值,并对所有模型参数值进行汇总计算后得到;
更新模块,用于根据所述最终模型参数值,对所述联邦学习基础模型的参数值进行更新。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202111229404.4A 2021-10-21 2021-10-21 联邦学习方法、装置、电子设备和介质 Pending CN113988318A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111229404.4A CN113988318A (zh) 2021-10-21 2021-10-21 联邦学习方法、装置、电子设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111229404.4A CN113988318A (zh) 2021-10-21 2021-10-21 联邦学习方法、装置、电子设备和介质

Publications (1)

Publication Number Publication Date
CN113988318A true CN113988318A (zh) 2022-01-28

Family

ID=79740078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111229404.4A Pending CN113988318A (zh) 2021-10-21 2021-10-21 联邦学习方法、装置、电子设备和介质

Country Status (1)

Country Link
CN (1) CN113988318A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863169A (zh) * 2022-04-27 2022-08-05 电子科技大学 一种结合并行集成学习和联邦学习的图像分类方法
CN116126451A (zh) * 2023-04-10 2023-05-16 北京邮电大学 基于区块链网络的联邦学习工作流构建方法及相关设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863169A (zh) * 2022-04-27 2022-08-05 电子科技大学 一种结合并行集成学习和联邦学习的图像分类方法
CN116126451A (zh) * 2023-04-10 2023-05-16 北京邮电大学 基于区块链网络的联邦学习工作流构建方法及相关设备

Similar Documents

Publication Publication Date Title
CN109462587B (zh) 区块链分层共识方法、区块链网络系统及区块链节点
CN109766673B (zh) 一种联盟式音视频版权区块链系统及音视频版权上链方法
CN111209334B (zh) 基于区块链的电力终端数据安全管理方法
CN108681966B (zh) 一种基于区块链的信息监管方法及装置
Zhu et al. Privacy-preserving authentication and data aggregation for fog-based smart grid
CN111930851B (zh) 区块链网络的管控数据处理方法、装置、介质及电子设备
CN113098907B (zh) 一种区块链的群组划分方法与装置
CN109729168A (zh) 一种基于区块链的数据共享交换系统及方法
CN110825810B (zh) 一种基于区块链的群智感知双重隐私保护方法
CN107528688A (zh) 一种基于加密委托技术的区块链密钥保管及恢复方法、装置
CN113988318A (zh) 联邦学习方法、装置、电子设备和介质
CN109491996A (zh) 用于区块链网络的区块生成方法、区块数据访问方法、计算设备、存储介质
CN108989118B (zh) 一种基于go语言的企业级私有区块链部署工具
CN103023653A (zh) 低功耗的物联网安全组通信方法及装置
CN112152778B (zh) 一种节点管理方法、装置、及电子设备
CN112540926A (zh) 一种基于区块链的资源分配公平的联邦学习方法
CN113079215B (zh) 一种基于区块链的配电物联网无线安全接入方法
CN103699823A (zh) 基于用户行为模式的身份认证系统及其方法
CN112118239A (zh) 区块链共识方法及装置、电子设备、存储介质
CN113923655B (zh) 基于相邻节点的数据解密接收方法及装置
CN105871923A (zh) 信息处理方法、信息记录节点及参与节点
CN112333212A (zh) 电力物联网业务数据的加密管理方法及装置
CN115270145A (zh) 一种基于联盟链和联邦学习的用户窃电行为检测方法及系统
CN110502905B (zh) 一种隐私保护的分布式账本交易方法和系统
CN113111386A (zh) 一种区块链交易数据的隐私保护方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination