CN113935469B - 基于去中心化联邦学习的模型训练方法 - Google Patents
基于去中心化联邦学习的模型训练方法 Download PDFInfo
- Publication number
- CN113935469B CN113935469B CN202111245846.8A CN202111245846A CN113935469B CN 113935469 B CN113935469 B CN 113935469B CN 202111245846 A CN202111245846 A CN 202111245846A CN 113935469 B CN113935469 B CN 113935469B
- Authority
- CN
- China
- Prior art keywords
- node
- model data
- nodes
- noise
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提出了一种基于去中心化联邦学习的模型训练方法,包括:构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线;动态选择一节点作为主节点,相对主节点其余节点作为从节点,主节点将第一模型数据传输给每一从节点;每一从节点基于第一模型数据和本地数据集进行训练得到第二模型数据,并对第二模型数据添加噪声数据得到第三数据模型,传输第三模型数据给主节点;主节点接收第三模型数据并清洗,将清洗后得到的所有第二模型数据进行模型数据聚合。该方法构建去中心化的联邦学习网络,实现稳定保证该联邦学习网络中存在可与所有节点通信的主节点,并提供一种噪声保护机制以保护模型数据的隐私性。
Description
技术领域
本申请涉及计算机数据处理技术领域,特别是涉及一种基于去中心化联邦学习的模型训练方法。
背景技术
联邦学习本质上是一种分布式机器学习技术,或机器学习框架,目的是为了在保证数据隐私安全及合法合规的基础上,协同完成模型训练,实现共同建模,提升模型的检测效果。也就是说,在训练某一模型的时候需要用到包含用户大量的隐私数据,而为了避免用户的信息泄露,采用联邦学习的方法,将各个用户接收从中心服务器传来的原始模型,然后使用用户本地的数据集进行训练得到模型参数,最后各个用户只需要将模型参数上传到中央服务器,由中央服务器进行聚合和模型迭代。
但由于联邦学习的分布式性质、体系结构设计以及数据约束,在机器学习的过程中,可能会遭受各种意外,例如预处理管道中的错误,嘈杂的培训标签,不可靠的客户端以及针对培训和部署管道的显式攻击,不仅对中央服务器和通信信道的配置要求较高,而且还存在数据泄露的风险。
例如,中央服务器如果遭受到恶意攻击或者出现故障导致通讯中断,则整个联邦学习过程都将中断,整个联邦学习网络的稳定性差;或者有其他非联邦成员接入,传入一个无用的模型数据,最后导致中央服务器聚合处理后影响最终生成模型的品质,严重的可能导致完全偏离预定目标方向;再例如受网络通信波动或是数据抖动的影响,导致联邦成员在上传的模型出现部分信息丢失,中央服务器如果聚合处理时将损坏的模型当作正常的模型处理,则会影响最后生成的模型品质;或者外部恶意组织如果能够破解联邦成员与中央服务器之间的通信信道,就能够直接截取模型,最后导致实际上的模型泄漏。
另外,现有的专利文件号为:CN112333216B的“一种基于联邦学习的模型训练方法及系统”中还公开了一种用于联邦学习的噪声保护机制,其中每个节点设备将各自的梯度值进行加噪,获得加噪梯度值并发送至中央服务器,中央服务器计算加噪梯度值和;各个节点设备通过点对点方式计算噪声值和,并将所述噪声值和发送至中央服务器;中央服务器根据所述加噪梯度值和以及所述噪声值和,计算获得梯度值和,并基于所述梯度值和更新自身的神经网络模型。也就是说,该方案的噪声保护机制是在上传给主节点前,节点先将各自模型加上一个随机的单向噪声传输给主节点,然后节点再依次向下个节点单独传输噪声数据,最后由第一个开始传输数据的节点将总的噪声数据之和传给主节点,主节点再根据这些数据进行噪声去除。这样做有两个缺点,一是若节点之间的噪声传输只要出现一次问题,最终结果与理想结果就会有偏差(更不要说出现恶意攻击和干扰的情况);二是节点之间单独传输噪声需要一环接着一环,不能并发执行,节点一多就效率低下。特别的是,该方案中的噪声是随机的单向噪声,而实际中的模型是具有多方向性的,即模型像三维空间一样有x轴y轴z轴三个方向(实际上更多,远不止三个),这样添加的噪声就有局限性。
发明内容
本申请实施例提供了一种基于去中心化联邦学习的模型训练方法,该方法通过构建一种去中心化的联邦学习网络,实现了稳定保证该联邦学习网络中存在可以与所有节点通信的主节点,并在训练好模型后向模型数据添加各向同性噪声数据以保护该网络中模型数据的隐私性。
第一方面,本申请实施例提供了一种基于去中心化联邦学习的模型训练方法,包括以下步骤:
构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,所述主节点将第一模型数据传输给每一所述从节点;
每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三数据模型,传输所述第三模型数据给所述主节点;
所述主节点接收所述第三模型数据并清洗,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
在一些申请实施例中,“动态选择一所述节点作为主节点”包括:若发现所述主节点与任意一所述从节点的通信丢失,重新从所述节点中选择一所述节点替代原有的所述主节点作为新的主节点,相对所述主节点的其余所述节点作为从节点,其中所述主节点保持与每一所述从节点可通信。
具体的,在一些申请实施例中,在“动态选择一所述节点作为主节点”中,所述主节点是根据主节点选举规则确定的。其中,根据所述主节点选举规则选择一所述节点作为所述主节点包括:所述节点将申请成为主节点的第一消息请求发送给其他所述节点,根据所述主节点选举规则,选择可与其余所有节点通信的一所述节点作为所述主节点,相对所述主节点的其余所述节点作为从节点,所述主节点向所述从节点发送成为主节点和停止发送所述第一消息请求的第二消息请求,各个收到所述第二消息请求的所述从节点回复所述主节点收到所述第二消息请求的第三消息请求。
特别的是,在一些申请实施例中,所述节点包括至少一子节点,当所述节点包括多个所述子节点时,选择一所述子节点作为中央子节点,相对所述中央子节点的其余子节点作为地方子节点,其中所述中央子节点可与该节点内每一地方子节点通信,且至少所述中央子节点连接所述广播总线。
也就是说,该节点内部的通信可以采用传统的“中央与地方”的形式,在一些实施例中,固定选择一所述子节点作为中央子节点,其中所述中央子节点可与该节点内每一所述子节点进行通信。
相对的,该节点内部的通信也可以采用“广播总线与地方”的形式,也就是说,在另一些实施例中,当所述节点包括多个所述子节点时,该节点内的所有所述子节点连接所述广播总线,且所述子节点之间通过所述广播总线进行通信。
具体的,在一些申请实施例中,动态选择一所述子节点作为中央子节点,其中所述中央子节点保持与该节点内每一所述子节点可通信。其中,在“动态选择一所述子节点作为中央子节点”中,所述中央子节点是根据中央子节点选举规则选择一所述子节点得到的。
并且,在一些申请实施例中,陌生节点申请加入所述联邦学习网络时,若同意所述陌生节点加入,所述陌生节点向所述联邦学习网络中的所有所述节点发送申请加入的第四消息请求,所述节点收到所述第四消息请求后回复所述陌生节点所述第四消息请求已确认的第五消息请求,所述陌生节点收到所述第五消息请求后向对应所述节点发送已加入的第六消息请求,收到所述第六消息请求的所有所述节点将本地存储的所述联邦学习网络的信息进行更新。
在一些申请实施例中,当一所述从节点不能与所述联邦学习网络中任何一个节点进行通信时,则将该从节点从所述联邦学习网络剔除。
另外,在另一些申请实施例中,当一所述从节点不能与所述联邦学习网络中部分从节点进行通信时,更新该节点本地存储的所述联邦学习网络的信息。
尤其的,本申请还提供了一种噪声保护机制,在一些申请实施例中,所述噪声数据包括第一噪声和第二噪声;用所述第一噪声对所述第二模型数据中每个参数的梯度值分别进行加噪,并将所述第二噪声添加到所述第二模型中;其中根据每一所述参数的梯度值与所有所述参数的梯度值的标准差计算所述第一噪声和所述第二噪声。
对应该噪声保护机制设有相应的清洗机制,在一些申请实施例中,所述主节点对第三模型数据的清洗方法包括:根据预设处理所述噪声数据的规则对所述第三模型数据进行噪声清洗,得到所述第二模型数据、破损模型数据或不合规则的模型数据中任意一种;剔除经过所述噪声清洗得到的所有模型数据中的破损模型数据和所述不合规则的模型数据。
第二方面,本申请实施例提供了一种基于去中心化联邦学习的模型训练装置,用于实现第一方面所述的基于去中心化联邦学习的模型训练方法,该装置包括以下模块:
网络构建模块,用于构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
模型分发模块,用于动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,所述主节点将第一模型数据传输给每一所述从节点;
训练上传模块,用于每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三数据模型,传输所述第三模型数据给所述主节点;
清洗聚合模块,用于所述主节点接收所述第三模型数据并清洗,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
第三方面,本申请实施例提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以如上任意申请实施例所述的基于去中心化联邦学习的模型训练方法。
第四方面,本申请实施例提供了一种计算机程序产品,所述计算机程序产品包括:程序或指令,当所述程序或指令在计算机上运行时,使得所述计算机执行如上任意申请实施例所述的基于去中心化联邦学习的模型训练方法。
第五方面,本申请实施例提供了一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序包括用于控制过程以执行过程的程序代码,所述过程包括根据如上任意申请实施例所述的基于去中心化联邦学习的模型训练方法。
本申请实施例的主要贡献和创新点如下:
1.构建去中心化的联邦学习网络,实时监控主节点的状况,需要选择和更换主节点的时候,动态选举新主节点,实现了稳定保证该联邦学习网络中存在可以与所有从节点通信的主节点,提高了联邦学习网络的稳定性。
2.添加了噪声保护机制,每个从节点在将训练好的模型数据发送给主节点前,对模型数据添加噪声数据以破坏原有模型数据的结构,并保留原有模型数据的局部特征便于主节点对模型数据进行清洗,可以有效防止模型数据传输过程受外来恶意攻击或受数据抖动,影响导致最后主节点聚合得到的模型品质。
特别的是,本方案中的噪声数据包括第一噪声和第二噪声;用第一噪声对第二模型数据中每个参数的梯度值分别进行加噪,也就是说是根据每个参数的梯度值不同分别进行加噪,且加噪的方向与参数的方向向量相同。而第二噪声是所有参数的梯度值的标准差,且第二噪声的方向为各个参数的方向向量的和。也就是说,本实施例中对每个参数的梯度值添加的噪声的方向是对应每个参数的方向的。这样做的好处是,单向噪声对数据的保护性有限,容易被人恶意破解,导致数据成果泄露,各向同性噪声保护性更高,可以有效防止被外界他人截取数据成果。
通过以上方式,降低了中央服务器在联邦学习过程中的地位,整体优化了联邦学习网络的体系结构,形成了一种新型、可靠、高效的新型联邦学习网络,并提高了学习过程的稳定性和隐私性。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的基于去中心化联邦学习的模型训练方法的流程图;
图2是根据本申请实施例的基于去中心化联邦学习的部署结构示意图;
图3是根据本申请实施例的模型数据清洗示意图;
图4是根据本申请实施例的基于去中心化联邦学习的模型训练装置的结构框图;
图5是根据本申请实施例的电子装置的硬件结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书一个或多个实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书一个或多个实施例的一些方面相一致的装置和方法的例子。
需要说明的是:在其他实施例中并不一定按照本说明书示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本说明书所描述的更多或更少。此外,本说明书中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本说明书中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
实施例一
本实施例提供了一种基于去中心化联邦学习的模型训练方法具体参考图1,如图1所示,该方法包括步骤S1-S4:
步骤S1:构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
步骤S2:动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,所述主节点将第一模型数据传输给每一所述从节点;
步骤S3:每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三数据模型,传输所述第三模型数据给所述主节点;
步骤S4:所述主节点接收所述第三模型数据并清洗,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
将联邦学习网络优化成一种去中心化的结构,取消原有的中心服务器,以广播总线替代,将每个可以进行机器学习的设备都当作一个节点,每个节点都与广播总线相连,节点之间能通过广播总线进行相互通信。
从中动态地选择一个节点作为主节点,相对于该主节点的其余节点作为从节点,使该联邦学习网络中的主节点能够与每一从节点保持通信,也就是说,当目前的主节点不符合条件后,重新选择一个新的主节点替代原有的主节点进行工作。主节点的工作需要负责向其他从节点分发第一模型数据,以及接收从节点训练好的第二模型数据进行聚合处理,然后对原有模型进行迭代处理,进入下一轮学习过程;另外,在一些实施例中,主节点还需要根据自己本地的训练数据训练第一模型数据。而从节点的工作就是根据主节点发来的模型数据和本地数据集进行训练,并将训练后的模型数据传回给主节点。
也就是说,先要构建一个去中心化的联邦学习网络,再从中选择一节点作为主节点,相对于该主节点的其余节点作为从节点。
特别的是,本实施例中的主节点是可自动选举和更换的,如果当前的广播总线上还没有设置主节点,或者当前的主节点与任意一从节点失去通信,就自动重新选取一个可以与该联邦学习网络中所有节点通信的节点,替代原有的主节点成为新的主节点。
也就是说,在一些实施例中,“动态选择一所述节点作为主节点”包括:若发现所述主节点与任意一所述从节点的通信丢失,重新从所述节点中选择一所述节点替代原有的所述主节点作为新的主节点,相对所述主节点的其余所述节点作为从节点,其中所述主节点保持与每一所述从节点可通信。其中,所述主节点是根据主节点选举规则确定的。具体的主节点选举规则是根据需要预先设定好的,可以根据实际情况设定和更改。
因此,本实施例当只要出现了当前的主节点与任意一个节点失去通信的情况,就要及时地按照上述方法确定新主节点,这样做的好处是:可以提高该联邦学习过程的稳定性,保证学习过程中不会因主节点的缺失或某一节点的故障而导致整个学习意外停止。
在一些实施例中,确立主节点的整个过程具体包括:所述节点将申请成为主节点的第一消息请求发送给其他所述节点,根据所述主节点选举规则,选择可与其余所有节点通信的一所述节点作为所述主节点,相对所述主节点的其余所述节点作为从节点,所述主节点向所述从节点发送成为主节点和停止发送所述第一消息请求的第二消息请求,各个收到所述第二消息请求的所述从节点回复所述主节点收到所述第二消息请求的第三消息请求。在另一些实施例中,还可以采用PBFT共识算法确立主节点。
另外,发现有陌生节点申请加入该联邦学习网络时,可以根据具体情况选择让其加入该联邦学习网络或拒绝其加入联邦学习网络。
具体的,在一些实施例中,陌生节点申请加入所述联邦学习网络时,若同意所述陌生节点加入,所述陌生节点向所述联邦学习网络中的所有所述节点发送申请加入的第四消息请求,所述节点收到所述第四消息请求后回复所述陌生节点所述第四消息请求已确认的第五消息请求,所述陌生节点收到所述第五消息请求后向对应所述节点发送已加入的第六消息请求,收到所述第六消息请求的所有所述节点将本地存储的所述联邦学习网络的信息进行更新。
并且,每个从节点都会定时记录并更新自身能通信的所有节点的网络结构,并将这个网络结构发送给其他所有从节点,这样每个从节点都可以了解整体网络结构。如果有某一从节点发生通信障碍,导致其不能与任何一个其他从节点进行通信,则将该成员从该联邦学习网络中剔除,具体的剔除流程与陌生节点加入时类似,例如从节点A发生通信障碍需要从该联邦学习网络中剔除,曾经能与从节点A通信的其他节点会发现问题,也就是曾经可与节点A通信的其他从节点和主节点,由最先发现问题的节点B广播一个剔除从节点A的请求,其他节点收到该剔除请求后回复一个确认收到的消息,节点B收到所有确认消息后再广播一个剔除完成消息请求,所有收到剔除完成消息请求的其他节点更新自己所知的联邦网络学习结构,实现将从节点A剔除的目的。
直到该节点恢复通信后重新作为陌生联邦申请加入,但如果某一从节点仅仅是与部分其他从节点失去通信,只更新该从节点自己本地存储的联邦学习网络即可,并且还可以根据实际情况设置一个可以督促恢复通信的恢复机制,这样可以保持网络结构的自动恢复能力,因为有时候该网络中的各个节点有可能受到网络环境波动的影响,导致通信不稳定,部分通信会间歇性的中断,如果没有恢复机制就会导致最后该网络慢慢崩解。
示例性的,如图2所示:每个地方联邦作为一个节点连接于广播总线构成一个联邦学习网络,然后从所有节点中选出一个作为主节点,相对于该主节点的其余节点都作为从节点。
并且,图2中每个地方联邦中还可以包括多个联邦成员,联邦成员也是一种可以进行机器学习的设备。也就是说,节点内可以包括多个子节点,因此在一些实施例中,所述节点包括至少一子节点,当所述节点包括多个所述子节点时,选择一所述子节点作为中央子节点,相对所述中央子节点的其余子节点作为地方子节点,其中所述中央子节点可与该节点内每一地方子节点通信,且至少所述中央子节点连接所述广播总线。
同理的,中央子节点代表该节点与该联邦学习网络中的其他节点进行通信,也就是说,中央子节点代表的节点可以是从节点,也可以是主节点。
具体的,如果该中央子节点代表的节点为主节点,那么该中央子节点的工作不仅需要对节点内部的其余地方子节点分发第一模型数据,还需要对该网络中的其余从节点分发第一模型数据,同理的,该中央子节点也负责聚合节点内部收集的模型数据,以及该网络中其余从节点上传的模型数据,在另一些实施例中,中央子节点还需要根据自己本地的训练数据训练第一模型数据;如果其余从节点也包括多个子节点,那么作为主节点的该中央子节点就是第一中央子节点,从节点中的中央子节点作为第二中央子节点,由第一中央子节点向第二中央子节点发送第一模型数据,再由第二中央子节点向该从节点内部的其余地方子节点发送数据。如果该中央子节点代表的节点为从节点,就负责把从主节点接收到的第一数据模型分发给该从节点内部的其他地方子节点,并且负责聚合节点内部收集的模型数据上传给主节点。
其中,节点内部的通信可以按照传统的方式固定选择一个子节点作为中央子节点,相对于该中央子节点的其余子节点作为地方子节点。因此在一些实施例中,固定选择一所述子节点作为中央子节点,其中所述中央子节点可与该节点内每一所述子节点进行通信。
另外,节点内部的通信还可以采用“广播总线与地方”的形式,也就是通过选举的方式动态选择一个子节点作为中央子节点。因此在一些实施例中,当所述节点包括多个所述子节点时,该节点内的所有所述子节点连接所述广播总线,且所述子节点之间通过所述广播总线进行通信。具体的,动态选择一所述子节点作为中央子节点,其中所述中央子节点保持与该节点内每一所述子节点可通信。其中,在“动态选择一所述子节点作为中央子节点”中,所述中央子节点是根据中央子节点选举规则选择一所述子节点得到的。然后该中央子节点可代表该节点直接与主节点或从节点进行通信。当节点包括多个地方子节点时,节点内部的通信结构也采用去中心化的形式的好处是:采用同一架构范式多层嵌套,一是可以保证架构的一致性,二是当如果有需求即要全部聚合的模型也要其中部分聚合的模型,嵌套的方式就能方便输出,并且可以进一步提高该联邦学习过程的稳定性,并且提高了聚合和迭代得到模型检测的准确性和可靠性。
也就是说,节点内部的通信可以根据需要灵活选择。
其中,和主节点选举规则一样,该中央子节点选举规则也可以预先设定的。并且确立中央子节点的过程和确立主节点的过程相似。
特别重要的是,本实施例为了保证模型数据在传输过程中的隐私性以及模型数据经过传输后的可靠性,在该过程中添加了噪声保护相关机制,噪声处理的作用是将原来具有结构的模型数据结构进行破坏,但是保留原有模型数据的局部特征,用于后续的模型数据还原。
具体为在从节点训使用本地数据集对第一模型数据进行训练后,得到第二模型数据,在将该第二模型数据传输给主节点前加入噪声数据成为第三模型数据,以及在主节点接收到第三模型数据后,对第三模型数据进行清洗,并从清洗得到的模型数据中筛选出第二模型数据。其中,噪声数据可以选用同性高斯噪声。
在一些实施例中,所述噪声数据包括第一噪声和第二噪声;用所述第一噪声对所述第二模型数据中每个参数的梯度值分别进行加噪,并将所述第二噪声添加到所述第二模型中;其中根据每一所述参数的梯度值与所有所述参数的梯度值的标准差计算所述第一噪声和所述第二噪声。具体的,所述第一噪声的向量长度为以所有所述参数的梯度值的标准差的两倍与该参数的梯度值的差的绝对值,且所述第一噪声的方向与该参数的方向相同,所述第二噪声为所有所述参数的梯度值的标准差,且所述第二噪声的方向为各个所述参数的方向向量的和。也就是说,本实施例中对每个参数的梯度值添加的噪声的方向是对应每个参数的方向的。
相应的,在一些实施例中,所述主节点对第三模型数据的清洗方法包括:根据预设处理所述噪声数据的规则对所述第三模型数据进行噪声清洗,得到所述第二模型数据、破损模型数据或不合规则的模型数据中任意一种;剔除经过所述噪声清洗得到的所有模型数据中的破损模型数据和所述不合规则的模型数据。
具体的,首先,每个节点将第二模型中各个参数的梯度值Gi进行各向加噪,加噪选取的第一噪声ei为服从以该参数xi方向为方向向量,以所有参数的梯度值{Gi,i=1~n}的标准差σ的2倍与对应的参数的梯度值Gi的差的绝对值作为向量长度。得到最终的第一噪声Gi’=Gi+ei,ei~2|Gi-σ|,i=1~n。
然后,将所有参数的梯度值{Gi,i=1~n}的标准差σ作为一个第二噪声σ’添加到第二模型中,方向为各个参数xi的方向向量之和,得到σ’=σ·(x1/|x1|+x2/|x2|+...+xn/|xn|)/|(x1/|x1|+x2/|x2|+...+xn/|xn|)|。
最后,主节点得到第三模型,根据所有参数的梯度值的标准差和第二噪声的绝对值的计算判断第二模型是否合规,通过第二噪声、所有参数的梯度值以及所有参数的梯度值的标准差σ来进行对第三模型的噪声清洗。然后从清洗得到的所有模型数据中筛选出第二模型数据进行聚合,以及迭代第一模型数据,进入下一轮学习。
具体的噪声清洗过程如下:首先计算得到第三模型的特征值a,特征值a是能够代表该第三模型的一部分数据,并计算第二噪声的特征值b,同样的特征值b也是可以代表第二噪声的一部分数据;然后利用a、b和σ’计算第三模型和第二噪声的特征值之间的相关性c,如果相关性c为负值则表示模型破损,如果相关性c低于临界值k则表示模型不合规或者噪声不规范,只有当相关性c大于k时才表示经过噪声清洗能得到第二模型数据,也就是说只需要对相关性c大于k的第三模型中的每个梯度值Gi’,用|b*σ’/a|*σ(这个绝对值符号是指方向消除取模长,不是普通的绝对值)的方式来将Gi’恢复成Gi,最后根据恢复出来的Gi对第三模型进行类似添加噪声的额反向操作,最终得到第二模型数据。
该清洗方式主要对四种类型的模型数据进行有效清洗:一种是噪声处理后的第三模型数据,这种正常处理过的模型数据,经过对应的完整噪声清洗操作后,第三模型数据能够完整的还原成原有的第二模型数据;一种是未经过噪声处理的第二模型数据,这种处于原始形态的第二模型数据,经过完整噪声清洗操作后,模型数据结构和局部特征都会被破坏,形成不可再读的破损模型数据;一种是其他非正常处理的模型数据,这种非正常处理(即未用同一噪声标准)过的模型数据,经过完整噪声清洗操作后,模型数据可能形成不合规则的模型数据或者直接破损;还有一种是数据污染的模型数据,这种属于外部的攻击型的模型数据或者内部的破损型的模型数据,经过完整噪声清洗操作后,模型数据结构和局部特征都会被破坏,形成不可再读的破损模型数据。
也就是说,噪声保护相关机制能够防止模型数据传输过程受外来恶意攻击或者受数据抖动的影响导致最后聚合的模型数据的品质,保持了联邦学习过程的稳定性;而若模型数据在模型数据传输过程中发生模型数据泄露问题,则由于经过噪声保护相关机制,模型数据已丢失原有的结构,不借由特殊的噪声清洗,是无法得到有价值的模型数据,保持了联邦学习过程的隐私性。
实施例二
本实施例提供了一种基于去中心化联邦学习的模型训练装置,用于实现实施例一中的基于去中心化联邦学习的模型训练方法,如图4所示,该装置包括以下模块:
网络构建模块,用于构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
模型分发模块,用于动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,所述主节点将第一模型数据传输给每一所述从节点;
训练上传模块,用于每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三数据模型,传输所述第三模型数据给所述主节点;
清洗聚合模块,用于所述主节点接收所述第三模型数据并清洗,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
实施例三
本实施例还提供了一种电子装置,参考图5,包括存储器404和处理器402,该存储器404中存储有计算机程序,该处理器402被设置为运行计算机程序以执行上述实施例一中的任意一种基于去中心化联邦学习的模型训练方法的步骤。
具体地,上述处理器402可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器404可以包括用于数据或指令的大容量存储器404。举例来说而非限制,存储器404可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(Solid State Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(UniversalSerial Bus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器404可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器404可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器404可在数据处理装置的内部或外部。在特定实施例中,存储器404是非易失性(Non-Volatile)存储器。在特定实施例中,存储器404包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(Random AccessMemory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器404(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器404可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器402所执行的可能的计算机程序指令。
处理器402通过读取并执行存储器404中存储的计算机程序指令,以实现上述实施例一中的任意一种基于去中心化联邦学习的模型训练方法。
可选地,上述电子装置还可以包括传输设备406以及输入输出设备408,其中,该传输设备406和上述处理器402连接,该输入输出设备408和上述处理器402连接。
传输设备406可以用来经由一个网络接收或者发送数据。上述的网络具体实例可包括电子装置的通信供应商提供的有线或无线网络。在一个实例中,传输设备包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备406可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
输入输出设备408用于输入或输出信息。在本实施例中,输入的信息可以是当前数据表例如疫情流调文档、特征数据、模板表等,输出的信息可以是特征指纹、指纹模板、文本分类推荐信息、文件模板配置映射表、文件模板配置信息表等。
可选地,在本实施例中,上述处理器402可以被设置为通过计算机程序执行以下步骤:
构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,所述主节点将第一模型数据传输给每一所述从节点;
每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三数据模型,传输所述第三模型数据给所述主节点;
所述主节点接收所述第三模型数据并清洗,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
需要说明的是,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
另外,结合上述实施例一中的任意一种基于去中心化联邦学习的模型训练方法的方法,本申请实施例可一种计算机程序产品来实现。该计算机程序产品包括:程序或指令,当所述程序或指令在计算机上运行时,使得所述计算机执行实现上述实施例一中的任意一种基于去中心化联邦学习的模型训练方法。
并且,结合上述实施例一中的任意一种基于去中心化联邦学习的模型训练方法,本申请实施例可提供一种可读存储介质来实现。该可读存储介质上存储有计算机程序;该计算机程序被处理器执行时实现上述实施例一中的任意一种基于去中心化联邦学习的模型训练方法。
通常,各种实施例可以以硬件或专用电路、软件、逻辑或其任何组合来实现。本发明的一些方面可以以硬件来实现,而其他方面可以以可以由控制器、微处理器或其他计算设备执行的固件或软件来实现,但是本发明不限于此。尽管本发明的各个方面可以被示出和描述为框图、流程图或使用一些其他图形表示,但是应当理解,作为非限制性示例,本文中描述的这些框、装置、系统、技术或方法可以以硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备或其某种组合来实现。
本发明的实施例可以由计算机软件来实现,该计算机软件由移动设备的数据处理器诸如在处理器实体中可执行,或者由硬件来实现,或者由软件和硬件的组合来实现。包括软件例程、小程序和/或宏的计算机软件或程序(也称为程序产品)可以存储在任何装置可读数据存储介质中,并且它们包括用于执行特定任务的程序指令。计算机程序产品可以包括当程序运行时被配置为执行实施例的一个或多个计算机可执行组件。一个或多个计算机可执行组件可以是至少一个软件代码或其一部分。另外,在这一点上,应当注意,如图中的逻辑流程的任何框可以表示程序步骤、或者互连的逻辑电路、框和功能、或者程序步骤和逻辑电路、框和功能的组合。软件可以存储在诸如存储器芯片或在处理器内实现的存储块等物理介质、诸如硬盘或软盘等磁性介质、以及诸如例如DVD及其数据变体、CD等光学介质上。物理介质是非瞬态介质。
本领域的技术人员应该明白,以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (14)
1.基于去中心化联邦学习的模型训练方法,其特征在于,包括以下步骤:
构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,若发现所述主节点与任意一所述从节点的通信丢失,重新从所述节点中选择一所述节点替代原有的所述主节点作为新的主节点,所述主节点将第一模型数据传输给每一所述从节点,其中所述主节点保持与每一所述从节点可通信;
每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三模型数据,传输所述第三模型数据给所述主节点,其中所述噪声数据包括第一噪声和第二噪声;用所述第一噪声对所述第二模型数据中每个参数的梯度值分别进行加噪,并将所述第二噪声添加到所述第二模型中;其中根据每一所述参数的梯度值与所有所述参数的梯度值的标准差计算所述第一噪声和所述第二噪声;
所述主节点接收所述第三模型数据并清洗,根据预设处理所述噪声数据的规则对所述第三模型数据进行噪声清洗,得到所述第二模型数据、破损模型数据或不合规则的模型数据中任意一种;剔除经过所述噪声清洗得到的所有模型数据中的破损模型数据和所述不合规则的模型数据,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
2.根据权利要求1所述的基于去中心化联邦学习的模型训练方法,其特征在于,在“动态选择一所述节点作为主节点”中,所述主节点是根据主节点选举规则确定的。
3.根据权利要求2所述的基于去中心化联邦学习的模型训练方法,其特征在于,确立所述主节点的过程包括:所述节点将申请成为主节点的第一消息请求发送给其他所述节点,根据所述主节点选举规则,选择可与其余所有节点通信的一所述节点作为所述主节点,相对所述主节点的其余所述节点作为从节点,所述主节点向所述从节点发送成为主节点和停止发送所述第一消息请求的第二消息请求,各个收到所述第二消息请求的所述从节点回复所述主节点收到所述第二消息请求的第三消息请求。
4.根据权利要求1所述的基于去中心化联邦学习的模型训练方法,其特征在于,所述节点包括至少一子节点,当所述节点包括多个所述子节点时,选择一所述子节点作为中央子节点,相对所述中央子节点的其余子节点作为地方子节点,其中所述中央子节点可与该节点内每一地方子节点通信,且至少所述中央子节点连接所述广播总线。
5.根据权利要求4所述的基于去中心化联邦学习的模型训练方法,其特征在于,当所述节点包括多个所述子节点时,该节点内的所有所述子节点连接所述广播总线,且所述子节点之间通过所述广播总线进行通信。
6.根据权利要求5所述的基于去中心化联邦学习的模型训练方法,其特征在于,动态选择一所述子节点作为中央子节点,其中所述中央子节点保持与该节点内每一所述子节点可通信。
7.根据权利要求6所述的基于去中心化联邦学习的模型训练方法,其特征在于,在“动态选择一所述子节点作为中央子节点”中,所述中央子节点是根据中央子节点选举规则选择一所述子节点得到的。
8.根据权利要求4所述的基于去中心化联邦学习的模型训练方法,其特征在于,固定选择一所述子节点作为中央子节点,其中所述中央子节点可与该节点内每一所述子节点进行通信。
9.根据权利要求1所述的基于去中心化联邦学习的模型训练方法,其特征在于,陌生节点申请加入所述联邦学习网络时,若同意所述陌生节点加入,所述陌生节点向所述联邦学习网络中的所有所述节点发送申请加入的第四消息请求,所述节点收到所述第四消息请求后回复所述陌生节点所述第四消息请求已确认的第五消息请求,所述陌生节点收到所述第五消息请求后向对应所述节点发送已加入的第六消息请求,收到所述第六消息请求的所有所述节点将本地存储的所述联邦学习网络的信息进行更新。
10.根据权利要求1所述的基于去中心化联邦学习的模型训练方法,其特征在于,当一所述从节点不能与所述联邦学习网络中任何一个节点进行通信时,则将该从节点从所述联邦学习网络剔除。
11.根据权利要求1所述的基于去中心化联邦学习的模型训练方法,其特征在于,当一所述从节点不能与所述联邦学习网络中部分从节点进行通信时,更新该节点本地存储的所述联邦学习网络的信息。
12.基于去中心化联邦学习的模型训练装置,其特征在于,包括以下模块:
网络构建模块,用于构建联邦学习网络,所述联邦学习网络包括多个节点和广播总线,其中所述节点均连接所述广播总线,且所述节点之间通过所述广播总线进行通信;
模型分发模块,用于动态选择一所述节点作为主节点,相对所述主节点其余所述节点作为从节点,若发现所述主节点与任意一所述从节点的通信丢失,重新从所述节点中选择一所述节点替代原有的所述主节点作为新的主节点,所述主节点将第一模型数据传输给每一所述从节点,其中所述主节点保持与每一所述从节点可通信;
训练上传模块,用于每一所述从节点基于所述第一模型数据和本地数据集进行训练得到第二模型数据,并对所述第二模型数据添加噪声数据得到第三模型数据,传输所述第三模型数据给所述主节点,其中所述噪声数据包括第一噪声和第二噪声;用所述第一噪声对所述第二模型数据中每个参数的梯度值分别进行加噪,并将所述第二噪声添加到所述第二模型中;其中根据每一所述参数的梯度值与所有所述参数的梯度值的标准差计算所述第一噪声和所述第二噪声;
清洗聚合模块,用于所述主节点接收所述第三模型数据并清洗,根据预设处理所述噪声数据的规则对所述第三模型数据进行噪声清洗,得到所述第二模型数据、破损模型数据或不合规则的模型数据中任意一种;剔除经过所述噪声清洗得到的所有模型数据中的破损模型数据和所述不合规则的模型数据,将清洗后得到的所有所述第二模型数据进行模型数据聚合。
13.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至11任一所述的基于去中心化联邦学习的模型训练方法。
14.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序,所述计算机程序包括用于控制过程以执行过程的程序代码,所述过程包括根据权利要求1至11任一项所述的基于去中心化联邦学习的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111245846.8A CN113935469B (zh) | 2021-10-26 | 2021-10-26 | 基于去中心化联邦学习的模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111245846.8A CN113935469B (zh) | 2021-10-26 | 2021-10-26 | 基于去中心化联邦学习的模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113935469A CN113935469A (zh) | 2022-01-14 |
CN113935469B true CN113935469B (zh) | 2022-06-24 |
Family
ID=79284110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111245846.8A Active CN113935469B (zh) | 2021-10-26 | 2021-10-26 | 基于去中心化联邦学习的模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113935469B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114121206B (zh) * | 2022-01-26 | 2022-05-20 | 中电云数智科技有限公司 | 一种基于多方联合k均值建模的病例画像方法及装置 |
CN114519306B (zh) * | 2022-02-21 | 2023-03-28 | 山西大学 | 一种去中心化的终端节点网络模型训练方法及系统 |
CN114925744B (zh) * | 2022-04-14 | 2024-07-02 | 支付宝(杭州)信息技术有限公司 | 联合训练的方法及装置 |
WO2024026846A1 (zh) * | 2022-08-05 | 2024-02-08 | 华为技术有限公司 | 一种人工智能模型处理方法及相关设备 |
CN116016212B (zh) * | 2022-12-26 | 2024-06-04 | 电子科技大学 | 一种带宽感知的去中心化联邦学习方法及装置 |
CN116187473B (zh) * | 2023-01-19 | 2024-02-06 | 北京百度网讯科技有限公司 | 联邦学习方法、装置、电子设备和计算机可读存储介质 |
CN116109608A (zh) * | 2023-02-23 | 2023-05-12 | 智慧眼科技股份有限公司 | 一种肿瘤分割方法、装置、设备及存储介质 |
CN116186784B (zh) * | 2023-04-27 | 2023-07-21 | 浙江大学 | 基于联邦学习隐私保护的心电图心率失常分类方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014028659A2 (en) * | 2012-08-17 | 2014-02-20 | Illinois Tool Works Inc. | Wireless communication network association and security for control of industrial equipment in harsh environments |
CN110428056A (zh) * | 2018-04-30 | 2019-11-08 | 慧与发展有限责任合伙企业 | 使用区块链的分散式机器学习的系统和方法 |
CN110636458A (zh) * | 2019-10-11 | 2019-12-31 | 长春理工大学 | 一种无线自组织网络协作时间同步优化方法 |
CN113204787A (zh) * | 2021-05-06 | 2021-08-03 | 广州大学 | 基于区块链的联邦学习隐私保护方法、系统、设备和介质 |
WO2021179196A1 (zh) * | 2020-03-11 | 2021-09-16 | Oppo广东移动通信有限公司 | 一种基于联邦学习的模型训练方法、电子设备及存储介质 |
CN113469373A (zh) * | 2021-08-17 | 2021-10-01 | 北京神州新桥科技有限公司 | 基于联邦学习的模型训练方法、系统、设备及存储介质 |
CN113515760A (zh) * | 2021-05-28 | 2021-10-19 | 平安国际智慧城市科技股份有限公司 | 横向联邦学习方法、装置、计算机设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9219562B2 (en) * | 2014-05-08 | 2015-12-22 | Nokia Solutions And Networks Oy | System and method to dynamically redistribute timing and synchronization in a packet switched network |
US11481640B2 (en) * | 2017-09-29 | 2022-10-25 | Oracle International Corporation | Directed trajectories through communication decision tree using iterative artificial intelligence |
WO2021073726A1 (en) * | 2019-10-15 | 2021-04-22 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for dynamic leader selection for distributed machine learning |
US11501165B2 (en) * | 2020-03-04 | 2022-11-15 | International Business Machines Corporation | Contrastive neural network training in an active learning environment |
CN112333216B (zh) * | 2021-01-07 | 2021-04-06 | 深圳索信达数据技术有限公司 | 一种基于联邦学习的模型训练方法及系统 |
CN112801307B (zh) * | 2021-04-13 | 2021-07-06 | 深圳索信达数据技术有限公司 | 基于区块链的联邦学习方法、装置和计算机设备 |
-
2021
- 2021-10-26 CN CN202111245846.8A patent/CN113935469B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014028659A2 (en) * | 2012-08-17 | 2014-02-20 | Illinois Tool Works Inc. | Wireless communication network association and security for control of industrial equipment in harsh environments |
CN110428056A (zh) * | 2018-04-30 | 2019-11-08 | 慧与发展有限责任合伙企业 | 使用区块链的分散式机器学习的系统和方法 |
CN110636458A (zh) * | 2019-10-11 | 2019-12-31 | 长春理工大学 | 一种无线自组织网络协作时间同步优化方法 |
WO2021179196A1 (zh) * | 2020-03-11 | 2021-09-16 | Oppo广东移动通信有限公司 | 一种基于联邦学习的模型训练方法、电子设备及存储介质 |
CN113204787A (zh) * | 2021-05-06 | 2021-08-03 | 广州大学 | 基于区块链的联邦学习隐私保护方法、系统、设备和介质 |
CN113515760A (zh) * | 2021-05-28 | 2021-10-19 | 平安国际智慧城市科技股份有限公司 | 横向联邦学习方法、装置、计算机设备和存储介质 |
CN113469373A (zh) * | 2021-08-17 | 2021-10-01 | 北京神州新桥科技有限公司 | 基于联邦学习的模型训练方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113935469A (zh) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113935469B (zh) | 基于去中心化联邦学习的模型训练方法 | |
TWI763767B (zh) | 用於更新網路的關於網路拓樸的知識之電腦實施系統及方法 | |
CN108769264B (zh) | 一种区块链分域方法 | |
CN103944974A (zh) | 一种协议报文处理方法、控制器故障处理方法及相关设备 | |
CN108880972B (zh) | 一种信息处理方法、服务器及终端 | |
US12113854B2 (en) | Computer-implemented system and method for updating a network's knowledge of the network's topology | |
CN107852369B (zh) | 用于获取电力线通信路线的方法 | |
US20160006814A1 (en) | Method for propagating network management data for energy-efficient iot network management and energy-efficient iot node apparatus | |
Winkler et al. | An overview of recent results for consensus in directed dynamic networks | |
CN106203164B (zh) | 基于可信计算和云计算的信息安全大数据资源管理系统 | |
Alim et al. | Structural vulnerability assessment of community-based routing in opportunistic networks | |
TW201946419A (zh) | 監視裝置、網路系統、拓樸管理方法及監視程式產品 | |
Das Sarma et al. | Dense subgraphs on dynamic networks | |
KR20120030938A (ko) | 분산된 데이터 저장 시스템에서 데이터 복제의 방법 및 이에 대응하는 디바이스 | |
CN110708177B (zh) | 分布式系统中的异常处理方法、系统和装置 | |
CN110888892B (zh) | 一种区块同步方法、装置及存储介质 | |
CN104079663A (zh) | 分布式实时同步网络系统及其通告数据的方法 | |
CN110311828B (zh) | 一种网络验证的方法、装置、计算机存储介质及电子设备 | |
Bounceur et al. | A revised brogo algorithm for leader election in wireless sensor and iot networks | |
CN113010337B (zh) | 故障检测方法、总控节点、工作节点及分布式系统 | |
CN107493308B (zh) | 一种发送消息的方法和装置及分布式设备集群系统 | |
CN106293996A (zh) | 数据同步方法、主设备、备份设备和系统 | |
CN106712995A (zh) | 一种多跳邻居节点的获取方法和装置 | |
Suhail et al. | Detection of selective forwarding attack in RPL-based internet of things through provenance | |
CN115412397B (zh) | 一种集群通信的方法、装置、设备及可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |