CN114519306B - 一种去中心化的终端节点网络模型训练方法及系统 - Google Patents

一种去中心化的终端节点网络模型训练方法及系统 Download PDF

Info

Publication number
CN114519306B
CN114519306B CN202210154923.7A CN202210154923A CN114519306B CN 114519306 B CN114519306 B CN 114519306B CN 202210154923 A CN202210154923 A CN 202210154923A CN 114519306 B CN114519306 B CN 114519306B
Authority
CN
China
Prior art keywords
terminal node
terminal
network model
nodes
sharing layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210154923.7A
Other languages
English (en)
Other versions
CN114519306A (zh
Inventor
郁磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi University
Original Assignee
Shanxi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanxi University filed Critical Shanxi University
Priority to CN202210154923.7A priority Critical patent/CN114519306B/zh
Publication of CN114519306A publication Critical patent/CN114519306A/zh
Application granted granted Critical
Publication of CN114519306B publication Critical patent/CN114519306B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/02Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提出了一种去中心化的终端节点网络模型训练方法及系统,涉及数据隐私技术领域,各终端节点根据自身本地数据集对各自的本地网络模型进行训练;任一终端节点与其余终端节点进行通信,以获取其余终端节点的共享层参数;根据所述其余终端节点的共享层参数,所述任一终端节点更新自身的共享层参数,并广播自身更新后的共享层参数。本发明通过去中心化改进了传统联邦学习算法的拓扑结构,去除了传统联邦学习中的中心服务器,提高了整个系统的稳定性;进一步相较于传统的联邦学习,本发明提出的方法仅需传输各终端节点本地网络模型的共享层的参数,通信参数量得到了减少,可以有效提高整个系统的通信效率。

Description

一种去中心化的终端节点网络模型训练方法及系统
技术领域
本发明涉及数据隐私技术领域,特别是涉及一种去中心化的终端节点网络模型训练方法及系统。
背景技术
2016年Google公司的McMahan等人提出了联邦学习(Federated Learning,FL)算法,各个终端节点在各自的终端训练自身的模型,终端与中心服务器之间交互的是模型训练迭代过程中的梯度或者权重参数信息,无须将自身的原始数据发送给中心服务器,从而能够保证对数据隐私的保护。然而,现有的联邦学习算法绝大多数基于C-S框架,即包含一个中心服务器和多个终端节点的星形结构,若中心服务器遭受攻击或网络故障等问题,将会导致整个系统瘫痪。
发明内容
本发明的目的是提供一种去中心化的终端节点网络模型训练方法及系统,解决传统的联邦学习训练过程中,中心服务器遭受攻击或网络故障,将会导致整个系统瘫痪的问题,同时在保护终端节点原始数据隐私安全的前提下,还能够提高整个分布式机器学习系统的通信效率。
为实现上述目的,本发明提供了一种去中心化的终端节点网络模型训练方法,包括以下步骤:
各终端节点根据自身本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;
任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;
所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数。
可选地,所述各终端节点之间的网络拓扑结构为复杂网络结构。
可选地,所述各终端节点根据自身本地数据集对各自的本地网络模型进行训练,具体包括:
各终端节点根据自身本地数据集对各自的本地网络模型的共享层参数进行训练,所述各终端节点本地网络模型的隐私层参数相同。
可选地,所述任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数,所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数,具体包括:
任一终端节点向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数;
将所述任一终端节点本地网络模型的共享层参数广播给各随机终端节点,并跳转至所述任一终端节点向其他终端节点发起通信请求的步骤,直至满足迭代停机条件时,停止跳转;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点。
可选地,所述根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数,具体包括:
根据获取的若干个终端节点的共享层参数,采用平均法或加权平均法更新所述任一终端节点本地网络模型的共享层参数。
可选地,所述各终端节点根据自身本地数据集对各自的本地网络模型进行训练时,采用梯度下降法、随机梯度下降法、动量法、RMSprop算法或Adam算法中的一种。
可选地,各终端节点本地网络模型均采用全连接神经网络或卷积神经网络。
可选地,各终端节点的本地网络模型均采用AlexNet卷积神经网络作为骨架网络,且保留AlexNet卷积神经网络中隐私层的参数。
另一方面,对应于上述的一种去中心化的终端节点网络模型训练方法,本发明还提供了一种去中心化的终端节点网络模型训练系统,包括多个终端节点,各终端节点根据自身的本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数。
可选地,所述终端节点包括网络模型训练模块,所述网络模型训练模块用于:
向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新自身本地网络模型的共享层参数;
将自身本地网络模型的共享层参数广播给各随机终端节点;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点;
判断是否满足迭代停机条件,若是则停止跳转,否则继续向其他终端节点发起通信请求。
根据本发明提供的具体发明内容,本发明公开了以下技术效果:
本发明提供的一种去中心化的终端节点网络模型训练方法及系统,各终端节点根据自身本地数据集对各自的本地网络模型进行训练;任一终端节点与其余终端节点进行通信,以获取其余终端节点的共享层参数;根据所述其余终端节点的共享层参数,所述任一终端节点更新自身的共享层参数,并广播自身更新后的共享层参数。本发明通过去中心化改进了传统联邦学习算法的拓扑结构,去除了传统联邦学习中的中心服务器,可以提高整个系统的稳定性;进一步本发明提出的方法仅需传输各终端节点本地网络模型的共享层的参数,相较于传统的联邦学习需要将终端节点的所有模型参数传输给中心服务器来说,通信参数量得到了减少,可以有效提高整个系统的通信效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的去中心化的终端节点网络模型训练方法的流程图;
图2为本发明实施例1提供的终端节点网络模型训练方法中MNIST手写数字数据集示意图;
图3为本发明实施例1提供的终端节点网络模型训练方法中本地网络模型的拓扑结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种去中心化的终端节点网络模型训练方法及系统,解决传统的联邦学习训练过程中,中心服务器遭受攻击或网络故障,将会导致整个系统瘫痪的问题,同时在保护终端节点原始数据隐私安全的前提下,还能够提高整个分布式机器学习系统的通信效率。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1:
如图1所示,本发明提供了一种去中心化的终端节点网络模型训练方法,各终端节点之间的网络拓扑结构为复杂网络结构,包括以下步骤:
S1、各终端节点根据自身本地数据集对各自的本地网络模型的共享层参数进行训练,隐私层参数保持不变;本地网络模型均包括隐私层和共享层;在对各自的本地网络模型进行训练时采用梯度下降法、随机梯度下降法、动量法、RMSprop算法或Adam算法中的一种均可。
所述本地网络模型可以为用于人脸识别、文本挖掘、语音分析、智能诊疗等领域的任何一种全连接神经网络或卷积神经网络模型,且所有终端节点模型的前若干层结构和参数均相同,仅最后若干层参数不同。
S2、任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;
S21、任一终端节点向其他终端节点发起通信请求。
S22、获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点。
S3、所述任一终端节点根据所述其余终端节点的共享层参数,采用平均法或加权平均法更新自身的共享层参数,并广播自身更新后的共享层参数;
S31、根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数。
S32、将所述任一终端节点本地网络模型的共享层参数广播给各随机终端节点,并跳转至步骤S2,直至满足迭代停机条件时,停止跳转;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点。
本发明通过去中心化改进了传统联邦学习算法的拓扑结构,去除了传统联邦学习中的中心服务器,可以提高整个系统的稳定性;进一步本发明提出的方法仅需传输各终端节点本地网络模型的共享层的参数,相较于传统的联邦学习需要将终端节点的所有模型参数传输给中心服务器来说,通信参数量得到了减少,可以有效提高整个系统的通信效率。
接下来结合一个具体应用于图像分类的例子来说明本发明提供的去中心化的终端节点网络模型训练方法:
各个终端节点采集自身的原始数据;在本实施例中,选用公开的MNIST手写数字识别数据集,包含0-9这10个数字,共有60000张图片,每张图片的大小为28*28,如图2所示。设置终端节点的数量为100个,即将60000张图片随机分配到100个终端节点上,每个终端节点包含的样本量为600张图片。
接着,各个终端节点定义自身模型的拓扑结构;在本实施例中,如图3所示,所有终端节点都选用AlexNet卷积神经网络作为骨架网络,删除其最后三层全连接层,拼接上新的三层全连接层,并将最后一层的输出神经元个数改为10(因为本实施例是0-9这10个数字的分类问题)。
随后,各个终端节点利用自身的原始数据训练自身的模型;在本实施例中,为了保证MNIST手写数字数据集图片大小与AlexNet卷积神经网络输入层的匹配,需要先将图片大小从28*28放大至227*227;然后利用迁移学习算法进行训练,即在训练的过程中,保持AlexNet卷积神经网络保留下来的层参数不变,仅训练最后拼接上新的全连接层的参数,训练算法采用Adam算法。
然后,所有终端节点之间利用分割学习方法进行迭代训练,包括:
(1)设置迭代停机条件;在本实施例中,采用最大迭代次数最为迭代停机条件,且将最大迭代次数设置为200,并设置迭代次数循环变量初值L=1;
(2)开始迭代训练;在本实施例中,当L≤200时,随机选择J(J<100)个终端节点,设置遍历终端节点循环变量初值i=1,针对每个被选中的终端节点,完成通信请求、通信响应、模型参数共享、模型更新、模型广播等步骤;
在通信请求阶段,终端节点i向整个网络中的其它终端节点发送通信请求,请求共享模型参数;在本实施例中,终端节点i向整个网络中其余99个终端节点发送通信请求;
在通信响应阶段,整个网络中的其它终端节点接收到终端节点i的通信请求后,自主决定是否同意接受请求,若同意接受,则向终端节点i发送一个同意接受信号;若不同意接受,则无需发送任何信号;在本实施例中,不失一般性,假设共有m(m≤99)个终端节点同意接受请求,这m(m≤99)个终端节点构成集合S;
在模型参数共享阶段,集合S中的每个终端节点k(k=1,2,…,m)向终端节点i发送模型参数;在本实施例中,发送的模型参数仅为新拼接上新的三层全连接层的参数,即:Conv5层与FC6层之间的连接权值矩阵
Figure BDA0003512048590000061
FC6层与FC7层之间的连接权值矩阵/>
Figure BDA0003512048590000062
FC7层与FC8层之间的连接权值矩阵/>
Figure BDA0003512048590000063
在模型更新阶段,终端节点i汇总自身模型参数及集合S中每个终端节点发送的模型参数,对自身的模型参数进行更新;在本实施例中,更新的仅是新拼接上新的三层全连接层的参数,更新方法采用平均法,即:
Figure BDA0003512048590000064
Figure BDA0003512048590000065
Figure BDA0003512048590000066
其中,
Figure BDA0003512048590000067
和/>
Figure BDA0003512048590000068
分别是终端节点i模型Conv5层与FC6层之间更新前与更新后的连接权值矩阵;/>
Figure BDA0003512048590000069
和/>
Figure BDA00035120485900000610
分别是终端节点i模型FC6层与FC7层之间更新前与更新后的连接权值矩阵;/>
Figure BDA0003512048590000071
和/>
Figure BDA0003512048590000072
分别是终端节点i模型FC7层与FC8层之间更新前与更新后的连接权值矩阵;
在模型广播阶段,终端节点i将自身更新后的模型参数
Figure BDA0003512048590000073
Figure BDA0003512048590000074
发送给整个网络中的其它终端节点,一类是同意接受请求(即集合S)的终端节点;另一类是在剩余(即不同意接受请求)的终端节点中随机产生的若干终端节点,在本实施例中,不失一般性,假设共有n(n≤99-m)个终端节点接收到模型参数的终端节点可自主决定是否用终端节点i更新后的模型参数替换自身的原有参数,若同意替换,则根据下式更新参数:
Figure BDA0003512048590000075
若不同意替换,则保持原有模型参数不变,即:
Figure BDA0003512048590000076
当终端节点i完成上述步骤后,更新遍历终端节点循环变量i的值,即i=i+1;当i>J(即遍历完所有被选中的终端节点)时,本轮迭代训练结束,更新迭代次数循环变量L,即L=L+1,并返回步骤(2)。
(3)结束迭代训练;在本实施例中,当L>100时,迭代训练结束。需要注意的是,在本实施例中选用最大迭代次数作为迭代停机条件,在其他实施例中,也可以设定其他条件,如相邻两次的迭代误差小于阈值。
在本实施例中,在MNIST手写数字数据集上对本发明提出的方法进行验证,并与传统联邦学习和非分布式的传统机器学习方法进行对比,结果如下表所列。
传统机器学习 传统联邦学习 本发明方法
分类准确率 98.24% 97.35% 97.63%
通信参数量 60965128 2771264
从表中可以看出,在模型泛化性能方面,传统机器学习方法最优,因为其可以拥有的训练集样本量最多,而本发明提出的方法略优于传统联邦学习方法;在通信效率方面,传统的联邦学习需要将终端节点的所有模型参数传输给中心服务器,而本发明提出的方法仅需传输模型最后若干层的参数,通信参数量大大减少,在本实施例中,本发明提出的方法的通信参数量仅为传统联邦学习的4.55%左右,通信效率大大提升。因此,本发明提出的方法在模型泛化性能和通信效率方面均有一定的优势。
实施例2:
对应于实施例1的一种去中心化的终端节点网络模型训练方法,本发明还提供了一种去中心化的终端节点网络模型训练系统,包括多个终端节点;
各终端节点根据自身的本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数。
各终端节点包括网络模型训练模块,所述网络模型训练模块用于:
向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新自身本地网络模型的共享层参数;
将自身本地网络模型的共享层参数广播给各随机终端节点;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点;
判断是否满足迭代停机条件,若是则停止跳转,否则继续向其他终端节点发起通信请求。
技术中的程序部分可以被认为是以可执行的代码和/或相关数据的形式而存在的“产品”或“制品”,通过计算机可读的介质所参与或实现的。有形的、永久的储存介质可以包括任何计算机、处理器、或类似设备或相关的模块所用到的内存或存储器。例如,各种半导体存储器、磁带驱动器、磁盘驱动器或者类似任何能够为软件提供存储功能的设备。
所有软件或其中的一部分有时可能会通过网络进行通信,如互联网或其他通信网络。此类通信可以将软件从一个计算机设备或处理器加载到另一个。例如:从视频目标检测设备的一个服务器或主机计算机加载至一个计算机环境的硬件平台,或其他实现系统的计算机环境,或与提供目标检测所需要的信息相关的类似功能的系统。因此,另一种能够传递软件元素的介质也可以被用作局部设备之间的物理连接,例如光波、电波、电磁波等,通过电缆、光缆或者空气等实现传播。用来载波的物理介质如电缆、无线连接或光缆等类似设备,也可以被认为是承载软件的介质。在这里的用法除非限制了有形的“储存”介质,其他表示计算机或机器“可读介质”的术语都表示在处理器执行任何指令的过程中参与的介质。
本发明中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;本领域的技术人员应该理解,上述本发明的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何特定的硬件和软件的结合。
同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种去中心化的终端节点网络模型训练方法,其特征在于,所述终端节点网络模型训练方法包括:
各终端节点根据自身本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;
任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数;具体包括:
任一终端节点向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数;
将所述任一终端节点本地网络模型的共享层参数广播给各随机终端节点,并跳转至所述任一终端节点向其他终端节点发起通信请求的步骤,直至满足迭代停机条件时,停止跳转;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点。
2.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述各终端节点之间的网络拓扑结构为复杂网络结构。
3.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述各终端节点根据自身本地数据集对各自的本地网络模型进行训练,具体包括:
各终端节点根据自身本地数据集对各自的本地网络模型的共享层参数进行训练,所述各终端节点本地网络模型的隐私层参数相同。
4.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数,具体包括:
根据获取的若干个终端节点的共享层参数,采用平均法或加权平均法更新所述任一终端节点本地网络模型的共享层参数。
5.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述各终端节点根据自身本地数据集对各自的本地网络模型进行训练时,采用梯度下降法、随机梯度下降法、动量法、RMSprop算法或Adam算法中的一种。
6.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,各终端节点本地网络模型均采用全连接神经网络或卷积神经网络。
7.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,各终端节点的本地网络模型均采用AlexNet卷积神经网络作为骨架网络,且保留AlexNet卷积神经网络中隐私层的参数。
8.一种去中心化的终端节点网络模型训练系统,其特征在于,所述终端节点网络模型训练系统包括多个终端节点,各终端节点根据自身本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数;
所述终端节点包括网络模型训练模块,所述网络模型训练模块用于:
向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新自身本地网络模型的共享层参数;
将自身本地网络模型的共享层参数广播给各随机终端节点;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点;
判断是否满足迭代停机条件,若是则停止跳转,否则继续向其他终端节点发起通信请求。
CN202210154923.7A 2022-02-21 2022-02-21 一种去中心化的终端节点网络模型训练方法及系统 Active CN114519306B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210154923.7A CN114519306B (zh) 2022-02-21 2022-02-21 一种去中心化的终端节点网络模型训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210154923.7A CN114519306B (zh) 2022-02-21 2022-02-21 一种去中心化的终端节点网络模型训练方法及系统

Publications (2)

Publication Number Publication Date
CN114519306A CN114519306A (zh) 2022-05-20
CN114519306B true CN114519306B (zh) 2023-03-28

Family

ID=81598385

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210154923.7A Active CN114519306B (zh) 2022-02-21 2022-02-21 一种去中心化的终端节点网络模型训练方法及系统

Country Status (1)

Country Link
CN (1) CN114519306B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024036567A1 (en) * 2022-08-18 2024-02-22 Huawei Technologies Co., Ltd. Methods and apparatuses for learning an articifical intelligence or machine learning model
CN116109608A (zh) * 2023-02-23 2023-05-12 智慧眼科技股份有限公司 一种肿瘤分割方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288094A (zh) * 2020-10-09 2021-01-29 武汉大学 联邦网络表示学习方法及系统
CN113794675A (zh) * 2021-07-14 2021-12-14 中国人民解放军战略支援部队信息工程大学 基于区块链和联邦学习的分布式物联网入侵检测方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11899817B2 (en) * 2019-01-31 2024-02-13 Salesforce, Inc. Systems, methods, and apparatuses for storing PII information via a metadata driven blockchain using distributed and decentralized storage for sensitive user information
CN111966698B (zh) * 2020-07-03 2023-06-13 华南师范大学 一种基于区块链的可信联邦学习方法、系统、装置及介质
CN112632013A (zh) * 2020-12-07 2021-04-09 国网辽宁省电力有限公司物资分公司 一种基于联邦学习的数据安全可信共享方法和装置
CN113408746B (zh) * 2021-06-22 2023-03-14 深圳大学 一种基于区块链的分布式联邦学习方法、装置及终端设备
CN113935469B (zh) * 2021-10-26 2022-06-24 城云科技(中国)有限公司 基于去中心化联邦学习的模型训练方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288094A (zh) * 2020-10-09 2021-01-29 武汉大学 联邦网络表示学习方法及系统
CN113794675A (zh) * 2021-07-14 2021-12-14 中国人民解放军战略支援部队信息工程大学 基于区块链和联邦学习的分布式物联网入侵检测方法及系统

Also Published As

Publication number Publication date
CN114519306A (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
CN114519306B (zh) 一种去中心化的终端节点网络模型训练方法及系统
CN111414987B (zh) 神经网络的训练方法、训练装置和电子设备
WO2022012407A1 (zh) 一种用于神经网络的训练方法以及相关设备
CN112214775B (zh) 防止第三方获取关键图数据信息的对图数据的注入式攻击方法、装置、介质及电子设备
CN113159283A (zh) 一种基于联邦迁移学习的模型训练方法及计算节点
CN113191530B (zh) 一种具有隐私保护的区块链节点可靠性预测方法及系统
CN113254669B (zh) 基于知识图谱的配电网cim模型信息补全方法及系统
WO2019014894A1 (zh) 网络链路预测方法及装置
WO2023020214A1 (zh) 检索模型的训练和检索方法、装置、设备及介质
CN113988225B (zh) 建立表征提取模型、表征提取、类型识别的方法和装置
KR20210064817A (ko) 상이한 딥러닝 모델 간의 전이 학습방법
WO2024051655A1 (zh) 全视野组织学图像的处理方法、装置、介质和电子设备
CN116090504A (zh) 图神经网络模型训练方法及装置、分类方法、计算设备
CN109033603B (zh) 基于源流路径链的智能变电站二次系统仿真方法
CN114758130B (zh) 图像处理及模型训练方法、装置、设备和存储介质
CN113992520B (zh) 一种虚拟网络资源的部署方法和系统
CN115758643A (zh) 一种基于时空特征融合的网络流量预测方法、装置及存储介质
WO2022068200A1 (zh) 缺陷预测方法和装置、存储介质和电子装置
CN113722554A (zh) 数据分类方法、装置及计算设备
CN113626826A (zh) 智能合约安全检测方法、系统、设备、终端及应用
Liu et al. Asynchronous algorithms for distributed optimisation and application to distributed regression with robustness to outliers
CN107623586B (zh) 网络链路预测方法及装置
WO2023160309A1 (zh) 一种联邦学习方法以及相关设备
CN111935006B (zh) 一种数据传输方法、装置、处理设备及介质
WO2023143128A1 (zh) 一种数据处理方法以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant