CN115329987A - 一种联邦学习系统中用户选择的方法 - Google Patents

一种联邦学习系统中用户选择的方法 Download PDF

Info

Publication number
CN115329987A
CN115329987A CN202210934054.XA CN202210934054A CN115329987A CN 115329987 A CN115329987 A CN 115329987A CN 202210934054 A CN202210934054 A CN 202210934054A CN 115329987 A CN115329987 A CN 115329987A
Authority
CN
China
Prior art keywords
model
local
user
olt
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210934054.XA
Other languages
English (en)
Other versions
CN115329987B (zh
Inventor
李军
沈纲祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou University
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN202210934054.XA priority Critical patent/CN115329987B/zh
Publication of CN115329987A publication Critical patent/CN115329987A/zh
Application granted granted Critical
Publication of CN115329987B publication Critical patent/CN115329987B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer And Data Communications (AREA)
  • Optical Communication System (AREA)

Abstract

本发明公开了一种联邦学习系统中用户选择的方法,首先,中心服务器初始化训练任务和全局模型,并由OLT发送给所有用户;其次,本地用户接收到全局模型后利用本地数据进行模型更新,并上传更新后的本地模型;再次,OLT根据波长的负载情况进行用户选择,负载重的波长传输训练时间短的用户模型,负载轻的波长传输训练数据多的用户模型;从次,OLT将接收到的模型上传至中心服务器,中心服务器将所有接收到的本地模型聚合生成一个新的全局模型并将其发送给OLT;最后,判断全局损失函数是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2‑S4,若是,则结束。

Description

一种联邦学习系统中用户选择的方法
技术领域
本发明涉及光与无线融合接入技术领域,尤其涉及一种联邦学习系统中用户选择的方法。
背景技术
随着5G移动网络在全球范围内逐渐普及,万物互联时代已到来,人工智能技术的应用也正从云端向网络边缘延伸。传统的分布式机器学习,其机器学习算法通常部署在云数据中心。边缘设备需要将采集到的数据上传到云端,而这些数据十分庞大,这会造成网络拥堵,并且,边缘设备采集到的数据上传至云端面临着用户隐私泄露的风险。
由于数据不足以支撑实现机器学习、信息不允许粗暴交换、用户不愿意贡献价值三点,导致了现在大量存在的数据孤岛,以及隐私保护问题,联邦学习应运而生。联邦学习是一种非常有潜力的边缘学习框架,由Google研究人员于2016年提出,受到了学术界和工业界的广泛关注。联邦学习允许多个分布式边缘设备在边缘服务器的协调下,共同训练一个模型,而不需要上报各自的原始数据样本。在典型的联邦学习过程中,每个参与用户会先从服务器中下载当前最新的全局模型,然后利用本地数据样本进行局部训练,并将梯度信息上传给服务器,服务器聚合各个用户的梯度信息后更新模型参数,再将更新后的模型返回给参与用户。
由于联邦学习需要多轮次更新迭代,若每轮都有大量的用户将自己的梯度信息上传给服务器,将会造成网络负载严重且耗费大量时间。由于无线频谱资源有限,而联邦学习的用户量庞大,每个用户的性能不同,性能较差的用户可能会大大影响联邦学习的延迟,还会消耗巨大的能量,因此用户选择和资源分配是必要的。
发明内容
为了解决上述技术问题,本发明提供了一种联邦学习系统中用户选择的方法。
一种联邦学习系统中用户选择的方法,基于TWDM-PON,包括以下步骤:
S1:中心服务器初始化一第一全局模型,所述中心服务器将该第一全局模型下发至OLT,由所述OLT发送给所有本地用户;
S2:所述本地用户接收到该第一全局模型后利用本地数据进行模型更新,并上传更新后的本地模型至所述OLT;
S3:所述OLT根据波长的负载情况进行用户选择,负载大于0.5的波长传输训练时间短的用户模型,负载小于0.5的波长传输训练数据多的用户模型;
S4:所述OLT将筛选分配的模型后上传至所述中心服务器,所述中心服务器将所有接收到的所述本地模型聚合生成一个第二全局模型并将其发送给所述OLT;
S5:判断全局损失函数是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2-S4;若是,则结束。
作为本发明的进一步改进,步骤S1中所述第一全局模型根据任务需求和目标应用程序进行初始化设置。
作为本发明的进一步改进,步骤S2中所述的本地模型更新方式为:
Figure BDA0003782790730000021
其中,t为更新次数,i用于表示本地用户,L表示本地,G表示全局,
Figure BDA0003782790730000022
为更新后的本地模型,
Figure BDA0003782790730000023
为接收的全局模型,η为学习率,
Figure BDA0003782790730000031
为本地损失函数。
作为本发明的进一步改进,步骤S3中还包括:所述OLT根据该波长下本地用户训练所述本地模型所花费的时间进行升序排序,选取前N/4个用户上传其所述本地模型。
作为本发明的进一步改进,步骤S3中还包括:所述OLT根据该波长下本地用户的训练数据进行升序排序,选取后N/4个用户上传其所述本地模型。
作为本发明的进一步改进,步骤S3中其波长传输的用户的所述本地模型的表达式如下:
Figure BDA0003782790730000032
其中,Cn表示第n个波长传输的用户的所述本地模型集合,ci表示排序后的第i个本地用户,τi表示排序后的第i个本地用户,load表示第n个波长的负载情况。
作为本发明的进一步改进,所述本地模型上传顺序由排序顺序确定。
作为本发明的进一步改进,步骤S4包括:
S41:根据用户训练模型所耗费的时间
Figure BDA0003782790730000033
和用户上传至ONU所耗费的时间
Figure BDA0003782790730000034
之和Ti重新排序用户;
S42:计算出相邻用户之间的时间间隔,第n个波长上的第i个用户与第i-1个用户的间隔为
Figure BDA0003782790730000035
S43:为该用户分配的带宽大小可以表示为:
Figure BDA0003782790730000036
其中,Z为轮询窗口的平均大小;
S44:待所有模型传输完之后,所述中心服务器则利用接收到的所有所述本地模型聚合成一个新的全局模型,聚合过程如下:
Figure BDA0003782790730000041
Figure BDA0003782790730000042
其中,
Figure BDA0003782790730000043
为更新后的全局模型,
Figure BDA0003782790730000044
为全局损失函数,N为用户总数,Di为用户i的本地数据集大小,D为所有用户的数据集大小。
一种联邦学习系统,其特征在于:用于实现上述方法,包括:
所述中心服务器,用于对全局模型进行初始化处理或整合处理;
所述OLT,部署在所述中心服务器下游,接收由所述中心服务器下发的初始化全局模型或整合全局模型,并向下发送;接收由下游传输的数据并上传至所述中心服务器;
用户,接收初始化全局模型或整合全局模型,进行模型训练后得到本地模型并上传;
ONU,部署在所述OLT和所述用户之间,对所述OLT进行接收响应,接收由所述OLT向下发送的初始化全局模型或整合全局模型并下发至所述用户;对所述用户需要发送的以太网数据进行收集和缓存,按照被分配的发送窗口向所述OLT端发送该缓存数据;
ODN,部署在所述OLT和所述ONU之间,完成光信号的双向传输。
一种网络装置,包括:处理器、存储器和总线系统,所述处理器和存储器通过该总线系统相连,所述存储器用于存储指令,所述处理器用于执行存储器存储的指令,以实现权利要求1至8任意一项所述的方法。
本发明的有益效果:本发明提出了一种联邦学习系统中用户选择的方法。根据波长的负载情况不同采用不同的用户选择策略,负载轻的波长上传输训练数据量多的用户,以确保精确度,负载重的波长传输训练时间短的用户,以达到减小时延的目的。
附图说明
图1是本发明实施例提供的一种联邦学习系统中用户选择的方法网络模型图。
图2是本发明实施例提供的一种联邦学习系统中用户选择的方法流程图。
图3是本发明实施例提供的模型训练精确度结果图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
联邦学习是一种分布式机器学习技术,其核心思想是通过在多个拥有本地数据的数据源之间进行分布式模型训练,在不需要交换本地个体或样本数据的前提下,仅通过交换模型参数或中间结果的方式,构建基于虚拟融合数据下的全局模型,从而实现数据隐私保护和数据共享计算的平衡,即“数据可用不可见”、“数据不动模型动”的应用新范式。
无源光网络系统(Passive optical network,PON)其架构与联邦学习架构极其类似,利用PON系统实现联邦学习有着其他系统没有的天然优势。在时分波分复用无源光网络(Time wavelength division multiplexing-passive optical network,TWDM-PON)中实现联邦学习,能够快速的完成训练过程,但由于多波长的存在,需要为每个光网络单元(Optical Network Unit,ONU)分配带宽,合理的资源调度以及用户选择策略可以有效的减少联邦学习所耗费的时间。基于此,针对现有技术的缺陷本发明提出了一种联邦学习系统中用户选择的方法。
如图1所示,中心服务器部署在光线路终端(optical line termina,OLT)上游,完成PON网络的上行接入;光线路终端将获取到的初始化全局模型通过光配线网(OpticalDistribution Network,ODN)发送分配到所有ONU并下发至用户终端设备;本地用户接收到全局模型后利用本地数据进行模型更新,并上传更新后的本地模型。
如图2所示为一种联邦学习系统中用户选择的方法的流程图,具体步骤如下:
S1:中心服务器初始化训练任务和全局模型,并由OLT广播给所有用户;
步骤S1中,中心服务器根据任务需求和目标应用程序,初始化一个全局模型
Figure BDA0003782790730000061
中心服务器将该全局模型下发至OLT,由OLT发送给所有用户。
S2:本地用户接收到全局模型后利用本地数据进行模型更新,并上传更新后的本地模型;
本地用户i(i∈N)接收到全局模型
Figure BDA0003782790730000062
其中,N是所有用户的集合。之后,利用本地的数据通过本地计算训练第t+1轮本地模型更新
Figure BDA0003782790730000063
模型训练完之后上传至ONU,本地模型更新方式如下:
Figure BDA0003782790730000064
其中,t为更新次数,i用于表示本地用户,L表示本地,G表示全局,
Figure BDA0003782790730000065
为更新后的本地模型,
Figure BDA0003782790730000066
为接收的全局模型,η为学习率,
Figure BDA0003782790730000067
为本地损失函数。
S3:OLT根据波长的负载情况进行用户选择,负载重的波长传输训练时间短的用户模型,负载轻的波长传输训练数据多的用户模型;
若波长的负载大于0.5,则此波长为重负载情况,对于负载重的波长,用于传输联邦学习的带宽少,为了减少时延,选择该波长下训练时间短的用户,OLT根据该波长下本地用户训练本地模型所花费的时间进行升序排序[c1,c2…cN],ci表示排序后的第i个本地用户,选取前N/4个用户上传其本地模型,上传顺序依据排序顺序确定。
若波长的负载小于等于0.5,则此波长为轻负载情况,对于负载轻的波长,用于传输联邦学习的带宽大,为了保证精确度,选择该波长下训练数据多的用户,OLT根据该波长下本地用户的训练数据进行升序排序[τ12…τN],τi表示排序后的第i个本地用户,选取后N/4个用户上传其本地模型,上传顺序依据排序顺序确定。
其波长传输的用户的本地模型的表达式如下:
Figure BDA0003782790730000071
其中Cn表示第n个波长传输的用户的本地模型集合,[c1,c2...cN/4]及[τ3N/4-13N/4,...τN]分别表示第n个波长下根据训练时间排序后的前N/4个用户集合以及根据训练数据量最多的后N/4个用户集合,load表示第n个波长的负载情况。
S4:OLT将接收到的模型上传至中心服务器,中心服务器将所有接收到的本地模型聚合生成一个新的全局模型并将其发送给OLT;
待用户选择结束之后,利用切片的方法进行传输,具体如下:根据用户训练模型所耗费的时间
Figure BDA0003782790730000072
和用户上传至ONU所耗费的时间
Figure BDA0003782790730000073
之和Ti重新排序用户,并计算出相邻用户之间的时间间隔,第n个波长上的第i个用户与第i-1个用户的间隔为
Figure BDA0003782790730000074
则为该用户分配的带宽大小可以表示为:
Figure BDA0003782790730000075
其中,Z为轮询窗口的平均大小。
待所有模型传输完之后,中心服务器则利用接收到的所有本地模型聚合成一个新的全局模型,聚合过程如下:
Figure BDA0003782790730000081
Figure BDA0003782790730000082
其中,Di为用户i的本地数据集大小,D为所有用户的数据集大小,
Figure BDA0003782790730000083
为全局损失函数。
S5:判断全局损失函数
Figure BDA0003782790730000084
是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2-S4;若是,则结束。
实施例一:
为了验证一种联邦学习系统中用户选择的方法,在一个开源平台上进行验证,采用16个ONU,每个ONU下有着相同数量的用户,波长数量为4,其中,有两个重负载波长,两个轻负载波长,每个波长下的ONU数量一致,OLT与ONU的距离设为20Km,上传和下传的速率设为10Gb/s。采用两层5×5的CNN网络进行训练,含有26.4百万个参数,假定每个参数被量化为1bit信息,因此,每个模型的数据量为26.4兆字节。学习率设定为0.006,用于本地客户端模型更新的小批量(mini-batch)大小设为10,每轮进行一次本地更新。如图3所示,是进行120轮联邦学习,用户数量为32时的精确度结果,可以看出,经过20轮训练,其精确度就趋于收敛,相比于随机用户选取策略,收敛速度比较快,且不同数量的客户参与训练,对精确度有着十分明显的影响。
本发明提出了一种联邦学习系统中用户选择的方法。根据波长的负载情况不同选择不同的用户选择策略,负载轻的波长上传输训练数据量多的用户,以确保精确度,负载重的波长传输训练时间短的用户,以达到减小时延的目的。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (10)

1.一种联邦学习系统中用户选择的方法,其特征在于:基于TWDM-PON,包括以下步骤:
S1:中心服务器初始化一第一全局模型,所述中心服务器将该第一全局模型下发至OLT,由所述OLT发送给所有本地用户;
S2:所述本地用户接收到该第一全局模型后利用本地数据进行模型更新,并上传更新后的本地模型至所述OLT;
S3:所述OLT根据波长的负载情况进行用户选择,负载大于0.5的波长传输训练时间短的用户模型,负载小于0.5的波长传输训练数据多的用户模型;
S4:所述OLT将筛选分配的模型后上传至所述中心服务器,所述中心服务器将所有接收到的所述本地模型聚合生成一个第二全局模型并将其发送给所述OLT;
S5:判断全局损失函数是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2-S4;若是,则结束。
2.如权利要求1所述的联邦学习系统中用户选择的方法,其特征在于:步骤S1中所述第一全局模型根据任务需求和目标应用程序进行初始化设置。
3.如权利要求1所述的联邦学习系统中用户选择的方法,其特征在于:步骤S2中所述的本地模型更新方式为:
Figure FDA0003782790720000011
其中,t为更新次数,i用于表示本地用户,L表示本地,G表示全局,
Figure FDA0003782790720000012
为更新后的本地模型,
Figure FDA0003782790720000013
为接收的全局模型,η为学习率,
Figure FDA0003782790720000014
为本地损失函数。
4.如权利要求1所述的联邦学习系统中用户选择的方法,其特征在于:步骤S3中还包括:所述OLT根据该波长下本地用户训练所述本地模型所花费的时间进行升序排序,选取前N/4个用户上传其所述本地模型。
5.如权利要求1所述的联邦学习系统中用户选择的方法,其特征在于:步骤S3中还包括:所述OLT根据该波长下本地用户的训练数据进行升序排序,选取后N/4个用户上传其所述本地模型。
6.如权利要求1所述的联邦学习系统中用户选择的方法,其特征在于:步骤S3中其波长传输的用户的所述本地模型的表达式如下:
Figure FDA0003782790720000021
其中,Cn表示第n个波长传输的用户的所述本地模型集合,ci表示排序后的第i个本地用户,τi表示排序后的第i个本地用户,load表示第n个波长的负载情况。
7.如权利要求3-6任意一项所述的联邦学习系统中用户选择的方法,其特征在于:所述本地模型上传顺序由排序顺序确定。
8.如权利要求1所述的联邦学习系统中用户选择的方法,其特征在于:步骤S4包括:
S41:根据用户训练模型所耗费的时间
Figure FDA0003782790720000022
和用户上传至ONU所耗费的时间
Figure FDA0003782790720000023
之和Ti重新排序用户;
S42:计算出相邻用户之间的时间间隔,第n个波长上的第i个用户与第i-1个用户的间隔为
Figure FDA0003782790720000024
S43:为该用户分配的带宽大小可以表示为:
Figure FDA0003782790720000025
其中,Z为轮询窗口的平均大小;
S44:待所有模型传输完之后,所述中心服务器则利用接收到的所有所述本地模型聚合成一个新的全局模型,聚合过程如下:
Figure FDA0003782790720000031
Figure FDA0003782790720000032
其中,
Figure FDA0003782790720000033
为更新后的全局模型,
Figure FDA0003782790720000034
为全局损失函数,N为用户总数,Di为用户i的本地数据集大小,D为所有用户的数据集大小。
9.一种联邦学习系统,其特征在于:用于实现权利要求1至8任意一项所述的方法,包括:
所述中心服务器,用于对全局模型进行初始化处理或整合处理;
所述OLT,部署在所述中心服务器下游,接收由所述中心服务器下发的初始化全局模型或整合全局模型,并向下发送;接收由下游传输的数据并上传至所述中心服务器;
用户,接收初始化全局模型或整合全局模型,进行模型训练后得到本地模型并上传;
ONU,部署在所述OLT和所述用户之间,对所述OLT进行接收响应,接收由所述OLT向下发送的初始化全局模型或整合全局模型并下发至所述用户;对所述用户需要发送的以太网数据进行收集和缓存,按照被分配的发送窗口向所述OLT端发送该缓存数据;
ODN,部署在所述OLT和所述ONU之间,完成光信号的双向传输。
10.一种网络装置,其特征在于:包括:处理器、存储器和总线系统,所述处理器和存储器通过该总线系统相连,所述存储器用于存储指令,所述处理器用于执行存储器存储的指令,以实现权利要求1至8任意一项所述的方法。
CN202210934054.XA 2022-08-04 2022-08-04 一种联邦学习系统中用户选择的方法 Active CN115329987B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210934054.XA CN115329987B (zh) 2022-08-04 2022-08-04 一种联邦学习系统中用户选择的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210934054.XA CN115329987B (zh) 2022-08-04 2022-08-04 一种联邦学习系统中用户选择的方法

Publications (2)

Publication Number Publication Date
CN115329987A true CN115329987A (zh) 2022-11-11
CN115329987B CN115329987B (zh) 2023-07-21

Family

ID=83921492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210934054.XA Active CN115329987B (zh) 2022-08-04 2022-08-04 一种联邦学习系统中用户选择的方法

Country Status (1)

Country Link
CN (1) CN115329987B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120106333A1 (en) * 2010-10-29 2012-05-03 Futurewei Technologies, Inc. Network Aware Global Load Balancing System and Method
CN103024611A (zh) * 2012-12-28 2013-04-03 武汉烽火网络有限责任公司 光线路终端对光网络单元进行预配置管理的方法及装置
CN105681092A (zh) * 2016-01-27 2016-06-15 重庆邮电大学 一种混合复用pon中基于业务优先级的波长时隙分配方法
CN106130840A (zh) * 2016-07-15 2016-11-16 武汉邮电科学研究院 一种固定、移动宽带融合接入网架构
CN108199959A (zh) * 2018-01-30 2018-06-22 重庆邮电大学 一种弹性光网络中基于频谱预留的负载感知能效路由方法
CN110708135A (zh) * 2019-11-15 2020-01-17 四川中电启明星信息技术有限公司 一种无源光网络的通信控制系统与方法
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN113194489A (zh) * 2021-04-01 2021-07-30 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法
CN113591145A (zh) * 2021-07-28 2021-11-02 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法
CN113900796A (zh) * 2021-09-02 2022-01-07 山东电力工程咨询院有限公司 5g网络中面向多任务联邦学习的资源分配方法及系统
US20220076169A1 (en) * 2020-09-08 2022-03-10 International Business Machines Corporation Federated machine learning using locality sensitive hashing
CN114219354A (zh) * 2021-12-28 2022-03-22 杭州电子科技大学 一种基于联邦学习资源分配优化方法及系统
CN114358286A (zh) * 2022-03-08 2022-04-15 浙江中科华知科技股份有限公司 一种移动设备联邦学习方法及系统
CN114584581A (zh) * 2022-01-29 2022-06-03 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120106333A1 (en) * 2010-10-29 2012-05-03 Futurewei Technologies, Inc. Network Aware Global Load Balancing System and Method
CN103024611A (zh) * 2012-12-28 2013-04-03 武汉烽火网络有限责任公司 光线路终端对光网络单元进行预配置管理的方法及装置
CN105681092A (zh) * 2016-01-27 2016-06-15 重庆邮电大学 一种混合复用pon中基于业务优先级的波长时隙分配方法
CN106130840A (zh) * 2016-07-15 2016-11-16 武汉邮电科学研究院 一种固定、移动宽带融合接入网架构
CN108199959A (zh) * 2018-01-30 2018-06-22 重庆邮电大学 一种弹性光网络中基于频谱预留的负载感知能效路由方法
CN110708135A (zh) * 2019-11-15 2020-01-17 四川中电启明星信息技术有限公司 一种无源光网络的通信控制系统与方法
US20220076169A1 (en) * 2020-09-08 2022-03-10 International Business Machines Corporation Federated machine learning using locality sensitive hashing
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN113194489A (zh) * 2021-04-01 2021-07-30 西安电子科技大学 无线边缘网络中有效联邦学习的最小-最大代价优化方法
CN113591145A (zh) * 2021-07-28 2021-11-02 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法
CN113900796A (zh) * 2021-09-02 2022-01-07 山东电力工程咨询院有限公司 5g网络中面向多任务联邦学习的资源分配方法及系统
CN114219354A (zh) * 2021-12-28 2022-03-22 杭州电子科技大学 一种基于联邦学习资源分配优化方法及系统
CN114584581A (zh) * 2022-01-29 2022-06-03 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN114358286A (zh) * 2022-03-08 2022-04-15 浙江中科华知科技股份有限公司 一种移动设备联邦学习方法及系统

Also Published As

Publication number Publication date
CN115329987B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
CN111277437B (zh) 一种智能电网的网络切片资源分配方法
CN110968426B (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN110717300A (zh) 面向电力物联实时在线监测业务的边缘计算任务分配方法
CN108566242B (zh) 一种针对遥感数据传输业务的空间信息网络资源调度系统
CN112118312A (zh) 一种面向边缘服务器的网络突发负载疏散方法
CN112788605A (zh) 基于双延迟深度确定性策略边缘计算资源调度方法和系统
CN116610434A (zh) 面向分层联邦学习系统的资源优化方法
CN112469047A (zh) 一种天地一体化智能网络卫星节点部署方法
CN115278708A (zh) 一种面向联邦学习的移动边缘计算资源管理方法
CN110913239B (zh) 一种精细化的移动边缘计算的视频缓存更新方法
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
CN113094180B (zh) 无线联邦学习调度优化方法及装置
CN116702881A (zh) 一种基于抽样聚合优化的多层联邦学习方案
CN115174404A (zh) 一种基于sdn组网的多设备联邦学习系统
CN115119233A (zh) 一种分簇的无线通信方法和系统
CN112887943B (zh) 一种基于中心度的缓存资源分配方法及系统
CN115329987A (zh) 一种联邦学习系统中用户选择的方法
Li et al. Scalable federated learning over passive optical networks
CN111476401A (zh) 航班时刻表优化方法及系统
CN115115064B (zh) 一种半异步联邦学习方法及系统
CN116800753A (zh) 一种移动模型通信资源分配方法、装置、终端及存储介质
CN107911763B (zh) 一种基于QoS的智能配用电通信网EPON网络规划方法
CN106612310A (zh) 一种服务器调度方法、装置和系统
CN115460484B (zh) 一种联邦学习系统中用户调度和资源分配方法及系统
Li et al. Bandwidth slicing to boost federated learning in edge computing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant