CN113221470A - 一种用于电网边缘计算系统的联邦学习方法及其相关装置 - Google Patents
一种用于电网边缘计算系统的联邦学习方法及其相关装置 Download PDFInfo
- Publication number
- CN113221470A CN113221470A CN202110651200.3A CN202110651200A CN113221470A CN 113221470 A CN113221470 A CN 113221470A CN 202110651200 A CN202110651200 A CN 202110651200A CN 113221470 A CN113221470 A CN 113221470A
- Authority
- CN
- China
- Prior art keywords
- client
- learning
- global model
- server
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 46
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000005265 energy consumption Methods 0.000 claims description 16
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 230000002035 prolonged effect Effects 0.000 abstract description 7
- 238000007405 data analysis Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/02—Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Water Supply & Treatment (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Public Health (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer And Data Communications (AREA)
Abstract
本申请公开了一种用于电网边缘计算系统的联邦学习方法及其相关装置,服务器在接收到客户端的加入联邦学习请求时,获取各客户端链路的可靠度,进而选择对电网边缘计算系统的资源利用率有正向影响的客户端加入本轮联邦学习;服务器将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到服务器;服务器将所有模型参数进行聚合作为全局模型的参数,得到新的全局模型;进入下一轮学习,直至达到预设学习轮数,输出新的全局模型,改善了现有的联邦学习方法不对客户端进行选择,存在资源利用率不高,训练周期长,导致系统延迟变长的技术问题。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种用于电网边缘计算系统的联邦学习方法及其相关装置。
背景技术
随着物联网,人工智能和大数据的发展,智能电网已成为电网系统很有前景的发展方向。在智能电网环境中,大量数据是从基于大型物联网的电表,配电变压器以及其他计量设备中收集的,大多数数据来自计算密集型应用程序,例如预测能耗、预测电能质量、分析能耗趋势和预测能量盗窃等,这些都需要具有低延迟的大数据分析。
传统上,数据分析是使用基于人工智能的算法在远程云中执行的。因此,需要来自智能电网的海量数据通过通信网络上传到远程云。但是,对于不断增长的需要快速、高精度分析以实现价值最大化的智能电网应用而言,这种计算范例效率低下。因为从数据源到远程云的数据上传延迟是不可避免的,并且智能电网系统中来自不同计量设备的数据集将是非独立且相同的分布(非IID)。
边缘计算在网络边缘扩展了类似云的服务,是智能电网的一种有前景的计算范例。在边缘计算可以通过在靠近计量设备的边缘设备上运行计算算法来在网络边缘执行数据分析,从而可以显著减少数据上载延迟。然而,与云相比,边缘设备的计算和存储资源要小得多,仅单个边缘设备的数据分析效率较低。实际上,与多个边缘计算设备协作的分布式学习将更加可行。
联邦学习是一种有效的分布式学习范例,它支持使用非IID数据在网络边缘进行机器学习。在联合学习中,许多客户端和服务器协作以执行多个训练回合,以获得特殊数据驱动应用程序的学习模型。通常,参加联合学习的客户数量越多,需要获得学习融合的轮次就越少。但由于智能电网中的移动客户端通常部署在具有高动态链接可靠性的室外环境中,因此并非所有的客户端最终都能将其训练后的模型参数上传到联合服务器以进行参数聚合,这不仅会浪费用于本地训练的能量消耗,资源利用率不高,还会增加训练周期,导致系统延迟变长。
发明内容
本申请提供了一种用于电网边缘计算系统的联邦学习方法及其相关装置,用于改善现有的联邦学习方法不对客户端进行选择,存在资源利用率不高,训练周期长,导致系统延迟变长的技术问题。
有鉴于此,本申请第一方面提供了一种用于电网边缘计算系统的联邦学习方法,应用于服务器,包括:
S1、在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度;
S2、根据所述可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习;
S3、将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到所述服务器;
S4、将所有所述模型参数进行聚合作为所述全局模型的参数,得到新的全局模型;
S5、判断是否达到预设学习轮次,若是,输出新的全局模型,若否,则跳转执行步骤S1。
可选的,步骤S2具体包括:
根据各客户端对应的可靠度和本地训练所需的平均能量消耗计算各客户端对应的计算效率;
当客户端对应的计算效率大于0时,则判定该客户端对电网边缘计算系统的资源利用率有正向影响,并选择该客户端加入本轮联邦学习。
可选的,所述计算效率的计算公式为:
本申请第二方面提供了一种服务器,包括:
获取单元,用于在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度;
第一判断单元,用于根据所述可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习;
发送单元,用于将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到所述服务器;
聚合单元,用于将所有所述模型参数进行聚合作为所述全局模型的参数,得到新的全局模型;
第二判断单元,用于判断是否达到预设学习轮次,若是,则输出新的全局模型,若否,则触发所述获取单元。
可选的,所述第一判断单元具体用于:
根据各客户端对应的可靠度和本地训练所需的平均能量消耗计算各客户端对应的计算效率;
当客户端对应的计算效率大于0时,则判定该客户端对电网边缘计算系统的资源利用率有正向影响,并选择该客户端加入本轮联邦学习。
可选的,所述计算效率的计算公式为:
本申请第三方面提供了一种联邦学习系统,包括:客户端和如第二方面任一种所述的服务器;
所述客户端和所述服务器通信连接。
本申请第四方面提供了一种电子设备,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面任一种所述的用于电网边缘计算系统的联邦学习方法。
本申请第五方面提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面任一种所述的用于电网边缘计算系统的联邦学习方法。
从以上技术方案可以看出,本申请具有以下优点:
本申请提供了一种用于电网边缘计算系统的联邦学习方法,应用于服务器,包括:S1、在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度;S2、根据可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习;S3、将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到服务器;S4、将所有模型参数进行聚合作为全局模型的参数,得到新的全局模型;S5、判断是否达到预设学习轮次,若是,输出新的全局模型,若否,则跳转执行步骤S1。
本申请中,在接收到客户端的加入联邦学习请求时,获取各客户端链路的可靠度,根据可靠度对客户端进行选择,避免某客户端链路可靠度低的客户端加入联邦学习,提高学习成功、资源利用率;通过对客户端进行选择,缩短了训练周期,改善了现有的联邦学习方法不对客户端进行选择,存在资源利用率不高,训练周期长,导致系统延迟变长的技术问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的一种用于电网边缘计算系统的联邦学习方法的一个流程示意图;
图2为本申请实施例提供的一种服务器的一个结构示意图。
具体实施方式
本申请提供了一种用于电网边缘计算系统的联邦学习方法及其相关装置,用于改善现有的联邦学习方法不对客户端进行选择,存在资源利用率不高,训练周期长,导致系统延迟变长的技术问题。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解,请参阅图1,本申请实施例提供的一种用于电网边缘计算系统的联邦学习方法,应用于服务器,包括:
步骤101、在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度。
电网边缘计算系统中有若干客户端,每个客户端都有本地数据集。在用户选择阶段,服务器中设置有定时器,超过了延迟截止时间的上限,就会进入到一个阶段(训练阶段)。为服务器中的计时器的时间上线,用于等待客户端的加入联邦学习请求。服务器对在预置等待时间内发送的加入联邦学习请求对应的客户端进行选择,超过这个预置等待时间的客户端不进行选择。
服务器在预置等待时间内接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度,可以根据各客户端链路的历史数据(如上传成功率、带宽、丢包率、抖动或延迟等数据)训练一个可靠度预测模型(如循环神经网络模型),通过将各客户端链路的当前数据输入训练好的可靠度预测模型进行可靠度预测,获取当前客户端链路的可靠度ρ。
步骤102、根据可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习。
本申请实施例考虑到,某些客户端由于客户端与服务器之间的链路突然丢失而无法接收全局模型或无法将训练后的模型参数上传到服务器,导致学习收敛速度变慢,加长训练周期,还会浪费本地训练的能量消耗,资源利用率低。
为了改善上述问题,本申请实施例在获取到各客户端链路的可靠度后,根据各客户端对应的可靠度和本地训练所需的平均能量消耗计算各客户端对应的计算效率;当客户端对应的计算效率大于0时,则判定该客户端对电网边缘计算系统的资源利用率有正向影响,并选择该客户端加入本轮联邦学习。
其中,计算效率的计算公式具体可以为:
式中,gm(i)为第i轮联邦学习的第m个客户端对应的计算效率,ρm为第m个客户端链路的可靠度,为第m个客户端的本地训练所需的平均能量消耗,A、C为常数,α、ω、β为权重系数,为第i轮联邦学习中客户端m的训练延迟时间的期望值。
本申请实施例在选择客户端时间,在设置延迟截止时间的基础上选择能够对系统产生正向影响的客户端,以缩短训练周期,提高资源利用率和客户端成功被选择的比例。
步骤103、将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到服务器。
当服务器进入训练阶段时,服务器会将当前最新的全局模型发生给参与本轮联邦学习的所有客户端,各客户端通过本地数据集对该全局模型进行本地训练,然后将训练得到的模型参数上传给服务器。
其中,服务器中还设置有等待客户端反馈训练结果的时间上限。超过该时间上限,则进入下一阶段。
步骤104、将所有模型参数进行聚合作为全局模型的参数,得到新的全局模型。
服务器训练阶段结束后,进入聚合阶段,将接收的所有模型参数进行平均以更新全局模型,得到新的全局模型,并且将新的全局模型存储为服务器上的检查点,用于下一轮联邦学习。
步骤105、判断是否达到预设学习轮次,若是,输出新的全局模型,若否,则跳转执行步骤101。
服务器判断联邦学习的学习轮次是否达到预设学习轮次,若是,输出新的全局模型,若否,则跳转执行步骤101,进入下一轮联邦学习。
本申请实施例中,在接收到客户端的加入联邦学习请求时,获取各客户端链路的可靠度,根据可靠度对客户端进行选择,避免某客户端链路可靠度低的客户端加入联邦学习,提高学习成功、资源利用率;通过对客户端进行选择,缩短了训练周期,改善了现有的联邦学习方法不对客户端进行选择,存在资源利用率不高,训练周期长,导致系统延迟变长的技术问题。
以上为本申请提供的一种用于电网边缘计算系统的联邦学习方法的一个实施例,以下为本申请提供的一种服务器的一个实施例。
请参考图2,本申请实施例提供的一种服务器,包括:
获取单元,用于在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度;
第一判断单元,用于根据可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习;
发送单元,用于将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到服务器;
聚合单元,用于将所有模型参数进行聚合作为全局模型的参数,得到新的全局模型;
第二判断单元,用于判断是否达到预设学习轮次,若是,则输出新的全局模型,若否,则触发获取单元。
可选的,第一判断单元具体用于:
根据各客户端对应的可靠度和本地训练所需的平均能量消耗计算各客户端对应的计算效率;
当客户端对应的计算效率大于0时,则判定该客户端对电网边缘计算系统的资源利用率有正向影响,并选择该客户端加入本轮联邦学习。
可选的,计算效率的计算公式为:
本申请实施例中,在接收到客户端的加入联邦学习请求时,获取各客户端链路的可靠度,根据可靠度对客户端进行选择,避免某客户端链路可靠度低的客户端加入联邦学习,提高学习成功、资源利用率;通过对客户端进行选择,缩短了训练周期,改善了现有的联邦学习方法不对客户端进行选择,存在资源利用率不高,训练周期长,导致系统延迟变长的技术问题。
本申请实施例还提供了一种联邦学习系统,包括:客户端和前述装置实施例中的服务器;
客户端和服务器通信连接。
客户端的数量为多个。
本申请实施例还提供了一种电子设备,设备包括处理器以及存储器;
存储器用于存储程序代码,并将程序代码传输给处理器;
处理器用于根据程序代码中的指令执行前述方法实施例中的用于电网边缘计算系统的联邦学习方法。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质用于存储程序代码,程序代码用于执行前述方法实施例中的用于电网边缘计算系统的联邦学习方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以通过一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (9)
1.一种用于电网边缘计算系统的联邦学习方法,其特征在于,应用于服务器,包括:
S1、在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度;
S2、根据所述可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习;
S3、将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到所述服务器;
S4、将所有所述模型参数进行聚合作为所述全局模型的参数,得到新的全局模型;
S5、判断是否达到预设学习轮次,若是,输出新的全局模型,若否,则跳转执行步骤S1。
2.根据权利要求1所述的用于电网边缘计算系统的联邦学习方法,其特征在于,步骤S2具体包括:
根据各客户端对应的可靠度和本地训练所需的平均能量消耗计算各客户端对应的计算效率;
当客户端对应的计算效率大于0时,则判定该客户端对电网边缘计算系统的资源利用率有正向影响,并选择该客户端加入本轮联邦学习。
4.一种服务器,其特征在于,包括:
获取单元,用于在接收到若干客户端的加入联邦学习请求时,获取各客户端链路的可靠度;
第一判断单元,用于根据所述可靠度判断各客户端对电网边缘计算系统的资源利用率是否有正向影响,并选择有正向影响的客户端加入本轮联邦学习;
发送单元,用于将当前最新的全局模型发送给参与本轮联邦学习的所有客户端,使得各客户端根据本地数据集对该全局模型进行本地训练,并将各自训练得到的模型参数上传到所述服务器;
聚合单元,用于将所有所述模型参数进行聚合作为所述全局模型的参数,得到新的全局模型;
第二判断单元,用于判断是否达到预设学习轮次,若是,则输出新的全局模型,若否,则触发所述获取单元。
5.根据权利要求4所述的服务器,其特征在于,所述第一判断单元具体用于:
根据各客户端对应的可靠度和本地训练所需的平均能量消耗计算各客户端对应的计算效率;
当客户端对应的计算效率大于0时,则判定该客户端对电网边缘计算系统的资源利用率有正向影响,并选择该客户端加入本轮联邦学习。
7.一种联邦学习系统,其特征在于,包括:客户端和如权利要求4-6任一项所述的服务器;
所述客户端和所述服务器通信连接。
8.一种电子设备,其特征在于,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-3任一项所述的用于电网边缘计算系统的联邦学习方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1-3任一项所述的用于电网边缘计算系统的联邦学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110651200.3A CN113221470A (zh) | 2021-06-10 | 2021-06-10 | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110651200.3A CN113221470A (zh) | 2021-06-10 | 2021-06-10 | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113221470A true CN113221470A (zh) | 2021-08-06 |
Family
ID=77080182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110651200.3A Pending CN113221470A (zh) | 2021-06-10 | 2021-06-10 | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113221470A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723619A (zh) * | 2021-08-31 | 2021-11-30 | 南京大学 | 一种基于训练阶段感知策略的联邦学习训练方法 |
CN113742778A (zh) * | 2021-09-17 | 2021-12-03 | 上海交通大学 | 基于联邦学习和alq压缩的分布式机器学习方法及系统 |
CN113918097A (zh) * | 2021-10-22 | 2022-01-11 | 云南电网有限责任公司电力科学研究院 | 一种分布式存储方法及系统 |
CN114006735A (zh) * | 2021-10-19 | 2022-02-01 | 广州木链云科技有限公司 | 一种数据保护方法、装置、计算机设备和存储介质 |
CN114065863A (zh) * | 2021-11-18 | 2022-02-18 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
CN114465900A (zh) * | 2022-03-01 | 2022-05-10 | 北京邮电大学 | 基于联邦边缘学习的数据共享时延优化方法及装置 |
CN114462573A (zh) * | 2022-01-20 | 2022-05-10 | 内蒙古工业大学 | 一种面向边缘智能的高效层次化参数传输时延优化方法 |
CN114492849A (zh) * | 2022-01-24 | 2022-05-13 | 光大科技有限公司 | 一种基于联邦学习的模型更新方法及装置 |
CN114548426A (zh) * | 2022-02-17 | 2022-05-27 | 北京百度网讯科技有限公司 | 异步联邦学习的方法、业务服务的预测方法、装置及系统 |
CN114866545A (zh) * | 2022-04-19 | 2022-08-05 | 郑州大学 | 一种基于空中计算的半异步分层联邦学习方法及系统 |
CN114938372A (zh) * | 2022-05-20 | 2022-08-23 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN115086399A (zh) * | 2022-07-28 | 2022-09-20 | 深圳前海环融联易信息科技服务有限公司 | 基于超网络的联邦学习方法、装置及计算机设备 |
WO2023090472A1 (ko) * | 2021-11-17 | 2023-05-25 | 엘지전자 주식회사 | 정보를 전송하는 방법 및 장치, 그리고 정보를 수신하는 방법 및 장치 |
WO2023109827A1 (zh) * | 2021-12-15 | 2023-06-22 | 维沃移动通信有限公司 | 客户端筛选方法及装置、客户端及中心设备 |
CN116580448A (zh) * | 2023-04-11 | 2023-08-11 | 深圳市大数据研究院 | 一种行为预测方法、系统、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190138934A1 (en) * | 2018-09-07 | 2019-05-09 | Saurav Prakash | Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks |
CN111291897A (zh) * | 2020-02-10 | 2020-06-16 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
CN111768008A (zh) * | 2020-06-30 | 2020-10-13 | 平安科技(深圳)有限公司 | 联邦学习方法、装置、设备和存储介质 |
CN112153650A (zh) * | 2020-08-31 | 2020-12-29 | 西北农林科技大学 | 一种无线网络中基于终端信誉的可靠联邦学习方法及系统 |
CN112348204A (zh) * | 2020-11-05 | 2021-02-09 | 大连理工大学 | 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法 |
CN112532451A (zh) * | 2020-11-30 | 2021-03-19 | 安徽工业大学 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
CN112565331A (zh) * | 2020-11-02 | 2021-03-26 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
CN112784994A (zh) * | 2020-12-31 | 2021-05-11 | 浙江大学 | 基于区块链的联邦学习数据参与方贡献值计算和激励方法 |
-
2021
- 2021-06-10 CN CN202110651200.3A patent/CN113221470A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190138934A1 (en) * | 2018-09-07 | 2019-05-09 | Saurav Prakash | Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks |
CN111291897A (zh) * | 2020-02-10 | 2020-06-16 | 深圳前海微众银行股份有限公司 | 基于半监督的横向联邦学习优化方法、设备及存储介质 |
CN111768008A (zh) * | 2020-06-30 | 2020-10-13 | 平安科技(深圳)有限公司 | 联邦学习方法、装置、设备和存储介质 |
CN112153650A (zh) * | 2020-08-31 | 2020-12-29 | 西北农林科技大学 | 一种无线网络中基于终端信誉的可靠联邦学习方法及系统 |
CN112565331A (zh) * | 2020-11-02 | 2021-03-26 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
CN112348204A (zh) * | 2020-11-05 | 2021-02-09 | 大连理工大学 | 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法 |
CN112532451A (zh) * | 2020-11-30 | 2021-03-19 | 安徽工业大学 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
CN112784994A (zh) * | 2020-12-31 | 2021-05-11 | 浙江大学 | 基于区块链的联邦学习数据参与方贡献值计算和激励方法 |
Non-Patent Citations (4)
Title |
---|
SHAOLEI ZHAI ET AL.: "Dynamic Federated Learning for GMEC With Time-Varying Wireless Link", 《IEEE ACCESS》 * |
刘婷婷等: "无线通信中的边缘智能", 《信号处理》 * |
邢丹等: "边缘计算环境下基于区块链和联邦学习的医疗健康数据共享模型", 《医学信息学杂志》 * |
郑楷洪等: "一个面向电力计量系统的联邦学习框架", 《中国电机工程学报》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723619A (zh) * | 2021-08-31 | 2021-11-30 | 南京大学 | 一种基于训练阶段感知策略的联邦学习训练方法 |
CN113742778B (zh) * | 2021-09-17 | 2023-10-31 | 上海交通大学 | 基于联邦学习和alq压缩的分布式机器学习方法及系统 |
CN113742778A (zh) * | 2021-09-17 | 2021-12-03 | 上海交通大学 | 基于联邦学习和alq压缩的分布式机器学习方法及系统 |
CN114006735A (zh) * | 2021-10-19 | 2022-02-01 | 广州木链云科技有限公司 | 一种数据保护方法、装置、计算机设备和存储介质 |
CN114006735B (zh) * | 2021-10-19 | 2024-03-08 | 广州木链云科技有限公司 | 一种数据保护方法、装置、计算机设备和存储介质 |
CN113918097A (zh) * | 2021-10-22 | 2022-01-11 | 云南电网有限责任公司电力科学研究院 | 一种分布式存储方法及系统 |
WO2023090472A1 (ko) * | 2021-11-17 | 2023-05-25 | 엘지전자 주식회사 | 정보를 전송하는 방법 및 장치, 그리고 정보를 수신하는 방법 및 장치 |
CN114065863A (zh) * | 2021-11-18 | 2022-02-18 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
CN114065863B (zh) * | 2021-11-18 | 2023-08-29 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
WO2023109827A1 (zh) * | 2021-12-15 | 2023-06-22 | 维沃移动通信有限公司 | 客户端筛选方法及装置、客户端及中心设备 |
CN114462573A (zh) * | 2022-01-20 | 2022-05-10 | 内蒙古工业大学 | 一种面向边缘智能的高效层次化参数传输时延优化方法 |
CN114462573B (zh) * | 2022-01-20 | 2023-11-14 | 内蒙古工业大学 | 一种面向边缘智能的高效层次化参数传输时延优化方法 |
CN114492849A (zh) * | 2022-01-24 | 2022-05-13 | 光大科技有限公司 | 一种基于联邦学习的模型更新方法及装置 |
CN114492849B (zh) * | 2022-01-24 | 2023-09-08 | 光大科技有限公司 | 一种基于联邦学习的模型更新方法及装置 |
CN114548426A (zh) * | 2022-02-17 | 2022-05-27 | 北京百度网讯科技有限公司 | 异步联邦学习的方法、业务服务的预测方法、装置及系统 |
CN114548426B (zh) * | 2022-02-17 | 2023-11-24 | 北京百度网讯科技有限公司 | 异步联邦学习的方法、业务服务的预测方法、装置及系统 |
CN114465900A (zh) * | 2022-03-01 | 2022-05-10 | 北京邮电大学 | 基于联邦边缘学习的数据共享时延优化方法及装置 |
CN114465900B (zh) * | 2022-03-01 | 2023-03-21 | 北京邮电大学 | 基于联邦边缘学习的数据共享时延优化方法及装置 |
CN114866545B (zh) * | 2022-04-19 | 2023-04-25 | 郑州大学 | 一种基于空中计算的半异步分层联邦学习方法及系统 |
CN114866545A (zh) * | 2022-04-19 | 2022-08-05 | 郑州大学 | 一种基于空中计算的半异步分层联邦学习方法及系统 |
CN114938372B (zh) * | 2022-05-20 | 2023-04-18 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN114938372A (zh) * | 2022-05-20 | 2022-08-23 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN115086399B (zh) * | 2022-07-28 | 2022-12-06 | 深圳前海环融联易信息科技服务有限公司 | 基于超网络的联邦学习方法、装置及计算机设备 |
CN115086399A (zh) * | 2022-07-28 | 2022-09-20 | 深圳前海环融联易信息科技服务有限公司 | 基于超网络的联邦学习方法、装置及计算机设备 |
CN116580448A (zh) * | 2023-04-11 | 2023-08-11 | 深圳市大数据研究院 | 一种行为预测方法、系统、电子设备及存储介质 |
CN116580448B (zh) * | 2023-04-11 | 2024-04-16 | 深圳市大数据研究院 | 一种行为预测方法、系统、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113221470A (zh) | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 | |
CN109829332B (zh) | 一种基于能量收集技术的联合计算卸载方法及装置 | |
CN112712182B (zh) | 一种基于联邦学习的模型训练方法、装置及存储介质 | |
CN107277013B (zh) | 对等网络中的直播系统及节点管理方法 | |
CN112235384A (zh) | 分布式系统中的数据传输方法、装置、设备及存储介质 | |
CN104038392A (zh) | 一种云计算资源服务质量评估方法 | |
CN104243598B (zh) | 一种信息推荐方法及装置 | |
CN106161485B (zh) | 一种基础服务集群的资源调度方法、装置和系统 | |
CN108805611A (zh) | 广告筛选方法及装置 | |
CN115580891B (zh) | 基于联邦学习的流量预测模型训练方法、预测方法和装置 | |
CN111127154A (zh) | 订单处理方法、装置、服务器和非易失性存储介质 | |
CN110198332A (zh) | 内容分发网络节点的调度方法、装置及存储介质 | |
CN115907038A (zh) | 一种基于联邦拆分学习框架的多元控制决策方法 | |
CN110929885A (zh) | 一种面向智慧校园的分布式机器学习模型参数聚合方法 | |
CN112465371A (zh) | 一种资源数据分配方法、装置及设备 | |
CN114492849B (zh) | 一种基于联邦学习的模型更新方法及装置 | |
CN115115064B (zh) | 一种半异步联邦学习方法及系统 | |
CN115955578A (zh) | 直播流调度方法及装置 | |
CN116074403A (zh) | 一种多协议融合通信方法、装置及架构 | |
CN111724176A (zh) | 店铺流量调节方法、装置、设备及计算机可读存储介质 | |
CN114513423B (zh) | 一种带宽调节方法、装置、设备及存储介质 | |
CN111275473B (zh) | 内容项投放方法、装置、服务器及存储介质 | |
Tang et al. | Forecasting Network Traffic at Large Time Scales by Using Dual-Related Method | |
CN117279019B (zh) | 频谱效率的预测方法、装置、电子设备及存储介质 | |
CN117251276B (zh) | 一种面向协作学习平台的灵活调度方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210806 |