CN113992676A - 端边云架构和完全信息下分层联邦学习的激励方法及系统 - Google Patents
端边云架构和完全信息下分层联邦学习的激励方法及系统 Download PDFInfo
- Publication number
- CN113992676A CN113992676A CN202111256017.XA CN202111256017A CN113992676A CN 113992676 A CN113992676 A CN 113992676A CN 202111256017 A CN202111256017 A CN 202111256017A CN 113992676 A CN113992676 A CN 113992676A
- Authority
- CN
- China
- Prior art keywords
- edge
- terminal device
- aggregator
- representing
- cloud server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种端边云架构和完全信息下分层联邦学习的激励方法及系统,包括:基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;基于分层联邦学习算法构建模型演化函数;利用纳什均衡求解三方的最优策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化;终端设备将基于最优策略更新后的模型发送到边缘聚合器,边缘聚合器基于最优策略对终端设备进行激励发放,并将聚合后的模型发送到云服务器,云服务器基于最优策略对边缘聚合器进行激励发放,并将模型进行再次聚合。本发明可向终端设备和边缘聚合器提供报酬,实现合理公平的收益分配。
Description
技术领域
本发明属于联邦学习技术领域,具体涉及一种端边云架构和完全信息下分层联邦学习的激励方法及系统。
背景技术
深度学习的最新发展彻底变革了包括电力领域在内的很多应用领域,如图像处理、自然语言处理、视频分析等。深度学习能在这些领域中取得巨大的成功源于大量训练数据和海量计算能力的可用性。但是,训练数据是由个人或不同组织拥有的分布式设备生成的。如果这些数据被泄露或用于最初目的以外的其他目的,个人隐私将受到损害。例如一些电力数据涉及个人用户隐私信息且安全性要求较高,一旦用电数据的隐私性、完整性、可用性被破坏,不仅会损害用电区域内用户自身的利益,更会对智能电网的整体性能产生不可估量的影响。许多数据所有者不愿意为训练模型共享他们的私有数据。数据隐私正逐渐成为深度学习最严重的问题之一。此外,由于数据大小、延迟和带宽的限制,很难将这些数据聚合到单个计算站点进行集中训练。联邦学习(Federated Learning,FL)的概念被提出来缓解这些问题,它允许多个用户在一个中央服务器的协调下,在不共享数据的情况下建立一个联邦模型。例如,在电力物联网架构下,利用感知层具备的较强的通信和计算能力来满足联邦学习算力和数据分布式需求。因此,移动设备上的大量分布式和隐私敏感数据可以在不泄露隐私的情况下得到很好的利用。
很多场景中的数据涉及用户隐私且安全性要求高,泛在FL的基本思想是让这些计算节点分别使用自己的数据训练局部模型,然后将局部模型而不是数据上传到逻辑上集中的参数服务器,该服务器合成一个全局模型。虽然大多数初步的FL研究假设云作为参数服务器,但是随着最近边缘计算平台的出现,研究人员已经开始研究基于边缘的FL系统,其中边缘服务器将充当参数服务器。在基于云的FL中,参与的客户端总数可达数百万,提供深度学习所需的海量数据集。同时,与云服务器的通信缓慢且不可预测,例如由于网络拥塞,这使得训练过程低效。相反,在基于边缘的FL中,由于参数服务器被放置在最接近的边缘,计算的等待时间与到边缘参数服务器的通信的等待时间相当。因此,有可能在计算和通信之间寻求更好的平衡。然而,一个缺点是每个服务器可以访问的客户端数量有限,导致不可避免的训练性能损失。从上面的比较中,看到了利用云服务器来访问大量训练样本的必要性,并且每个边缘服务器都可以与其本地客户端一起快速更新模型。然后提出了端-边-云架构下分层联邦学习(Hierarchical Federated Learning,HFL),很好地利用了云和边缘服务器的优点。与基于云的FL相比,端-边-云架构下的HFL将显著减少与云的高成本通信,并辅以高效的端-边缘更新,从而显著减少运行时间和本地迭代次数。另一方面,随着云服务器可以访问更多的数据,HFL在模型训练方面将优于基于边缘的FL。最重要的是,HFL能够发挥改善隐私的能力。简而言之,HFL可以有效地降低通信开销,同时仍能充分利用端侧的丰富数据。
尽管HFL显示出了巨大的优势,但它仍然面临着一个公开的挑战:现有的研究有一个乐观的假设,即所有端移动设备都无条件地参与模型训练并贡献自身的所有资源,由于模型训练会产生各种资源成本,这在现实世界中是不切实际的。
发明内容
针对现有的HFL系统不能很好地利用端侧设备丰富数据的问题,本发明提出了一种端边云架构和完全信息下分层联邦学习的激励方法及系统。为解决以上技术问题,本发明所采用的技术方案如下:
一种端边云架构和完全信息下分层联邦学习的激励方法,包括如下步骤:
S1,基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;
S2,终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;
S3,基于分层联邦学习算法在终端设备、边缘聚合器和云服务器中分别构建对应的模型演化函数;
S4,利用纳什均衡求解终端设备、边缘聚合器和云服务器的最优策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化;
S5,终端设备基于终端设备的最优策略更新本地的电力数据学习模型,并将更新后的电力数据学习模型发送到对应的边缘聚合器,边缘聚合器对电力数据学习模型进行聚合,并将聚合后的电力数据学习模型发送到云服务器,同时基于边缘聚合器的最优策略对终端设备进行激励发放,云服务器对电力数据学习模型进行再次聚合,并基于云服务器的最优策略对边缘聚合器进行激励发放
在步骤S3中,所述模型演化函数的演化公式为:
式中,ηt表示学习率,表示Fn(ωn(t-1))损失函数下的下降梯度,ωn(t)表示终端设备n中的第t个模型演化函数,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Sn表示边缘聚合器μ(n)所连接的终端设备集合,xn是终端设备n参与模型训练时所贡献数据集的数据贡献量,也即终端设备n的策略。
所述步骤S4包括如下步骤:
S4.4,根据云服务器的收益和成本计算云服务器的效用函数,以效用函数最大化为目标求解云服务器第k步的最优策略P*,根据最优策略P*调整策略Pk;
在步骤S4.2中,所述终端设备的效用函数的计算公式为:
所述终端设备n的收益f(xn,x-n)的计算公式为:
f(xn,x-n)=pnRμ(n);
式中,pn表示终端设备n的报酬分配比例,Rμ(n)表示终端设备n所连接的边缘聚合器μ(n)给予它所连接的所有终端设备的报酬;
式中,λe表示能耗的权重参数,En(xn)表示终端设备n参与模型训练时进行一次本地迭代的能耗,λt表示延迟的权重参数,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Tn(xn)表示终端设备n参与模型训练时进行一次本地迭代的计算时间,CE表示终端设备n收集单位数据的成本,xn是终端设备n参与模型训练时所贡献数据集χn的数据贡献量,也即终端设备n的策略。
a,证明所有终端设备子博弈纳什均衡的存在性;
b,证明所有终端设备子博弈纳什均衡的唯一性;
式中,|S′n|为终端设备模型训练参与者的集合S′n的基,Ji表示终端设备i参与模型训练时的单位成本,θn表示终端设备n参与模型训练时所贡献数据集xn的数据质量,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量;
所述模型训练参与者的集合S′n中的参与者满足以下条件:
在步骤S4.3中,所述边缘聚合器的效用函数的计算公式为:
所述边缘聚合器l的收益h(Rl)的计算公式为:
h(Rl)=ln(αl+plRC);
式中,αl表示边缘聚合器l的风险规避参数,pl表示边缘聚合器l的报酬分配比例,RC表示云服务器支付给所有边缘聚合器的报酬;
式中,βl表示报酬比例系数,El表示边缘聚合器l通信的能耗,Tl表示边缘聚合器l通信的延迟,CL表示边缘聚合器的单位协调成本,|Sl|表示Sl的基,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目。
所述边缘聚合器l的报酬分配比例pl的计算公式为:
式中,Sl表示边缘聚合器l所连接的终端设备集合,θi表示终端设备i参与模型训练时所贡献数据集xi的数据质量,xi是终端设备i参与模型训练时所贡献数据集的数据贡献量,也即终端设备i的策略,表示所有终端设备的集合。
式中,S′l表示边缘聚合器的模型训练参与者,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,P表示云服务器的策略;
其中,Yn的计算公式为:
式中,|S′l|为边缘聚合器的模型训练参与者的集合S′l的基,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,Jn表示终端设备n参与模型训练时的单位成本。
在步骤S4.4中,所述云服务器的效用函数的表达式为:
uC(P)=λg(∑i∈Nθixi)-RC;
式中,λg(∑i∈Nθixi)表示电力数据学习模型的收益也即云服务器的回报,g(·)为凹函数,λ表示系统参数,且λ>0,P表示云服务器的策略,uC(P)表示云服务器的效用函数,表示所有终端设备的集合,RC表示云服务器支付给边缘聚合器的报酬,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量,xi表示终端设备i参与模型训练时所贡献数据集χi的数据贡献量,也即终端设备i的策略。
一种采用如上所述的端边云架构和完全信息下分层联邦学习的激励方法的系统,包括云服务器,所述云服务器与若干个边缘聚合器连接,每个边缘聚合器均与若干个终端设备连接,且云服务器中设有基于联邦学习算法建立的电力数据学习模型,所述边缘聚合器中设有用于向所连接的终端设备分配报酬的第一收益分配模块和用于对终端设备的数据贡献量和数据质量进行评估的策略制定模块,所述云服务器中设有用于向边缘聚合器分配报酬的第二收益分配模块,终端设备训练时第一收益分配模块依据终端设备的数据贡献量和所贡献数据集的数据质量分配报酬给对应的终端设备,边缘聚合器训练时第二收益分配模块依据其对风险厌恶程度分配报酬给对应的边缘聚合器。
本发明的有益效果:
本发明将HFL系统中的实体间的交互建模为多层斯塔伯格博弈,利用纳什均衡求解三方实体的最优策略,可以显著减少与云服务器的高成本通信,并辅以高效的端-边缘更新,显著减少运行时间和本地迭代次数,保护了终端设备的数据隐私,边缘聚合器和云服务器基于激励方法也即边缘聚合器和云服务器的策略向终端设备和边缘聚合器提供报酬,实现合理的,公平的经济收益分配,即既能激励实体参与实际的HFL训练,实现实际的系统部署,又可以使得训练的模型达到良好的训练效果以及节约成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为基于云的联邦学习、基于边缘的联邦学习和端边云分层联邦学习的流程图。
图2为本发明的系统流程示意图。
图3为本发明的性能对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
完全信息条件下是指实体的个人属性(或类型)是HFL系统中的公共信息。
实施例1:一种端边云架构和完全信息下分层联邦学习的激励方法,包括以下步骤:
S1,基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;
如图1所示,云服务器、边缘聚合器和终端设备组成了分层联邦学习系统,云服务器是领导者,也是任务发起者、模型拥有者。边缘聚合器在云服务器和多个终端设备之间运行,作为参数聚合的媒介。参与模型训练的所有终端设备的集合采用表示,且每个终端设备n维护一个数据集χn,xn是终端设备n参与模型训练时所贡献数据集χn的数据贡献量,也即终端设备n的策略。如果xn=0,表示终端设备n没有参与本轮的模型训练。所有边缘聚合器的集合采用L′={1,2,3,...,l,...,L}表示。
S2,终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;
S3,基于分层联邦学习算法在终端设备、边缘聚合器和云服务器中分别构建对应的模型演化函数ωn(t);
所述模型演化函数ωn(t)的演化公式如下:
式中,ηt表示学习率,表示Fn(ωn(t-1))损失函数的下降梯度,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Sn表示终端设备n所连接的边缘聚合器μ(n)所连接的终端设备集合。
HFL学习算法是通过最小化所有本地数据集上的损失F(ω)的整体经验风险来学习全局模型ω。在每个终端设备上进行τw次本地更新之后,每个边缘聚合器聚集其连接的终端设备上传的模型参数,然后,在每个边缘聚合器模型聚合τe次之后,云服务器再聚合所有边缘聚合器的模型,在一轮HFL训练中,云服务器聚合τc次,并将ωn(t)表示为第t次局部更新后的本地模型参数。
S4,利用纳什均衡求解终端设备、边缘聚合器、云服务器的策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化,包括如下步骤:
所述阈值∈为大于零的最小常数。
所述终端设备的效用函数的计算公式为:
所述终端设备n的收益f(xn,x-n)的计算公式为:
f(xn,x-n)=pnRμ(n); (3)
式中,pn表示终端设备n的报酬分配比例,Rμ(n)表示终端设备n所连接的边缘聚合器μ(n)给予它所连接的所有终端设备的报酬。
所述报酬分配比例pn的计算公式为:
式中,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,Sn\{n}表示从集合Sn中去除终端设备n,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量,xi表示终端设备i参与模型训练时所贡献数据集χi的数据贡献量,也即终端设备i的策略。
由于终端设备参与模型训练的训练成本包括计算成本和收集成本两部分,且这两部分与用于模型训练的数据量成正比,因此,终端设备n每一轮的训练成本也即为成本Jnxn,所述终端设备n参与每一轮模型训练的训练成本的计算公式为:
式中,λe表示能耗的权重参数,En(xn)表示终端设备n参与模型训练时进行一次本地迭代的能耗,λt表示延迟的权重参数,τc表示云服务器的模型更新数目,Tn(xn)表示终端设备n参与模型训练时进行一次本地迭代的计算时间,CE表示终端设备n收集单位数据的成本。其中,(λeEn(xn)+λtTn(xn))τcτeτw为计算成本,CExn为收集成本。
所述终端设备n参与模型训练时进行一次本地迭代的能耗En(xn)的计算公式为:
式中,ζ表示终端设备n的芯片有效电容参数,cn表示终端设备n收集单元数据的CPU周期,fn表示终端设备n的CPU周期频率。
所述终端设备n参与模型训练时进行一次本地迭代的计算时间Tn(xn)的计算公式为:
a,证明所有终端设备子博弈纳什均衡的存在性;
b,证明所有终端设备子博弈纳什均衡的唯一性;
如果在终端设备数据贡献量子博弈中有两个或两个以上的玩家,则可以根据它们所贡献数据集的数据质量和训练成本按升序顺序进行排序,然后可以找到一组模型训练参与者的集合S′n,且模型训练参与者的集合S′n中的参与者满足:
并确保有:
式中,|S′n|为模型训练参与者的集合S′n的基,Ji表示终端设备i参与模型训练时的单位成本。
所述边缘聚合器的效用函数的计算公式为:
所述边缘聚合器l的收益h(Rl)的计算公式为:
h(Rl)=ln(αl+plRC); (13)
式中,αl表示边缘聚合器l的风险规避参数,由边缘聚合器设置以反映边缘聚合器的成本,pl表示边缘聚合器l的报酬分配比例,RC表示云服务器支付给所有边缘聚合器的报酬。
所述边缘聚合器l的报酬分配比例pl的计算公式为:
式中,Sl表示边缘聚合器l所连接的终端设备集合。
式中,βl表示报酬比例系数,从成本的角度表示参与者参与HFL任务的意愿,βl越大,参与模型训练意愿越高,El表示边缘聚合器l通信的能耗,Tl表示边缘聚合器l通信的延迟,CL表示边缘聚合器的单位协调成本,|Sl|表示Sl的基。其中,CL|Sl|为协调成本,为分配给连接的终端设备的相对总报酬,τcτe(λeEl+λtTl)为通信成本。。
所述边缘聚合器l通信的延迟Tl的计算公式为:
Tl=D/rl; (16)
式中,D表示模型参数的数据大小,rl表示边缘聚合器l的最大传输速率。
所述边缘聚合器l通信的能耗El的计算公式为:
其中,过渡变量Yi的计算公式为:
由于边缘聚合器的效用函数是严格凹的,证明了所有边缘聚合器子博弈纳什均衡的存在性,在具有纳什均衡的边缘聚合器子博弈中,存在一个唯一的策略使得边缘聚合器的效用函数最大化,所述边缘聚合器的最优策略的计算公式为:
式中,P表示云服务器的策略,Yn可通过Yi得到。
S4.4,根据云服务器的收益和成本计算云服务器的效用函数,以效用函数最大化为目标求解云服务器第k步的最优策略P*,根据最优策略P*调整策略Pk;
所述云服务器的效用函数的表达式为:
uC(P)=λg(∑i∈Nθixi)-RC; (22)
式中,λg(∑i∈Nθixi)表示电力数据学习模型的收益也即云服务器的回报,g(·)为凹函数,λ表示系统参数,且λ>0,P表示云服务器服务边缘聚合器的单位价格,也即云服务器的策略,uC(P)表示云服务器的效用函数。
所述云服务器支付给所有边缘聚合器的报酬RC的计算公式为:
RC=∑i∈NθixiP; (23)
因此对于云服务器而言,其效用uC(P)为全局模型的收益减去成本,全局模型的收益反映了模型训练的性能。
所述云服务器的最优策略P*为以下问题的解:
S5,终端设备基于终端设备的最优策略更新本地的电力数据学习模型,并将更新后的电力数据学习模型发送到对应的边缘聚合器,边缘聚合器对电力数据学习模型进行聚合,并将聚合后的电力数据学习模型发送到云服务器,同时基于边缘聚合器的最优策略对终端设备进行激励发放,云服务器对电力数据学习模型进行再次聚合,并基于云服务器的最优策略对边缘聚合器进行激励发放。
本发明将HFL系统中的实体间的交互建模为多层斯塔伯格博弈,并证明了纳什均衡解的存在和唯一性,并求出了封闭解,依据求解出的封闭解来对分配经济收益。如图2所示,一轮联邦学习的过程为:每个终端设备贡献本地收集的数据并基于步骤S3中的模型演化函数对本地的电力数据学习模型进行训练,训练后传送到对应的边缘聚合器,边缘聚合器基于模型演化函数对接收到的模型进行聚合,聚合后传送到云服务器,同时边缘聚合器对终端设备进行激励发放,云服务器对接收到的模型进行再次聚合,同时对边缘聚合器进行激励发送,聚合后的模型最终发送到终端设备。
实施例2:一种端边云架构和完全信息下分层联邦学习的激励系统,包括云服务器,所述云服务器与若干个边缘聚合器连接,每个边缘聚合器均与若干个终端设备连接,且云服务器中设有基于联邦学习算法建立的电力数据学习模型。所述边缘聚合器中设有用于向所连接的终端设备分配报酬的第一收益分配模块和用于对终端设备的数据贡献量进行评估的策略制定模块,云服务器中设有用于向边缘聚合器分配报酬的第二收益分配模块,终端设备训练时第一收益分配模块依据终端设备的数据贡献量和所贡献数据集的数据质量两个指标分配经济收益给对应的终端设备,边缘聚合器训练时第二收益分配模块依据其对风险厌恶程度分配经济收益给对应的边缘聚合器。在分层联邦学习系统中更偏向于给贡献更高数据质量、更多数据量的终端设备更多的收益以及对风险厌恶程度较低的边缘聚合器更多的收益,具体的报酬分配方法和策略制定的方法均采用实施例1中所述的方法。
首先,实体在执行每一轮HFL任务之前达成收益分配模块的协议。二是实体根据所给出的策略进行训练或参数聚合。第三,云服务器评估全局模型的表现,并从中获益,模型表现越好,云服务器的获益越多。云服务器和边缘聚合器分别根据边缘聚合器和终端设备实现的性能(即达成的收益分配模块的协议)为下一层的实体支付报酬。值得注意的是,本发明提出的带收益分配模块的HFL系统是可扩展的。在横向上,它可以扩展到每层都有更多的实体,比如多云服务器来协同训练一个模型。此外,在总纵向上,可以扩展到更多的层,例如可以根据聚合的实际频率来分离出更多的层。同时收益分配模块也可根据实际的问题,或者关注的任务需求进行适当的扩展,甚至替换。
本实施例中,“端”指终端设备,如电力监控站中的巡检机器人;“边”指边缘计算,如在电力监控站就近安装部署的边缘服务器即本发明中的边缘聚合器;“云”指云中心,如大型数据总监控中心。智能巡检是电力系统安全稳定运行的基础,巡检机器人拍摄到的图像或视频需要通过图像处理方法识别设备外观、检测设备缺陷,进而实现设备状态分析与缺陷诊断。利用深度学习实现智能巡检的赋能升级已经成为了此领域的热门研究方向,其中必须解决的问题之一就是场景适用的深度学习网络模型的生成。在电力物联网架构下,采用HFL系统来训练深度学习模型,在充分利用终端的丰富数据的同时,保护电力系统中数据的隐私,并有效地降低通信开销。我们拟采用该技术实现电力物联网架构下资源分配公平的分层联邦学习系统部署。
下面阐述进行合理资源定价的必要性:例如云侧的参数服务器想采用HFL进行模型训练(例如训练卷积神经网络模型),采用端-边-云HFL进行模型训练可以显著减少与云的高成本通信,并辅以高效的端-边缘更新,显著减少运行时间和本地迭代次数。同时也利用了FL的优势,将数据保留的终端设备,保护了终端设备的数据隐私。云侧的参数服务器与终端设备和边缘侧的中间聚合器达成经济收益分配模块的协议,实现合理的,公平的经济收益分配,即既能激励实体参与实际的HFL训练,实现实际的系统部署,又可以使得训练的模型达到良好的训练效果以及节约成本。如果没有合理的资源定价,有很大的概率系统无法部署,或者会付出高成本换来较低的模型提升,从而导致较低的模型性能。可以看出,在这一过程中,制定出合理的资源定价是推动HFL部署的关键点,因此在这一过程中,就需要上述的带经济收益补偿的,资源分配合理的端-边-云架构下的HFL系统。
如图3所示,其中包括三种理性机制,分别为随机终端、贪婪终端和固定终端,这三种机制分别选择随机终端设备、全部终端设备和半数终端设备参与到博弈和训练过程。除了终端设备的选择不同以外,三种理性机制的其他设计与本发明的方法完全相同。还有三种非理性机制,随机、贪婪和固定算法是经常提到的,他们缺乏考虑终端设备或边缘聚合器的自私和理性。它们分别要求随机终端设备提供随机数据,所有终端设备提供所有数据,一半终端设备提供一半数据。
本发明所提出的方法相对于非理性机制的优势在于遵循个体理性,而相对于理性机制的优势在于终端设备的选择。从图中可以看出在云和终端设备方面,本发明提出的方法的效用比其他的理性机制要更高。这一结果符合设计有效激励机制的预期,我们希望让终端设备分配更多的奖励,鼓励训练成本低、数据质量高的终端设备贡献更多的数据,从而提高云的收益。因此提高云的效用是通过提高终端设备的效用和影响边缘聚合器的效用来实现的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,包括如下步骤:
S1,基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;
S2,终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;
S3,基于分层联邦学习算法在终端设备、边缘聚合器和云服务器中分别构建对应的模型演化函数;
S4,利用纳什均衡求解终端设备、边缘聚合器和云服务器的最优策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化;
S5,终端设备基于终端设备的最优策略更新本地的电力数据学习模型,并将更新后的电力数据学习模型发送到对应的边缘聚合器,边缘聚合器对电力数据学习模型进行聚合,并将聚合后的电力数据学习模型发送到云服务器,同时基于边缘聚合器的最优策略对终端设备进行激励发放,云服务器对电力数据学习模型进行再次聚合,并基于云服务器的最优策略对边缘聚合器进行激励发放。
3.根据权利要求1所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,所述步骤S4包括如下步骤:
S4.4,根据云服务器的收益和成本计算云服务器的效用函数,以效用函数最大化为目标求解云服务器第k步的最优策略P*,根据最优策略P*调整策略Pk;
4.根据权利要求3所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S4.2中,所述终端设备的效用函数的计算公式为:
所述终端设备n的收益f(xn,x-n)的计算公式为:
f(xn,x-n)=pnRμ(n);
式中,pn表示终端设备n的报酬分配比例,Rμ(n)表示终端设备n所连接的边缘聚合器μ(n)给予它所连接的所有终端设备的报酬;
式中,λe表示能耗的权重参数,En(xn)表示终端设备n参与模型训练时进行一次本地迭代的能耗,λt表示延迟的权重参数,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Tn(xn)表示终端设备n参与模型训练时进行一次本地迭代的计算时间,CE表示终端设备n收集单位数据的成本,xn是终端设备n参与模型训练时所贡献数据集χn的数据贡献量,也即终端设备n的策略。
a,证明所有终端设备子博弈纳什均衡的存在性;
b,证明所有终端设备子博弈纳什均衡的唯一性;
式中,|S′n|为终端设备模型训练参与者的集合S′n的基,Ji表示终端设备i参与模型训练时的单位成本,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量;
所述模型训练参与者的集合S′n中的参与者满足以下条件:
6.根据权利要求3所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S4.3中,所述边缘聚合器的效用函数的计算公式为:
所述边缘聚合器l的收益h(Rl)的计算公式为:
h(Rl)=ln(αl+plRC);
式中,αl表示边缘聚合器l的风险规避参数,pl表示边缘聚合器l的报酬分配比例,RC表示云服务器支付给所有边缘聚合器的报酬;
式中,βl表示报酬比例系数,El表示边缘聚合器l通信的能耗,Tl表示边缘聚合器l通信的延迟,CL表示边缘聚合器的单位协调成本,|Sl|表示Sl的基,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目。
10.一种采用如权利要求1所述的端边云架构和完全信息下分层联邦学习的激励方法的系统,包括云服务器,所述云服务器与若干个边缘聚合器连接,每个边缘聚合器均与若干个终端设备连接,且云服务器中设有基于联邦学习算法建立的电力数据学习模型,其特征在于,所述边缘聚合器中设有用于向所连接的终端设备分配报酬的第一收益分配模块和用于对终端设备的数据贡献量和数据质量进行评估的策略制定模块,所述云服务器中设有用于向边缘聚合器分配报酬的第二收益分配模块,终端设备训练时第一收益分配模块依据终端设备的数据贡献量和所贡献数据集的数据质量分配报酬给对应的终端设备,边缘聚合器训练时第二收益分配模块依据其对风险厌恶程度分配报酬给对应的边缘聚合器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111256017.XA CN113992676B (zh) | 2021-10-27 | 2021-10-27 | 端边云架构和完全信息下分层联邦学习的激励方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111256017.XA CN113992676B (zh) | 2021-10-27 | 2021-10-27 | 端边云架构和完全信息下分层联邦学习的激励方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113992676A true CN113992676A (zh) | 2022-01-28 |
CN113992676B CN113992676B (zh) | 2022-09-06 |
Family
ID=79742556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111256017.XA Active CN113992676B (zh) | 2021-10-27 | 2021-10-27 | 端边云架构和完全信息下分层联邦学习的激励方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113992676B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267168A (zh) * | 2021-12-24 | 2022-04-01 | 北京航空航天大学 | 一种应用于城市快速路环境下的编队资源分配方法 |
CN114584406A (zh) * | 2022-05-09 | 2022-06-03 | 湖南红普创新科技发展有限公司 | 一种联邦学习的工业大数据隐私保护系统及方法 |
CN114938372A (zh) * | 2022-05-20 | 2022-08-23 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN114945044A (zh) * | 2022-07-25 | 2022-08-26 | 北京智芯微电子科技有限公司 | 基于联邦学习的数字孪生平台构建方法、装置及设备 |
CN115329989A (zh) * | 2022-10-13 | 2022-11-11 | 合肥本源物联网科技有限公司 | 边缘计算场景下基于模型分割的同步联邦学习加速方法 |
CN116074841A (zh) * | 2023-03-07 | 2023-05-05 | 鹏城实验室 | 边缘计算可信接入方法、装置、设备及计算机存储介质 |
CN116451593A (zh) * | 2023-06-14 | 2023-07-18 | 北京邮电大学 | 基于数据质量评估的强化联邦学习动态采样方法及设备 |
CN116614504A (zh) * | 2023-07-20 | 2023-08-18 | 中国人民解放军国防科技大学 | 基于斯塔克尔伯格博弈的隐私-效率联合优化方法 |
CN117114126A (zh) * | 2023-07-07 | 2023-11-24 | 北方工业大学 | 一种Web3.0联邦学习云架构及激励方法 |
WO2024106926A1 (ko) * | 2022-11-15 | 2024-05-23 | 경희대학교 산학협력단 | 이단계 내쉬 균형을 이용한 연합 학습 방법 및 이를 이용한 장치 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070240A (zh) * | 2020-09-07 | 2020-12-11 | 清华大学 | 一种高效通信的分层联邦学习框架及其优化方法和系统 |
CN112288478A (zh) * | 2020-10-28 | 2021-01-29 | 中山大学 | 一种基于强化学习的边缘计算服务激励方法 |
WO2021022707A1 (zh) * | 2019-08-06 | 2021-02-11 | 深圳前海微众银行股份有限公司 | 一种混合联邦学习方法及架构 |
CN112367109A (zh) * | 2020-09-28 | 2021-02-12 | 西北工业大学 | 空地网络中由数字孪生驱动的联邦学习的激励方法 |
US20210174257A1 (en) * | 2019-12-04 | 2021-06-10 | Cerebri AI Inc. | Federated machine-Learning platform leveraging engineered features based on statistical tests |
CN113037876A (zh) * | 2021-05-25 | 2021-06-25 | 中国人民解放军国防科技大学 | 基于合作博弈的云下行任务边缘节点资源分配方法 |
CN113052326A (zh) * | 2021-03-26 | 2021-06-29 | 天津大学 | 一种基于分层联邦学习的轻量级激励模型的训练方法 |
-
2021
- 2021-10-27 CN CN202111256017.XA patent/CN113992676B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021022707A1 (zh) * | 2019-08-06 | 2021-02-11 | 深圳前海微众银行股份有限公司 | 一种混合联邦学习方法及架构 |
US20210174257A1 (en) * | 2019-12-04 | 2021-06-10 | Cerebri AI Inc. | Federated machine-Learning platform leveraging engineered features based on statistical tests |
CN112070240A (zh) * | 2020-09-07 | 2020-12-11 | 清华大学 | 一种高效通信的分层联邦学习框架及其优化方法和系统 |
CN112367109A (zh) * | 2020-09-28 | 2021-02-12 | 西北工业大学 | 空地网络中由数字孪生驱动的联邦学习的激励方法 |
CN112288478A (zh) * | 2020-10-28 | 2021-01-29 | 中山大学 | 一种基于强化学习的边缘计算服务激励方法 |
CN113052326A (zh) * | 2021-03-26 | 2021-06-29 | 天津大学 | 一种基于分层联邦学习的轻量级激励模型的训练方法 |
CN113037876A (zh) * | 2021-05-25 | 2021-06-25 | 中国人民解放军国防科技大学 | 基于合作博弈的云下行任务边缘节点资源分配方法 |
Non-Patent Citations (2)
Title |
---|
BO XU等: "Optimized Edge Aggregation for Hierarchical", 《IEEE》 * |
王健宗等: "联邦学习算法综述", 《大数据》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267168A (zh) * | 2021-12-24 | 2022-04-01 | 北京航空航天大学 | 一种应用于城市快速路环境下的编队资源分配方法 |
CN114584406A (zh) * | 2022-05-09 | 2022-06-03 | 湖南红普创新科技发展有限公司 | 一种联邦学习的工业大数据隐私保护系统及方法 |
CN114584406B (zh) * | 2022-05-09 | 2022-08-12 | 湖南红普创新科技发展有限公司 | 一种联邦学习的工业大数据隐私保护系统及方法 |
CN114938372B (zh) * | 2022-05-20 | 2023-04-18 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN114938372A (zh) * | 2022-05-20 | 2022-08-23 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN114945044A (zh) * | 2022-07-25 | 2022-08-26 | 北京智芯微电子科技有限公司 | 基于联邦学习的数字孪生平台构建方法、装置及设备 |
CN114945044B (zh) * | 2022-07-25 | 2022-11-08 | 北京智芯微电子科技有限公司 | 基于联邦学习的数字孪生平台构建方法、装置及设备 |
CN115329989A (zh) * | 2022-10-13 | 2022-11-11 | 合肥本源物联网科技有限公司 | 边缘计算场景下基于模型分割的同步联邦学习加速方法 |
CN115329989B (zh) * | 2022-10-13 | 2023-02-14 | 合肥本源物联网科技有限公司 | 边缘计算场景下基于模型分割的同步联邦学习加速方法 |
WO2024106926A1 (ko) * | 2022-11-15 | 2024-05-23 | 경희대학교 산학협력단 | 이단계 내쉬 균형을 이용한 연합 학습 방법 및 이를 이용한 장치 |
CN116074841A (zh) * | 2023-03-07 | 2023-05-05 | 鹏城实验室 | 边缘计算可信接入方法、装置、设备及计算机存储介质 |
CN116451593A (zh) * | 2023-06-14 | 2023-07-18 | 北京邮电大学 | 基于数据质量评估的强化联邦学习动态采样方法及设备 |
CN116451593B (zh) * | 2023-06-14 | 2023-11-14 | 北京邮电大学 | 基于数据质量评估的强化联邦学习动态采样方法及设备 |
CN117114126A (zh) * | 2023-07-07 | 2023-11-24 | 北方工业大学 | 一种Web3.0联邦学习云架构及激励方法 |
CN117114126B (zh) * | 2023-07-07 | 2024-05-31 | 北方工业大学 | 一种Web3.0联邦学习云架构及激励方法 |
CN116614504A (zh) * | 2023-07-20 | 2023-08-18 | 中国人民解放军国防科技大学 | 基于斯塔克尔伯格博弈的隐私-效率联合优化方法 |
CN116614504B (zh) * | 2023-07-20 | 2023-09-15 | 中国人民解放军国防科技大学 | 基于斯塔克尔伯格博弈的隐私-效率联合优化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113992676B (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113992676B (zh) | 端边云架构和完全信息下分层联邦学习的激励方法及系统 | |
Huang et al. | FedParking: A federated learning based parking space estimation with parked vehicle assisted edge computing | |
CN111262940B (zh) | 一种车载边缘计算应用缓存方法、装置及系统 | |
CN113992692B (zh) | 端边云架构和不完全信息下分层联邦学习的方法及系统 | |
Mashhadi et al. | Optimal auction for delay and energy constrained task offloading in mobile edge computing | |
Zhang et al. | Toward Green Metaverse Networking: Technologies, Advancements, and Future Directions | |
Lim et al. | Incentive mechanism design for resource sharing in collaborative edge learning | |
Maheswaran et al. | Efficient signal proportional allocation (ESPA) mechanisms: Decentralized social welfare maximization for divisible resources | |
CN112783662B (zh) | 集成区块链的传感边缘云任务卸载中cpu资源共享系统 | |
CN113052326A (zh) | 一种基于分层联邦学习的轻量级激励模型的训练方法 | |
Tong et al. | Stackelberg game-based task offloading and pricing with computing capacity constraint in mobile edge computing | |
CN114971819A (zh) | 基于多智能体强化学习算法在联邦学习下的用户竞价方法及装置 | |
Jiang et al. | Federated learning based mobile crowd sensing with unreliable user data | |
Li et al. | Federated learning based on Stackelberg game in unmanned-aerial-vehicle-enabled mobile edge computing | |
Han et al. | Tiff: Tokenized incentive for federated learning | |
Li et al. | Computation offloading and service allocation in mobile edge computing | |
Han et al. | Tokenized incentive for federated learning | |
Chen et al. | A pricing approach toward incentive mechanisms for participant mobile crowdsensing in edge computing | |
Yuan et al. | Low-cost federated broad learning for privacy-preserved knowledge sharing in the RIS-aided internet of vehicles | |
Wang et al. | Social-aware clustered federated learning with customized privacy preservation | |
Zhou et al. | Big data and knowledge graph based fault diagnosis for electric power systems | |
CN116501483A (zh) | 基于多智能体强化学习的车辆边缘计算任务调度方法 | |
CN114219338A (zh) | 基于联合学习的资源分配方法及装置 | |
Li et al. | A mechanism of bandwidth allocation for peer-to-peer file-sharing networks via particle swarm optimization | |
Wang et al. | Reinforcement contract design for vehicular-edge computing scheduling and energy trading via deep Q-network with hybrid action space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |