CN113992676A - 端边云架构和完全信息下分层联邦学习的激励方法及系统 - Google Patents

端边云架构和完全信息下分层联邦学习的激励方法及系统 Download PDF

Info

Publication number
CN113992676A
CN113992676A CN202111256017.XA CN202111256017A CN113992676A CN 113992676 A CN113992676 A CN 113992676A CN 202111256017 A CN202111256017 A CN 202111256017A CN 113992676 A CN113992676 A CN 113992676A
Authority
CN
China
Prior art keywords
edge
terminal device
aggregator
representing
cloud server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111256017.XA
Other languages
English (en)
Other versions
CN113992676B (zh
Inventor
王晓飞
赵云凤
刘志成
仇超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202111256017.XA priority Critical patent/CN113992676B/zh
Publication of CN113992676A publication Critical patent/CN113992676A/zh
Application granted granted Critical
Publication of CN113992676B publication Critical patent/CN113992676B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种端边云架构和完全信息下分层联邦学习的激励方法及系统,包括:基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;基于分层联邦学习算法构建模型演化函数;利用纳什均衡求解三方的最优策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化;终端设备将基于最优策略更新后的模型发送到边缘聚合器,边缘聚合器基于最优策略对终端设备进行激励发放,并将聚合后的模型发送到云服务器,云服务器基于最优策略对边缘聚合器进行激励发放,并将模型进行再次聚合。本发明可向终端设备和边缘聚合器提供报酬,实现合理公平的收益分配。

Description

端边云架构和完全信息下分层联邦学习的激励方法及系统
技术领域
本发明属于联邦学习技术领域,具体涉及一种端边云架构和完全信息下分层联邦学习的激励方法及系统。
背景技术
深度学习的最新发展彻底变革了包括电力领域在内的很多应用领域,如图像处理、自然语言处理、视频分析等。深度学习能在这些领域中取得巨大的成功源于大量训练数据和海量计算能力的可用性。但是,训练数据是由个人或不同组织拥有的分布式设备生成的。如果这些数据被泄露或用于最初目的以外的其他目的,个人隐私将受到损害。例如一些电力数据涉及个人用户隐私信息且安全性要求较高,一旦用电数据的隐私性、完整性、可用性被破坏,不仅会损害用电区域内用户自身的利益,更会对智能电网的整体性能产生不可估量的影响。许多数据所有者不愿意为训练模型共享他们的私有数据。数据隐私正逐渐成为深度学习最严重的问题之一。此外,由于数据大小、延迟和带宽的限制,很难将这些数据聚合到单个计算站点进行集中训练。联邦学习(Federated Learning,FL)的概念被提出来缓解这些问题,它允许多个用户在一个中央服务器的协调下,在不共享数据的情况下建立一个联邦模型。例如,在电力物联网架构下,利用感知层具备的较强的通信和计算能力来满足联邦学习算力和数据分布式需求。因此,移动设备上的大量分布式和隐私敏感数据可以在不泄露隐私的情况下得到很好的利用。
很多场景中的数据涉及用户隐私且安全性要求高,泛在FL的基本思想是让这些计算节点分别使用自己的数据训练局部模型,然后将局部模型而不是数据上传到逻辑上集中的参数服务器,该服务器合成一个全局模型。虽然大多数初步的FL研究假设云作为参数服务器,但是随着最近边缘计算平台的出现,研究人员已经开始研究基于边缘的FL系统,其中边缘服务器将充当参数服务器。在基于云的FL中,参与的客户端总数可达数百万,提供深度学习所需的海量数据集。同时,与云服务器的通信缓慢且不可预测,例如由于网络拥塞,这使得训练过程低效。相反,在基于边缘的FL中,由于参数服务器被放置在最接近的边缘,计算的等待时间与到边缘参数服务器的通信的等待时间相当。因此,有可能在计算和通信之间寻求更好的平衡。然而,一个缺点是每个服务器可以访问的客户端数量有限,导致不可避免的训练性能损失。从上面的比较中,看到了利用云服务器来访问大量训练样本的必要性,并且每个边缘服务器都可以与其本地客户端一起快速更新模型。然后提出了端-边-云架构下分层联邦学习(Hierarchical Federated Learning,HFL),很好地利用了云和边缘服务器的优点。与基于云的FL相比,端-边-云架构下的HFL将显著减少与云的高成本通信,并辅以高效的端-边缘更新,从而显著减少运行时间和本地迭代次数。另一方面,随着云服务器可以访问更多的数据,HFL在模型训练方面将优于基于边缘的FL。最重要的是,HFL能够发挥改善隐私的能力。简而言之,HFL可以有效地降低通信开销,同时仍能充分利用端侧的丰富数据。
尽管HFL显示出了巨大的优势,但它仍然面临着一个公开的挑战:现有的研究有一个乐观的假设,即所有端移动设备都无条件地参与模型训练并贡献自身的所有资源,由于模型训练会产生各种资源成本,这在现实世界中是不切实际的。
发明内容
针对现有的HFL系统不能很好地利用端侧设备丰富数据的问题,本发明提出了一种端边云架构和完全信息下分层联邦学习的激励方法及系统。为解决以上技术问题,本发明所采用的技术方案如下:
一种端边云架构和完全信息下分层联邦学习的激励方法,包括如下步骤:
S1,基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;
S2,终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;
S3,基于分层联邦学习算法在终端设备、边缘聚合器和云服务器中分别构建对应的模型演化函数;
S4,利用纳什均衡求解终端设备、边缘聚合器和云服务器的最优策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化;
S5,终端设备基于终端设备的最优策略更新本地的电力数据学习模型,并将更新后的电力数据学习模型发送到对应的边缘聚合器,边缘聚合器对电力数据学习模型进行聚合,并将聚合后的电力数据学习模型发送到云服务器,同时基于边缘聚合器的最优策略对终端设备进行激励发放,云服务器对电力数据学习模型进行再次聚合,并基于云服务器的最优策略对边缘聚合器进行激励发放
在步骤S3中,所述模型演化函数的演化公式为:
Figure BDA0003323870360000031
式中,ηt表示学习率,
Figure BDA0003323870360000032
表示Fnn(t-1))损失函数下的下降梯度,ωn(t)表示终端设备n中的第t个模型演化函数,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Sn表示边缘聚合器μ(n)所连接的终端设备集合,xn是终端设备n参与模型训练时所贡献数据集的数据贡献量,也即终端设备n的策略。
所述步骤S4包括如下步骤:
S4.1,初始化初始步数k=0、终端设备n在博弈过程中第k步的策略
Figure BDA0003323870360000033
边缘聚合器l在博弈过程中第k步的策略
Figure BDA0003323870360000034
云服务器在博弈过程中第k步的策略Pk,并设定阈值∈;
S4.2,执行k=k+1,根据终端设备的收益和成本计算终端设备的效用函数,以效用函数最大化为目标获取终端设备第k步的最优策略
Figure BDA0003323870360000035
根据最优策略
Figure BDA0003323870360000036
调整策略
Figure BDA0003323870360000037
S4.3,根据边缘聚合器的收益和成本计算边缘聚合器的效用函数,以边缘聚合器的效用函数最大化为目标求解边缘聚合器第k步的最优策略
Figure BDA0003323870360000041
根据最优策略
Figure BDA0003323870360000042
调整策略
Figure BDA0003323870360000043
S4.4,根据云服务器的收益和成本计算云服务器的效用函数,以效用函数最大化为目标求解云服务器第k步的最优策略P*,根据最优策略P*调整策略Pk
S4.5,判断
Figure BDA0003323870360000044
如果是返回步骤S4.2,否则输出策略
Figure BDA0003323870360000045
策略
Figure BDA0003323870360000046
策略Pk即为最终的纳什均衡解也即终端设备的最优策略
Figure BDA0003323870360000047
边缘聚合器最优策略
Figure BDA0003323870360000048
和云服务器的最优策略P*
在步骤S4.2中,所述终端设备的效用函数的计算公式为:
Figure BDA0003323870360000049
式中,f(xn,x-n)表示终端设备n的收益,Jnxn表示终端设备n的成本,Jn表示终端设备n参与模型训练时的单位成本,
Figure BDA00033238703600000410
表示终端设备n的效用函数,x-n表示属于Sn\{n}的终端设备的策略;
所述终端设备n的收益f(xn,x-n)的计算公式为:
f(xn,x-n)=pnRμ(n)
式中,pn表示终端设备n的报酬分配比例,Rμ(n)表示终端设备n所连接的边缘聚合器μ(n)给予它所连接的所有终端设备的报酬;
所述终端设备n的成本Jnxn采用终端设备n每一轮的训练成本
Figure BDA00033238703600000411
表示,训练成本
Figure BDA00033238703600000412
的计算公式为:
Figure BDA00033238703600000413
式中,λe表示能耗的权重参数,En(xn)表示终端设备n参与模型训练时进行一次本地迭代的能耗,λt表示延迟的权重参数,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Tn(xn)表示终端设备n参与模型训练时进行一次本地迭代的计算时间,CE表示终端设备n收集单位数据的成本,xn是终端设备n参与模型训练时所贡献数据集χn的数据贡献量,也即终端设备n的策略。
在步骤S4.2中,所述终端设备的最优策略
Figure BDA0003323870360000051
即为以下问题的解:
Figure BDA0003323870360000052
所述求解终端设备的最优策略
Figure BDA0003323870360000053
的步骤为:
a,证明所有终端设备子博弈纳什均衡的存在性;
b,证明所有终端设备子博弈纳什均衡的唯一性;
c,求解终端设备的最优策略
Figure BDA0003323870360000054
所述终端设备的最优策略
Figure BDA0003323870360000055
的计算公式为;
Figure BDA0003323870360000056
式中,|S′n|为终端设备模型训练参与者的集合S′n的基,
Figure BDA0003323870360000057
Ji表示终端设备i参与模型训练时的单位成本,θn表示终端设备n参与模型训练时所贡献数据集xn的数据质量,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量;
所述模型训练参与者的集合S′n中的参与者满足以下条件:
Figure BDA0003323870360000058
在步骤S4.3中,所述边缘聚合器的效用函数的计算公式为:
Figure BDA0003323870360000059
式中,h(Rl)表示边缘聚合器l的收益,
Figure BDA00033238703600000510
表示边缘聚合器l的成本,
Figure BDA00033238703600000511
表示边缘聚合器的效用函数,Rl表示边缘聚合器l分配给它所连接的终端设备的报酬,也即边缘聚合器l的策略;
所述边缘聚合器l的收益h(Rl)的计算公式为:
h(Rl)=ln(αl+plRC);
式中,αl表示边缘聚合器l的风险规避参数,pl表示边缘聚合器l的报酬分配比例,RC表示云服务器支付给所有边缘聚合器的报酬;
所述边缘聚合器l的成本
Figure BDA00033238703600000512
的计算公式为:
Figure BDA0003323870360000061
式中,βl表示报酬比例系数,El表示边缘聚合器l通信的能耗,Tl表示边缘聚合器l通信的延迟,CL表示边缘聚合器的单位协调成本,|Sl|表示Sl的基,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目。
所述边缘聚合器l的报酬分配比例pl的计算公式为:
Figure BDA0003323870360000062
式中,Sl表示边缘聚合器l所连接的终端设备集合,θi表示终端设备i参与模型训练时所贡献数据集xi的数据质量,xi是终端设备i参与模型训练时所贡献数据集的数据贡献量,也即终端设备i的策略,
Figure BDA0003323870360000063
表示所有终端设备的集合。
所述边缘聚合器的最优策略
Figure BDA0003323870360000064
的计算公式为:
Figure BDA0003323870360000065
式中,S′l表示边缘聚合器的模型训练参与者,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,P表示云服务器的策略;
其中,Yn的计算公式为:
Figure BDA0003323870360000066
式中,|S′l|为边缘聚合器的模型训练参与者的集合S′l的基,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,Jn表示终端设备n参与模型训练时的单位成本。
在步骤S4.4中,所述云服务器的效用函数的表达式为:
uC(P)=λg(∑i∈Nθixi)-RC
式中,λg(∑i∈Nθixi)表示电力数据学习模型的收益也即云服务器的回报,g(·)为凹函数,λ表示系统参数,且λ>0,P表示云服务器的策略,uC(P)表示云服务器的效用函数,
Figure BDA0003323870360000067
表示所有终端设备的集合,RC表示云服务器支付给边缘聚合器的报酬,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量,xi表示终端设备i参与模型训练时所贡献数据集χi的数据贡献量,也即终端设备i的策略。
一种采用如上所述的端边云架构和完全信息下分层联邦学习的激励方法的系统,包括云服务器,所述云服务器与若干个边缘聚合器连接,每个边缘聚合器均与若干个终端设备连接,且云服务器中设有基于联邦学习算法建立的电力数据学习模型,所述边缘聚合器中设有用于向所连接的终端设备分配报酬的第一收益分配模块和用于对终端设备的数据贡献量和数据质量进行评估的策略制定模块,所述云服务器中设有用于向边缘聚合器分配报酬的第二收益分配模块,终端设备训练时第一收益分配模块依据终端设备的数据贡献量和所贡献数据集的数据质量分配报酬给对应的终端设备,边缘聚合器训练时第二收益分配模块依据其对风险厌恶程度分配报酬给对应的边缘聚合器。
本发明的有益效果:
本发明将HFL系统中的实体间的交互建模为多层斯塔伯格博弈,利用纳什均衡求解三方实体的最优策略,可以显著减少与云服务器的高成本通信,并辅以高效的端-边缘更新,显著减少运行时间和本地迭代次数,保护了终端设备的数据隐私,边缘聚合器和云服务器基于激励方法也即边缘聚合器和云服务器的策略向终端设备和边缘聚合器提供报酬,实现合理的,公平的经济收益分配,即既能激励实体参与实际的HFL训练,实现实际的系统部署,又可以使得训练的模型达到良好的训练效果以及节约成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为基于云的联邦学习、基于边缘的联邦学习和端边云分层联邦学习的流程图。
图2为本发明的系统流程示意图。
图3为本发明的性能对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
完全信息条件下是指实体的个人属性(或类型)是HFL系统中的公共信息。
实施例1:一种端边云架构和完全信息下分层联邦学习的激励方法,包括以下步骤:
S1,基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;
如图1所示,云服务器、边缘聚合器和终端设备组成了分层联邦学习系统,云服务器是领导者,也是任务发起者、模型拥有者。边缘聚合器在云服务器和多个终端设备之间运行,作为参数聚合的媒介。参与模型训练的所有终端设备的集合采用
Figure BDA0003323870360000081
表示,且每个终端设备n维护一个数据集χn,xn是终端设备n参与模型训练时所贡献数据集χn的数据贡献量,也即终端设备n的策略。如果xn=0,表示终端设备n没有参与本轮的模型训练。所有边缘聚合器的集合采用L′={1,2,3,...,l,...,L}表示。
S2,终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;
S3,基于分层联邦学习算法在终端设备、边缘聚合器和云服务器中分别构建对应的模型演化函数ωn(t);
所述模型演化函数ωn(t)的演化公式如下:
Figure BDA0003323870360000082
式中,ηt表示学习率,
Figure BDA0003323870360000091
表示Fnn(t-1))损失函数的下降梯度,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Sn表示终端设备n所连接的边缘聚合器μ(n)所连接的终端设备集合。
HFL学习算法是通过最小化所有本地数据集上的损失F(ω)的整体经验风险来学习全局模型ω。在每个终端设备上进行τw次本地更新之后,每个边缘聚合器聚集其连接的终端设备上传的模型参数,然后,在每个边缘聚合器模型聚合τe次之后,云服务器再聚合所有边缘聚合器的模型,在一轮HFL训练中,云服务器聚合τc次,并将ωn(t)表示为第t次局部更新后的本地模型参数。
S4,利用纳什均衡求解终端设备、边缘聚合器、云服务器的策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化,包括如下步骤:
S4.1,初始化初始步数k=0、终端设备n在博弈过程中第k步的策略
Figure BDA0003323870360000092
边缘聚合器l在博弈过程中第k步的策略
Figure BDA0003323870360000093
云服务器在博弈过程中第k步的策略Pk,并设定阈值∈;
所述阈值∈为大于零的最小常数。
S4.2,执行k=k+1,根据终端设备的收益和成本计算终端设备的效用函数,以效用函数最大化为目标获取终端设备第k步的最优策略
Figure BDA0003323870360000094
根据最优策略
Figure BDA0003323870360000095
调整策略
Figure BDA0003323870360000096
所述终端设备的效用函数的计算公式为:
Figure BDA0003323870360000097
式中,f(xn,x-n)表示终端设备n的收益,Jnxn表示终端设备n的成本,Jn表示终端设备n参与模型训练时的单位成本,
Figure BDA0003323870360000098
表示终端设备n的效用函数,x-n表示属于Sn\{n}的终端设备的策略。
所述终端设备n的收益f(xn,x-n)的计算公式为:
f(xn,x-n)=pnRμ(n); (3)
式中,pn表示终端设备n的报酬分配比例,Rμ(n)表示终端设备n所连接的边缘聚合器μ(n)给予它所连接的所有终端设备的报酬。
所述报酬分配比例pn的计算公式为:
Figure BDA0003323870360000101
式中,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,Sn\{n}表示从集合Sn中去除终端设备n,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量,xi表示终端设备i参与模型训练时所贡献数据集χi的数据贡献量,也即终端设备i的策略。
由于终端设备参与模型训练的训练成本包括计算成本和收集成本两部分,且这两部分与用于模型训练的数据量成正比,因此,终端设备n每一轮的训练成本
Figure BDA0003323870360000102
也即为成本Jnxn
Figure BDA0003323870360000103
所述终端设备n参与每一轮模型训练的训练成本
Figure BDA0003323870360000104
的计算公式为:
Figure BDA0003323870360000105
式中,λe表示能耗的权重参数,En(xn)表示终端设备n参与模型训练时进行一次本地迭代的能耗,λt表示延迟的权重参数,τc表示云服务器的模型更新数目,Tn(xn)表示终端设备n参与模型训练时进行一次本地迭代的计算时间,CE表示终端设备n收集单位数据的成本。其中,(λeEn(xn)+λtTn(xn))τcτeτw为计算成本,CExn为收集成本。
所述终端设备n参与模型训练时进行一次本地迭代的能耗En(xn)的计算公式为:
Figure BDA0003323870360000106
式中,ζ表示终端设备n的芯片有效电容参数,cn表示终端设备n收集单元数据的CPU周期,fn表示终端设备n的CPU周期频率。
所述终端设备n参与模型训练时进行一次本地迭代的计算时间Tn(xn)的计算公式为:
Figure BDA0003323870360000107
式中,
Figure BDA0003323870360000108
表示终端设备n的CPU时钟周期。
所述终端设备的最优策略
Figure BDA0003323870360000109
即为以下问题的解:
Figure BDA0003323870360000111
所述求解终端设备的最优策略
Figure BDA0003323870360000112
的步骤为:
a,证明所有终端设备子博弈纳什均衡的存在性;
将终端设备n的效用函数
Figure BDA0003323870360000113
定义在欧氏空间
Figure BDA0003323870360000114
的非负、非空、紧子集上,且
Figure BDA0003323870360000115
是一个连续函数,并对于所有xn都是凹函数。
b,证明所有终端设备子博弈纳什均衡的唯一性;
使所有终端设备的效用函数
Figure BDA0003323870360000116
最大化的值是终端设备n对所有其它可能策略的最佳响应
Figure BDA0003323870360000117
所以
Figure BDA0003323870360000118
是唯一且稳定的斯塔克尔伯格均衡解,并有
Figure BDA0003323870360000119
c,求解终端设备的最优策略
Figure BDA00033238703600001110
如果在终端设备数据贡献量子博弈中有两个或两个以上的玩家,则可以根据它们所贡献数据集的数据质量和训练成本按升序顺序进行排序,然后可以找到一组模型训练参与者的集合S′n
Figure BDA00033238703600001111
且模型训练参与者的集合S′n中的参与者满足:
Figure BDA00033238703600001112
并确保有:
Figure BDA00033238703600001113
式中,|S′n|为模型训练参与者的集合S′n的基,Ji表示终端设备i参与模型训练时的单位成本。
只有满足公式(10)条件的终端设备才能参与HFL,公式(11)给出了参与HFL的终端设备的最佳策略的封闭解,当终端设备n属于集合S′n,终端设备n的最优策略,即数据贡献量为
Figure BDA00033238703600001114
反之数据贡献量则为0。
S4.3,根据边缘聚合器的收益和成本计算边缘聚合器的效用函数,以边缘聚合器的效用函数最大化为目标求解边缘聚合器第k步的最优策略
Figure BDA0003323870360000121
根据最优策略
Figure BDA0003323870360000122
调整策略
Figure BDA0003323870360000123
所述边缘聚合器的效用函数的计算公式为:
Figure BDA0003323870360000124
式中,h(Rl)表示边缘聚合器l的收益,
Figure BDA0003323870360000125
表示边缘聚合器l的成本,
Figure BDA0003323870360000126
表示边缘聚合器l的效用函数,Rl表示边缘聚合器l分配给它所连接的终端设备的报酬,也即边缘聚合器l的策略。
所述边缘聚合器l的收益h(Rl)的计算公式为:
h(Rl)=ln(αl+plRC); (13)
式中,αl表示边缘聚合器l的风险规避参数,由边缘聚合器设置以反映边缘聚合器的成本,pl表示边缘聚合器l的报酬分配比例,RC表示云服务器支付给所有边缘聚合器的报酬。
所述边缘聚合器l的报酬分配比例pl的计算公式为:
Figure BDA0003323870360000127
式中,Sl表示边缘聚合器l所连接的终端设备集合。
所述边缘聚合器l的成本
Figure BDA0003323870360000128
的计算公式为:
Figure BDA0003323870360000129
式中,βl表示报酬比例系数,从成本的角度表示参与者参与HFL任务的意愿,βl越大,参与模型训练意愿越高,El表示边缘聚合器l通信的能耗,Tl表示边缘聚合器l通信的延迟,CL表示边缘聚合器的单位协调成本,|Sl|表示Sl的基。其中,CL|Sl|为协调成本,
Figure BDA00033238703600001210
为分配给连接的终端设备的相对总报酬,τcτeeEltTl)为通信成本。。
所述边缘聚合器l通信的延迟Tl的计算公式为:
Tl=D/rl; (16)
式中,D表示模型参数的数据大小,rl表示边缘聚合器l的最大传输速率。
所述边缘聚合器l通信的能耗El的计算公式为:
Figure BDA0003323870360000131
式中,
Figure BDA0003323870360000132
表示边缘聚合器l的传输能耗。
所述边缘聚合器的最优策略
Figure BDA0003323870360000133
即为以下问题的解:
Figure BDA0003323870360000134
根据步骤S3.2得到的终端设备的最优策略
Figure BDA0003323870360000135
推导边缘聚合器的最优策略
Figure BDA0003323870360000136
以最大化边缘聚合器的效用,其中i∈Sl。因此终端设备的最优策略
Figure BDA0003323870360000137
的公式可以改写为:
Figure BDA0003323870360000138
其中,过渡变量Yi的计算公式为:
Figure BDA0003323870360000139
式中,|S′l|为边缘聚合器的模型训练参与者的集合S′l的基。由等式(11)以及为了表示方便,我们用Yi表示
Figure BDA00033238703600001310
由于边缘聚合器的效用函数是严格凹的,证明了所有边缘聚合器子博弈纳什均衡的存在性,在具有纳什均衡的边缘聚合器子博弈中,存在一个唯一的策略
Figure BDA00033238703600001311
使得边缘聚合器的效用函数
Figure BDA00033238703600001312
最大化,所述边缘聚合器的最优策略
Figure BDA00033238703600001313
的计算公式为:
Figure BDA00033238703600001314
式中,P表示云服务器的策略,Yn可通过Yi得到。
S4.4,根据云服务器的收益和成本计算云服务器的效用函数,以效用函数最大化为目标求解云服务器第k步的最优策略P*,根据最优策略P*调整策略Pk
所述云服务器的效用函数的表达式为:
uC(P)=λg(∑i∈Nθixi)-RC; (22)
式中,λg(∑i∈Nθixi)表示电力数据学习模型的收益也即云服务器的回报,g(·)为凹函数,λ表示系统参数,且λ>0,P表示云服务器服务边缘聚合器的单位价格,也即云服务器的策略,uC(P)表示云服务器的效用函数。
所述云服务器支付给所有边缘聚合器的报酬RC的计算公式为:
RC=∑i∈NθixiP; (23)
因此对于云服务器而言,其效用uC(P)为全局模型的收益减去成本,全局模型的收益反映了模型训练的性能。
所述云服务器的最优策略P*为以下问题的解:
Figure BDA0003323870360000141
云服务器的决策P由终端设备的最优策略
Figure BDA0003323870360000142
和边缘聚合器的最优策略
Figure BDA0003323870360000143
决定。云服务器作为整个博弈的领导者,知道终端设备的子博弈中存在纳什均衡,所以云服务器只需要最大化自身效用就能找到最佳策略P*
云服务器的效用函数是严格凹的,因此证明了云服务器子博弈中纳什均衡的存在性和唯一性,我们可以由终端设备的最优策略
Figure BDA0003323870360000144
和边缘聚合器的最优策略
Figure BDA0003323870360000145
来求解以下等式导出P*最优解;
Figure BDA0003323870360000146
S4.5,判断
Figure BDA0003323870360000147
如果是返回步骤S4.2,否则输出策略
Figure BDA0003323870360000148
策略
Figure BDA0003323870360000149
策略Pk即为最终的纳什均衡解也即终端设备的最优策略
Figure BDA00033238703600001410
边缘聚合器最优策略
Figure BDA00033238703600001411
和云服务器的最优策略P*
S5,终端设备基于终端设备的最优策略更新本地的电力数据学习模型,并将更新后的电力数据学习模型发送到对应的边缘聚合器,边缘聚合器对电力数据学习模型进行聚合,并将聚合后的电力数据学习模型发送到云服务器,同时基于边缘聚合器的最优策略对终端设备进行激励发放,云服务器对电力数据学习模型进行再次聚合,并基于云服务器的最优策略对边缘聚合器进行激励发放。
本发明将HFL系统中的实体间的交互建模为多层斯塔伯格博弈,并证明了纳什均衡解的存在和唯一性,并求出了封闭解,依据求解出的封闭解来对分配经济收益。如图2所示,一轮联邦学习的过程为:每个终端设备贡献本地收集的数据并基于步骤S3中的模型演化函数对本地的电力数据学习模型进行训练,训练后传送到对应的边缘聚合器,边缘聚合器基于模型演化函数对接收到的模型进行聚合,聚合后传送到云服务器,同时边缘聚合器对终端设备进行激励发放,云服务器对接收到的模型进行再次聚合,同时对边缘聚合器进行激励发送,聚合后的模型最终发送到终端设备。
实施例2:一种端边云架构和完全信息下分层联邦学习的激励系统,包括云服务器,所述云服务器与若干个边缘聚合器连接,每个边缘聚合器均与若干个终端设备连接,且云服务器中设有基于联邦学习算法建立的电力数据学习模型。所述边缘聚合器中设有用于向所连接的终端设备分配报酬的第一收益分配模块和用于对终端设备的数据贡献量进行评估的策略制定模块,云服务器中设有用于向边缘聚合器分配报酬的第二收益分配模块,终端设备训练时第一收益分配模块依据终端设备的数据贡献量和所贡献数据集的数据质量两个指标分配经济收益给对应的终端设备,边缘聚合器训练时第二收益分配模块依据其对风险厌恶程度分配经济收益给对应的边缘聚合器。在分层联邦学习系统中更偏向于给贡献更高数据质量、更多数据量的终端设备更多的收益以及对风险厌恶程度较低的边缘聚合器更多的收益,具体的报酬分配方法和策略制定的方法均采用实施例1中所述的方法。
首先,实体在执行每一轮HFL任务之前达成收益分配模块的协议。二是实体根据所给出的策略进行训练或参数聚合。第三,云服务器评估全局模型的表现,并从中获益,模型表现越好,云服务器的获益越多。云服务器和边缘聚合器分别根据边缘聚合器和终端设备实现的性能(即达成的收益分配模块的协议)为下一层的实体支付报酬。值得注意的是,本发明提出的带收益分配模块的HFL系统是可扩展的。在横向上,它可以扩展到每层都有更多的实体,比如多云服务器来协同训练一个模型。此外,在总纵向上,可以扩展到更多的层,例如可以根据聚合的实际频率来分离出更多的层。同时收益分配模块也可根据实际的问题,或者关注的任务需求进行适当的扩展,甚至替换。
本实施例中,“端”指终端设备,如电力监控站中的巡检机器人;“边”指边缘计算,如在电力监控站就近安装部署的边缘服务器即本发明中的边缘聚合器;“云”指云中心,如大型数据总监控中心。智能巡检是电力系统安全稳定运行的基础,巡检机器人拍摄到的图像或视频需要通过图像处理方法识别设备外观、检测设备缺陷,进而实现设备状态分析与缺陷诊断。利用深度学习实现智能巡检的赋能升级已经成为了此领域的热门研究方向,其中必须解决的问题之一就是场景适用的深度学习网络模型的生成。在电力物联网架构下,采用HFL系统来训练深度学习模型,在充分利用终端的丰富数据的同时,保护电力系统中数据的隐私,并有效地降低通信开销。我们拟采用该技术实现电力物联网架构下资源分配公平的分层联邦学习系统部署。
下面阐述进行合理资源定价的必要性:例如云侧的参数服务器想采用HFL进行模型训练(例如训练卷积神经网络模型),采用端-边-云HFL进行模型训练可以显著减少与云的高成本通信,并辅以高效的端-边缘更新,显著减少运行时间和本地迭代次数。同时也利用了FL的优势,将数据保留的终端设备,保护了终端设备的数据隐私。云侧的参数服务器与终端设备和边缘侧的中间聚合器达成经济收益分配模块的协议,实现合理的,公平的经济收益分配,即既能激励实体参与实际的HFL训练,实现实际的系统部署,又可以使得训练的模型达到良好的训练效果以及节约成本。如果没有合理的资源定价,有很大的概率系统无法部署,或者会付出高成本换来较低的模型提升,从而导致较低的模型性能。可以看出,在这一过程中,制定出合理的资源定价是推动HFL部署的关键点,因此在这一过程中,就需要上述的带经济收益补偿的,资源分配合理的端-边-云架构下的HFL系统。
如图3所示,其中包括三种理性机制,分别为随机终端、贪婪终端和固定终端,这三种机制分别选择随机终端设备、全部终端设备和半数终端设备参与到博弈和训练过程。除了终端设备的选择不同以外,三种理性机制的其他设计与本发明的方法完全相同。还有三种非理性机制,随机、贪婪和固定算法是经常提到的,他们缺乏考虑终端设备或边缘聚合器的自私和理性。它们分别要求随机终端设备提供随机数据,所有终端设备提供所有数据,一半终端设备提供一半数据。
本发明所提出的方法相对于非理性机制的优势在于遵循个体理性,而相对于理性机制的优势在于终端设备的选择。从图中可以看出在云和终端设备方面,本发明提出的方法的效用比其他的理性机制要更高。这一结果符合设计有效激励机制的预期,我们希望让终端设备分配更多的奖励,鼓励训练成本低、数据质量高的终端设备贡献更多的数据,从而提高云的收益。因此提高云的效用是通过提高终端设备的效用和影响边缘聚合器的效用来实现的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,包括如下步骤:
S1,基于斯塔克伯格博弈建立终端设备、边缘聚合器和云服务器之间的三层博弈模型;
S2,终端设备通过边缘聚合器下载云服务器中的电力数据学习模型;
S3,基于分层联邦学习算法在终端设备、边缘聚合器和云服务器中分别构建对应的模型演化函数;
S4,利用纳什均衡求解终端设备、边缘聚合器和云服务器的最优策略,使终端设备的效用、边缘聚合器的效用和云服务器的效用达到最大化;
S5,终端设备基于终端设备的最优策略更新本地的电力数据学习模型,并将更新后的电力数据学习模型发送到对应的边缘聚合器,边缘聚合器对电力数据学习模型进行聚合,并将聚合后的电力数据学习模型发送到云服务器,同时基于边缘聚合器的最优策略对终端设备进行激励发放,云服务器对电力数据学习模型进行再次聚合,并基于云服务器的最优策略对边缘聚合器进行激励发放。
2.根据权利要求1所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S3中,所述模型演化函数的演化公式为:
Figure FDA0003323870350000011
式中,ηt表示学习率,
Figure FDA0003323870350000012
表示Fnn(t-1))损失函数下的下降梯度,ωn(t)表示终端设备n中的第t个模型演化函数,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Sn表示边缘聚合器μ(n)所连接的终端设备集合,xn是终端设备n参与模型训练时所贡献数据集的数据贡献量,也即终端设备n的策略。
3.根据权利要求1所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,所述步骤S4包括如下步骤:
S4.1,初始化初始步数k=0、终端设备n在博弈过程中第k步的策略
Figure FDA0003323870350000021
边缘聚合器l在博弈过程中第k步的策略
Figure FDA0003323870350000022
云服务器在博弈过程中第k步的策略Pk,并设定阈值∈;
S4.2,执行k=k+1,根据终端设备的收益和成本计算终端设备的效用函数,以效用函数最大化为目标获取终端设备第k步的最优策略
Figure FDA0003323870350000023
根据最优策略
Figure FDA0003323870350000024
调整策略
Figure FDA0003323870350000025
S4.3,根据边缘聚合器的收益和成本计算边缘聚合器的效用函数,以边缘聚合器的效用函数最大化为目标求解边缘聚合器第k步的最优策略
Figure FDA0003323870350000026
根据最优策略
Figure FDA0003323870350000027
调整策略
Figure FDA0003323870350000028
S4.4,根据云服务器的收益和成本计算云服务器的效用函数,以效用函数最大化为目标求解云服务器第k步的最优策略P*,根据最优策略P*调整策略Pk
S4.5,判断
Figure FDA0003323870350000029
如果是返回步骤S4.2,否则输出策略
Figure FDA00033238703500000210
策略
Figure FDA00033238703500000211
策略Pk即为最终的纳什均衡解也即终端设备的最优策略
Figure FDA00033238703500000212
边缘聚合器最优策略
Figure FDA00033238703500000213
和云服务器的最优策略P*
4.根据权利要求3所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S4.2中,所述终端设备的效用函数的计算公式为:
Figure FDA00033238703500000214
式中,f(xn,x-n)表示终端设备n的收益,Jnxn表示终端设备n的成本,Jn表示终端设备n参与模型训练时的单位成本,
Figure FDA00033238703500000215
表示终端设备n的效用函数,x-n表示属于Sn\{n}的终端设备的策略;
所述终端设备n的收益f(xn,x-n)的计算公式为:
f(xn,x-n)=pnRμ(n)
式中,pn表示终端设备n的报酬分配比例,Rμ(n)表示终端设备n所连接的边缘聚合器μ(n)给予它所连接的所有终端设备的报酬;
所述终端设备n的成本Jnxn采用终端设备n每一轮的训练成本
Figure FDA00033238703500000216
表示,训练成本
Figure FDA0003323870350000031
的计算公式为:
Figure FDA0003323870350000032
式中,λe表示能耗的权重参数,En(xn)表示终端设备n参与模型训练时进行一次本地迭代的能耗,λt表示延迟的权重参数,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目,τw表示边缘聚合器聚合一次时终端设备的模型更新数目,Tn(xn)表示终端设备n参与模型训练时进行一次本地迭代的计算时间,CE表示终端设备n收集单位数据的成本,xn是终端设备n参与模型训练时所贡献数据集χn的数据贡献量,也即终端设备n的策略。
5.根据权利要求4所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S4.2中,所述终端设备的最优策略
Figure FDA0003323870350000033
即为以下问题的解:
Figure FDA0003323870350000034
所述求解终端设备的最优策略
Figure FDA0003323870350000035
的步骤为:
a,证明所有终端设备子博弈纳什均衡的存在性;
b,证明所有终端设备子博弈纳什均衡的唯一性;
c,求解终端设备的最优策略
Figure FDA0003323870350000036
所述终端设备的最优策略
Figure FDA0003323870350000037
的计算公式为;
Figure FDA0003323870350000038
式中,|S′n|为终端设备模型训练参与者的集合S′n的基,
Figure FDA0003323870350000039
Ji表示终端设备i参与模型训练时的单位成本,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量;
所述模型训练参与者的集合S′n中的参与者满足以下条件:
Figure FDA00033238703500000310
6.根据权利要求3所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S4.3中,所述边缘聚合器的效用函数的计算公式为:
Figure FDA0003323870350000041
式中,h(Rl)表示边缘聚合器l的收益,
Figure FDA0003323870350000042
表示边缘聚合器l的成本,
Figure FDA0003323870350000043
表示边缘聚合器的效用函数,Rl表示边缘聚合器l分配给它所连接的终端设备的报酬,也即边缘聚合器l的策略;
所述边缘聚合器l的收益h(Rl)的计算公式为:
h(Rl)=ln(αl+plRC);
式中,αl表示边缘聚合器l的风险规避参数,pl表示边缘聚合器l的报酬分配比例,RC表示云服务器支付给所有边缘聚合器的报酬;
所述边缘聚合器l的成本
Figure FDA0003323870350000044
的计算公式为:
Figure FDA0003323870350000045
式中,βl表示报酬比例系数,El表示边缘聚合器l通信的能耗,Tl表示边缘聚合器l通信的延迟,CL表示边缘聚合器的单位协调成本,|Sl|表示Sl的基,τc表示云服务器的模型更新数目,τe表示云服务器聚合一次时边缘聚合器的模型更新数目。
7.根据权利要求6所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,所述边缘聚合器l的报酬分配比例pl的计算公式为:
Figure FDA0003323870350000046
式中,Sl表示边缘聚合器l所连接的终端设备集合,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量,xi是终端设备i参与模型训练时所贡献数据集的数据贡献量,也即终端设备i的策略,
Figure FDA0003323870350000047
表示所有终端设备的集合。
8.根据权利要求6所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,所述边缘聚合器的最优策略
Figure FDA0003323870350000048
的计算公式为:
Figure FDA0003323870350000049
式中,S′l表示边缘聚合器的模型训练参与者,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,P表示云服务器的策略;
其中,Yn的计算公式为:
Figure FDA0003323870350000051
式中,|S′l|为边缘聚合器的模型训练参与者的集合S′l的基,θn表示终端设备n参与模型训练时所贡献数据集χn的数据质量,Jn表示终端设备n参与模型训练时的单位成本。
9.根据权利要求3所述的端边云架构和完全信息下分层联邦学习的激励方法,其特征在于,在步骤S4.4中,所述云服务器的效用函数的表达式为:
uC(P)=λg(∑i∈Nθixi)-RC
式中,λg(∑i∈Nθixi)表示电力数据学习模型的收益也即云服务器的回报,g(·)为凹函数,λ表示系统参数,且λ>0,P表示云服务器的策略,uC(P)表示云服务器的效用函数,
Figure FDA0003323870350000052
表示所有终端设备的集合,RC表示云服务器支付给边缘聚合器的报酬,θi表示终端设备i参与模型训练时所贡献数据集χi的数据质量,xi表示终端设备i参与模型训练时所贡献数据集Xi的数据贡献量,也即终端设备i的策略。
10.一种采用如权利要求1所述的端边云架构和完全信息下分层联邦学习的激励方法的系统,包括云服务器,所述云服务器与若干个边缘聚合器连接,每个边缘聚合器均与若干个终端设备连接,且云服务器中设有基于联邦学习算法建立的电力数据学习模型,其特征在于,所述边缘聚合器中设有用于向所连接的终端设备分配报酬的第一收益分配模块和用于对终端设备的数据贡献量和数据质量进行评估的策略制定模块,所述云服务器中设有用于向边缘聚合器分配报酬的第二收益分配模块,终端设备训练时第一收益分配模块依据终端设备的数据贡献量和所贡献数据集的数据质量分配报酬给对应的终端设备,边缘聚合器训练时第二收益分配模块依据其对风险厌恶程度分配报酬给对应的边缘聚合器。
CN202111256017.XA 2021-10-27 2021-10-27 端边云架构和完全信息下分层联邦学习的激励方法及系统 Active CN113992676B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111256017.XA CN113992676B (zh) 2021-10-27 2021-10-27 端边云架构和完全信息下分层联邦学习的激励方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111256017.XA CN113992676B (zh) 2021-10-27 2021-10-27 端边云架构和完全信息下分层联邦学习的激励方法及系统

Publications (2)

Publication Number Publication Date
CN113992676A true CN113992676A (zh) 2022-01-28
CN113992676B CN113992676B (zh) 2022-09-06

Family

ID=79742556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111256017.XA Active CN113992676B (zh) 2021-10-27 2021-10-27 端边云架构和完全信息下分层联邦学习的激励方法及系统

Country Status (1)

Country Link
CN (1) CN113992676B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114267168A (zh) * 2021-12-24 2022-04-01 北京航空航天大学 一种应用于城市快速路环境下的编队资源分配方法
CN114584406A (zh) * 2022-05-09 2022-06-03 湖南红普创新科技发展有限公司 一种联邦学习的工业大数据隐私保护系统及方法
CN114938372A (zh) * 2022-05-20 2022-08-23 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN114945044A (zh) * 2022-07-25 2022-08-26 北京智芯微电子科技有限公司 基于联邦学习的数字孪生平台构建方法、装置及设备
CN115329989A (zh) * 2022-10-13 2022-11-11 合肥本源物联网科技有限公司 边缘计算场景下基于模型分割的同步联邦学习加速方法
CN116074841A (zh) * 2023-03-07 2023-05-05 鹏城实验室 边缘计算可信接入方法、装置、设备及计算机存储介质
CN116451593A (zh) * 2023-06-14 2023-07-18 北京邮电大学 基于数据质量评估的强化联邦学习动态采样方法及设备
CN116614504A (zh) * 2023-07-20 2023-08-18 中国人民解放军国防科技大学 基于斯塔克尔伯格博弈的隐私-效率联合优化方法
CN117114126A (zh) * 2023-07-07 2023-11-24 北方工业大学 一种Web3.0联邦学习云架构及激励方法
WO2024106926A1 (ko) * 2022-11-15 2024-05-23 경희대학교 산학협력단 이단계 내쉬 균형을 이용한 연합 학습 방법 및 이를 이용한 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070240A (zh) * 2020-09-07 2020-12-11 清华大学 一种高效通信的分层联邦学习框架及其优化方法和系统
CN112288478A (zh) * 2020-10-28 2021-01-29 中山大学 一种基于强化学习的边缘计算服务激励方法
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN112367109A (zh) * 2020-09-28 2021-02-12 西北工业大学 空地网络中由数字孪生驱动的联邦学习的激励方法
US20210174257A1 (en) * 2019-12-04 2021-06-10 Cerebri AI Inc. Federated machine-Learning platform leveraging engineered features based on statistical tests
CN113037876A (zh) * 2021-05-25 2021-06-25 中国人民解放军国防科技大学 基于合作博弈的云下行任务边缘节点资源分配方法
CN113052326A (zh) * 2021-03-26 2021-06-29 天津大学 一种基于分层联邦学习的轻量级激励模型的训练方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
US20210174257A1 (en) * 2019-12-04 2021-06-10 Cerebri AI Inc. Federated machine-Learning platform leveraging engineered features based on statistical tests
CN112070240A (zh) * 2020-09-07 2020-12-11 清华大学 一种高效通信的分层联邦学习框架及其优化方法和系统
CN112367109A (zh) * 2020-09-28 2021-02-12 西北工业大学 空地网络中由数字孪生驱动的联邦学习的激励方法
CN112288478A (zh) * 2020-10-28 2021-01-29 中山大学 一种基于强化学习的边缘计算服务激励方法
CN113052326A (zh) * 2021-03-26 2021-06-29 天津大学 一种基于分层联邦学习的轻量级激励模型的训练方法
CN113037876A (zh) * 2021-05-25 2021-06-25 中国人民解放军国防科技大学 基于合作博弈的云下行任务边缘节点资源分配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BO XU等: "Optimized Edge Aggregation for Hierarchical", 《IEEE》 *
王健宗等: "联邦学习算法综述", 《大数据》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114267168A (zh) * 2021-12-24 2022-04-01 北京航空航天大学 一种应用于城市快速路环境下的编队资源分配方法
CN114584406A (zh) * 2022-05-09 2022-06-03 湖南红普创新科技发展有限公司 一种联邦学习的工业大数据隐私保护系统及方法
CN114584406B (zh) * 2022-05-09 2022-08-12 湖南红普创新科技发展有限公司 一种联邦学习的工业大数据隐私保护系统及方法
CN114938372B (zh) * 2022-05-20 2023-04-18 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN114938372A (zh) * 2022-05-20 2022-08-23 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN114945044A (zh) * 2022-07-25 2022-08-26 北京智芯微电子科技有限公司 基于联邦学习的数字孪生平台构建方法、装置及设备
CN114945044B (zh) * 2022-07-25 2022-11-08 北京智芯微电子科技有限公司 基于联邦学习的数字孪生平台构建方法、装置及设备
CN115329989A (zh) * 2022-10-13 2022-11-11 合肥本源物联网科技有限公司 边缘计算场景下基于模型分割的同步联邦学习加速方法
CN115329989B (zh) * 2022-10-13 2023-02-14 合肥本源物联网科技有限公司 边缘计算场景下基于模型分割的同步联邦学习加速方法
WO2024106926A1 (ko) * 2022-11-15 2024-05-23 경희대학교 산학협력단 이단계 내쉬 균형을 이용한 연합 학습 방법 및 이를 이용한 장치
CN116074841A (zh) * 2023-03-07 2023-05-05 鹏城实验室 边缘计算可信接入方法、装置、设备及计算机存储介质
CN116451593A (zh) * 2023-06-14 2023-07-18 北京邮电大学 基于数据质量评估的强化联邦学习动态采样方法及设备
CN116451593B (zh) * 2023-06-14 2023-11-14 北京邮电大学 基于数据质量评估的强化联邦学习动态采样方法及设备
CN117114126A (zh) * 2023-07-07 2023-11-24 北方工业大学 一种Web3.0联邦学习云架构及激励方法
CN117114126B (zh) * 2023-07-07 2024-05-31 北方工业大学 一种Web3.0联邦学习云架构及激励方法
CN116614504A (zh) * 2023-07-20 2023-08-18 中国人民解放军国防科技大学 基于斯塔克尔伯格博弈的隐私-效率联合优化方法
CN116614504B (zh) * 2023-07-20 2023-09-15 中国人民解放军国防科技大学 基于斯塔克尔伯格博弈的隐私-效率联合优化方法

Also Published As

Publication number Publication date
CN113992676B (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
CN113992676B (zh) 端边云架构和完全信息下分层联邦学习的激励方法及系统
Huang et al. FedParking: A federated learning based parking space estimation with parked vehicle assisted edge computing
CN111262940B (zh) 一种车载边缘计算应用缓存方法、装置及系统
CN113992692B (zh) 端边云架构和不完全信息下分层联邦学习的方法及系统
Mashhadi et al. Optimal auction for delay and energy constrained task offloading in mobile edge computing
Zhang et al. Toward Green Metaverse Networking: Technologies, Advancements, and Future Directions
Lim et al. Incentive mechanism design for resource sharing in collaborative edge learning
Maheswaran et al. Efficient signal proportional allocation (ESPA) mechanisms: Decentralized social welfare maximization for divisible resources
CN112783662B (zh) 集成区块链的传感边缘云任务卸载中cpu资源共享系统
CN113052326A (zh) 一种基于分层联邦学习的轻量级激励模型的训练方法
Tong et al. Stackelberg game-based task offloading and pricing with computing capacity constraint in mobile edge computing
CN114971819A (zh) 基于多智能体强化学习算法在联邦学习下的用户竞价方法及装置
Jiang et al. Federated learning based mobile crowd sensing with unreliable user data
Li et al. Federated learning based on Stackelberg game in unmanned-aerial-vehicle-enabled mobile edge computing
Han et al. Tiff: Tokenized incentive for federated learning
Li et al. Computation offloading and service allocation in mobile edge computing
Han et al. Tokenized incentive for federated learning
Chen et al. A pricing approach toward incentive mechanisms for participant mobile crowdsensing in edge computing
Yuan et al. Low-cost federated broad learning for privacy-preserved knowledge sharing in the RIS-aided internet of vehicles
Wang et al. Social-aware clustered federated learning with customized privacy preservation
Zhou et al. Big data and knowledge graph based fault diagnosis for electric power systems
CN116501483A (zh) 基于多智能体强化学习的车辆边缘计算任务调度方法
CN114219338A (zh) 基于联合学习的资源分配方法及装置
Li et al. A mechanism of bandwidth allocation for peer-to-peer file-sharing networks via particle swarm optimization
Wang et al. Reinforcement contract design for vehicular-edge computing scheduling and energy trading via deep Q-network with hybrid action space

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant