CN114219097B - 一种基于异构资源之上的联邦学习训练和预测方法及系统 - Google Patents

一种基于异构资源之上的联邦学习训练和预测方法及系统 Download PDF

Info

Publication number
CN114219097B
CN114219097B CN202111447303.4A CN202111447303A CN114219097B CN 114219097 B CN114219097 B CN 114219097B CN 202111447303 A CN202111447303 A CN 202111447303A CN 114219097 B CN114219097 B CN 114219097B
Authority
CN
China
Prior art keywords
training
model
parameter
server
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111447303.4A
Other languages
English (en)
Other versions
CN114219097A (zh
Inventor
汪秀敏
陈帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202111447303.4A priority Critical patent/CN114219097B/zh
Publication of CN114219097A publication Critical patent/CN114219097A/zh
Application granted granted Critical
Publication of CN114219097B publication Critical patent/CN114219097B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Bioethics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开一种基于异构资源之上的联邦学习训练和预测方法及系统,所述方法包括如下步骤:服务端确定卷积神经网络模型的学习任务和预测函数;使用联邦学习训练机器学习模型,对联邦学习场景中异构设备的计算和通信资源进行建模,根据边缘设备训练过程的所产生的延时来不断估计,并区分不同设备的资源异构特征,并提出两种策略以适应性地去调整联邦学习每轮选择边缘设备的方式以及训练过程为边缘设备所设置的训练强度,以充分利用高性能边缘设备的计算资源,减少通信、以及掉队边缘设备所带来的影响,本发明能够估计异构设备的差异性,并加快联邦学习训练的速度,对训练过程进行优化,同时能保护多参与方的数据隐私。

Description

一种基于异构资源之上的联邦学习训练和预测方法及系统
技术领域
本发明属于物联网智能医疗相关领域,尤其涉及是指一种基于异构资源之上的联邦学习训练和预测方法及系统。
背景技术
医疗数据——诸如电子病历(EHR)、医学影像等——一方面对精准健康的实现有奠基性的作用,另一方面,这些数据往往分散在各处,因其敏感性而很难被共享。例如:智能手表收集到了个人实时心跳数据,研究者试图使用这些数据,结合电子病历,训练模型在数月前预测中风。但是智能手表厂商和医院的病历记录,都以隐私理由拒绝数据公开。鉴于这样的关键因素,数据存储和分析的趋势正在从基于云的集中式转向分布式和设备上的。这种转变的关键使能技术是边缘计算,它通过提供计算资源以支持物联网设备卸载复杂的计算任务或应用。通过边缘计算,可以有效解决物联网设备计算能力不足、向云服务器卸载延迟高、数据安全等问题。
由于边缘计算和分布式机器学习的快速发展(S.Arisdakessian,Q.A.Wahab,A.Mourad,H.Otrok,and N.Kara,|Intelligent Multi-Criteria IoT-Fog SchedulingApproach llsing Game Theory.Transactions on Networking,2020.),人们提出了一种新的分布式机器学习范式——联邦学习,以在边缘节点或终端设备级别,在不暴露原始数据的情况下,协同训练机器学习模型实现本地和分布式机器学习训练。联邦学习通常采用参数服务器架构,其中终端训练由参数服务器同步的本地模型。
联邦学习是分布式优化的一个新兴子领域,其中数据收集和模型训练都被推送到大量通信和计算能力有限的边缘客户端,来解决隐私和协作分布式学习相关的问题。然而,在资源受限的物联网设备中部署联邦学习有很多挑战,比如设备在训练中的异步参与,以及防止恶意设备参与的必要性等。物联网设备在计算速度和网络行为方面具有高度异构性,并且分布广泛。许多此类分布式物联网基础设施的应用需要用户隐私保护和有限时间(低延迟)响应。因此,在资源高度异构的物联网中,一个经济实用的隐私保护协作学习解决方案是有用的。
现有的联邦学习的研究中,大量研究专注于数据统计挑战以及多参与方的激励问题的研究,企图加快联邦学习训练的进度,已有很多文献在这些方面展开了调研。然而,通信效率与计算效率在联邦学习中的影响也是一个不容小觑的问题,若联邦学习训练过程中存在掉队者(因通信或计算力低下的原因),则会影响整个联邦学习的进度,拉长联邦学习训练所花费的时间(H.B.McMahan,E.Moore,D.Ramage,S.Hampson,and B.A.Arcas,“Communication-efficient learning of deep networks from decentralized deta,"in Proceedings of Machine Learning Research,vol.54,pp.1273-1282,Apr.),因此有必要在计算和通信方面优化联邦学习的训练速度,特别是在一些高动态实时场景下,这种问题更是愈发关键。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于MAB的异构联邦学习训练方法,使用bandit模型来区分设备的计算、通信资源的异构性,并将利用估计出的bandit模型来选择每轮联邦学习的训练设备,通过各个设备的计算异构性对不同设备的训练强度进行调整,在边缘设备与设备之间采用异步的通信方式减缓同步联邦学习每轮的等待时间,以及慢设备带来的训练速度过慢的影响,同时在医疗数据方面对精准健康的实现有奠基性的作用,另一方面,这为分散在各处的数据能够被共享,能够改善联邦学习训练方式,加速联邦学习训练的速度。
本发明至少通过如下技术方案之一实现。
一种基于异构资源之上的联邦学习训练和预测方法,包括如下步骤:
S1、服务端确定卷积神经网络模型的学习任务和预测函数;
S2、参数服务器初始化神经网络模型参数,以及各个边缘设备的多臂老虎机(MAB)模型参数;随机选择若干设备,向每个被选中设备发布预设的卷积神经网络模型参数;
S3、设备利用本地数据训练服务器发来的模型参数后将训练结果返回给服务端;
S4、参数服务器在收到满足条件的本地模型参数后,利用设备训练所产生的信息来更新卷积神经网络的全局模型参数;
S5、服务器根据MAB模型,从候选边缘设备列表中选择部分边缘设备进行本地模型训练;
S6、利用被选的边缘设备的MAB模型,为被选中的边缘设备设置训练强度,并回到步骤S3,直到全局模型聚合的次数到达预设的数目。
进一步地,步骤S1中包括以下步骤:
S11、模型初始化:初始化卷积神经网络模型参数;边缘设备i的模型参数为wi,服务器的全局模型参为数w;
S12、设置训练任务和预测函数:定义特征空间X和标签集合Y={1,···,B},B为标签总数;设(x,y)表示标记样本,x∈X,y∈Y;
设置预测函数,用于根据输入的特征信息预测对应的结果:
fw:X→S
S={z|∑j∈TZj=1,zj≥0}
式中,S表示为每个样本对应不同标签的概率向量,zj表示样本归类为标签j的概率,w为预测函数的参数,即训练的模型参数;函数fw为每个样本产生的概率向量;
S13、预测函数的损失函数定义为交叉熵:
其中p表示真实的概率分布,为预测样本x属于第j类标签的概率。
进一步地,利用联邦学习训练卷积神经网络模型模型,训练内容具体包括:服务器和边缘设备的通信内容(w,τ)和(wi,tc),其中w为预测函数的全局的参数,τ表示服务端为边缘设备设置的训练强度,wi表示边缘设备i所训练出来的本地参数,tc表示边缘设备执行本地训练所耗费的时间。
进一步地,步骤S5包括:参数服务器利用MAB模型估计设备计算、通信资源的异构性,并据此从候选边缘设备列表中选择部分边缘设备进行本地模型训练,具体包括:
参数服务器为每个边缘设备i维护关于计算能力和通信能力的MAB模型参数:Δi分别表示计算能力的经验均值、通信能力的经验均值、和用于估计UCB上界的信息参数;
其中,ni表示设备i至今被选中的次数,为设备i通信能力的一次观测值,/>为设备i计算能力的一次观测值,M为边缘设备的总数;设备i的计算能力的上界/>表示为:/>
每个设备i的通信能力的上界表示为:/>
在获取到每个设备的计算能力和通信能力的上界,定义每个设备的奖励riμ1、μ2表示为奖励设置中计算能力和通信能力的权重参数;
以各个设备的奖励作为被选中的权重,随机从候选的设备列表中选出若干设备,选择的设备个数和当前活跃的设备数即当前正处于训练的设备数之和等于C,且不含重复设备;具体方式采用轮盘赌算法,首先计算所有设备权重的总和sum,生成从0-sum之间的一个随机数random,然后遍历所有的设备,将sum减去设备的权重,直到减为负数时该设备被选择中,将此设备从中剔除,反复执行上述选择方法,得到被选中的设备列表。
进一步地,参数服务器使用适应性或固定策略,利用被选的边缘设备的bandit模型为边缘设备设置训练强度τ。
进一步地,所述适应性策略为:服务端维护全局的平均训练能力参数
其中M为边缘设备的总数;在选中的边缘设备列表中,训练强度的设置方式为:
其中,τ0为初始强度,为设备i的计算能力的上界。
进一步地,固定策略包括:若服务端在t时进行全局更新那下次全局更新的时机为t+T,对被选中的每个边缘设备i,训练强度的设置为:
其中β是超参数,rand()表示(0,1)之间的随机数,hi表示一次通信的数据量,vi边缘设备i的数据传输速率,参数T表示服务端全局更新的时间间隔。
进一步地,参数服务器更新卷积神经网络的全局模型参数具体包括:
在进行全局聚合时,每个设备i所返回的内容包括以下信息:wi、τi,、bi,,分别表示设备模型参数、训练模型所使用的训练强度、训练模型所基于的全局模型版本、训练时设备所使用的数据量大小;这些都打包作为集合的元素,全局模型参数聚合策略为:
其中,
式中,k表示当前的全局模型版本,表示每个设备所返回的内容集合,w为全局模型参数,gi为不同边缘设备的本地模型参数的聚合权重,分子表示训练强度越大权重越高,分母表示边缘设备训练的模型参数所基于的全局模型参数越旧则权重越低,k为当前服务器的全局模型版本。
实现所述的一种基于异构资源之上的联邦学习训练和预测方法的系统,包括:
设备选择单元:采用MAB模型区分设备的计算、通信异质性,并利用区分出的这两种信息作为联邦学习中每一轮设备被选择的依据,得到选择的设备列表;
设备训练强度设置单元:根据每个设备MAB模型所估计出的设备计算能力,为将选中的设备设置相应的训练强度,进行联邦学习训练;
全局更新控制和聚合单元:根据预先设置好的控制策略和控制参数,等待满足预先设置的条件时执行全局模型聚合、参数更新。
进一步地,全局更新控制和聚合单元具体包括适应性策略和固定策略:
适应性策略:设置的超参数为α,设每次活跃的设备数最多为N,采用适应性策略时,服务端等待收到α×N个设备更新结果时触发全局参数更新;
固定策略:该策略需要设置的超参数有β、T,采用固定策略周期性地触发全局参数更新,周期为T,其中超参数β则是用于设置被选中设备的训练强度参数。
与现有技术相比,本发明具有如下有益效果:
(1)本发明采用联邦学习方式能够跨机构的使用敏感数据,隐私计算(PrivacyComputing),即让参与方在不泄露各自数据的前提下通过协作对数据进行联合机器学习和联合分析,在不泄露隐私的前提下联合多方数据,为多方带来增益。
(2)本发明为了优化训练过程,使用bandit模型可以区分设备的计算、通信资源的异构性,并将利用估计出的bandit模型来选择每轮联邦学习的训练设备,通过各个设备的计算异构性对不同设备的训练强度进行调整,在边缘设备与设备之间采用异步的通信方式减缓同步联邦学习每轮的等待时间,以及慢设备带来的训练速度过慢的影响;
(3)本发明充分考虑到异步训练可能带来的模型不一致和训练不一致的情况,能够改善联邦学习训练方式,加速联邦学习训练的速度。
附图说明
图1为本发明实施例一种基于异构资源之上的联邦学习训练和预测方法的流程图;
图2为本发明实施例提供的基于异构资源之上的联邦学习优化系统的结构图。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
本发明通过研究移动边缘计算中计算卸载优化问题,提出了一种基于MAB的异构联邦学习训练方法,同时可以保护用户的隐私数据;bandit模型来区分设备的计算、通信资源的异构特性;
如图1所示,本实施例的一种基于异构资源之上的联邦学习训练和预测方法,包括如下步骤:
采用联邦学习训练卷积神经网络(CNN)模型:
初始化模型参数;边缘设备i的模型参数为wi,服务器的全局模型参数为w;考虑一个特定的训练任务(以分类某种症状任务为例):设(x,y)表示一个特定的标记样本,x是用户的健康特征信息,y是特征对应的某种症状,x∈X,y∈Y,X表示紧凑的特征空间,Y={1,···,B}表示标签集合,B为标签总数。
定义预测函数,根据输入的特征信息预测症状的结果:
fw:X→S
S={z|∑j∈Yzj=1,zj≥0}
式中,S表示为每个样本的一个对应不同标签的概率向量,w为预测函数的参数,即服务器的全局模型参数,函数fw为每个样本产生一个概率向量,zj表示样本归类为标签j的概率;
其预测函数的损失函数可定义为交叉熵:
式中p表示训练目标所需要学习的真实的概率分布,为预测样本属于第i类的概率;
学习问题是优化预测函数:
在联邦学习中,设总共有M个边缘设备(所述边缘设备包括智能手表、传感设备、手机等);第j个设备具有遵循数据分布p(j)的m(j)个数据样本,这是该设备上样本{x,y}的联合分布。在每个t回合中(全局聚合的次数),选择若干个边缘设备,每个设备从服务器下载当前全局模型权重参数wt,并在本地进行以下随机梯度下降(SGD)训练:
式中为边缘设备进行本地训练所产生的模型参数,wt-1表示边缘设备在开启本地训练时服务器所发送的的全局模型参数、η为学习率、/>表示损失函数所产生的梯度,损失函数l(wt-1)由交叉熵表示为/> 为预测样本x属于第i类标签的概率。
然后所有设备将设备自身的模型参数上传到边缘服务器;将边缘服务器的参数进行更新并进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,并将云服务器的参数进行更新。
具体实施流程如下:
初始时,服务端随机选择C个设备,保存至集合中,服务器向每个设备/>发送(τi,k=0,w,t′),其中τi为设备i设置的训练强度,k=0为发送的模型版本(初始为0,每执行一次全局模型聚合,全局模型版本就加一),w为当前的全局模型参数,t′为发送参数时的时间戳;
收到参数数据的设备i,首先记录收到参数的时间戳ts,然后,用随机梯度下降SGD算法在本地数据集上对模型参数w下进行τi次迭代训练(wi=w),得到本地训练模型参数wi,每次迭代训练的公式为:
式中表示损失函数对模型参数所产生的梯度,并在训练结束时记录时间戳te,最后将(wi,te-ts,k,t′)打包发送给服务端,参数数据分别表示训练后的本地模型参数wi,训练过程耗费的时间te-ts,k表示本次设备训练所基于的全局模型的版本,t′表示设备接收到模型参数的时间戳(收到参数数据的设备i会并行地执行这一过程)。
此时服务端有一个更新进程来接收边缘设备发送过来的数据(wi,tc,bi,t′),并将(wi,tc,bi,t′,t)作为元组放入集合中(bi为本地模型参数wi所基于的全局模型版本,tc为训练强度为τi时训练过程耗费的时间te-ts,t为服务端在收到数据时的时间戳),此时服务端根据预先设置的更新策略来进行下一步操作;预先设置的更新策略包括适应性策略和固定策略。
采用适应性策略时,服务端在集合中所收到的边缘设备发来的元素个数大于α×C时触发更新程序,α∈(0,1]表示异步训练的程度,越接近1则越接近于同步训练,越接近0则越趋近于异步训练;
采用固定策略时,服务端则会周期性地触发更新程序,周期为T;更新程序被触发时会执行三个操作:
更新全局模型参数w:
其中,
式中为全局模型参数,gi为不同边缘设备的本地模型参数的聚合权重,分子表示训练强度越大权重越高,分母表示边缘设备训练的模型参数所基于的全局模型参数越旧则权重越低,Di表示边缘设备i的样本数据集合。
k表示当前的全局模型版本,采用这种模型聚合方式主要是考虑到异构设备的训练强度的差异、本地模型的新旧程度的不同以及数据量的差别,训练强度越大的设备所带来的贡献理应越高,而本地模型所基于的全局模型版本的老化程度越高那么带来的模型偏差会较高所以模型参数的权重应当越小;
然后集合置空;k=k+1;
之后的每个回合k中,服务端用MAB模型来选择边缘设备,具体地:
参数服务器为每个边缘设备i维护关于计算能力和通信能力的MAB模型参数,先利用前一回合所接收到的数据按如下规则更新设备i计算能力的均值设备i通信能力的均值/>设备i被选中的次数ni
ni=ni+1
计算用于估计UCB上界的信息参数:
其中,ni表示设备i至今被选中的次数,k=ni为设备i通信能力的一次观测值,为设备i计算能力的一次观测值,M为边缘设备的总数;
然后更新所有设备的计算、通信能力的上界:
计算上界的方式是一种乐观估计,通过不断地观测各个设备的计算、通信能力值来区分它们的能力差异;
这里计算能力的一次观测值表示为:
其中为设备i第k次训练的训练强度,/>设备i第k次训练在计算上所花费的时间,即设备i训练结束后向服务器返回的tc值;
通信能力的一次观测值定义为:
其中为设备i第k次训练时的和服务器通信的数据量,/>设备i第k次训练在和服务器通信时所花费的时间,即t-t′-tc
在获取设备的计算和通信的上界之后,得到设备i的选择权重
采用轮盘赌算法,计算所有设备权重的总和sum=∑ri,生成从0-sum之间的一个随机数random,然后遍历所有的设备,将random减去设备的权重,直到减为负数时该设备被选择中,将此设备从中剔除,反复执行轮盘赌方法,得到被选中的设备列表S;
在选好设备之后,需要根据预设的策略设置训练强度,对于每个设备i∈S,其训练强度τi设置根据预设的方法有两种策略适应性和固定:
适应性策略:
其中,τ0为初始强度,为全局的平均计算能力;
这种修改方式是为了根据设备的计算能力来调整训练强度,当边缘设备的计算能力较弱时,较高的训练强度势必会导致更长的训练时间,为此,理应降低其迭代训练的次数;类似地,当边缘设备的计算能力较强时,应增加其迭代训练的次数;判断能力强弱的准则则是以全局的平均计算能力为基准:
固定策略:
hi表示一次通信的数据量,vi边缘设备i的数据传输速率;
β是超参数,rand()表示(0,1)之间的随机数;该方法的使用是基于以下原因:
根据设备计算能力的定义,可以粗略地认为设备i在训练强度τi下的训练时间为
那么从服务器发送一个参数到接收到这个参数的更新所耗费的时间大致为(通信耗费的时间),则希望参数尽可能在下一回合周期T开始之前到达,而又不希望训练得太少,所以将设备i在训练强度τi下的训练时间设置为:
随后同样将(τi,k,w,t′)发送给每个被选中设备,被选中设备同样如上述一般参与到本地训练中,服务端的触发更新和更新策略同前文所述一样;
直到回合数到达预设的数目K,训练结束。
如图2所示的一种基于异构资源之上的联邦学习训练和预测方法的系统,包括:
设备选择单元201:采用MAB模型区分设备的计算、通信异质性,并利用两种信息作为联邦学习中每一轮设备被选择的依据,得到选择的设备列表;
设备训练强度设置单元202:根据每个设备MAB模型所估计出的设备计算能力,为将选中的设备设置相应的训练强度,进行联邦学习训练;
全局更新控制和聚合单元203:根据预先设置好的控制策略和控制参数,等待满足预先设置的条件时执行全局模型聚合、参数更新。全局更新控制和聚合单元具体包括适应性更新控制策略和固定更新控制策略:
适应性策略:设置的超参数为α,设每次活跃的设备数最多为N,采用适应性策略时,服务端等待收到α×N个设备更新结果时触发全局参数更新;
固定策略:该策略需要设置的超参数有β、T,采用固定策略是周期性地触发全局参数更新模块,周期为T,其中超参数β则是用于设置被选中设备的训练强度设置时所需要的参数。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。

Claims (9)

1.一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,包括如下步骤:
S1、服务端确定卷积神经网络模型的学习任务和预测函数;
S2、参数服务器初始化神经网络模型参数,以及各个边缘设备的MAB模型参数;随机选择若干设备,向每个被选中设备发布预设的卷积神经网络模型参数;
S3、设备利用本地数据训练服务器发来的模型参数后将训练结果返回给服务端;
S4、参数服务器在收到满足条件的本地模型参数后,利用设备训练所产生的信息来更新卷积神经网络的全局模型参数;
S5、服务器根据MAB模型,从候选边缘设备列表中选择部分边缘设备进行本地模型训练,步骤S5包括:参数服务器利用MAB模型估计设备计算、通信资源的异构性,并据此从候选边缘设备列表中选择部分边缘设备进行本地模型训练,具体包括:
参数服务器为每个边缘设备i维护关于计算能力和通信能力的MAB模型参数:Δi分别表示计算能力的经验均值、通信能力的经验均值、和用于估计UCB上界的信息参数;
其中,ni表示设备i至今被选中的次数,为设备i通信能力的一次观测值,/>为设备i计算能力的一次观测值,M为边缘设备的总数;设备i的计算能力的上界/>表示为:
每个设备i的通信能力的上界表示为:/>
在获取到每个设备的计算能力和通信能力的上界,定义每个设备的奖励riμ1、μ2表示为奖励设置中计算能力和通信能力的权重参数;
以各个设备的奖励作为被选中的权重,随机从候选的设备列表中选出若干设备,选择的设备个数和当前活跃的设备数即当前正处于训练的设备数之和等于C,且不含重复设备;具体方式采用轮盘赌算法,首先计算所有设备权重的总和sum,生成从0-sum之间的一个随机数random,然后遍历所有的设备,将sum减去设备的权重,直到减为负数时该设备被选中,将此设备从中剔除,反复执行上述选择方法,得到被选中的设备列表;
S6、利用被选的边缘设备的MAB模型,为被选中的边缘设备设置训练强度,并回到步骤S3,直到全局模型聚合的次数到达预设的数目。
2.根据权利要求1所述的一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,步骤S1中包括以下步骤:
S11、模型初始化:初始化卷积神经网络模型参数;边缘设备i的模型参数为wi,服务器的全局模型参为数w;
S12、设置训练任务和预测函数:定义特征空间X和标签集合Y={1,···,B},B为标签总数;设(x,y)表示标记样本,x∈X,y∈Y;
设置预测函数,用于根据输入的特征信息预测对应的结果:
fw:X→S
S={z|∑j∈Yzj=1,zj≥0}
式中,S表示为每个样本对应不同标签的概率向量,zj表示样本归类为标签j的概率,w为预测函数的参数,即训练的模型参数;函数fw为每个样本产生的概率向量;
S13、预测函数的损失函数定义为交叉熵:
其中p表示真实的概率分布,为预测样本x属于第j类标签的概率。
3.根据权利要求1所述的一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,利用联邦学习训练卷积神经网络模型,训练内容具体包括:服务器和边缘设备的通信内容(w,τ)和(wi,tc),其中w为预测函数的全局的参数,τ表示服务端为边缘设备设置的训练强度,wi表示边缘设备i所训练出来的本地参数,tc表示边缘设备执行本地训练所耗费的时间。
4.根据权利要求1所述的一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,参数服务器使用适应性或固定策略,利用被选的边缘设备的bandit模型为边缘设备设置训练强度τ。
5.根据权利要求4所述的一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,所述适应性策略为:服务端维护全局的平均训练能力参数
其中M为边缘设备的总数;在选中的边缘设备列表中,训练强度的设置方式为:
其中,τ0为初始强度,为计算能力的经验均值。
6.根据权利要求4所述的一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,固定策略包括:若服务端在t时进行全局更新那下次全局更新的时机为t+T,对被选中的每个边缘设备i,训练强度的设置为:
其中β是超参数,rand()表示(0,1)之间的随机数,hi表示一次通信的数据量,vi边缘设备i的数据传输速率,参数T表示服务端全局更新的时间间隔。
7.根据权利要求1~6任一项所述的一种基于异构资源之上的联邦学习训练和预测方法,其特征在于,参数服务器更新卷积神经网络的全局模型参数具体包括:
在进行全局聚合时,每个设备i所返回的内容包括以下信息:wi、τi、bi,分别表示设备模型参数、训练模型所使用的训练强度、训练模型所基于的全局模型版本、训练时设备所使用的数据量大小;这些都打包作为集合W的元素,全局模型参数聚合策略为:
其中,
式中,k表示当前的全局模型版本,表示每个设备所返回的内容集合,w为全局模型参数,gi为不同边缘设备的本地模型参数的聚合权重,分子表示训练强度越大权重越高,分母表示边缘设备训练的模型参数所基于的全局模型参数越旧则权重越低,k为当前服务器的全局模型版本,Di表示边缘设备i的样本数据集合。
8.实现权利要求1所述的一种基于异构资源之上的联邦学习训练和预测方法的系统,其特征在于,包括:
设备选择单元:采用MAB模型区分设备的计算、通信异质性,并利用区分出的这两种信息作为联邦学习中每一轮设备被选择的依据,得到选择的设备列表;
设备训练强度设置单元:根据每个设备MAB模型所估计出的设备计算能力,为将选中的设备设置相应的训练强度,进行联邦学习训练;
全局更新控制和聚合单元:根据预先设置好的控制策略和控制参数,等待满足预先设置的条件时执行全局模型聚合、参数更新。
9.根据权利要求8所述的系统,其特征在于,全局更新控制和聚合单元具体包括适应性策略和固定策略:
适应性策略:设置的超参数为α,设每次活跃的设备数最多为N,采用适应性策略时,服务端等待收到α×N个设备更新结果时触发全局参数更新;
固定策略:该策略需要设置的超参数有β、T,采用固定策略周期性地触发全局参数更新,周期为T,其中超参数β则是用于设置被选中设备的训练强度参数。
CN202111447303.4A 2021-11-30 2021-11-30 一种基于异构资源之上的联邦学习训练和预测方法及系统 Active CN114219097B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111447303.4A CN114219097B (zh) 2021-11-30 2021-11-30 一种基于异构资源之上的联邦学习训练和预测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111447303.4A CN114219097B (zh) 2021-11-30 2021-11-30 一种基于异构资源之上的联邦学习训练和预测方法及系统

Publications (2)

Publication Number Publication Date
CN114219097A CN114219097A (zh) 2022-03-22
CN114219097B true CN114219097B (zh) 2024-04-09

Family

ID=80699301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111447303.4A Active CN114219097B (zh) 2021-11-30 2021-11-30 一种基于异构资源之上的联邦学习训练和预测方法及系统

Country Status (1)

Country Link
CN (1) CN114219097B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997422B (zh) * 2022-05-06 2024-03-08 西北工业大学 一种异构通信网络的分组式联邦学习方法
CN114938372B (zh) * 2022-05-20 2023-04-18 天津大学 一种基于联邦学习的微网群请求动态迁移调度方法及装置
CN115018085B (zh) * 2022-05-23 2023-06-16 郑州大学 一种面向数据异构性的联邦学习参与设备选择方法
CN115496204B (zh) * 2022-10-09 2024-02-02 南京邮电大学 一种跨域异质场景下的面向联邦学习的评测方法及装置
CN115329989B (zh) * 2022-10-13 2023-02-14 合肥本源物联网科技有限公司 边缘计算场景下基于模型分割的同步联邦学习加速方法
CN115618963B (zh) * 2022-10-20 2023-07-14 重庆移通学院 一种基于优化方向引导的无线联邦学习异步训练方法
CN117373066B (zh) * 2023-12-07 2024-03-12 华侨大学 基于云边搜索联邦深度学习方法的行人再辨识方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN112232528A (zh) * 2020-12-15 2021-01-15 之江实验室 一种联邦学习模型训练方法、装置及联邦学习系统
CN113052331A (zh) * 2021-02-19 2021-06-29 北京航空航天大学 一种基于区块链的物联网个性化联邦学习方法
CN113408675A (zh) * 2021-08-20 2021-09-17 深圳市沃易科技有限公司 一种基于联邦学习的卸载智能优化方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN112232528A (zh) * 2020-12-15 2021-01-15 之江实验室 一种联邦学习模型训练方法、装置及联邦学习系统
CN113052331A (zh) * 2021-02-19 2021-06-29 北京航空航天大学 一种基于区块链的物联网个性化联邦学习方法
CN113408675A (zh) * 2021-08-20 2021-09-17 深圳市沃易科技有限公司 一种基于联邦学习的卸载智能优化方法和系统

Also Published As

Publication number Publication date
CN114219097A (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
CN114219097B (zh) 一种基于异构资源之上的联邦学习训练和预测方法及系统
Xu et al. Edge intelligence: Architectures, challenges, and applications
Xu et al. Edge intelligence: Empowering intelligence to the edge of network
CN111858009B (zh) 基于迁移和强化学习的移动边缘计算系统任务调度方法
CN112668128B (zh) 联邦学习系统中终端设备节点的选择方法及装置
US10360517B2 (en) Distributed hyperparameter tuning system for machine learning
Imteaj et al. Federated learning for resource-constrained iot devices: Panoramas and state of the art
CN109902546A (zh) 人脸识别方法、装置及计算机可读介质
CN111444021B (zh) 基于分布式机器学习的同步训练方法、服务器及系统
CN111695965B (zh) 基于图神经网络的产品筛选方法、系统及设备
CN114595396B (zh) 一种基于联邦学习的序列推荐方法和系统
US10963802B1 (en) Distributed decision variable tuning system for machine learning
CN113469325A (zh) 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质
US20220318412A1 (en) Privacy-aware pruning in machine learning
CN114639483A (zh) 一种基于图神经网络的电子病历检索方法及装置
Long et al. Fedsiam: Towards adaptive federated semi-supervised learning
WO2024067373A1 (zh) 一种数据处理方法及相关装置
CN113642700A (zh) 基于联邦学习和边缘计算的跨平台多模态舆情分析方法
CN117999562A (zh) 用于量化联邦学习中的客户端贡献的方法和系统
CN113887748B (zh) 在线联邦学习任务分配方法、装置、联邦学习方法及系统
CN114330464A (zh) 一种融合元学习的多终端协同训练算法及系统
CN110322342A (zh) 借贷风险预测模型的构建方法、系统及借贷风险预测方法
CN105740967A (zh) 一种制造云服务执行时间的预测方法及预测装置
CN114138493A (zh) 一种基于能耗感知的边缘算力资源调度方法
WO2023052827A1 (en) Processing a sequence of data items

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant