CN113098806B - 一种联邦学习下边端协同的信道适应性梯度压缩方法 - Google Patents

一种联邦学习下边端协同的信道适应性梯度压缩方法 Download PDF

Info

Publication number
CN113098806B
CN113098806B CN202110409148.0A CN202110409148A CN113098806B CN 113098806 B CN113098806 B CN 113098806B CN 202110409148 A CN202110409148 A CN 202110409148A CN 113098806 B CN113098806 B CN 113098806B
Authority
CN
China
Prior art keywords
terminal
edge server
channel
bit number
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110409148.0A
Other languages
English (en)
Other versions
CN113098806A (zh
Inventor
陈芳炯
林晓涵
刘元
余华
季飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110409148.0A priority Critical patent/CN113098806B/zh
Publication of CN113098806A publication Critical patent/CN113098806A/zh
Application granted granted Critical
Publication of CN113098806B publication Critical patent/CN113098806B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Power Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种联邦学习下边端协同的信道适应性梯度压缩方法,包括以下步骤:S1、每个终端利用上行信道向边缘服务器发送已知的训练序列;S2、边缘服务器根据每个终端发送的训练序列通过信道后受到的劣化程度估计各个终端的上行信道状况,存储各个上行信道的信道增益参数;S3、边缘服务器利用终端的信道状况和设定的总量化比特数,求解优化问题,进行量化比特数分配;S4、边缘服务器向参与联邦学习的终端广播各自可以使用的量化比特数信息;S5、终端在广播的信息中找到自己可以使用的量化比特数,对本地更新梯度进行量化。本发明具有有效缓解无线通信信道劣化对联邦学习训练效果的影响,缓解通信瓶颈,提高系统抗噪性能等优点。

Description

一种联邦学习下边端协同的信道适应性梯度压缩方法
技术领域
本发明属于联邦学习梯度压缩技术领域,具体涉及一种联邦学习下边端协同的信道适应性梯度压缩方法。
背景技术
随着移动智能设备的兴起,大量数据分散在边缘端,有限的通信资源和用户对隐私的保护使得分布式机器学习框架——联邦学习快速发展。在联邦学习框架中,终端利用本地数据进行本地模型训练,将训练得到的本地模型参数上传至边缘服务器,边缘服务器聚合所有本地模型参数后更新全局模型参数,随后广播全局模型参数,整个联邦学习进行上述步骤的迭代直至全局模型收敛。然而,由于用户数据复杂性逐渐提升,需要上传的本地模型参数维度呈指数型增长,这使得基于梯度压缩的联邦学习方案逐渐引起重视。一般地,基于SGD(Stochastic Gradient Descent)的联邦学习方案可以取得较好的训练效果,在这种策略下,用户进行本地迭代后上传的是本地损失函数的随机梯度,由于训练模型日趋复杂,随机梯度的维度也逐渐增加。针对以上问题,现有方案多采用随机梯度量化的方法,以有效地压缩梯度维度、降低数据规模、缓解通信瓶颈。
但现有方案中,仍然存在以下问题:
1、终端集群通常位于同一个边缘服务器的服务范围内,其上行信道可视为由总上行信道划分的多个独立正交的子信道,总信道容量是有限的。
2、终端的上行信道存在无线通信信道中普遍存在的信道衰落和信道噪声,当量化后的随机梯度通过该类衰落信道进行传输后,数据会受到一定的损坏。当边缘服务器利用有损失的随机梯度进行聚合和全局迭代时,得到的全局模型将会和理想的全局模型存在偏差,使得联邦学习表现变差。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提出一种联邦学习下边端协同的信道适应性梯度压缩方法。
为了达到上述目的,本发明采用以下技术方案:
一种联邦学习下边端协同的信道适应性梯度压缩方法,基于联邦学习系统,包括以下步骤:
S1、每个终端利用自己的上行信道向边缘服务器发送已知的训练序列;
S2、边缘服务器根据每个终端发送的训练序列通过信道后受到的劣化程度估计各个终端的上行信道状况,存储各个上行信道的信道信息;
S3、边缘服务器利用终端的信道状况和设定的总量化比特数,求解优化问题,进行量化比特数分配;
S4、边缘服务器向参与联邦学习的终端广播所有终端各自可以使用的量化比特数信息;
S5、终端在广播的信息中找到自己可以使用的量化比特数,对本地更新梯度进行量化。
进一步的,所述联邦学习系统,包括边缘服务器以及若干个终端;
所述边缘服务器布设在基站中,所述边缘服务器包括计算单元、存储单元、训练单元以及发送单元;
所述终端包括量化单元、存储单元、训练单元以及发送单元;
所述边缘服务器和所述终端用于协作完成指定任务,任务需要使用的原始数据分布于终端中,边缘服务器无法接触到原始数据;
所述边缘服务器和所述终端还用于完成本地模型更新和全局模型更新的交换,终端利用本地原始数据和边缘服务器广播的全局模型更新本地模型,边缘服务器利用终端更新的本地模型更新全局模型。
进一步的,所述边缘服务器和所述终端在系统中协作完成联邦学习任务,联邦学习具体包括以下步骤:
边缘服务器选择参加本次参与联邦学习迭代的终端;
终端上传训练序列,边缘服务器估计终端信道,分配终端分别可以使用的量化比特数,广播量化比特数分配情况;
若此次全局迭代为初次全局迭代,则边缘服务器进行模型初始化,并将初始化的全局模型广播至本次参与训练的终端;否则,将上次全局迭代后得到的更新的全局模型广播至本次参与训练的终端;
终端利用接收到的全局模型和本地存储的数据进行一次或若干次本地训练,得到更新的本地梯度信息;
终端利用分配的量化比特数,量化更新的本地梯度信息,得到用于上传的量化的本地更新梯度;
终端将所述量化的本地更新梯度通过独立不相干的用户信道上传到边缘服务器;
所述边缘服务器接收到经过终端信道扰动的实际更新梯度,将所述实际更新梯度进行聚合,聚合后的梯度用于更新边缘服务器上的全局模型,若全局模型收敛,则本次联邦学习结束;否则,从头开始执行联邦学习的各步骤,直至全局模型收敛。
进一步的,步骤S1具体为:
参与联邦学习的终端向边缘服务器发送存储于存储单元中的训练序列,所述训练序列存储于边缘服务器模块的存储单元中,为终端和边缘服务器均已知的信息,并在所述训练序列前端加上包含终端模块编号的信息块,形成待估计训练序列块。
进一步的,步骤S2具体为:
所述边缘服务器接收所述终端发送的待估计训练序列块,待估计训练序列块通过终端上行信道后受到一定程度的劣化,边缘服务器在存储单元中以队列的形式依次存储受到信道劣化的待估计训练序列块;
边缘服务器每次调用队列中的一个受到信道劣化的待估计训练序列块,利用待估计训练序列块中受到信道劣化的训练序列,和存储单元中的已知训练序列,利用判决准则,在计算单元中进行信道估计;
复制已经完成信道估计的待估计训练序列块前端的终端编号,所述终端编号采用重复发送的方式确保传输无误,在所述终端编号后端加上信道估计后得到的信道增益信息,得到每个终端的信道增益单元,通过将信道增益单元首尾相接后,得到信道增益信息块,存储于存储单元中。
进一步的,步骤S3具体为:
边缘服务器通过调用存储单元中预先设定的总量化比特数和在所述步骤S1和步骤S2中估计的参与所述联邦学习的终端的信道增益信息块,代入参数未知、具体模型已经确定的优化问题中,分别求解每个终端分配到的量化比特数,并复制信道增益信息单元前端的终端编号,得到量化比特数分配单元,首尾相接后得到量化比特数分配信息块,并以队列的形式存储于存储单元中。
进一步的,所述优化问题具体为:
Figure BDA0003023459180000041
Figure BDA0003023459180000051
bk≥1
其中,
Figure BDA0003023459180000052
为终端k传输的随机梯度到达边缘服务器后的总信噪比,
Figure BDA0003023459180000053
hk为终端k的信道增益系数,gk为终端k向边缘服务器上传的随机梯度,sk为终端k分配到的量化位数,与终端k可以使用的量化比特数的关系为
Figure BDA0003023459180000054
B为整个联邦学习系统总共可以使用的量化比特数;
SNRk越大,说明边缘服务器接收到的终端k的随机梯度越可靠;目标函数的最大化说明通过使得所有参与的终端的总信噪比SNRk的和最大,边缘服务器使用的训练数据的可靠性能得到最大化。
进一步的,步骤S4具体为:
边缘服务器通过发送单元向终端广播量化比特数分配信息块。
进一步的,步骤S5具体为:
终端接收到所述量化比特数分配信息块,通过量化比特数分配信息块中每个量化比特数分配单元前端的终端序号,查找到自己分配到的量化比特数,存储于存储单元中;终端利用存储单元中存储的量化比特数,使用均匀量化方法对本地模型的更新梯度进行量化。
进一步的,所述均匀量化方法中的子量化区间为总量化区间均匀划分后得到,当待量化数值位于某个子量化区间时,按一定的量化规则量化为子量化区间的左端点或右端点,均匀量化方法的具体量化规则为:
将所述的更新梯度展平为向量,每个向量的分量映射的码本的取值规则如下:
Qs(vi)=||v||2sgn(vii(v,s),i=1,2,...,n,
其中,Qs(vi)为所述更新梯度展平后的向量v的第i个分量的取值,sgn(vi)为所述向量的第i个分量的符号,量化位数s与所述量化比特数b关系如下:
s=2b+1
其中,ξi(v,s)为独立随机变量,表示所述向量v的第i个分量的按概率取值,具体为:
Figure BDA0003023459180000061
其中,概率p为
Figure BDA0003023459180000062
1为小于等于s的非负整数;
所述均匀量化方法量化后,采用三元组(||v||2,σ,ζ)来表示量化后的更新梯度,在传输时只需要传输三元组的信息,所述三元组的具体内容为:
所述向量的长度||v||2、所述向量分量的符号按原顺序构成的向量σ以及所述向量分量映射的整数以原顺序排列构成的向量ζ,其中ζi=s·ξi(v,s)。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明充分利用了联邦学习的边缘服务器和终端的交互性,使得边缘服务器通过获取终端上行信道的优劣情况,对终端上传的更新梯度进行量化比特数可自适应调整的均匀量化,充分发掘了边端协同的能动性。
2、本发明根据终端的上行信道状况进行信道适应性的量化比特数分配,对具有恶劣信道环境的终端给予更大的量化比特数的均匀量化,通过更加精确的量化,有效缓解不良信道对终端上传的量化梯度的劣化,通过提高参与联邦学习的更新梯度的质量,进一步地提高联邦学习在实际信道环境下的训练效果,提高系统在无线通信环境中的抗噪性。
3、本发明采用的均匀量化方法,由需要传输整个梯度向量变为只需要传输包含梯度向量信息的三元组,量化后终端上传的数据规模明显减小,且具有较小的量化方差。
4、本发明具有较好的扩展潜力,通过使用高效的编码方式,可以进一步减小量化后上传的数据规模,且可以根据需要在量化后增加稀疏方法,达到更好程度的数据压缩效果。
5、本发明不需要在原有的联邦学习系统中增加额外装置,有效降低系统布设成本,简单有效,节点之间交互开销小。
附图说明
图1是本发明方法的流程图;
图2是本发明的联邦学习系统示意图;
图3是本发明的联邦学习系统的边缘服务器模块结构示意图;
图4是本发明的联邦学习系统的终端模块结构示意图;
图5是本发明联邦学习的流程图;
图6为本发明实施例终端发送的用于信道估计的待估计训练序列块;
图7为本发明实施例信道估计后得到的信道增益信息块;
图8为本发明实施例量化比特数分配后得到的量化比特数分配信息块。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本发明,一种联邦学习下边端协同的信道适应性梯度压缩方法,方法基于联邦学习系统,包括以下步骤:
S1、每个终端利用自己的上行信道向边缘服务器发送已知的训练序列;
在本实施例中,如图2、图3以及图4所示,所述联邦学习系统包括边缘服务器以及若干个终端;
所述边缘服务器布设在基站中,所述边缘服务器包括计算单元、存储单元、训练单元以及发送单元;
所述终端包括量化单元、存储单元、训练单元以及发送单元;
所述边缘服务器和所述终端协作完成指定任务,任务需要使用的原始数据分布于终端中,边缘服务器无法接触到原始数据;
所述终端和所述边缘服务器之间需要完成本地模型更新和全局模型更新的交换,终端利用本地原始数据和边缘服务器广播的全局模型更新本地模型,边缘服务器利用终端更新的本地模型更新全局模型。
由于所述终端通常为手机、智能手表等便携式移动智能设备,电池体积有限,无法提供充足的资源来发送数据规模庞大的本地模型更新,因此本发明所提出的边端协同的信道适应性梯度压缩方法可用于缓解所述联邦学习系统中所述边缘服务器和所述终端交互时产生的通信瓶颈。
在本实施例中,步骤S1具体为:
参与联邦学习的终端向边缘服务器发送存储于存储单元中的训练序列,所述训练序列存储于边缘服务器模块的存储单元中,为终端和边缘服务器均已知的信息,并在所述训练序列前端加上包含的终端模块编号的信息块,形成待估计训练序列块,如图6所示。
S2、边缘服务器根据每个终端发送的训练序列通过信道后受到的劣化程度估计各个终端的上行信道状况,存储各个上行信道的信道增益参数,在本实施例中,具体为:
所述边缘服务器接收所述终端发送的待估计训练序列块,待估计训练序列块通过终端上行信道后受到一定程度的劣化,边缘服务器在存储单元中以队列的形式依次存储受到信道劣化的待估计训练序列块;
边缘服务器每次调用队列中的一个受到信道劣化的待估计训练序列块,利用待估计训练序列块中受到信道劣化的训练序列,和存储单元中的已知训练序列,利用判决准则,在计算单元中进行信道估计;
复制已经完成信道估计的信道估计信息块前端的终端编号,所述终端编号采用重复发送的方式确保传输无误,在所述终端编号后端加上信道估计后得到的信道增益,得到每个终端的信道增益单元,通过将信道增益单元首尾相接后,得到信道增益信息块,存储于存储单元中,如图7所示,为信道增益信息块。
S3、边缘服务器利用终端的信道状况和设定的总量化比特数,求解优化问题,进行量化比特数分配,在本实施例中,具体为:
边缘服务器通过调用存储单元中预先设定的总量化比特数和在步骤S1、S2中估计的参与所述联邦学习的终端的信道增益信息块,代入参数未知、具体模型已经确定的优化问题中,分别求解每个终端分配到的量化比特数,并复制信道增益信息单元前端的终端编号,得到量化比特数分配单元,首尾相接后得到量化比特数分配信息块,以队列的形式存储于存储单元中,如图8所示,为量化比特数分配后得到的量化比特数分配信息块。
所述优化问题具体为:
Figure BDA0003023459180000091
Figure BDA0003023459180000092
bk≥1 (2)
其中,
Figure BDA0003023459180000101
为终端k传输的随机梯度到达边缘服务器后的总信噪比,
Figure BDA0003023459180000102
hk为终端k的信道系数,gk为终端k向边缘服务器上传的随机梯度,sk为终端k分配到的量化位数,与终端k可以使用的量化比特数bk的关系为
Figure BDA0003023459180000103
B为整个系统总共可以使用的量化比特数;
SNRk越大,说明边缘服务器接收到的终端k的随机梯度越可靠;目标函数说明通过使得所有参与的终端的总信噪比SNRk的和最大,使得边缘服务器使用的训练数据的可靠性最大化。限制条件(1),即公式(1)体现了由于总上行信道容量的限制,终端使用的量化比特数总数不可以无限大。限制条件(2),即公式(2)则说明了量化比特数的最低数值。
S4、边缘服务器向参与联邦学习的终端广播所有终端各自可以使用的量化比特数信息,在本实施例中,具体为边缘服务器通过发送单元向终端广播量化比特数分配信息块。
S5、终端在广播的信息中找到自己可以使用的量化比特数,对本地更新梯度进行量化,在本实施例中,具体为:
终端接收到所述量化比特数分配信息块,通过量化比特数分配信息块中每个量化比特数分配单元前端的终端序号,查找到自己分配到的量化比特数,存储于存储单元中;终端利用存储单元中存储的量化比特数,使用均匀量化方法对本地模型的更新梯度进行量化;
对本地更新梯度进行量化的量化方法为均匀量化方法,均匀量化方法中的子量化区间为总量化区间均匀划分后得到,当待量化数值位于某个子量化区间时,按一定的量化规则量化为子量化区间的左端点或右端点,均匀量化方法的具体量化规则为:
将所述的更新梯度展平为向量,每个向量的分量映射的码本的取值规则如下:
Qs(vi)=||v||2sgn(vii(v,s),i=1,2,...,n,
其中,Qs(vi)为所述更新梯度展平后的向量v的第i个分量的取值,sgn(vi)为所述向量的第i个分量的符号,量化位数s与所述量化比特数b关系如下:
s=2b+1
其中,ξi(v,s)为独立随机变量,表示所述向量v的第i个分量的按概率取值,具体为:
Figure BDA0003023459180000111
其中,概率p为
Figure BDA0003023459180000112
l为小于等于s的非负整数。
均匀化量化后采用三元组(||v||2,σ,ζ)来表示量化后的更新梯度,在传输时只需要传输三元组的信息,所述三元组的具体内容为:
所述向量的长度||v||2、所述向量分量的符号按原顺序构成的向量σ以及所述向量分量映射的整数以原顺序排列构成的向量ζ,其中ζi=s·ξi(v,s)。
在本实施例中,如图5所示,所述边缘服务器和所述终端在系统中协作完成联邦学习任务,联邦学习具体包括以下步骤:
S101、边缘服务器按照设定的比例随机选取若干个终端参与本次迭代;
S102、所述的被选择的终端通过上行信道向边缘服务器发送终端和服务器端都已知的训练序列;
S103、边缘服务器接收所有终端发送的受到信道扰动的训练序列,根据训练序列分别估计并存储所有终端的信道状况信息;
S104、边缘服务器根据参与的终端的上行信道状况求解优化问题,分配量化比特数;
S105、边缘服务器广播终端分别可以使用的量化比特数信息;
S106、终端从广播的量化比特数信息中查询并记录自己分配到的量化比特数;
S107、若为初次全局迭代,则边缘服务器和终端均进行初始化,否则只有终端进行初始化;
S108、边缘服务器向参与的终端广播全局模型参数,此后的广播亦只针对参与的终端;
S109、终端利用边缘服务器广播的全局模型参数和本地数据集,计算本地模型随机梯度;
S110、终端利用分配到的量化比特数量化本地模型随机梯度;
S111、终端上传量化后的本地模型随机梯度;
S112、边缘服务器聚合全部的量化的本地随机梯度,更新全局模型参数;
S113、若全局模型收敛,则本次联邦学习结束;若全局模型不收敛,则重复步骤S101-S113,直至全局模型收敛。
在本实施例中,参与联邦学习的若干个终端共享终端到基站的容量有限的上行信道,在固定时间内总上行信道可传输的比特数有限;此外,过分地进行更新梯度压缩将劣化联邦学习训练效果。因此,所述的信道适应性梯度压缩方法需根据总信道容量和训练效果的指标设置所有终端共享的总量化比特数。
还需要说明的是,在本说明书中,诸如术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (9)

1.一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,基于联邦学习系统,包括以下步骤:
S1、每个终端利用自己的上行信道向边缘服务器发送已知的训练序列;
S2、边缘服务器根据每个终端发送的训练序列通过信道后受到的劣化程度估计各个终端的上行信道状况,存储各个上行信道的信道信息;
S3、边缘服务器利用终端的信道状况和设定的总量化比特数,求解优化问题,进行量化比特数分配;
S4、边缘服务器向参与联邦学习的终端广播所有终端各自可以使用的量化比特数信息;
S5、终端在广播的信息中找到自己可以使用的量化比特数,对本地更新梯度进行量化;
所述边缘服务器和所述终端在系统中协作完成联邦学习任务,联邦学习具体包括以下步骤:
边缘服务器选择参加本次参与联邦学习迭代的终端;
终端上传训练序列,边缘服务器估计终端信道,分配终端分别可以使用的量化比特数,广播量化比特数分配情况;
若此次全局迭代为初次全局迭代,则边缘服务器进行模型初始化,并将初始化的全局模型广播至本次参与训练的终端;否则,将上次全局迭代后得到的更新的全局模型广播至本次参与训练的终端;
终端利用接收到的全局模型和本地存储的数据进行一次或若干次本地训练,得到更新的本地梯度信息;
终端利用分配的量化比特数,量化更新的本地梯度信息,得到用于上传的量化的本地更新梯度;
终端将所述量化的本地更新梯度通过独立不相干的用户信道上传到边缘服务器;
所述边缘服务器接收到经过终端信道扰动的实际更新梯度,将所述实际更新梯度进行聚合,聚合后的梯度用于更新边缘服务器上的全局模型,若全局模型收敛,则本次联邦学习结束;否则,从头开始执行联邦学习的各步骤,直至全局模型收敛。
2.根据权利要求1所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,所述联邦学习系统,包括边缘服务器以及若干个终端;
所述边缘服务器布设在基站中,所述边缘服务器包括计算单元、存储单元、训练单元以及发送单元;
所述终端包括量化单元、存储单元、训练单元以及发送单元;
所述边缘服务器和所述终端用于协作完成指定任务,任务需要使用的原始数据分布于终端中,边缘服务器无法接触到原始数据;
所述边缘服务器和所述终端还用于完成本地模型更新和全局模型更新的交换,终端利用本地原始数据和边缘服务器广播的全局模型更新本地模型,边缘服务器利用终端更新的本地模型更新全局模型。
3.根据权利要求2所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,步骤S1具体为:
参与联邦学习的终端向边缘服务器发送存储于存储单元中的训练序列,所述训练序列存储于边缘服务器模块的存储单元中,为终端和边缘服务器均已知的信息,并在所述训练序列前端加上包含终端模块编号的信息块,形成待估计训练序列块。
4.根据权利要求3所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,步骤S2具体为:
所述边缘服务器接收所述终端发送的待估计训练序列块,待估计训练序列块通过终端上行信道后受到一定程度的劣化,边缘服务器在存储单元中以队列的形式依次存储受到信道劣化的待估计训练序列块;
边缘服务器每次调用队列中的一个受到信道劣化的待估计训练序列块,利用待估计训练序列块中受到信道劣化的训练序列,和存储单元中的已知训练序列,利用判决准则,在计算单元中进行信道估计;
复制已经完成信道估计的待估计训练序列块前端的终端编号,所述终端编号采用重复发送的方式确保传输无误,在所述终端编号后端加上信道估计后得到的信道增益信息,得到每个终端的信道增益单元,通过将信道增益单元首尾相接后,得到信道增益信息块,存储于存储单元中。
5.根据权利要求2或4所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,步骤S3具体为:
边缘服务器通过调用存储单元中预先设定的总量化比特数和在所述步骤S1和步骤S2中估计的参与所述联邦学习的终端的信道增益信息块,代入参数未知、具体模型已经确定的优化问题中,分别求解每个终端分配到的量化比特数,并复制信道增益信息单元前端的终端编号,得到量化比特数分配单元,首尾相接后得到量化比特数分配信息块,并以队列的形式存储于存储单元中。
6.根据权利要求1所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,所述优化问题具体为:
P1:
Figure FDA0003388379730000031
Figure FDA0003388379730000032
bk≥1
其中,
Figure FDA0003388379730000033
为终端k传输的随机梯度到达边缘服务器后的总信噪比,
Figure FDA0003388379730000034
hk为终端k的信道增益系数,gk为终端k向边缘服务器上传的随机梯度,sk为终端k分配到的量化位数,与终端k可以使用的量化比特数的关系为
Figure FDA0003388379730000035
B为整个联邦学习系统总共可以使用的量化比特数;
SNRk越大,说明边缘服务器接收到的终端k的随机梯度越可靠;目标函数的最大化说明通过使得所有参与的终端的总信噪比SNRk的和最大,边缘服务器使用的训练数据的可靠性能得到最大化。
7.根据权利要求2所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,步骤S4具体为:
边缘服务器通过发送单元向终端广播量化比特数分配信息块。
8.根据权利要求7所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,步骤S5具体为:
终端接收到所述量化比特数分配信息块,通过量化比特数分配信息块中每个量化比特数分配单元前端的终端序号,查找到自己分配到的量化比特数,存储于存储单元中;终端利用存储单元中存储的量化比特数,使用均匀量化方法对本地模型的更新梯度进行量化。
9.根据权利要求8所述的一种联邦学习下边端协同的信道适应性梯度压缩方法,其特征在于,所述均匀量化方法中的子量化区间为总量化区间均匀划分后得到,当待量化数值位于某个子量化区间时,按一定的量化规则量化为子量化区间的左端点或右端点,均匀量化方法的具体量化规则为:
将所述的更新梯度展平为向量,每个向量的分量映射的码本的取值规则如下:
Qs(vi)=‖v‖2sgn(vii(v,s),i=1,2,…,n,
其中,Qs(vi)为所述更新梯度展平后的向量v的第i个分量的取值,sgn(vi)为所述向量的第i个分量的符号,量化位数s与所述量化比特数b关系如下:
s=2b+1
其中,ξi(v,s)为独立随机变量,表示所述向量v的第i个分量的按概率取值,具体为:
Figure FDA0003388379730000041
其中,概率p为
Figure FDA0003388379730000042
l为小于等于s的非负整数;
所述均匀量化方法量化后,采用三元组(‖v‖2,σ,ε)来表示量化后的更新梯度,在传输时只需要传输三元组的信息,所述三元组的具体内容为:
所述向量的长度‖v‖2、所述向量分量的符号按原顺序构成的向量σ以及所述向量分量映射的整数以原顺序排列构成的向量ζ,其中ζi=s·ξi(v,s)。
CN202110409148.0A 2021-04-16 2021-04-16 一种联邦学习下边端协同的信道适应性梯度压缩方法 Active CN113098806B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110409148.0A CN113098806B (zh) 2021-04-16 2021-04-16 一种联邦学习下边端协同的信道适应性梯度压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110409148.0A CN113098806B (zh) 2021-04-16 2021-04-16 一种联邦学习下边端协同的信道适应性梯度压缩方法

Publications (2)

Publication Number Publication Date
CN113098806A CN113098806A (zh) 2021-07-09
CN113098806B true CN113098806B (zh) 2022-03-29

Family

ID=76678225

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110409148.0A Active CN113098806B (zh) 2021-04-16 2021-04-16 一种联邦学习下边端协同的信道适应性梯度压缩方法

Country Status (1)

Country Link
CN (1) CN113098806B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113692052A (zh) * 2021-08-05 2021-11-23 广东技术师范大学 一种网络边缘机器学习训练方法
CN114301573B (zh) * 2021-11-24 2023-05-23 超讯通信股份有限公司 联邦学习模型参数传输方法及系统
CN116227630A (zh) * 2021-12-02 2023-06-06 华为技术有限公司 一种联邦学习方法及相关设备
CN113873047B (zh) * 2021-12-03 2022-02-15 江苏电力信息技术有限公司 一种面向流式数据的协作计算方法
CN115174397B (zh) * 2022-07-28 2023-10-13 河海大学 联合梯度量化与带宽分配的联邦边缘学习训练方法及系统
WO2024050659A1 (zh) * 2022-09-05 2024-03-14 华南理工大学 一种联邦学习下边端协同的信道适应性梯度压缩方法
CN117251276B (zh) * 2023-11-20 2024-02-09 清华大学 一种面向协作学习平台的灵活调度方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348204A (zh) * 2020-11-05 2021-02-09 大连理工大学 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106534004B (zh) * 2016-11-23 2019-11-15 华南理工大学 一种基于频域均衡的信号还原方法
US11170320B2 (en) * 2018-07-19 2021-11-09 Adobe Inc. Updating machine learning models on edge servers
US20210374503A1 (en) * 2018-10-15 2021-12-02 Board Of Trustees Of The University Of Illinois Network-centric architecture and algorithms to accelerate distributed training of neural networks
CN111447083B (zh) * 2020-03-10 2022-10-21 中国人民解放军国防科技大学 动态带宽和不可靠网络下的联邦学习架构及其压缩算法
CN111401552B (zh) * 2020-03-11 2023-04-07 浙江大学 基于调整批量大小与梯度压缩率的联邦学习方法和系统
CN111553483B (zh) * 2020-04-30 2024-03-29 同盾控股有限公司 基于梯度压缩的联邦学习的方法、装置及系统
CN111553486A (zh) * 2020-05-14 2020-08-18 深圳前海微众银行股份有限公司 信息传递方法、装置、设备及计算机可读存储介质
CN112181666B (zh) * 2020-10-26 2023-09-01 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348204A (zh) * 2020-11-05 2021-02-09 大连理工大学 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法

Also Published As

Publication number Publication date
CN113098806A (zh) 2021-07-09

Similar Documents

Publication Publication Date Title
CN113098806B (zh) 一种联邦学习下边端协同的信道适应性梯度压缩方法
CN100382539C (zh) 无线多载波传输系统中子载波分配和调制方案选择方法
Agarwal et al. Low complexity resource allocation with opportunistic feedback over downlink OFDMA networks
WO2011015252A1 (en) Multicast scheduling and link adaptation
US9258089B2 (en) System and methods for compress and forward relaying schemes in joint signal processing
Yang et al. Content delivery with coded caching and massive MIMO in 5G
CN108260215B (zh) 一种低密度码的noma中信道状况优化的资源分配方法
CN107343268B (zh) 非正交多播和单播传输波束赋型方法及系统
CN114051222A (zh) 一种车联网环境下基于联邦学习的无线资源分配和通信优化方法
CN103686218A (zh) 一种MIMO-OFDM系统下基于QoE的跨层优化视频传输方法及系统
CN108923885B (zh) 一种用于窄带物联网系统的重复传输数的选择方法
CN105657434B (zh) 基于数模混合的大数据辅助视频传输方法
WO2024050659A1 (zh) 一种联邦学习下边端协同的信道适应性梯度压缩方法
WO2009082853A1 (fr) Procédé de traitement de livre de codes auto-adaptatif
CN112367523A (zh) 异构无线网络中基于noma的svc多播中的资源管理方法
CN115174397B (zh) 联合梯度量化与带宽分配的联邦边缘学习训练方法及系统
Hwang et al. Optimizing live layered video multicasting over LTE with mobile edge computing
CN111082842A (zh) 基于码本复用的上行链路scma发射方法与接收方法
CN114826832A (zh) 信道估计方法、神经网络的训练方法及装置、设备
US11864158B2 (en) Distributed method for allocating transmission resources to D2D terminals in a cellular access network
Koyuncu et al. Interleaving channel estimation and limited feedback for point-to-point systems with a large number of transmit antennas
Nicopolitidis et al. Continuous flow wireless data broadcasting for high-speed environments
CN102638730A (zh) 一种基于用户感知的无线视频业务的跨层优化方法
CN106789776B (zh) 一种mimo-ofdm系统的高精度信道估计方法
Liu et al. Adaptive resource allocation in multiuser OFDM system based on genetic algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant