CN110167176B - 一种基于分布式机器学习的无线网络资源分配方法 - Google Patents

一种基于分布式机器学习的无线网络资源分配方法 Download PDF

Info

Publication number
CN110167176B
CN110167176B CN201910341080.XA CN201910341080A CN110167176B CN 110167176 B CN110167176 B CN 110167176B CN 201910341080 A CN201910341080 A CN 201910341080A CN 110167176 B CN110167176 B CN 110167176B
Authority
CN
China
Prior art keywords
base station
user
neural network
deep neural
strategy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910341080.XA
Other languages
English (en)
Other versions
CN110167176A (zh
Inventor
张海君
张海森
皇甫伟
隆克平
董江波
刘玮
任冶冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Beijing USTB
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN201910341080.XA priority Critical patent/CN110167176B/zh
Publication of CN110167176A publication Critical patent/CN110167176A/zh
Application granted granted Critical
Publication of CN110167176B publication Critical patent/CN110167176B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • H04W72/044Wireless resource allocation based on the type of the allocated resource
    • H04W72/0473Wireless resource allocation based on the type of the allocated resource the resource being transmission power
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/50Allocation or scheduling criteria for wireless resources
    • H04W72/54Allocation or scheduling criteria for wireless resources based on quality criteria
    • H04W72/542Allocation or scheduling criteria for wireless resources based on quality criteria using measured or perceived quality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提供一种基于分布式机器学习的无线网络资源分配方法,能够降低计算复杂度。所述方法包括:在各基站侧构建相同规模的深度神经网络模型,并将初始化后的原始网络环境系数划分为多组网络环境系数;以提升系统能量效率为目标,对每组网络环境系数,确定最优的用户关联策略和功率分配策略;将网络环境系数和与各基站相关的最优的用户关联策略和功率分配策略存储为相应基站侧深度神经网络模型的训练集;各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型;获取待处理的网络环境系数,将其输入到训练好的深度神经网络模型中进行神经网络计算,输出结果为优化后的用户关联策略和功率分配策略。本发明涉及无线通信及机器学习领域。

Description

一种基于分布式机器学习的无线网络资源分配方法
技术领域
本发明涉及无线通信及机器学习领域,特别是指一种基于分布式机器学习的无线网络资源分配方法。
背景技术
近年来,随着无线网络中密集型应用的急剧增长,对更高的速率和效率的需求也在增加。在超密集网络中部署小型基站为解决盲点和阴影问题提供了一种有前途的解决方案。在下一代蜂窝网络中,毫米波是为克服频谱不足而引入的技术手段,已成为满足移动数据业务指数增长需求的一种有吸引力的解决方案。在非视线传播条件下,由于具有高频和短程衰减特性,通过减小毫米波对蜂窝网络的干扰,提高了蜂窝网络的传输质量。
在无线蜂窝网络中,必须正确分配资源以获得较高的性能。随着无线通信的发展,用户的分布越来越密集,由此合理配置无线资源显得越来越重要。毫米波频谱中的资源管理对于提升超密集网络的能量效率变得越来越具有挑战。现有的资源管理算法通常采用数值迭代方案,如:乘法器交替方向法。这些方法在资源优化问题上都取得了一定效果,达到了一定的目标。然而,随着用户数量的增加,在这些算法下,问题变得更加严重。
随着无线通信中网络场景的复杂性和用户数量的不断增加,超密集网络的深度学习算法面临着网络规模庞大、资源分配计算复杂度高的挑战。
发明内容
本发明要解决的技术问题是提供一种基于分布式机器学习的无线网络资源分配方法,以解决现有技术所存在的超密集网络规模庞大,导致资源分配计算复杂度高的问题。
为解决上述技术问题,本发明实施例提供一种基于分布式机器学习的无线网络资源分配方法,包括:
S1,在各基站侧构建相同规模的深度神经网络模型,并将初始化后的原始网络环境系数划分为多组网络环境系数;
S2,以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略;
S3,将网络环境系数和与各基站相关的最优的用户关联策略和功率分配策略存储为相应基站侧深度神经网络模型的训练集;
S4,根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型;
S5,获取待处理的网络环境系数,将其输入到训练好的深度神经网络模型中进行神经网络计算,输出结果为优化后的用户关联策略和功率分配策略。
进一步地,所述以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略包括:
S21,对每组网络环境系数,确定基站到用户终端的信息传输速率及系统能量效率;
S22,根据确定的基站到用户终端的信息传输速率及系统的能量效率,利用拉格朗日对偶分解法,确定用户关联判决矩阵;
S23,根据确定的用户关联判决矩阵,生成基站与用户的关联策略;
S24,基于生成的基站与用户的关联策略,对基站到用户的发射功率进行更新;
S25,根据生成的基站与用户的关联策略及更新得到的基站到用户的发射功率,确定系统能量效率;若当前确定的系统能量效率与上一次确定的系统能量效率之间的差值小于预设的阈值,则判断生成的基站与用户的关联策略及更新得到的基站到用户的发射功率为最优分配策略;否则,返回S21继续执行。
进一步地,基站到用户终端的信息传输速率表示为:
Figure BDA0002040721300000021
Figure BDA0002040721300000022
其中,cm,n表示基站m到用户终端n的信息传输速率;M表示基站的集合,W为系统带宽,Km表示与基站m相关联的用户终端个数,γm,n表示用户终端n从基站m获得的信号信噪比,pm,n表示基站m到用户终端n的发射功率,hm,n表示用户终端n与基站m之间的信道系数,hk,n表示用户终端n与除基站m外的其他基站之间的信道系数,pk,n表示除基站m外的其他基站到用户终端n的发射功率,σ表示加性高斯白噪声的功率谱密度。
进一步地,系统能量效率表示为:
Figure BDA0002040721300000031
Figure BDA0002040721300000032
其中,N表示所有用户的集合,xm,n表示基站m与用户终端n的关联情况,
Figure BDA0002040721300000033
表示基站m的电路消耗功率,s.t.表示xm,n与pm,n的约束条件,pmax表示基站m的最大发射功率,Rt表示用户n收到的最小信息传输速率或最小服务质量要求,Im为基站m接收到的最大干扰限制阈值。
进一步地,用户关联判决矩阵表示为:
Figure BDA0002040721300000034
其中,Θm,n表示用户关联判决矩阵,μm、λm、νn、τm都表示拉格朗日乘子,t表示第t次迭代。
进一步地,基站与用户的关联策略表示为:
Figure BDA0002040721300000041
进一步地,基站到用户的发射功率的更新公式表示为:
Figure BDA0002040721300000042
Figure BDA0002040721300000043
其中,t表示第t次迭代,δ为迭代更新步长,f(pm,n)为简写形式。
进一步地,在训练深度神经网络模型之前,对训练集中的数据进行归一化处理。
进一步地,深度神经网络模型的激活函数为线性整流函数,损失函数为均方误差函数。
进一步地,所述根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型包括:
在训练过程中,各基站侧的工作节点采用分布式异步并行方式进行梯度计算,并将计算得到的梯度上传到参数服务器;其中,梯度表示为:
Figure BDA0002040721300000044
其中,wt表示第t次迭代的权重;
Figure BDA0002040721300000045
表示在第m个基站处的工作节点的样本
Figure BDA0002040721300000046
的梯度;
Figure BDA0002040721300000047
为第m个基站处工作节点的训练集中的样本,
Figure BDA0002040721300000048
包括xm,n和pm,n
Figure BDA0002040721300000049
表示使用梯度计算方法求解深度神经网络模型的权重;
参数服务器根据接收到的梯度更新权重,并将更新后的权重返回给对应的工作节点,以完成深度神经网络模型的训练,其中,权重的更新公式为:
Figure BDA00020407213000000410
其中,η表示学习率,wt+1表示第t+1次迭代的权重。
本发明的上述技术方案的有益效果如下:
上述方案中,在各基站侧构建相同规模的深度神经网络模型,并将初始化后的原始网络环境系数划分为多组网络环境系数;以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略;将网络环境系数和与各基站相关的最优的用户关联策略和功率分配策略存储为相应基站侧深度神经网络模型的训练集;根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型;获取待处理的网络环境系数,将其输入到训练好的深度神经网络模型中进行神经网络计算,输出结果为优化后的用户关联策略和功率分配策略;这样,利用拉格朗日对偶分解法最大限度地提高能量效率生成训练集后,用深度神经网络模型进行近似,并将大规模网络模型划分为小型分布式网络,在每个基站侧进行分布式优化决策,能够在较短的计算时间内获得较高的能量效率,从而降低计算复杂度。
附图说明
图1为本发明实施例提供的基于分布式机器学习的无线网络资源分配方法的流程示意图;
图2为本发明实施例提供的基于分布式机器学习的无线网络资源分配环境架构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明针对现有的超密集网络规模庞大,导致资源分配计算复杂度高的问题,提供一种基于分布式机器学习的无线网络资源分配方法。
如图1所示,本发明实施例提供的基于分布式机器学习的无线网络资源分配方法,包括:
S1,在各基站侧构建相同规模的深度神经网络模型,并将初始化后的原始网络环境系数划分为多组网络环境系数;
S2,以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略;
S3,将网络环境系数和与各基站相关的最优的用户关联策略和功率分配策略存储为相应基站侧深度神经网络模型的训练集;
S4,根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型;
S5,获取待处理的网络环境系数,将其输入到训练好的深度神经网络模型中进行神经网络计算,输出结果为优化后的用户关联策略和功率分配策略。
本发明实施例所述的基于分布式机器学习的无线网络资源分配方法,在各基站侧构建相同规模的深度神经网络模型,并将初始化后的原始网络环境系数划分为多组网络环境系数;以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略;将网络环境系数和与各基站相关的最优的用户关联策略和功率分配策略存储为相应基站侧深度神经网络模型的训练集;根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型;获取待处理的网络环境系数,将其输入到训练好的深度神经网络模型中进行神经网络计算,输出结果为优化后的用户关联策略和功率分配策略;这样,利用拉格朗日对偶分解法最大限度地提高能量效率生成训练集后,用深度神经网络模型进行近似,并将大规模网络模型划分为小型分布式网络,在每个基站侧进行分布式优化决策,能够在较短的计算时间内获得较高的能量效率,从而降低计算复杂度。
本实施例中,工作节点是一个抽象的计算节点,可以是一个处理模块、也可以是笔记本电脑、个人计算机等硬件,其中,深度神经网络模型位于该计算节点内。
本实施例中,在S1中,可以在各基站侧构建相同规模的全连接深度神经网络模型。
本实施例中,网络环境系数包括但不限于:系统带宽W、与基站m相关联的用户终端个数Km、基站m到用户终端n的发射功率pm,n、用户终端n与基站m之间的信道系数hm,n、用户终端n与除基站m外的其他基站之间的信道系数hk,n、除基站m外的其他基站到用户终端n的发射功率pk,n、加性高斯白噪声的功率谱密度σ。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,所述以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略包括:
S21,对每组网络环境系数,确定基站到用户终端的信息传输速率及系统能量效率;
S22,根据确定的基站到用户终端的信息传输速率及系统的能量效率,利用拉格朗日对偶分解法,确定用户关联判决矩阵;
S23,根据确定的用户关联判决矩阵,生成基站与用户的关联策略;
S24,基于生成的基站与用户的关联策略,对基站到用户的发射功率进行更新;
S25,根据生成的基站与用户的关联策略及更新得到的基站到用户的发射功率,确定系统能量效率;若当前确定的系统能量效率与上一次确定的系统能量效率之间的差值小于预设的阈值,则判断生成的基站与用户的关联策略及更新得到的基站到用户的发射功率为最优分配策略;否则,返回S21继续执行。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,基站到用户终端的信息传输速率表示为:
Figure BDA0002040721300000071
Figure BDA0002040721300000072
其中,cm,n表示基站m到用户终端n的信息传输速率;M表示基站的集合,W为系统带宽,Km表示与基站m相关联的用户终端个数,γm,n表示用户终端n从基站m获得的信号信噪比,pm,n表示基站m到用户终端n的发射功率,hm,n表示用户终端n与基站m之间的信道系数,hk,n表示用户终端n与除基站m外的其他基站之间的信道系数,pk,n表示除基站m外的其他基站到用户终端n的发射功率,σ表示加性高斯白噪声的功率谱密度。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,系统能量效率表示为:
Figure BDA0002040721300000073
Figure BDA0002040721300000081
其中,N表示所有用户的集合,xm,n表示基站m与用户终端n的关联情况,
Figure BDA0002040721300000082
表示基站m的电路消耗功率,s.t.表示xm,n与pm,n的约束条件,pmax表示基站m的最大发射功率,Rt表示用户n收到的最小信息传输速率或最小服务质量要求,Im为基站m接收到的最大干扰限制阈值。
本实施例中,为得到优化的基站与用户的关联策略,利用拉格朗日对偶分解法,所构建的拉格朗日函数为:
Figure BDA0002040721300000083
其中,μ、λ、ν、τ为μm、λm、νn、τm的简写形式,都表示拉格朗日乘子。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,用户关联判决矩阵表示为:
Figure BDA0002040721300000084
其中,Θm,n表示用户关联判决矩阵,μm、λm、νn、τm都表示拉格朗日乘子,t表示第t次迭代。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,基站与用户的关联策略表示为:
Figure BDA0002040721300000091
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,基于生成的基站与用户的关联策略,基站到用户的发射功率的更新公式表示为:
Figure BDA0002040721300000092
Figure BDA0002040721300000093
其中,t表示第t次迭代;δ为迭代更新步长;f(pm,n)为简写形式。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,在训练深度神经网络模型之前,对训练集中的数据进行归一化处理。
本实施例中,根据基站与用户的关联策略
Figure BDA0002040721300000094
可以确定xm,n,以xm,n为例,归一化处理可以表述为:
Figure BDA0002040721300000095
其中,μm为均值,δm为标准差,
Figure BDA0002040721300000096
分别表示归一化处理后的基站与用户终端的关联数据集和基站m与用户终端n的关联情况。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,深度神经网络模型的激活函数为线性整流函数,损失函数为均方误差函数。
本实施例中,以xm,n为例,均方误差函数表示为:
Figure BDA0002040721300000097
其中,
Figure BDA0002040721300000098
为深度神经网络模型输出的xm,n的预测值。
在前述基于分布式机器学习的无线网络资源分配方法的具体实施方式中,进一步地,所述根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型包括:
在训练过程中,各基站侧的工作节点采用分布式异步并行方式进行梯度计算,并将计算得到的梯度上传到参数服务器,所述参数服务器用于更新深度神经网络模型的权重;其中,梯度表示为:
Figure BDA0002040721300000101
其中,wt表示第t次迭代的权重;
Figure BDA0002040721300000102
表示在第m个基站处的工作节点的样本
Figure BDA0002040721300000103
的梯度;
Figure BDA0002040721300000104
为第m个基站处工作节点的训练集中的样本,
Figure BDA0002040721300000105
包括xm,n和pm,n
Figure BDA0002040721300000106
表示使用梯度计算方法求解深度神经网络模型的权重;
参数服务器根据接收到的梯度更新权重,并将更新后的权重返回给对应的工作节点,以完成深度神经网络模型的训练,其中,权重的更新公式为:
Figure BDA0002040721300000107
其中,η表示学习率,wt+1表示第t+1次迭代的权重。
本实施例中,当处理属于基站的不同用户设备中的网络环境系数更新时,会执行异步更新,这些用户设备互不影响。这样,即使某些用户设备性能特别差,甚至退出训练,训练效果和训练效率也不会受到很大影响。因此,该方法更适合于海量数据和频繁更新,具有较好的鲁棒性。
本实施例中,根据S3生成相应基站侧深度神经网络模型的训练集,还可以按照S3生成不同于训练集的测试集,所述测试集用于测试训练得到的深度神经网络模型是否准确。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (3)

1.一种基于分布式机器学习的无线网络资源分配方法,其特征在于,包括:
S1,在各基站侧构建相同规模的深度神经网络模型,并将初始化后的原始网络环境系数划分为多组网络环境系数;
S2,以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略;
S3,将网络环境系数和与各基站相关的最优的用户关联策略和功率分配策略存储为相应基站侧深度神经网络模型的训练集;
S4,根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型;
S5,获取待处理的网络环境系数,将其输入到训练好的深度神经网络模型中进行神经网络计算,输出结果为优化后的用户关联策略和功率分配策略;
其中,所述以提升系统能量效率为目标,对每组网络环境系数,分别利用拉格朗日对偶分解法,确定最优的用户关联策略和功率分配策略包括:
S21,对每组网络环境系数,确定基站到用户终端的信息传输速率及系统能量效率;
S22,根据确定的基站到用户终端的信息传输速率及系统的能量效率,利用拉格朗日对偶分解法,确定用户关联判决矩阵;
S23,根据确定的用户关联判决矩阵,生成基站与用户的关联策略;
S24,基于生成的基站与用户的关联策略,对基站到用户的发射功率进行更新;
S25,根据生成的基站与用户的关联策略及更新得到的基站到用户的发射功率,确定系统能量效率;若当前确定的系统能量效率与上一次确定的系统能量效率之间的差值小于预设的阈值,则判断生成的基站与用户的关联策略及更新得到的基站到用户的发射功率为最优分配策略;否则,返回S21继续执行;
基站到用户终端的信息传输速率表示为:
Figure FDA0003017574180000021
Figure FDA0003017574180000022
其中,cm,n表示基站m到用户终端n的信息传输速率;M表示基站的集合,W为系统带宽,Km表示与基站m相关联的用户终端个数,γm,n表示用户终端n从基站m获得的信号信噪比,pm,n表示基站m到用户终端n的发射功率,hm,n表示用户终端n与基站m之间的信道系数,hk,n表示用户终端n与除基站m外的其他基站之间的信道系数,pk,n表示除基站m外的其他基站到用户终端n的发射功率,σ表示加性高斯白噪声的功率谱密度;
系统能量效率表示为:
Figure FDA0003017574180000023
Figure FDA0003017574180000024
其中,N表示所有用户的集合,xm,n表示基站m与用户终端n的关联情况,
Figure FDA0003017574180000025
表示基站m的电路消耗功率,s.t.表示xm,n与pm,n的约束条件,pmax表示基站m的最大发射功率,Rt表示用户n收到的最小信息传输速率或最小服务质量要求,Im为基站m接收到的最大干扰限制阈值;
用户关联判决矩阵表示为:
Figure FDA0003017574180000026
其中,Θm,n表示用户关联判决矩阵,μm、λm、νn、τm都表示拉格朗日乘子,t表示第t次迭代;
基站与用户的关联策略表示为:
Figure FDA0003017574180000031
基站到用户的发射功率的更新公式表示为:
Figure FDA0003017574180000032
Figure FDA0003017574180000033
其中,t表示第t次迭代,δ为迭代更新步长,f(pm,n)为简写形式;
所述根据各基站侧的训练集,各基站侧的工作节点采用分布式异步通信方式,训练深度神经网络模型包括:
在训练过程中,各基站侧的工作节点采用分布式异步并行方式进行梯度计算,并将计算得到的梯度上传到参数服务器;其中,梯度表示为:
Figure FDA0003017574180000034
其中,wt表示第t次迭代的权重;
Figure FDA0003017574180000035
表示在第m个基站处的工作节点的样本
Figure FDA0003017574180000036
的梯度;
Figure FDA0003017574180000037
为第m个基站处工作节点的训练集中的样本,
Figure FDA0003017574180000038
包括xm,n和pm,n
Figure FDA0003017574180000039
表示使用梯度计算方法求解深度神经网络模型的权重;
参数服务器根据接收到的梯度更新权重,并将更新后的权重返回给对应的工作节点,以完成深度神经网络模型的训练,其中,权重的更新公式为:
Figure FDA00030175741800000310
其中,η表示学习率,wt+1表示第t+1次迭代的权重。
2.根据权利要求1所述的基于分布式机器学习的无线网络资源分配方法,其特征在于,在训练深度神经网络模型之前,对训练集中的数据进行归一化处理。
3.根据权利要求1所述的基于分布式机器学习的无线网络资源分配方法,其特征在于,深度神经网络模型的激活函数为线性整流函数,损失函数为均方误差函数。
CN201910341080.XA 2019-04-25 2019-04-25 一种基于分布式机器学习的无线网络资源分配方法 Active CN110167176B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910341080.XA CN110167176B (zh) 2019-04-25 2019-04-25 一种基于分布式机器学习的无线网络资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910341080.XA CN110167176B (zh) 2019-04-25 2019-04-25 一种基于分布式机器学习的无线网络资源分配方法

Publications (2)

Publication Number Publication Date
CN110167176A CN110167176A (zh) 2019-08-23
CN110167176B true CN110167176B (zh) 2021-06-01

Family

ID=67640024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910341080.XA Active CN110167176B (zh) 2019-04-25 2019-04-25 一种基于分布式机器学习的无线网络资源分配方法

Country Status (1)

Country Link
CN (1) CN110167176B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110635833B (zh) * 2019-09-25 2020-12-15 北京邮电大学 一种基于深度学习的功率分配方法及分配装置
CN111970718B (zh) * 2020-07-22 2022-03-11 西北工业大学 能量收集不可信中继网络中基于深度学习的功率分配方法
CN111784002B (zh) * 2020-09-07 2021-01-19 腾讯科技(深圳)有限公司 分布式数据处理方法、装置、计算机设备及存储介质
CN112153616B (zh) * 2020-09-15 2022-07-08 南京信息工程大学滨江学院 一种基于深度学习的毫米波通信系统中的功率控制方法
CN113473580B (zh) * 2021-05-14 2024-04-26 南京信息工程大学滨江学院 异构网络中基于深度学习的用户关联联合功率分配方法
CN114531726B (zh) * 2021-06-30 2024-03-29 南京信息工程大学滨江学院 基于密集无线网络的功率控制方法
CN113570207B (zh) * 2021-07-09 2024-04-26 北京淇瑀信息科技有限公司 用户策略分配方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107249190A (zh) * 2017-05-17 2017-10-13 桂林电子科技大学 基于神经网络和时间演化的小小区微基站频谱拍卖方法
CN108123828A (zh) * 2017-12-04 2018-06-05 东南大学 一种基于接入用户移动性预测的超密集网络资源分配方法
CN108848561A (zh) * 2018-04-11 2018-11-20 湖北工业大学 一种基于深度强化学习的异构蜂窝网络联合优化方法
CN109474980A (zh) * 2018-12-14 2019-03-15 北京科技大学 一种基于深度增强学习的无线网络资源分配方法
CN109561435A (zh) * 2017-09-27 2019-04-02 中兴通讯股份有限公司 一种资源分配方法及服务器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107249190A (zh) * 2017-05-17 2017-10-13 桂林电子科技大学 基于神经网络和时间演化的小小区微基站频谱拍卖方法
CN109561435A (zh) * 2017-09-27 2019-04-02 中兴通讯股份有限公司 一种资源分配方法及服务器
CN108123828A (zh) * 2017-12-04 2018-06-05 东南大学 一种基于接入用户移动性预测的超密集网络资源分配方法
CN108848561A (zh) * 2018-04-11 2018-11-20 湖北工业大学 一种基于深度强化学习的异构蜂窝网络联合优化方法
CN109474980A (zh) * 2018-12-14 2019-03-15 北京科技大学 一种基于深度增强学习的无线网络资源分配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A Neural Network Based Resource Allocation Scheme for 4G LTE Heterogeneous Network;Satyanarayan. K. Padaganur等;《IEEE》;20171231;第250-254页 *

Also Published As

Publication number Publication date
CN110167176A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
CN110167176B (zh) 一种基于分布式机器学习的无线网络资源分配方法
Lee et al. Deep power control: Transmit power control scheme based on convolutional neural network
CN109639377B (zh) 基于深度强化学习的频谱资源管理方法
CN111800828B (zh) 一种超密集网络的移动边缘计算资源分配方法
CN111629380B (zh) 面向高并发多业务工业5g网络的动态资源分配方法
Sun et al. Deep learning-based long-term power allocation scheme for NOMA downlink system in S-IoT
CN111628855B (zh) 基于深度强化学习的工业5g动态多优先级多接入方法
Rajapaksha et al. Deep learning-based power control for cell-free massive MIMO networks
CN110233755B (zh) 一种物联网中雾计算的计算资源和频谱资源分配方法
CN112911608B (zh) 一种面向边缘智能网络的大规模接入方法
CN111970033B (zh) 能效谱效联合优化的大规模mimo多播功率分配方法
CN112105062A (zh) 时敏条件下移动边缘计算网络能耗最小化策略方法
CN111917445B (zh) 一种最大化最小能效多小区大规模mimo波束域功率分配方法
CN111835406A (zh) 适用于多波束卫星通信的能效谱效权衡的鲁棒预编码方法
CN114885420A (zh) 一种noma-mec系统中的用户分组和资源分配方法及装置
CN116456493A (zh) 一种基于深度强化学习算法的d2d用户资源分配方法及存储介质
CN114641076A (zh) 一种超密集网络中基于动态用户满意度的边缘计算卸载方法
CN114219354A (zh) 一种基于联邦学习资源分配优化方法及系统
Sun et al. Unsupervised deep learning for optimizing wireless systems with instantaneous and statistic constraints
CN115866787A (zh) 融合终端直传通信和多接入边缘计算的网络资源分配方法
CN110139282B (zh) 一种基于神经网络的能量采集d2d通信资源分配方法
TWI756438B (zh) 用於無線通訊的電子設備和方法
CN114302497A (zh) 一种应用于非授权毫米波段异构网络共存的调度方法
CN111682915B (zh) 一种频谱资源自分配方法
Das et al. Reinforcement learning-based resource allocation for M2M communications over cellular networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant