CN111126562B - 基于神经网络的目标算法拟合方法、终端以及应用 - Google Patents

基于神经网络的目标算法拟合方法、终端以及应用 Download PDF

Info

Publication number
CN111126562B
CN111126562B CN201911153108.3A CN201911153108A CN111126562B CN 111126562 B CN111126562 B CN 111126562B CN 201911153108 A CN201911153108 A CN 201911153108A CN 111126562 B CN111126562 B CN 111126562B
Authority
CN
China
Prior art keywords
neural network
algorithm
iteration
variable
variables
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911153108.3A
Other languages
English (en)
Other versions
CN111126562A (zh
Inventor
李成林
刘春苗
戴文睿
邹君妮
熊红凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201911153108.3A priority Critical patent/CN111126562B/zh
Publication of CN111126562A publication Critical patent/CN111126562A/zh
Application granted granted Critical
Publication of CN111126562B publication Critical patent/CN111126562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J11/00Orthogonal multiplex systems, e.g. using WALSH codes
    • H04J11/0023Interference mitigation or co-ordination
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本发明提供了一种基于神经网络的目标算法拟合方法,包括:获取能够被神经网络逼近的目标算法;对目标算法运行一次迭代得到不同输入和输出变量的数据集;将输入变量作为自变量,输出变量作为因变量,使用多元多项式拟合一次迭代的输入和输出变量;确定拟合单次迭代过程中多元多项式的单隐层神经网络结构;重复上述迭代过程,并将每一次的迭代过程串联起来,得到最终可以拟合整个目标算法的深度神经网络。同时提出了一种基于上述方法得到的深度神经网络、基于WMMSE算法的信道容量及能量分配优化方法以及用于执行上述方法的终端。本发明解决了复杂算法的拟合问题,并且能够实际指导神经网络的结构设计及神经网络层数和神经元个数的选取。

Description

基于神经网络的目标算法拟合方法、终端以及应用
技术领域
本发明涉及一种深度学习技术领域的方法,具体地,涉及一种基于神经网络的目标算法拟合方法、终端以及应用,其中,所述的拟合方法引用多元多项式,是一种可实用的用于算法逼近的深度神经网络架构构造技术。
背景技术
无论是在通信还是其他领域,有众多优化算法用以解决资源分配、信号处理等问题,但是对于一些较复杂的问题,人工设计的优化算法往往具有相当的复杂性,在理论设计和实时处理之间造成了严重的差距。
目前,深度学习是一个非常成功的工具,也有一部分工作对如何利用神经网络逼近优化算法做出了初步的探索和尝试,并且在不同场景下通过实验均显示出神经网络优越的实时性和计算性能。但神经网络走向实用化很大的一个障碍是系统能力验证研究的落后,从而导致了无法在实际应用中对网络的性能有一个数量上的把握。另外深度学习可解释性尚待进一步的研究发展,所以如何利用先验知识来指导架构神经网络以实现我们的期望也是目前研究者们遇到的障碍。
经过对现有技术的检索发现,N.Samuel等人在2017年的《IEEE InternationalWorkshop on Signal Processing Advances in Wireless Communications》(IEEE SPAWCWorkshop)会议上发表了题为“Deep MIMO detection”的文献,该文献将“深度展开”的思想:即将目标算法的每一次迭代分别用一层神经网络来拟合,应用到MIMO检测的算法中,通过逐层拟合算法和通过神经网络做简单函数的逼近来实现完整算法拟合。但是这种思路只适用于一类结构简单清晰能够展开的算法,然而,对于复杂的算法来说并不能保证一次迭代可以通过一层结构化的网络来拟合,其次,关于每层网络架构时神经元个数的选择并没有严格的理论依据,而且对于逼近精度没有限制。
经检索还发现,H.Sun等人在2018年《IEEE Transactions on SignalProcessing》的期刊上发表了题为“Learning to Optimize:Training Deep NeuralNetworks for Interference Management”的文献,该文献提出一种新的用深度神经网络逼近算法的方法,不同于之前展开的方式,这里采取了全连接的深度神经网络并就逼近精度给出了严格的理论证明用于确定在一定逼近精度下神经网络所需的层数及每层的神经元个数。这一方法的核心思想是通过对一次迭代过程中函数乘法和除法的逼近来构建一个个小的神经网络,然后将这些网络组合形成能够拟合一次迭代的完整的神经网络。最后按照所需的迭代次数确定最终的网络结构。但是该文献仅给了一套初步的理论依据,由该理论推导所得的网络上界太大以至于不能够在实际网络的搭建环节对于神经网络层数和神经元个数的选取起到指导作用。比如,在全双工多用户MIMO系统中,存在着基站自干扰、用户间干扰、基站间干扰,需要进行干扰抑制和消除,WMMSE算法解决的是在干扰广播信道下使得系统的容量最大化。现有技术无法解决全双工信道系统中信道容量最大化以及在资源分配过程中的能量分配问题。
目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于神经网络的目标算法拟合方法、终端以及应用,并可实际应用于指导神经网络拟合算法的神经网络构建,比如可以用于解决全双工信道系统中信道容量最大化以及在资源分配过程中的能量分配问题。
本发明是通过以下技术方案实现的。
根据本发明的一个方面,提供了一种基于神经网络的目标算法拟合方法,包括:
S1,在全双工多用户MIMO系统中获取能够被神经网络逼近的目标算法;
S2,对S1中获取的目标算法的一次迭代过程进行分析,确定一次迭代过程的输入变量和输出变量;运行一次迭代过程,得到包括不同输入变量和对应生成的输出变量的迭代变量,并形成数据集;将一次迭代过程中的输入变量作为多元多项式的自变量,输出变量作为多元多项式的因变量,使用多元多项式拟合一次迭代过程的输入变量和输出变量得到相应的多元多项式方程;
S3,计算单隐层神经网络拟合多元多项式所需的隐层神经元个数,由此确定拟合一次迭代过程中多元多项式的单隐层神经网络结构,其中,单隐层神经网络的输入层神经元个数由输入变量个数确定,隐层节点数由多元多项式自变量个数n和阶数p确定,输出层神经元个数由迭代的输出变量个数确定;
S4,重复执行S2和S3的迭代过程,并将每一次的迭代过程串联起来,得到最终可以拟合整个目标算法的深度神经网络。
优选地,S1中,所述能够被神经网络逼近的目标算法满足以下条件:
所述目标算法的迭代部分仅由函数组成,其中每个函数都是紧集上的连续映射;
所述目标算法的算法部分仅包含算术运算。
优选地,S2中,所述多元多项式方程包括一个或者多个n元p阶的多元多项式。
优选地,S3中,所述确定拟合多元多项式的神经网络结构的步骤为:首先由多元多项式的自变量个数n确定单隐层神经网络的输入层神经元个数;然后根据n元p阶的多元多项式个数d来确定单隐层神经网络的输出层神经元个数;最后根据
Figure BDA0002284102300000031
来确定单隐层神经网络的隐层神经元个数;其中:
多元多项式的自变量个数即为一次迭代的输入变量个数;n元p阶的多元多项式个数即为一次迭代的输出变量个数。
优选地,S4中,通过重复执行S2和S3的迭代过程,不断得到新的迭代变量,并将新的迭代变量与目标算法中参与运算的固定变量进行组合作为下一次迭代过程的输入变量,以此类推,将每一次迭代过程逐步连接,得到最终的深度神经网络。
优选地,还包括:
S5,通过运行S1中获得的目标算法,得到多个输入变量及其对应的输出变量,以更新数据集,使用得到的新的数据集中的一部分作为训练集来训练S4中得到的深度神经网络;
S6,使用S5中得到数据集中的另一部分作为测试集,以验证S4中得到的深度神经网络的正确性和实时性。
优选地,S5中,使用数据集训练深度神经网络的过程中加入了中间监督过程,所述中间监督过程为:将目标算法每次迭代得到的迭代变量xt引入深度神经网络并与深度神经网络每次输出的迭代变量
Figure BDA0002284102300000032
进行比较,得到的损失函数为:
Figure BDA0002284102300000033
其中,T为迭代次数。
优选地,S6中,使用数据集验证深度神经网络的正确性和实时性的方法为如下任意一种或任意多种:
-直接对比深度神经网络的输出变量和数据集中的输出变量,得到深度神经网络的拟合精度;
-采取跟目标算法相关的评价指标进行对比,得到深度神经网络的拟合精度;其中,评价指标跟具体目标算法有关,例如WMMSE算法规划的是一个和速率最大化(Sum RateMaximization,SRM)问题,进行逼近时,会对输出变量计算和速率(Sum Rate,SR)以使得与原始算法的输出计算的SR进行对比。
-对比深度神经网络和目标算法的计算时间,验证深度神经网络的实时性。
根据本发明的第二个方面,提供了一种终端,包括存储器、处理器及存储在存储器上并能够在处理器上运行的计算机程序,所述处理器执行所述计算机程序时能够用于执行上述任一项所述的方法。
根据本发明的第三个方面,提供了一种用于算法逼近的深度神经网络,所述深度神经网络通过上述任一项所述的方法构造得到。
根据本发明的第四个方面,提供了一种基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,所述WMMSE算法通过上述任一项所述的方法进行算法逼近,利用构建的深度神经网络替代WMMSE算法,则WMMSE算法迭代过程中的输入变量即为深度神经网络的输入,WMMSE算法迭代过程中的输出变量即为深度神经网络的输出,最终得到优化分配给每个发射机的功率和最大化的系统信道容量,实现信道容量及能量分配优化。
具体地:
运行WMMSE算法的一次迭代过程,得到关于输入变量
Figure BDA0002284102300000041
k=1,...,K,j=1,...,K和输出变量
Figure BDA0002284102300000042
k=1,...,K的数据集,其中
Figure BDA0002284102300000043
k=1,...,K,j=1,...,K表示从发送端j到接收端k之间的干扰信道,K表示用户数目,初始变量
Figure BDA0002284102300000044
k=1,...,K是发射功率pk的平方根;使用多元多项式拟合一次迭代过程的输入变量和输出变量得到相应的多元多项式方程;
设计单隐层神经网络拟合多元多项式;
重复WMMSE算法的迭代过程,构建能够拟合WMMSE算法的深度神经网络;
利用构建得到的深度神经网络替代WMMSE算法,则深度神经网络输入为
Figure BDA0002284102300000045
k=1,...,K,j=1,...,K时,经过深度神经网络后得到的输出结果为
Figure BDA0002284102300000046
k=1,...,K;
对输出结果做平方运算得到
Figure BDA0002284102300000047
k=1,...,K,即为最终优化分配给每个发射机的功率pk,k=1,...,K;
将输出结果代入
Figure BDA0002284102300000048
其中,αk表示用户k在系统中被服务的优先级,
Figure BDA0002284102300000049
为常数,所得便是最大化的系统信道容量;
最终实现信道容量及能量分配优化。
与现有技术相比,本发明具有如下有益效果:
本发明提供的基于神经网络的目标算法拟合方法、终端以及应用,基于现有的算法逼近技术,结合神经网络函数逼近定理,构建一套具有一定实用性的可用于算法逼近的深度神经网络的构造以及指导神经网络拟合算法的方法。相比现有技术而言,本发明既可以解决复杂算法的拟合问题,并且本发明提出的技术方案可以实际指导神经网络的结构设计及神经网络层数和神经元个数的选取。
本发明提供的基于神经网络的目标算法拟合方法、终端以及应用,可应用于无线资源分配领域。在全双工多用户MIMO系统中,存在着基站自干扰、用户间干扰、基站间干扰,需要进行干扰抑制和消除,可以通过例如WMMSE算法等解决在这样的干扰广播信道下使得系统的容量最大化。利用本发明所述方法逼近WMMSE算法,可以在用户数为K=5时,神经网络逼近精度可以达到目标算法的99.208%,而运行时间仅为目标算法的1.646%,即将该神经网络替代WMMSE算法可以求得系统最大化容量为使用算法求得系统最大化容量的99.208%,但是神经网络的运算时间可以大大降低至原来的1.646%。
本发明提供的基于神经网络的目标算法拟合方法、终端以及应用,也可用于当发送端知道信道状态信息时,根据信道状况对发送功率进行自适应分配,以实现最大化传输速率的迭代注水算法(IWFA);能就针对蜂窝用户与设备直连(D2D)用户所构成的混合网络系统中的同频干扰问题,利用基站定价来减小蜂窝系统的干扰,同时考虑D2D用户的利润对蜂窝基站的干扰来更新价格,以此来调整发射功率最大化系统整体收益的迭代干扰定价算法(IPA);在信号处理领域,对于稀疏矩阵压缩中将满秩矩阵转化为压缩稀疏列(CSC)形式的块梯度下降算法(BCDA)同样可以使用本发明所提的方法进一步提升算法计算速度,节约计算资源。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中所提供的用于算法逼近的深度神经网络的构造方法的方法流程图;
图2为本发明实施例中所提供的用于算法逼近的深度神经网络结构示意图;
图3为采用WMMSE算法作为目标算法,基于本发明实施例中所提供的方法构造得到的深度神经网络实现的关于精度和计算时间的性能示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明实施例提供了一种基于神经网络的目标算法拟合方法,包括以下步骤:
第一步,在全双工多用户MIMO系统中获取能够被神经网络逼近的目标算法;
第二步,对第一步中获取的目标算法的一次迭代过程进行分析,确定一次迭代过程的输入变量和输出变量;运行一次迭代过程,得到包括不同输入变量和对应生成的输出变量的迭代变量,并形成数据集;将一次迭代过程中的输入变量作为多元多项式的自变量,输出变量作为多元多项式的因变量,使用多元多项式拟合一次迭代过程的输入变量和输出变量得到相应的多元多项式方程;
第三步,根据已有的构造性证明(见定理1)可以计算得到单隐层神经网络拟合多元多项式所需的隐层神经元个数,由此确定拟合一次迭代过程中多元多项式的单隐层神经网络结构,其中,单隐层神经网络的输入层神经元个数由输入变量个数确定,隐层节点数由多元多项式自变量个数n和阶数p确定,输出层神经元个数由迭代的输出变量个数确定;
第四步,根据算法的迭代特性来设计深度神经网络的结构,即,重复执行第二步和第三步的迭代过程,并将每一次的迭代过程串联起来,得到最终可以拟合整个目标算法的深度神经网络。
本发明实施例所提供的方法,还包括:
第五步,通过运行第一步中获得的目标算法,得到大量输入变量及其对应的输出变量,以更新数据集,使用得到的新的数据集中的一部分(例如80%)来训练第四步中得到的深度神经网络;
第六步:使用第五步中得到的新的数据集中的另一部分(例如未被使用的20%)作为测试集,以验证第四步中得到的深度神经网络的正确性和实时性。
基于本发明实施例所提供的方法,本发明实施例同时提供了一种终端,包括存储器、处理器及存储在存储器上并能够在处理器上运行的计算机程序,所述处理器执行所述计算机程序时能够用于执行上述任一项所述的方法。
基于本发明实施例所提供的方法,本发明实施例同时提供了一种用于算法逼近的基于多元多项式深度神经网络,所述深度神经网络通过上述方法构造得到。
基于本发明实施例所提供的方法,本发明实施例同时提供了一种基于WMMSE算法的信道容量及能量分配优化方法,所述WMMSE算法通过上述任一项所述的方法进行算法逼近,包括:
运行WMMSE算法的一次迭代过程,得到拟合一次迭代过程的多元多项式;
设计单隐层神经网络拟合多元多项式;
重复WMMSE算法的迭代过程,构建能够拟合WMMSE算法的深度神经网络;
利用构建的深度神经网络替代WMMSE算法,则WMMSE算法迭代过程中的输入变量即为深度神经网络的输入,WMMSE算法迭代过程中的输出变量即为深度神经网络的输出,最终得到优化分配给每个发射机的功率和最大化的系统信道容量,实现信道容量及能量分配优化。
运行WMMSE算法的一次迭代过程中,得到关于输入变量
Figure BDA0002284102300000071
k=1,...,K,j=1,...,K和输出变量
Figure BDA0002284102300000072
k=1,...,K的数据集,其中
Figure BDA0002284102300000073
k=1,...,K,j=1,...,K表示从发送端j到接收端k之间的干扰信道,K表示用户数目,初始变量
Figure BDA0002284102300000074
k=1,...,K是发射功率pk的平方根。可以使用其中80%用以训练深度神经网络,另外20%作为验证集来验证深度神经网络的准确性。
对已经构建的深度神经网络进行训练,用训练好的深度神经网络替代WMMSE算法,则深度神经网络输入为
Figure BDA0002284102300000075
k=1,...,K,j=1,...,K时,经过深度神经网络后得到的输出为
Figure BDA0002284102300000076
k=1,...,K。
对输出结果做平方运算得到
Figure BDA0002284102300000077
k=1,...,K即为最终优化分配给每个发射机的功率pk,k=1,...,K。
把输出结果代入
Figure BDA0002284102300000078
其中,αk表示用户k在系统中被服务的优先级,
Figure BDA0002284102300000079
为常数,所得便是最大化的系统信道容量。
最终实现信道容量及能量分配优化。
下面结合附图对本发明实施例所提供的技术方案进一步详细描述。
如图1所示,为一种基于神经网络的目标算法拟合方法的流程图,具体实现包括如下步骤:
第一步,在全双工多用户MIMO系统中获取算法,判断该算法是否可以被深度神经网络逼近,得到能够被神经网络逼近的目标算法
由于神经网络的算法逼近是基于单隐层神经网络对函数的万能逼近定理,所以目标算法必须满足:
1)目标算法的迭代部分只是由函数组成,没有判断、分支条件。
2)目标算法的迭代部分的每个函数都是紧集上的连续映射。
3)目标算法的算法部分只包含算术运算,不包含逻辑运算和关系运算。
第二步,使用多元多项式拟合一次迭代过程
图1中示出了对于一个迭代总次数为T的算法,对待第t次迭代过程,在得到对应的神经网络之前先使用多元多项式对第t次迭代过程进行拟合。首先确定目标算法一次迭代过程的输入变量作为多元多项式的自变量,运行一次迭代过程得到的输出变量作为多元多项式的因变量;可以使用R语言中的polyreg包进行多元多项式拟合一次迭代过程的所有输入和输出变量;对于多元多项式阶数的选择,本发明实施例分别计算选择该阶数时对应的皮尔逊相关系数R和均方误差MSE,计算公式如下:
Figure BDA0002284102300000081
Figure BDA0002284102300000082
式中,yi表示原始的被拟合数据中的输出变量,
Figure BDA0002284102300000083
表示由数据拟合所得多元多项式计算的数据结果,n表示数据集的个数,
Figure BDA0002284102300000084
表示原始数据集yi的平均值,
Figure BDA0002284102300000085
表示数据集
Figure BDA0002284102300000086
的平均值。
相关系数越大,均方误差越小就证明函数的拟合效果越好。
第三步,设计神经网络拟合多元多项式
图1中还示出了设计用于拟合由第二步中得到的多元多项式的神经网络结构,以实现对一次迭代过程中多元多项式的拟合。由T.Poggio等人在2017年《InternationalJournal of Automation and Computing》期刊上发表了题为“Why and when can deep-but not shallow-networks avoid the curse of dimensionality:A review”的文章,该文章中Corollary 1提到单隐层的神经网络逼近一个n元p阶的多元多项式需要
Figure BDA0002284102300000087
个隐层神经元。本发明实施例在此推论的基础上证明了如下定理:
定理1:设激活函数σ在
Figure BDA00022841023000000811
上具有p+1阶连续的有界导数,对于有相同自变量Y=(y1,y2,...,yn)和相同阶数p的不同多元多项式
Figure BDA0002284102300000088
可以构造n个输入,d个输出以及隐层单元个数为
Figure BDA0002284102300000089
的单隐层前向神经网络:
Figure BDA00022841023000000810
其中
Figure BDA0002284102300000091
对于任意的∈>0,使得
Figure BDA0002284102300000092
式中:
Figure BDA0002284102300000093
表示拟合第t次迭代时所得单隐层神经网络输出层第j个神经元,
Figure BDA0002284102300000094
表示拟合第t次迭代时所得的对应d个输出变量的多元多项式,
Figure BDA0002284102300000095
表示神经网络输入层和隐藏层之间的权重系数,
Figure BDA0002284102300000096
表示隐藏层和输出层之间的权重系数。
根据定理1和第二步中得到的多元多项式,可以得到拟合一次迭代过程的单隐层神经网络,其中单隐层神经网络输入层神经元个数由多元多项式的自变量个数n确定,单隐层神经网络输出层神经元个数根据n元p阶的多元多项式个数d(即输出变量个数)来确定,隐层神经元个数就由
Figure BDA0002284102300000097
来确定。
第四步,构建逼近目标算法的完整深度神经网络
如图2所示,给出了由算法迭代特性设计出的完整深度神经网络结构,整个神经网络的输入和输出是由目标算法的输入和输出确定的,其中输入是由目标算法的固定变量z和迭代变量x0两部分组成,权重层的神经元数量是由第三步得到的,经过第一次迭代之后可以得到新的迭代变量x1,将固定变量z传递至这一层与新的迭代变量x1组成下一次迭代新的输入,以此类推,得到目标算法最终的输出xT
第五步,训练深度神经网络
首先选取某种合理分布随机生成一系列满足输入条件的输入变量数据集,然后通过运行目标算法得到相应的输出变量,最终得到关于输入变量和输出变量的数据集。使用数据集的80%用于训练由步骤四构建的深度神经网络,在此训练过程中,为了避免梯度消失的问题并进一步提高预测的准确性,本发明实施例在网络训练过程中进一步增加了中间监督,在损失函数设计中考虑了每个基本网络块的输出,图2中也示出了加入中间监督的位置,即将算法每次迭代得到的迭代变量xt引入与神经网络每次输出的迭代变量
Figure BDA0002284102300000098
作比较,来进一步提高神经网络训练的精度,损失函数如下:
Figure BDA0002284102300000099
式中,T为迭代次数。
第六步,验证深度神经网络
首先选取第五步中的未被使用的20%数据作为测试神经网络的数据集,将该数据集的输入变量输入神经网络,得到对应的输出
Figure BDA00022841023000000910
将其与数据集中的输出xT比较验证所构建神经网络的正确性。此处比较也可以不直接对比输出变量,可根据目标算法的任务选取相应的评价指标来得到深度神经网络的拟合精度。
实施效果
本发明所述方法可应用于无线资源分配领域的WMMSE算法,也可用于当发送端知道信道状态信息时,根据信道状况对发送功率进行自适应分配,以实现最大化传输速率的迭代注水算法(IWFA);能就针对蜂窝用户与设备直连(D2D)用户所构成的混合网络系统中的同频干扰问题,利用基站定价来减小蜂窝系统的干扰,同时考虑D2D用户的利润对蜂窝基站的干扰来更新价格,以此来调整发射功率最大化系统整体收益的迭代干扰定价算法(IPA);在信号处理领域,对于稀疏矩阵压缩中将满秩矩阵转化为压缩稀疏列(CSC)形式的块梯度下降算法(BCDA)的迭代部分同样可以使用本发明所提的方法进一步提升算法计算速度,节约计算资源。
在下述实例中,本发明聚焦于解决全双工信道系统中信道容量最大化,下面以用于解决资源分配过程中的能量分配问题的WMMSE算法为实例进行分析。上述以其他算法作为目标算法的具体实施过程,与WMMSE算法相似,此处不再赘述。
在全双工多用户MIMO系统中,存在着基站自干扰、用户间干扰、基站间干扰,需要进行干扰抑制和消除,而WMMSE算法解决的就是在这样的干扰广播信道下使得系统的容量最大化。
WMMSE算法一次迭代过程如下:
Figure BDA0002284102300000101
Figure BDA0002284102300000102
Figure BDA0002284102300000103
其中,
Figure BDA0002284102300000104
k=1,...,K,j=1,...,K表示从发送端j到接收端k之间的干扰信道,K为用户数,
Figure BDA0002284102300000105
代表接收端k的加性噪声功率,通常为固定值,初始变量
Figure BDA0002284102300000106
k=1,...,K是发射功率pk的平方根,最终目标是优化分配给每个发射机的功率vk,k=1,...,K以使得系统信道容量最大化,以使加权的系统吞吐量最大化,而分配给每台发射机的功率是通过迭代算法的输出
Figure BDA0002284102300000107
k=1,...,K获得的。对于其中两个中间变量
Figure BDA0002284102300000108
Figure BDA0002284102300000109
分别用方程
Figure BDA00022841023000001010
和方程
Figure BDA00022841023000001011
来表示。
按照本发明所提出的步骤,第一步,判断该算法是否可以被神经网络拟合;由迭代部分是仅有函数运算组成的连续映射可知该算法满足被神经网络拟合的条件。
第二步,得到拟合一次迭代过程的多元多项式;联合方程(1)(2)(3)可得:
Figure BDA0002284102300000111
由方程(4)可知,该算法一次迭代过程的输入变量为
Figure BDA0002284102300000112
k=1,...,K,j=1,...,K,由于
Figure BDA0002284102300000113
为常数,则输入变量为
Figure BDA0002284102300000114
k=1,...,K,j=1,...,K,输出变量为
Figure BDA0002284102300000115
k=1,...,K,由此可以看出,该算法的迭代变量为
Figure BDA0002284102300000116
k=1,...,K,固定变量为{hkj},k=1,...,K,j=1,...,K,当用户量选取为10时,据此可以得到所用于拟合的多元多项式的自变量个数为100+10=110,所需多元多项式的个数为10个。再根据拟合所得不同阶数多元多项式的对应的皮尔逊相关系数R和均方误差MSE来选择合适的阶数。相关系数越大,均方误差越小就证明函数的拟合效果越好。
第三步,设计单隐层神经网络拟合多元多项式;这一步中单隐层神经网络的输入层由多元多项式自变量个数(即输入变量个数)确定,即110个神经元,输出层由多元多项式个数(即输出变量个数)来确定,即10个神经元,隐层神经元的个数由多元多项式自变量个数和阶数通过定理1中公式
Figure BDA0002284102300000117
来确定。
第四步,构建完整神经网络;其中输入层神经元个数为110,输入变量为
Figure BDA0002284102300000118
k=1,...,10,j=1,...,10,其中迭代变量为10个,固定变量为100个,经过第一个神经元个数为
Figure BDA0002284102300000119
的隐层后,输出为
Figure BDA00022841023000001110
k=1,...,10,共10个神经元,然后与上一个输入层的100个固定变量并联形成新的输入层,以此类推,共设计T个相同的模块之后便可以得到最终结果
Figure BDA00022841023000001111
k=1,...,10。
第五步,运行WMMSE算法,得到25000组输入变量
Figure BDA00022841023000001112
k=1,...,10,j=1,...,10和输出变量
Figure BDA00022841023000001113
k=1,...,10构成数据集,使用其中80%用以训练神经网络,另外20%作为验证集来验证神经网络的准确性。在这里,评价神经网络准确性的指标并非直接对比输出
Figure BDA00022841023000001114
k=1,...,10,而是从WMMSE所解决的问题考虑,如下:
Figure BDA00022841023000001115
Figure BDA00022841023000001116
其中αk表示用户k在系统中被服务的优先级,Pmax表示每个发射机的最大功率。
本发明将WMMSE算法和神经网络求解所得的输出
Figure BDA00022841023000001117
k=1,...,10分别代入式(5)求解得到相应的最大系统容量,即和速率(Sum Rate,SR),然后以SR来衡量神经网络的逼近精度。
上述实例中所用的目标算法为通信领域用于无线资源分配的经典WMMSE算法,利用该算法生成25000组数据集用于训练和测试根据此算法设计的深度神经网络,如图3所示,给出了基于本发明实施例提供的方法设计得到的深度神经网络实现的有关精度和运行时间的性能,其中K为用户数量,p为拟合多元多项式的阶数,DNN表示深度神经网络的性能数据,WMMSE表示目标算法的性能数据,本发明实施例实验结果可以看出,在K=5,p=2时,神经网络逼近精度可以达到目标算法的99.208%,而运行时间仅为目标算法的1.646%,对于K和p在其他取值时均表现出较高的逼近精度和较低的运行时间,表明通过本发明设计的神经网络具有拟合目标算法的能力。
通过引入基于机器学习的方法来拟合目标算法,使用端到端的映射形式的神经网络拟合目标算法,输入原始数据,直接输出预测结果,无需对原始数据进行特征提取。利用深度神经网络计算的优势来降低计算复杂度同时提高目标算法应用的实时性。将领域知识和先验融合到深度网络中,由此得到的深度神经网络来替代目标算法,能够在现有算法的基础上进一步节约计算资源、提高计算速度。
本发明上述实施例提供的基于神经网络的目标算法拟合方法、终端以及应用,为根据目标算法设计逼近该算法的深度神经网络提供了一种可实际应用的拟合方法,从神经网络函数逼近的角度出发,同时兼顾算法逐步迭代的特性,采用深度展开神经网络的方式,利用多元多项式和神经网络均具有函数逼近能力的特性引入多元多项式作为网络设计的桥梁,最终提出了一种新的可实际应用的并可用于指导神经网络拟合算法的神经网络构建方法并且给出了相应的理论分析和证明,进一步地对关于无线资源分配的WMMSE算法进行应用,实验结果表明本发明提出的方法能够在实现较高准确度的情况下节约计算时间极大地提升算法的实时性。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (8)

1.一种基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,在全双工多用户MIMO系统中,采用基于神经网络的目标算法拟合方法进行所述WMMSE算法拟合,其中:
所述基于神经网络的目标算法拟合方法,包括:
S1,获取能够被神经网络逼近的目标算法;
S2,对S1中获取的目标算法的一次迭代过程进行分析,确定一次迭代过程的输入变量和输出变量;运行一次迭代过程,得到包括不同输入变量和对应生成的输出变量的迭代变量,并形成数据集;将一次迭代过程中的输入变量作为多元多项式的自变量,输出变量作为多元多项式的因变量,使用多元多项式拟合一次迭代过程的输入变量和输出变量得到相应的多元多项式方程;
S3,计算单隐层神经网络拟合多元多项式所需的隐层神经元个数,由此确定拟合一次迭代过程中多元多项式的单隐层神经网络结构,其中,单隐层神经网络的输入层神经元个数由输入变量个数确定,隐层节点数由多元多项式自变量个数n和阶数p确定,输出层神经元个数由迭代的输出变量个数确定;
S4,重复执行S2和S3的迭代过程,并将每一次的迭代过程串联起来,得到最终可以拟合整个目标算法的深度神经网络;
所述采用基于神经网络的目标算法拟合方法进行所述WMMSE算法拟合,包括:
运行WMMSE算法的一次迭代过程,得到关于输入变量
Figure FDA0004120647560000011
和输出变量
Figure FDA0004120647560000012
的数据集,其中
Figure FDA0004120647560000013
表示从发送端j到接收端k之间的干扰信道,K表示用户数目,初始变量
Figure FDA0004120647560000014
是发射功率pk的平方根;使用多元多项式拟合一次迭代过程的输入变量和输出变量得到相应的多元多项式方程;
设计单隐层神经网络拟合多元多项式;
重复WMMSE算法的迭代过程,构建能够拟合WMMSE算法的深度神经网络;
利用构建得到的深度神经网络替代WMMSE算法,则深度神经网络输入为
Figure FDA0004120647560000015
时,经过深度神经网络后得到的输出结果为
Figure FDA0004120647560000016
对输出结果做平方运算得到
Figure FDA0004120647560000017
即为最终优化分配给每个发射机的功率pk,k=1,...,K;
将输出结果代入
Figure FDA0004120647560000021
其中,αk表示用户k在系统中被服务的优先级,
Figure FDA0004120647560000022
为常数,所得便是最大化的系统信道容量;
最终实现信道容量及能量分配优化。
2.根据权利要求1所述的基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,S1中,所述能够被神经网络逼近的目标算法满足以下条件:
所述目标算法的迭代部分仅由函数组成,其中每个函数都是紧集上的连续映射;
所述目标算法的算法部分仅包含算术运算。
3.根据权利要求1所述的基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,S2中,所述多元多项式方程包括一个或者多个n元p阶的多元多项式。
4.根据权利要求1所述的基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,S3中,所述确定拟合多元多项式的神经网络结构的步骤为:首先由多元多项式的自变量个数n确定单隐层神经网络的输入层神经元个数;然后根据n元p阶的多元多项式个数d来确定单隐层神经网络的输出层神经元个数;最后根据
Figure FDA0004120647560000023
来确定单隐层神经网络的隐层神经元个数;其中:
多元多项式的自变量个数即为一次迭代的输入变量个数;n元p阶的多元多项式个数即为一次迭代的输出变量个数。
5.根据权利要求1所述的基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,S4中,通过重复执行S2和S3的迭代过程,不断得到新的迭代变量,并将新的迭代变量与目标算法中参与运算的固定变量进行组合作为下一次迭代过程的输入变量,以此类推,将每一次迭代过程逐步连接,得到最终的深度神经网络。
6.根据权利要求1至5中任一项所述的基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,还包括:
S5,通过运行S1中获得的目标算法,得到多个输入变量及其对应的输出变量,以更新数据集,使用得到的新的数据集中的一部分作为训练集来训练S4中得到的深度神经网络;
S6,使用S5中得到数据集中的另一部分作为测试集,以验证S4中得到的深度神经网络的正确性和实时性。
7.根据权利要求6所述的基于WMMSE算法的信道容量及能量分配优化方法,其特征在于,S5中,使用数据集训练深度神经网络的过程中加入了中间监督过程,所述中间监督过程为:将目标算法每次迭代得到的迭代变量xt引入深度神经网络并与深度神经网络每次输出的迭代变量
Figure FDA0004120647560000031
进行比较,得到的损失函数为:
Figure FDA0004120647560000032
其中,T为迭代次数;
S6中,使用数据集验证深度神经网络的正确性和实时性的方法为如下任意一种或任意多种:
-直接对比深度神经网络的输出变量和数据集中的输出变量,得到深度神经网络的拟合精度;
-采取跟目标算法相关的评价指标进行对比,得到深度神经网络的拟合精度;
-对比深度神经网络和目标算法的计算时间,验证深度神经网络的实时性。
8.一种终端,包括存储器、处理器及存储在存储器上并能够在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时能够用于执行权利要求1至7中任一项所述的方法。
CN201911153108.3A 2019-11-22 2019-11-22 基于神经网络的目标算法拟合方法、终端以及应用 Active CN111126562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911153108.3A CN111126562B (zh) 2019-11-22 2019-11-22 基于神经网络的目标算法拟合方法、终端以及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911153108.3A CN111126562B (zh) 2019-11-22 2019-11-22 基于神经网络的目标算法拟合方法、终端以及应用

Publications (2)

Publication Number Publication Date
CN111126562A CN111126562A (zh) 2020-05-08
CN111126562B true CN111126562B (zh) 2023-04-28

Family

ID=70496205

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911153108.3A Active CN111126562B (zh) 2019-11-22 2019-11-22 基于神经网络的目标算法拟合方法、终端以及应用

Country Status (1)

Country Link
CN (1) CN111126562B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110401964B (zh) * 2019-08-06 2021-08-03 北京邮电大学 一种面向用户为中心网络基于深度学习的功率控制方法
CN112132260B (zh) * 2020-09-03 2021-04-20 深圳索信达数据技术有限公司 神经网络模型的训练方法、调用方法、设备及存储介质
CN113038612B (zh) * 2021-03-01 2023-02-28 南京工业大学 基于深度学习的认知无线电功率控制方法
WO2022198634A1 (zh) * 2021-03-26 2022-09-29 深圳大学 一种部分重叠信道频谱共享的深度学习方法及系统
CN113567921B (zh) * 2021-07-21 2023-08-01 中国人民解放军国防科技大学 一种基于深度展开网络的混合源定位方法及系统
CN113726350B (zh) * 2021-08-09 2022-11-01 哈尔滨工程大学 一种基于深度神经网络的强相关自干扰对消方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012038661A1 (fr) * 2010-09-24 2012-03-29 France Telecom Procede d'emission double iteratif de flux multiples par utilisateur pour un systeme mimo multi utilisateurs, emetteur, produit programme d'ordinateur et support d'information correspondants
WO2014043834A1 (zh) * 2012-09-24 2014-03-27 上海交通大学 最大化多小区下行加权和速率的单调优化方法
CN104270118A (zh) * 2014-09-03 2015-01-07 浙江理工大学 一种滤波前传中继网络中滤波器系数的设计方法
CN110401964A (zh) * 2019-08-06 2019-11-01 北京邮电大学 一种面向用户为中心网络基于深度学习的功率控制方法
CN110443364A (zh) * 2019-06-21 2019-11-12 深圳大学 一种深度神经网络多任务超参数优化方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012038661A1 (fr) * 2010-09-24 2012-03-29 France Telecom Procede d'emission double iteratif de flux multiples par utilisateur pour un systeme mimo multi utilisateurs, emetteur, produit programme d'ordinateur et support d'information correspondants
WO2014043834A1 (zh) * 2012-09-24 2014-03-27 上海交通大学 最大化多小区下行加权和速率的单调优化方法
CN104270118A (zh) * 2014-09-03 2015-01-07 浙江理工大学 一种滤波前传中继网络中滤波器系数的设计方法
CN110443364A (zh) * 2019-06-21 2019-11-12 深圳大学 一种深度神经网络多任务超参数优化方法及装置
CN110401964A (zh) * 2019-08-06 2019-11-01 北京邮电大学 一种面向用户为中心网络基于深度学习的功率控制方法

Also Published As

Publication number Publication date
CN111126562A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
CN111126562B (zh) 基于神经网络的目标算法拟合方法、终端以及应用
Qu et al. Harnessing smoothness to accelerate distributed optimization
CN109948029B (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN112101525A (zh) 一种通过nas设计神经网络的方法、装置和系统
CN111163487B (zh) 通信波形综合传输性能评价方法及系统
CN106022480B (zh) 基于d-s证据理论的机器人功能模块粒度划分评价方法
CN113537580B (zh) 一种基于自适应图学习的公共交通客流预测方法及系统
CN114585006B (zh) 基于深度学习的边缘计算任务卸载和资源分配方法
CN103888391A (zh) 基于双Sigmoid混沌神经网络的信号盲检测方法
CN110851662A (zh) 基于元路径的异质信息网络链路预测方法
CN112383369A (zh) 基于cnn-lstm网络模型的认知无线电多信道频谱感知方法
CN113051130A (zh) 结合注意力机制的lstm网络的移动云负载预测方法及系统
CN114169251A (zh) 一种超短期风电功率预测方法
CN114204971B (zh) 一种迭代的聚合波束成形设计和用户设备选择方法
CN111832637A (zh) 基于交替方向乘子法admm的分布式深度学习分类方法
Shao et al. Customised pearlmutter propagation: A hardware architecture for trust region policy optimisation
CN114722950A (zh) 一种多模态的多变量时间序列自动分类方法及装置
CN114528987A (zh) 一种神经网络边缘-云协同计算分割部署方法
CN112905436B (zh) 一种面向复杂软件的质量评估预测方法
CN116170066B (zh) 一种面向低轨卫星物联网的负载预测方法
CN103249050B (zh) 基于业务需求的多尺度频谱接入方法
CN107181705A (zh) 一种半盲信道估计方法及系统
Zhou et al. Big data and knowledge graph based fault diagnosis for electric power systems
CN109033603B (zh) 基于源流路径链的智能变电站二次系统仿真方法
Lim et al. Evolutionary optimization with dynamic fidelity computational models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant