CN113615277B - 一种基于神经网络的功率分配方法及装置 - Google Patents

一种基于神经网络的功率分配方法及装置 Download PDF

Info

Publication number
CN113615277B
CN113615277B CN201980094522.3A CN201980094522A CN113615277B CN 113615277 B CN113615277 B CN 113615277B CN 201980094522 A CN201980094522 A CN 201980094522A CN 113615277 B CN113615277 B CN 113615277B
Authority
CN
China
Prior art keywords
neural network
network model
layer
output
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980094522.3A
Other languages
English (en)
Other versions
CN113615277A (zh
Inventor
黄鸿基
胡慧
刘劲楠
杨帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN113615277A publication Critical patent/CN113615277A/zh
Application granted granted Critical
Publication of CN113615277B publication Critical patent/CN113615277B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

一种基于神经网络的功率分配方法及装置。根据该方法,可通过神经网络模型基于MIMO通信系统的信道向量特征,提取通信系统的特征,进一步基于神经网络模型通过多次迭代对该特征进行拟合,根据拟合结果确定针对每个用户分配的发送功率,由于在功率分配中考虑了通信系统的特征,可以优化发送功率的分配结果。

Description

一种基于神经网络的功率分配方法及装置
技术领域
本申请涉及无线通信技术领域,尤其涉及一种基于神经网络的功率分配方法及装置。
背景技术
多输入输出(multiple-input multiple-output,MIMO)通信系统可以极大地提高下一代通信系统的容量和通信速率,被认为是未来无线通信技术的发展方向。功率分配是MIMO通信系统的重要技术,在信号发射端合理的分配发射功率,能够在不增加额外发射功率和带宽消耗的情况下,令MIMO通信系统获得最大的系统容量,保证MIMO通信系统的通信效率。
随着大规模多输入输出技术(massive MIMO)以及非正交频分多址多输入多输出(multiple-input-multiple-output non-orthogonal multiple access,MIMO-NOMA)等技术的出现,MIMO通信系统的复杂度不断提升,现有功率分配方法由于无法充分学习复杂的MIMO通信系统的空间特征和信道特性导致功率分配效果不够理想。因此,需要寻找一种既能够实现更优的功率分配方案。
发明内容
本申请实施例提供一种基于神经网络的功率分配方法及装置,用于解决目前根据用户选取的关键字符向用户推送的信息不够精确的技术问题。
第一方面,本申请提供一种基于神经网络的功率分配方法。该方法所示步骤可由计算机装置执行。具体的,计算机装置可将输入参数输入至神经网络模型的输入层,所述输入参数包括通信系统中多个天线中的每个天线对于多个用户中的每个用户的信道向量特征,根据所述输入参数,提取所述通信系统的特征,基于所述神经网络模型,通过多次迭代对所述特征进行拟合,并将拟合结果传递到所述神经网络模型的输出层,从所述输出层获取为每个所述用户分配的发送功率,其中,所述发送功率根据所述拟合结果确定。
采用以上方法,通过神经网络模型,根据输入参数提取通信系统的特征,基于该特征确定为每个用户分配的发送功率,能够获得更为优化的功率分配方案,实现MIMO通信系统中天线发送功率的优化。
在一种可能的设计中,该神经网络模型的输出层的激活函数可以是Maxout函数。
在一种可能的设计中,所述输入层与所述输出层之间还可包括所述神经网络模型的多个隐含层。通过这些隐含层进行运算,可提高神经网络模型的运算量,提高结果的运算精度。
在一种可能的设计中,该神经网络模型的输出层的激活函数可以通过以下公式表示:
fMaxout=Sigmoid(xTwi+bi);
其中,fMaxout表示所述激活函数的运算结果,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数,wi表示第i个所述输出值的权重,bi表示第i个所述输出值的偏差,i=1、2......、X,xT表示x的转置,Sigmoid()表示Sigmoid函数。
在一种可能的设计中,该神经网络模型的输出层的激活函数,还可通过以下公式表示:
y=min(max(x,0),Pmax);
其中,y表示所述激活函数的运算结果,Pmax为预设值,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数。
在一种可能的设计中,所述输入层和所述多个隐含层的激活函数均为线性整流函数。
在一种可能的设计中,所述神经网络模型的损失函数包含第一惩罚项和/或第二惩罚项,所述损失函数用于所述神经网络模型的离线训练,其中,所述第一惩罚项用于约束所述发送功率大于目标功率值,所述第二惩罚项用于约束为每个用户分配的发送速率不小于目标发送速率的最小值。从而经过离线训练,能够使得神经网络模型中权重和偏差更能够体现通信系统的特征,优化输出结果。
在一种可能的设计中,所述第一惩罚项的系数的取值可以为[0,1],和/或,所述第二惩罚项的系数的取值可以为[0,1]。
在一种可能的设计中,所述神经网络模型的损失函数可通过以下公式表示:
Figure GPA0000310825710000041
其中,L表示所述损失函数的运算结果,N表示所述神经网络模型的训练样本的数量,M表示所述天线的数量,K表示所述用户的数量,Rsum表示为每个用户分配的发送速率的总和,βi,j,l为功率分配因子,i=1、2、......、N,j=1、2、......、N,l=1、2、......、N,Rmin表示所述发送速率的最小值,Rm,k表示第m个天线为第k个用户分配的发送速率,pm表示第m个天线的发送功率,τ表示所述第一惩罚项的系数,ρ表示所述第二惩罚项的系数,
Figure GPA0000310825710000042
表示所述第一惩罚项,
Figure GPA0000310825710000043
表示所述第二惩罚项。由于功率分配因子并非设置为一个数值,可根据该因子灵活调整功率分配结果,如提高针对某些用户的发送功率,以针对用户提高通信质量。
在一种可能的设计中,所述Rsum可以通过以下公式表示:
Figure GPA0000310825710000044
其中,δ2为加性高斯白噪声的方差,
Figure GPA0000310825710000045
为信干燥比。由于针对不同用户的功率分配因子β并非设置为一个相同的数值,可根据该因子灵活调整功率分配结果,如提高针对某些用户的发送功率,以针对用户提高通信质量。
在一种可能的设计中,所述βi,j,l的取值范围可以为[0,1]。
第二方面,本申请实施例提供一种计算机装置,该计算机装置可具有上述第一方面或第一方面的任意一种可能的设计中所涉及方法的功能,从而可用于执行上述第一方面或第一方面的任意一种可能的涉及所示的方法。该功能可通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
在一种可能的设计中,该计算机装置可包括输入模块、特征提取模块、拟合模块以及输出模块。其中,输入模块可用于将输入参数输入至神经网络模型的输入层,所述输入参数包括通信系统中多个天线中的每个天线对于多个用户中的每个用户的信道向量特征。特征提取模块可用于根据所述输入参数,提取所述通信系统的特征。拟合模块可用于基于所述神经网络模型,通过多次迭代对所述特征进行拟合,并将拟合结果传递到所述神经网络模型的输出层。输出模块可用于从所述输出层获取为每个所述用户分配的发送功率,其中,所述发送功率根据所述拟合结果确定。
在一种可能的设计中,该神经网络模型的输出层的激活函数可以是Maxout函数。
在一种可能的设计中,所述输入层与所述输出层之间还可包括所述神经网络模型的多个隐含层。
在一种可能的设计中,该神经网络模型的输出层的激活函数可以通过以下公式表示:
fMaxout=Sigmoid(xTwi+bi);
其中,fMaxout表示所述激活函数的运算结果,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数,wi表示第i个所述输出值的权重,bi表示第i个所述输出值的偏差,i=1、2......、X,xT表示x的转置,Sigmoid()表示Sigmoid函数。
在一种可能的设计中,该神经网络模型的输出层的激活函数,还可通过以下公式表示:
y=min(max(x,0),Pmax);
其中,y表示所述激活函数的运算结果,Pmax为预设值,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数。
在一种可能的设计中,所述输入层和所述多个隐含层的激活函数均为线性整流函数。
在一种可能的设计中,所述神经网络模型的损失函数包含第一惩罚项和/或第二惩罚项,所述损失函数用于所述神经网络模型的离线训练,其中,所述第一惩罚项用于约束所述发送功率大于目标功率值,所述第二惩罚项用于约束为每个用户分配的发送速率不小于目标发送速率的最小值,从而经过训练能够使得神经网络模型中权重和偏差更能够体现通信系统的特征,优化输出结果。
在一种可能的设计中,所述第一惩罚项的系数的取值可以为[0,1],和/或,所述第二惩罚项的系数的取值可以为[0,1]。
在一种可能的设计中,所述神经网络模型的损失函数可通过以下公式表示:
Figure GPA0000310825710000051
其中,L表示所述损失函数的运算结果,N表示所述神经网络模型的训练样本的数量,M表示所述天线的数量,K表示所述用户的数量,Rsum表示为每个用户分配的发送速率的总和,βi,j,l为功率分配因子,i=1、2、......、N,j=1、2、......、N,l=1、2、......、N,Rmin表示所述发送速率的最小值,Rm,k表示第m个天线为第k个用户分配的发送速率,pm表示第m个天线的发送功率,τ表示所述第一惩罚项的系数,ρ表示所述第二惩罚项的系数,
Figure GPA0000310825710000052
表示所述第一惩罚项,
Figure GPA0000310825710000053
表示所述第二惩罚项。
在一种可能的设计中,所述Rsum可以通过以下公式表示:
Figure GPA0000310825710000054
其中,δ2为加性高斯白噪声的方差,
Figure GPA0000310825710000055
为信干燥比。
在一种可能的设计中,所述βi,j,l的取值范围可以为[0,1]。
第三方面,本申请实施例提供一种计算机可读存储介质,包括程序指令,当所述程序指令在计算机上运用时,使得计算机实现第一方面或第一方面的任意可能的设计所涉及的功能。
第四方面,本申请实施例提供一种计算机程序产品,当其在计算机上运行时,使得计算机实现第一方面或第一方面的任意可能的设计所涉及的功能。
第五方面,本申请实施例提供一种系统,该系统包括第二方面或第二方面的任意可能的设计所涉及的装置。
第六方面,本申请实施例提供一种芯片,该芯片可以与存储器耦合,用于读取并执行该存储器中存储的程序或指令,以实现上述第一方面或第二方面第一方面的任意可能的设计所涉及的功能。
以上第二方面至第六方面任意可能的设计的有益效果,可参照第一方面及第一方面中任意可能的设计的有益效果。
附图说明
图1为本申请实施例适用的一种神经网络模型的示意图;
图2为本申请实施例提供的一种计算机装置的结构示意图;
图3为本申请实施例提供的一种管理分配方法的流程示意图;
图4为本申请实施例提供的一种神经网络模型的结构示意图;
图5为本申请实施例提供的另一种神经网络模型的结构示意图;
图6为本申请实施例提供的另一种计算机装置的结构示意图。
具体实施方式
应理解,本申请实施例中“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一(项)个”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a、b或c中的至少一项(个),可以表示:a,b,c,a和b,a和c,b和c,或a、b和c,其中a、b、c可以是单个,也可以是多个。[a,b]表示取值在范围a(含a)到b(含b)之间,a小于等于b。
下面,对本申请实施例涉及的技术术语进行介绍:
1、神经网络(neural networks,NN),是由大量、简单的节点(或称为处理单元、神经元或神经元节点等)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征。通过数学模型可模仿神经元的功能和特性,从而以神经元的数学模型为基础可构建神经网络(在本申请中也称为神经网络模型,或网络模型等)。神经网络模型可包含多层结构,如包含输入层(input layer),即神经网络的第一层,和输出层(output layer),即神经网络的最后一层。在输入层和输出层之间,还可包括隐含层(hidden layer)。具备多个隐含层的神经网络也可被称为深度神经网络(deep neural networks,DNN)。
神经网络中的节点如图1中的(a)图所示,图中的圆圈左侧的a1~an为该节点的输入数据,w1~wn为该节点的权值,b为该节点的偏置。图中的圆圈代表该节点的内部计算,即一个特定的输出函数f,又称为激活函数或激励函数。每个节点可以有多个输出数据z,但是值相同。
如图1中的(b)图所示,神经网络可由输入层、隐含层、输出层组成。其中,输入层用于输入神经网络的输入数据;输出层用于输出神经网络的输出数据;而隐含层由输入层和输出层之间众多节点连接组成,用于对输入数据进行运算处理。其中,隐含层可以包含一层或多层结构。神经网络中隐含层的层数、节点数,与该神经网络实际解决的问题的复杂程度、输入层的节点以及输出层的节点的个数有着直接关系。
2、卷积层(convolutional layer),在神经网络模型中用于通过卷积运算提取输入数据的局部特征,例如针对输入图像获取各类局部特征图。应理解,本申请实施例所涉及的卷积层,不限于卷积神经网络中的卷积层,还可以是其他类型神经网络模型中的卷积层。
3、全连接层(fully connected layers,FC)的每一个节点都与上一层的每一个节点连接,全连接层可用于将上一层提取到的局部特征根据权值进行综合,例如,将各类局部特征图再次组合为完整的图像。全连接层的每一个输出都可以看成前一层的每一个结点乘以一个权重系数,最后加上一个偏差得到。
4、激活函数。神经网络中的节点接受上一层节点的输出值作为本节点的输入值,如,输入层节点会将输入属性值直接传递给下一层(隐含层或输出层)的节点,在多层神经网络中,上一层节点的输出和下一层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)。
5、神经网络的损失函数,用于描述神经网络的预测值和真实值之间的偏差。损失函数是一个非负函数。损失函数越小,则神经网络模型的鲁棒性越好。一个神经网络有好的性能意味着找到了最适合的权值,使损失函数最小,这个寻找最合适的权值的过程就是神经网络学习的过程。
下面结合附图对本申请实施例进行具体说明。
图2示出了本申请实施例提供的方法适用的一种可能的计算机装置的结构图。参阅图2所示,所述计算机装置中包括:处理器210、存储器220、通信模块230、输入单元240、显示单元250、电源260等部件。本领域技术人员可以理解,图2中示出的计算机装置的结构并不构成对计算机装置的一种限定,本申请实施例提供的计算机装置可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图2对计算机装置的各个构成部件进行具体的介绍:
所述通信模块230可以通过无线连接或物理连接的方式连接其他设备,实现计算机装置的数据发送和接收。可选的,所述通信模块230可以包含射频(radio frequency,RF)电路、无线保真(wireless fidelity,WiFi)模块、通信接口,蓝牙模块等任一项或组合,本申请实施例对此不作限定。
所述存储器220可用于存储程序指令和数据。所述处理器210通过运行存储在所述存储器220的程序指令,从而执行计算机装置的各种功能应用以及数据处理。其中,所述程序指令中存在可使所述处理器210执行本申请以下实施例提供的功率分配方法的程序指令。
可选的,所述存储器220可以主要包括存储程序区和存储数据区。其中,存储程序区可存储操作系统、各种应用程序,以及程序指令等;存储数据区可存储神经网络等各种数据。此外,所述存储器220可以包括高速随机存取存储器,还可以包括非易失性存储器,例如磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述输入单元240可用于接收用户输入的数据或操作指令等信息。可选的,所述输入单元240可包括触控面板、功能键、物理键盘、鼠标、摄像头、监控器等输入设备。
所述显示单元250可以实现人机交互,用于通过用户界面显示由用户输入的信息,提供给用户的信息等内容。其中,所述显示单元250可以包括显示面板251。可选的,所述显示面板251可以采用液晶显示屏(liquid crystal display,LCD)、有机发光二极管(organic light-emitting diode,OLED)等形式来配置。
进一步的,当输入单元中包含触控面板时,该触控面板可覆盖所述显示面板251,当所述触控面板检测到在其上或附近的触摸事件后,传送给所述处理器210以确定触摸事件的类型从而执行相应的操作。
所述处理器210是计算机装置的控制中心,利用各种接口和线路连接以上各个部件。所述处理器210可以通过执行存储在所述存储器220内的程序指令,以及调用存储在所述存储器220内的数据,以完成计算机装置的各种功能,实现本申请实施例提供的神经网络精度调整方法。
可选的,所述处理器210可包括一个或多个处理单元。具体的,所述处理单元可以包括CPU和/或GPU等能够基于浮点运算的硬件设备。该处理单元能够对输神经网络的数据进行处理后输出。在所述计算机装置的处理器210实现神经网络精度调整方法时,该处理单元从存储器220的存储数据区读取神经网络的数据,并对输入神经网络的数据进行量化,还可以对神经网络进行前向传播和反向传播等处理。
所述计算机装置还包括用于给各个部件供电的电源260(比如电池)。可选的,所述电源260可以通过电源管理系统与所述处理器210逻辑相连,从而通过电源管理系统实现对所述计算机装置的充电、放电等功能。
尽管未示出,所述计算机装置还可以包括摄像头、传感器、音频采集器等部件,在此不再赘述。
本申请实施例提供了一种基于神经网络的功率分配方法,该方法可适用于如图2所示的计算机装置和/或图1(b)所示的神经网络。该方法可以由如图2所示的计算机装置中的处理器执行。参阅图3所示,该方法的流程可包括:
S101:将输入参数输入至神经网络模型的输入层,该输入参数包括通信系统中多个天线中的每个天线对于多个用户中的每个用户的信道向量特征;
S 102:根据该输入参数,提取该通信系统的特征;
S 103:基于该神经网络模型,通过多次迭代对该特征进行拟合,并将拟合结果传递到该神经网络模型的输出层;
S104:从所述输出层获取为每个用户分配的发送功率,其中,该发送功率根据该拟合结果确定。
采用以上方法,可通过神经网络模型基于MIMO通信系统的信道向量特征,提取通信系统的特征,进一步基于神经网络模型通过多次迭代对该特征进行拟合,根据拟合结果确定针对每个用户分配的发送功率,由于在功率分配中考虑了通信系统的特征,可以优化发送功率的分配结果。
应理解,S101所涉及的通信系统,包括但不限于传统MIMO、大规模MIMO、MIMO-NOMA通信系统或其他MIMO系统。如图3所示方法可用于进行上述通信系统的发送功率分配,以优化功率分配方案。
若定义pm为以上S101所涉及的通信系统中第m(m为正整数)个天线的发送功率,
Figure GPA0000310825710000081
为该通信系统中第m个天线针对第k(k为正整数)个用户的第i个信道向量特征,以及
Figure GPA0000310825710000082
为针对第k个用户的第i个功率向量样本,可组成神经网络训练的样本集
Figure GPA0000310825710000083
本申请实施例中,为了最大化该通信系统的总发送速率,可确定以下公式所示的优化问题:
Figure GPA0000310825710000091
其中,Rsum表示该通信系统的总发送速率(即该通信系统中为每个用户分配的发送速率的总和),Rm,k表示第m个天线为第k个用户分配的发送速率,βi,j为功率分配因子,其中,i=1、2、......、N,j=1、2、......、N,i可表示样本数量,j可表示迭代次数,P表示该通信系统的总发射功率,Rmin表示第m个天线为第k个用户分配的发送速率的最小值。βi,j,l可以是预设的值,其取值范围为[0,1]。
在实施中,可根据第m个天线针对第k个用户的信干燥比(signal interferencenoise ratio,SINR)确定Rm,k。具体的,可通过以下公式确定Rm,k
Rm,k=log2(1+γm,k),(公式二)
其中,γm,k表示第m个天线针对第k个用户的信干燥比。
例如,可根据以下公式确定γm,k
Figure GPA0000310825710000092
其中,βk表示第k个用户的功率分配因子,βl表示第k个用户以外的第l个用户的功率分配因子,δ2为加性高斯白噪声的方差。βk以及βl均为预设的值,βk以及βl的取值范围为[0,1]。在实施中,用户的功率分配因子可根据针对用户的信道状态信息(channel stateinformation,CSI)确定。
另外,以上优化问题中,C1项所示条件用于约束该通信系统中所有天线的发送功率的总和,不大于该通信系统总的总发射功率。C2项所示条件用于约束任意一个天线为任意一个用户分配的发送速率不小于发送功率的最小值。C3项所示条件用于约束任意一个天线的发送功率不小于0。C4项所示条件用于约束每个功率分配因子的取值范围为[0,1]。基于以上问题,寻求功率分配因子和每一个天线最优的发射功率,可获得最优的功率分配方案。
示例性的,本申请实施例所涉及的神经网络模型可包括输入层以及输出层以及位于输入层与输出层之间的多个隐含层,其中,多个隐含层可包括至少一个卷积层和/或一个全连接层。其中,该神经网络模型的输出层可以是卷积层。
在一种可能的实现方式中,本申请实施例所涉及的神经网络模型的输出层的激活函数为Maxout函数。例如,将如下公式作为输出层的激活函数:
fMaxout=Sigmoid(xTw...i+bi),(公式四)
其中,fMaxout表示该激活函数的运算结果,x表示与该输出层相邻的隐含层的输出值集合,x可包含X个输出值,x可以是由X个输出值组成的矩阵,X为正整数,且X可以与该相邻的隐含层的节点数量相同,wi表示第i个所述输出值的权重,bi表示第i个所述输出值的偏差,i=1、2......、X,xT表示x的转置,Sigmoid()表示Sigmoid函数。
在另外的实现方式中,输出层的激活函数还通过以下公式表示:
y=min(max(x,0),Pmax),(公式五)
其中,y表示该激活函数的运算结果,Pmax可表示基站的最大发射功率,Pmax可以是预设值,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数。
另外,对于本申请实施例所涉及的输入层以及多个隐含层,均可将线性整流(rectified linear unit,ReLU)函数作为其激活函数。具体的,输入层以及多个隐含层中任一层的激活函数,可由以下公式表示:
f(x0)=max(0,x0),(公式六)
其中,x0表示与该层相邻的前一层的输出值集合,x0可以是由X0个输出值组成的矩阵,X0为正整数,且X0可以与该相邻的隐含层的节点数量相同。
如图4所示,本申请实施例提供的一种神经网络模型可包括多个卷积层以及多个全连接层,其中,输入层为全连接层,输入层与输出层之间依次还可包括两个卷积层以及四个全连接层,输入层与一个卷积层相邻,输出层与一个全连接层相邻。
示例性的,以上神经网络模型的输入层的节点数量与输入参数的数量相同,用于将输入参数映射为天线的特征,例如,输入层可将M(M为正整数)个天线分别对应的输入参数映射为M个特征(即,输入层包含的节点数量为M),之后将该M个特征传递至下一层,如,天线数量可以为64。与输入层相邻的第一个卷积层可用于将输入层传递的M个特征映射为64个特征,其卷积核的尺寸可以是7*7,该卷积层的步长(stride)参数可配置为2,步长参数可用于指示卷积核在多个输入特征组成的输入特征图中扫描时每次跳跃的格数,通过补偿参数控制跳跃的格数,可减少卷积核进行扫描时进行的重复计算,以提升扫描效率。与该第一个卷积核相邻的卷积层(以下称为第二个卷积层)可用于将第一个卷积层传递的64个特征映射为32个特征,其卷积核的尺寸可以是3*3,其步长参数可配置为2。第二个卷积层之后的四个全连接层的节点数量依次可配置为220、85、80以及64,该四个全连接层依次可将各层的输入特征映射为220、85、80以及64个特征。该神经网络模型的输出层可包含K(K为正整数)个节点,其卷积核尺寸可以是3*3,其步长参数可配置为2,因此,该输出层可将前一个全连接层传递的64个特征映射为K个输出结果,其中K为该通信系统中用户的数量,该K个输出结果即为每个用户分配的发送功率,如,用户数量可以为32。
如图5所示,本申请实施例提供的另一种神经网络模型在输入层与输出层之间依次还包括六个全连接层。该神经网络模型的结构相比于图4所示神经网络模型的结构的复杂度较低,可通过较少的计算量实现发送功率的合理分配。
示例性的,以上神经网络模型的输入层的节点数量与输入参数的数量相同,例如,输入层可将M(M为正整数)个天线分别对应的输入参数映射为M个特征(即,输入层包含的节点数量为M),之后将该M个特征传递至下一层,如,天线数量可以为64。
输入层之后的四个全连接层的节点数量依次可配置为256、220、128、85、80以及64,这些全连接层依次可将各层的输入特征映射为220、85、80以及64个特征。该神经网络模型的输出层可包含K(K为正整数)个节点,其卷积核尺寸可以是3*3,其步长参数可配置为2,因此,该输出层可将前一个全连接层传递的64个特征映射为K个输出结果,其中K为该通信系统中用户的数量,该K个输出结果即为每个用户分配的发送功率。
在本申请实施例中,S101所涉及的神经网络模型可经过离线训练。在进行神经网络模型的离线训练时,可采用包含第一惩罚项和/或第二惩罚项的损失函数,该损失函数可用于进行该神经网络模型的离线训练。其中,第一惩罚项可用于约束所述发送功率大于目标功率值,所述第二惩罚项可用于约束为每个用户分配的发送速率不小于目标发送速率的最小值。
具体的,损失函数可通过以下公式表示:
Figure GPA0000310825710000111
其中,L表示该损失函数的运算结果,N表示该神经网络模型的训练样本的数量,M表示该通信系统中天线的数量,K表示该通信系统中用户的数量,Rsum表示为每个用户分配的发送速率的总和,βi,j,l为功率分配因子,i=1、2、......、N,j=1、2、......、N,l=1、2、......、N,Rmin表示该发送速率的最小值,Rm,k表示第m个天线为第k个用户分配的发送速率,pm表示第m个天线的发送功率,τ表示所述第一惩罚项的系数,ρ表示该第二惩罚项的系数,
Figure GPA0000310825710000112
表示该第一惩罚项,
Figure GPA0000310825710000113
表示该第二惩罚项。其中,τ的取值范围均为[0,1]。和/或,ρ的取值范围为[0,1]。
示例性的,Rsum可以通过以下公式表示:
Figure GPA0000310825710000114
其中,δ2表示加性高斯白噪声的方差,
Figure GPA0000310825710000115
为信干燥比,βk表示第k个用户的功率分配因子,βl表示第k个用户以外的第l个用户的功率分配因子。
在进行离线训练时,可将训练样本输入如图4或图5所示的神经网络模型,基于公式七对神经网络的权重和偏差进行更新。这里采用的训练算法可以是随机梯度下降算法。在经过多次迭代后,可得到神经网络模型的输出。
以上主要从本申请实施例所提供的计算机装置能够执行的操作以及本申请实施例所涉及的神经网络的架构的角度,对本申请实施例提供的方案进行了介绍。可以理解的是,该计算机装置为了实现上述功能,可包含执行各个功能相应的硬件结构和/或软件模块。例如,该计算机装置可具有如图2所示结构。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件、计算机软件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。
当通过软件模块来实现时,本申请实施例提供的计算机装置可具有如图6所示的结构。如图6所示,本申请实施例提供的一种计算机装置600,可具有输入模块601、特征提取模块602、拟合模块603以及输出模块604。该计算机装置600可用于执行本申请实施例所提供的方法,以优化MIMO通信系统天线的功率分配方案。
具体的,该输入模块601可用于将输入参数输入至神经网络模型的输入层,所述输入参数包括通信系统中多个天线中的每个天线对于多个用户中的每个用户的信道向量特征;该特征提取模块602可用于根据所述输入参数,提取所述通信系统的特征;该拟合模块603可用于基于所述神经网络模型,通过多次迭代对所述特征进行拟合,并将拟合结果传递到所述神经网络模型的输出层;该输出模块604可用于从所述输出层获取为每个所述用户分配的发送功率,其中,所述发送功率根据所述拟合结果确定。
可选的,所述输出层的激活函数为Maxout函数。
在一种可能的实现方式中,所述输入层与所述输出层之间包括所述神经网络模型的多个隐含层。
所述输出层的激活函数,可通过以下公式表示:
fMaxout=Sigmoid(xTwi+bi);
其中,fMaxout表示所述激活函数的运算结果,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数,wi表示第i个所述输出值的权重,bi表示第i个所述输出值的偏差,i=1、2......、X,xT表示x的转置,Sigmoid()表示Sigmoid函数。
或者,所述激活函数通过以下公式表示:
y=min(max(x,0),Pmax);
其中,y表示所述激活函数的运算结果,Pmax为预设值,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数。
另外,所述输入层和所述多个隐含层的激活函数均可设置为线性整流函数。
示例性的,所述神经网络模型的损失函数包含第一惩罚项和/或第二惩罚项,其中,该损失函数用于所述神经网络模型的离线训练。所述第一惩罚项用于约束所述发送功率大于目标功率值。所述第二惩罚项用于约束为每个用户分配的发送速率不小于目标发送速率的最小值。在实施中,所述第一惩罚项的系数的取值可以为[0,1];所述第二惩罚项的系数的取值可以为[0,1]。
示例性的,所述神经网络模型的损失函数通过以下公式表示:
Figure GPA0000310825710000121
其中,L表示所述损失函数的运算结果,N表示所述神经网络模型的训练样本的数量,M表示所述天线的数量,K表示所述用户的数量,Rsum表示为每个用户分配的发送速率的总和,βi,j,l为功率分配因子,i=1、2、......、N,j=1、2、......、N,l=1、2、......、N,Rmin表示所述发送速率的最小值,Rm,k表示第m个天线为第k个用户分配的发送速率,pm表示第m个天线的发送功率,τ表示所述第一惩罚项的系数,ρ表示所述第二惩罚项的系数,
Figure GPA0000310825710000122
表示所述第一惩罚项,
Figure GPA0000310825710000123
表示所述第二惩罚项。
所述Rsum可以通过以下公式表示:
Figure GPA0000310825710000124
其中,δ2为加性高斯白噪声的方差,
Figure GPA0000310825710000125
为信干燥比。
以上所述βi,j,l的取值范围可以是[0,1]。
应理解,图6仅示出了计算机装置600的一种模块化的划分方式,本申请并不限制计算机装置600具有其他模块划分方式,例如,计算机装置600可模块化为处理单元、存储单元,其中,处理单元可具有上述输入模块601、特征提取模块602、拟合模块603以及输出模块604的功能,存储单元可用于存储处理单元执行上述功能所需的应用程序、指令和相应数据,从而处理单元与存储单元相互配合,令计算机装置600实现本申请实施例提供的功率分配方法所具有的功能。存储单元还可用于存储以上神经网络模型,并在执行以上基于数据网络模型的操作时,获取该神经网络模型。示例性的,存储单元可存储未经离线训练的神经网络模型,或者,存储单元也可用于存储经过离线训练的神经网络模型。可选地,处理单元还可用于对以上神经网络模型进行离线训练。
另外,本申请实施例提供的方法也可由如图2所示的计算机装置实现。应理解,在实现该方法时,处理器210可用于执行以上由输入模块601、特征提取模块602、拟合模块603以及输出模块604执行的步骤。另外,存储器220还可存储未经离线训练的神经网络模型,或者,存储器220也可用于存储经过离线训练的神经网络模型。处理器210还可用于对存储器202所存储的神经网络模型进行离线训练。
应理解,本申请所述处理器或处理单元可以是中央处理单元(CPU),或者通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者是任何常规的处理器等。
存储器或存储单元可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器还可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
通信模块,可以是电路、器件、通信接口、总线、软件模块、无线收发器或者其它任意可以实现信息/数据收发的组件。
基于与上述实施例相同构思,本申请实施例还提供了一种计算机存储介质,其上存储有一些指令,这些指令被调用执行时,可以使得计算机执行上述方法实施例、方法实施例的任意一种可能的实现方式中由计算机装置所执行的步骤。本申请实施例中,对可读存储介质不做限定,例如,可以是RAM(random-access memory,随机存取存储器)、ROM(read-only memory,只读存储器)等。
基于与上述方法实施例相同构思,本申请实施例还提供了一种计算机程序产品,当所述计算机程序产品被计算机运行时,可以使得计算机执行上述方法实施例、方法实施例的任意一种可能的实现方式中由计算机装置所执行的步骤。
基于与上述方法实施例相同构思,本申请实施例还提供了一种计算机系统,该通信系统可包括本申请实施例提供的计算机装置,或者,包括该计算机装置以及其他必要的装置,如输入输装置等。
基于与上述方法实施例相同构思,本申请实施例还提供了一种芯片。该芯片可包括处理器,处理器可以与存储器耦合。该芯片可用于计算机装置实现上述方法实施例、方法实施例的任意一种可能的设计中所涉及的功能。
另外,本申请实施例还提供了一种芯片系统。该芯片系统可包括上述芯片,也可以包含芯片和其他分立器件,例如,芯片系统可包含芯片、存储器以及通信模块。

Claims (20)

1.一种基于神经网络的功率分配方法,其特征在于,包括:
将输入参数输入至神经网络模型的输入层,所述输入参数包括通信系统中多个天线中的每个天线对于多个用户中的每个用户的信道向量特征;
根据所述输入参数,提取所述通信系统的特征;
基于所述神经网络模型,通过多次迭代对所述特征进行拟合,并将拟合结果传递到所述神经网络模型的输出层;
从所述输出层获取为每个所述用户分配的发送功率,其中,所述发送功率根据所述拟合结果确定;
所述神经网络模型的损失函数包含第一惩罚项和/或第二惩罚项,所述损失函数用于所述神经网络模型的离线训练;
所述第一惩罚项用于约束所述发送功率大于目标功率值;
所述第二惩罚项用于约束为每个用户分配的发送速率不小于发送速率的最小值。
2.如权利要求1所述的方法,其特征在于,所述输出层的激活函数为Maxout函数。
3.如权利要求2所述的方法,其特征在于,所述输入层与所述输出层之间包括所述神经网络模型的多个隐含层。
4.如权利要求3所述的方法,其特征在于,所述激活函数通过以下公式表示:
fMaxout=Sigmoid(xTwi+bi);
其中,fMaxout表示所述激活函数的运算结果,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数,wi表示第i个所述输出值的权重,bi表示第i个所述输出值的偏差,i=1、2……、X,xT表示x的转置,Sigmoid()表示Sigmoid函数。
5.如权利要求3所述的方法,其特征在于,所述激活函数通过以下公式表示:
y=min(max(x,0),Pmax);
其中,y表示所述激活函数的运算结果,Pmax为预设值,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数。
6.如权利要求3所述的方法,其特征在于,所述输入层和所述多个隐含层的激活函数均为线性整流函数。
7.如权利要求1所述的方法,其特征在于,
所述第一惩罚项的系数的取值为[0,1];和/或,
所述第二惩罚项的系数的取值为[0,1]。
8.如权利要求7所述的方法,其特征在于,所述神经网络模型的损失函数通过以下公式表示:
Figure FDA0003880703890000011
其中,L表示所述损失函数的运算结果,N表示所述神经网络模型的训练样本的数量,M表示所述天线的数量,K表示所述用户的数量,Rsum表示为每个用户分配的发送速率的总和,βi,j,l为功率分配因子,i=1、2、……、N,j=1、2、……、N,l=1、2、……、N,Rmin表示所述发送速率的最小值,Rm,k表示第m个天线为第k个用户分配的发送速率,pm表示第m个天线的发送功率,τ表示所述第二惩罚项的系数,ρ表示所述第一惩罚项的系数,
Figure FDA0003880703890000012
Figure FDA0003880703890000021
表示所述第二惩罚项,
Figure FDA0003880703890000022
表示所述第一惩罚项,所述目标功率值为0。
9.如权利要求8所述的方法,其特征在于,所述Rsum通过以下公式表示:
Figure FDA0003880703890000023
其中,δ2为加性高斯白噪声的方差,
Figure FDA0003880703890000024
为信干燥比。
10.如权利要求8或9所述的方法,其特征在于,所述βi,j,l的取值范围为[0,1]。
11.一种计算机装置,其特征在于,包括:
输入模块,用于将输入参数输入至神经网络模型的输入层,所述输入参数包括通信系统中多个天线中的每个天线对于多个用户中的每个用户的信道向量特征;
特征提取模块,用于根据所述输入参数,提取所述通信系统的特征;
拟合模块,用于基于所述神经网络模型,通过多次迭代对所述特征进行拟合,并将拟合结果传递到所述神经网络模型的输出层;
输出模块,用于从所述输出层获取为每个所述用户分配的发送功率,其中,所述发送功率根据所述拟合结果确定;
所述神经网络模型的损失函数包含第一惩罚项和/或第二惩罚项,所述损失函数用于所述神经网络模型的离线训练;
所述第一惩罚项用于约束所述发送功率大于目标功率值;
所述第二惩罚项用于约束为每个用户分配的发送速率不小于发送速率的最小值。
12.如权利要求11所述的装置,其特征在于,所述输出层的激活函数为Maxout函数。
13.如权利要求12所述的装置,其特征在于,所述输入层与所述输出层之间包括所述神经网络模型的多个隐含层。
14.如权利要求13所述的装置,其特征在于,所述激活函数通过以下公式表示:
fMaxout=Sigmoid(xTwi+bi);
其中,fMaxout表示所述激活函数的运算结果,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数,wi表示第i个所述输出值的权重,bi表示第i个所述输出值的偏差,i=1、2……、X,xT表示x的转置,Sigmoid()表示Sigmoid函数。
15.如权利要求13所述的装置,其特征在于,所述激活函数通过以下公式表示:
y=min(max(x,0),Pmax);
其中,y表示所述激活函数的运算结果,Pmax为预设值,x表示与所述输出层相邻的隐含层的输出值集合,所述x包含X个输出值,X为正整数。
16.如权利要求13所述的装置,其特征在于,所述输入层和所述多个隐含层的激活函数均为线性整流函数。
17.如权利要求11所述的装置,其特征在于,
所述第一惩罚项的系数的取值为[0,1];和/或,
所述第二惩罚项的系数的取值为[0,1]。
18.如权利要求17所述的装置,其特征在于,所述神经网络模型的损失函数通过以下公式表示:
Figure FDA0003880703890000025
其中,L表示所述损失函数的运算结果,N表示所述神经网络模型的训练样本的数量,M表示所述天线的数量,K表示所述用户的数量,Rsum表示为每个用户分配的发送速率的总和,βi,j,l为功率分配因子,i=1、2、……、N,j=1、2、……、N,l=1、2、……、N,Rmin表示所述发送速率的最小值,Rm,k表示第m个天线为第k个用户分配的发送速率,pm表示第m个天线的发送功率,τ表示所述第二惩罚项的系数,ρ表示所述第一惩罚项的系数,
Figure FDA0003880703890000031
Figure FDA0003880703890000032
表示所述第二惩罚项,
Figure FDA0003880703890000033
表示所述第一惩罚项,所述目标功率值为0。
19.如权利要求18所述的装置,其特征在于,所述Rsum通过以下公式表示:
Figure FDA0003880703890000034
其中,δ2为加性高斯白噪声的方差,
Figure FDA0003880703890000035
为信干燥比。
20.如权利要求18或19所述的装置,其特征在于,所述βi,j,l的取值范围为[0,1]。
CN201980094522.3A 2019-03-27 2019-03-27 一种基于神经网络的功率分配方法及装置 Active CN113615277B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/079957 WO2020191686A1 (zh) 2019-03-27 2019-03-27 一种基于神经网络的功率分配方法及装置

Publications (2)

Publication Number Publication Date
CN113615277A CN113615277A (zh) 2021-11-05
CN113615277B true CN113615277B (zh) 2023-03-24

Family

ID=72608738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980094522.3A Active CN113615277B (zh) 2019-03-27 2019-03-27 一种基于神经网络的功率分配方法及装置

Country Status (2)

Country Link
CN (1) CN113615277B (zh)
WO (1) WO2020191686A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113919253B (zh) * 2021-10-08 2023-08-11 西安电子科技大学 硅通孔阵列峰值温度和参数的优化方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108462517A (zh) * 2018-03-06 2018-08-28 东南大学 一种基于机器学习的mimo链路自适应传输方法
CN109474980A (zh) * 2018-12-14 2019-03-15 北京科技大学 一种基于深度增强学习的无线网络资源分配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8595162B2 (en) * 2011-08-22 2013-11-26 King Fahd University Of Petroleum And Minerals Robust controller for nonlinear MIMO systems
WO2018193353A1 (en) * 2017-04-17 2018-10-25 Cerebras Systems Inc. Neuron smearing for accelerated deep learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108462517A (zh) * 2018-03-06 2018-08-28 东南大学 一种基于机器学习的mimo链路自适应传输方法
CN109474980A (zh) * 2018-12-14 2019-03-15 北京科技大学 一种基于深度增强学习的无线网络资源分配方法

Also Published As

Publication number Publication date
CN113615277A (zh) 2021-11-05
WO2020191686A1 (zh) 2020-10-01

Similar Documents

Publication Publication Date Title
CN105930902B (zh) 一种神经网络的处理方法、系统
US10509846B2 (en) Accelerator for processing data
CN108345939A (zh) 基于定点运算的神经网络
US20090125461A1 (en) Multi-Label Active Learning
CN114254733A (zh) 使用树形直接存储器存取(dma)总线的神经网络权重分布
EP3982588A1 (en) Homomorphic operation accelerator and homomorphic operation performing device including the same
US20220261623A1 (en) System and method for channel-separable operations in deep neural networks
CN117501245A (zh) 神经网络模型训练方法和装置、数据处理方法和装置
CN116187483A (zh) 模型训练方法、装置、设备、介质和程序产品
CN116468114A (zh) 一种联邦学习方法及相关装置
Kotinis A particle swarm optimizer for constrained multi-objective engineering design problems
CN113615277B (zh) 一种基于神经网络的功率分配方法及装置
CN112202762A (zh) 传感边缘云智能干扰攻击的博弈防御策略优化方法及系统
CN111224905A (zh) 一种大规模物联网中基于卷积残差网络的多用户检测方法
Li et al. Communication-efficient decentralized zeroth-order method on heterogeneous data
Niu et al. SPEC2: Spectral sparse CNN accelerator on FPGAs
CN113850372A (zh) 神经网络模型训练方法、装置、系统和存储介质
CN110635833B (zh) 一种基于深度学习的功率分配方法及分配装置
CN111783932B (zh) 训练神经网络的方法和装置
Ge et al. Mobile edge computing against smart attacks with deep reinforcement learning in cognitive MIMO IoT systems
CN111565065A (zh) 一种无人机基站部署方法、装置及电子设备
CN111382848B (zh) 一种计算装置及相关产品
TW202119775A (zh) 支援jmap以及cmap傳輸的高效極高通量探測回饋
Lee et al. Learning multi-objective network optimizations
CN116827393B (zh) 基于联邦学习的无蜂窝大规模mimo接收方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant