CN113344187A - 一种单小区多用户mimo系统的机器学习预编码方法 - Google Patents

一种单小区多用户mimo系统的机器学习预编码方法 Download PDF

Info

Publication number
CN113344187A
CN113344187A CN202110675611.6A CN202110675611A CN113344187A CN 113344187 A CN113344187 A CN 113344187A CN 202110675611 A CN202110675611 A CN 202110675611A CN 113344187 A CN113344187 A CN 113344187A
Authority
CN
China
Prior art keywords
layer
matrix
output
representing
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110675611.6A
Other languages
English (en)
Other versions
CN113344187B (zh
Inventor
陈明
张明辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202110675611.6A priority Critical patent/CN113344187B/zh
Publication of CN113344187A publication Critical patent/CN113344187A/zh
Application granted granted Critical
Publication of CN113344187B publication Critical patent/CN113344187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • H04B7/0452Multi-user MIMO systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种单小区多用户MIMO系统的机器学习预编码方法,该方法首先建立权值和速率最大化模型,然后构造了一种具有特征提取能力和卷积核参数共享的卷积神经网络,并采用监督学习和非监督学习相结合的方法对神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练。采用本发明方法,获得了与WMMSE算法相当的和速率性能,并且能够降低预编码设计的计算复杂度。

Description

一种单小区多用户MIMO系统的机器学习预编码方法
技术领域
本发明涉及无线通信MIMO系统技术领域,特别是涉及一种单小区多用户MIMO系统的机器学习预编码方法。
背景技术
目前关于单小区多用户MIMO系统预编码的应用中,已有基于前反馈全连接神经网络的预编码设计,训练方式大多也是基于监督学习或者是非监督学习。因为网络的学习和提取特征能力有限,大多数文献处理的都是单用户MIMO或者是多小区MISO场景的问题。而关于基于卷积神经网络和非监督监督结合方法的多用户MIMO的预编码设计研究和应用较少。
发明内容
有鉴于此,本发明的目的在于提供一种单小区多用户MIMO系统的机器学习预编码方法,用以解决背景技术中提及的问题。本发明首先建立权值和速率最大化模型,然后构造了一种具有特征提取能力和卷积核参数共享的卷积神经网络,并采用监督学习和非监督学习相结合的方法对神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练。
为实现上述目的,本发明采用如下技术方案:
一种单小区多用户MIMO系统的机器学习预编码方法,包括如下步骤:
步骤S1、建立单小区多用户MIMO系统下的权值和速率最大化模型,所述权值和速率最大化模型为:
Figure BDA0003120913070000011
受限于:
Figure BDA0003120913070000012
公式中,k和i表示用户编号,Wk是发射端针对用户k的预编码矩阵;K是系统的用户数,M是基站侧发射天线数,N是每个用户具有的接收天线数;αk是用户k的可达和速率权值因子;Hk是基站到用户k的信道矩阵;
Figure BDA0003120913070000013
是第k个接收机端的均值为0的加性高斯白噪声的方差;Pmax为系统发射端最大发射功率限制;det(·)表示求矩阵的行列式,Tr(·)表示求矩阵的迹,(·)-1表示矩阵的求逆操作,(·)H表示对矩阵或向量进行共轭转置;
步骤S2、针对步骤S1中所述模型使用WMMSE方法进行求解,并以所述WMMSE方法的输入输出作为卷积神经网络的训练数据;
步骤S3、构造卷积神经网络,所述卷积神经网络具有特征提取能力,并且参数共享,采用监督学习和非监督学习相结合的方法对所述卷积神经网络进行训练,具体过程如下:
步骤S301、所述卷积神经网络包括输入层、卷积层、展平层、全连接层、输出层和功率限制层,具体结构如下:
步骤S3011、所述输入层,采用I/Q变换对多用户MIMO信道矩阵进行处理,得到信道矩阵H=[H1,H2,…,HK],其中,实部矩阵为
Figure BDA0003120913070000021
虚部矩阵为
Figure BDA0003120913070000022
对矩阵H各元素取模得到幅度矩阵
Figure BDA0003120913070000023
表达式为:
Hreal[i,j]=Re{H[i,j]}
Himag[i,j]=Im{H[i,j]}
Habs[i,j]=abs{H[i,j]}
i=0,…,M-1,j=0,…,KN-1
公式中,H[i,j]表示矩阵H第i行第j列的元素,Re{·}表示取实数,Im{·}表示取虚数,abs{·}表示取模;输入层为三维矩阵,其维数为M×NK×c,其中c=3表示输入层的通道数,这3个通道的输入分别是Hreal、Himag和Habs,所述卷积神经网络的输入记为
Figure BDA0003120913070000024
其表达式为:
Hin[:,:,1]=Hreal
Hin[:,:,2]=Himag
Hin[:,:,3]=Habs
公式中,Hin[:,:,1],Hin[:,:,2],Hin[:,:,3]分别表示三维矩阵Hin第1,2,3页对应的二维矩阵;
步骤S3012、所述卷积层包括卷积核层、分批归一化层和激活函数层,卷积层为L层,卷积层l取值为1,…,L,卷积层l的卷积核层具有cl个尺寸为al×al的卷积核,所述卷积核层的表达式为:
Oconv,l=Conv(Iconv,lll)
公式中,
Figure BDA0003120913070000031
表示所述卷积核层的输出,
Figure BDA0003120913070000032
表示所述卷积核层的输入,
Figure BDA0003120913070000033
表示所述卷积层l的卷积核层输出维度,并且满足
Figure BDA0003120913070000034
和Iconv,1=Hin,所述卷积核的参数包括权值
Figure BDA0003120913070000035
和偏置矢量
Figure BDA0003120913070000036
Conv(·)表示卷积运算;
所述卷积层l的分批归一化层采用减去批均值并除以批标准差来对卷积核层的输出进行归一化,具体处理如下:
Figure BDA0003120913070000037
Figure BDA0003120913070000038
公式中,Ocon,l[i,j,c]表示Oconv,l第i行第j列与第c卷积核操作输出的元素,Bbn,l表示所述分批归一化层输出的三维矩阵,Bbn,l[i,j,c]表示Bbn,l第i行第j列第c页的元素,μl,c和σl,c分别表示批均值和批标准差;
所述卷积层l的激活函数层使用线性整流函数,具体表达式如下:
Aaf,l[i,j,c]=ReLU(Bbn,l[i,j,c])
Figure BDA0003120913070000039
其中,Aaf,l表示所述激活函数层输出的三维矩阵,Aaf,l[i,j,c]表示Aaf,l第i行第j列第c页的元素,并且满足Iconv,l+1=Aaf,l,ReLU表示所使用的线性整流函数;
步骤S3013、所述展平层用于对所述卷积层L的输出数据进行处理,展平层激活函数使用的也是ReLU函数,具体表达记为:
Af=ReLU(Flat(Aaf,L))
公式中,
Figure BDA0003120913070000041
表示所述展平层的输出,ReLU表示所使用的线性整流函数,Flat表示将三维数据转成一维数据的操作;
步骤S3014、所述全连接层的具体处理如下:
Ofc=ReLU(WfcAf+bfc)
公式中,Ofc,Af,bfc分别为输出、输入和偏置列向量,Wfc为权值矩阵,ReLU表示所使用的线性整流函数;
步骤S3015、所述输出层的表达式如下:
woutput=ReLU(WoutOfc+bout)
公式中,
Figure BDA0003120913070000042
表示输出层的输出,bout和Wfc分别为偏置列向量和权值矩阵,ReLU表示所使用的线性整流函数;
步骤S3016、所述功率限制处理的具体处理如下:
Figure BDA0003120913070000043
公式中,b表示增益因子,
Figure BDA0003120913070000044
表示所述功率限制层的输出;
步骤S302、采用监督学习和非监督学习相结合的方法对步骤S301中的所述卷积神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练,具体步骤如下:
步骤S3021、随机生成信道样本H(t),利用步骤S3011中的所述输入层公式得到
Figure BDA0003120913070000045
t表示样本索引,使用WMMSE算法进行预编码设计,得到预编码矩阵W1(t),W2(t),…,WK(t),定义矩阵:
W(t)=[W1(t),W2(t),…,WK(t)]M×KL
将矩阵W(t)按行拉直成一个MKL维的列向量,记为
Figure BDA0003120913070000046
也即有:
Figure BDA0003120913070000047
上式中Vecrow表示把一个矩阵按行拉直成一个列向量的操作;
然后,获得用于监督学习的采样样本
Figure BDA0003120913070000051
以及用于非监督学习的采样样本
Figure BDA0003120913070000052
步骤S3022、所述监督学习使用基于均方误差标准的损失函数进行预训练,损失函数为:
Figure BDA0003120913070000053
公式中,T1表示训练样本总数量,
Figure BDA0003120913070000054
表示运行WMMSE算法之后,获得的预编码标签矢量,
Figure BDA0003120913070000055
表示步骤C-1所述神经网络的输出预编码矢量;
步骤S3023、所述非监督学习是在监督学习的基础上进行再次训练,这里损失函数形式构造如下:
Figure BDA0003120913070000056
公式中,T2表示训练样本数量,
Figure BDA0003120913070000057
表示使用步骤S301所述卷积神经网络的输入和输出计算的用户速率,λ表示正则化项因子。
本发明的有益效果是:
本发明首先建立权值和速率最大化模型,然后构造了一种具有特征提取能力和卷积核参数共享的卷积神经网络,并采用监督学习和非监督学习相结合的方法对神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练。采用本发明方法,获得了与WMMSE算法相当的和速率性能,并且能够降低预编码设计的计算复杂度。
附图说明
图1为实施例1中提供的卷积神经网络的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参见图1,本实施例提供一种单小区多用户MIMO系统的机器学习预编码方法,该方法首先建立权值和速率最大化模型,然后构造了一种具有特征提取能力和卷积核参数共享的卷积神经网络,并采用监督学习和非监督学习相结合的方法对神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练。采用本发明方法,获得了与WMMSE算法相当的和速率性能,并且能够降低预编码设计的计算复杂度。
具体的说,在本实施例中,考虑一个服务K个用户的单小区多用户MIMO通信系统,每个用户具有N根天线,基站侧具有M根发射天线,同时也向K个用户发送数据,KN≤M。
发射端
首先,在基站侧对用户进行预编码,发送矢量
Figure BDA0003120913070000061
定义为数据矢量x1,x2,…,xK分别经过线性滤波器后的合并,也即是:
Figure BDA0003120913070000062
然后,假设每个用户之间所接收到的数据流是互相独立的,也即数据矢量满足条件:
Figure BDA0003120913070000063
最后,发送矢量和预编码矩阵需要满足以下功率约束:
Figure BDA0003120913070000064
接收端
对于第k个用户,用户k接收到的信号
Figure BDA0003120913070000065
可以表示为:
Figure BDA0003120913070000066
其中
Figure BDA0003120913070000067
表示用户k收到噪声干扰影响的噪声矢量,并且满足条件:
Figure BDA0003120913070000071
这里
Figure BDA0003120913070000072
表示噪声功率。HkWkxk表示用户k期望接收到的信号矢量,∑i≠kHkWixi表示其它用户数据对用户k的干扰。
步骤A:建立单小区多用户MIMO系统下的权值和速率最大化模型,所述权值和速率最大化模型为:
Figure BDA0003120913070000073
受限于:
Figure BDA0003120913070000074
其中,Wk是发射端针对用户k的预编码矩阵;K是系统的用户数,M是基站侧发射天线数,N是每个用户具有的接收天线数;αk是用户k的可达和速率权值因子;Hk是基站到用户k的信道矩阵;
Figure BDA0003120913070000075
是第k个接收机端的均值为0的加性高斯白噪声的方差;Pmax为系统发射端最大发射功率限制;det(A)表示求矩阵A的行列式,Tr(A)表示求矩阵A的迹,上角标H表示对矩阵或向量进行共轭转置;
步骤B:针对步骤A中所述模型使用WMMSE方法进行求解,并以所述WMMSE方法的输入输出作为所述卷积神经网络的训练数据,构造如图1所示的卷积神经网络,所述卷积神经网络具有特征提取能力,并且参数共享,采用监督学习和非监督学习相结合的方法对所述神经网络进行训练,具体过程如下:
步骤1:所述卷积神经网络包括输入层、卷积层、展平层、全连接层、输出层和功率限制层,具体结构如下:
步骤1-1:所述输入层,采用I/Q变换对多用户MIMO信道矩阵进行处理,得到信道矩阵H=[H1,H2,…,HK],其中,实部矩阵为
Figure BDA0003120913070000076
虚部矩阵为
Figure BDA0003120913070000077
对矩阵H各元素取模得到幅度矩阵
Figure BDA0003120913070000078
表达式为:
Hreal[i,j]=Re{H[i,j]}
Himag[i,j]=Im{H[i,j]}
Habs[i,j]=abs{H[i,j]}
i=0,…,M-1,j=0,…,KN-1
其中,Re{·}表示取实数,Im{·}表示取虚数,abs{·}表示取模;输入层为三维矩阵,其维数为M×NK×c,其中c=3表示输入层的通道数,这3个通道的输入分别是Hreal、Himag和Habs,所述卷积神经网络的输入记为
Figure BDA0003120913070000081
其表达式为
Hin[:,:,1]=Hreal
Hin[:,:,2]=Himag
Hin[:,:,3]=Habs
步骤1-2:所述卷积层包括卷积核层、分批归一化层和激活函数层,卷积层为L层,卷积层l取值为1,…,L,卷积层l的卷积核层具有cl个尺寸为al×al的卷积核,所述卷积核层的表达式为:
Oconv,l=Conv(Iconv,l,Γll)
其中,
Figure BDA0003120913070000082
表示所述卷积核层的输出,
Figure BDA0003120913070000083
表示所述卷积核层的输入,
Figure BDA0003120913070000084
表示所述卷积核层的输出维度,并且满足
Figure BDA0003120913070000085
和Iconv,1=Hin,所述卷积核的参数包括权值
Figure BDA0003120913070000086
和偏置矢量
Figure BDA0003120913070000087
Conv表示所述卷积核的卷积操作;
所述卷积层l的分批归一化层采用减去批均值并除以批标准差来对卷积核层的输出进行归一化,具体处理如下:
Figure BDA0003120913070000088
Figure BDA0003120913070000089
其中,Ocon,l[i,j,c]表示Oconv,l第i行第j列与第c卷积核操作输出的元素,Bbn,l,c表示所述分批归一化层的输出,μl,c和σl,c分别表示批均值和批标准差;
所述卷积层l的激活函数层使用线性整流函数,具体表达式如下:
Aaf,l[i,j,c]=ReLU(Bbn,l[i,j,c])
Figure BDA0003120913070000091
其中,Aaf,l[i,j,c]表示所述激活函数层的输出,并且满足Iconv,l+1=Aaf,l,ReLU表示所使用的线性整流函数;
步骤1-3:所述展平层用于对所述卷积层L的输出数据进行处理,展平层激活函数使用的也是ReLU函数,具体表达记为:
Af=ReLU(Flat(Aaf,L))
其中,
Figure BDA0003120913070000092
表示所述展平层的输出,ReLU表示所使用的线性整流函数,Flat表示将三维数据转成一维数据的操作;
步骤1-4:所述全连接层的具体处理如下:
Ofc=ReLU(WfcAf+bfc)
其中,Ofc,Af,bfc分别为输出、输入和偏置列向量,Wfc为权值矩阵,ReLU表示所使用的线性整流函数;
步骤1-5:所述输出层的表达式如下:
woutput=ReLU(WoutOfc+bout)
其中,
Figure BDA0003120913070000093
表示输出层的输出,bout和Wfc分别为偏置列向量和权值矩阵,ReLU表示所使用的线性整流函数;
步骤1-6:所述功率限制处理的具体处理如下:
Figure BDA0003120913070000094
其中,b表示增益因子,
Figure BDA0003120913070000095
表示所述功率限制层的输出;
步骤2:采用监督学习和非监督学习相结合的方法对步骤1所述神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练;
步骤2-1:随机生成信道样本H(t),利用步骤C-1-1所述输入层公式得到
Figure BDA0003120913070000096
t表示样本索引,使用WMMSE算法进行预编码设计,得到预编码矩阵W1(t),W2(t),…,WK(t),定义矩阵:
W(t)=[W1(t),W2(t),…,WK(t)]M×KL
将矩阵W(t)按行拉直成一个MKL维的列向量,记为
Figure BDA0003120913070000101
也即有:
Figure BDA0003120913070000102
上式中Vecrow表示把一个矩阵按行拉直成一个列向量的操作。
然后,获得用于监督学习的采样样本
Figure BDA0003120913070000103
以及用于非监督学习的采样样本
Figure BDA0003120913070000104
步骤2-2:所述监督学习使用基于均方误差标准的损失函数进行预训练,损失函数为:
Figure BDA0003120913070000105
其中T1表示训练样本总数量,
Figure BDA0003120913070000106
表示运行WMMSE算法之后,获得的预编码标签矢量,
Figure BDA0003120913070000107
表示步骤C-1所述神经网络的输出预编码矢量;
步骤2-3:所述非监督学习是在监督学习的基础上进行再次训练,这里损失函数形式构造如下:
Figure BDA0003120913070000108
其中,T2表示训练样本数量,
Figure BDA0003120913070000109
表示使用步骤C-1所述神经网络的输入和输出计算的用户速率,λ表示正则化项因子。
本发明未详述之处,均为本领域技术人员的公知技术。以上描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (1)

1.一种单小区多用户MIMO系统的机器学习预编码方法,其特征在于,包括如下步骤:
步骤S1、建立单小区多用户MIMO系统下的权值和速率最大化模型,所述权值和速率最大化模型为:
Figure FDA0003120913060000011
受限于:
Figure FDA0003120913060000012
公式中,k和i表示用户编号,Wk是发射端针对用户k的预编码矩阵;K是系统的用户数,M是基站侧发射天线数,N是每个用户具有的接收天线数;αk是用户k的可达和速率权值因子;Hk是基站到用户k的信道矩阵;
Figure FDA0003120913060000016
是第k个接收机端的均值为0的加性高斯白噪声的方差;Pmax为系统发射端最大发射功率限制;det(·)表示求矩阵的行列式,Tr(·)表示求矩阵的迹,(·)-1表示矩阵的求逆操作,(·)H表示对矩阵或向量进行共轭转置;
步骤S2、针对步骤S1中所述模型使用WMMSE方法进行求解,并以所述WMMSE方法的输入输出作为卷积神经网络的训练数据;
步骤S3、构造卷积神经网络,所述卷积神经网络具有特征提取能力,并且参数共享,采用监督学习和非监督学习相结合的方法对所述卷积神经网络进行训练,具体过程如下:
步骤S301、所述卷积神经网络包括输入层、卷积层、展平层、全连接层、输出层和功率限制层,具体结构如下:
步骤S3011、所述输入层,采用I/Q变换对多用户MIMO信道矩阵进行处理,得到信道矩阵H=[H1,H2,…,HK],其中,实部矩阵为
Figure FDA0003120913060000013
虚部矩阵为
Figure FDA0003120913060000014
对矩阵H各元素取模得到幅度矩阵
Figure FDA0003120913060000015
表达式为:
Hreal[i,j]=Re{H[i,j]}
Himag[i,j]=Im{H[i,j]}
Habs[i,j]=abs{H[i,j]}
i=0,…,M-1,j=0,…,KN-1
公式中,H[i,j]表示矩阵H第i行第j列的元素,Re{·}表示取实数,Im{·}表示取虚数,abs{·}表示取模;输入层为三维矩阵,其维数为M×NK×c,其中c=3表示输入层的通道数,这3个通道的输入分别是Hreal、Himag和Habs,所述卷积神经网络的输入记为
Figure FDA0003120913060000021
其表达式为:
Hin[:,:,1]=Hreal
Hin[:,:,2]=Himag
Hin[:,:,3]=Habs
公式中,Hin[:,:,1],Hin[:,:,2],Hin[:,:,3]分别表示三维矩阵Hin第1,2,3页对应的二维矩阵;
步骤S3012、所述卷积层包括卷积核层、分批归一化层和激活函数层,卷积层为L层,卷积层l取值为1,…,L,卷积层l的卷积核层具有cl个尺寸为al×al的卷积核,所述卷积核层的表达式为:
Oconv,l=Conv(Iconv,lll)
公式中,
Figure FDA0003120913060000022
表示所述卷积核层的输出,
Figure FDA0003120913060000023
表示所述卷积核层的输入,
Figure FDA0003120913060000024
表示所述卷积层l的卷积核层输出维度,并且满足
Figure FDA0003120913060000025
c0=3和Iconv,1=Hin,所述卷积核的参数包括权值
Figure FDA0003120913060000026
和偏置矢量
Figure FDA0003120913060000027
Conv(·)表示卷积运算;
所述卷积层l的分批归一化层采用减去批均值并除以批标准差来对卷积核层的输出进行归一化,具体处理如下:
Figure FDA0003120913060000028
Figure FDA0003120913060000029
公式中,Ocon,l[i,j,c]表示Oconv,l第i行第j列与第c卷积核操作输出的元素,Bbn,l表示所述分批归一化层输出的三维矩阵,Bbn,l[i,j,c]表示Bbn,l第i行第j列第c页的元素,μl,c和σl,c分别表示批均值和批标准差;
所述卷积层l的激活函数层使用线性整流函数,具体表达式如下:
Aaf,l[i,j,c]=ReLU(Bbn,l[i,j,c])
Figure FDA0003120913060000031
其中,Aaf,l表示所述激活函数层输出的三维矩阵,Aaf,l[i,j,c]表示Aaf,l第i行第j列第c页的元素,并且满足Iconv,l+1=Aaf,l,ReLU表示所使用的线性整流函数;
步骤S3013、所述展平层用于对所述卷积层L的输出数据进行处理,展平层激活函数使用的也是ReLU函数,具体表达记为:
Af=ReLU(Flat(Aaf,L))
公式中,
Figure FDA0003120913060000032
表示所述展平层的输出,ReLU表示所使用的线性整流函数,Flat表示将三维数据转成一维数据的操作;
步骤S3014、所述全连接层的具体处理如下:
Ofc=ReLU(WfcAf+bfc)
公式中,Ofc,Af,bfc分别为输出、输入和偏置列向量,Wfc为权值矩阵,ReLU表示所使用的线性整流函数;
步骤S3015、所述输出层的表达式如下:
woutput=ReLU(WoutOfc+bout)
公式中,
Figure FDA0003120913060000033
表示输出层的输出,bout和Wfc分别为偏置列向量和权值矩阵,ReLU表示所使用的线性整流函数;
步骤S3016、所述功率限制处理的具体处理如下:
Figure FDA0003120913060000034
公式中,b表示增益因子,
Figure FDA0003120913060000035
表示所述功率限制层的输出;
步骤S302、采用监督学习和非监督学习相结合的方法对步骤S301中的所述卷积神经网络进行训练,所述监督学习利用WMMSE算法产生训练数据对卷积神经网络进行预训练,然后再使用非监督学习进行再训练,具体步骤如下:
步骤S3021、随机生成信道样本H(t),利用步骤S3011中的所述输入层公式得到
Figure FDA0003120913060000041
t表示样本索引,使用WMMSE算法进行预编码设计,得到预编码矩阵W1(t),W2(t),…,WK(t),定义矩阵:
W(t)=[W1(t),W2(t),…,WK(t)]M×KL
将矩阵W(t)按行拉直成一个MKL维的列向量,记为
Figure FDA0003120913060000042
也即有:
Figure FDA0003120913060000043
上式中Vecrow表示把一个矩阵按行拉直成一个列向量的操作;
然后,获得用于监督学习的采样样本
Figure FDA0003120913060000044
以及用于非监督学习的采样样本
Figure FDA0003120913060000045
步骤S3022、所述监督学习使用基于均方误差标准的损失函数进行预训练,损失函数为:
Figure FDA0003120913060000046
公式中,T1表示训练样本总数量,
Figure FDA0003120913060000047
表示运行WMMSE算法之后,获得的预编码标签矢量,
Figure FDA0003120913060000048
表示步骤C-1所述神经网络的输出预编码矢量;
步骤S3023、所述非监督学习是在监督学习的基础上进行再次训练,这里损失函数形式构造如下:
Figure FDA0003120913060000049
公式中,T2表示训练样本数量,
Figure FDA00031209130600000410
表示使用步骤S301所述卷积神经网络的输入和输出计算的用户速率,λ表示正则化项因子。
CN202110675611.6A 2021-06-18 2021-06-18 一种单小区多用户mimo系统的机器学习预编码方法 Active CN113344187B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110675611.6A CN113344187B (zh) 2021-06-18 2021-06-18 一种单小区多用户mimo系统的机器学习预编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110675611.6A CN113344187B (zh) 2021-06-18 2021-06-18 一种单小区多用户mimo系统的机器学习预编码方法

Publications (2)

Publication Number Publication Date
CN113344187A true CN113344187A (zh) 2021-09-03
CN113344187B CN113344187B (zh) 2022-07-26

Family

ID=77476478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110675611.6A Active CN113344187B (zh) 2021-06-18 2021-06-18 一种单小区多用户mimo系统的机器学习预编码方法

Country Status (1)

Country Link
CN (1) CN113344187B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220029665A1 (en) * 2020-07-27 2022-01-27 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus
CN114499605A (zh) * 2022-02-25 2022-05-13 北京京东方传感技术有限公司 信号传输方法、装置、电子设备、存储介质
CN116112044A (zh) * 2022-08-09 2023-05-12 西安电子科技大学 基于神经网络的高能效混合预编码方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108650201A (zh) * 2018-05-10 2018-10-12 东南大学 基于神经网络的信道均衡方法、译码方法及对应设备
CN111930501A (zh) * 2020-07-23 2020-11-13 齐齐哈尔大学 一种面向多小区网络的基于无监督学习的无线资源分配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108650201A (zh) * 2018-05-10 2018-10-12 东南大学 基于神经网络的信道均衡方法、译码方法及对应设备
CN111930501A (zh) * 2020-07-23 2020-11-13 齐齐哈尔大学 一种面向多小区网络的基于无监督学习的无线资源分配方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220029665A1 (en) * 2020-07-27 2022-01-27 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus
CN114499605A (zh) * 2022-02-25 2022-05-13 北京京东方传感技术有限公司 信号传输方法、装置、电子设备、存储介质
CN116112044A (zh) * 2022-08-09 2023-05-12 西安电子科技大学 基于神经网络的高能效混合预编码方法

Also Published As

Publication number Publication date
CN113344187B (zh) 2022-07-26

Similar Documents

Publication Publication Date Title
CN113344187B (zh) 一种单小区多用户mimo系统的机器学习预编码方法
Cai et al. Attention model for massive MIMO CSI compression feedback and recovery
Huang et al. Unsupervised learning-based fast beamforming design for downlink MIMO
Liao et al. CSI feedback based on deep learning for massive MIMO systems
Cao et al. Lightweight convolutional neural networks for CSI feedback in massive MIMO
Marzetta et al. A random matrix-theoretic approach to handling singular covariance estimates
CN110212959B (zh) 一种毫米波mimo-ofdm通信系统的混合预编码能效优化方法
Bi et al. A novel approach using convolutional transformer for massive MIMO CSI feedback
CN113381790B (zh) 一种基于ai的环境知识辅助的无线信道反馈方法
Marseet et al. Application of complex-valued convolutional neural network for next generation wireless networks
Shi et al. Robust WMMSE precoder with deep learning design for massive MIMO
Li et al. Multi-task deep learning based hybrid precoding for mmWave massive MIMO system
Zhang et al. Dual-propagation-feature fusion enhanced neural CSI compression for massive MIMO
CN113193896B (zh) 一种最大化两接收端和速率的波束成形神经网络决策方法
CN113411165B (zh) 一种基于速率拆分传输的预编码及公有消息速率分配方法
Wu et al. Compressed CSI feedback with learned measurement matrix for mmWave massive MIMO
Xue et al. Integrated deep implicit CSI feedback and beamforming design for FDD mmWave massive MIMO systems
Kuo et al. Unsupervised learning based hybrid beamforming with low-resolution phase shifters for MU-MIMO systems
Pang et al. MGGAN-based hybrid beamforming design for massive MIMO systems against rank-deficient channels
CN117240331A (zh) 一种基于图神经网络的无蜂窝网络下行预编码设计方法
CN117220740A (zh) 一种非合作场景下通信与干扰一体化系统波束形成方法
CN116720060A (zh) 一种基于轻量化深度学习模型的射频指纹识别方法
Shehzad et al. Design of an efficient CSI feedback mechanism in massive MIMO systems: A machine learning approach using empirical data
An et al. Channel estimation for one-bit massive MIMO based on improved cGAN
Cao et al. Manifold learning-based csi feedback in massive mimo systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant