CN117856848B - 一种基于自动编码器结构的csi反馈方法 - Google Patents
一种基于自动编码器结构的csi反馈方法 Download PDFInfo
- Publication number
- CN117856848B CN117856848B CN202410265711.5A CN202410265711A CN117856848B CN 117856848 B CN117856848 B CN 117856848B CN 202410265711 A CN202410265711 A CN 202410265711A CN 117856848 B CN117856848 B CN 117856848B
- Authority
- CN
- China
- Prior art keywords
- matrix
- csi
- encoder
- convolution
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000011159 matrix material Substances 0.000 claims abstract description 100
- 238000013528 artificial neural network Methods 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000007906 compression Methods 0.000 claims abstract description 27
- 230000006835 compression Effects 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 230000007246 mechanism Effects 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 22
- 238000005457 optimization Methods 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 238000000137 annealing Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 9
- 238000013144 data compression Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于自动编码器结构的CSI反馈方法,属于通信技术领域。通过构建编码器结构:采用卷积块注意力模块(Convolutional Block Attention Module,CBAM)提供注意力机制,利用卷积层进行特征提取、全连接层进行特征压缩;构建解码器结构:基于卷积块注意力模块和卷积操作,引入Dense Block密集连接结构,构建Dense Block卷积层,将Dense Block卷积层作为解码器的主要结构;联合训练编码器和解码器;分析与验证基于自动编码器结构的CSI反馈方法的性能。本发明通过联合训练编码器和解码器,能够优化和评估自动编码器神经网络性能,实现对CSI矩阵的特征提取、数据压缩和矩阵重建。
Description
技术领域
本发明涉及通信技术领域,尤其是涉及一种基于自动编码器结构的CSI反馈方法。
背景技术
相较于传统MIMO技术,大规模MIMO技术拥有更多的天线数量和不同的天线排列方式,可以提高能量和频谱的利用率,同时向移动通信系统提供分集增益和空间复用增益,进而直接提高通信系统的信道容量。为了发挥其性能优势,基站需要通过下行信道的信道状态信息(Channel State Information, CSI)进行计算来得到预编码矩阵,从而进行波束赋形。因此,基站获取准确及时的信道状态信息非常重要。
目前,大规模MIMO系统主要有时分双工(TDD)和频分双工(FDD)两种工作模式。以TDD模式工作时,大规模MIMO系统的上下行信道在同一频段内,所以上下行信道之间存在较强的互易性,这种互易性能够协助基站直接获取到下行信道的CSI矩阵,从而使基站获得预编码所需要的参数。当大规模MIMO系统工作于FDD模式时,上下行信道通过不同频段同时进行信息的收发,此时上下行信道之间的互易性十分微弱,以至于无法利用互易性从上行信道CSI获取下行信道的CSI。在这种情况下,需要移动终端利用下行导频进行信道估计,获得下行信道的CSI矩阵,在相干时间内,再通过上行信道将获取到的下行信道CSI反馈给基站,这个过程称为CSI反馈。
由于下行信道的CSI矩阵的大小与基站天线的数量有关,随着天线数量的增加,CSI矩阵大小也会迅速增大。在大规模MIMO系统中,为了发挥其自身的性能优势,通常需要在基站部署数十根甚至上百根天线,然而这种方式会导致下行信道的CSI矩阵大小迅速增加;而CSI矩阵大小的增加,一方面会导致CSI反馈开销的增大,降低单位时间内的数据传输效率;另一方面,上行信道在相干时间内能够传输的数据量是有限的,过大的CSI矩阵将无法在相干时间内及时的由移动终端反馈给基站。
近年来,深度学习技术得到了广泛的关注和应用,国内外研究者也开始将深度学习技术引入到通信领域中。在CSI反馈方向,如何利用深度学习技术对CSI矩阵进行压缩和重建、减少CSI反馈开销、提供一种高效的CSI反馈方法是大规模MIMO系统中的重要研究内容。
发明内容
本发明的目的是提出一种基于自动编码器结构的CSI反馈方法,以自动编码器为框架训练CSI矩阵的压缩(编码器)和重建(解码器)神经网络,优化和评估网络性能,实现对CSI矩阵的特征提取、数据压缩和矩阵重建,从而发挥出大规模MIMO的性能优势,提高通信系统的信道容量。
为实现上述目的,本发明采用了如下技术方案:
本发明提供了一种基于自动编码器结构的CSI反馈方法,包括以下步骤:
S1、构建编码器的基本结构:利用卷积层进行特征提取,使用全连接层进行CSI压缩,实现编码器基本结构;
S2、构建解码器的基本结构:利用全连接层进行特征扩维,重建CSI矩阵,实现解码器基本结构;
S3、在编码器和解码器加入卷积块注意力模块:在编码器和解码器中加入包括通道注意力模块和空间注意力模块的卷积块注意力模块CBAM,加权通道与空间上的重要性信息;
S4、在解码器加入Dense Block卷积层:引入Dense Block密集连接结构,构建Dense Block卷积层,通过DenseBlock卷积层之间的跳跃连接,加强特征传播,缓解梯度消失;
S5、联合训练编码器和解码器:
S51、设计训练方案,使用端到端的训练方式,将自动编码器结构中的编码器和解码器两个部分作为一个整体进行训练,采用自适应矩估计Adam优化算法更新编码器和解码器中的所有参数,以最小化系统均方误差MSE作为联合训练编码器和解码器的优化目标;
S52、设置训练参数,初始学习率设置为0.0005,batch size设置为200,共训练1000个epoch,学习率衰减采用余弦退火算法,最小学习率设置为0.000001,选取压缩率CR为1/4,1/16,1/32,1/64四类条件进行训练;
S6、基于自动编码器结构的CSI反馈方法性能分析与验证。
优选的,步骤S1中,移动终端将空间频域上的原始CSI矩阵进行截断,截断后的矩阵在CSI反馈网络的编码器中进行特征提取和特征压缩;
特征提取:截断后的矩阵经过卷积核生成特征图;
特征压缩:将含有CSI矩阵特征的特征图变形为向量,将向量输入到全连接层,输出压缩码字。
优选的,步骤S2中,将步骤S1中输出的压缩码字输入解码器的全连接层进行扩维,输出经过sigmoid激活函数,完成CSI矩阵重建,再做2D-IDFT,得到空间频率域上的CSI矩阵。
优选的,步骤S3中,在编码器和解码器中加入包括通道注意力模块和空间注意力模块的卷积块注意力模块CBAM,加权通道与空间上的重要性信息。
通道注意力模块:在输入特征图的维度上,进行全局最大和平均池化,将结果送入共享参数的多层感知机中进行逐项求和,通过sigmoid激活函数得到取值在0~1之间的通道显着性信息后与输入特征图相乘,完成通道对输入特征图的加权;
空间注意力模块:在通道维度上,对通道注意力模块加权后的矩阵进行最大和平均池化,将输出结果在通道维度上进行拼接得到特征图,并将特征图经过卷积核进行特征提取,通过sigmoid激活函数输出并得到取值在0~1之间的显着性信息;
在编码器端,截断后的矩阵经过卷积核生成特征图后,输入卷积块注意力模块CBAM进行通道和空间注意力加权,并在卷积块注意力模块CBAM处引入残差连接,将加权后的特征图,经卷积核再次生成特征图;在解码器端,经过全连接层扩维的CSI矩阵,输入至卷积块注意力模块CBAM进行通道和空间注意力加权,生成特征增强的CSI矩阵。
优选的,步骤S4中,在解码器卷积块注意力模块CBAM输出端构建Dense Block卷积层,Dense Block卷积层内部各层之间跳跃连接,具体跳跃连接方式为:拼接Dense Block卷积层中当前层之前所有层的输出特征图,保留所有特征图的原始状态作为当前卷积层的输入,且Dense Block卷积层中各层均与sigmoid激活函数连接。
优选的,步骤S51中,采用均方误差MSE作为联合训练编码器和解码器的损失函数,公式为:
;
其中,N为训练集中样本的总个数,和/>分别为编码器和解码器的参数,为原始CSI矩阵经过编码器压缩和解码器重建的输出CSI矩阵,/>为训练集中的第i个原始CSI矩阵,/>表示L2范数;
网络的优化目标的表示为:
;
H表示CSI矩阵训练集的全部元素,在编码器和解码器的联合训练过程中,Adam优化算法通过误差反向传播,计算梯度,使整个自动编码器神经网络向着损失函数最小化方向优化。
优选的,步骤S52中,整个自动编码器神经网络的参数按照默认初始化的方式进行设置,通过调整压缩字码的长度来调整CSI反馈开销和压缩率的大小。
优选的,步骤S6中,通过归一化均方误差NMSE对压缩重建后的CSI矩阵与原始CSI矩阵之间的差异进行量化,再从归一化均方误差和余弦相似度两个方面进行对比。
因此,本发明采用上述一种基于自动编码器结构的CSI反馈方法,实现的有益效果为:
在编码器部分,采用卷积层、卷积块注意力模块CBAM和全连接层,实现了对CSI矩阵的特征提取和数据压缩;在解码器部分,采用卷积层、卷积块注意力模块CBAM和DenseBlock卷积层结构实现对CSI矩阵的重建;同时在整个自编码器神经网络的训练过程中,采用余弦退火算法作为学习率衰减策略,使整个自编码器神经网络能够更接近局部最优点。使本发明能够发挥出大规模MIMO的性能优势,提高通信系统的信道容量。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明CSI反馈自编码器神经网络的总体结构图;
图2为自编码器神经网络编码器的基本结构图;
图3为自编码器神经网络解码器的基本结构图;
图4为本发明CBAM的完整结构图;
图5为本发明自编码器神经网络编码器的结构图;
图6为本发明自编码器神经网络解码器的结构图;
图7为本发明解码器中Dense Block卷积层的结构图;
图8为本发明自编码器神经网络的训练方案。
具体实施方式
以下通过附图和实施例对本发明的技术方案作进一步说明。
除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
实施例
如图1-7所示,本发明提供了一种基于自动编码器结构的CSI反馈方法,由于自动编码器结构一般包含编码器和解码器两部分,本发明以自动编码器结构为设计框架,提出一种用于CSI矩阵压缩和重建的自动编码器神经网络,该自动编码器神经网络在移动终端(编码器端)使用卷积、卷积块注意力模块和全连接层进行CSI特征提取和特征压缩,在基站端(解码器端)使用卷积层和卷积块注意力模块进行CSI的粗略恢复,最后使用密集连接块进行精细的CSI重建。具体步骤如下:
一、(步骤S1)构建编码器的基本结构
如图2所示,编码器负责CSI矩阵的特征提取与压缩,在编码器中,使用卷积块注意力模块CBAM提供注意力机制,使用卷积层进行特征提取,使用全连接层进行特征压缩。移动终端将空间频率域上原始CSI矩阵进行2D-DFT,转换到角度时延域,仅保留前/>行,将几乎为零的部分进行截断,得到截断后的矩阵/>,矩阵/>将会被CSI反馈网络的编码器进行特征提取与压缩的操作。
1)特征提取:截断后的CSI矩阵的大小为/>,截断后的CSI矩阵/>依次经过感受野为/>和/>的卷积核,生成/>的特征图,并引入残差连接,缓解梯度消失的问题,将输出的/>的特征图再经过感受野为/>的卷积核,生成/>的特征图,完成CSI矩阵的特征提取。
2)特征压缩:CSI矩阵完成特征提取后,再经过reshape层,将含有CSI矩阵特征的特征图变形为/>的向量,将这个向量输入到含有/>个输出神经元的全连接层,输出长度为/>的压缩码字,完成CSI特征的压缩。
通过控制压缩码字的长度可以决定CSI的反馈开销,移动终端将此压缩码字经过上行信道发送给基站,由基站进行CSI矩阵的重建。
二、(步骤S2)构建解码器基本结构
如图3所示,解码器运行于基站,利用全连接层进行特征扩维,并且能够依据压缩码字重建CSI矩阵,完成解码器基本结构的构建。
在解码器中,长度为的全连接层将长度为/>的压缩码字恢复成的向量,通过reshape层重塑成/>的粗略恢复的CSI矩阵,再经过sigmoid激活函数后,即为重建好的CSI矩阵。基站将该重建好的CSI矩阵进行补零,再做2D-IDFT,即可得到空间频率域上的CSI矩阵,完成预编码矩阵的计算,从而发挥出大规模MIMO的性能优势,提高通信系统的信道容量。
三、(步骤S3)在编码器和解码器加入卷积块注意力模块CBAM
如图4所示,在编码器和解码器中加入包括通道注意力模块和空间注意力模块的卷积块注意力模块CBAM,可以分别在通道维度和空间维度上提供注意力,加权通道与空间上的重要性信息。
1)通道注意力模块:
如图4所示,输入到CBAM的通道注意力部分的矩阵为(注:/>表示实数集R,real),在输入特征图/>的/>维度上,进行全局最大和平均池化,将结果送入共享参数的多层感知机后,再逐项求和,为了把通道显着性信息约束在0~1的范围内,将其通过sigmoid激活函数,得到通道显着性信息/>;将/>与输入的特征图/>相乘,完成在通道上对输入特征图的加权。此过程的公式表达如下:
;
;
其中,表示/>借助广播机制,与/>进行逐元素相乘,/>表示通道加权后的特征图。
2)空间注意力模块
如图4所示,与通道显着性信息不同,空间注意力得到的是“哪里”需要重点关注的指示,这与通道显着性信息形成了互补。将通道注意力加权后的矩阵送入空间注意力模块,在通道维度上分别进行最大和平均池化,将输出结果在通道维度上进行拼接,得到/>的特征图,将该特征图通过感受野为/>的卷积核进行特征提取,为了把空间显着性信息取值约束在0~1的范围内,再通过sigmoid激活函数输出,即可得到空间显着性信息。此过程的公式表示如下:
;
;
其中,表示/>通过广播机制后与/>进行逐元素相乘,/>表示经过CBAM加权后的特征图。
3)加入CBAM的编码器结构
如图5所示,加入CBAM的编码器结构在生成的特征图后,将特征图送入CBAM模块进行通道和空间注意力加权;在CBAM处引入残差连接,缓解梯度消失的问题;将CBAM输出的/>的特征图再经过感受野为/>的卷积核,生成/>的特征图,完成CSI矩阵的特征提取。
4)加入CBAM的解码器结构
如图6所示,在加入CBAM的解码器中,使用CBAM模块对维度为粗略恢复的CSI矩阵进行注意力加权,其输出的加权CSI矩阵维度仍为/>。
四、(步骤S4)在解码器加入Dense Block卷积层
如图6和图7所示,引入Dense Block密集连接结构,构建Dense Block卷积层;在加入CBAM和DenseBlock卷积层的解码器中,选用Dense Block卷积层作为解码器的主要结构,Dense Block卷积层的主要特点是卷积层之间密集的跳跃连接思想。在Dense Block卷积层中,当前卷积层之前所有层的输出特征图在通道维度上进行拼接操作,保留所有特征图的原始状态,并将其作为当前卷积层的输入;且DenseBlock卷积层中的各层均连接了sigmoid激活函数,与短路连接相比,密集连接的存在极大的促进了特征信息的流动,使后边的卷积层可以使用前边所有层输出的浅层与深层特征,加强了特征图的传递与重用;在误差反向传播过程中,由于密集连接的存在,前边的网络层可以得到后边所有层向前传播的误差信息,大大缓解了梯度消失的问题。
具体的,将经过CBAM模块加权的CSI矩阵输入到Dense Block卷积层中,进行更加细致的CSI重建工作。在DenseBlock卷积层中,的矩阵依次通过5个感受野大小为的卷积核,分别生成大小为/>、/>、/>、/>、的特征图,以及一个感受野大小为/>的卷积核生成的/>特征图。
五、(步骤S5)联合训练编码器和解码器
S51、设计联合训练方案
如图8所示,使用端到端的训练方式,将自动编码器结构中的编码器和解码器两个部分作为一个整体进行训练,采用自适应矩估计Adam优化算法更新编码器和解码器中的所有神经网络参数,以最小化系统均方误差MSE作为整个自动编码器神经网络的优化目标。
损失函数用于计算自动编码器神经网络的输出结果和理论结果的误差大小,不仅能够利用损失函数进行误差反向传播优化网络性能,还能够对自动编码器神经网络的性能进行评估。因此本方法选择均方误差MSE作为自动编码器神经网络的损失函数,并且以最小化MSE为自动编码器神经网络的优化目标。自动编码器神经网络的输出结果为重建的CSI矩阵,理论结果为原始的CSI矩阵,均方误差MSE计算公式为:
;
其中,N为训练集中样本的总个数,和/>分别为编码器和解码器的神经网络参数,/>为原始CSI矩阵经过编码器压缩和解码器重建的输出CSI矩阵,/>为训练集中的第i个原始CSI矩阵,/>表示L2范数。
自动编码器神经网络的优化目标的表示为:
;
其中,H表示CSI矩阵训练集的全部元素;
在训练过程中,自动编码器神经网络的优化器能够通过误差反向传播,计算梯度,使自动编码器神经网络向着损失函数最小化方向优化。在自动编码器神经网络的优化算法中,自适应矩估计优化算法计算效率高,使用简单,所以在本自动编码器神经网络中,采用自适应矩估计(Adam)优化算法更新编码器和解码器中的所有神经网络参数,使MSE最小化。自适应矩估计(Adam)优化算法参数更新公式如下:
;
;
;
;
;
其中,为当前训练次数下所求的梯度,/>和/>是用于平滑/>和/>的两个常数(一般设置/>,/>),/>为自动编码器神经网络训练的学习率,设置/>(避免分母为0)。
在参数更新公式中,称为一阶矩估计,/>称为二阶矩估计,/>和/>是进行偏差纠正后的参数,/>为更新后的参数。
在网络训练过程中,当网络已经接近损失函数的局部最优化位置时,选用余弦退火算法进行学习率的衰减,使学习率能够自动衰减、自动编码器神经网络能够更好的接近损失函数的局部最优化位置。余弦退火算法表达式如下:
;
其中,表示当前step下的学习率,/>表示初始化学习率,/>表示余弦退火能够达到的最小学习率,/>表示当前是第几个step,/>表示余弦退火最大的step;大于/>后,学习率将保持/>不变,直到训练结束。
S52、设置训练参数
自动编码器神经网络中的参数按照默认初始化方式进行初始化,自动编码器神经网络优化器选用自适应矩估计Adam,初始学习率设置为0.0005,batch size为200,共训练1000个epoch;学习率衰减采用余弦退火算法,最小学习率设置为0.000001,并且为全程衰减,即衰减步长为500000;选取压缩率CR为1/4,1/16,1/32,1/64四类条件(与取值512,128,64,32分别对应)进行训练。
可以通过调整压缩码字的长度来调整CSI反馈开销以及压缩率的大小,压缩码字的长度直接影响自动编码器神经网络的性能,对解码器重建的CSI矩阵的精度有直接影响。
压缩率CR的表达式为:
;
六、(步骤S6)基于自动编码器结构的CSI反馈方法的性能分析与验证
采用归一化均方误差NMSE对经过自动编码器神经网络压缩重建后的CSI矩阵与原始的CSI矩阵/>之间的差异进行量化,从归一化均方误差和余弦相似度两个方面,与现有其他方法的实验结果进行对比。
1)仿真环境参数
本发明使用COST 2100信道模型生成的该公开数据集,基站的发射天线数量,OFDM子载波数/>,并且发射天线排列为均匀线性阵列。该数据集共包含两个场景的原始CSI矩阵数据,第一个场景是频段为5.3GHz的室内场景,基站位于边长为20米的正方形中心处,第二个场景是频段为300MHz的室外场景,基站位于400米的正方形中心处,其他参数按照COST 2100信道模型的默认值设置。在这两个场景中,移动终端随机的分布在正方形内,从而可以通过仿真获得原始的CSI矩阵样本。在这个数据集中,训练集、验证集和测试集的样本数量分别为100000、30000和20000。
在数据集的预处理过程中,将空间频率域上的原始CSI矩阵(注:/>表示复数集C,complex)通过2D-DFT后转换到角度时延域上得到/>,由于时延的有限性,/>仅有前32行存在非零元素,其余行元素几乎为零,所以截取/>的前32行作为传入自动编码器神经网络的矩阵,并将复数矩阵的实部和虚部分为实部信道和虚部信道分别存储,得到传入自动编码器神经网络的矩阵/>,即/>,/>。
2)评价标准
在模型训练完成后,为了对自动编码器神经网络的性能有一个量化的评估标准,本发明采用归一化均方误差NMSE对经过自动编码器神经网络压缩重建后的CSI矩阵与原始的CSI矩阵/>之间的差异进行量化,计算公式如下:
;
由于NMSE接近于0,故归一化均方误差NMSE以dB为单位进行表示。
基站通过解码器重建CSI矩阵,再通过补零操作和2D-IDFT后获得重建的空间频率域上的CSI矩阵/>,/>为/>矩阵中的第n个OFDM子载波上的重建的信道响应矢量,假设基站按照以下公式完成预编码矩阵的计算:
;
为了衡量重建的信道响应矢量计算出的预编码矢量的质量,引入了余弦相似度,计算公式如下:
;
式中,为/>的转置,余弦相似度/>的值越趋近于1,则表示基压缩重建后CSI矩阵计算出的预编码矢量的质量越好。
3)性能分析:自动编码器神经网络训练完成后,量化压缩重建后的CSI矩阵与原始CSI矩阵之间的差异。将LASSO、TVAL3、CsiNet、CRNet、MRFNe和本方法在归一化均方误差和余弦相似度两方面做对比,分别在室内场景和室外场景的数据集上进行测试。
因此,本发明采用上述一种基于自动编码器结构的CSI反馈方法,以自动编码器为框架训练CSI矩阵的压缩(编码器)和重建(解码器)神经网络,能够优化和评估自动编码器神经网络性能,实现对CSI矩阵的特征提取、数据压缩和矩阵重建,从而发挥出大规模MIMO的性能优势,提高通信系统的信道容量。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。
Claims (4)
1.一种基于自动编码器结构的CSI反馈方法,其特征在于,包括以下步骤:
S1、构建编码器结构:采用卷积块注意力模块CBAM并提供注意力机制,利用卷积层进行特征提取,使用全连接层进行特征压缩;
移动终端将空间频域上的原始CSI矩阵进行截断,截断后的矩阵在CSI反馈网络的编码器中进行特征提取和特征压缩;
特征提取:截断后的矩阵经过卷积核生成特征图后,送入CBAM模块进行通道和空间注意力加权,并在CBAM处引入残差连接,将加权后的特征图,经卷积核再次生成特征图;
特征压缩:将含有CSI矩阵特征的特征图变形为向量,将向量输入到全连接层,输出压缩码字;
S2、构建解码器结构:基于卷积块注意力模块和卷积操作,引入Dense Block密集连接结构;
将步骤S1中完成特征提取和压缩的矩阵输入到Dense Block中进行CSI重建,在DenseBlock的卷积层之间引入密集连接的思想,Dense Block的输出矩阵引入sigmoid激活函数,完成CSI矩阵的重建后进行补零,再做2D-IDFT,得到空间频率域上的CSI矩阵,完成预编码矩阵的计算;
S3、构建编码器和解码器的卷积块注意力模块:在编码器和解码器中加入包括通道注意力模块和空间注意力模块的卷积块注意力模块,加权通道与空间上的重要性信息;
通道注意力模块:在输入特征图的维度上,进行全局最大和平均池化,将结果送入共享参数的多层感知机中进行逐项求和,通过sigmoid激活函数得到取值在0~1之间的通道显着性信息后与输入特征图相乘,完成通道对输入特征图的加权;
空间注意力模块:在通道维度上,对通道注意力模块加权后的矩阵进行最大和平均池化,将输出结果在通道维度上进行拼接得到特征图,并将特征图经过卷积核进行特征提取,通过sigmoid激活函数输出并得到取值在0~1之间的显着性信息;
S4、构建解码器的密集连接块:通过Dense Block卷积层之间的跳跃连接思想,采用Dense Block作为解码器的主要结构;
在通道维度上拼接Dense Block中当前卷积层之前所有层的输出特征图,保留所有特征图的原始状态并作为当前卷积层的输入,且Dense Block中的卷积层均与Leaky Relu激活函数连接;
S5、训练自动编码器:
S51、设计训练方案,使用端到端的训练方式,将自动编码器的两个部分作为一个整体进行训练,采用自适应矩估计Adam优化算法更新所有参数,以最小化系统均方误差MSE作为神经网络的优化目标;
S52、设置训练参数,初始学习率设置为0.0005,batch size设置为200,共训练1000个epoch,学习率衰减采用余弦退火算法,最小学习率设置为0.000001,选取压缩率CR为1/4,1/16,1/32,1/64四类条件进行训练;
S6、基于自动编码器结构的CSI反馈方法的性能分析与验证。
2.根据权利要求1所述的一种基于自动编码器结构的CSI反馈方法,其特征在于:步骤S51中,采用均方误差MSE作为CSI反馈神经网络的损失函数,公式为:
;
其中,N为训练集中样本的总个数,和/>分别为编码器和解码器神经网络的参数,为原始CSI矩阵经过编码器压缩和解码器重建的输出CSI矩阵,/>为训练集中的第i个原始CSI矩阵,/>表示L2范数;
网络的优化目标的表示为:
;
在神经网络的训练过程中,Adam优化算法通过误差反向传播,计算梯度,使神经网络向着损失函数最小化方向优化。
3.根据权利要求2所述的一种基于自动编码器结构的CSI反馈方法,其特征在于:步骤S52中,神经网络的参数按照默认初始化的方式进行,通过调整压缩字码的长度来调整CSI反馈开销和压缩率的大小。
4.根据权利要求3所述的一种基于自动编码器结构的CSI反馈方法,其特征在于:步骤S6中,通过归一化均方误差NMSE对压缩重建后的CSI矩阵与原始CSI矩阵之间的差异进行量化,再从归一化均方误差和余弦相似度两个方面进行对比。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410265711.5A CN117856848B (zh) | 2024-03-08 | 2024-03-08 | 一种基于自动编码器结构的csi反馈方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410265711.5A CN117856848B (zh) | 2024-03-08 | 2024-03-08 | 一种基于自动编码器结构的csi反馈方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117856848A CN117856848A (zh) | 2024-04-09 |
CN117856848B true CN117856848B (zh) | 2024-05-28 |
Family
ID=90536681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410265711.5A Active CN117856848B (zh) | 2024-03-08 | 2024-03-08 | 一种基于自动编码器结构的csi反馈方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117856848B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114553280A (zh) * | 2022-02-21 | 2022-05-27 | 重庆邮电大学 | 一种基于深度学习大规模mimo系统的csi反馈方法 |
WO2023063874A1 (en) * | 2021-10-14 | 2023-04-20 | Exo Imaging, Inc. | Method and system for image processing based on convolutional neural network |
CN116248156A (zh) * | 2022-11-09 | 2023-06-09 | 中国电子科技集团公司第五十四研究所 | 基于深度学习的大规模mimo信道状态信息反馈及重建方法 |
CN116505989A (zh) * | 2023-05-06 | 2023-07-28 | 四川农业大学 | 一种基于复数编码器混合神经网络的csi反馈方法及系统 |
CN117475150A (zh) * | 2023-10-31 | 2024-01-30 | 淮阴工学院 | 一种基于SAC-UNet的高效语义分割方法 |
-
2024
- 2024-03-08 CN CN202410265711.5A patent/CN117856848B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023063874A1 (en) * | 2021-10-14 | 2023-04-20 | Exo Imaging, Inc. | Method and system for image processing based on convolutional neural network |
CN114553280A (zh) * | 2022-02-21 | 2022-05-27 | 重庆邮电大学 | 一种基于深度学习大规模mimo系统的csi反馈方法 |
CN116248156A (zh) * | 2022-11-09 | 2023-06-09 | 中国电子科技集团公司第五十四研究所 | 基于深度学习的大规模mimo信道状态信息反馈及重建方法 |
CN116505989A (zh) * | 2023-05-06 | 2023-07-28 | 四川农业大学 | 一种基于复数编码器混合神经网络的csi反馈方法及系统 |
CN117475150A (zh) * | 2023-10-31 | 2024-01-30 | 淮阴工学院 | 一种基于SAC-UNet的高效语义分割方法 |
Non-Patent Citations (3)
Title |
---|
Weixiang Lu ; Lei Yang.Hot-Rolled Steel Strip Defect Classification Based on ResNet34 Model.《2023 2nd International Conference on Machine Learning, Cloud Computing and Intelligent Mining (MLCCIM)》.2023,全文. * |
刘春辉 ; 王美琳 ; 董赞亮 ; 王沛.基于调制卷积神经网络的空地数据链信道估计.《北京航空航天大学学报》.2021,全文. * |
基于深度学习的大规模MIMO信道状态信息反馈研究与应用;刘为波;《中国优秀硕士学位论文全文数据库 信息科技辑》;20240115(第1期);I136-934 * |
Also Published As
Publication number | Publication date |
---|---|
CN117856848A (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109672464B (zh) | 基于fcfnn的大规模mimo信道状态信息反馈方法 | |
CN110557177A (zh) | 毫米波大规模MIMO系统中基于DenseNet的混合预编码方法 | |
CN110943768B (zh) | 一种毫米波大规模mimo系统的混合预编码码本联合设计方法 | |
CN110138427B (zh) | 基于部分连接的大规模多输入多输出混合波束赋形算法 | |
CN111478749B (zh) | 基于优化初值快收敛mimo迭代检测方法、系统及应用 | |
CN113098805B (zh) | 基于二值化神经网络的高效mimo信道反馈方法及装置 | |
CN112737649B (zh) | 一种基于角度网格优化与范数约束的毫米波信道估计方法 | |
CN107566305A (zh) | 一种低复杂度的毫米波系统信道估计方法 | |
CN113162665A (zh) | 一种基于深度学习信道预测的预编码方法 | |
CN116248156A (zh) | 基于深度学习的大规模mimo信道状态信息反馈及重建方法 | |
CN115001629A (zh) | 信道量化反馈方法、装置、电子设备及存储介质 | |
CN113726395A (zh) | 一种智能反射面增强云接入网多天线用户上行传输方法 | |
CN114157331B (zh) | 基于伪复值输入的大规模mimo信道状态信息反馈方法 | |
CN115865145A (zh) | 一种基于Transformer的大规模MIMO信道状态信息反馈方法 | |
CN113572503B (zh) | 一种低复杂度的基于gp的改进混合波束成形方法 | |
CN101924585B (zh) | 一种两级码本的构造与信道反馈方法 | |
CN113872655A (zh) | 一种多播波束赋形快速计算方法 | |
CN117856848B (zh) | 一种基于自动编码器结构的csi反馈方法 | |
CN114844541B (zh) | 一种基于深度学习的混合预编码和反馈方法 | |
CN116405077A (zh) | 一种基于深度学习的大规模mimo混合波束赋形方法 | |
CN110912599B (zh) | 一种多输入多输出多用户通信系统中的混合波束赋形方法 | |
CN112165347B (zh) | 一种毫米波纯模拟波束成形用户调度方法 | |
CN114124185A (zh) | 一种优化irs辅助通信系统中相移矩阵的低复杂度方法 | |
CN114629532B (zh) | 一种准确快速的mimo系统发射天线选择方法 | |
CN115085782B (zh) | 基于深度学习的智能反射面联合反馈和混合预编码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |