CN110350958A - 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法 - Google Patents

一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法 Download PDF

Info

Publication number
CN110350958A
CN110350958A CN201910509887.XA CN201910509887A CN110350958A CN 110350958 A CN110350958 A CN 110350958A CN 201910509887 A CN201910509887 A CN 201910509887A CN 110350958 A CN110350958 A CN 110350958A
Authority
CN
China
Prior art keywords
csinet
multiplying power
decoder
encoder
csi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910509887.XA
Other languages
English (en)
Other versions
CN110350958B (zh
Inventor
金石
郭佳佳
陈彤
温朝凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910509887.XA priority Critical patent/CN110350958B/zh
Publication of CN110350958A publication Critical patent/CN110350958A/zh
Application granted granted Critical
Publication of CN110350958B publication Critical patent/CN110350958B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/60General implementation details not specific to a particular type of compression
    • H03M7/6005Decoder aspects
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/60General implementation details not specific to a particular type of compression
    • H03M7/6011Encoder aspects
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/70Type of the data to be coded, other than image and sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0619Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal using feedback from receiving side
    • H04B7/0621Feedback content
    • H04B7/0626Channel coefficients, e.g. channel state information [CSI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Radio Transmission System (AREA)

Abstract

本发明公开了一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,包括:提出了CSI反馈的两个网络设计原则,并根据这些原则引入了一个新的网络架构CsiNet+;引入了两种不同的可变倍率压缩框架,即串联多倍率压缩框架SM‑CsiNet+和并联多倍率压缩框架PM‑CsiNet+。本发明可大大减少CSI反馈网络的参数,降低用户端的存储空间,提高系统的可行性,同时还可以提高重建精度,而且在不同场景下可实现压缩率的可变性。

Description

一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法
技术领域
本发明涉及一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,属于通信技术领域。
背景技术
大规模MIMO(multiple-input multiple-output)系统已被公认为是5G及以上通信系统的关键技术。在大规模MIMO系统中,基站端配备了大量的天线,能够在低信噪比(SNR)的情况下恢复从用户端接收到的信息,同时为多个用户提供服务。然而,为了获得这些潜在的好处,基站端需要获得准确的信道状态信息(CSI)。对于上行链路,基站端可以通过对用户端发送的导频进行信道估计,获得准确的CSI。然而,下行CSI是很难实现的,尤其是对于目前使用最多的蜂窝系统的频分双工(FDD)系统。在时分双工(TDD)系统中,利用互易性可以从上行链路的CSI中推断下行链路的CSI。然而,FDD系统不具有互易性,因此在用户端获得的下行CSI需要通过反馈链路发送给基站端。反馈完整的CSI将带来巨大的开销,而实际中通常用来减小开销的基于量化或码本的方法,会随着天线数量的增加导致反馈开销线性增加,因此在大规模MIMO系统中是不可取的。
目前在大规模MIMO系统信道状态信息反馈的研究中,利用信道状态信息的空时相关性和压缩感知的理论可先将信道状态信息变换至某个基下的稀疏矩阵,再利用压缩感知获得低维度测量值,通过反馈链路传递至基站端,基站端从该测量值中重建出原稀疏信道矩阵。基于压缩感知方法提出的基于深度学习的信道反馈及重建模型CsiNet作为一种非迭代算法,大大减小了反馈开销。该模型基于自动编码器架构,在用户端编码,在基站端进行译码重建。由于其整个网络是一个“黑盒”,因而其网络的构造并没与充分利用CSI编解码的原理,在网络的设计上有需要改进的地方。此外,大规模MIMO系统的CSI反馈在相干时间较短的情况下需要进行大幅度压缩,在相干时间较长时可采用较小幅度的压缩。因此,CSI的压缩率必须能够根据环境进行调整。迭代算法能够适用于不同压缩率,但是现有的基于深度学习下的压缩方法只能在固定的压缩率下压缩CSI矩阵,用户端需要存储多个网络架构和相应的参数集才能实现可变倍率压缩,由于用户端的存储空间有限,这是不可行的。
发明内容
为克服现有技术的不足,本发明提供一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,以解决现有的CsiNet模型无法实现可变倍率压缩反馈的问题,并且基于理论对 CsiNet的网络设计进行了改进。
本发明为解决上述技术问题采用以下技术方案:
本发明提供一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,包括以下步骤:
步骤一:在用户端,对MIMO信道状态信息在空频域的信道矩阵做二维离散傅立叶变换,获得在角延迟域稀疏的信道矩阵H;
步骤二:构建包括编码器和译码器的信道反馈及重建模型CsiNet+,引入串联多倍率压缩框架SM-CsiNet+和并联多倍率压缩框架PM-CsiNet+,即在用户端引入串联或并联多倍率压缩编码器实现可变倍率压缩编码器,将信道矩阵H编码为更低维度的码字;译码器属于基站端,选择相应倍率的解压缩译码器,从码字重建出原信道矩阵估计值
步骤三:对信道反馈及重建模型CsiNet+、SM-CsiNet+、PM-CsiNet+分别进行训练,使代价函数最小,以获得各自的模型参数;
步骤四:对上述三种信道反馈及重建模型输出的重建信道矩阵分别进行二维逆DFT变换,恢复得到原始空频域的信道矩阵的重建值;
步骤五:将待反馈和重建的信道状态信息输入已训练的信道反馈及重建模型CsiNet+、 SM-CsiNet+或PM-CsiNet+中,由模型输出角延迟域重建信道矩阵序列并通过二维逆DFT变换恢复得到原始空频域的信道矩阵序列的重建值。
作为本发明的进一步技术方案,步骤二中的CsiNet+由CsiNet改进而来,具体为:
1)CsiNet+的编码器中使用了两个7×7卷积层来替换CsiNet在编码器处的第一个3×3卷积层,CsiNet+的译码器的RefineNet中分别用一个7×7和一个5×5的卷积核来替换CsiNet相应位置的两个3×3卷积核;
2)CsiNet+移除了CsiNet中最后一个RefineNet后附加的卷积层,CsiNet+在译码端的全连接层和第一个RefineNet单元之间插入一个卷积层和一个BN层。
作为本发明的进一步技术方案,步骤二中引入了串联多倍率压缩框架SM-CsiNet+,在用户端采用串联方式将不同倍率的压缩编码器相接,用小倍率编码器的压缩码字去生成大倍率编码器的压缩码字,同时,压缩前用于提取特征的前两个卷积层也由不同的压缩编码器共享,在基站端将不同解码器的输出串联,进行端到端的训练。
作为本发明的进一步技术方案,步骤二中引入了并联多倍率压缩框架PM-CsiNet+,采用并联方式将同倍率的大倍率压缩编码器相接,用大倍率编码器的压缩码字去生成小倍率编码器的压缩码字,与基站端的解码器联合进行端到端的训练。
作为本发明的进一步技术方案,CsiNet+编码器包含一个全连接层和两个卷积层,译码器包含一个全连接层、两个卷积层和四个RefineNet单元。
作为本发明的进一步技术方案,串联多倍率压缩框架SM-CsiNet+编码器包括一个4倍压缩编码器和三个2倍压缩编码器,均由全连接层构成;四个编码器相串联,译码器包含对应的4倍、8倍、16倍和32倍解压缩译码器,各译码器结构与CsiNet+译码器相同。
作为本发明的进一步技术方案,并联多倍率压缩框架PM-CsiNet+编码器包括八个32倍压缩编码器,均由全连接层构成;八个编码器相并联,译码器包含对应的4倍、8倍、16倍和32倍解压缩译码器,各译码器结构与CsiNet+译码器相同。
作为本发明的进一步技术方案,步骤三中的代价函数为:
(1)所述CsiNet+的代价函数为:
其中,M为训练集的所有样本数,||·||2为欧几里得范数,Hi为第i个训练样本对应的信道矩阵;为第i个训练样本对应的重建得到的信道矩阵估计值;
(2)所述SM-CsiNet+、PM-CsiNet+的代价函数为:
LTotal(Θ)=c4L44)+c8L88)+c16L1616)+c32L3232)
其中LN(·)、cN、ΘN分别表示在N倍压缩网络中输出端的的MSE损失函数、损失函数的系数、训练得到的模型参数,N取4、8、16、32分别对应4倍、8倍、16倍、32倍压缩网络,cN表示将各损失项的幅度大小缩放到相同范围内的超参数。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明提出在网络结构和重建质量上均超过已有CsiNet的CsiNet+模型,以及同时在环境适应性和存储空间占用量上均优于已有CsiNet的SM-CsiNet+和PM-CsiNet+模型。首先 CsiNet+是通过分析CSI的稀疏性特点和深度学习相关理论,对其卷积核和译码器的Refine 过程进行了改进,使其网络结构得到改善,进一步提升了重建精度。此外,串联多倍率压缩框架SM-CsiNet+和并联多倍率压缩框架PM-CsiNet+的提出又进一步实现了在不同场景中的可变倍率压缩反馈;
本发明是多倍率压缩的信道压缩及重建网络,该网络与CsiNet类似,也是基于自动编码器架构,主要由神经网络中的卷积层和全连接层构成,通过端到端和数据驱动的训练方案,直接从信道样本中学习信道结构,得到有效压缩编码,并借助由卷积层构成的残差网络从中恢复出原始信道矩阵。然而,CsiNet的压缩率是固定的,若要实现多倍率压缩,只能训练并存储多个CS网络架构和相应的参数集,需要很大的存储空间。而用户端的存储空间是有限的,因此CsiNet在不同的场景不能实现可变倍率的压缩。通过利用串联或并联编码译码器的方式,在CsiNet的基础上提出可变倍率压缩的网络架构,可以提升重建性能对压缩率的鲁棒性;
本发明可大大减少CSI反馈网络的参数,降低用户端的存储空间,提高系统的可行性,同时还可以提高重建精度,而且在不同场景下可实现压缩率的的可变性。
附图说明
图1是本发明方法采用的CsiNet+的网络架构图。
图2是本发明方法采用的SM-CsiNet+的网络架构图。
图3是本发明方法采用的PM-CsiNet+的网络架构图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
如图1所示,本发明设计了一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,该方法具体包括以下步骤:
步骤一:在用户端,对MIMO信道状态信息在空频域的信道矩阵做二维离散傅立叶变换,获得在角延迟域稀疏的信道矩阵H;
步骤二:构建基于CsiNet改进的、包括编码器和译码器的模型CsiNet+,并引入串联多倍率压缩框架SM-CsiNet+和并联多倍率压缩框架PM-CsiNet+,即在用户端引入串联或并联多倍率压缩编码器实现可变倍率压缩编码器,将信道矩阵H编码为多种较低维度的码字,译码器属于基站端,从码字重建出原信道矩阵估计值各模型具体的实现包括以下步骤:
(1)通过分析CSI的稀疏性特点并结合深度学习中的Refinement理论,提出了CSI反馈的两个网络设计原则,对现有的信道反馈与重建模型CsiNet的网络进行了改进,引入了一个新的网络架构CsiNet+。CsiNet+相较于CsiNet主要做了两个改进:卷积核大小和Refine过程。
①改进1:无线通信系统的信道矩阵中的非零值呈块状分布,CsiNet用卷积核为3×3滤波器的卷积层来提取块稀疏信道矩阵的特征会导致较大的“空白区域”,则卷积运算是无效的。因此在CsiNet+的编码器中使用了两个7×7卷积层来替换CsiNet在编码器处的第一个3×3卷积层,在译码器的RefineNet中分别用一个7×7和一个5×5的卷积核来替换CsiNet相应位置的两个3×3卷积核。
②改进2:RefineNet的核心思想为通过叠加带有shortcut的卷积层,不断地将初始的信道矩阵估计值改善,使其越来越接近原始信道矩阵,即最后一个RefineNet单元的输出应该为最终的信道矩阵估计值。然而在CsiNet中最后一个RefineNet单元后还附加了一个卷积层,因此干扰了细化。因此,我们在CsiNet+中移除这个卷积层。此外,CsiNet中很难获得一个好的初始信道估计值,因此在译码端的全连接层和第一个RefineNet单元之间插入一个卷积层和一个BN层,插入的该卷积层的输出即可作为初始信道矩阵估计,后面各RefineNet单元对其进行细化。
此外,CsiNet+编码器包含一个全连接层和两个卷积层,译码器包含一个全连接层、两个卷积层和四个RefineNet单元。
(2)引入了串联多倍率压缩框架SM-CsiNet+,在用户端采用串联方式将不同倍率的压缩编码器相接,用小倍率编码器的压缩码字去生成大倍率编码器的压缩码字,同时,压缩前用于提取特征的前两个卷积层也由不同的压缩编码器共享,在基站端将不同解码器的输出串联,进行端到端的训练;既实现了可变倍率压缩,又大大减少了编码器参数的数量。
此外,在串联多倍率压缩框架SM-CsiNet+中编码器包括一个4倍压缩编码器和三个2倍压缩编码器,均由全连接层构成。四个编码器相串联,实现了4倍、8倍、16倍和32倍压缩;译码器包含对应的4倍、8倍、16倍和32倍解压缩译码器,各译码器结构与CsiNet+译码器相同。
(3)引入了并联多倍率压缩框架PM-CsiNet+,采用并联方式将同倍率的大倍率压缩编码器相接,用大倍率编码器的压缩码字去生成小倍率编码器的压缩的压缩码字,与基站端的解码器联合进行端到端的训练。相比串联框架进一步减少了编码器参数数量。
此外,在并联多倍率压缩框架PM-CsiNet+中编码器包括八个32倍压缩编码器,均由全连接层构成。八个编码器相并联,实现了4倍、8倍、16倍和32倍压缩;译码器包含对应的4倍、8倍、16倍和32倍解压缩译码器,各译码器结构与CsiNet+译码器相同。
步骤三:采用Adam优化算法和端到端的学习方式,分别联合训练三种信道反馈及重建模型CsiNet+、SM-CsiNet+、PM-CsiNet+的编码器和译码器的参数,使各自的代价函数最小,以获得模型参数。
(1)所述CsiNet+的代价函数为:
其中,M为训练集的所有样本数,||·||2为欧几里得范数,Hi为第i个训练样本对应的信道矩阵;为第i个训练样本对应的重建得到的信道矩阵估计值。
(2)所述SM-CsiNet+、PM-CsiNet+的代价函数为:
LTotal(Θ)=c4L44)+c8L88)+c16L1616)+c32L3232)
其中LN(·)、cN、ΘN分别表示在N倍压缩网络中输出端的的MSE损失函数、损失函数的系数、训练得到的模型参数。N取4、8、16、32分别对应着4倍、8倍、16倍、32倍压缩网络。另外可通过设置超参数cN来将各损失项的幅度大小缩放到相同范围内。
此外,SM-CsiNet+、PM-CsiNet+框架进行端到端训练时,需要将不同倍率的译码器的输出拼接作为总输出,对所有倍率的压缩编码器和解压缩译码器同时进行训练,得到模型参数。所获得的模型参数包括全连接层的权重、偏置,以及卷积层的卷积核、偏置。
步骤四:对信道反馈及重建模型CsiNet+、SM-CsiNet+、PM-CsiNet+输出的重建信道矩阵分别进行二维逆DFT变换,恢复得到原始空频域的信道矩阵的重建值。
步骤五:将待反馈和重建的信道状态信息输入已训练的信道反馈及重建模型CsiNet+、 SM-CsiNet+或PM-CsiNet+中,由模型输出角延迟域重建信道矩阵序列并通过二维逆DFT变换恢复得到原始空频域的信道矩阵序列的重建值。其中将SM-CsiNet+、PM-CsiNet+框架投入实际场景中使用时,需要选择合适倍率的压缩编码器和解压缩译码器。
为了验证本发明方法可减少CSI反馈网络的参数,降低用户端的存储空间,同时还可以提高重建精度,在不同场景下可实现压缩率的的可变性,特列举一个验证例进行说明。
本验证例是一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,通过数据驱动的编码器和译码器架构,在用户端用不同压缩率的编码器将信道矩阵压缩编码为低维度码字,经反馈链路传送至基站端,由不同解压缩率的译码器重建出当前信道矩阵,减少CSI反馈网络的参数,同时提高信道重建质量和实现对压缩率的可变性,具体包括如下步骤:
步骤一:在一种MIMO的FDD系统中,基站端配置32根发送天线,用户端使用单根接收天线,采用OFDM载波调制方式,使用1024个子载波。用COST 2100模型根据上述条件,在5.3GHz的室内微蜂窝场景和300MHz的室外乡村场景各产生15000个空频域信道矩阵的样本,将样本集分成训练集、验证集和测试集,分别包含100000、30000和20000个样本。对样本中每一个空间-频率域的信道矩阵,用维度分别为1024×1024和32×32的DFT矩阵Fd和Fa,对作二维DFT变换,得到角延迟域上稀疏的信道矩阵H,即因为多径到达时间之间的延迟在有限的时间范围内,所以在时间延迟域上,信道矩阵H只有在前32 行上有值,因此保留其前32行元素值,将其修正为32×32的信道矩阵H。
步骤二:如图1所示的CsiNet+架构、如图2所示的SM-CsiNet+架构、如图3所示的PM-CsiNet+架构中编码器部分分别设计用户端的编码器。其中:
(1)CsiNet+:将复数域信道矩阵的实部和虚部拆分为两个32×32大小的实数矩阵,作为两通道的特征图输入编码器。经过两个用来提取特征的卷积层后,展平成一个 2048×1的向量后再将其压缩。其中压缩4倍、8倍、16倍和32倍分别对应输出512维、256 维、128维和64维的压缩码字。若要同时实现4倍、8倍、16倍和32倍压缩,则在用户端的参数个数为1968688个。
(2)SM-CsiNet+:压缩前的处理与CsiNet+完全相同。用全连接层实现的压缩部分是先将2048×1维向量压缩4倍,然后将压缩后的512×1维向量继续压缩2倍,得到8倍压缩。以此类推,通过串联多个2倍压缩编码器,可以实现16倍和32倍压缩。计算可得该方法在用户端的参数个数为1221532个,相比用CsiNet+实现多倍压缩减少了约38%的CSI反馈参数,降低了用户端的存储空间。
(3)PM-CsiNet+:压缩前的处理与CsiNet+完全相同。用全连接层实现的压缩部分是先将2048×1维向量以32倍的压缩率并行压缩八次,压缩后得到的八个64×1维向量取第一个则得到32倍压缩后的码字,取前两个则得到16倍压缩后的码字,取前四个则得到8倍压缩后的码字,八个全取则可以实现4倍压缩。计算可得该方法在用户端的参数个数为1049500个,较SM-CsiNet+更少,与CsiNet+单独实现4倍压缩的参数量相同,相比用CsiNet+实现多倍压缩减少了约46.7%的CSI反馈参数,降低了用户端的存储空间。
步骤三:如图1所示的CsiNet+架构、如图2所示的SM-CsiNet+架构、如图3所示的PM-CsiNet+架构中编码器部分分别设计用户端的译码器。其中:
(1)CsiNet+:将接收到的码字作为译码器的输入,先通过一个全连接层恢复到原始的 2048×1维向量,再将其重组为两个32×32大小的矩阵,产生初始信道矩阵估计值。再将这两个矩阵作为两通道的特征图输入,经四个RefineNet单元不断地提取特征细化后,得到最终重建的信道矩阵的实部和虚部。
(2)SM-CsiNet+和PM-CsiNet+:基站端由各不同倍率的解压缩译码器共同构成,各译码器结构均与CsiNet+相同。
步骤四:用步骤1中产生的训练样本,采用Adam优化算法和端到端的学习方式。分别联合训练CsiNet+、SM-CsiNet+和PM-CsiNet+架构中编码器和译码器的参数,包括所有卷积层的卷积核和全连接层的权重和偏置,使得代价函数最小。
(1)CsiNet+的代价函数为:
(2)SM-CsiNet+、PM-CsiNet+的代价函数为:
LTotal(Θ)=c4L44)+c8L88)+c16L1616)+c32L3232)。其中LN、cN、ΘN分别是MSE损失函数,权重和学习可得的N倍压缩网络的参数。
对SM-CsiNet+、PM-CsiNet+架构进行网络训练时,需要将各倍率编码译码器同时进行训练,以32×32×8的信道矩阵为输出。
每次迭代使用训练集中200个样本计算梯度,根据Adam优化算法更新参数,以此方法遍历训练集500次,其种采用动态学习率,即前期使用学习率为0.001,当代价函数值趋于稳定时采用0.0001学习率。训练过程中用验证集调整模型超参数,用测试集测试模型最终性能。
步骤五:将训练好的CsiNet+、SM-CsiNet+和PM-CsiNet+模型用于FDD MIMO系统的信道CSI反馈中。对SM-CsiNet+和PM-CsiNet+模型,根据信道特点,选择相应倍率的压缩编码器和译码器,对用户端的信道矩阵进行编码后反馈到基站端进行译码,重建出原始信道矩阵。
本发明公开了一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,包括:首先,对现有的信道反馈与重建模型CsiNet的网络进行了改进,提出了CSI反馈的两个网络设计原则,并根据这些原则引入了一个新的网络架构CsiNet+。此外,引入了两种不同的可变倍率压缩框架,即串联多倍率压缩框架SM-CsiNet+和并联多倍率压缩框架PM-CsiNet+。
SM-CsiNet+框架在用户端采用串联方式将不同倍率的压缩编码器相接,用小倍率编码器的压缩码字去生成大倍率编码器的压缩码字,同时,压缩前用于提取特征的前两个卷积层也由不同的压缩编码器共享,减少了编码器参数的数量,在基站端将不同解码器的输出串联,进行端到端的训练;在实际应用时对训练好的模型选择相应的解码器对接收到的CSI压缩码字进行解码,输出重建值。
PM-CsiNet+框架在用户端采用并联方式将同倍率的压缩编码器相接,用大倍率编码器的压缩码字去生成小倍率编码器的压缩的压缩码字,相比串联框架进一步减少了编码器参数数量。与基站端的器联合进行端到端的训练,在实际应用时对训练好的模型选择相应的器对接收到的CSI压缩码字进行解码,输出重建值。
综上,本发明可改造在重建质量上超过CsiNet的CsiNet+模型,以及在重建质量、环境适应性和存储空间上均优于CsiNet的SM-CsiNet+和PM-CsiNet+模型,使其网络结构得到改善,进一步提升重建精度,同时可减少CSI反馈网络的参数,降低用户端的存储空间,同时还可以提高重建精度,在不同场景下可实现压缩率的的可变性,在有限的资源开销下,实现高效的信道状态信息的反馈。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。

Claims (8)

1.一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,包括以下步骤:
步骤一:在用户端,对MIMO信道状态信息在空频域的信道矩阵做二维离散傅立叶变换,获得在角延迟域稀疏的信道矩阵H;
步骤二:构建包括编码器和译码器的信道反馈及重建模型CsiNet+,引入串联多倍率压缩框架SM-CsiNet+和并联多倍率压缩框架PM-CsiNet+,即在用户端引入串联或并联多倍率压缩编码器实现可变倍率压缩编码器,将信道矩阵H编码为更低维度的码字;译码器属于基站端,选择相应倍率的解压缩译码器,从码字重建出原信道矩阵估计值
步骤三:对信道反馈及重建模型CsiNet+、SM-CsiNet+、PM-CsiNet+分别进行训练,使代价函数最小,以获得各自的模型参数;
步骤四:对上述三种信道反馈及重建模型输出的重建信道矩阵分别进行二维逆DFT变换,恢复得到原始空频域的信道矩阵的重建值;
步骤五:将待反馈和重建的信道状态信息输入已训练的信道反馈及重建模型CsiNet+、SM-CsiNet+或PM-CsiNet+中,由模型输出角延迟域重建信道矩阵序列并通过二维逆DFT变换恢复得到原始空频域的信道矩阵序列的重建值。
2.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,步骤二中的CsiNet+由CsiNet改进而来,具体为:
1)CsiNet+的编码器中使用了两个7×7卷积层来替换CsiNet在编码器处的第一个3×3卷积层,CsiNet+的译码器的RefineNet中分别用一个7×7和一个5×5的卷积核来替换CsiNet相应位置的两个3×3卷积核;
2)CsiNet+移除了CsiNet中最后一个RefineNet后附加的卷积层,CsiNet+在译码端的全连接层和第一个RefineNet单元之间插入一个卷积层和一个BN层。
3.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,步骤二中引入了串联多倍率压缩框架SM-CsiNet+,在用户端采用串联方式将不同倍率的压缩编码器相接,用小倍率编码器的压缩码字去生成大倍率编码器的压缩码字,同时,压缩前用于提取特征的前两个卷积层也由不同的压缩编码器共享,在基站端将不同解码器的输出串联,进行端到端的训练。
4.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,步骤二中引入了并联多倍率压缩框架PM-CsiNet+,采用并联方式将同倍率的大倍率压缩编码器相接,用大倍率编码器的压缩码字去生成小倍率编码器的压缩码字,与基站端的解码器联合进行端到端的训练。
5.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,CsiNet+编码器包含一个全连接层和两个卷积层,译码器包含一个全连接层、两个卷积层和四个RefineNet单元。
6.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,串联多倍率压缩框架SM-CsiNet+编码器包括一个4倍压缩编码器和三个2倍压缩编码器,均由全连接层构成;四个编码器相串联,译码器包含对应的4倍、8倍、16倍和32倍解压缩译码器,各译码器结构与CsiNet+译码器相同。
7.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,并联多倍率压缩框架PM-CsiNet+编码器包括八个32倍压缩编码器,均由全连接层构成;八个编码器相并联,译码器包含对应的4倍、8倍、16倍和32倍解压缩译码器,各译码器结构与CsiNet+译码器相同。
8.根据如权利要求1所述的一种基于神经网络的大规模MIMO的CSI多倍率压缩反馈方法,其特征在于,步骤三中的代价函数为:
(1)所述CsiNet+的代价函数为:
其中,M为训练集的所有样本数,||·||2为欧几里得范数,Hi为第i个训练样本对应的信道矩阵;为第i个训练样本对应的重建得到的信道矩阵估计值;
(2)所述SM-CsiNet+、PM-CsiNet+的代价函数为:
LTotal(Θ)=c4L44)+c8L88)+c16L1616)+c32L3232)
其中LN(·)、cN、ΘN分别表示在N倍压缩网络中输出端的的MSE损失函数、损失函数的系数、训练得到的模型参数,N取4、8、16、32分别对应4倍、8倍、16倍、32倍压缩网络,cN表示将各损失项的幅度大小缩放到相同范围内的超参数。
CN201910509887.XA 2019-06-13 2019-06-13 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法 Active CN110350958B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910509887.XA CN110350958B (zh) 2019-06-13 2019-06-13 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910509887.XA CN110350958B (zh) 2019-06-13 2019-06-13 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法

Publications (2)

Publication Number Publication Date
CN110350958A true CN110350958A (zh) 2019-10-18
CN110350958B CN110350958B (zh) 2021-03-16

Family

ID=68181942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910509887.XA Active CN110350958B (zh) 2019-06-13 2019-06-13 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法

Country Status (1)

Country Link
CN (1) CN110350958B (zh)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110912598A (zh) * 2019-11-22 2020-03-24 中原工学院 基于长短时注意力机制的大规模mimo系统csi反馈方法
CN111901024A (zh) * 2020-07-29 2020-11-06 燕山大学 基于抗拟合深度学习的mimo信道状态信息反馈方法
CN112468203A (zh) * 2020-11-19 2021-03-09 杭州勒贝格智能系统股份有限公司 深度迭代神经网络用低秩csi反馈方法、存储介质及设备
CN112564757A (zh) * 2020-12-03 2021-03-26 西华大学 一种深度学习1-bit压缩叠加信道状态信息反馈方法
CN113347123A (zh) * 2021-05-31 2021-09-03 北京理工大学 一种基于模型驱动的混合mimo系统信道估计与反馈网络
CN113381950A (zh) * 2021-04-25 2021-09-10 清华大学 基于网络聚合策略的高效mimo信道反馈方法及装置
CN113487588A (zh) * 2020-03-02 2021-10-08 博动医学影像科技(上海)有限公司 冠状动脉的血流速度的计算方法、装置及电子设备
CN113660020A (zh) * 2021-06-25 2021-11-16 陕西尚品信息科技有限公司 一种无线通信信道信息传输方法、系统和解码器
WO2021237423A1 (zh) * 2020-05-25 2021-12-02 Oppo广东移动通信有限公司 一种信道状态信息传输方法、电子设备及存储介质
WO2021253937A1 (zh) * 2020-06-19 2021-12-23 株式会社Ntt都科摩 无线通信系统的终端、基站以及由终端和基站执行的方法
WO2022033456A1 (zh) * 2020-08-13 2022-02-17 华为技术有限公司 一种信道状态信息测量反馈方法及相关装置
CN114157331A (zh) * 2021-12-20 2022-03-08 扬州大学 基于伪复值输入的大规模mimo信道状态信息反馈方法
WO2022199133A1 (zh) * 2021-03-25 2022-09-29 中兴通讯股份有限公司 压缩码本的发送方法、信道状态信息矩阵的获取方法
CN115136505A (zh) * 2020-02-28 2022-09-30 高通股份有限公司 基于神经网络的信道状态信息反馈
WO2022206747A1 (zh) * 2021-04-01 2022-10-06 清华大学 基于二值化神经网络的高效mimo信道反馈方法及装置
WO2023279947A1 (zh) * 2021-07-09 2023-01-12 华为技术有限公司 一种通信方法及装置
CN115603878A (zh) * 2021-07-10 2023-01-13 上海朗帛通信技术有限公司(Cn) 一种被用于无线通信的节点中的方法和装置
WO2023011472A1 (zh) * 2021-08-04 2023-02-09 中兴通讯股份有限公司 信道状态信息的反馈方法及接收方法、终端、基站、计算机可读存储介质
WO2023030538A1 (zh) * 2021-09-06 2023-03-09 中兴通讯股份有限公司 信道状态信息的处理方法、终端、基站、计算机可读存储介质
WO2023104205A1 (zh) * 2021-12-10 2023-06-15 中兴通讯股份有限公司 反馈、获取及训练方法、终端、基站、电子设备和介质
WO2023108437A1 (zh) * 2021-12-14 2023-06-22 北京小米移动软件有限公司 一种信道状态信息csi压缩反馈的方法及其装置
WO2023221061A1 (zh) * 2022-05-19 2023-11-23 北京小米移动软件有限公司 获取信道质量的方法、装置、存储介质和芯片
WO2024008004A1 (zh) * 2022-07-06 2024-01-11 华为技术有限公司 一种通信方法及装置
TWI830543B (zh) * 2021-12-25 2024-01-21 大陸商大唐移動通信設備有限公司 資訊處理方法、裝置、終端及網路設備

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103929281A (zh) * 2014-04-02 2014-07-16 同济大学 Mimo系统中基于向量自回归的贝叶斯压缩感知反馈方法
US20180314985A1 (en) * 2017-04-24 2018-11-01 Virginia Tech Intellectual Properties, Inc. Learning and deploying compression of radio signals
CN108847876A (zh) * 2018-07-26 2018-11-20 东南大学 一种大规模mimo时变信道状态信息压缩反馈及重建方法
CN109474316A (zh) * 2018-11-22 2019-03-15 东南大学 一种基于深度循环神经网络的信道信息压缩反馈方法
US20190103900A1 (en) * 2017-10-03 2019-04-04 Ceva D.S.P. Ltd. System and method for selecting transmission parameters
CN109672464A (zh) * 2018-12-13 2019-04-23 西安电子科技大学 基于fcfnn的大规模mimo信道状态信息反馈方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103929281A (zh) * 2014-04-02 2014-07-16 同济大学 Mimo系统中基于向量自回归的贝叶斯压缩感知反馈方法
US20180314985A1 (en) * 2017-04-24 2018-11-01 Virginia Tech Intellectual Properties, Inc. Learning and deploying compression of radio signals
US20190103900A1 (en) * 2017-10-03 2019-04-04 Ceva D.S.P. Ltd. System and method for selecting transmission parameters
CN108847876A (zh) * 2018-07-26 2018-11-20 东南大学 一种大规模mimo时变信道状态信息压缩反馈及重建方法
CN109474316A (zh) * 2018-11-22 2019-03-15 东南大学 一种基于深度循环神经网络的信道信息压缩反馈方法
CN109672464A (zh) * 2018-12-13 2019-04-23 西安电子科技大学 基于fcfnn的大规模mimo信道状态信息反馈方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUANG YANG,ET AL.: ""DAGAN: Deep De-Aliasing Generative Adversarial Networks for Fast Compressed Sensing MRI Reconstruction"", 《 IEEE TRANSACTIONS ON MEDICAL IMAGING》 *
孙君,孙照伟: ""基于压缩感知的信道互易性补偿方法"", 《计算机技术与发展》 *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110912598B (zh) * 2019-11-22 2020-08-28 中原工学院 基于长短时注意力机制的大规模mimo系统csi反馈方法
CN110912598A (zh) * 2019-11-22 2020-03-24 中原工学院 基于长短时注意力机制的大规模mimo系统csi反馈方法
US11936452B2 (en) 2020-02-28 2024-03-19 Qualcomm Incorporated Neural network based channel state information feedback
CN115136505B (zh) * 2020-02-28 2024-03-15 高通股份有限公司 基于神经网络的信道状态信息反馈
CN115136505A (zh) * 2020-02-28 2022-09-30 高通股份有限公司 基于神经网络的信道状态信息反馈
CN113487588B (zh) * 2020-03-02 2024-03-22 上海博动医疗科技股份有限公司 冠状动脉的血流速度的计算方法、装置及电子设备
CN113487588A (zh) * 2020-03-02 2021-10-08 博动医学影像科技(上海)有限公司 冠状动脉的血流速度的计算方法、装置及电子设备
WO2021237423A1 (zh) * 2020-05-25 2021-12-02 Oppo广东移动通信有限公司 一种信道状态信息传输方法、电子设备及存储介质
WO2021253937A1 (zh) * 2020-06-19 2021-12-23 株式会社Ntt都科摩 无线通信系统的终端、基站以及由终端和基站执行的方法
CN111901024B (zh) * 2020-07-29 2021-11-05 燕山大学 基于抗拟合深度学习的mimo信道状态信息反馈方法
CN111901024A (zh) * 2020-07-29 2020-11-06 燕山大学 基于抗拟合深度学习的mimo信道状态信息反馈方法
WO2022033456A1 (zh) * 2020-08-13 2022-02-17 华为技术有限公司 一种信道状态信息测量反馈方法及相关装置
CN112468203A (zh) * 2020-11-19 2021-03-09 杭州勒贝格智能系统股份有限公司 深度迭代神经网络用低秩csi反馈方法、存储介质及设备
CN112468203B (zh) * 2020-11-19 2022-07-26 杭州勒贝格智能系统股份有限公司 深度迭代神经网络用低秩csi反馈方法、存储介质及设备
CN112564757A (zh) * 2020-12-03 2021-03-26 西华大学 一种深度学习1-bit压缩叠加信道状态信息反馈方法
WO2022199133A1 (zh) * 2021-03-25 2022-09-29 中兴通讯股份有限公司 压缩码本的发送方法、信道状态信息矩阵的获取方法
WO2022206747A1 (zh) * 2021-04-01 2022-10-06 清华大学 基于二值化神经网络的高效mimo信道反馈方法及装置
CN113381950A (zh) * 2021-04-25 2021-09-10 清华大学 基于网络聚合策略的高效mimo信道反馈方法及装置
CN113381950B (zh) * 2021-04-25 2022-11-25 清华大学 基于网络聚合策略的高效mimo信道反馈方法及装置
CN113347123A (zh) * 2021-05-31 2021-09-03 北京理工大学 一种基于模型驱动的混合mimo系统信道估计与反馈网络
CN113347123B (zh) * 2021-05-31 2023-03-28 北京理工大学 一种基于模型驱动的混合mimo系统信道估计与反馈网络
CN113660020A (zh) * 2021-06-25 2021-11-16 陕西尚品信息科技有限公司 一种无线通信信道信息传输方法、系统和解码器
WO2023279947A1 (zh) * 2021-07-09 2023-01-12 华为技术有限公司 一种通信方法及装置
CN115603878A (zh) * 2021-07-10 2023-01-13 上海朗帛通信技术有限公司(Cn) 一种被用于无线通信的节点中的方法和装置
WO2023011472A1 (zh) * 2021-08-04 2023-02-09 中兴通讯股份有限公司 信道状态信息的反馈方法及接收方法、终端、基站、计算机可读存储介质
WO2023030538A1 (zh) * 2021-09-06 2023-03-09 中兴通讯股份有限公司 信道状态信息的处理方法、终端、基站、计算机可读存储介质
WO2023104205A1 (zh) * 2021-12-10 2023-06-15 中兴通讯股份有限公司 反馈、获取及训练方法、终端、基站、电子设备和介质
WO2023108437A1 (zh) * 2021-12-14 2023-06-22 北京小米移动软件有限公司 一种信道状态信息csi压缩反馈的方法及其装置
CN114157331B (zh) * 2021-12-20 2023-11-24 扬州大学 基于伪复值输入的大规模mimo信道状态信息反馈方法
CN114157331A (zh) * 2021-12-20 2022-03-08 扬州大学 基于伪复值输入的大规模mimo信道状态信息反馈方法
TWI830543B (zh) * 2021-12-25 2024-01-21 大陸商大唐移動通信設備有限公司 資訊處理方法、裝置、終端及網路設備
WO2023221061A1 (zh) * 2022-05-19 2023-11-23 北京小米移动软件有限公司 获取信道质量的方法、装置、存储介质和芯片
WO2024008004A1 (zh) * 2022-07-06 2024-01-11 华为技术有限公司 一种通信方法及装置

Also Published As

Publication number Publication date
CN110350958B (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN110350958A (zh) 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法
CN108390706B (zh) 一种基于深度学习的大规模mimo信道状态信息反馈方法
CN108847876B (zh) 一种大规模mimo时变信道状态信息压缩反馈及重建方法
CN112737985B (zh) 基于深度学习的大规模mimo信道联合估计和反馈方法
CN110311718A (zh) 一种大规模mimo信道状态信息反馈中的量化和逆量化方法
CN109672464B (zh) 基于fcfnn的大规模mimo信道状态信息反馈方法
CN111464220B (zh) 一种基于深度学习的信道状态信息重建方法
CN110912598B (zh) 基于长短时注意力机制的大规模mimo系统csi反馈方法
CN113098804B (zh) 一种基于深度学习与熵编码的信道状态信息反馈方法
CN102164282B (zh) 一种用于图像编码的基于系数随机置换的压缩感知方法及系统
CN111555781B (zh) 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法
CN104867165B (zh) 一种基于变换域下采样技术的图像压缩方法
CN113381950B (zh) 基于网络聚合策略的高效mimo信道反馈方法及装置
CN113381790B (zh) 一种基于ai的环境知识辅助的无线信道反馈方法
CN116248156A (zh) 基于深度学习的大规模mimo信道状态信息反馈及重建方法
Li et al. A novel CSI feedback approach for massive MIMO using LSTM-attention CNN
CN115865145A (zh) 一种基于Transformer的大规模MIMO信道状态信息反馈方法
CN114884549A (zh) 基于深度学习的大规模mimo信道状态信息反馈方法
CN113660020A (zh) 一种无线通信信道信息传输方法、系统和解码器
CN113938254A (zh) 一种基于注意力机制的分层信源信道联合编码传输系统及其传输方法
Cao et al. ACCsiNet: Asymmetric convolution-based autoencoder framework for massive MIMO CSI feedback
CN114553280A (zh) 一种基于深度学习大规模mimo系统的csi反馈方法
Liu et al. CSI feedback based on complex neural network for massive MIMO systems
TW201944745A (zh) 基於深度學習作為通道狀態資訊之回饋方法
CN113660693B (zh) 一种应用于无线通信系统的信息传输方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant