CN111555781A - 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 - Google Patents
一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 Download PDFInfo
- Publication number
- CN111555781A CN111555781A CN202010344573.1A CN202010344573A CN111555781A CN 111555781 A CN111555781 A CN 111555781A CN 202010344573 A CN202010344573 A CN 202010344573A CN 111555781 A CN111555781 A CN 111555781A
- Authority
- CN
- China
- Prior art keywords
- layer
- input
- decoder
- convolution
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B7/00—Radio transmission systems, i.e. using radiation field
- H04B7/02—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
- H04B7/04—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
- H04B7/0413—MIMO systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B7/00—Radio transmission systems, i.e. using radiation field
- H04B7/02—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
- H04B7/04—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
- H04B7/0413—MIMO systems
- H04B7/0456—Selection of precoding matrices or codebooks, e.g. using matrices antenna weighting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明公开了一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,包括如下步骤:步骤一:对输入的信道矩阵做DFT变换;步骤二:构建DS‑NLCsiNet模型;步骤三:对模型进行训练,得到模型各层参数;步骤四:对模型的输出进行逆DFT变换。本发明一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,从而能够高效提取远距离信道信息的关联性,同时以更少的参数提取更深层次的特征,大大提高了信道矩阵特征提取的效率。
Description
技术领域
本发明涉及大规模MIMO系统技术领域,尤其涉及一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法。
背景技术
大规模MIMO(multiple-input multiple-output)系统已被公认为是5G无线系统的关键技术之一,该技术通过在基站端配置大量天线,在空间域形成多个独立信道,从而大大增加无线通信系统的吞吐量。然而,在频分复用(frequency division duplexity,FDD)MIMO系统中,信道不具有互易性,在用户端获得的下行CSI需要通过反馈链路发送给基站端,反馈完整的CSI将带来巨大的资源开销。此外,随着天线数量大大增加,传统的减小反馈方案如基于量化和码本的有限反馈算法会在一定程度上损失信道状态信息,且反馈开销呈线性增长,因而不适用于大规模MIMO系统的信道反馈。
随着5G技术的高速发展,未来的无线通信应用场景变得更加多样和复杂,对无线通信质量的要求提高。而无线通信智能化则是5G时代技术发展的一大趋势,基于深度学习的模型和算法可以促进无线网络分析和资源的有效管理,有利于应对移动应用通信量和计算量的爆炸式增长。部分深度学习网络技术已经应用于无线传输技术,为5G时代的到来铺平了道路。
现有技术中公开了一种基于深度学习的大规模MIMO信道状态信息反馈方法。该方法的过程为:在用户端,对MIMO信道状态信息在空频域的信道矩阵H~做二维傅里叶变换,获得在角延迟域稀疏的信道矩阵H;构建包括编码器和译码器的模型,其中编码器属于用户端,将信道矩阵H编码为更低维度的码字,译码器属于基站端,从码字重建出原信道矩阵估计值H^;对模型进行训练,使得H^和H尽可能接近,获得模型参数;对模型输出的重建信道矩阵H^进行二位逆DFT变换,恢复得到原始空频域的信道矩阵H~重建值;将训练好的模型用于信道信息的压缩和重建。
然而,传统的模型一般仅使用3x3或5x5大小的卷积核,特征提取仅局限于某一局部邻域,通过不断迭代来增大自己的感受野,但是这个迭代过程十分低效,对远程依赖提取效果较差,需要消耗巨大的计算资源,并且每一层的输出仅传入其后一层,所需参数较多,提取特征的效率较低。当层数很多时,会出现梯度弥散的情况,极大的降低了传输效率与精确度。
发明内容
本发明提出一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,从而能够高效提取远距离信道信息的关联性,同时以更少的参数提取更深层次的特征,大大提高了信道矩阵特征提取的效率。
为实现本发明的目的,本发明提供的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,包括如下步骤:
步骤二:构建DS-NLCsiNet模型;
步骤三:对模型进行训练,得到模型各层参数;
A.使用Adam优化算法和端到端的学习方式,联合训练编码器和译码器的参数,使损失函数最小;
其中,T为训练集样本数,||·||2为欧几里得范数;
B.所述的模型参数主要包括全连接层的权重、偏置和卷积层的卷积核权重、偏置;
进一步地,
在步骤二中:编码器位于用户端,包括一个卷积层、一个Non Local Block和一个全连接层,随机初始化各层参数。
编码器第一层为卷积层,使用两通道3×3大小的卷积核与输入进行卷积,通过零填充、激活函数LeakyReLU和BatchNormalization,得到两通道32×32大小的特征图;
编码器第二层为Non Local Block,其通用公式表示为:
其中,x是输入信号,i,j表示输出位置,f函数计算i和j的相似度,g函数计算featuremap在j位置的表示,C(x)表示响应因子,对结果进行标准化处理;
编码器第三层为Dense层,将第二层的输出重组为一个2048×1的向量,作为第三层的输入,该层含有M个神经元,激活函数为线性激活函数,Dense层将2048×1的向量压缩为M×1的码字s,作为编码器的输出,传入基站端的解码器,假设传输过程无损失。
进一步地,编码器第二层具体实施方法包括:
首先,使用两路两通道的1×1卷积核分别对输入的featuremap进行处理,并将两路卷积的输出进行点乘运算,即可得到上式中的f(xi,xj);然后使用两通道的1×1卷积核对输入的featuremap进行处理,得到上式中的g(xj);再将得到f(xi,xj)和g(xj)进行点乘运算,使用softmax激活函数;最后,将点乘的结果通过两通道的1×1卷积核,得到编码器第二层的输出。
解码器Dense层以M×1码字s为输入,将其复原为2048×1的一维向量,激活函数为线性激活函数,经过Reshape层,还原为两通道32×32大小的特征图,再通过non-localblock,得到初步还原的特征图;
解码器的第三、四层为两个DS-RefineNet单元;
解码器的最后一层为一个两通道3×3卷积核,激活函数为Sigmoid。
进一步地,解码器的第三、四层具体的实施方法,包括:
首先,将初步还原的特征图输入第一个DS-RefineNet,每个DS-RefineNet单元包含一个输入层和4个卷积层,前三个卷积层均使用3×3尺寸的卷积核,卷积核通道数分别为8、16、2,最后一个卷积层使用1×1尺寸的卷积核,对结果进行降维,每个卷积层都以输入与其之前所有卷积核的输出在channel维度上的拼接为其输入,其数学表达式为:
xl=Hl([x0,x1,...,xl-1])
其中,xl表示第l层的输出;
最后一层卷积核的输出即为DS-RefineNet单元的输出,除最后一层外其余各层均采用LeakyReLU激活函数并使用批归一化。
与现有技术相比,本发明的有益效果为,
(1)本方案使用Non-local block,通过非局部操作直接计算两个位置之间的关系,即可快速捕获长范围依赖,让感受野很大而不是仅局限于在局部区域,且只需更少的堆叠层便可达到同等效果,极大地提高了非局部操作计算效率。
(2)以往的结构中,每一层卷积核仅处理上一层卷积核提取的特征。本方案中每一层网络的输入包括前面所有层网络的输出,提升了信息和梯度在网络中的传输效率。每层都能直接得到输入信号,并且直接从损失函数拿到梯度,从而可以增强特征重用,减少参数,并缓解梯度消失问题。
附图说明
图1所示为本申请中DS-NLCsiNet结构示意图;
图2所示为本申请中non-local block结构示意图;
图3所示为本申请中DS-RefineNet结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明所采用的技术方案主要包括以下步骤:
步骤二:构建DS-NLCsiNet模型;
步骤三:对模型进行训练,得到模型各层参数;
A.使用Adam优化算法和端到端的学习方式,联合训练编码器和译码器的参数,使损失函数最小。
其中,T为训练集样本数,||·||2为欧几里得范数。
B.所述的模型参数主要包括全连接层的权重、偏置和卷积层的卷积核权重、偏置。
其中,上述步骤二包含以下步骤:
A.编码器结构细节;
编码器位于用户端,包括一个卷积层、一个Non Local Block和一个全连接层。随机初始化各层参数。
编码器第一层为卷积层,使用两通道3×3大小的卷积核与输入进行卷积,通过零填充、激活函数LeakyReLU和BatchNormalization,得到两通道32×32大小的特征图。
如图2所示,编码器第二层为Non Local Block,其通用公式表示为:
其中,x是输入信号,i,j表示输出位置,f函数计算i和j的相似度,g函数计算featuremap在j位置的表示,C(x)表示响应因子,对结果进行标准化处理。
具体实施方法为:首先,使用两路两通道的1×1卷积核分别对输入的featuremap进行处理,并将两路卷积的输出进行点乘运算,即可得到上式中的f(xi,xj)。然后使用两通道的1×1卷积核对输入的featuremap进行处理,得到上式中的g(xj)。再将得到f(xi,xj)和g(xj)进行点乘运算,使用softmax激活函数。最后,将点乘的结果通过两通道的1×1卷积核,得到编码器第二层的输出。
编码器第三层为Dense层。将第二层的输出重组为一个2048×1的向量,作为第三层的输入。该层含有M个神经元,激活函数为线性激活函数。Dense层将2048×1的向量压缩为M×1的码字s,作为编码器的输出,传入基站端的解码器。假设传输过程无损失。
解码器Dense层以M×1码字s为输入,将其复原为2048×1的一维向量,激活函数为线性激活函数。经过Reshape层,还原为两通道32×32大小的特征图。再通过non-localblock,得到初步还原的特征图。
解码器的第三、四层为两个DS-RefineNet单元。
如图3所示为DS-RefineNet结构示意图
首先将初步还原的特征图输入第一个DS-RefineNet。每个DS-RefineNet单元包含一个输入层和4个卷积层,前三个卷积层均使用3×3尺寸的卷积核,卷积核通道数分别为8,16,2,最后一个卷积层使用1×1尺寸的卷积核,对结果进行降维。每个卷积层都以输入与其之前所有卷积核的输出在channel维度上的拼接为其输入。其数学表达式为:
xl=Hl([x0,x1,...,xl-1])
其中,xl表示第l层的输出。
最后一层卷积核的输出即为DS-RefineNet单元的输出。除最后一层外其余各层均采用LeakyReLU激活函数并使用批归一化。
解码器的最后一层为一个两通道3×3卷积核,激活函数为Sigmoid。
本发明引入Non-Local Block模型,通过计算任意两个位置之间的交互直接捕捉远程依赖,而不用局限于相邻点,从而可以维持更多信息,提高了非局部操作计算效率,且只需要更少的堆叠层,具有很大的实用价值。
本发明引入DenseNet模型,从以往每一层的输出仅传入其后一层的方式,转变为每一层的输出都传入其后每一层,鼓励了特征重用,从而可以以更少的参数提取更深层次的特征,同时减轻了梯度弥散的问题。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,包括如下步骤:
步骤二:构建DS-NLCsiNet模型;
步骤三:对模型进行训练,得到模型各层参数;
A.使用Adam优化算法和端到端的学习方式,联合训练编码器和译码器的参数,使损失函数最小;
其中,T为训练集样本数,||·||2为欧几里得范数;
B.所述的模型参数主要包括全连接层的权重、偏置和卷积层的卷积核权重、偏置;
2.根据权利要求1所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
在步骤二中:编码器位于用户端,包括一个卷积层、一个Non Local Block和一个全连接层,随机初始化各层参数。
编码器第一层为卷积层,使用两通道3×3大小的卷积核与输入进行卷积,通过零填充、激活函数LeakyReLU和BatchNormalization,得到两通道32×32大小的特征图;
编码器第二层为Non Local Block,其通用公式表示为:
其中,x是输入信号,i,j表示输出位置,f函数计算i和j的相似度,g函数计算featuremap在j位置的表示,C(x)表示响应因子,对结果进行标准化处理;
编码器第三层为Dense层,将第二层的输出重组为一个2048×1的向量,作为第三层的输入,该层含有M个神经元,激活函数为线性激活函数,Dense层将2048×1的向量压缩为M×1的码字s,作为编码器的输出,传入基站端的解码器,假设传输过程无损失。
3.根据权利要求2所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
编码器第二层具体实施方法包括:
首先,使用两路两通道的1×1卷积核分别对输入的featuremap进行处理,并将两路卷积的输出进行点乘运算,即可得到上式中的f(xi,xj);然后使用两通道的1×1卷积核对输入的featuremap进行处理,得到上式中的g(xj);再将得到f(xi,xj)和g(xi)进行点乘运算,使用softmax激活函数;最后,将点乘的结果通过两通道的1×1卷积核,得到编码器第二层的输出。
4.根据权利要求1所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
解码器Dense层以M×1码字s为输入,将其复原为2048×1的一维向量,激活函数为线性激活函数,经过Reshape层,还原为两通道32×32大小的特征图,再通过non-local block,得到初步还原的特征图;
解码器的第三、四层为两个DS-RefineNet单元;
解码器的最后一层为一个两通道3×3卷积核,激活函数为Sigmoid。
5.根据权利要求4所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
解码器的第三、四层具体的实施方法,包括:
首先,将初步还原的特征图输入第一个DS-RefineNet,每个DS-RefineNet单元包含一个输入层和4个卷积层,前三个卷积层均使用3×3尺寸的卷积核,卷积核通道数分别为8、16、2,最后一个卷积层使用1×1尺寸的卷积核,对结果进行降维,每个卷积层都以输入与其之前所有卷积核的输出在channel维度上的拼接为其输入,其数学表达式为:
xl=Hl([x0,x1,...,xl-1])
其中,xl表示第l层的输出;
最后一层卷积核的输出即为DS-RefineNet单元的输出,除最后一层外其余各层均采用LeakyReLU激活函数并使用批归一化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010344573.1A CN111555781B (zh) | 2020-04-27 | 2020-04-27 | 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010344573.1A CN111555781B (zh) | 2020-04-27 | 2020-04-27 | 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111555781A true CN111555781A (zh) | 2020-08-18 |
CN111555781B CN111555781B (zh) | 2022-07-12 |
Family
ID=72004100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010344573.1A Active CN111555781B (zh) | 2020-04-27 | 2020-04-27 | 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111555781B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560831A (zh) * | 2021-03-01 | 2021-03-26 | 四川大学 | 一种基于多尺度空间校正的行人属性识别方法 |
CN113660693A (zh) * | 2021-06-25 | 2021-11-16 | 陕西尚品信息科技有限公司 | 一种应用于无线通信系统的信息传输方法 |
CN113660020A (zh) * | 2021-06-25 | 2021-11-16 | 陕西尚品信息科技有限公司 | 一种无线通信信道信息传输方法、系统和解码器 |
CN114157331A (zh) * | 2021-12-20 | 2022-03-08 | 扬州大学 | 基于伪复值输入的大规模mimo信道状态信息反馈方法 |
WO2022199090A1 (zh) * | 2021-03-25 | 2022-09-29 | 中兴通讯股份有限公司 | 信道状态信息传输方法、装置、终端、基站和存储介质 |
WO2023016166A1 (zh) * | 2021-08-10 | 2023-02-16 | 中兴通讯股份有限公司 | 码本传输方法、终端、基站和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108390706A (zh) * | 2018-01-30 | 2018-08-10 | 东南大学 | 一种基于深度学习的大规模mimo信道状态信息反馈方法 |
CN110311718A (zh) * | 2019-07-05 | 2019-10-08 | 东南大学 | 一种大规模mimo信道状态信息反馈中的量化和逆量化方法 |
CN110912598A (zh) * | 2019-11-22 | 2020-03-24 | 中原工学院 | 基于长短时注意力机制的大规模mimo系统csi反馈方法 |
-
2020
- 2020-04-27 CN CN202010344573.1A patent/CN111555781B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108390706A (zh) * | 2018-01-30 | 2018-08-10 | 东南大学 | 一种基于深度学习的大规模mimo信道状态信息反馈方法 |
CN110311718A (zh) * | 2019-07-05 | 2019-10-08 | 东南大学 | 一种大规模mimo信道状态信息反馈中的量化和逆量化方法 |
CN110912598A (zh) * | 2019-11-22 | 2020-03-24 | 中原工学院 | 基于长短时注意力机制的大规模mimo系统csi反馈方法 |
Non-Patent Citations (4)
Title |
---|
CHAO-KAI WEN 等: "Deep Learning for Massive MIMO CSI Feedback", 《IEEE WIRELESS COMMUNICATIONS LETTERS》 * |
CHAO-KAI WEN 等: "Deep Learning for Massive MIMO CSI Feedback", 《IEEE WIRELESS COMMUNICATIONS LETTERS》, 31 October 2018 (2018-10-31) * |
TIANQI WANG,等: "Deep Learning-Based CSI Feedback Approach for Time-Varying Massive MIMO Channels", 《IEEE WIRELESS COMMUNICATIONS LETTERS》 * |
TIANQI WANG,等: "Deep Learning-Based CSI Feedback Approach for Time-Varying Massive MIMO Channels", 《IEEE WIRELESS COMMUNICATIONS LETTERS》, 30 April 2019 (2019-04-30) * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560831A (zh) * | 2021-03-01 | 2021-03-26 | 四川大学 | 一种基于多尺度空间校正的行人属性识别方法 |
CN112560831B (zh) * | 2021-03-01 | 2021-05-04 | 四川大学 | 一种基于多尺度空间校正的行人属性识别方法 |
WO2022199090A1 (zh) * | 2021-03-25 | 2022-09-29 | 中兴通讯股份有限公司 | 信道状态信息传输方法、装置、终端、基站和存储介质 |
CN113660693A (zh) * | 2021-06-25 | 2021-11-16 | 陕西尚品信息科技有限公司 | 一种应用于无线通信系统的信息传输方法 |
CN113660020A (zh) * | 2021-06-25 | 2021-11-16 | 陕西尚品信息科技有限公司 | 一种无线通信信道信息传输方法、系统和解码器 |
CN113660693B (zh) * | 2021-06-25 | 2024-06-11 | 陕西尚品信息科技有限公司 | 一种应用于无线通信系统的信息传输方法 |
WO2023016166A1 (zh) * | 2021-08-10 | 2023-02-16 | 中兴通讯股份有限公司 | 码本传输方法、终端、基站和存储介质 |
CN114157331A (zh) * | 2021-12-20 | 2022-03-08 | 扬州大学 | 基于伪复值输入的大规模mimo信道状态信息反馈方法 |
CN114157331B (zh) * | 2021-12-20 | 2023-11-24 | 扬州大学 | 基于伪复值输入的大规模mimo信道状态信息反馈方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111555781B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111555781B (zh) | 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 | |
CN108390706B (zh) | 一种基于深度学习的大规模mimo信道状态信息反馈方法 | |
CN112737985B (zh) | 基于深度学习的大规模mimo信道联合估计和反馈方法 | |
CN111464220B (zh) | 一种基于深度学习的信道状态信息重建方法 | |
CN110350958B (zh) | 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法 | |
CN110311718B (zh) | 一种大规模mimo信道状态信息反馈中的量化和逆量化方法 | |
CN108847876B (zh) | 一种大规模mimo时变信道状态信息压缩反馈及重建方法 | |
CN109474316B (zh) | 一种基于深度循环神经网络的信道信息压缩反馈方法 | |
CN109525292B (zh) | 一种采用比特级优化网络的信道信息压缩反馈方法 | |
CN110912598B (zh) | 基于长短时注意力机制的大规模mimo系统csi反馈方法 | |
CN113748614A (zh) | 一种信道估计模型训练方法及设备 | |
CN110289898B (zh) | 一种大规模mimo系统中基于1比特压缩感知的信道反馈方法 | |
CN109951214B (zh) | 一种适用于大规模mimo系统的信号检测方法 | |
CN114338301B (zh) | 一种基于压缩感知的ris辅助毫米波系统的信道估计方法 | |
CN115865145A (zh) | 一种基于Transformer的大规模MIMO信道状态信息反馈方法 | |
CN115549742B (zh) | 一种基于深度学习的csi压缩反馈方法 | |
CN114884549A (zh) | 基于深度学习的大规模mimo信道状态信息反馈方法 | |
CN113381790A (zh) | 一种基于ai的环境知识辅助的无线信道反馈方法 | |
CN114157331B (zh) | 基于伪复值输入的大规模mimo信道状态信息反馈方法 | |
CN116192209A (zh) | 一种mimo信道下空中计算联邦学习的梯度上传方法 | |
CN114567359A (zh) | 一种大规模mimo系统中基于多分辨率融合卷积反馈网络的csi反馈方法 | |
CN115021787A (zh) | 一种基于复数卷积神经网络的信道状态信息反馈方法 | |
CN112929304A (zh) | 一种环境知识库辅助的无线信道获取方法 | |
CN114553280A (zh) | 一种基于深度学习大规模mimo系统的csi反馈方法 | |
TW201944745A (zh) | 基於深度學習作為通道狀態資訊之回饋方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |