CN114024587A - 基于全连接层共用的反馈网络编码器、架构及训练方法 - Google Patents
基于全连接层共用的反馈网络编码器、架构及训练方法 Download PDFInfo
- Publication number
- CN114024587A CN114024587A CN202111280662.5A CN202111280662A CN114024587A CN 114024587 A CN114024587 A CN 114024587A CN 202111280662 A CN202111280662 A CN 202111280662A CN 114024587 A CN114024587 A CN 114024587A
- Authority
- CN
- China
- Prior art keywords
- parameters
- channel
- full
- feedback network
- connection layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013135 deep learning Methods 0.000 abstract description 8
- 239000011159 matrix material Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000007634 remodeling Methods 0.000 description 5
- 238000010200 validation analysis Methods 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B7/00—Radio transmission systems, i.e. using radiation field
- H04B7/02—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
- H04B7/04—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
- H04B7/06—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
- H04B7/0613—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
- H04B7/0615—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
- H04B7/0619—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal using feedback from receiving side
- H04B7/0621—Feedback content
- H04B7/0626—Channel coefficients, e.g. channel state information [CSI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B7/00—Radio transmission systems, i.e. using radiation field
- H04B7/02—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
- H04B7/04—Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
- H04B7/0413—MIMO systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/003—Arrangements for allocating sub-channels of the transmission path
- H04L5/0048—Allocation of pilot signals, i.e. of signals known to the receiver
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/003—Arrangements for allocating sub-channels of the transmission path
- H04L5/0053—Allocation of signaling, i.e. of overhead other than pilot signals
- H04L5/0057—Physical resource allocation for CQI
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Error Detection And Correction (AREA)
Abstract
本申请提供一种基于全连接层共用的反馈网络编码器、架构及训练方法。其中,基于全连接层共用的反馈网络编码器,应用于大规模MIMO信道状态信息的反馈,包括:卷积部分:在n个信道场景中分别存储不同的卷积部分参数;全连接层:在n个信道场景中存储一组共用全连接层参数。通过设置全连接层在n个信道场景中存储一组共用全连接层参数,能够显著降低占据整个网络编码器参数量比重较大的全连接层的参数量,进而显著降低整个网络编码器的参数量,减小对于用户设备的内存的占用,有利于基于深度学习的CSI反馈网络在实际大规模MIMO系统中的应用。
Description
技术领域
本申请涉及信道状态反馈技术领域,尤其涉及一种基于全连接层共用的反馈网络编码器、架构及训练方法。
背景技术
大规模多输入多输出(Massive Multiple-Input Multiple-Output,MassiveMIMO)技术系统增益的实现依赖于信道状态信息从用户设备(User Equipment,UE)到基站(Base Station,BS)的精确反馈。基于深度学习的信道状态信息反馈方法能够提升信道状态信息(Channel State Information,CSI)反馈精确度,极大降低反馈开销和计算成本,已成为大规模MIMO系统中解决CSI反馈问题的重要途径。
然而,由于实际信道场景的复杂性,现有基于深度学习的CSI反馈方法通常在不同信道场景下进行不同反馈网络模型的训练和储存,使得网络总参数量极大提高,难以应用在存储资源有限的用户设备。
发明内容
有鉴于此,本申请的目的在于提出一种基于全连接层共用的反馈网络编码器、架构及训练方法。
基于上述目的,本申请提供了一种基于全连接层共用的反馈网络编码器,应用于大规模MIMO信道状态信息的反馈,包括:
卷积部分:在n个信道场景中分别存储不同的卷积部分参数;
全连接层:在n个信道场景中存储一组共用全连接层参数。
在其中一些实施例中,还包括设置在dropout模块,用于使所述全连接层在连续n个信道场景的训练中,分别保留每个信道场景的训练结果。
在其中一些实施例中,所述dropout模块的丢失率设置为0.25~0.35。
本申请实施例还提供一种基于全连接层共用的反馈网络架构,包括译码器和如前任一项所述的基于全连接层共用的反馈网络编码器;其中,所述译码器在n个信道场景中分别存储不同的译码器参数。
本申请实施例还提供一种基于全连接层共用的反馈网络模型的训练方法,所述反馈网络模型使用如前所述的基于全连接层共用的反馈网络架构,所述方法包括:
在基于全连接层共用的反馈网络中,加载训练所得的第n-1个信道场景的共用全连接层参数至第n个信道场景的共用全连接层参数中;
采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络,得到并存储n个信道场景的卷积部分参数、n个信道场景的共用全连接层参数和n个信道场景的译码器参数;
分别将基于全连接层共用的反馈网络中训练所得的n-1个信道场景的卷积部分参数、译码器参数和所述n个信道场景的共用全连接层参数,加载至基于全连接层的反馈网络的n-1个信道场景的卷积部分参数、译码器参数和全连接层参数中;设置所述n个信道场景的共用全连接层参数为不可训练;
分别采用n-1个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数,得到并存储更新的n-1个信道场景的卷积部分参数和译码器参数;
分别将所述n个信道场景的卷积部分参数、所述n个信道场景的译码器参数和所述n个信道场景的共用全连接层参数,加载至基于全连接层的反馈网络的n个信道场景的卷积部分参数、译码器参数和全连接层参数中;设置所述n个信道场景的共用全连接层参数为不可训练;
采用第n个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数,得到并存储更新的n个信道场景的卷积部分参数和译码器参数;
分别存储所述n个信道场景的共用全连接层参数和所述更新的n个信道场景的卷积部分参数和译码器参数,至所述基于全连接层共用的反馈网络的共用全连接层参数、卷积部分参数和译码器参数中。
在其中一些实施例中,采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络具体包括:
在采用第n个信道场景中的数据集训练时,采用dropout模块。
在其中一些实施例中,dropout模块的丢失率设置为0.25~0.35。
在其中一些实施例中,所述预设数据集为对应信道场景中的数据集的50%。
在其中一些实施例中,所述采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络中,所述训练的周期为1000次,训练的batch size为200,学习率为0.001。
在其中一些实施例中,在所述分别采用n-1个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数中,训练的周期为1000次,训练的batch size为200,学习率为0.0002;
在所述采用第n个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数中,训练的周期为1000次,训练的batch size为200,学习率为0.0002。
从上面所述可以看出,本申请提供的基于全连接层共用的反馈网络编码器,通过设置全连接层在n个信道场景中存储一组共用全连接层参数,能够显著降低占据整个网络编码器参数量比重较大的全连接层的参数量,进而显著降低整个网络编码器的参数量,减小对于用户设备的内存的占用,有利于基于深度学习的CSI反馈网络在实际大规模MIMO系统中的应用。
附图说明
为了更清楚地说明本申请或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为基于自编码器的CSI反馈网络结构的示意图;
图2为基于全连接层的反馈网络(CsiNet)的编码器结构的示意图;
图3为本申请实施例的基于全连接层共用的反馈网络编码器的示意图;
图4为本申请实施例的包括dropout模块的基于全连接层共用的反馈网络编码器的示意图;
图5为本申请实施例的基于全连接层共用的反馈网络架构的示意图;
图6为本申请实施例的基于全连接层共用的反馈网络模型的训练方法的流程图;
图7为本申请实施例的基于全连接层共用的反馈网络模型的具体训练方法的流程图;
图8为本申请实施例的从Outdoor场景到Indoor场景的FCS反馈网络模型的训练流程图;
图9为本申请实施例的从Outdoor场景到Indoor场景的FCS反馈网络模型的示意图;
图10为本申请实施例所提供的一种更为具体的电子设备硬件结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请进一步详细说明。
需要说明的是,除非另外定义,本申请实施例使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请实施例中使用的“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。
大规模MIMO技术通过在发送端和接收端配置多根天线实现多收多发,充分利用空间资源,极大提升系统容量、频谱效率和能量效率,能够满足5G移动通信对高传输速率、低时延、高可靠性的需求,展现出十分显著的性能优势。但大规模MIMO技术的性能优势依赖于CSI的精确获取,包括上行信道状态信息和下行信道状态信息。在频分双工(FrequencyDivision Duplex,FDD)模式下,由于信道之间不存在互易性,用户端需要首先估计获得下行链路信道状态信息,再反馈给基站端。然而,由于大规模MIMO系统中传输天线规模庞大,导致CSI的反馈信息的数据量显著增加,将完整的CSI反馈给基站需要极大的链路开销,因此需要采用有效的压缩与重建方法来完成CSI反馈。
目前已经提出的基于深度学习的大规模MIMO信道状态信息反馈网络(CsiNet)以及以CsiNet为基础的相关优化网络模型,基于自编码器的网络结构,充分利用信道特征信息来完成CSI反馈矩阵在用户端的压缩和在基站端的重建。
如图1所示,为基于自编码器的CSI反馈网络结构。CsiNet及相关基于自编码器的优化网络模型首先利用信道矩阵的稀疏性,通过用户端的编码器将原始信道矩阵压缩为更低维度的码字,随后该码字通过反馈链路传输到基站,再经过基站端的译码器完成信道矩阵的重建。基于深度学习的CSI反馈方法能够有效地减小反馈开销,同时在提升反馈精度和降低计算成本等方面均具有较大优势。
然而,现有的基于深度学习的CSI反馈网络CsiNet及以CsiNet为基础的优化网络模型为不同的信道场景独立地训练并存储不同的网络模型参数,而每组网络模型的参数量均较大,导致用户设备和基站需要分配大量的空间资源用于存储反馈网络模型。
例如,对于相关研究中最为常见的5.3GHz室内蜂窝和300MHz室外乡村两种信道场景,用户设备侧的编码器需要存储室内5.3GHz场景下不同压缩率(研究与应用中常见的压缩率包括1/4、1/16、1/32、1/64等)的多组网络参数,同时也需要存储室外300MHz场景下不同压缩率的多组网络参数。实际应用中,还可能存在更多类型的信道场景,用户设备还需要为每种类型的信道场景进行相应的不同压缩率下网络模型的训练和存储。而用户设备的存储资源十分有限。因此,存储不同信道场景下的多组神经网络参数不利于CSI反馈模型的实际应用。
现有研究中最简单的一种基于全连接层的反馈网络(CsiNet)的编码器结构,可以例如图2所示。其他除CsiNet外的基于全连接层的反馈网络编码器同样也由卷积部分、重塑层和全连接层构成。其中,卷积部分:用于提取信道信息矩阵的实部与虚部的信道特征信息,生成两个特征图。重塑层(Reshape):用于合并并重塑两个特征图为一个向量。也即重塑层能够改变数据的形式,即将卷积层输出的矩阵形式的数据转换为向量形式的数据。全连接层用于进一步压缩所述向量并生成用于反馈的码字。
本发明从用户设备(编码器)的存储空间问题出发,针对现有CSI反馈网络模型在不同信道场景下需要训练并存储不同网络模型参数的不足,设计了一种应用在多个不同信道场景下的CSI反馈网络应用架构:全连接层共用网络架构,也即FCS反馈网络架构(FullyConnected Layer-Shared Network Architecture,FCS Network Architecture),同时提出了其完整的训练方案。能够在保证网络性能的前提下,显著简化网络模型,降低用户设备的参数量,从而有效解决在多种信道环境条件下应用CSI反馈网络时存在的用户设备存储空间问题,提升CSI反馈网络的实用性。
如图3所示,本申请实施例提供一种基于全连接层共用的反馈网络编码器,应用于大规模MIMO信道状态信息的反馈,包括:
卷积部分110:在n个信道场景中分别存储不同的卷积部分参数。也即,卷积部分在信道场景1、场景2…场景n中各自存储不同的模型参数。其中,n为自然数,其值可以大于或等于2。
全连接层120:在n个信道场景中存储一组共用全连接层参数。也即,全连接层在信道场景1、场景2…场景n中使用同一组共用的模型参数。
本申请实施例提供的基于全连接层共用的反馈网络编码器,通过设置全连接层在n个信道场景中存储一组共用全连接层参数,能够显著降低占据整个网络编码器参数量比重较大的全连接层的参数量,进而显著降低整个网络编码器的参数量,减小对于用户设备的内存的占用,有利于基于深度学习的CSI反馈网络在实际大规模MIMO系统中的应用。
本申请实施例提供的基于全连接层共用的反馈网络编码器中,卷积部分的具体结构可以为依次包含卷积层(convolutional layer)、批归一化层(batch normalizationlayer)和激活函数层。其中,卷积层和批归一化层共同作用,用于提取原始CSI数据实部与虚部的信道特征信息,并生成特征图。也即,卷积层用于提取特征并生成特征图。批归一化层的作用为加快模型收敛速度,避免梯度消失与梯度爆炸等问题。激活函数层用于增加神经网络的非线性特性,提高模型学习能力。其中,原始CSI数据为多维矩阵形式,而卷积部分处理并不改变数据维度。也即,卷积部分处理后的数据仍为多维矩阵形式。
应当说明的是,卷积层(convolutional layer)、批归一化层(batchnormalization layer)、激活函数层、重塑层和全连接层的具体结构均为现有,本申请并不涉及对于现有的基于全连接层的反馈网络的编码器中的卷积部分、重塑层和全连接层的结构的改进。也即,卷积层(convolutional layer)、批归一化层(batch normalizationlayer)、激活函数层、重塑层和全连接层可以直接使用现有的。其中,激活函数可以使用多数CSI反馈网络编码器在卷积层后使用的LeakyReLU。本申请中仅卷积层和批归一化层具有分别与n个信道场景对应的参数,而激活函数层LeakyReLU和重塑层仅用于实现对应的数学运算以及格式转换,并不占有与信道场景对应的参数量。也即,卷积部分参数为卷积层和批归一化层中的参数。
如图4所示,在一些实施例中,基于全连接层共用的反馈网络编码器还包括dropout模块130,用于使所述全连接层在连续n个信道场景的训练中,分别保留每个信道场景的训练结果。通过将dropout模块130应用在全连接层,能够避免全连接层在某一种环境(某一种信道场景)下的网络训练中形成较为固定的结点关系,能够让同一个全连接层模型在连续多个网络(也即多个信道场景对应的网络)的训练中保留多个网络训练任务中的信息,有利于实现全连接层在不同信道环境下的共用。
应当说明的是,Dropout模块130是神经网络设计中的算法,可以理解为网络中的一层,但其不具有网络参数,仅代表一种数学运算处理。通过添加Dropout模块能够比较有效地缓解过拟合现象,在一定程度上达到正则化的效果。Dropout模块为现有,本申请不涉及对Dropout模块本身的改进。
在一些实施例中,Dropout模块130的丢失率可以设置为0.25~0.35。在全连接层后添加Dropout,则在网络训练时,全连接层的神经元会以0.25~0.35的概率ρ(dropout_rate)(也即丢失率)停止工作,即被置为0。该设置能够进一步提高全连接层的泛化性能,即具有更好的在不同条件(即信道场景下)的学习能力,有助于实现全连接层在不同信道场景下的共用,同时保证网络性能。
基于同一发明构思,与上述任意实施例反馈网络编码器相对应的,本申请还提供了一种基于全连接层共用的反馈网络架构。
参考图5,本申请实施例的基于全连接层共用的反馈网络架构,包括译码器200和如前所述的基于全连接层共用的反馈网络编码器;其中,所述译码器200在n个信道场景中分别存储不同的译码器参数。
基于全连接层共用的反馈网络架构的组成及设置:编码器卷积部分110在信道场景1、场景2…场景n中各自存储不同的参数,全连接层120在信道场景1、场景2…场景n中使用同一组共用的参数;译码器200在信道场景1、场景2…场景n中各自存储不同的参数。
基于全连接层共用的反馈网络架构,全连接层120在不同信道场景下的参数共用能够极大降低编码器在不同信道场景下的总参数量,减轻用户设备的存储空间负担;而卷积部分110参数占据编码器整体参数量的比重很小,并且起到不同信道场景下原始CSI数据的特征提取功能,因此在不同信道场景下仍使用不同的卷积部分参数;基站端存储资源则较为丰富,因此译码器200保持与原反馈网络的译码器结构一致且不进行复用,即在不同的信道场景下使用不同的译码器参数。
上述实施例的反馈网络架构包括前述任一实施例中相应的基于全连接层共用的反馈网络架构,并且具有相应的反馈网络编码器实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例的反馈网络架构相对应的,本申请实施例还提供了一种基于全连接层共用的反馈网络模型的训练方法,其中,基于全连接层共用的反馈网络模型使用如前任意实施例所述的基于全连接层共用的反馈网络架构。
基于全连接层共用的反馈网络模型组成及设置:编码器卷积部分在信道场景1、场景2…场景n中各自存储不同的模型参数,全连接层在信道场景1、场景2…场景n中使用同一组共用的模型参数;译码器在信道场景1、场景2…场景n中各自存储不同的模型参数。
具体地,基于全连接层共用的反馈网络模型在使用时,卷积部分和译码器参数依据当前实际信道场景进行选择,例如,当前网络处于信道场景n时,卷积部分和译码器选择场景n对应的模型参数。
本申请实施例的基于全连接层共用的反馈网络模型的训练方法,使用前述任意实施例所述的基于全连接层共用的反馈网络和现有的基于全连接层的反馈网络进行训练。其中,现有的基于全连接层的反馈网络,相较于本申请实施例的基于全连接层共用的反馈网络,其全连接层中分别存储有适用于n个信道场景中的不同参数。
如图6所示,所述训练方法包括:
S310,在基于全连接层共用的反馈网络中,加载训练所得的第n-1个信道场景的共用全连接层参数至第n个信道场景的共用全连接层参数中;
S320,采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络,得到并存储n个信道场景的卷积部分参数、n个信道场景的共用全连接层参数和n个信道场景的译码器参数;
S330,分别将基于全连接层共用的反馈网络中训练所得的n-1个信道场景的卷积部分参数、译码器参数和所述n个信道场景的共用全连接层参数,加载至基于全连接层的反馈网络的n-1个信道场景的卷积部分参数、译码器参数和全连接层参数中;设置所述n个信道场景的共用全连接层参数为不可训练;
S340,分别采用n-1个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数,得到并存储更新的n-1个信道场景的卷积部分参数和译码器参数;
S350,分别将所述n个信道场景的卷积部分参数、所述n个信道场景的译码器参数和所述n个信道场景的共用全连接层参数,加载至基于全连接层的反馈网络的n个信道场景的卷积部分参数、译码器参数和全连接层参数中;设置所述n个信道场景的共用全连接层参数为不可训练;
S360,采用第n个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数,得到并存储更新的n个信道场景的卷积部分参数和译码器参数;
S370,分别存储所述更新的n个信道场景的卷积部分参数和译码器参数,至所述基于全连接层共用的反馈网络的共用全连接层参数和卷积部分参数中。
在一些实施例中,在步骤S310之前,还可以包括采用第n-1个信道场景下的数据集训练所述基于全连接层共用的反馈网络,得到并存储第n-1个信道场景下的共用全连接层参数、卷积部分参数和译码器参数。
在一些实施例中,在各步骤中,训练的周期(epochs)可以设置为1000次,训练的batch size(每次迭代的样本数量)可以设置为200。
在一些实施例中,在基于全连接层共用的反馈网络的训练中,数据集可以为对应信道场景下的完整数据集,包括训练样本和验证样本,学习率可以设置为0.001。在基于全连接层的反馈网络的训练中,数据集可以为部分数据集,即无需采用对应信道场景下的完整数据集,学习率可以设置为0.0002。通过在基于全连接层的反馈网络的训练中选用部分数据集和较低的学习率,能够降低卷积部分参数、全连接层参数和译码器参数更新的训练成本与训练时间,同时不影响精度。
在一些实施例中,步骤S310中,训练所得的第n-1个信道场景的共用全连接层参数,可以理解为采用第n-1个信道场景下的数据集训练所得。数据集可以为第n-1个信道场景下的完整数据集。
在一些实施例中,步骤S320中数据集可以为第n个信道场景下的完整数据集。在该步骤中可以采用dropout模块进行训练,能够进一步提高全连接层的泛化性能,即具有更好的在不同条件(即信道场景下)的学习能力,有助于实现全连接层在不同信道场景下的共用,同时保证网络性能,得到更为准确的全连接层参数。
在一些实施例中,步骤S330中,训练所得的第n-1个信道场景的卷积部分参数和译码器参数,可以理解为采用第n-1个信道场景下的数据集训练所得。数据集可以为第n-1个信道场景下的完整数据集。所述n个信道场景的共用全连接层参数即为步骤S320中基于全连接层共用的反馈网络中的经过第n个信道场景训练所得。
在一些实施例中,在步骤S340中,预设数据集可以为n-1个信道场景中的部分数据集。也即,采用n-1个信道场景中的数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数具体包括:分别采用n-1个信道场景中的部分数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数。采用部分数据集对基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数进行调整,可以在不影响精度的前提下,降低训练成本与训练时间。
在一些实施例中,部分数据集占完整数据集的比重可以根据经验和具体的使用要求来确定。例如,部分数据集可以为完整数据集的50%。也即所述预设数据集为对应信道场景(n-1个信道场景的)中的数据集的50%。
在一些实施例中,步骤S350中,所述n个信道场景的卷积部分参数和所述n个信道场景的译码器参数即为步骤S320中训练所得。所述n个信道场景的共用全连接层参数即为步骤S320中训练所得。
在一些实施例中,步骤S360中,预设数据集可以为第n个信道场景中的部分数据集。也即,采用第n个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数具体包括:采用n个信道场景中的部分数据集调整所述基于全连接层的反馈网络中的第n个信道场景的卷积部分参数和译码器参数。采用部分数据集对基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数进行调整,可以在不影响精度的前提下,降低训练成本与训练时间,同时还可以补偿步骤S320中dropout模块导致的部分反馈信息的损失,以使反馈网络具有良好的反馈性能。
在一些实施例中,部分数据集占完整数据集的比重可以根据经验和具体的使用要求来确定。例如,部分数据集可以为完整数据集的50%。也即所述预设数据集为对应信道场景(第n个信道场景)中的数据集的50%。
在应用场景中,请参阅图7,设定network_n-1和network_n为使用如图4所示基于全连接层共用的反馈网络编码器的基于全连接层共用的反馈网络,Network_n-1和Network_n为常规的基于全连接层的反馈网络。其中,Ωconv为卷积层参数,ΩFC为全连接层参数,Ωde为译码器参数;Scenario_n-1和Scenario_n分别为第n-1个和第n个信道场景。
基于全连接层共用的反馈网络模型的具体训练方法可以包括:
步骤1.将经过Scenario_n-1训练后获取的共用全连接层模型参数ΩFC_12…n-1加载到network_n的全连接层;
使用Scenario_n的数据集对network_n进行训练,并将结果Ωconv_12…n、ΩFC_12…n和Ωde_12…n进行存储。ΩFC_12…n即为基于全连接层共用的反馈网络经过Scenario_n之后,在共n个场景中所使用的共用全连接层模型参数。
步骤2.将经过Scenario_n-1训练后获取的卷积部分参数Ωconv_12…n-1和译码器参数Ωde_12…n-1加载到Network_n-1的卷积部分和译码器,将经过Scenario_n训练后的共用全连接层参数ΩFC_12…n加载到Network_n-1的全连接层并设置为不可训练;
使用Scenario_n-1的一部分数据集以较低的学习率对Network_n-1进行参数微调(fine-tuning),获取并存储卷积部分参数Ω′conv_12…n-1和译码器参数Ω′de_12…n-1。其中,Ω′conv_12…n-1和Ω′de_12…n-1分别为在共用全连接层更新后,在Scenario_n-1下卷积部分和译码器经过参数调整所使用的卷积部分和译码器模型参数。对于前n-2个信道场景的卷积部分和译码器模型参数,采用同样的方式进行调整并获取对应的卷积部分和译码器模型参数。
步骤3.将步骤1存储的卷积部分参数Ωconv_12…n和译码器参数Ωde_12…n加载到Network_n的卷积部分和译码器,将共用全连接层参数ΩFC_12…n加载到Network_n的全连接层并设置为不可训练;
使用Scenario_n的一部分数据集以较低的学习率对Network_n进行参数微调(fine-tuning),获取并存储卷积部分参数Ω′conv_12…n和译码器参数Ω′de_12…n,作为对步骤2中使用dropout所造成的部分反馈信息损失的补偿,以保证网络在当前Scenario_n下的反馈网络性能。Ω′conv_12…n和Ω′de_12…n为Scenario_n下网络使用的卷积部分和译码器模型参数。
在一些实施例中,在步骤S370之后,还可以包括:使用数据集测试不同信道场景下对应的反馈网络模型,得到所述反馈网络模型的CSI反馈重建精度。
在一些实施例中,具体可以采用本领域中常规的网络性能评价指标,(例如均方误差(Mean Square Error,MSE)作为损失函数)使用归一化均方误差(Normalized MeanSquare Error,NMSE)评估CSI重建精度。
以下通过具体的实施例,结合实际应用,来进一步说明本申请实施例的训练方法。
实施例1
根据现有研究中采用的COST 2100信道模型生成数据集,该数据集中包括300MHz室外乡村(Outdoor)和5.3GHz室内微蜂窝(Indoor)两种信道场景。
(1)数据集的生成:
使用COST 2100信道模型生成数据集。具体参数配置为:在频分双工(FDD)大规模多输入多输出(Massive MIMO)系统中,基站配置32根发射天线,用户设备配置1根接收天线,采用OFDM调制方式,子载波数设置为1024。分别对300MHz室外乡村(Outdoor)和5.3GHz室内微蜂窝(Indoor)两种场景,各自生成150000个空间-频率域信道矩阵样本,通过二维离散傅里叶变换将生成的信道矩阵变换为角度-时延域上的稀疏信道矩阵,只保留其前32行得到最终的信道状态信息矩阵,并划分为100,000(训练集)、30,000(验证集)和20,000(测试集)。
(2)基于全连接层共用的反馈网络模型的构建:
基于全连接层共用(FCS)的反馈网络架构适用于基于全连接层的CSI反馈网络,如现有中的CsiNet、CsiNet+、CRNet等。确定FCS网络架构的应用对象后,构建其对应的原始反馈网络模型,并使用图4所示编码器修改所述原始反馈网络模型。
(3)基于全连接层共用的反馈网络模型的训练:
针对Outdoor和Indoor两种信道场景进行基于全连接层共用(FCS)的反馈网络模型训练。设定Outdoor场景为Scenario_1,Indoor场景为Scenario_2。经相关实验测试结果,将Dropout模块丢失率ρ(dropout_rate)设置为0.3。network_1和network_2为使用图4所示编码器的基于全连接层的反馈网络,Network_1和Network_2为常规的基于全连接层的反馈网络。
参考图8,为从Outdoor场景到Indoor场景的FCS反馈网络模型训练流程图。具体训练过程如下。
步骤a.使用Outdoor场景下完整的数据集(100,000训练样本和30,000验证样本)训练network_1,训练周期为1000次(epochs=1000),每次迭代将训练集分为200个样本一个批次来计算梯度(batch size=200),学习率设置为0.001,使用Adam优化器更新参数。训练完成后获取并存储network_1的卷积部分参数Ωconv_1、译码器参数Ωde_1、全连接层参数ΩFC_1。
步骤b.将ΩFC_1加载到network_2的全连接层;
使用Indoor场景下完整的数据集(100,000训练样本和30,000验证样本)训练network_2,训练周期为1000次(epochs=1000),每次迭代将训练集分为200个样本一个批次来计算梯度(batch size=200),学习率设置为0.001,使用Adam优化器更新参数。获取并存储卷积部分参数Ωconv_12、译码器参数Ωde_12、全连接层参数ΩFC_12。ΩFC_12为两种场景下的共用全连接层参数。
步骤c.将ΩFC_12加载到Network_1的全连接层并将其设置为不可训练,将Ωconv_1与Ωde_1加载到Network_1的卷积部分和译码器;
使用50%Outdoor场景下的训练集和完整的验证集(50,000训练样本和30,000验证样本)以较低的学习率(学习率设置为0.0002)对Network_1进行参数微调,训练周期为1000次(epochs=1000),每次迭代将训练集分为200个样本一个批次来计算梯度(batchsize=200),使用Adam优化器更新参数。获取并存储卷积部分参数Ω′conv_1、译码器参数Ω′de_1作为FCS反馈网络模型在Outdoor场景下使用的卷积部分和译码器参数。
步骤d.将ΩFC_12加载到Network_2的全连接层并将其设置为不可训练,将Ωconv_12与Ωde_12加载到Network_2的卷积部分和译码器;
使用50%Indoor场景下的训练集和完整的验证集(50,000训练样本和30,000验证样本)以较低的学习率(学习率设置为0.0002)对Network_2进行参数微调,训练周期为1000次(epochs=1000),每次迭代将训练集分为200个样本一个批次来计算梯度(batch size=200),使用Adam优化器更新参数。获取并存储卷积部分参数Ω′conv_12、译码器参数Ω′de_12作为FCS反馈网络模型在Indoor场景下使用的卷积部分和译码器参数。
(4)FCS反馈网络模型性能测试
使用均方误差(Mean Square Error,MSE)作为损失函数,使用归一化均方误差(Normalized Mean Square Error,NMSE)评估CSI重建精度,计算公式为:其中,H为原始信道状态信息矩阵,即反馈网络编码器输入的CSI矩阵;为重建后的信道状态信息矩阵,即基于全连接层共用的反馈网络译码器输出的CSI矩阵;||·||2为欧几里得范数;E为求期望,即对所有数据集的相应结果求平均值。获取FCS反馈网络架构中的Outdoor与Indoor场景下各部分的反馈模型后,整体的FCS反馈网络模型如图9所示。
需要说明的是,本申请实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本申请的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的基于全连接层共用的反馈网络模型的训练方法。
图10示出了本申请实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的基于全连接层共用的反馈网络模型的训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的基于全连接层共用的反馈网络模型的训练方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的基于全连接层共用的反馈网络模型的训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的范围(包括权利要求)被限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本申请实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本申请实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本申请实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本申请的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本申请实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本申请的具体实施例对本申请进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本申请实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种基于全连接层共用的反馈网络编码器,应用于大规模MIMO信道状态信息的反馈,其特征在于,包括:
卷积部分:在n个信道场景中分别存储不同的卷积部分参数;
全连接层:在n个信道场景中存储一组共用全连接层参数。
2.根据权利要求1所述的基于全连接层共用的反馈网络编码器,其特征在于,还包括设置在dropout模块,用于使所述全连接层在连续n个信道场景的训练中,分别保留每个信道场景的训练结果。
3.根据权利要求2所述的基于全连接层共用的反馈网络编码器,其特征在于,所述dropout模块的丢失率设置为0.25~0.35。
4.一种基于全连接层共用的反馈网络架构,其特征在于,包括译码器和权利要求1~3任一项所述的基于全连接层共用的反馈网络编码器;其中,所述译码器在n个信道场景中分别存储不同的译码器参数。
5.一种基于全连接层共用的反馈网络模型的训练方法,其特征在于,所述反馈网络模型使用权利要求4所述的基于全连接层共用的反馈网络架构,所述方法包括:
在基于全连接层共用的反馈网络中,加载训练所得的第n-1个信道场景的共用全连接层参数至第n个信道场景的共用全连接层参数中;
采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络,得到并存储n个信道场景的卷积部分参数、n个信道场景的共用全连接层参数和n个信道场景的译码器参数;
分别将基于全连接层共用的反馈网络中训练所得的n-1个信道场景的卷积部分参数、译码器参数和所述n个信道场景的共用全连接层参数,加载至基于全连接层的反馈网络的n-1个信道场景的卷积部分参数、译码器参数和全连接层参数中;设置所述n个信道场景的共用全连接层参数为不可训练;
分别采用n-1个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数,得到并存储更新的n-1个信道场景的卷积部分参数和译码器参数;
分别将所述n个信道场景的卷积部分参数、所述n个信道场景的译码器参数和所述n个信道场景的共用全连接层参数,加载至基于全连接层的反馈网络的n个信道场景的卷积部分参数、译码器参数和全连接层参数中;设置所述n个信道场景的共用全连接层参数为不可训练;
采用第n个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数,得到并存储更新的n个信道场景的卷积部分参数和译码器参数;
分别存储所述更新的n个信道场景的卷积部分参数和译码器参数,至所述基于全连接层共用的反馈网络的共用全连接层参数和卷积部分参数中。
6.根据权利要求5所述的基于全连接层共用的反馈网络模型的训练方法,其特征在于,采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络具体包括:
在采用第n个信道场景中的数据集训练时,采用dropout模块。
7.根据权利要求6所述的基于全连接层共用的反馈网络模型的训练方法,其特征在于,dropout模块的丢失率设置为0.25~0.35。
8.根据权利要求5所述的基于全连接层共用的反馈网络模型的训练方法,其特征在于,所述预设数据集为对应信道场景中的数据集的50%。
9.根据权利要求5所述的基于全连接层共用的反馈网络模型的训练方法,其特征在于,所述采用第n个信道场景中的数据集训练所述基于全连接层共用的反馈网络中,所述训练的周期为1000次,训练的batch size为200,学习率为0.001。
10.根据权利要求5所述的基于全连接层共用的反馈网络模型的训练方法,其特征在于,在所述分别采用n-1个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n-1个信道场景的卷积部分参数和译码器参数中,训练的周期为1000次,训练的batchsize为200,学习率为0.0002;
在所述采用第n个信道场景中的预设数据集调整所述基于全连接层的反馈网络中的n个信道场景的卷积部分参数和译码器参数中,训练的周期为1000次,训练的batch size为200,学习率为0.0002。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111280662.5A CN114024587B (zh) | 2021-10-29 | 2021-10-29 | 基于全连接层共用的反馈网络编码器、架构及训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111280662.5A CN114024587B (zh) | 2021-10-29 | 2021-10-29 | 基于全连接层共用的反馈网络编码器、架构及训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114024587A true CN114024587A (zh) | 2022-02-08 |
CN114024587B CN114024587B (zh) | 2024-07-16 |
Family
ID=80059375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111280662.5A Active CN114024587B (zh) | 2021-10-29 | 2021-10-29 | 基于全连接层共用的反馈网络编码器、架构及训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114024587B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024148525A1 (zh) * | 2023-01-10 | 2024-07-18 | Oppo广东移动通信有限公司 | 信道状态信息获取方案的确定方法和设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018045021A1 (en) * | 2016-09-01 | 2018-03-08 | Goldman Sachs & Co. LLC | Systems and methods for learning and predicting time-series data using deep multiplicative networks |
CN108494458A (zh) * | 2018-02-27 | 2018-09-04 | 北京邮电大学 | 基于子载波级模拟波束成形器的信号传输装置和方法 |
CN112737985A (zh) * | 2020-12-25 | 2021-04-30 | 东南大学 | 基于深度学习的大规模mimo信道联合估计和反馈方法 |
WO2021108940A1 (en) * | 2019-12-01 | 2021-06-10 | Nokia Shanghai Bell Co., Ltd. | Channel state information feedback |
WO2021114625A1 (zh) * | 2020-05-28 | 2021-06-17 | 平安科技(深圳)有限公司 | 用于多任务场景的网络结构构建方法和装置 |
-
2021
- 2021-10-29 CN CN202111280662.5A patent/CN114024587B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018045021A1 (en) * | 2016-09-01 | 2018-03-08 | Goldman Sachs & Co. LLC | Systems and methods for learning and predicting time-series data using deep multiplicative networks |
CN108494458A (zh) * | 2018-02-27 | 2018-09-04 | 北京邮电大学 | 基于子载波级模拟波束成形器的信号传输装置和方法 |
WO2021108940A1 (en) * | 2019-12-01 | 2021-06-10 | Nokia Shanghai Bell Co., Ltd. | Channel state information feedback |
WO2021114625A1 (zh) * | 2020-05-28 | 2021-06-17 | 平安科技(深圳)有限公司 | 用于多任务场景的网络结构构建方法和装置 |
CN112737985A (zh) * | 2020-12-25 | 2021-04-30 | 东南大学 | 基于深度学习的大规模mimo信道联合估计和反馈方法 |
Non-Patent Citations (3)
Title |
---|
HAORAN CHANG: "Deep Learning-Based Bitstream Error Correction for CSI Feedback", 《IEEE WIRELESS COMMUNICATIONS LETTERS》, 8 October 2021 (2021-10-08) * |
王月;段红光;郑兴林;: "大规模MIMO系统中基于CNN的延迟CSI反馈改进算法", 电讯技术, no. 07, 28 July 2020 (2020-07-28) * |
顾昕钰: "未来移动通信网络智能优化技术研究", 《信息通信技术与政策》, 15 November 2018 (2018-11-15) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024148525A1 (zh) * | 2023-01-10 | 2024-07-18 | Oppo广东移动通信有限公司 | 信道状态信息获取方案的确定方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114024587B (zh) | 2024-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110350958B (zh) | 一种基于神经网络的大规模mimo的csi多倍率压缩反馈方法 | |
CN111464220B (zh) | 一种基于深度学习的信道状态信息重建方法 | |
CN112425127B (zh) | 分布式无线电系统 | |
WO2021142631A1 (en) | Method, device and computer readable medium of communication | |
CN111193533B (zh) | 大规模mimo波束域鲁棒预编码传输方法与系统 | |
US11190257B2 (en) | Method and device for feeding back channel state information, and method and device for determining pre-coding matrix | |
CN109219935B (zh) | 移动通信中用于线性组合码本和反馈机制的负载降低方法 | |
CN112449009B (zh) | 一种基于svd的联邦学习推荐系统通信压缩方法及装置 | |
US10855817B2 (en) | Method and apparatus for network encoding based on low-complexity algorithms for network coding using matrix decomposition | |
CN112468203A (zh) | 深度迭代神经网络用低秩csi反馈方法、存储介质及设备 | |
CN114024587B (zh) | 基于全连接层共用的反馈网络编码器、架构及训练方法 | |
CN114830607B (zh) | 用于大型多维无线系统的无线x2x接入方法和接收器 | |
CN114567359A (zh) | 一种大规模mimo系统中基于多分辨率融合卷积反馈网络的csi反馈方法 | |
US20220374500A1 (en) | Finite resolution decomposition of a matrix and matrix-vector multiplication | |
CN107342798B (zh) | 一种确定码本的方法及装置 | |
CN114553280A (zh) | 一种基于深度学习大规模mimo系统的csi反馈方法 | |
CN116260494A (zh) | 反馈、获取及训练方法、终端、基站、电子设备和介质 | |
WO2020116202A1 (ja) | 逆行列計算装置および逆行列計算処理方法 | |
CN116405074B (zh) | 码本选择方法、装置、存储介质及处理器 | |
CN111865842B (zh) | 一种两阶段低复杂度Massive MIMO信道估计方法、装置及设备 | |
CN117318775B (zh) | 一种多用户通信系统及其传输方法、设备及介质 | |
US20240107374A1 (en) | Method and apparatus for channel information transfer using neural network in communication system | |
WO2024036631A1 (zh) | 一种信息反馈方法、装置、设备及存储介质 | |
CN118138416A (zh) | 基于投影梯度的块级干扰利用预编码求解方法及系统 | |
CN115208444A (zh) | 一种高可靠低时延通信系统高频效混合预编码设计方法、装置及通信系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |