CN113011448A - 一种基于迁移学习的多用户下行信道估计方法及装置 - Google Patents

一种基于迁移学习的多用户下行信道估计方法及装置 Download PDF

Info

Publication number
CN113011448A
CN113011448A CN201911326772.3A CN201911326772A CN113011448A CN 113011448 A CN113011448 A CN 113011448A CN 201911326772 A CN201911326772 A CN 201911326772A CN 113011448 A CN113011448 A CN 113011448A
Authority
CN
China
Prior art keywords
downlink channel
information
user
preset
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911326772.3A
Other languages
English (en)
Other versions
CN113011448B (zh
Inventor
高飞飞
杨玉雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201911326772.3A priority Critical patent/CN113011448B/zh
Publication of CN113011448A publication Critical patent/CN113011448A/zh
Application granted granted Critical
Publication of CN113011448B publication Critical patent/CN113011448B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0254Channel estimation channel estimation algorithms using neural network algorithms
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Power Engineering (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例提供一种基于迁移学习的多用户下行信道估计方法及装置,该方法包括:获取多个用户上行信道信息;将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。将多个用户上行信道信息输入预设下行信道估计模型即可得到多个用户下行信道估计信息,本发明实施例通过训练好的预设下行信道估计模型能够实现高效率和高鲁棒性的多用户下行信道估计。

Description

一种基于迁移学习的多用户下行信道估计方法及装置
技术领域
本发明涉及通信技术领域,尤其涉及一种基于迁移学习的多用户下行信道估计方法及装置。
背景技术
大规模多输入多输出(Massive MIMO)以其高频谱、高能效,高空间分辨率和高波束增益等显著优势被广泛认为是未来无线通信系统中的一项有前途的技术。然而,由于下行训练和上行反馈开销巨大,难以实现高精度的多用户下行信道估计,从而极大影响了Massive MIMO系统的高效传输。
现有技术中,下行信道估计算法往往对于信道的特性具有严格的假设,例如假设信号传播路径是有限的可区分数条径或假设信道具有极大的稀疏性。相比于传统算法,基于深度学习的下行信道估计算法具有显著更低的复杂度且不受限于精确的信道模型假设。然而,现有基于深度学习的下行信道估计算法主要针对于单用户的下行信道估计,即系统中每一个用户需要单独收集数据并重新训练网络,从未导致了难以接受的时间和数据成本。
因此,如何更高效的实现对于用户的下行信道估计已经成为业界亟待解决的问题。
发明内容
本发明实施例提供一种基于迁移学习的多用户下行信道估计方法及装置,用以解决上述背景技术中提出的技术问题,或至少部分解决上述背景技术中提出的技术问题。
第一方面,本发明实施例提供一种基于迁移学习的多用户下行信道估计方法,包括:
获取多个用户上行信道信息;
将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;
其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
更具体的,在所述将所述多个用户上行信道信息输入预设下行信道估计模型的步骤之前,所述方法还包括:
根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练,当满足第一预设条件时,得到预训练神经网络;
根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练,当满足第二预设条件时,得到预设下行信道估计模型。
更具体的,在所述根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设神经网络进行预训练的步骤之前,所述方法还包括:
获取历史用户网络环境样本信息,通过随机选择上行载波频率和预设上下行频率差,得到带下行信道实数化向量标签的历史用户网络样本信息;
将所述带下行信道实数化向量标签的历史用户网络样本信息均等且不交叉的划分成支撑样本数据集和查询样本数据集。
更具体的,所述根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练,当满足第一预设条件时,得到预训练神经网络的步骤具体包括:
将任一历史用户的支撑样本数据集和多个历史用户的查询样本数据集分别输入预设深度神经网络模型,输出样本下行信道的实化向量预测值;
利用预设历史用户损失函数并根据所述样本下行信道的实数化向量预测值,结合下行信道实数化向量标签计算损失值;
通过多次更新用户网络参数迭代优化预设历史用户损失函数,当满足第一预设条件时,得到收敛后的用户网络参数,以根据所述收敛后的用户网络参数得到预训练神经网络。
更具体的,在所述根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练的步骤之前,所述方法还包括:
根据新用户网络环境样本信息,通过随机选择上行载波频率和预设上下行频率差,得到带下行信道实数化向量标签的新用户网络样本信息;
将所述带下行信道实数化向量标签的新用户网络样本信息均等且不交叉的划分成新用户迁移数据样本集和新用户测试数据样本集。
更具体的,所述根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练,当满足第二预设条件时,得到预设下行信道估计模型的步骤,具体包括:
将所述新用户迁移数据样本集输入预训练神经网络,输出样本下行信道的实数化向量预测值;
利用预设新用户损失函数并根据所述样本下行信道的实数化向量预测值,分别和所述样本下行信道的实数化向量标签计算损失值;
通过多次更新神经网络参数迭代优化预设新用户损失函数,得到迁移训练后的网络参数,根据所述迁移训练后的网络参数得到预设下行信道估计模型。
更具体的,所述将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息的步骤,具体包括:
将各个用户上行信道信息分离为上行信道的实部向量和上行信道的虚部向量;
将所述上行信道的实部向量和上行信道的虚部向量连接成一个长度加倍的一维实向量;
将所述一维实向量输入预设下行信道估计模型的隐藏层,输出隐藏层处理后的数据向量信息;
将所述隐藏层处理后的数据向量信息输入预设下行信道估计模型的输出层,利用输出层的激活函数,输出多个用户下行信道预估信息。
第二方面,本发明实施例提供一种基于迁移学习的多用户下行信道估计装置,包括:
获取模块,用于获取多个用户上行信道信息;
估计模块,用于将多个所述用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;
其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所述基于迁移学习的多用户下行信道估计方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所述基于迁移学习的多用户下行信道估计方法的步骤。
本发明实施例提供的一种基于迁移学习的多用户下行信道估计方法及装置,通过带下行信道实数化向量标签的历史用户网络样本信息对深度神经网络进行预训练,得到泛化性增强的预训练神经网络,然后通过带下行信道实数化向量标签的新用户网络样本信息对预训练神经模型进行进一步的参数调整训练,使得模型可以快速使用新用户的环境特征,最终得到预设下行信道估计模型,将多个用户上行信道信息输入预设下行信道估计模型即可得到多个用户下行信道估计信息,本发明实施例通过训练好的预设下行信道估计模型能够实现高效率和高鲁棒性的多用户下行信道估计。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例中所描述的基于迁移学习的多用户下行信道估计方法流程示意图;
图2为本发明一实施例所描述的预设下行信道估计模型训练流程图;
图3为本发明一实施例所描述的基于迁移学习的多用户下行信道估计装置结构示意图;
图4为本发明一实施例所描述的电子设备结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一实施例中所描述的基于迁移学习的多用户下行信道估计方法流程示意图,如图1所示,包括:
步骤S1,获取多个用户上行信道信息;
步骤S2,将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;
其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
具体的,本发明实施例中所描述的带下行信道实数化向量标签的历史用户网络样本信息具体是指,通过根据基站的历史数据,读取历史用户网络样本信息,在历史用户网络样本信息中随机选定上行信道样本信息,并结合预设的固定上下行频率差得到上行信道样本信息对应的下行信道样本信息,得到一对上行信道样本信息和下行信道样本信息组合,然后将该组合中的下行信道样本信息的实数化向量作为上行信道样本信息的标签,得到带下行信道实数化向量标签的历史用户网络样本信息。
本发明实施例中所描述的带下行信道实数化向量标签的新用户网络样本信息是根据新用户的网络环境,获取新用户的网络环境的上行信道样本信息,结合预设的固定上下行频率差得到上行信道样本信息对应的下行信道样本信息,得到一对上行信道样本信息和下行信道样本信息组合,然后将该组合中的下行信道样本信息的实数化向量作为上行信道样本信息的标签,得到带下行信道实数化向量标签的新用户网络样本信息。
将多个用户上行信道信息的实部数据和虚部数据分离成向量和信道的虚部向量;将实部向量和虚部向量连接成一个长度加倍的一维实向量作为模型输入,输入预设下行信道估计模型,将所述复信道实数化向量通过输入层输入至所述深度神经网络模型的隐藏层,利用每一隐藏层和隐藏层对应的激活函数,输出经全部隐藏层处理后的数据向量;将经隐藏层后的数据向量输入至所述深度神经网络模型的输出层,利用输出层的激活函数,输出该用户下行复信道对应的实向量预测值,根据实向量预测值,确定该用户的下行信道。
本发明实施例通过带下行信道实数化向量标签的历史用户网络样本信息对深度神经网络进行预训练,得到泛化性增强的预训练神经网络,然后通过带下行信道实数化向量标签的新用户网络样本信息对预训练神经模型进行进一步的调整训练,使得模型可以快速使用新用户的环境特征,最终的预设下行信道估计模型,将多个用户上行信道信息输入预设下行信道估计模型即可得到多个用户下行信道估计信息,本发明实施例通过训练好的预设下行信道估计模型能够实现高效率和高鲁棒性的多用户下行信道估计。
在上述实施例的基础上,在所述将所述多个用户上行信道信息输入预设下行信道估计模型的步骤之前,所述方法还包括:
根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练,当满足第一预设条件时,得到预训练神经网络;
根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练,当满足第二预设条件时,得到预设下行信道估计模型。
具体的,本发明实施例中所描述的预设下行信道估计模型通过两个阶段训练得到,首先通过多个下行信道实数化向量标签的新用户网络样本信息进行预训练,得到泛化性增强的预训练神经网络,然后通过带下行信道实数化向量标签的新用户网络样本信息对预训练神经模型进行进一步的调整训练,使得模型可以快速使用新用户的环境特征,最终得到预设下行信道估计模型。
在上述实施例的基础上,在所述根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设神经网络进行预训练的步骤之前,所述方法还包括:
获取历史用户网络环境样本信息,通过随机选择上行载波频率和预设上下行频率差,得到带下行信道实数化向量标签的历史用户网络样本信息;
将所述带下行信道实数化向量标签的历史用户网络样本信息均等且不交叉的划分成支撑样本数据集和查询样本数据集。
所述根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练,当满足第一预设条件时,得到预训练神经网络的步骤具体包括:
将任一历史用户的支撑样本数据集和多个历史用户的查询样本数据集分别输入预设深度神经网络模型,输出样本下行信道的实化向量预测值;
利用预设历史用户损失函数并根据所述样本下行信道的实数化向量预测值,结合下行信道实数化向量标签计算损失值;
通过多次更新用户网络参数迭代优化预设历史用户损失函数,当满足第一预设条件时,得到收敛后的用户网络参数,以根据所述收敛后的用户网络参数得到预训练神经网络。
具体的,将任一历史用户的支撑样本数据集和多个历史用户的查询样本数据集分别输入预设深度神经网络模型具体是指,在预训练阶段,单用户训练,即利用任一历史用户的支撑样本数据集训练单用户网络参数;还包括跨用户训练,多个历史用户的查询样本数据集训练用户网络参数;从而得到收敛后的用户网络参数,以根据所述收敛后的用户网络参数得到预训练神经网络。
本发明实施例中所描述的第一预设条件可以是指预设的训练次数,或者是预设训练时间,也可以是指预设历史用户损失函数稳定收敛。
将任一历史用户的支撑样本数据集输入预设深度神经网络模型进行预训练的处理流程可通过如下方法实现:
定义实向量和复向量之间的一一映射
Figure BDA0002328582900000081
则有网络的输入向量和下行信道实数化向量标签向量分别为
Figure BDA0002328582900000082
Figure BDA0002328582900000083
其中符号
Figure BDA0002328582900000086
表示复合映射。深度神经网络总共有L层,包括1层输入层、1层输出层和L-2层隐藏层。L可设为4,即包括两层隐藏层。
网络的输出可以表示为:
Figure BDA0002328582900000084
其中,
Figure BDA0002328582900000085
是网络需要训练的参数,f(l)是第l层的非线性转换函数,可以被进一步的改进为:
f(l)(x)=r(l)(W(l)x+b(l)),1≤l≤L-1,
其中,W(l),b(l)和r(l)分别是对应层的权重矩阵、偏置参数和非线性激活函数。对于隐藏层,激活函数可以是ReLu函数,即[rre(z)]p=max{0,[z]p},其中[z]p表示向量z的第p个元素,p=1,2,…,len(z),且len(z)代表向量z的长度。输出层激活函数是线性函数rli(z)=z。网络的损失函数定义为L2范数函数,即:
Figure BDA0002328582900000091
其中,
Figure BDA0002328582900000092
是网络的预测值,y(v)代表分类训练的标签,
Figure BDA0002328582900000093
即为对应的训练集,V是一个训练批次中样本对的数量,v代表样本在批次中的序号。
在单用户训练中,定义单历史用户损失函数为
Figure BDA0002328582900000094
其中ΩS,k是单用户网络参数,在每一次单用户训练中,首先将ΩS,k初始化为当前网络参数Ω,然后通过梯度下降算法对单历史用户损失函数为
Figure BDA0002328582900000095
进行GTr步优化,得到GTr步更新后的单用户网络参数ΩS,k。为提高训练的稳定性,单历史用户损失函数关于ΩS,k的梯度需要进行截断,截断的梯度向量为vS,k,可表示为
Figure BDA0002328582900000096
其中p=1,…,len(vS,k),U是梯度的截断阈值,具体数值可由经验值设定。因此,单用户网络参数ΩS,k每一步的更新步骤为ΩS,k←Ωs,k-βvS,k
其中,β为单用户训练的学习率。
在跨用户训练中,定义多历史用户损失函数为
Figure BDA0002328582900000097
其中,KB为一次跨用户训练中涉及到的历史用户数,在每一次跨用户训练中,通过用ADAM算法对多历史用户损失函数进行逐步优化,从而不断优化并更新网络参数Ω直到损失函数收敛,根据所述收敛后的用户网络参数得到预训练神经网络。
本发明实施例通过预训练,得到泛化性增强的预训练神经网络,有利于后续步骤的进行。
在上述实施例的基础上,在所述根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练的步骤之前,所述方法还包括:
根据新用户网络环境样本信息,通过随机选择上行载波频率和预设上下行频率差,得到带下行信道实数化向量标签的新用户网络样本信息;
将所述带下行信道实数化向量标签的新用户网络样本信息均等且不交叉的划分成新用户迁移数据样本集和新用户测试数据样本集。
所述根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练,当满足第二预设条件时,得到预设下行信道估计模型的步骤,具体包括:
将所述新用户迁移数据样本集输入预训练神经网络,输出样本下行信道的实数化向量预测值;
利用预设新用户损失函数并根据所述样本下行信道的实数化向量预测值,分别和所述样本下行信道的实数化向量标签计算损失值;
通过多次更新神经网络参数迭代优化预设新用户损失函数,得到迁移训练后的网络参数,根据所述迁移训练后的网络参数得到预设下行信道估计模型。
具体的,此处所描述的预设新用户损失函数为
Figure BDA0002328582900000101
其中ΩT,k是新用户网络参数,在每一次新用户迁移训练中,首先将预训练神经网络参数ΩT,k初始化为当前网络参数Ω,然后通过梯度下降算法对单历史用户损失函数为
Figure BDA0002328582900000102
进行GAd步优化,得到GAd步更新后得到调整后的网络参数ΩT,k。为提高训练的稳定性,新用户损失函数关于ΩT,k的梯度需要进行截断,截断的梯度向量为υT,k,可表示为
Figure BDA0002328582900000103
其中,p=1,…,len(υT,k),新用户网络参数ΩS,k每一步的更新步骤为ΩT,k←ΩT,k-βvT,k.
在迁移训练结束后,网络的参数保持不变,利用新用户测试数据样本集获得下行信道的估计值,通过计算估计值和标签值之间的误差实现性能评价。
在上述实施例的基础上,所述将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息的步骤,具体包括:
将各个用户上行信道信息分离为上行信道的实部向量和上行信道的虚部向量;
将所述上行信道的实部向量和上行信道的虚部向量连接成一个长度加倍的一维实向量;
将所述一维实向量输入预设下行信道估计模型的隐藏层,输出隐藏层处理后的数据向量信息;
将所述隐藏层处理后的数据向量信息输入预设下行信道估计模型的输出层,利用输出层的激活函数,输出多个用户下行信道预估信息。
具体的,将所述一维实向量通过输入层输入至所述深度神经网络模型的隐藏层,利用每一隐藏层和隐藏层对应的激活函数,输出经全部隐藏层处理后的数据向量;
将所述经隐藏层后的数据向量输入至所述深度神经网络模型的输出层,利用输出层的激活函数,输出该用户下行复信道对应的实向量预测值,根据所述实向量预测值,将实向量预测值拆分成等长的两个实向量,分别代表下行复信道的实部数据和虚部数据;将下行复信道的实部数据和虚部数据重新组合成用户的下行复信道。
本发明实施例通过带下行信道实数化向量标签的历史用户网络样本信息对深度神经网络进行预训练,得到泛化性增强的预训练神经网络,然后通过带下行信道实数化向量标签的新用户网络样本信息对预训练神经模型进行进一步的调整训练,使得模型可以快速使用新用户的环境特征,最终得到预设下行信道估计模型,将多个用户上行信道信息输入预设下行信道估计模型即可得到多个用户下行信道估计信息,本发明实施例通过训练好的预设下行信道估计模型能够实现高效率和高鲁棒性的多用户下行信道估计。
图2为本发明一实施例所描述的预设下行信道估计模型训练流程图,如图2所示,包括:
步骤S21,生成历史用户的支撑数据集和历史用户的查询数据集;
步骤S22,预训练阶段,进行单用户训练,即利用单个历史用户的支撑数据训练单用户网络参数,然后进行垮用户训练,即利用多个历史用户的查询数据集训练网络参数;
步骤S23,生成特定新用户的迁移数据集和特定新用户的测试数据集;
步骤S24,进行迁移训练,利用特定新用户的迁移数据集调整网络参数,然后利用特定新用户的测试数据集测试网络性能,得到预设下行信道估计模块。
图3为本发明一实施例所描述的基于迁移学习的多用户下行信道估计装置结构示意图,如图3所示,包括:获取模块310和估计模块320;其中,获取模块310用于获取多个用户上行信道信息;其中,估计模块320用于将多个所述用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
本发明实施例提供的装置是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
本发明实施例通过带下行信道实数化向量标签的历史用户网络样本信息对深度神经网络进行预训练,得到泛化性增强的预训练神经网络,然后通过带下行信道实数化向量标签的新用户网络样本信息对预训练神经模型进行进一步的调整训练,使得模型可以快速使用新用户的环境特征,最终得到预设下行信道估计模型,将多个用户上行信道信息输入预设下行信道估计模型即可得到多个用户下行信道估计信息,本发明实施例通过训练好的预设下行信道估计模型能够实现高效率和高鲁棒性的多用户下行信道估计。
图4为本发明一实施例所描述的电子设备结构示意图,如图4所示,该电子设备可以包括:处理器(processor)410、通信接口(Communications Interface)420、存储器(memory)430和通信总线440,其中,处理器410,通信接口420,存储器430通过通信总线440完成相互间的通信。处理器410可以调用存储器430中的逻辑指令,以执行如下方法:获取多个用户上行信道信息;将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
此外,上述的存储器430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:获取多个用户上行信道信息;将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
本发明实施例提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储服务器指令,该计算机指令使计算机执行上述各实施例提供的方法,例如包括:获取多个用户上行信道信息;将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于迁移学习的多用户下行信道估计方法,其特征在于,包括:
获取多个用户上行信道信息;
将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;
其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
2.根据权利要求1所述基于迁移学习的多用户下行信道估计方法,其特征在于,在所述将所述多个用户上行信道信息输入预设下行信道估计模型的步骤之前,所述方法还包括:
根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练,当满足第一预设条件时,得到预训练神经网络;
根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练,当满足第二预设条件时,得到预设下行信道估计模型。
3.根据权利要求2所述基于迁移学习的多用户下行信道估计方法,其特征在于,在所述根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练的步骤之前,所述方法还包括:
获取历史用户网络环境样本信息,通过随机选择上行载波频率和预设上下行频率差,得到带下行信道实数化向量标签的历史用户网络样本信息;
将所述带下行信道实数化向量标签的历史用户网络样本信息均等且不交叉的划分成支撑样本数据集和查询样本数据集。
4.根据权利要求3所述基于迁移学习的多用户下行信道估计方法,其特征在于,所述根据多个带下行信道实数化向量标签的历史用户网络样本信息对预设深度神经网络进行预训练,当满足第一预设条件时,得到预训练神经网络的步骤具体包括:
将任一历史用户的支撑样本数据集和多个历史用户的查询样本数据集分别输入预设深度神经网络模型,输出样本下行信道的实化向量预测值;
利用预设历史用户损失函数并根据所述样本下行信道的实数化向量预测值,结合下行信道实数化向量标签计算损失值;
通过多次更新用户网络参数迭代优化预设历史用户损失函数,当满足第一预设条件时,得到收敛后的用户网络参数,以根据所述收敛后的用户网络参数得到预训练神经网络。
5.根据权利要求2所述基于迁移学习的多用户下行信道估计方法,其特征在于,在所述根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练的步骤之前,所述方法还包括:
根据新用户网络环境样本信息,通过随机选择上行载波频率和预设上下行频率差,得到带下行信道实数化向量标签的新用户网络样本信息;
将所述带下行信道实数化向量标签的新用户网络样本信息均等且不交叉的划分成新用户迁移数据样本集和新用户测试数据样本集。
6.根据权利要求5所述基于迁移学习的多用户下行信道估计方法,其特征在于,所述根据多个下行信道实数化向量标签的新用户网络样本信息对预训练神经网络进行迁移训练,当满足第二预设条件时,得到预设下行信道估计模型的步骤,具体包括:
将所述新用户迁移数据样本集输入预训练神经网络,输出样本下行信道的实数化向量预测值;
利用预设新用户损失函数并根据所述样本下行信道的实数化向量预测值,分别和所述样本下行信道的实数化向量标签计算损失值;
通过多次更新神经网络参数迭代优化预设新用户损失函数,得到迁移训练后的网络参数,根据所述迁移训练后的网络参数得到预设下行信道估计模型。
7.根据权利要求1所述基于迁移学习的多用户下行信道估计方法,其特征在于,所述将所述多个用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息的步骤,具体包括:
将各个用户上行信道信息分离为上行信道的实部向量和上行信道的虚部向量;
将所述上行信道的实部向量和上行信道的虚部向量连接成一个长度加倍的一维实向量;
将所述一维实向量输入预设下行信道估计模型的隐藏层,输出隐藏层处理后的数据向量信息;
将所述隐藏层处理后的数据向量信息输入预设下行信道估计模型的输出层,利用输出层的激活函数,输出多个用户下行信道预估信息。
8.一种基于迁移学习的多用户下行信道估计装置,其特征在于,包括:
获取模块,用于获取多个用户上行信道信息;
估计模块,用于将多个所述用户上行信道信息输入预设下行信道估计模型,得到多个用户下行信道预估信息;
其中,所述预设下行信道估计模型是通过带下行信道实数化向量标签的历史用户网络样本信息和带下行信道实数化向量标签的新用户网络样本信息训练得到的。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述基于迁移学习的多用户下行信道估计方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述基于迁移学习的多用户下行信道估计方法的步骤。
CN201911326772.3A 2019-12-20 2019-12-20 一种基于迁移学习的多用户下行信道估计方法及装置 Active CN113011448B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911326772.3A CN113011448B (zh) 2019-12-20 2019-12-20 一种基于迁移学习的多用户下行信道估计方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911326772.3A CN113011448B (zh) 2019-12-20 2019-12-20 一种基于迁移学习的多用户下行信道估计方法及装置

Publications (2)

Publication Number Publication Date
CN113011448A true CN113011448A (zh) 2021-06-22
CN113011448B CN113011448B (zh) 2022-09-23

Family

ID=76381704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911326772.3A Active CN113011448B (zh) 2019-12-20 2019-12-20 一种基于迁移学习的多用户下行信道估计方法及装置

Country Status (1)

Country Link
CN (1) CN113011448B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113824658A (zh) * 2021-09-22 2021-12-21 西华大学 一种ofdm系统中采用dnsp方案的深度迁移学习信道估计方法
CN115001910A (zh) * 2022-06-25 2022-09-02 复旦大学 一种大规模多输入多输出频分双工系统下行信道估计方法
CN116319187A (zh) * 2023-02-20 2023-06-23 中国人民解放军军事科学院系统工程研究院 一种用于卫星物联网系统的数据处理方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108566255A (zh) * 2018-03-20 2018-09-21 西安电子科技大学 基于多任务学习的时间相关mimo系统信道预测方法
US20180317119A1 (en) * 2014-11-20 2018-11-01 Telefonaktiebolaget Lm Ericsson (Publ) Predicting downlink throughput

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180317119A1 (en) * 2014-11-20 2018-11-01 Telefonaktiebolaget Lm Ericsson (Publ) Predicting downlink throughput
CN108566255A (zh) * 2018-03-20 2018-09-21 西安电子科技大学 基于多任务学习的时间相关mimo系统信道预测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PEIHAO DONG 等: "Machine Learning Prediction Based CSI Acquisition for FDD Massive MIMO Downlink", 《2018 IEEE GLOBAL COMMUNICATIONS CONFERENCE (GLOBECOM)》 *
XIE HONGXIANG 等: "A Unified Transmission Strategy for TDD/FDD Massive MIMO Systems With Spatial Basis Expansion Model", 《 IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 *
谢宏祥 等: "基于阵列信号处理的大规模MIMO信道估计与传输机制", 《中国会议》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113824658A (zh) * 2021-09-22 2021-12-21 西华大学 一种ofdm系统中采用dnsp方案的深度迁移学习信道估计方法
CN115001910A (zh) * 2022-06-25 2022-09-02 复旦大学 一种大规模多输入多输出频分双工系统下行信道估计方法
CN115001910B (zh) * 2022-06-25 2023-11-07 复旦大学 一种大规模多输入多输出频分双工系统下行信道估计方法
CN116319187A (zh) * 2023-02-20 2023-06-23 中国人民解放军军事科学院系统工程研究院 一种用于卫星物联网系统的数据处理方法及装置
CN116319187B (zh) * 2023-02-20 2023-10-17 中国人民解放军军事科学院系统工程研究院 一种用于卫星物联网系统的数据处理方法及装置

Also Published As

Publication number Publication date
CN113011448B (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN113011448B (zh) 一种基于迁移学习的多用户下行信道估计方法及装置
Aoudia et al. Model-free training of end-to-end communication systems
CN111091199B (zh) 一种基于差分隐私的联邦学习方法、装置及存储介质
CN110336594B (zh) 一种基于共轭梯度下降法的深度学习信号检测方法
CN111224779B (zh) 基于码本的物理层密钥生成方法、装置、存储介质及终端
CN111162888B (zh) 分布式天线系统、远程接入单元、功率分配方法和介质
CN114422059A (zh) 信道预测方法、装置、电子设备及存储介质
CN109993543A (zh) 一种投诉处理方法及系统
Zilberstein et al. Annealed Langevin dynamics for massive MIMO detection
CN112836822B (zh) 基于宽度学习的联邦学习策略优化方法和装置
Liao et al. Deep learning aided low complex sphere decoding for MIMO detection
CN116432665B (zh) 对话模型构建方法、文本生成方法、装置、系统及设备
CN114911837A (zh) 预失真处理方法和装置
EP3791481B1 (en) System and method for adaptive filtering
CN115527525B (zh) 语音识别模型生成方法、语音交互方法、车辆和存储介质
CN114819196B (zh) 基于噪音蒸馏的联邦学习系统及方法
Stylianopoulos et al. Online RIS configuration learning for arbitrary large numbers of 1-bit phase resolution elements
CN111104951A (zh) 一种主动学习方法、装置及终端设备
CN113037409B (zh) 基于深度学习的大规模mimo系统信号检测方法
EP3859609A1 (en) Finite resolution decomposition of a matrix for low-complexity and energy-efficient matrix-vector multiplication
CN116150612A (zh) 模型训练的方法和通信装置
CN114175050A (zh) 信号解映射
Xiao et al. A Distributed Deep Learning System With Controlled Intermediate Representation
CN116578674B (zh) 联邦变分自编码主题模型训练方法、主题预测方法及装置
CN115706684B (zh) 信道参数的估计方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant