CN111901258A - 上下行信道互易的实现方法、通信节点和存储介质 - Google Patents

上下行信道互易的实现方法、通信节点和存储介质 Download PDF

Info

Publication number
CN111901258A
CN111901258A CN202010383236.3A CN202010383236A CN111901258A CN 111901258 A CN111901258 A CN 111901258A CN 202010383236 A CN202010383236 A CN 202010383236A CN 111901258 A CN111901258 A CN 111901258A
Authority
CN
China
Prior art keywords
complex
neural network
network model
channel estimation
estimation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010383236.3A
Other languages
English (en)
Inventor
刘磊
夏树强
郁光辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Priority to CN202010383236.3A priority Critical patent/CN111901258A/zh
Publication of CN111901258A publication Critical patent/CN111901258A/zh
Priority to US17/923,985 priority patent/US20230179451A1/en
Priority to EP21800355.6A priority patent/EP4149067A4/en
Priority to PCT/CN2021/079070 priority patent/WO2021223504A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0254Channel estimation channel estimation algorithms using neural network algorithms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/0224Channel estimation using sounding signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0242Channel estimation channel estimation algorithms using matrix methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Power Engineering (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请提出一种上下行信道互易的实现方法、通信节点和存储介质。该方法包括:根据接收到的参考信号实时进行信道估计,得到信道估计结果;将信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵;对发射信号应用信道自适应矩阵,进行信道自适应处理。

Description

上下行信道互易的实现方法、通信节点和存储介质
技术领域
本发明涉及通信,具体涉及一种上下行信道互易的实现方法、通信节点和存储介质。
背景技术
传统的频分双工(Frequency Division Duplex,FDD)系统,基站侧(BaseStation,BS)根据用户设备侧(User Equipment,UE)所反馈的信道状态信息(ChannelState Information,CSI),比如,预编码矩阵指示器(Precoding Matrix Indicator,PMI),进行下行信道自适应(即Precoding,预编码)的过程中,存在如下缺陷:
首先,FDD系统上行(Uplink,从UE到BS的信号通路)和下行(Downlink,从BS到UE的信号通路)的通信载波频段一般存在较大间隔,使得本来很小无线信道的多径延时估计误差,可以造成从上行信道到下行信道,或者从下行信道到上行信道的互易映射的显著和复杂非线性。
其次,估计得到下行信道估计结果中包含干扰和噪声,基于下行信道估计结果进行奇异值分解(Singular Value Decomposition,SVD)得到的V矩阵本应是千变万化的,反映真实信道的实时变化状态;然而,因为存储开销的限制,作为信道状态信息的有限精度的量化,3GPP标准所定义的码本字典无法设计得太大,故码本之间的颗粒度较大,码元形式也非常理想化;换言之,这种对真实信道的有限量化的误差较大,从而使得这种传统方式难以准确适应实际信道状态的变化。
再次,预编码效用的滞后性。因为用户设备侧SVD分解的较大计算耗时,加上对分解结果与存储的码本字典的逐项比较和匹配时间,再加上PMI上报给基站的上行反馈时间,实际应用预编码的对象已是下一时刻或下一帧的发射信号,从而使得传统方式固有地无法很好匹配到真实下行信道。因此,如何实现FDD系统上下行信道互易是一个亟待解决的问题。
发明内容
本申请实施例提供一种上下行信道互易的实现方法、通信节点和存储介质,在训练习得上下行信道互易非线性的基础上,保证了信道状态信息的实时性和准确性,以及减少了通信节点的存储开销。
本申请实施例提供一种下行信道互易的实现方法,应用于通信节点,包括:
根据接收到的参考信号实时进行信道估计,得到信道估计结果;
将所述信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵;
对发射信号应用所述信道自适应矩阵,进行信道自适应处理。
本申请实施例提供一种下行信道互易的实现装置,应用于通信节点,包括:
估计器,配置为根据接收到的参考信号实时进行信道估计,得到信道估计结果;
输入器,配置为将所述信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵;
应用处理器,配置为对发射信号应用所述信道自适应矩阵,进行信道自适应处理。
本申请实施例提供一种通信节点,包括:通信模块,存储器,以及一个或多个处理器;
所述通信模块,配置为在至少两个通信节点之间进行通信交互;
所述存储器,配置为存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一实施例所述的方法。
本申请实施例提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一实施例所述的方法。
附图说明
图1是本申请实施例提供的一种上下行信道互易的实现方法的流程图;
图2是本申请实施例提供的一种采用复数神经网络模型由上行估计信道进行下行信道自适应的互易过程的流程图;
图3是本申请实施例提供的一种采用复数神经网络模型由下行估计信道进行上行信道自适应的互易过程的流程图;
图4是本申请实施例提供的一种采用复数卷积神经网络进行上下行信道互易的结果示意图;
图5是本申请实施例提供的一种上下行信道互易的实现装置的结构框图;
图6是本申请实施例提供的一种通信节点的结构示意图。
具体实施方式
下文中将结合附图对本申请的实施例进行说明。以下结合实施例附图对本申请进行描述,所举实例仅用于解释本申请,并非用于限定本申请的范围。
在采用传统上下行信道自适应的过程中,存在如下缺陷:首先,假设FDD系统的上行无线信道和下行无线信道如下:
Figure BDA0002482848320000021
Figure BDA0002482848320000022
其中,Δτp(p=1,2,…P)表示多径延时估计误差,即使该估计误差已经很小,例如:Δτp(偏差)仅为1个采样点(如:1/36.72MHz=27.2ns),这种精度已十分接近理想信道估计;但是因为上下行载波频段间隔Δf通常为数10MHz到100多MHz(此处设为60MHz),则此微小偏差依然造成:2π·Δτp·Δf=2π×60e+6×27.2e-9=3.26π>2π,即相位已历经一个完整的旋转周期;再加上指数基底(exp)和P条径的叠加,就产生了FDD系统上下行信道互易映射的显著和复杂非线性。
其次,估计得到的下行信道估计结果中包含干扰和噪声,基于下行信道估计结果得到的真实信道的有限量化的误差较大,难以准确适应实际信道状态的变化。
再次,预编码效用的滞后性。上述为传统下行信道自适应方式的三大瓶颈,相反地,由下行估计信道互易构造上行信道自适应矩阵,也会遇到同样的瓶颈。因此,如何实现FDD系统上下行信道互易是一个亟待解决的问题。
有鉴于此,本申请实施例提出一种上下行信道互易的实现方法,将神经网络模型应用于FDD系统上下行信道互易,即基于上行参考信号或下行参考信号,在基站侧或用户设备侧进行实时的上行信道估计或下行信道估计,然后将估计结果输入一个训练完成的神经网络(Neural Network,NN),直接输出一个实时的下行信道自适应矩阵或上行信道自适应矩阵。
在本申请实施例中,以下行信道自适应为例,相比于传统方式的SVD分解计算、码本字典逐项匹配以及PMI上行反馈三个环节的延迟,且PMI对应的量化码本相对于实际信道仍存在较大偏差的情形,本申请实施例直接基于上行参考信号估计出原始非量化版本的无线信道,其所反映的实际信道状态信息显然更具有实时性和准确性。
其次,仍以下行信道自适应为例,由于减去了传统方式的用户设备侧的SVD分解、码本字典匹配和PMI上报三个环节的延迟,本申请实施例只需很短时间的前向运行计算即得到下行信道自适应矩阵,使得所述的预编码效用滞后性问题得到极大缓解;同时,因不再需要去设计和存储码本字典,大大减少了基站侧和用户设备侧的存储开销。
再次,神经网络的优势之一就是对存在较大的或复杂的非线性映射问题的强大拟合和学习能力,这刚好与微小的多径延时估计误差所造成的互易映射的显著和复杂非线性相契合。
并且,也可以将复数神经网络应用于FDD系统上下行信道互易。在深度学习领域广泛使用的主流学习平台(包括但不限于:Tensorflow、Caffe和PaddlePaddle等)所广泛构建的基本都是实数神经网络,训练算法也是基于实数的误差反向传播算法(BackPropagation algorithm,BP);以Tensorflow为例,其库函数所包括的:神经元激活函数(Activation)、各层(Layer)的运算函数(Convolution、BatchNormalization、Dense等),以及误差反向传播算法中的梯度计算函数(Gradients)均不支持复型的张量运算。这不难理解,因为对深度学习最广泛应用的图像识别任务而言,没有复数运算的需求:一副图像通常用RGB(Red、Green and Blue)三色上的灰度值所构成的向量来表达,而灰度值是定义在0~255范围的正整数,不用复数表示。再如:主流学习平台里被广泛使用的神经元激活函数-修正线性单元(Rectified Linear Unit,ReLU)就是一个标准的实型函数;其函数规则很简单:输入为正则原样输出,输入为负则输出0;显见它需要比较输入和0的大小;但众所周知,一个复数a+bj是无法说是大于0还是小于0的,而两个复数(a+bj和c+dj)之间也是无法直接比较孰大孰小的。
在无线通信系统中,基带处理的信号大部分都是复数信号,即信号同时包含幅度和相位两方面信息。而实际上,建构在复型神经元激活函数之上的复型误差反向传播算法,它并非是实数BP算法的简单复数替换;因此,针对无线通信系统在应用神经网络的情况,需采用一套基于复信号、复型激活函数进行复数误差反向传播算法的数学体系。
在一实施例中,图1是本申请实施例提供的一种上下行信道互易的实现方法的流程图。本实施例可以由网络侧(比如,基站),可以由用户侧(比如,用户设备)执行。如图1所示,本实施例包括:S110-S130。
S110、根据接收到的参考信号实时进行信道估计,得到信道估计结果。
S120、将信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵。
S130、对发射信号应用信道自适应矩阵,进行信道自适应处理。
在实施例中,参考信号可以为上行参考信号,也可以为下行参考信号;信道估计结果可以为上行信道估计结果,也可以为下行信道估计结果;信道自适应矩阵可以为上行信道自适应矩阵,也可以为下行信道自适应矩阵;信道自适应处理可以为上行信道自适应处理,也可以为下行信道自适应处理,这些参数是上行还是下行,与通信节点有关,即通信节点为第一通信节点还是第二通信节点有关。
在一实施例中,在通信节点为第一通信节点的情况下,参考信号为上行参考信号;信道估计为上行信道估计;信道估计结果为上行信道估计结果;信道自适应矩阵为下行信道自适应矩阵;信道自适应处理为下行信道自适应处理。
在一实施例中,在通信节点为第二通信节点的情况下,参考信号为下行参考信号;信道估计为下行信道估计;信道估计结果为下行信道估计结果;信道自适应矩阵为上行信道自适应矩阵;信道自适应处理为上行信道自适应处理。
在实施例中,在通信节点为第一通信节点(比如,第一通信节点为基站)的情况下,第一通信节点根据第二通信节点所发射的上行参考信号估计出上行信道估计结果;第一通信节点将上行信道估计结果输入一个训练完成的神经网络模型,输出一个下行信道自适应矩阵;第一通信节点对下行发射信号应用下行信道自适应矩阵,完成下行信道自适应处理,从而将神经网络模型应用于FDD系统上下行信道互易,在训练习得上下行信道互易非线性的基础上,保证了信道状态信息的实时性和准确性,以及减少了通信节点的存储开销。
在实施例中,在通信节点为第二通信节点(比如,第二通信节点为UE)的情况下,第二通信节点根据第一通信节点所发射的下行参考信号估计出下行信道估计结果;第二通信节点将下行信道估计结果输入一个训练完成的神经网络模型,输出一个上行信道自适应矩阵;第二通信节点对上行发射信号应用上行信道自适应矩阵,完成上行信道自适应处理,从而将神经网络模型应用于FDD系统上下行信道互易,在训练习得上下行信道互易非线性的基础上,保证了信道状态信息的实时性和准确性,以及减少了通信节点的存储开销。
在一实施例中,神经网络模型包括:复数神经网络模型;复数神经网络模型包括:复数卷积神经网络模型;复数卷积神经网络包括:复数残差神经网络模型。
在实施例中,可以根据是否将FDD系统的无线信道场景划分为至少两类场景,配置神经网络模型的两种训练过程。
在一实施例中,神经网络模型的训练过程,包括:
将通信节点所在FDD系统的无线信道场景划分为N类场景,N为大于等于1的正整数;
根据已知的训练符号进行每类场景的上行信道估计和下行信道估计,得到上行信道估计结果和第一下行信道估计结果;
依次将每类场景所对应数据集中每个条目的上行信道估计结果输入至神经网络模型,输出对应的第二下行信道估计结果,直至第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差达到预设精度为止;条目为由上行信道估计结果和第一下行信道估计结果组成的数据对。在实施例中,每类场景对应一个数据集,即N类场景对应N个数据集,每个数据集可以包括M个条目,M为大于等于1的正整数。在实际训练过程中,可以先将一个数据集中每个条目的上行信道估计结果输入预先完成训练的神经网络模型,输出第二下行信道估计结果,直至第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差达到预设精度为止,然后,再对下一个数据集中每个条目的上行信道估计结果输入神经网络模型,将输出的第二下行信道估计结果与第一下行信道估计结果进行比较,依次类推,直至将所有数据集中所有条目训练完成为止。
在实施例中,预设精度可以根据用户需求进行自适应配置,在用户需求较高时,可将预设精度配置的较小一些,即第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差需较小一些,才可以满足预设精度;而在用户需求较低时,可将预设精度配置的较大一些,即第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差较大一些,也可以满足预设精度。
在一实施例中,神经网络模型的训练过程,包括:
根据已知的训练符号实时进行上行信道估计和下行信道估计,得到上行信道估计结果和第一下行信道估计结果;
依次将上行信道估计结果输入神经网络模型,输出对应的第二下行信道估计结果,直至第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差达到预设精度为止。在实施例中,将FDD系统的无线信道场景划分为N类场景,且每个类型对应一个数据集,以进行神经网络模型的训练,是在离线的场景下进行的;而直接根据已知的训练符号实时进行上下行信道估计,并进行神经网络模型的训练,是在线的场景下进行的。
在一实施例中,在神经网络模型为复数神经网络模型、复数卷积神经网络模型或复数残差网络模型的情况下,采用复数误差反向传播算法对神经网络模型进行训练。
在一实施例中,复数误差反向传播算法,包括:
复数神经网络模型中损失函数E对于第k层全连接层的复数权值
Figure BDA00024828483200000515
和复数偏置
Figure BDA00024828483200000516
的偏导或灵敏度的计算表达式如下所示:
Figure BDA0002482848320000051
Figure BDA0002482848320000052
其中,
Figure BDA0002482848320000053
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA0002482848320000054
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA0002482848320000055
Figure BDA0002482848320000056
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
在一实施例中,复数误差反向传播算法,包括:
复数神经网络模型中损失函数E对于第k层卷积层的第q个卷积核(Kernel)的复数权值
Figure BDA0002482848320000057
和复数偏置
Figure BDA0002482848320000058
的偏导数或灵敏度计算表达式如下所示:
Figure BDA0002482848320000059
Figure BDA00024828483200000510
其中,
Figure BDA00024828483200000511
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200000512
表示的第k层卷积层输出的第q个复数向量;
Figure BDA00024828483200000513
表示损失函数E对于上述
Figure BDA00024828483200000514
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
在一实现方式中,图2是本申请实施例提供的一种采用复数神经网络模型由上行估计信道进行下行信道自适应的互易过程的流程图。如图2所示,本实施例包括:S210-S240。
S210、用户设备发射上行参考信号至基站。
S220、基站根据已知的上行参考信号和实际接收的上行参考信号,估计出上行信道估计结果。
S230、基站将上行信道估计结果输入一个训练完成的复数神经网络模型,输出一个下行信道自适应矩阵。
S240、基站应用下行信道自适应矩阵对发射至用户设备的信号进行下行信道自适应处理。
在一实现方式中,图3是本申请实施例提供的一种采用复数神经网络模型由下行估计信道进行上行信道自适应的互易过程的流程图。如图3所示,本实施例包括:S310-S340。
S310、基站发射下行参考信号至用户设备。
S320、用户设备根据已知的下行参考信号和实际接收的下行参考信号,估计出下行信道估计结果。
S330、用户设备将下行信道估计结果输入一个训练完成的复数神经网络模型,输出一个上行信道自适应矩阵。
S340、用户设备应用上行信道自适应矩阵对发射至基站的信号进行上行信道自适应处理。
基站或用户设备采用复数神经网络模型对上下行信道进行自适应处理,保证了信道状态信息的实时性和准确性。图4是本申请实施例提供的一种采用复数卷积神经网络进行上下行信道互易的结果示意图。如图4所示,在30径仅幅度随机的信道数据集中,假设12000个采样,其中,4800个新样本的性能测试准确率达到99.15%,6000个新样本的性能测试准确率达到99.98%;在30径仅相位随机的信道数据集中,假设12000个采样,其中,3000个新样本的性能测试准确率达到98.43%,5000个新样本的性能测试准确率达到99.40%;在30径幅度和相位均随机的信道数据集中,假设12000个采样,其中,3200个新样本的性能测试准确率达到99.75%,4000个新样本的性能测试准确率达到99.69%。
在一实现方式中,以第一通信节点为执行主体,以及以神经网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第一通信节点可以为基站。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,基站侧根据用户设备所发射的上行参考信号估计出上行信道估计结果HUL
步骤2,基站将上行估计信道结果HUL输入一个训练完成的神经网络(NeuralNetwork,NN)模型,输出一个下行信道自适应矩阵HDL,神经网络模型的输入和输出关系式如下所示:
HDL=NN1(HUL)
其中,神经网络模型的训练包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,计算获取每一类场景的上行信道估计结果
Figure BDA0002482848320000061
和下行信道估计结果
Figure BDA0002482848320000062
组成数据集的条目,即数据对
Figure BDA0002482848320000063
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入神经网络模型进行训练;将数据集条目中的
Figure BDA0002482848320000064
作为神经网络模型的输入,条目中的
Figure BDA0002482848320000065
作为神经网络模型的预期输出或训练标签。训练完成或终止条件是:神经网络模型对所有数据集的
Figure BDA0002482848320000066
作为输入所产生的输出,均与数据集的训练标签
Figure BDA0002482848320000067
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到对应的上行信道估计结果
Figure BDA0002482848320000071
和下行信道估计结果
Figure BDA0002482848320000072
其中,
Figure BDA0002482848320000073
作为神经网络模型的输入,
Figure BDA0002482848320000074
作为神经网络模型的训练标签,将二者实时代入神经网络模型进行训练。训练完成或终止条件是:神经网络模型对实时输入的
Figure BDA0002482848320000075
所产生的实时输出,与对应的训练标签
Figure BDA0002482848320000076
之间的误差达到指定的精度要求。
步骤3,基站对下行发射信号应用下行信道自适应矩阵HDL,完成下行信道自适应处理。
在一实现方式中,以第二通信节点为执行主体,以及以神经网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第二通信节点可以为用户设备。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,用户设备侧根据基站所发射的下行参考信号估计出下行信道估计结果HDL
步骤2,用户设备将下行信道估计结果HDL输入一个训练完成的神经网络(NeuralNetwork,NN)模型,输出一个上行信道自适应矩阵HUL,神经网络模型的输入和输出关系式如下所示:
HUL=NN2(HDL)
其中,神经网络模型的训练包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA0002482848320000077
和下行信道估计结果
Figure BDA0002482848320000078
组成数据集的条目,即数据对
Figure BDA0002482848320000079
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入神经网络模型进行训练;将数据集条目中的
Figure BDA00024828483200000710
作为所述神经网络的输入,条目中的
Figure BDA00024828483200000711
作为神经网络模型的预期输出或训练标签。训练完成或终止条件是:神经网络模型对所有数据集的
Figure BDA00024828483200000712
作为输入所产生的输出,均与数据集的训练标签
Figure BDA00024828483200000713
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计出上行信道结果
Figure BDA00024828483200000714
和下行信道结果
Figure BDA00024828483200000715
其中,
Figure BDA00024828483200000716
作为神经网络模型的输入,
Figure BDA00024828483200000717
作为神经网络模型的训练标签,将二者实时代入神经网络模型进行训练。训练完成或终止条件是:神经网络模型对实时输入的
Figure BDA00024828483200000718
所产生的实时输出,与对应的训练标签
Figure BDA00024828483200000719
之间的误差达到指定的精度要求。
步骤3,用户设备对上行发射信号应用上行信道自适应矩阵HUL,完成上行信道自适应处理。
在一实现方式中,以第一通信节点为执行主体,以及神经网络模型为复数神经网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第一通信节点可以为基站。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,基站侧根据用户设备所发射的上行参考信号估计出上行信道估计结果HUL
步骤2,基站将上行信道估计结果HUL输入一个训练完成的复数神经网络(ComplexNeural Network,ComplexNN)模型,输出一个下行信道自适应矩阵HDL,复数神经网络模型的输入和输出关系式如下所示:
HDL=ComplexNN1(HUL)
其中,复数神经网络模型是神经网络模型中的一种,复数包括实部(Real Part)和虚部(Imaginary Part)两部分,且通常指虚部不为0的情形,以与实数相区分;该复数神经网络模型的输入和输出均为复数的变量、向量、矩阵或张量;该复数神经网络模型的各层(Layer)的神经元激活函数和所有其他处理函数的输入和输出也均为复数的变量、向量、矩阵或张量;该复数神经网络模型使用复数误差反向传播算法(Complex Error BackPropagation Algorithm,Complex BP)进行训练。
所述的复数误差反向传播算法具体包括但不限于:
复数神经网络模型中损失函数E对于第k层全连接层(Full-Connected Layer)的复数权值
Figure BDA0002482848320000081
和复数偏置
Figure BDA0002482848320000082
的偏导或灵敏度表达式,如下所示:
Figure BDA0002482848320000083
Figure BDA0002482848320000084
其中,
Figure BDA0002482848320000085
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA0002482848320000086
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA0002482848320000087
Figure BDA0002482848320000088
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
复数神经网络模型中损失函数E对于第k层卷积层(Convolutional Layer)的第q个卷积核的复数权值
Figure BDA0002482848320000089
和复数偏置
Figure BDA00024828483200000810
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200000811
Figure BDA00024828483200000812
其中,
Figure BDA00024828483200000813
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200000814
表示第k层卷积层输出的第q个复数向量;
Figure BDA00024828483200000815
表示损失函数E对于上述
Figure BDA00024828483200000816
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
复数神经网络模型的训练,包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA00024828483200000817
和下行信道的估计结果
Figure BDA00024828483200000818
组成数据集的条目,即数据对
Figure BDA00024828483200000819
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入复数神经网络模型进行训练,训练过程包括:将数据集条目中的
Figure BDA00024828483200000820
作为复数神经网络模型的输入,条目中的
Figure BDA00024828483200000821
作为复数神经网络模型的预期输出或训练标签。训练完成或终止条件是:复数神经网络模型对所有数据集的
Figure BDA00024828483200000822
作为输入所产生的输出,均与数据集的训练标签
Figure BDA00024828483200000823
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到对应的上行信道估计结果和下行信道估计结果
Figure BDA00024828483200000825
其中,
Figure BDA00024828483200000826
作为复数神经网络模型的输入,
Figure BDA00024828483200000827
作为复数神经网络模型的训练标签,将二者实时代入复数神经网络模型进行训练。训练完成或终止条件是:复数神经网络模型对实时输入的
Figure BDA00024828483200000828
所产生的输出,与实时获得的训练标签
Figure BDA00024828483200000829
之间的误差达到指定的精度要求。
步骤3,基站对下行发射信号应用下行信道自适应矩阵HDL,完成下行信道自适应处理。
在一实现方式中,以第二通信节点为执行主体,以及以神经网络模型为复数神经网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第二通信节点可以为用户设备。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,用户设备侧根据基站所发射的下行参考信号估计出下行信道估计结果HDL
步骤2,用户设备将下行信道估计结果HDL输入一个训练完成的复数神经网络模型,输出一个上行信道自适应矩阵HUL,复数神经网络模型的输入和输出关系式如下所示:
HUL=ComplexNN2(HDL)
其中,复数神经网络模型是神经网络模型中的一种,复数包括实部(Real Part)和虚部(Imaginary Part)两部分,且通常指虚部不为0的情形,以与实数相区分;该复数神经网络模型的输入和输出均为复数的变量、向量、矩阵或张量;该复数神经网络模型中各层的神经元激活函数和所有其他处理函数的输入和输出也均为复数的变量、向量、矩阵或张量;该复数神经网络模型的训练算法也是复数误差反向传播算法。
所述的复数误差反向传播算法具体包括但不限于:
复数神经网络模型中损失函数E对于第k层全连接层(Full-Connected Layer)的复数权值
Figure BDA0002482848320000091
和复数偏置
Figure BDA0002482848320000092
的偏导或灵敏度表达式,如下所示:
Figure BDA0002482848320000093
Figure BDA0002482848320000094
其中,
Figure BDA0002482848320000095
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA0002482848320000096
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA0002482848320000097
Figure BDA0002482848320000098
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
复数神经网络模型中损失函数E对于第k层卷积层(Convolutional Layer)的第q个卷积核的复数权值
Figure BDA0002482848320000099
和复数偏置
Figure BDA00024828483200000910
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200000911
Figure BDA00024828483200000912
其中,
Figure BDA00024828483200000913
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200000914
表示卷积层的第k层输出的第q个复数向量;
Figure BDA00024828483200000915
表示损失函数E对于上述
Figure BDA00024828483200000916
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
复数神经网络模型的训练,包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA00024828483200000917
和下行信道估计结果
Figure BDA00024828483200000918
组成数据集的条目,即数据对
Figure BDA00024828483200000919
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入复数神经网络模型进行训练,训练过程包括:将数据集条目中的
Figure BDA00024828483200000920
作为复数神经网络模型的输入,条目中的
Figure BDA00024828483200000921
作为复数神经网络模型的预期输出或训练标签。训练完成或终止条件是:复数神经网络模型对所有数据集的
Figure BDA00024828483200000922
作为输入所产生的输出,均与数据集的训练标签
Figure BDA0002482848320000101
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到上行信道估计结果
Figure BDA0002482848320000102
和下行信道估计结果
Figure BDA0002482848320000103
其中,
Figure BDA0002482848320000104
作为复数神经网络的输入,
Figure BDA0002482848320000105
作为训练标签,将二者实时代入复数神经网络进行训练。训练完成或终止条件是:复数神经网络对实时输入的
Figure BDA0002482848320000106
所产生的输出,与实时获得的训练标签
Figure BDA0002482848320000107
达到指定的误差精度要求。
步骤3,用户设备对上行发射信号应用上行信道自适应矩阵HUL,完成上行信道自适应处理。
在一实现方式中,以第一通信节点为执行主体,以及神经网络模型为复数卷积神经网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第一通信节点可以为基站。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,基站根据用户设备所发射的探测参考信号估计出上行信道估计结果HUL
步骤2,基站将上行信道估计结果HUL输入一个训练完成的复数卷积神经网络(Complex Convolutional Neural Network,ComplexCNN)模型,输出一个下行信道自适应矩阵HDL,复数卷积神经网络模型的输入和输出关系式如下所示:
HDL=ComplexCNN1(HUL)
其中,复数卷积神经网络模型是复数神经网络模型的一种,该复数卷积神经网络模型的输入和输出均为复数的变量、向量、矩阵或张量;该复数卷积神经网络模型中各层(Layer)的神经元激活函数和所有其他处理函数(包括卷积层的卷积运算)的输入和输出也均为复数的变量、向量、矩阵或张量;该复数卷积神经网络模型的训练算法也是复数误差反向传播算法(Complex Error Back Propagation Algorithm,Complex BP)。
复数误差反向传播算法具体包括但不限于:
复数神经网络模型中损失函数E对于第k层全连接层(Full-Connected Layer)的复数权值
Figure BDA0002482848320000108
和复数偏置
Figure BDA0002482848320000109
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200001010
Figure BDA00024828483200001011
其中,
Figure BDA00024828483200001012
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA00024828483200001013
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA00024828483200001014
Figure BDA00024828483200001015
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
复数神经网络模型中损失函数E对于第k层卷积层(Convolutional Layer)的第q个卷积核的复数权值
Figure BDA00024828483200001016
和复数偏置
Figure BDA00024828483200001017
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200001018
Figure BDA00024828483200001019
其中,
Figure BDA00024828483200001020
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200001021
表示卷积层的第k层输出的第q个复数向量;
Figure BDA0002482848320000111
表示损失函数E对于上述
Figure BDA0002482848320000112
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
复数卷积神经网络模型的训练,包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA0002482848320000113
和下行信道的估计结果
Figure BDA0002482848320000114
组成数据集的条目,即数据对
Figure BDA0002482848320000115
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入复数卷积神经网络模型进行训练,训练过程包括:将数据集条目中的
Figure BDA0002482848320000116
作为复数卷积神经网络模型的输入,条目中的
Figure BDA0002482848320000117
作为复数卷积神经网络模型的预期输出或训练标签。训练完成或终止条件是:复数卷积神经网络模型对所有数据集的
Figure BDA0002482848320000118
作为输入所产生的输出,均与数据集的训练标签
Figure BDA0002482848320000119
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到对应的上行信道估计结果
Figure BDA00024828483200001110
和下行信道估计结果
Figure BDA00024828483200001111
其中,
Figure BDA00024828483200001112
作为复数卷积神经网络模型的输入,
Figure BDA00024828483200001113
作为复数卷积神经网络模型的训练标签,将二者实时代入复数卷积神经网络模型进行训练。训练完成或终止条件是:复数卷积神经网络模型对实时输入的
Figure BDA00024828483200001114
所产生的输出,与实时获得的训练标签
Figure BDA00024828483200001115
之间的误差达到指定的精度要求。
步骤3,基站对下行发射信号应用下行信道自适应矩阵HDL,完成一次下行信道自适应处理。
在一实现方式中,以第二通信节点为执行主体,以及以神经网络模型为复数卷积神经网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第二通信节点可以为用户设备。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,用户设备侧根据基站所发射的下行参考信号估计出下行信道估计结果HDL
步骤2,用户设备将下行信道估计结果HDL输入一个训练完成的复数卷积神经网络模型,输出一个上行信道自适应矩阵HUL,复数卷积神经网络模型的输入和输出关系式如下所示:
HUL=ComplexCNN2(HDL)
其中,复数卷积神经网络模型是复数神经网络模型的一种,该复数卷积神经网络模型的输入和输出均为复数的变量、向量、矩阵或张量;该复数卷积神经网络模型中各层(Layer)的神经元激活函数和所有其他处理函数(包括卷积层的卷积运算)的输入和输出也均为复数的变量、向量、矩阵或张量;该复数卷积神经网络模型的训练算法也是复数误差反向传播算法。
复数误差反向传播算法具体包括但不限于:
复数卷积神经网络模型中损失函数E对于第k层全连接层的复数权值
Figure BDA00024828483200001116
和复数偏置
Figure BDA00024828483200001117
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200001118
Figure BDA00024828483200001119
其中,
Figure BDA00024828483200001120
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA00024828483200001121
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA00024828483200001122
Figure BDA00024828483200001123
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
复数神经网络模型中损失函数E对于第k层卷积层的第q个卷积核(Kernel)的复数权值
Figure BDA0002482848320000121
和复数偏置
Figure BDA0002482848320000122
的偏导或灵敏度表达式,如下所示:
Figure BDA0002482848320000123
Figure BDA0002482848320000124
其中,
Figure BDA0002482848320000125
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA0002482848320000126
表示卷积层的第k层输出的第q个复数向量;
Figure BDA0002482848320000127
表示损失函数E对于上述
Figure BDA0002482848320000128
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
复数卷积神经网络模型的训练,包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA0002482848320000129
和下行信道估计结果
Figure BDA00024828483200001210
组成数据集的条目,即数据对
Figure BDA00024828483200001211
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入复数卷积神经网络模型进行训练,训练过程包括:将数据集条目中的
Figure BDA00024828483200001212
作为复数卷积神经网络的输入,条目中的
Figure BDA00024828483200001213
作为复数卷积神经网络模型的预期输出或训练标签。训练完成或终止条件是:复数卷积神经网络模型对所有数据集的
Figure BDA00024828483200001214
作为输入所产生的输出,均与数据集的训练标签
Figure BDA00024828483200001215
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到上行信道估计结果
Figure BDA00024828483200001216
和下行信道估计结果
Figure BDA00024828483200001217
其中,
Figure BDA00024828483200001218
作为复数卷积神经网络的输入,
Figure BDA00024828483200001219
作为训练标签,将二者实时代入复数卷积神经网络模型进行训练。训练完成或终止条件是:复数卷积神经网络模型对实时输入的
Figure BDA00024828483200001220
所产生的输出,与实时获得的训练标签
Figure BDA00024828483200001221
达到指定的误差精度要求。
步骤3,用户设备对上行发射信号应用上行信道自适应矩阵HUL,完成上行信道自适应处理。
在一实现方式中,以第一通信节点为执行主体,以及神经网络模型为复数残差网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第一通信节点可以为基站。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,基站根据用户设备所发射的探测参考信号估计出上行信道估计结果HUL
步骤2,基站将上行估计信道估计结果HUL输入一个训练完成的复数残差网络(Complex ResNet,ComplexResNet)模型,输出一个下行信道自适应矩阵HDL,复数残差网络的输入和输出关系式如下所示:
HDL=ComplexResNet1(HUL)
其中,复数残差网络模型是复数卷积神经网络模型的一种,该复数残差网络模型的输入和输出均为复数的变量、向量、矩阵或张量;该复数残差网络模型中各层(Layer)的神经元激活函数和所有其他处理函数的输入和输出也均为复数的变量、向量、矩阵或张量;该复数残差网络模型的训练算法也是复数误差反向传播算法。
复数误差反向传播算法具体包括但不限于:
复数残差网络模型中损失函数E对于第k层全连接层的复数权值
Figure BDA0002482848320000131
和复数偏置
Figure BDA0002482848320000132
的偏导或灵敏度表达式,如下所示:
Figure BDA0002482848320000133
Figure BDA0002482848320000134
其中,
Figure BDA0002482848320000135
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA0002482848320000136
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA0002482848320000137
Figure BDA0002482848320000138
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
复数残差网络模型中损失函数E对于第k层卷积层的第q个卷积核的复数权值
Figure BDA0002482848320000139
和复数偏置
Figure BDA00024828483200001310
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200001311
Figure BDA00024828483200001312
其中,
Figure BDA00024828483200001313
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200001314
表示卷积层的第k层输出的第q个复数向量;
Figure BDA00024828483200001315
表示损失函数E对于上述
Figure BDA00024828483200001316
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
复数残差网络模型的训练,包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA00024828483200001317
和下行信道估计结果
Figure BDA00024828483200001318
组成数据集的条目,即数据对
Figure BDA00024828483200001319
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入复数残差网络模型进行训练,训练过程包括:将数据集条目中的
Figure BDA00024828483200001320
作为复数残差网络模型的输入,条目中的
Figure BDA00024828483200001321
作为复数残差网络模型的预期输出或训练标签。训练完成或终止条件是:复数残差网络模型对所有数据集的
Figure BDA00024828483200001322
作为输入所产生的输出,均与数据集的训练标签
Figure BDA00024828483200001323
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到对应的上行信道估计结果
Figure BDA00024828483200001324
和下行信道估计结果
Figure BDA00024828483200001325
其中,
Figure BDA00024828483200001326
作为复数残差网络模型的输入,
Figure BDA00024828483200001327
作为复数残差网络模型的训练标签,将二者实时代入复数残差网络模型进行训练。训练完成或终止条件是:复数残差网络对实时输入的
Figure BDA00024828483200001328
所产生的输出,与实时获得的训练标签
Figure BDA00024828483200001329
之间的误差达到指定的精度要求。
步骤3,基站对下行发射信号应用下行信道自适应矩阵HDL,完成一次下行信道自适应处理。
在一实现方式中,以第二通信节点为执行主体,以及以神经网络模型为复数残差网络模型为例,对FDD系统上下行信道互易的实现过程进行说明。示例性地,第二通信节点可以为用户设备。在实施例中,上下行信道互易的实现方法包括以下步骤:
步骤1,用户设备侧根据基站所发射的下行参考信号估计出下行信道估计结果HDL
步骤2,用户设备将下行信道估计结果HDL输入一个训练完成的复数残差网络模型,输出一个上行信道自适应矩阵HUL,复数残差网络模型的输入和输出关系式如下所示:
HUL=ComplexResNet2(HDL)
其中,所述复数残差网络模型是复数神经网络模型的一种,该复数残差网络模型的输入和输出均为复数的变量、向量、矩阵或张量;该复数残差网络模型中各层(Layer)的神经元激活函数和所有其他处理函数的输入和输出也均为复数的变量、向量、矩阵或张量;该复数残差网络模型的训练算法也是复数误差反向传播算法。
复数误差反向传播算法具体包括但不限于:
复数残差网络模型中损失函数E对于第k层全连接层(Full-Connected Layer)的复数权值
Figure BDA0002482848320000141
和复数偏置
Figure BDA0002482848320000142
的偏导或灵敏度表达式,如下所示:
Figure BDA0002482848320000143
Figure BDA0002482848320000144
其中,
Figure BDA0002482848320000145
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA0002482848320000146
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA0002482848320000147
Figure BDA0002482848320000148
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
复数残差网络模型中损失函数E对于第k层卷积层的第q个卷积核的复数权值
Figure BDA0002482848320000149
和复数偏置
Figure BDA00024828483200001410
的偏导或灵敏度表达式,如下所示:
Figure BDA00024828483200001411
Figure BDA00024828483200001412
其中,
Figure BDA00024828483200001413
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200001414
表示卷积层的第k层输出的第q个复数向量;
Figure BDA00024828483200001415
表示损失函数E对于上述
Figure BDA00024828483200001416
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
复数残差网络模型的训练,包括但不限于如下两种方式:
一种方式是:将FDD系统的无线信道场景分为N类,并基于基站侧和用户设备侧两端均已知的训练符号,来计算获取每一类场景的上行信道估计结果
Figure BDA00024828483200001417
和下行信道估计结果
Figure BDA00024828483200001418
组成数据集的条目,即数据对
Figure BDA00024828483200001419
N类场景将对应N个数据集,每个数据集可以有M个条目。将N个数据集代入复数残差网络模型进行训练,训练过程包括:将数据集条目中的
Figure BDA00024828483200001420
作为复数残差网络的输入,条目中的
Figure BDA00024828483200001421
作为复数残差网络的预期输出或训练标签。训练完成或终止条件是:复数残差网络模型对所有数据集的
Figure BDA00024828483200001422
作为输入所产生的输出,均与数据集的训练标签
Figure BDA00024828483200001423
之间的误差能够达到指定的精度要求。
另一种方式是:基站侧和用户设备侧基于已知的训练符号,实时估计上行信道和下行信道,得到上行信道估计结果
Figure BDA00024828483200001424
和下行信道估计结果
Figure BDA00024828483200001425
其中,
Figure BDA00024828483200001426
作为复数残差网络模型的输入,
Figure BDA0002482848320000151
作为训练标签,将二者实时代入复数残差网络进行训练。训练完成或终止条件是:复数残差网络模型对实时输入的
Figure BDA0002482848320000152
所产生的输出,与实时获得的训练标签
Figure BDA0002482848320000153
达到指定的误差精度要求。
步骤3,用户设备对上行发射信号应用上行信道自适应矩阵HUL,完成上行信道自适应处理。
图5是本申请实施例提供的一种上下行信道互易的实现装置的结构框图。如图5所示,本实施例包括:估计器410、输入器420和应用处理器430。
估计器410,配置为根据接收到的参考信号实时进行信道估计,得到信道估计结果;
输入器420,配置为将信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵;
应用处理器430,配置为对发射信号应用信道自适应矩阵,进行信道自适应处理。
本实施例提供的上下行信道互易的实现装置设置为实现图1所示实施例的上下行信道互易的实现方法,本实施例提供的上下行信道互易的实现装置实现原理和技术效果类似,此处不再赘述。
在一实施例中,在通信节点为第一通信节点的情况下,参考信号为上行参考信号;信道估计为上行信道估计;信道估计结果为上行信道估计结果;信道自适应矩阵为下行信道自适应矩阵;信道自适应处理为下行信道自适应处理。
在一实施例中,在通信节点为第二通信节点的情况下,参考信号为下行参考信号;信道估计为下行信道估计;信道估计结果为下行信道估计结果;信道自适应矩阵为上行信道自适应矩阵;信道自适应处理为上行信道自适应处理。
在一实施例中,神经网络模型包括:复数神经网络模型;复数神经网络模型包括:复数卷积神经网络模型;复数卷积神经网络包括:复数残差神经网络模型。
在一实施例中,神经网络模型的训练过程,包括:
将通信节点所在频分双工FDD系统的无线信道场景划分为N类场景,N为大于等于1的正整数;
根据已知的训练符号进行每类场景的上行信道估计和下行信道估计,得到上行信道估计结果和第一下行信道估计结果;
依次将每类场景所对应数据集中每个条目的上行信道估计结果输入至神经网络模型,输出对应的第二下行信道估计结果,直至第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差达到预设精度为止;条目为由上行信道估计结果和第一下行信道估计结果组成的数据对。
在一实施例中,神经网络模型的训练过程,包括:
根据已知的训练符号实时进行上行信道估计和下行信道估计,得到上行信道估计结果和第一下行信道估计结果;
依次将上行信道估计结果输入神经网络模型,输出对应的第二下行信道估计结果,直至第二下行信道估计结果与作为训练标签的第一下行信道估计结果之间的误差达到预设精度为止。
在一实施例中,在神经网络模型为复数神经网络模型、复数卷积神经网络模型或复数残差网络模型的情况下,采用复数误差反向传播算法对神经网络模型进行训练。
在一实施例中,复数误差反向传播算法,包括:
复数神经网络模型中损失函数E对于第k层全连接层的复数权值
Figure BDA0002482848320000161
和复数偏置
Figure BDA0002482848320000162
的偏导或灵敏度的计算表达式如下所示:
Figure BDA0002482848320000163
Figure BDA0002482848320000164
其中,
Figure BDA0002482848320000165
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure BDA0002482848320000166
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure BDA0002482848320000167
Figure BDA0002482848320000168
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
在一实施例中,复数误差反向传播算法,包括:
复数神经网络模型中损失函数E对于第k层卷积层的第q个卷积核的复数权值
Figure BDA0002482848320000169
和复数偏置
Figure BDA00024828483200001610
的偏导数或灵敏度计算表达式如下所示:
Figure BDA00024828483200001611
Figure BDA00024828483200001612
其中,
Figure BDA00024828483200001613
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure BDA00024828483200001614
表示卷积层的第k层输出的第q个复数向量;
Figure BDA00024828483200001615
表示损失函数E对于上述
Figure BDA00024828483200001616
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置;p和q均为大于等于1的正整数。
图6是本申请实施例提供的一种通信节点的结构示意图。如图6所示,本申请提供的通信节点,包括:处理器510、存储器520和通信模块530。该通信节点中处理器510的数量可以是一个或者多个,图6中以一个处理器510为例。该通信节点中存储器520的数量可以是一个或者多个,图6中以一个存储器520为例。该通信节点的处理器510、存储器520和通信模块530可以通过总线或者其他方式连接,图6中以通过总线连接为例。在该实施例中,该通信节点为可以为第一通信节点,可以为第二通信节点等。
存储器520作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序以及模块,如本申请任意实施例的通信节点对应的程序指令/模块(例如,上下行信道互易的实现装置中的估计器、输入器和应用处理器)。存储器520可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器520可进一步包括相对于处理器510远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信模块530,配置为用于与其它同步节点进行通信交互。
上述提供的通信节点可设置为执行上述任意实施例提供的上下行信道互易的实现方法,具备相应的功能和效果。
本申请实施例还提供一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行一种上下行信道互易的实现方法,该方法包括:根据接收到的参考信号实时进行信道估计,得到信道估计结果;将信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵;对发射信号应用信道自适应矩阵,进行信道自适应处理。
本领域内的技术人员应明白,术语用户设备涵盖任何适合类型的无线用户设备,例如移动电话、便携数据处理装置、便携网络浏览器或车载移动台。
一般来说,本申请的多种实施例可以在硬件或专用电路、软件、逻辑或其任何组合中实现。例如,一些方面可以被实现在硬件中,而其它方面可以被实现在可以被控制器、微处理器或其它计算装置执行的固件或软件中,尽管本申请不限于此。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(Instruction Set Architecture,ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码。
本申请附图中的任何逻辑流程的框图可以表示程序步骤,或者可以表示相互连接的逻辑电路、模块和功能,或者可以表示程序步骤与逻辑电路、模块和功能的组合。计算机程序可以存储在存储器上。存储器可以具有任何适合于本地技术环境的类型并且可以使用任何适合的数据存储技术实现,例如但不限于只读存储器(Read-Only Memory,ROM)、随机访问存储器(Random Access Memory,RAM)、光存储器装置和系统(数码多功能光碟(Digital Video Disc,DVD)或光盘(Compact Disk,CD))等。计算机可读介质可以包括非瞬时性存储介质。数据处理器可以是任何适合于本地技术环境的类型,例如但不限于通用计算机、专用计算机、微处理器、数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑器件(Field-Programmable Gate Array,FGPA)以及基于多核处理器架构的处理器。
以上所述,仅为本申请的示例性实施例而已,应被理解为本发明的保护范围并不局限于这样的陈述和实施例。本领域的相关人员通过非创造性的劳动进行的修改和变动都属于本专利的保护范围。

Claims (11)

1.一种上下行信道互易的实现方法,其特征在于,应用于通信节点,包括:
根据接收到的参考信号实时进行信道估计,得到信道估计结果;
将所述信道估计结果输入至预先训练的神经网络模型,输出信道自适应矩阵;
对发射信号应用所述信道自适应矩阵,进行信道自适应处理。
2.根据权利要求1所述的方法,其特征在于,在所述通信节点为第一通信节点的情况下,所述参考信号为上行参考信号;所述信道估计为上行信道估计;所述信道估计结果为上行信道估计结果;所述信道自适应矩阵为下行信道自适应矩阵;所述信道自适应处理为下行信道自适应处理。
3.根据权利要求1所述的方法,其特征在于,在所述通信节点为第二通信节点的情况下,所述参考信号为下行参考信号;所述信道估计为下行信道估计;所述信道估计结果为下行信道估计结果;所述信道自适应矩阵为上行信道自适应矩阵;所述信道自适应处理为上行信道自适应处理。
4.根据权利要求1所述的方法,其特征在于,所述神经网络模型包括:复数神经网络模型;所述复数神经网络模型包括:复数卷积神经网络模型;所述复数卷积神经网络包括:复数残差神经网络模型。
5.根据权利要求1-4任一所述的方法,其特征在于,所述神经网络模型的训练过程,包括:
将所述通信节点所在频分双工FDD系统的无线信道场景划分为N类场景,N为大于等于1的正整数;
根据已知的训练符号进行每类场景的上行信道估计和下行信道估计,得到上行信道估计结果和第一下行信道估计结果;
依次将每类场景所对应数据集中每个条目的所述上行信道估计结果输入至所述神经网络模型,输出对应的第二下行信道估计结果,直至所述第二下行信道估计结果与作为训练标签的所述第一下行信道估计结果之间的误差达到预设精度为止;所述条目为由所述上行信道估计结果和所述第一下行信道估计结果组成的数据对。
6.根据权利要求1-4任一所述的方法,其特征在于,所述神经网络模型的训练过程,包括:
根据已知的训练符号实时进行上行信道估计和下行信道估计,得到上行信道估计结果和第一下行信道估计结果;
依次将所述上行信道估计结果输入所述神经网络模型,输出对应的第二下行信道估计结果,直至所述第二下行信道估计结果与作为训练标签的所述第一下行信道估计结果之间的误差达到预设精度为止。
7.根据权利要求4所述的方法,其特征在于,在所述神经网络模型为复数神经网络模型、复数卷积神经网络模型或复数残差网络模型的情况下,采用复数误差反向传播算法对所述神经网络模型进行训练。
8.根据权利要求7所述的方法,其特征在于,所述复数误差反向传播算法,包括:
所述复数神经网络模型中损失函数E对于第k层全连接层的复数权值
Figure FDA0002482848310000011
和复数偏置
Figure FDA0002482848310000012
的偏导或灵敏度的计算表达式如下所示:
Figure FDA0002482848310000021
Figure FDA0002482848310000022
其中,
Figure FDA0002482848310000023
表示从复数神经网络模型的第j层的第u个神经元到第k层的第v个神经元连接的复数权值;
Figure FDA0002482848310000024
表示复数神经网络模型的第k层的第v个神经元的偏置量;
Figure FDA0002482848310000025
Figure FDA0002482848310000026
分别表示网络第j层的第u个神经元和第k层的第v个神经元的输出复数信号;f'(·)表示神经元激活函数对输入信号的导数;conj(·)表示对复数的共轭运算。
9.根据权利要求7所述的方法,其特征在于,所述复数误差反向传播算法,包括:
所述复数神经网络模型中损失函数E对于第k层卷积层的第q个卷积核的复数权值
Figure FDA0002482848310000027
和复数偏置
Figure FDA0002482848310000028
的偏导数或灵敏度计算表达式如下所示:
Figure FDA0002482848310000029
Figure FDA00024828483100000210
其中,
Figure FDA00024828483100000211
表示该卷积层的前一层第j层输出的第p个复数向量;
Figure FDA00024828483100000212
表示第k层卷积层输出的第q个复数向量;
Figure FDA00024828483100000213
表示所述损失函数E对于上述
Figure FDA00024828483100000214
的偏导数或灵敏度;Conv(·)表示卷积运算;Fliplr(·)表示对输入向量做位置反置。
10.一种通信节点,其特征在于,包括:通信模块,存储器,以及一个或多个处理器;
所述通信模块,配置为在至少两个通信节点之间进行通信交互;
所述存储器,配置为存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
11.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-9任一项所述的方法。
CN202010383236.3A 2020-05-08 2020-05-08 上下行信道互易的实现方法、通信节点和存储介质 Pending CN111901258A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010383236.3A CN111901258A (zh) 2020-05-08 2020-05-08 上下行信道互易的实现方法、通信节点和存储介质
US17/923,985 US20230179451A1 (en) 2020-05-08 2021-03-04 Method for implementing uplink and downlink channel reciprocity, communication node, and storage medium
EP21800355.6A EP4149067A4 (en) 2020-05-08 2021-03-04 METHOD FOR IMPLEMENTING RECIPROCITY OF AN UPLINK AND DOWNLINK CHANNEL, COMMUNICATION NODE AND STORAGE MEDIUM
PCT/CN2021/079070 WO2021223504A1 (zh) 2020-05-08 2021-03-04 上下行信道互易的实现方法、通信节点和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010383236.3A CN111901258A (zh) 2020-05-08 2020-05-08 上下行信道互易的实现方法、通信节点和存储介质

Publications (1)

Publication Number Publication Date
CN111901258A true CN111901258A (zh) 2020-11-06

Family

ID=73207518

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010383236.3A Pending CN111901258A (zh) 2020-05-08 2020-05-08 上下行信道互易的实现方法、通信节点和存储介质

Country Status (4)

Country Link
US (1) US20230179451A1 (zh)
EP (1) EP4149067A4 (zh)
CN (1) CN111901258A (zh)
WO (1) WO2021223504A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446556A (zh) * 2021-01-27 2021-03-05 电子科技大学 基于表示学习和行为特征的通信网用户呼叫对象预测方法
WO2021223504A1 (zh) * 2020-05-08 2021-11-11 中兴通讯股份有限公司 上下行信道互易的实现方法、通信节点和存储介质
CN114867013A (zh) * 2022-04-21 2022-08-05 中国电信股份有限公司 密钥生成方法、装置、电子设备及存储介质
CN115085836A (zh) * 2022-06-14 2022-09-20 华南理工大学 信道状态信息预测系统的设计方法、装置、设备及介质
CN115242581A (zh) * 2022-06-16 2022-10-25 电子科技大学(深圳)高等研究院 卷积神经网络的sub-6GHz辅助mmWave信道估计方法、装置及电子设备
WO2023092307A1 (zh) * 2021-11-23 2023-06-01 Oppo广东移动通信有限公司 通信方法、模型训练方法和设备
WO2023103927A1 (zh) * 2021-12-08 2023-06-15 中兴通讯股份有限公司 信息发送方法、通信节点及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117220728A (zh) * 2022-05-31 2023-12-12 华为技术有限公司 一种模型应用方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10250309B2 (en) * 2016-03-24 2019-04-02 Huawei Technologies, Co., Ltd. System and method for downlink channel estimation in massive multiple-input-multiple-output (MIMO)
JP6801529B2 (ja) * 2017-03-09 2020-12-16 沖電気工業株式会社 情報処理装置、情報処理方法、およびプログラム
CN108833313A (zh) * 2018-07-12 2018-11-16 北京邮电大学 一种基于卷积神经网络的无线信道估计方法及装置
CN109379120A (zh) * 2018-12-11 2019-02-22 深圳大学 链路自适应方法、电子装置及计算机可读存储介质
CN110365613A (zh) * 2019-07-01 2019-10-22 重庆大学 一种基于神经网络预测的信道估计方法
CN110266620B (zh) * 2019-07-08 2020-06-30 电子科技大学 基于卷积神经网络的3d mimo-ofdm系统信道估计方法
CN111901258A (zh) * 2020-05-08 2020-11-06 中兴通讯股份有限公司 上下行信道互易的实现方法、通信节点和存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021223504A1 (zh) * 2020-05-08 2021-11-11 中兴通讯股份有限公司 上下行信道互易的实现方法、通信节点和存储介质
CN112446556A (zh) * 2021-01-27 2021-03-05 电子科技大学 基于表示学习和行为特征的通信网用户呼叫对象预测方法
WO2023092307A1 (zh) * 2021-11-23 2023-06-01 Oppo广东移动通信有限公司 通信方法、模型训练方法和设备
WO2023103927A1 (zh) * 2021-12-08 2023-06-15 中兴通讯股份有限公司 信息发送方法、通信节点及存储介质
CN114867013A (zh) * 2022-04-21 2022-08-05 中国电信股份有限公司 密钥生成方法、装置、电子设备及存储介质
CN114867013B (zh) * 2022-04-21 2024-03-29 中国电信股份有限公司 密钥生成方法、装置、电子设备及存储介质
CN115085836A (zh) * 2022-06-14 2022-09-20 华南理工大学 信道状态信息预测系统的设计方法、装置、设备及介质
CN115242581A (zh) * 2022-06-16 2022-10-25 电子科技大学(深圳)高等研究院 卷积神经网络的sub-6GHz辅助mmWave信道估计方法、装置及电子设备
CN115242581B (zh) * 2022-06-16 2023-11-03 电子科技大学(深圳)高等研究院 卷积神经网络的sub-6GHz辅助mmWave信道估计方法、装置及电子设备

Also Published As

Publication number Publication date
EP4149067A4 (en) 2024-06-05
WO2021223504A1 (zh) 2021-11-11
US20230179451A1 (en) 2023-06-08
EP4149067A1 (en) 2023-03-15

Similar Documents

Publication Publication Date Title
CN111901258A (zh) 上下行信道互易的实现方法、通信节点和存储介质
KR102165645B1 (ko) 적응형 무선 통신의 학습 및 전개
CN113906719A (zh) 使用机器学习网络处理通信信号
Emami et al. Generalization error of generalized linear models in high dimensions
CN112039807A (zh) 下行信道估计方法、装置、通信设备和存储介质
CN110429965B (zh) 一种大规模多输入多输出系统上行信号检测方法
Zheng et al. Online deep neural networks for mmWave massive MIMO channel estimation with arbitrary array geometry
CN110971457B (zh) 一种基于elm的时间同步方法
Li et al. Reservoir computing meets extreme learning machine in real-time MIMO-OFDM receive processing
US20230085880A1 (en) Domain adaptation for wireless sensing
Lin et al. Accelerating Next-G Wireless Communications with FPGA-Based AI Accelerators
WO2024021620A1 (zh) Mimo系统的性能优化方法、装置、设备及存储介质
CN115037340B (zh) 信号检测方法、装置、电子设备及存储介质
Haq et al. Deep neural network augmented wireless channel estimation for preamble-based ofdm phy on zynq system on chip
CN113037409B (zh) 基于深度学习的大规模mimo系统信号检测方法
Jere et al. Theoretical foundation and design guideline for reservoir computing-based mimo-ofdm symbol detection
Godoy et al. A novel input design approach for systems with quantized output data
CN114337745A (zh) 一种模型驱动深度学习的大规模mimo信号检测方法
WO2023121659A1 (en) Communication device and method for performing communication signal processing
Yao et al. Low-complexity signal detection networks based on Gauss-Seidel iterative method for massive MIMO systems
CN105553899A (zh) 基于线性方程组求近似解的信号检测方法及装置
US20230336225A1 (en) Reporting of channel state information
CN115706684B (zh) 信道参数的估计方法、装置及存储介质
CN111917487B (zh) 激光通信干扰消除方法、装置及计算机可读存储介质
Gizzini et al. Deep Neural Network Augmented Wireless Channel Estimation for Preamble-based OFDM PHY on Zynq System on Chip

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination