CN111628946B - 一种信道估计的方法以及接收设备 - Google Patents

一种信道估计的方法以及接收设备 Download PDF

Info

Publication number
CN111628946B
CN111628946B CN201910152775.3A CN201910152775A CN111628946B CN 111628946 B CN111628946 B CN 111628946B CN 201910152775 A CN201910152775 A CN 201910152775A CN 111628946 B CN111628946 B CN 111628946B
Authority
CN
China
Prior art keywords
channel estimation
estimated
group
neural network
estimation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910152775.3A
Other languages
English (en)
Other versions
CN111628946A (zh
Inventor
沈晖
李斌
刘凌
顾佳琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201910152775.3A priority Critical patent/CN111628946B/zh
Publication of CN111628946A publication Critical patent/CN111628946A/zh
Application granted granted Critical
Publication of CN111628946B publication Critical patent/CN111628946B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0254Channel estimation channel estimation algorithms using neural network algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0256Channel estimation using minimum mean square error criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Power Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请提供一种信道估计的方法以及终端,用于通过对待估计的RE进行分组,并对每组RE组分别通过对应的神经网络进行信道估计,实现准确高效地得到信道估计的结果。该方法包括:获取接收信号,接收信号包括至少两个待估计资源单元RE,并且该至少两个待估计RE分为至少两组RE组,至少两组RE组与至少两个神经网络对应;然后获取至少一个导频RE中每个导频RE的第一信道估计值;并将第一信道估计值作为第一神经网络的输入,通过第一神经网络获取第一待估计RE的第二信道估计值,待估计RE为至少两个待估计RE中的任意一个,第一神经网络与第一待估计RE所在的第一RE组对应,第二信道估计值用于对接收信号进行处理。

Description

一种信道估计的方法以及接收设备
技术领域
本申请涉及通信领域,尤其涉及一种信道估计的方法以及接收设备。
背景技术
无线通信系统的性能很大程度上受到无线信道的影响,如阴影衰落和频率选择性衰落等等,使得发射机和接收机之间的传播路径非常复杂。无线信道并不像有线信道固定并可预见,而是具有很大的随机性,这就对接收机的设计提出了很大的挑战。信道估计的精度将直接影响整个系统的性能。为了能在接收端准确的恢复发射端的发送信号,采用了各种措施来抵抗多径效应对传输信号的影响,信道估计技术的实现需要获取无线信道的信息,如信道的阶数、多普勒频移和多径时延或者信道的冲激响应等参数。因此,信道参数估计是实现无线通信系统的一项关键技术。能否获得详细的信道信息,从而在接收端正确地解调出发射信号,是衡量一个无线通信系统性能的重要指标。因此,对于信道参数估计算法的研究是一项有重要意义的工作。
信道估计方法包括基于导频的信道估计和盲信道估计。盲信道估计是利用调制信号本身固有的、与具体承载信息比特无关的一些特征,或是采用判决反馈的方法来进行信道估计的方法。一般盲估计方法的计算复杂度较高,且可能出现相位模糊(基于子空间的方法)、误差传播(如判决反馈类方法)、收敛慢或陷入局部极小等问题。因此,通常使用基于导频的信道估计进行信道估计。
基于导频的信道估计是先根据导频估计出导频处的信道估计值,再由导频处的信道估计值进行插值或外推或者进行维纳滤波得到其他数据的信道估计值。在导频处进行信道估计的常用算法是LS信道估计或者MMSE信道估计算法。然而,LS信道估计的准确度不高,容易受噪声影响。MMSE信道估计算法需要获知信道的噪声方差等统计信息,只能先获取统计信息才能进行信道估计,仅适用于慢变信道的条件,信道估计效率较低。因此,如何准确高效地得到信道估计的结果,成为亟待解决的问题。
发明内容
本申请提供一种信道估计的方法以及终端,用于通过对待估计的RE进行分组,并对每组RE组分别通过对应的神经网络进行信道估计,实现准确高效地得到信道估计的结果。
有鉴于此,本申请第一方面提供一种信道估计的方法,包括:
获取接收信号,接收信号包括至少两个待估计资源单元RE,至少两个待估计RE分为至少两组RE组,至少两组RE组与至少两个神经网络对应;获取至少一个导频RE中每个导频RE的第一信道估计值;通过第一神经网络获取第一待估计RE的第二信道估计值,待估计RE为至少两个待估计RE中的任意一个,每个导频RE的第一信道估计值为第一神经网络的输入,第一神经网络为至少两个神经网络中与第一待估计RE所在的第一RE组对应的一个,第一RE组为至少两组RE组中的任意一组,第二信道估计值用于对接收信号进行处理。在本申请第一方面中,在获取到接收信号之后,可以将接收信号中待估计资源单元(resourceelement,RE)分为至少两组RE组,并且该至少两组RE组对应至少两个神经网络,每个神经网络都是通过与对应的RE组相关的数据进行训练后得到。然后将至少一个导频RE中每个导频RE的第一信道估计值输入值对应的神经网络,该神经网络可以输出对应的第一待估计RE的第二信道估计值。该第二信道估计值可以用于对接收信号进行处理,包括进行解码、解调等等。因此,在本申请实施例中,对待估计的RE进行分组估计,可以针对分组进行更精确地信道估计,使得到的信道估计值更准确。相当于通过分组的方式,使进行信道估计得粒度更小,得到的信道估计值更精确。并且,对神经网络输入对应的导频处的第一信道估计值,即可对每组RE组的待估计RE进行信道估计,可以快速地得到待估计RE的信道估计值,提高得到信道估计结果的效率。因此,可以实现准确高效地得到信道估计的结果。
可选地,在一种可能的实施方式中,获取至少一个导频资源单元RE中每个导频RE的第一信道估计值,可以包括:
对至少一个导频RE中每个导频RE通过LS算法进行信道估计,得到每个导频RE的第一信道估计值。在本申请实施例中,可以通过LS算法进行信道估计,可以得到导频RE的第一信道估计值,以使第一神经网络可以输出准确的待估计RE的第二信道估计值。
可选地,在一种可能的实施方式中,通过第一神经网络获取第一待估计RE的第二信道估计值,可以包括:
通过第一神经网络获取第一RE组内每个待估计RE的信道估计结果,第一RE组内每个待估计RE的信道估计结果包括第二信道估计值。在本申请实施方式中,可以通过第一神经网络输出第一RE组内每个RE的第二信道估计值,包括第一待估计RE的第二信道估计值。
可选地,在一种可能的实施方式中,
第一神经网络的输入还包括第一RE组之外的第一预置范围内的接收信号。在本申请实施方式中,除了可以对第一神经网络输入导频RE的第一信道估计值之外,还可以将第一RE组之外的第一预置范围内的接收信号作为第一神经网络的输出,以通过第一神经网络准确地输出第一RE组内各个待估计RE的第二信道估计值。
可选地,在一种可能的实施方式中,若第一RE组内的第一待估计RE处于第二预置范围,方法还可以包括:
获取第一待估计RE在至少一个第二神经网络中输出的至少一个第三信道估计值,至少一个第二神经网络与至少一个第二RE组对应,至少一个第二RE组为至少两组RE组中在第一待估计RE的第三预置范围内的RE组;对第二信道估计值与至少一个第三信道估计值进行加权运算,以得到更新后的第二信道估计值。在本申请实施例中,当第一待估计RE处于第二预置范围时,还可以通过第一待估计RE带宽相近或时域相近等至少一个RE组对应的至少一个第二神经网络,输出第一待估计RE的至少一个第三信道估计值,并对第一待估计RE的第二信道估计值与该至少一个第三信道估计值进行加权运算,以对第二信道估计值进行更新,得到更新后的第一待估计RE的第二信道估计值。因此,即使第一待估计RE与最临近的导频RE在时域或频域的相差较大,也可以通过附近的至少一个第二神经网络输出第一待估计RE的第三信道估计值,并对第一待估计RE的第二信道估计值进行更新,以使第二信道估计值更准确。
可选地,在一种可能的实施方式中,该至少一个第二神经网络中的其中一个或多个可以与第一神经网络相同。具体地,可以是其中一个或多个第二神经网络的输入维度与输出维度与第一神经网络的输入维度与输出维度相同,例如,输入的导频RE的第一信道估计值的数量相同,输出待估计RE的信道估计值的数量相同等等。
可选地,当该至少一个第二神经网络包括第一神经网络,可以理解为,通过第一神经网络可以多次输出第一待估计RE的信道估计值,每次输入至第一神经网络的导频RE可以相同,也可以不同,得到第一待估计RE的至少一个第三信道估计值,并对该至少一个信道估计值与第二信道估计值进行加权运算,以更新第二信道估计值。
可选地,在一种可能的实施方式中,在通过第一神经网络获取第一待估计RE的第二信道估计值之后,该方法还可以包括:
根据反向传播算法与第二信道估计值更新第一神经网络中的权重值。在本申请实施例中,在得到第二信道估计值后,可以根据反向传播算法与该第二信道估计值更新第一神经网络中的权重值。反向传播算法即通过第二信道估计值对第一神经网络进行反推,以更新第一神经网络中各个网元中的权重值,以使第一神经网络后续输出的信道估计值更准确。实现第一神经网络中各个网元的参数的学习更新,输出更准确的信道估计值。
可选地,在一种可能的实施方式中,该方法还可以包括:
将至少一个RE按照预置规则进行分组,得到至少两组RE组。在本申请实施例中,可以在获取到接收信号之后,确定该接收信号中待估计的至少一个RE,并将该至少一个RE按照预置规则进行分组,以得到至少两组RE组,该至少两组RE组对应至少两个神经网络,每个神经网络为通过与对应的RE组内的待估计RE相关的数据进行训练得到,例如,可以包括时域或频域相近的历史信道估计值,或通过仿真得到的信道估计值等等。当然,分组也可以事先进行,这里并不限定。
可选地,在一种可能的实施方式中,预置规则包括:将接收信号中带宽差值小于预置带宽间隔的RE分为一组,或者,将接收信号中时域间隔小于预置时域间隔的RE分为一组。在本申请实施例中,在对至少一个RE进行分组时,可以将带宽差值小于预置带宽间隔的RE分为一组,或者,将接收信号中时域间隔小于预置时域间隔的RE分为一组。可以理解为,将时域相近或者频率相近的待估计RE分为一组,以更方便地对相近的RE进行信道估计,得到的信道估计值更准确。
可选地,在一种可能的实施方式中,预置规则具体包括:将输入神经网络的维度相近的待估计RE分为一组,或将处于相干带宽范围内的待估计RE分为一组,或者将相干时间范围内的待估计RE分为一组,或者将既在相干带宽范围内、又在相干时间范围内的待估计RE分为一组,或者按照其他的规则进行分组等等。
本申请第二方面提供一种接收设备,该接收设备具有实现上述第一方面信道估计的方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
本申请实施例第三方面提供一种接收设备,可以包括:
处理器、存储器以及输入输出接口,该处理器、该存储器与该输入输出接口连接;该存储器,用于存储程序代码;该处理器调用该存储器中的程序代码时执行本申请第一方面或第一方面任一实施方式提供的方法的步骤。
本申请第四方面提供一种芯片系统,该芯片系统包括处理器,用于支持终端实现上述方面中所涉及的功能,例如,处理上述方法中所涉及的数据和/或信息。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器,用于保存网络设备必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包括芯片和其他分立器件。
其中,上述任一处提到的处理器,可以是一个通用中央处理器(CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制上述第一方面信道估计的方法的程序执行的集成电路。
本申请实施例第五方面提供一种存储介质,需要说明的是,本发的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产口的形式体现出来,该计算机软件产品存储在一个存储介质中,用于储存为上述设备所用的计算机软件指令,其包含用于执行上述第一方面中任一可选实施方式为接收设备所设计的程序。
该存储介质包括:U盘、移动硬盘、只读存储器(英文缩写ROM,英文全称:Read-OnlyMemory)、随机存取存储器(英文缩写:RAM,英文全称:Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例第六方面提供一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如本申请第一方面任一可选实施方式中所述的方法。
在本申请实施例中,确定接收信号中的至少两个RE对应的至少两组RE组,该至少两组RE组与至少两个神经网络对应,第一待估计RE可以是该至少两个RE中的任意一个,该第一RE属于第一RE组,并且该第一RE组与第一神经网络对应。然后获取至少一个导频RE中每个RE的第一信道估计值,并将该每个RE的第一信道估计值作为第一神经网络的输入,以通过第一神经网络获取到第一待估计RE的第二信道估计值。该第二信道估计值可以用于对接收信号进行处理。因此,在本申请中,在获取到接收信号之后,确定待估计RE所在的分组,并将导频RE的信道估计值输入至对应的神经网络,以输出与每个神经网络对应的RE组中的待估计RE的信道估计值。因此,在本申请实施例中,对待估计的RE进行分组估计,可以针对分组进行更精确地信道估计,使得到的信道估计值更准确。相当于通过分组的方式,使进行信道估计得粒度更小,得到的信道估计值更精确。并且,对神经网络输入对应的导频处的第一信道估计值,即可对每组RE组的待估计RE进行信道估计,可以快速地得到待估计RE的信道估计值,提高得到信道估计结果的效率。因此,可以实现准确高效地得到信道估计的结果。
附图说明
图1为本申请实施例的应用场景示意图;
图2为本申请实施例提供的信道估计的方法的一种流程示意图;
图3为本申请实施例提供的信道估计的方法的另一种流程示意图;
图4为本申请实施例中导频RE与数据RE的分布示意图;
图5为本申请实施例神经网络的一种结构示意图;
图6为本申请实施例神经网络的另一种结构示意图
图7为本申请实施例神经网络中的每个神经元的计算过程示意图;
图8为本申请实施例中待估计RE的一种场景示意图;
图9为本申请实施例中待估计RE的另一种场景示意图
图10为本申请实施例中信道估计值对比示意图;
图11为本申请实施例提供的接收设备的一种结构示意图;
图12为本申请实施例提供的接收设备的另一种结构示意图;
图13为本申请实施例提供的接收设备的另一种结构示意图。
具体实施方式
本申请提供一种信道估计的方法以及终端,用于通过对待估计的RE进行分组,并对每组RE组分别通过对应的神经网络进行信道估计,实现准确高效地得到信道估计的结果。
首先,本申请提供的信道估计的方法可以应用于各种通信系统。具体的,该通信系统例如:码分多址(code division multiple access,CDMA)、时分多址(time divisionmultiple access,TDMA)、频分多址(frequency division multiple access,FDMA)、正交频分多址(orthogonal frequency-division multiple access,OFDMA)、单载波频分多址(single carrier FDMA,SC-FDMA)和其它系统等。术语“系统”可以和“网络”相互替换。CDMA系统可以实现例如通用无线陆地接入(universal terrestrial radio access,UTRA),CDMA2000等无线技术。UTRA可以包括宽带CDMA(wideband CDMA,WCDMA)技术和其它CDMA变形的技术。CDMA2000可以覆盖过渡标准(interim standard,IS)2000(IS-2000),IS-95和IS-856标准。TDMA系统可以实现例如全球移动通信系统(global system for mobilecommunication,GSM)等无线技术。OFDMA系统可以实现诸如演进通用无线陆地接入(evolved UTRA,E-UTRA)、超级移动宽带(ultra mobile broadband,UMB)、IEEE 802.11(Wi-Fi),IEEE 802.16(WiMAX),IEEE 802.20,Flash OFDMA等无线技术。UTRA和E-UTRA是UMTS以及UMTS演进版本。3GPP在长期演进(long term evolution,LTE)和基于LTE演进的各种版本是使用E-UTRA的UMTS的新版本。以及第五代(5Generation,简称:“5G”)通信系统、新空口(New Radio,简称“NR”)是正在研究当中的下一代通信系统。此外,所述通信系统还可以适用于面向未来的通信技术,都可以应用于本申请实施例提供的技术方案中。
示例性地,本申请提供的信道估计的方法具体可以应用于如图1所示的通信系统,其中,可以包括至少一个基站以及至少一个终端。该至少一个终端接入该至少一个基站,以图1中的基站为例,可以接入至少一个终端,包括终端1、终端2以及终端3等等。当然,此处的3个终端仅仅是举例说明,基站也可以接入更多或更少的终端。本申请提供的信道估计的方法由接收设备执行,例如,当基站向终端发送数据时,基站作为发送设备,终端即作为接收设备,当终端向基站发送数据时,终端作为发送设备,基站即作为接收设备。
例如,基站可以向终端发送参考信号,终端可以根据基站发送的参考信号,进行信道估计,得到基站与终端之间信道的信道估计值,即信道的信道响应值,进而对参考信号进行解析,得到对参考信号的解析结果。以及终端还执行后续对参考信号进行的相关步骤,包括测量信道质量、发射功率、接收功率等等。
此外,本申请实施例中的接收设备可以包括手机,平板电脑,台式机,车载终端,路由器等。通常,基站向终端传输下行数据时,下行数据可以采用信道编码进行编码,信道编码后的下行数据经过调制后传输给终端。终端向基站传输上行数据时,上行数据也可以采用信道编码进行编码,编码后的数据经过调制后传输给基站。在接收设备接收到数据时,需要在接收端进行信道估计,接收设备可以是终端,也可以是基站。通常,常用于基站向终端发送下行数据,终端可以对下行数据进行信道估计。
下面对本申请提供的信道估计的方法的流程进行说明,请参阅图2,本申请提供的信道估计的方法的流程,可以包括:
201、获取接收信号。
首先,接收设备可以获取到接收信号,该接收信号由发送设备发送。
该接收信号可以包括至少两个待估计RE,并且,可以将该至少两个待估计RE分为至少两组RE组,该至少两组RE组与至少两个神经网络对应。通常该接收信号可以包括多个RE,每个RE可能处于不同的时域或频域,可以根据每个RE所在的时域或频域对每个RE进行分组,例如,带宽相近的RE可以分为一组,或者时域相近的RE可以分为一组。常用地,一个神经网络可以对应一组RE组。当然,可选地,一个神经网络也可以对应多个RE组,一个RE组也可以对应多个神经网络。因此,每个RE组可以对应至少一个神经网络,一个神经网络可以对应至少一组。
本申请以下以该接收信号中的至少两个RE中的任意一个RE为例进行更具体地说明。
通常,可以将至少一个待估计RE分为至少两组RE组,并且每组RE组可以对应一个神经网络。每个神经网络主要用于输出对应的RE组内的各个待估计RE的信道估计值。每个神经网络中的参数为根据与对应的RE组内的各个待估计RE的相关数据训练得到。因此,每个神经网络可以输出与对应的RE组内的各个待估计RE的信道估计值,相对于现有方案中对所有的待估计RE进行信道估计,本申请实施例中,可以通过分组的方式,使进行信道估计得粒度更小,得到的信道估计值更精确。
示例性地,以第一RE组为例,第一RE组与第一神经网络对应,第一神经网络包括输入层,隐藏层,以及输出层,第一神经网络内的各个网元的参数为根据与第一RE组内的各个RE相关的已知的RE的数据进行训练得到,例如,若第一RE组内包括的是第一频段中的RE,那么,可以使用历史数据中处于第一频段的RE的数据对第一神经网络进行训练,得到第一神经网络中各个网络的参数。因此,当在对当前待估计的第一RE进行信道估计时,可以首先确定第一RE对应的第一RE组,进而确定第一RE组对应的第一神经网络。
202、获取至少一个导频RE中每个导频RE的第一信道估计值。
在确定该待估计RE所在的分组之后,可以获取至少一个导频RE中每个导频RE的第一信道估计值。
其中,该至少一个导频RE可以是当前同一个接收数据中的待估计的所有RE对应的导频RE,也可以是第一RE组对应的导频RE,还可以是与第一RE对应的导频RE以及与第一RE带宽相近的导频RE。当该至少一个导频RE是当前同一个接收数据中的待估计的所有RE对应的导频RE时,可以先执行步骤202,也可以先执行步骤203,本申请对此并不做限定。当该至少一个导频RE包括与第一RE带宽相近的导频RE时,可以对于第一RE带宽相近的所有RE进行连续采集,也可以是进行采样采集得到。
203、通过第一神经网络获取第一待估计RE的第二信道估计值。
在获取每个导频RE的第一信道估计值之后,可以将每个导频RE的第一信道估计值作为第一神经网络的输入,以使第一神经网络输出第一待估计RE的第二信道估计值。该第二信道估计值可以用于对接收信号进行处理,包括解调、解码等等。
通常,第一神经网络可以输出第一RE组内每个RE的第二信道估计值,其中包括第一待估计RE的第二信道估计值。
通常,输入的导频RE的第一信道估计值越多,后续得到的第一待估计RE的第二信道估计值越准确。
以第一神经网络为例,第一神经网络除了可以输出第一RE组内的各个RE的信道估计值,也可以输出第一RE组之外的RE的信道估计值,但通常为提高准确度,每个待估计RE的信道估计值可以以对应的神经网络输出的值为最终的信道估计值。
在本申请实施例中,在接收到接收信号后,对接收信号中的待估计RE进行分组,得到至少两组RE组,并且该至少两组RE组对应至少两个神经网络。以第一RE为例,第一RE对应的第一RE组,第一RE组与第一神经网络对应,该第一神经网络为根据与第一RE组内的各个RE相关的数据进行训练得到。将至少一个导频RE的第一信道估计值输入至第一神经网络,由第一神经网络输出第一待估计RE的第二信道估计值。因此,对待估计的RE进行分组估计,可以针对分组进行更精确地信道估计,使得到的信道估计值更准确。通过对待估计RE进行分组的方式,使进行信道估计得粒度更小,得到的信道估计值更精确。并且,对神经网络输入对应的导频处的第一信道估计值,即可对每组RE组的待估计RE进行信道估计,可以快速地得到待估计RE的信道估计值,提高得到信道估计结果的效率。因此,可以实现准确高效地得到信道估计的结果。
前述对本申请提供的信道估计的方法的流程进行了说明,在本申请中,除了可以由第一神经网络直接输出第一RE的信道估计值之外,为提高信道估计值的准确性,还可以通过混合输入以及混合输出的方式,更进一步地得到更准确的信道估计值。下面对本申请提供的信道估计的方法进行更详细的阐述,请参阅图3,本申请实施例提供的信道估计的方法的另一种流程示意图,可以包括:
301、获取接收信号。
首先,在获取到发送设备发送的接收信号后,确定接收信号中每个待估计RE对应的RE组。与前述步骤201类似地,以下以第一待估计RE为例进行说明。
在本申请实施例中,可以将至少一个待估计RE按照预置规则分为至少两组RE组,并且每组RE组可以对应一个神经网络。每个神经网络主要用于输出对应的RE组内的各个待估计RE的信道估计值。每个神经网络中的参数为根据与对应的RE组内的各个待估计RE的相关数据训练得到。因此,每个神经网络可以输出与对应的RE组内的各个待估计RE的信道估计值,相对于现有方案中对所有的待估计RE进行信道估计,本申请实施例中,可以通过分组的方式,使进行信道估计得粒度更小,得到的信道估计值更精确。
该预置规则可以是:该预置规则可以包括:将输入神经网络的维度相近的待估计RE分为一组,或将处于相干带宽范围内的待估计RE分为一组,或者将相干时间范围内的待估计RE分为一组,或者将既在相干带宽范围内、又在相干时间范围内的待估计RE分为一组,或者按照其他的规则进行分组等等,具体可以根据实际应用场景进行调整,本申请对此不做限定。可以理解为,可以将接收信号中处于相干带宽范围内的RE分为一组,或者,将时域相近的RE分为一组。
示例性地,以LTE系统为例,当然,除了LTE系统,还可以是其他的通信系统,例如,5G通信系统、OFDMA等等通信系统也适用,此处仅仅是示例性说明,并不做限定。LTE中的6资源块(Resource Block,RB)场景下的一个参考信号为例,该参考信号可以包括:6*12*14=1008个RE,其中,导频RE的数量为6*8*2=96个,待估计RE的数量为(1008-96)=912个。可以将该912个待估计RE按照预置规则分为至少两组。其中,具体的分组规则可以是,将输入神经网络的维度相近的待估计RE分为一组,或将处于相干带宽范围内的待估计RE分为一组,或者将相干时间范围内的待估计RE分为一组,或者将既在相干带宽范围内、又在相干时间范围内的待估计RE分为一组,或者按照其他的规则进行分组等等。
302、获取至少一个导频RE中每个导频RE的第一信道估计值。
在确定该待估计RE所在的分组之后,可以获取至少一个导频RE中每个导频RE的第一信道估计值。
具体步骤与前述图2中的步骤202类似,具体此处不再赘述。
更具体地,导频RE与数据RE的分布图可以参阅图4,数据RE即本申请实施例中的待估计RE。如图4中,导频RE即为图4中的R0,导频RE处于数据RE之间,因此,在对每组RE组进行信道估计时,为提高信道估计值得准确性,可以获取与每组RE组对应的导频RE的信道估计值。
此外,在对至少一个导频RE中的每个导频RE进行信道估计时,可以使用最小二乘法(least squares,LS)、迫零算法、最大似然分类法(maximum likelihoodclassification,MLC)、或者其他信道估计算法等等算法,对导频RE进行信道估计,得到每个导频RE的第一信道估计值。
示例性地,通过LS算法进行信道估计的具体算法的公式可以是,HLS=X-1Y,其中HLS即为第一信道估计值,即信道响应。X-1为已知的导频发送信号,Y为接收到的导频RE的信道向量。
303、获取第一RE组之外的第一预置范围内的接收信号。
除了获取至少一个导频RE中每个导频RE的第一信道估计值,还可以获取第一RE组之外的第一预置范围内的接收信号。该第一预置范围可以是与第一RE组的带宽相差小于第一阈值的接收信号,或者,与第一RE组在时域上相差小于第二阈值的接收信号等等,具体可以根据实际应用场景调整。可以理解为,除了获取每个导频RE的第一信道估计值作为第一神经网络的输入,还可以获取与第一RE组在频域上相近或时域上相近的接收信号,作为第一神经网络的输入。
需要说明的是,本申请实施例对步骤302与步骤303的执行顺序不做限定,可以先执行步骤302,也可以先执行步骤303,还可以同时执行步骤302与步骤303,具体可以根据实际应用场景调整。
304、将第一信道估计值与第一RE组之外的第一预置范围内的接收信号作为第一神经网络的输入,输出第一待估计RE的第二信道估计值。
在获取到至少一个导频RE中每个导频RE的第一信道估计值与第一RE组之外的第一预置范围内的接收信号之后,将每个导频RE的第一信道估计值与第一RE组之外的第一预置范围内的接收信号作为第一神经网络的输入,以通过第一神经网络输出第一RE组内的每个待估计RE的信道估计值,包括第一待估计RE的第二信道估计值。
以LTE系统中的6RB场景下的一个参考信号为例,该参考信号可以包括:6*12*14=1008个RE,其中,导频RE的数量为6*8*2=96个。若以全部的导频RE的信道估计值作为部分输入,其中,若神经网络的输入为复数输入,则作为输入的导频RE的数量为96个,若神经网络的输入为实数输入,则神经网络的输入(包括实部与虚部)即为96*2=192个。通常,可以使用实数输入的方式作为神经网络的输入方式。待估计RE的数量为(1008-96)=912个。可以将该912个待估计RE按照预置规则分为至少两组。每组使用一个神经网络完成信道估计。并且,每组RE组的神经网络也是分别进行训练后,确定每个神经网络中每个神经元对应的参数,即权重值。在进行信道估计时,即可使用每组RE组对应的神经网络,输出每组RE组中各个待估计RE的信道估计值。
此外,本申请中的神经网络的类型可以是监督学习型神经网络,第一RE组内各个RE的信道系数可以作为第一神经网络的监督信息,以实现对第一神经网络的监督学习,使得到的信道估计结果更准确。
具体地,每个神经网络的结构可以类似,通常可以分为输入层,隐藏层,以及输出层。示例性地,如图5所示,其中,第一神经网络的输入包括每个导频RE的第一信道估计值与第一RE组之外的第一预置范围内的接收信号,其中,隐藏层可以包括一层或多层,如图5中隐藏层1至隐藏层M,M为不小于1的整数。输出层可以输出第一RE组内的各个待估计RE的信道估计值,此外,第一神经网络也可以输出第一RE组的第四预置范围的RE的信道估计值,该第四预置范围可以是与第一RE带宽相近的RE,也可以是预第一RE在时域上相近的RE等等。
更具体地,第一神经网络的具体示意图可以如图6所示,该第一神经网络由输入层、隐藏层、以及输出层的神经网元组成,上一层的神经元的输出数据,可以输出到下一层的神经元中,并且,每个神经元的输出数据在下一层的输入中,可以对应的不同的权重值,如图6中的
Figure GDA0003243999060000091
等等。每个神经元可以对应一个激活函数,激活函数即在神经元上运行的函数,用于将神经元的输入映射到输出端,得到神经元的输出数据。示例性地,每个神经元的计算过程可以如图7所示,其中,a1,a2...an为n个输入,ω12...ωn为上一层的输出数据的权重值,b为偏置值,偏置值可以是预设的,也可以是根据实际场景进行计算得到的,此处不做限定。f()即为激活函数。根据f(a1ω1+a2ω2+...+anωn+b)可以计算出每个神经元的输出。
常见的激活函数可以包括:sigmoid函数,线性整流函数(rectified linearunit,ReLU),双曲正切(tanh)函数等等,具体使用的激活函数可以根据实际应用场景进行配置,此处仅仅是举例说明,并不做限定。
具体地,Sigmoid函数的公式可以是:
Figure GDA0003243999060000092
ReLU函数的公式可以是:f(z)=max(0,z)。
tanh函数的公式可以是:
Figure GDA0003243999060000093
因此,可以通过激活函数对每个神经元的输入数据进行转换,得到输出数据。并且,经过多层隐藏层之后,输出的数据即为一个复杂的非线性函数。无需使用复杂的线性组合逼近平滑曲线来分割平面,可以直接学习到平滑曲线来分割平面,使得到的输出结果更精确。
此外,在本申请实施例的一种可选实施方式中,可以使用反向传播算法(Backpropagation,BP)对神经网络进行训练或者校正。具体地,将训练数据输入神经网络,经过隐藏层,到达输出层并得到输出结果的过程可以称为神经网络的前向传播过程。由于神经网络的输出结果和实际结果可能存在误差,因此,需要计算出估计值和实际值之间的误差,即代价函数。并将该误差从输出层向隐藏层反向传播,直至达到输入层。估计值即神经网络的输出的估计值,实际值即实际获取到的值。
通常,可以使用最小均方差(mean square error,MSE)或者交叉熵(crossentropy)等算法作为代价函数,具体可以根据实际应用场景调整,此处仅仅是示例性说明。
在反向传播的过程中,各个神经元对应的权重值会根据误差进行调整,不断迭代反向过程至收敛,最后得到的权值即为最优权值。BP算法可以理解为是基于梯度下降的优化算法。
更进一步地,梯度下降算法是神经网络利用网络的误差来更新权重值的一种方法,梯度即为函数值上升最快方向的向量,因此梯度的反向就是函数值下降最快的方向,所以沿着梯度的反方向修改更新权重值,经过多轮迭代,即可确定出当权重值取何值时可以使得代价函数取到极小值。
BP算法即从输出层开始,反向计算错误向量,逐层更新权重值至输入层,并多次重复迭代以上过程,可以以微积分的链式求导法则为核心。示例性地,以MSE为代价函数,激活函数采用sigmoid函数为例,下面给出BP算法中权值更新公式的具体算法:
给定训练集(x,y),假定神经网络的输出为y=(y1,y2...yl),则样本的均方误差为:
Figure GDA0003243999060000101
其中,ti是样本对应于节点i的输出值。
假设netj是节点j的加权输入,即
Figure GDA0003243999060000102
E是netj的函数,而netj是ωji的函数,根据链式求导法则,可得:
Figure GDA0003243999060000103
xji代表节点i传递给节点j的输入值。对于
Figure GDA0003243999060000104
在输出层与隐藏层可以是不同的算法。下面分输出层和隐藏层两种情况对
Figure GDA0003243999060000105
讨论。
首先,输出层:
Figure GDA0003243999060000106
其中,
Figure GDA0003243999060000107
Figure GDA0003243999060000108
因此,对于输出层,可以得到:
Figure GDA0003243999060000109
Figure GDA00032439990600001010
即一个节点的误差项δ为神经网络的误差对节点j输入的偏导数的相反数,代入可得到节点j的误差项为:δj=(ti-yi)yj(1-yj)。
其次,隐藏层:
定义节点j所有下游节点集合为
Figure GDA00032439990600001011
例如,如图6所示,节点8的下游节点为节点11和节点12。由神经网络的结构可知,netj只能通过影响
Figure GDA00032439990600001012
来影响E,假设netk是节点j的下游节点的输入,则E是netj的函数,因为netj有多个,应用全倒数公式,可以得到:
Figure GDA00032439990600001013
Figure GDA00032439990600001014
代入可以得到:
Figure GDA00032439990600001015
其中,δj为节点j的误差项,δk为节点k的误差项,
Figure GDA00032439990600001016
即节点j的输出值。
综上所述,可得,输出层的误差项为δj=(ti-yi)yj(1-yj,隐藏层的误差项为
Figure GDA0003243999060000111
因此,可以确定权值更新公式为ωji=ωji+ηδjxji,其中,η为学习速率。
根据以上推到可以看出,梯度
Figure GDA0003243999060000112
其中,δ为误差项和激活函数求导后的乘积取负数,因此,权值公式可以为
Figure GDA0003243999060000113
显然,梯度的反方向即函数值下降快的方向,所以可以沿梯度的方向修改权重值ω,可以经过多次迭代更新,当计算出权重值ω的取值时,使得代价函数的值极小,即估计值与实际值之间的误差极小,提高输出的信道估计值的准确性。
并且,当神经网络的隐藏层的数量增加,高于深度阈值时,本申请实施例中的神经网络也可以称为深度神经网络(deep neural network,DNN),具体的BP算法与前述类似,不再赘述。示例性的,一种DNN的神经网络模型可以包括:
Figure GDA0003243999060000114
其中,l为总训练次数,ti为第i次训练时输出层的输出结果,
Figure GDA0003243999060000115
为第i次训练时的期望结果,利用BP算法经过l次迭代训练之后,e可以达到趋于平稳的极小值,即神经网络趋于收敛,当前神经元之间的权重值即为最终权重值。
此外,输出层也可以设置为多层节点,即输出结果可以通过预设的映射变化后,得到相应的预测结果
Figure GDA0003243999060000116
应理解,上述BP算法仅仅是示例性说明,在实际应用中,具体的BP算法可以根据实际应用场景进行调整,本申请对此并不做限定。
通常,基于BP算法以信道响应信息的均方误差作为代价函数,通过梯度下降法最小化代价函数来更新权重值,可以使通过更新后的权重值得到的信道估计值更接近实际值,可以提高信道估计值的准确性。
因此,在本申请实施例中,还可以通过BP算法,从输出端向隐藏层进行反向推算,进而更新每个神经元对应的权重值,在输出准确的信道估计值的同时,也可以根据每次输出的估计值与实际值,更新各个神经元对应的权重值。可以实现输出与学习的同步,输出更准确的信道估计值。
305、获取第一待估计RE在至少一个第二神经网络中输出的至少一个第三信道估计值。
在通过第一神经网络输出第一RE组内的各个待估计RE的第二信道估计值后,若第一待估计RE处于第二预置范围,则可以通过至少一个第二RE组对应的至少一个第二神经网络输出第一待估计RE的至少一个第三信道估计值。该第二预置范围可以理解为第一RE组中与导频RE的带宽间隔大于带宽阈值的范围。
通常,该至少一个第二神经网络可以包括与第一待估计RE的第三预置范围内的至少一个第二RE组对应的神经网络。该第三预置范围可以是与第一待估计RE在时域或频域上相近的范围,例如,可以是与第一待估计RE带宽差值小于带宽阈值的范围,或可以是与第一待估计RE时域差值小于时间阈值的范围等等。相应的,该至少一个第二RE组可以是与第一待估计RE关联度较高的分组,例如,该至少一个第二RE组与第一待估计RE的带宽距离小于第五阈值的分组,或者是与第一待估计RE的时域间隔小于第六阈值的分组等等,具体可以根据实际应用场景进行调整。每个第二RE组可以对应至少一个第二神经网络,每个第二神经网络可以输出对应的第二RE组内各个RE的信道估计值,同时,也可以输出对应的第二RE组的预设范围内的RE的信道估计值。因此,可以通过该至少一个第二神经网络输出第一待估计RE的至少一个第三信道估计值。
可选地,该至少一个第二神经网络也可以包括第一神经网络或与第一神经网络相同的神经网络。可以理解为,可以通过第一神经网络多次获取第一待估计RE的信道估计值。每次可以输入相同或者不同的输入数据,例如,第一次通过第一神经网络输出所述第二信道估计值,然后,第二次,对第一神经网络输入与第一次不同的输入数据,然后得到一个第三信道估计值,后续还可以通过第一神经网络输出多个第三信道估计值,此处不再赘述。
此外,该至少一个第二神经网络中的每个神经网络的输入维度可以相同也可以不相同。例如,其中一个第二神经网络的输入为M个导频RE的信道估计值,另一个第二神经网络的输入为M+L个导频RE的信道估计值等等,M、N为正整数。
更具体地,该至少一个第二神经网络中每个第二神经网络的输入维度可以与第一神经网络的输入维度相同,也可以不同,每个第二神经网络的输出维度与第一神经网络的输出维度可以相同,也可以不相同。具体可以根据实际应用场景进行设定,本申请对此并不做限定。
此外,若第一待估计RE不处于第二预置范围,则可以直接确定第一神经网络输出的第一待估计RE的第二信道估计值为第一待估计RE的信道估计值。
例如,若第一待估计RE处于第一RE组对应的导频RE的外侧,例如,如图8中的待估计RE801,处于第一RE组对应的导频RE的外侧,与导频RE的差距较大,可以理解为该待估计RE801与第一RE组内的导频RE的关联度较低,因此,还可以获取第一待估计RE附近的至少一个第二RE组,并确定相近的至少一个第二神经网络。然后通过该至少一个第二神经网络分别输出第一待估计RE的至少一个第三信道估计值。
因此,在本申请实施例中,若第一待估计RE处于导频外侧,与导频RE的信道估计值关联度较低时,可以通过多个第二神经网络输出第一待估计RE的多个信道估计值,以便后续对第一待估计RE的多个信道估计值进行进一步的运算,确定第一待估计RE更准确的信道估计值。
306、对第二信道估计值与至少一个第三信道估计值进行加权运算,得到更新后的第一待估计RE的第二信道估计值。
在获取第一待估计RE的第二信道估计值与至少一个第三信道估计值之后,对该第二信道估计值与至少一个第三信道估计值进行加权运算,得到更新后的第一待估计RE的第二信道估计值。
通常,在对第二信道估计值与至少一个第三信道估计值进行加权运算时,不同神经网络对应的信道估计值所占的权重值可以不同,具体可以根据与第一待估计RE之间的差距进行调整,例如,神经网络对应的RE组与第一待估计RE在同一带宽范围内的权重值可以设置较高,或者,神经网络对应的RE组的第一待估计RE时域相近的权重值也可以设置较高,具体可以根据实际应用场景调整,此处并不做限定。
还可以直接计算该第二信道估计值与至少一个第三信道估计值进行平均值,将平均值作为第一待估计RE更新后的第二信道估计值。
示例性地,如图9所示,第一待估计RE901处于第一RE组,第一待估计RE901附近的RE组都可理解为第二RE组,第一待估计RE901附近包括3个第二RE组。除了可以通过第一RE组对应的第一神经网络输出第一待估计RE901的第二信道估计值之外,还可以通过该3个第二RE组一一对应的3个第二神经网络分别输出第一待估计RE901的第三信道估计值,得到3个第一待估计RE901的第三信道估计值。然后对第一待估计RE901的第二信道估计值与3个第三信道估计值进行加权运算,或者计算平均值,得到第一待估计RE901更新后的第二信道估计值。
需要说明的是,在本申请实施例中,步骤305与步骤306为可选步骤。
因此,在本申请实施例中,在接收到接收信号后,可以首先对待估计RE进行分组得到至少两组RE组,每组RE组分别对应至少一个神经网络,并可以通过各个神经网络,输出对应的RE组内的各个RE的信道估计值。每个神经网络为通过与对应的RE组的相关数据进行训练得到。因此,本申请实施例中通过分组的方式,实现更小粒度的信道估计值计算,可以提高计算出的信道估计值的准确性,提高确定信道估计值的效率。并且,本申请实施例可以同时使用导频RE的信道估计值与对应的RE组的附近的接收信号作为神经网络的输入,可以使神经网络的输出结果更准确,减小信道估计值的误差。此外,对于处于导频RE外侧的待估计RE,可以通过多个神经网络输出,并进行加权运算的方式,可以参考该导频RE外侧的待估计RE周边的神经网络的输出,可以结合更多神经网络输出的信道估计值来对该待估计RE的信道估计值进行估计,得到的最终信道估计值更准确。相当于结合基于导频的信道估计和盲信道估计的思想应用在基于神经网络的信道估计,提高导频RE外侧的待估计RE的信道估计值的准确性。
示例性地,图10为本申请提供的信道估计方法与其他的信道估计的方法的估计结果进行对比的曲线图,其中,横坐标为信噪比(signal noise ratio,SNR)的值,纵坐标为信道估计值的MSE值。可以看出,曲线1001为采用LS信道估计得到的信道估计值的MSE,曲线1002为估计出信道相关等统计信息后采用维纳滤波的方式的信道估计的MSE,曲线1003为基于传统的所有信道计算出的信道估计值的MSE,曲线1004为本申请实施例提供的信道估计的方法得到的信道估计值的MSE。因此,由图10可知,本申请提供的信道估计的方法得到的信道估计值的MSE小于传统的所有信道计算出的信道估计值的MSE、维纳滤波的方式的信道估计的MSE以及LS信道估计得到的信道估计值的MSE,因此,本申请实施例提供的信道估计方法可以更准确地得到待估计RE的信道估计值。
前述对本申请提供的信道估计的方法的进行了详细说明,下面对本申请提供的接收设备进行说明。请参阅图11,本申请提供的接收设备的一种结构示意图,该接收设备可以执行前述图2-图10对应的各个实施例的步骤,该接收设备可以包括:
接收单元1101,获取接收信号,该接收信号包括至少两个待估计资源单元RE,该至少两个待估计RE分为至少两组RE组,该至少两组RE组与至少两个神经网络对应;
处理单元1102,用于获取至少一个导频RE中每个导频RE的第一信道估计值;
该处理单元1102,还用于通过第一神经网络获取第一待估计RE的第二信道估计值,该待估计RE为该至少两个待估计RE中的任意一个,该每个导频RE的第一信道估计值为该第一神经网络的输入,该第一神经网络为该至少两个神经网络中与该第一待估计RE所在的第一RE组对应的一个,该第一RE组为该至少两组RE组中的任意一组,该第二信道估计值用于对该接收信号进行处理。
可选地,在一种可能的实施方式中,
该处理单元1102,具体用于对该至少一个导频RE中每个导频RE通过最小二乘法LS进行信道估计,得到该每个导频RE的第一信道估计值。
可选地,在一种可能的实施方式中,
该处理单元1102,具体用于通过该第一神经网络获取该第一RE组内每个待估计RE的信道估计结果,该第一RE组内每个待估计RE的信道估计结果包括该第二信道估计值。
可选地,在一种可能的实施方式中,
该第一神经网络的输入还包括该第一RE组之外的第一预置范围内的接收信号。
可选地,在一种可能的实施方式中,
该处理单元1102,还用于若该第一RE组内的第一待估计RE处于第二预置范围,获取该第一待估计RE在至少一个第二神经网络中输出的至少一个第三信道估计值,该至少一个第二神经网络与至少一个第二RE组对应,该至少一个第二RE组为该至少两组RE组中在该第一待估计RE的第三预置范围内的RE组;
该处理单元1102,还用于对该第二信道估计值与该至少一个第三信道估计值进行加权运算,以得到更新后的该第二信道估计值。
可选地,在一种可能的实施方式中,
该处理单元1102,还用于在通过第一神经网络获取第一待估计RE的第二信道估计值之后,根据反向传播算法与该第二信道估计值更新该第一神经网络中的权重值。
可选地,在一种可能的实施方式中,
该处理单元1102,还用于将该至少一个RE按照预置规则进行分组,得到该至少两组RE组。
可选地,在一种可能的实施方式中,该预置规则包括:将该接收信号中带宽差值小于预置带宽间隔的RE分为一组,或者,将该接收信号中时域间隔小于预置时域间隔的RE分为一组等等。更进一步地,可以将输入神经网络的维度相近的待估计RE分为一组,或将处于相干带宽范围内的待估计RE分为一组,或者将相干时间范围内的待估计RE分为一组,或者将既在相干带宽范围内、又在相干时间范围内的待估计RE分为一组,或者按照其他的规则进行分组等等,本申请对此并不作限定。
图12是本申请实施例提供的一种接收设备结构示意图,该接收设备1200可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(centralprocessing units,CPU)1222(或其它类型的处理器)和存储介质1230,存储介质1230用于存储一个或一个以上应用程序1242或数据1244。其中,存储介质1230可以是短暂存储或持久存储。存储在存储介质1230的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对接收设备中的一系列指令操作。更进一步地,中央处理器1222可以设置为与存储介质1230通信,在接收设备1200上执行存储介质1230中的一系列指令操作。
该中央处理器1222可以根据指令操作执行如前述图2-图10对应的任一实施例。
接收设备1200还可以包括一个或一个以上电源1226,一个或一个以上有线或无线网络接口1250,一个或一个以上输入输出接口1258,和/或,一个或一个以上操作系统1241,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中图2-图10中由接收设备所执行的步骤可以基于该图12所示的接收设备结构。
更具体地,本申请提供的接收设备可以是各种终端,例如,可以是手机、平板电脑、笔记本电脑、电视机、智能穿戴设备或其他具有显示屏的电子设备等等。在以上实施例中,对该接收设备的具体形式不作任何限制。其中,接收设备可以搭载的系统可以包括
Figure GDA0003243999060000141
Figure GDA0003243999060000151
或者其它操作系统等,本申请实施例对此不作任何限制。
该接收设备可以适用于各种通信系统。具体的,该通信系统例如:CDMA、TDMA、FDMA、OFDMA、SC-FDMA和其它系统等。术语“系统”可以和“网络”相互替换。CDMA系统可以实现例如UTRA,CDMA2000等无线技术。UTRA可以包括WCDMA技术和其它CDMA变形的技术。CDMA2000可以覆盖过渡标准(interim standard,IS)2000(IS-2000),IS-95和IS-856标准。TDMA系统可以实现例如全球移动通信系统(global system for mobile communication,GSM)等无线技术。OFDMA系统可以实现诸如演进通用无线陆地接入(evolved UTRA,E-UTRA)、超级移动宽带(ultra mobile broadband,UMB)、IEEE 802.11(Wi-Fi),IEEE 802.16(WiMAX),IEEE 802.20,Flash OFDMA等无线技术。UTRA和E-UTRA是UMTS以及UMTS演进版本。3GPP在长期演进(long term evolution,LTE)和基于LTE演进的各种版本是使用E-UTRA的UMTS的新版本。以及第五代(5Generation,简称:“5G”)通信系统、新空口(New Radio,简称“NR”)是正在研究当中的下一代通信系统。此外,所述通信系统还可以适用于面向未来的通信技术,都可以应用于本申请实施例提供的技术方案中。
示例性的,以搭载
Figure GDA0003243999060000152
操作系统的接收设备100为例,如图13所示,接收设备100从逻辑上可划分为硬件层21、操作系统161,以及应用层31。硬件层21包括应用处理器101、微控制器单元103、调制调解器107、Wi-Fi模块111、传感器114、定位模块150等硬件资源。应用层31包括一个或多个应用程序,比如应用程序163,应用程序163可以为社交类应用、电子商务类应用、浏览器等任意类型的应用程序。操作系统161作为硬件层21和应用层31之间的软件中间件,是管理和控制硬件与软件资源的计算机程序。
在一个实施例中,操作系统161包括内核23,硬件抽象层(hardware abstractionlayer,HAL)25、库和运行时(libraries and runtime)27以及框架(framework)29。其中,内核23用于提供底层系统组件和服务,例如:电源管理、内存管理、线程管理、硬件驱动程序等;硬件驱动程序包括Wi-Fi驱动、传感器驱动、定位模块驱动等。硬件抽象层25是对内核驱动程序的封装,向框架29提供接口,屏蔽低层的实现细节。硬件抽象层25运行在用户空间,而内核驱动程序运行在内核空间。
库和运行时27也叫做运行时库,它为可执行程序在运行时提供所需要的库文件和执行环境。库与运行时27包括安卓运行时(Android Runtime,ART)271以及库273等。ART271是能够把应用程序的字节码转换为机器码的虚拟机或虚拟机实例。库273是为可执行程序在运行时提供支持的程序库,包括浏览器引擎(比如webkit)、脚本执行引擎(比如JavaScript引擎)、图形处理引擎等。
框架29用于为应用层31中的应用程序提供各种基础的公共组件和服务,比如窗口管理、位置管理等等。框架29可以包括电话管理器291,资源管理器293,位置管理器295等。
以上描述的操作系统161的各个组件的功能均可以由应用处理器101执行存储的程序来实现。
所属领域的技术人员可以理解接收设备100可包括比图13所示的更少或更多的部件,图13所示的该接收设备仅包括与本申请实施例所公开的多个实现方式更加相关的部件。
接收设备通常支持安装多种应用程序(Application,APP),如文字处理应用程序、电话应用程序、电子邮件应用程序、即时消息应用程序、照片管理应用程序、网络浏览应用程序、数字音乐播放器应用程序、和/或数字视频播放器应用程序。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者其他网络设备等)执行本申请图2至图10中各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在上述图2-图10对应的任一个实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (16)

1.一种信道估计的方法,其特征在于,包括:
获取接收信号,所述接收信号包括至少两个待估计资源单元RE,所述至少两个待估计RE分为至少两组RE组,所述至少两组RE组与至少两个神经网络对应;
获取至少一个导频RE中每个导频RE的第一信道估计值;
通过第一神经网络获取第一待估计RE的第二信道估计值,所述第一待估计RE为所述至少两个待估计RE中的任意一个,所述每个导频RE的第一信道估计值为所述第一神经网络的输入,所述第一神经网络为所述至少两个神经网络中与所述第一待估计RE所在的第一RE组对应的一个,所述第一RE组为所述至少两组RE组中的任意一组,所述第二信道估计值用于对所述接收信号进行处理;
所述第一神经网络的输入还包括所述第一RE组之外的第一预置范围内的接收信号,所述第一预置范围内的接收信号包括与所述第一RE组的带宽相差小于第一阈值的接收信号,或者,与所述第一RE组在时域上相差小于第二阈值的接收信号;
若所述第一RE组内的第一待估计RE处于第二预置范围,获取所述第一待估计RE在至少一个第二神经网络中输出的至少一个第三信道估计值,所述至少一个第二神经网络与至少一个第二RE组对应,所述至少一个第二RE组为所述至少两组RE组中在所述第一待估计RE的第三预置范围内的RE组,所述第二预置范围包括所述第一RE组中与导频RE的带宽间隔大于带宽阈值的范围,所述第三预置范围包括与所述第一待估计RE带宽差值小于带宽阈值的范围,或可以是与第一待估计RE时域差值小于时间阈值的范围;
对所述第二信道估计值与所述至少一个第三信道估计值进行加权运算,以得到更新后的所述第二信道估计值。
2.根据权利要求1所述的方法,其特征在于,所述获取至少一个导频资源单元RE中每个导频RE的第一信道估计值,包括:
对所述至少一个导频RE中每个导频RE通过最小二乘法LS进行信道估计,得到所述每个导频RE的第一信道估计值。
3.根据权利要求1或2所述的方法,其特征在于,所述通过第一神经网络获取第一待估计RE的第二信道估计值,包括:
通过所述第一神经网络获取所述第一RE组内每个待估计RE的信道估计结果,所述第一RE组内每个待估计RE的信道估计结果包括所述第一待估计RE的第二信道估计值。
4.根据权利要求1或2所述的方法,其特征在于,在通过第一神经网络获取第一待估计RE的第二信道估计值之后,所述方法还包括:
根据反向传播算法与所述第二信道估计值更新所述第一神经网络中的权重值。
5.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
将所述至少两个待估计RE按照预置规则进行分组,得到所述至少两组RE组。
6.根据权利要求5所述的方法,其特征在于,所述预置规则包括:将所述接收信号中带宽差值小于预置带宽间隔的RE分为一组,或者,将所述接收信号中时域间隔小于预置时域间隔的RE分为一组。
7.一种接收设备,其特征在于,包括:
接收单元,获取接收信号,所述接收信号包括至少两个待估计资源单元RE,所述至少两个待估计RE分为至少两组RE组,所述至少两组RE组与至少两个神经网络对应;
处理单元,用于获取至少一个导频RE中每个导频RE的第一信道估计值;
所述处理单元,还用于通过第一神经网络获取第一待估计RE的第二信道估计值,所述第一待估计RE为所述至少两个待估计RE中的任意一个,所述每个导频RE的第一信道估计值为所述第一神经网络的输入,所述第一神经网络为所述至少两个神经网络中与所述第一待估计RE所在的第一RE组对应的一个,所述第一RE组为所述至少两组RE组中的任意一组,所述第二信道估计值用于对所述接收信号进行处理;
所述第一神经网络的输入还包括所述第一RE组之外的第一预置范围内的接收信号,所述第一预置范围内的接收信号包括与所述第一RE组的带宽相差小于第一阈值的接收信号,或者,与所述第一RE组在时域上相差小于第二阈值的接收信号;
所述处理单元,还用于若所述第一RE组内的第一待估计RE处于第二预置范围,获取所述第一待估计RE在至少一个第二神经网络中输出的至少一个第三信道估计值,所述至少一个第二神经网络与至少一个第二RE组对应,所述至少一个第二RE组为所述至少两组RE组中在所述第一待估计RE的第三预置范围内的RE组,所述第二预置范围包括所述第一RE组中与导频RE的带宽间隔大于带宽阈值的范围,所述第三预置范围包括与所述第一待估计RE带宽差值小于带宽阈值的范围,或可以是与第一待估计RE时域差值小于时间阈值的范围;
所述处理单元,还用于对所述第二信道估计值与所述至少一个第三信道估计值进行加权运算,以得到更新后的所述第二信道估计值。
8.根据权利要求7所述的接收设备,其特征在于,
所述处理单元,具体用于对所述至少一个导频RE中每个导频RE通过最小二乘法LS进行信道估计,得到所述每个导频RE的第一信道估计值。
9.根据权利要求7或8所述的接收设备,其特征在于,
所述处理单元,具体用于通过所述第一神经网络获取所述第一RE组内每个待估计RE的信道估计结果,所述第一RE组内每个待估计RE的信道估计结果包括所述第二信道估计值。
10.根据权利要求7或8所述的接收设备,其特征在于,
所述处理单元,还用于在通过第一神经网络获取第一待估计RE的第二信道估计值之后,根据反向传播算法与所述第二信道估计值更新所述第一神经网络中的权重值。
11.根据权利要求7或8所述的接收设备,其特征在于,
所述处理单元,还用于将所述至少两个待估计RE按照预置规则进行分组,得到所述至少两组RE组。
12.根据权利要求11所述的接收设备,其特征在于,所述预置规则包括:将所述接收信号中带宽差值小于预置带宽间隔的RE分为一组,或者,将所述接收信号中时域间隔小于预置时域间隔的RE分为一组。
13.一种接收设备,其特征在于,包括:存储器,用于存储程序;
处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述处理器用于执行如权利要求1-6中任一所述的方法。
14.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-6中任意一项所述的方法。
15.一种接收设备,其特征在于,所述接收设备与存储器耦合,用于读取并执行所述存储器中存储的指令,使得所述接收设备实现如权利要求1-6中任一项的步骤。
16.如权利要求15所述的接收设备,其特征在于,所述接收设备为芯片或片上系统。
CN201910152775.3A 2019-02-28 2019-02-28 一种信道估计的方法以及接收设备 Active CN111628946B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910152775.3A CN111628946B (zh) 2019-02-28 2019-02-28 一种信道估计的方法以及接收设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910152775.3A CN111628946B (zh) 2019-02-28 2019-02-28 一种信道估计的方法以及接收设备

Publications (2)

Publication Number Publication Date
CN111628946A CN111628946A (zh) 2020-09-04
CN111628946B true CN111628946B (zh) 2021-10-26

Family

ID=72272495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910152775.3A Active CN111628946B (zh) 2019-02-28 2019-02-28 一种信道估计的方法以及接收设备

Country Status (1)

Country Link
CN (1) CN111628946B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022082463A1 (zh) * 2020-10-20 2022-04-28 华为技术有限公司 通信方法、装置及系统
EP4262121A4 (en) * 2020-12-31 2024-03-13 Huawei Tech Co Ltd TRAINING METHOD FOR NEURONAL NETWORK AND ASSOCIATED APPARATUS
CN115222038A (zh) * 2021-04-16 2022-10-21 华为技术有限公司 一种梯度传输方法及相关装置
CN116828499A (zh) * 2022-03-22 2023-09-29 维沃移动通信有限公司 信道特征信息传输方法、装置、终端及网络侧设备
CN117997396A (zh) * 2022-10-27 2024-05-07 维沃移动通信有限公司 信息传输方法、信息处理方法、装置和通信设备
CN116915555B (zh) * 2023-08-28 2023-12-29 中国科学院声学研究所 一种基于自监督学习的水声信道估计方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101170531A (zh) * 2006-10-24 2008-04-30 北京大学 一种信道估计方法及相应的通信方法和系统
CN102045285A (zh) * 2009-10-14 2011-05-04 华为技术有限公司 信道估计方法、装置以及通信系统
CN104022978A (zh) * 2014-06-18 2014-09-03 中国联合网络通信集团有限公司 一种半盲信道估计方法和系统
CN104869086A (zh) * 2015-05-27 2015-08-26 东南大学 基于二维压缩感知的mimo-ofdm通信系统下行信道估计方法、装置
CN105071876A (zh) * 2015-08-26 2015-11-18 华为技术有限公司 干扰估计方法及装置
CN109067688A (zh) * 2018-07-09 2018-12-21 东南大学 一种数据模型双驱动的ofdm接收方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10791310B2 (en) * 2018-10-02 2020-09-29 Intel Corporation Method and system of deep learning-based automatic white balancing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101170531A (zh) * 2006-10-24 2008-04-30 北京大学 一种信道估计方法及相应的通信方法和系统
CN102045285A (zh) * 2009-10-14 2011-05-04 华为技术有限公司 信道估计方法、装置以及通信系统
CN104022978A (zh) * 2014-06-18 2014-09-03 中国联合网络通信集团有限公司 一种半盲信道估计方法和系统
CN104869086A (zh) * 2015-05-27 2015-08-26 东南大学 基于二维压缩感知的mimo-ofdm通信系统下行信道估计方法、装置
CN105071876A (zh) * 2015-08-26 2015-11-18 华为技术有限公司 干扰估计方法及装置
CN109067688A (zh) * 2018-07-09 2018-12-21 东南大学 一种数据模型双驱动的ofdm接收方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于神经网络的MIMO-OFDM信道估计";才华等;《计算机工程与应用》;20111201;全文 *

Also Published As

Publication number Publication date
CN111628946A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN111628946B (zh) 一种信道估计的方法以及接收设备
CN111698182B (zh) 一种基于压缩感知的时频分块稀疏的信道估计方法
US9504042B2 (en) System and method for encoding and decoding of data with channel polarization mechanism
CN109951214B (zh) 一种适用于大规模mimo系统的信号检测方法
TWI591973B (zh) A signal detection method and device
CN113708855B (zh) 基于深度学习的otfs数据驱动接收方法、系统及介质
CN114615122A (zh) 通信信号的频偏确定方法及装置
CN112235062A (zh) 一种对抗通信噪声的联邦学习方法和系统
CN115250216A (zh) 一种基于深度学习的水声ofdm联合信道估计和信号检测方法
Kalphana et al. Convolutional Neural Network Auto Encoder Channel Estimation Algorithm in MIMO-OFDM System.
CN112865891B (zh) Pucch信号检测方法、装置、通信设备和存储介质
Xu et al. Latent semantic diffusion-based channel adaptive de-noising semcom for future 6g systems
US20220256341A1 (en) Rf aware deep learning authentication solution
US10404318B2 (en) Method for recovering original signal in reduced complexity DS-CDMA system
KR102056403B1 (ko) 대규모 다중 입출력 시스템에서 무허가 무선통신을 위한 유효 사용자와 채널, 데이터의 동시 추정 및 검출 기법
Usatyuk et al. 2D/3D ResNet Deep Neural Network for 4G and 5G NR Wireless Channel Estimation
CN113037409B (zh) 基于深度学习的大规模mimo系统信号检测方法
JP7341487B2 (ja) 干渉電力推定装置および干渉電力推定プログラムおよび情報収集局
WO2017101097A1 (zh) 一种信道统计信息获取方法和接收机
Ivanov et al. Hybrid noise-resilient deep learning architecture for modulation classification in cognitive radio networks
Dave et al. Deep learning based semi-blind tracking for aging wireless communication channels
CN111585920A (zh) 一种基于单载波频域均衡的抗单音干扰方法及装置
Lee et al. Deep learning‐based scalable and robust channel estimator for wireless cellular networks
US11894960B2 (en) Transmitting of information in wireless communication
CN110224798A (zh) 信号接收方法网络设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant