CN116671042A - 信息处理方法、装置、通信设备及存储介质 - Google Patents
信息处理方法、装置、通信设备及存储介质 Download PDFInfo
- Publication number
- CN116671042A CN116671042A CN202180085499.9A CN202180085499A CN116671042A CN 116671042 A CN116671042 A CN 116671042A CN 202180085499 A CN202180085499 A CN 202180085499A CN 116671042 A CN116671042 A CN 116671042A
- Authority
- CN
- China
- Prior art keywords
- channel information
- pieces
- information
- spliced
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 41
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000003860 storage Methods 0.000 title claims abstract description 21
- 238000004891 communication Methods 0.000 title abstract description 34
- 238000003062 neural network model Methods 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims description 54
- 238000004590 computer program Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 7
- 239000000758 substrate Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 23
- 230000015654 memory Effects 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000011084 recovery Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000007787 long-term memory Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Radio Transmission System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请公开了一种信息处理方法、装置、通信设备及存储介质,涉及无线通信领域。该方法包括:获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;其中,所述神经网络模型是编码模型和解码模型中的一个。本申请实施例可以增强信道信息的编码性能或解码性能。
Description
本申请涉及无线通信领域,特别涉及一种信息处理方法、装置、通信设备及存储介质。
新空口(New Radio,NR)系统中,信道信息反馈为基于码本的反馈方案。
在基于码本的反馈方案中,终端设备根据估计出的信道从码本中挑选最优的反馈矩阵,其码本本身具有有限性,即从估计出的信道到码本中的反馈矩阵的映射过程是量化有损的,这使得反馈的信道信息的精确度下降,进而降低了预编码的性能。
为了解决基于码本的反馈方案带来的精确度不高的问题,讨论引入基于神经网络的反馈方案,在该方案中,针对信道估计后得到的信道信息在发送端进行编码压缩,再在接收端对信道信息进行解码恢复。
发明内容
本申请实施例提供了一种信息处理方法、装置、通信设备及存储介质,可以增强信道信息的编码性能或解码性能。所述技术方案如下:
根据本申请的一个方面,提供了一种信息处理方法,所述方法包括:
获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;
将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是编码模型和解码模型中的一个。
根据本申请的一个方面,提供了信息处理装置,所述装置包括:信息获取模块、信息拼接模块和信息处理模块;
所述信息获取模块,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
所述信息拼接模块,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;
所述信息处理模块,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是编码模型和解码模型中的一个。
根据本申请的一个方面,提供了一种终端设备,所述终端设备包括:处理器;其中,
所述处理器,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
所述处理器,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;
所述处理器,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是编码模型。
根据本申请的一个方面,提供了一种网络设备,所述网络设备包括:处理器和与所述处理器相连的收发器;其中,
所述收发器,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
所述处理器,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;
所述处理器,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是解码模型。
根据本申请的一个方面,提供了一种计算机可读存储介质,所述可读存储介质中存储有可执行指令,所述可执行指令由处理器加载并执行以实现如上述方面所述信息处理方法。
根据本申请实施例的一个方面,提供了一种芯片,所述芯片包括可编程逻辑电路和/或程序指令,当所述芯片在计算机设备上运行时,用于实现上述方面所述的信息处理方法。
根据本申请的一个方面,提供了一种计算机程序产品,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中,处理器从所述计算机可读存储介质读取并执行所述计算机指令,以实现上述方面所述的信息处理方法。
本申请实施例提供的技术方案至少包括如下有益效果:
将对应于n个反馈周期的n个第一信道信息进行不同尺度的拼接,得到m个拼接信道信息,再由神经网络模型对m个拼接信道信息进行处理,得到第二信道信息,神经网络模型是编码模型和解码模型中的一个,从而实现对不同反馈周期的第一信道信息进行多尺度的利用,增强信道信息对应的编码性能或解码性能。
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的网络架构的示意图;
图2是本申请一个示例性实施例提供的神经网络的示意图;
图3是本申请一个示例性实施例提供的卷积神经网络的示意图;
图4是本申请一个示例性实施例提供的长短期记忆网络的示意图;
图5是本申请一个示例性实施例提供的基于人工智能的信道信息反馈的示意图;
图6是本申请一个示例性实施例提供的信道信息反馈系统的示意图;
图7是本申请一个示例性实施例提供的利用历史反馈信息进行信道恢复的示意图;
图8是本申请一个示例性实施例提供的信息处理方法的流程图;
图9是本申请一个示例性实施例提供的信息处理方法的流程图;
图10是本申请一个示例性实施例提供的在发送端基于多尺度信息以进行编码性能增强的示意图;
图11是本申请一个示例性实施例提供的在接收端基于多尺度信息以进行解码性能增强的示意图;
图12是本申请一个示例性实施例提供的在接收端基于多尺度信息以进行解码性能增强的示意图;
图13是本申请一个示例性实施例提供的在接收端基于多尺度信息以进行解码性能增强的示意图;
图14是本申请一个示例性实施例提供的信息处理装置的结构框图;
图15是本申请一个示例性实施例提供的通信设备的结构示意图。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例描述的网络架构以及业务场景是为了更加清楚地说明本申请实施例的技术方案,并不构成对本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
请参考图1,其示出了本申请一个实施例提供的网络架构100的示意图。该网络架构100可以包括:终端设备10、接入网设备20和核心网设备30。
终端设备10可以指UE(User Equipment,用户设备)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、无线通信设备、用户代理或用户装置。可选地,终端设备10还可以是蜂窝电话、无绳电话、SIP(Session Initiation Protocol,会话启动协议)电话、WLL(Wireless Local Loop,无线本地环路)站、PDA(Personal Digita1 Assistant,个人数字处理)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、可穿戴设备,5GS(5th Generation System,第五代移动通信系统)中的终端设备或者未来演进的PLMN(Pub1ic Land Mobi1e Network,公用陆地移动通信网络)中的终端设备等,本申请实施例对此并不限定。为方便描述,上面提到的设备统称为终端设备。终端设备10的数量通常为多个,每一个接入网设备20所管理的小区内可以分布一个或多个终端设备10。
接入网设备20是一种部署在接入网中用以为终端设备10提供无线通信功能的设备。接入网设备20可以包括各种形式的宏基站,微基站,中继站,接入点等等。在采用不同的无线接入技术的系统中,具备接入网设备功能的设备的名称可能会有所不同,例如在5G NR系统中,称为gNodeB或者gNB。随着通信技术的演进,“接入网设备”这一名称可能会变化。为方便描述,本申请实施例中,上述为终端设备10提供无线通信功能的装置统称为接入网设备。可选地,通过接入网设备20,终端设备10和核心网设备30之间可以建立通信关系。示例性地,在LTE(Long Term Evolution,长期演进)系统中,接入网设备20可以是EUTRAN(Evolved Universal Terrestrial Radio Access Network,演进的通用陆地无线网)或者EUTRAN中的一个或者多个eNodeB;在5G NR系统中,接入网设备20可以是RAN(Radio Access Network,无线接入网)或者RAN中的一个或者多个gNB。在本申请实施例中,所述的网络设备除特别说明之外,是指接入网设备20,如基站。
核心网设备30是部署在核心网中的设备,核心网设备30的功能主要是提供用户连接、对用户的管理以及对业务完成承载,作为承载网络提供到外部网络的接口。例如,5G NR系统中的核心网设备可以包括AMF(Access and Mobility Management Function,接入和移动性管理功能)实体、UPF(User Plane Function,用户平面功能)实体和SMF(Session Management Function,会话管理功能)实体等设备。
在一个示例中,接入网设备20与核心网设备30之间通过某种空口技术互相通信,例如5G NR系统中的NG接口。接入网设备20与终端设备10之间通过某种空口技术互相通信,例如Uu接口。
本申请实施例中的“5G NR系统”也可以称为5G系统或者NR系统,但本领域技术人员可以理解其含义。本申请实施例描述的技术方案可以适用于LTE系统,也可以适用于5G NR系统,也可以适用于5G NR系统后续的演进系统,还可以适用于诸如NB-IoT(Narrow Band Internet of Things,窄带物联网)系统等其他通信系统,本申请对此不作限定。
在介绍本申请技术方案之前,先对本申请涉及的一些背景技术知识进行介绍说明。
对于5G NR系统来说,在当前的信道状态信息(Channel State Information,CSI)反馈设计中,主要是利用基于码本的方案来实现信道特征的提取与反馈。即在发送端进行信道估计后,根据信道估计的结果按照某种优化准则从预先设定的预编码码本中选择与当前信道最匹配的预编码矩阵,并通过空口的反馈链路将矩阵的索引信息反馈给接收端,供接收端实现预编码。
近年来,以神经网络为代表的人工智能研究在很多领域都取得了非常大的成果,其也将在未来很长的一段时间内,对人们的生产生活起到重要的影响。
请参考图2,其示出了本申请一个实施例提供的神经网络的示意图。如图2所示,一个简单的神经网络的基本结构包括:输入层、隐藏层和输出层。其中,输入层负责接收数据,隐藏层负责处理数据,而最后的结果在输出层产生。如图1所示,各个节点代表一个处理单元,也可以认为是模拟了一个神经元,多个神经元组成一层神经网络,多层的信息传递与处理构造出了一个整体的神经网络。
随着神经网络研究的不断发展,近年来,神经网络深度学习算法被提出,较多的隐藏层被引入,通过多隐藏层的神经网络逐层训练进行特征学习,极大地提升了神经网络的学习和处理能力,并在模式识别、信号处理、优化组合、异常探测等方面被广泛应用。
同时,随着深度学习的发展,卷积神经网络也被进一步地研究。请参考图3,其示出了本申请一个实施例提供的卷积神经网络的示意图。如图3所示,在一个卷积神经网络中,其基本结构包括:输入层、多个卷积层、多个池化层、全连接层及输出层。卷积层和池化层的引入,有效地控制了网络参数的剧增,限制了参数的个数并挖掘了局部结构的特点,提高了算法的鲁棒性。
循环神经网络(Recurrent Neural Network,RNN)是一类以序列数据为输入,在序列的演进方向进行递归,所有节点(循环单元)按链式连接的递归神经网络。作为自然语言处理(Natural Language Processing,NLP)里最常用、最传统的深度学习模型,RNN网络依顺序按步骤读取序列数据进行处理,与人类理解文字的道理差不多,看书都是一个字一个字,一句话一句话去理解的。
长短期记忆网络(Long Short-Term Memory,LSTM)作为RNN的一类变种模型如图4所示,它的精髓在于引入了细胞状态这样一个概念,不同于RNN只考虑最近的状态,LSTM的细胞状态会决定哪些状态应该被留下来,哪些状态应该被遗忘,解决了传统RNN在长期记忆上存在的缺陷。
鉴于人工智能(Artificial Intelligence,AI)技术在计算机视觉、自然语言处理等方面取得了巨大的成功,通信领域开始尝试利用AI技术来寻求新的技术思路来解决传统方法受限的技术难题,例如深度学习。深度学习中常用的神经网络架构是非线性且是数据驱动的,可以对实际信道矩阵数据进行特征提取并在基站侧尽可能还原终端侧压缩反馈的信道矩阵信息,在保证还原信道信息的同时,也为终端侧降低信道信息的反馈开销提供了可能性。
如图5所示,在基于AI的信道信息反馈中,将信道信息视作待压缩图像501,利用深度学习自编码器502对信道信息进行压缩,得到压缩后的信道图像503。接收端利用深度学习自解码器504对压缩后的信道图像503进行重构,得到还原后的信道信息505,可以更大程度地保留信道信息。
一种典型的信道信息反馈系统如图6所示。整个反馈系统分为编码器部分及解码器部分,分别部署在发送端与接收端。发送端通过信道估计得到信道信息后,通过编码器的神经网络对信道信息矩阵进行压缩编码,并将压缩后的比特流通过空口反馈链路反馈给接收端,接收端通过解码器根据反馈的比特流对信道信息进行恢复,以获得完整的信道信息。图6所示的结构在编码器使用若干全连接层进行编码,在解码器使用残差网络结构进行解码。在编解码 框架不变的情况下,编码器和解码器内部的网络模型结构可进行灵活设计。
目前5G NR标准中的信道信息反馈为基于码本的反馈方案。然而,该方案仅是根据估计出的信道从码本中挑选最优的反馈矩阵,其码本本身具有有限性,即从估计出的信道到码本中的信道的映射过程是量化有损的,这使得反馈的信道信息的精确度下降,进而降低了预编码的性能。
为了解决基于码本的反馈方案带来的精确度不高的问题,讨论引入基于神经网络的反馈方案。基于神经网络的信道信息反馈方案,是一种针对信道估计后得到的信道信息进行直接编码压缩反馈的方案,可以缓解基于码本的方案的精度问题。
在不同反馈周期所反馈的信道信息是具有一定的历史相关性的,利用该历史相关性可以对当前反馈周期的信道恢复性能进行增强。即,将不同反馈周期所反馈的信道信息构成历史反馈信息,该历史反馈信息为图像或序列,当做解码器的输入。
结合参考图7,其示出了一个利用历史反馈信息进行信道恢复的示意图。整个反馈系统包括发送端的编码器及接收端的解码器。
发送端在不同反馈周期内将信道信息通过编码器压缩编码为比特流,本实施例设置最大历史追溯尺度为n,即,在n个反馈周期中,发送端通过编码器分别将信道信息{H_1,...,H_n}编码为比特流{B_1,...,B_n},并分别在各个反馈周期通过空口发送给接收端。接收端在解码第n个反馈周期的反馈信道时,同时将前n-1个反馈周期与第n个反馈周期的反馈比特流共同作为解码器输入,解码器网络的输出为恢复后的信道H’_n。
若按照如图7所示的利用历史反馈信息进行信道恢复,输入的历史反馈信息的长度直接影响网络训练后的性能。然而,输入的历史反馈信息的长度的设置常常是经验性的,很难评判当前输入的长度是否是最优的长度。反应到信道上来说,针对不同信道环境(例如终端的不同移动速度),利用历史反馈信息进行性能增强时,历史反馈信息对应的最优的长度不同。
针对上述问题,本申请技术方案,对发送端和接收端均采用如上所述的利用历史相关性,使用多个反馈周期对应的多个第一信道信息对当前反馈周期的性能进行增强的方案。进一步的,发送端(或接收端)对不同反馈周期的第一信道信息进行多尺度的利用,从而增强信道信息对应的编码性能或解码性能。
下面,通过几个实施例对本申请技术方案进行介绍说明。
图8示出了本申请一个示例性实施例提供的信息处理方法的流程图。该方法可以应用于如图1示出的网络架构中,该方法可以包括如下步骤(802~806):
步骤802,获取对应于n个反馈周期的n个第一信道信息,反馈周期是信道信息的反馈周期。
其中,n为大于1的正整数。也即,通信设备获取对应于多个反馈周期的多个第一信道信息。
在移动通信系统中,终端设备需要按照反馈周期来周期性地向网络设备反馈信道信息,或者,周期性地通过信道估计确定不同反馈周期的信道信息。记当前的反馈周期为第n个反馈周期,往前追溯n-1个反馈周期,则共n个反馈周期,包括:第1个反馈周期,第2个反馈周期,…,第n个反馈周期。
第一信道信息是与信道信息反馈流程相关的信息。
示例性的,对于作为信道信息的发送端的终端设备来说,其需要通过对参考信号进行测量进行信道估计,以确定不同反馈周期的信道信息,则第一信道信息是通过信道估计得到的信道信息。终端设备确定对应于n个反馈周期的n个信道信息。
示例性的,对于作为信道信息的接收端的网络设备来说,其需要接收来自发送端的压缩处理后的信道信息以进行信道恢复,则第一信道信息是信道信息对应的压缩比特流。网络设备接收对应于n个反馈周期的n个信道信息对应的压缩比特流。
步骤804,对n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,不同尺度的拼接用于指示m个拼接信道信息中所拼接的第一信道信息的个数互不相同。
为了利用n个第一信道信息之间的历史相关性,可以将n个第一信道信息进行拼接,拼接后得到拼接信道信息。
在本申请实施例中,通信设备对n个第一信道信息进行m次拼接,每次拼接过程中,对n个第一信道信息中的第一信道信息进行拼接,且每次拼接所拼接的第一信道信息的个数不同,即,m次拼接是m次不同尺度的拼接。在本申请实施例中,m可以为不小于2的正整数。
示例性的,n为6,共有6个第一信道信息,包括信息1至信息6,m为3,得到3个拼接信道信息。拼接信道信息1拼接了信息1至信息6,拼接了6个第一信道信息;拼接信道信息2拼接了信息3至信息6,拼接了3个第一信道信息;拼接信道信息3拼接了信息5和信息6,拼接了两个第一信道信息。上述3个拼接信道信息中所拼接的第一信道信息的个数互不相同,可以理解为是进行了3次不同尺度的拼接。
可以理解的是,拼接信道信息中也可以包括1个第一信道信息。示例性的,拼接信道信息包括:第n个反馈周期对应的第n个第一信道信息。
步骤806,将m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息。
一方面,由于拼接信道信息拼接了不同反馈周期的第一信道信息,不同反馈周期的第一信道信息具有一定的历史相关性,可以利用历史相关性进行性能增强。另一方面,由于m个拼接信道信息所拼接的第一信道信息的个数互不相同,输入神经网络模型的m个拼接信道信息的的长度不同,则可以对第一信道信息进行多尺度的利用。
可以理解的是,本申请实施例对神经网络的模型结构不进行限制。示例性的,神经网络的模型结构包括但不限于:全连接神经网络、卷积神经网络、循环神经网络、长短期记忆网络。
其中,神经网络模型是编码模型和解码模型中的一个。在基于神经网络的反馈方案中,发送端的编码模型和接收端的解码模型是互相匹配的两个模型。在本申请实施例中,编码模型,是指用于对信道信息进行编码,以生成压缩后的压缩比特流的模型;解码模型,是指用于对接收到的压缩比特流进行解码,以还原信道信息的模型。可以理解的是,编码模型和解码模型也可以理解为:信道状态信息编码模型和信道状态信息解码模型;信道编码模型和信道解码模型;调制模型和解调模型等等,本申请实施例对此不进行限制。
第二信道信息是由神经网络模型对不同尺度的拼接信道信息进行处理后,所输出的信息。
示例性的,对于作为信道信息的发送端的终端设备来说,其需要通过编码模型对信道信息进行压缩编码,则第二信道信息是信道信息对应的压缩比特流。终端设备通过将m个拼接信道信息输入编码模型进行处理,得到信道信息对应的压缩比特流。
示例性的,对于作为信道信息的接收端的网络设备来说,其需要对接收到的压缩比特流进行解码,以还原信道信息,则第二信道信息是还原后的信道信息。网络设备通过将m个拼接信道信息输入解码模型进行处理,得到还原后的信道信息。
综上所述,本申请技术方案,将对应于n个反馈周期的n个第一信道信息进行不同尺度的拼接,得到m个拼接信道信息,再由神经网络模型对m个拼接信道信息进行处理,得到第二信道信息,神经网络模型是编码模型和解码模型中的一个,从而实现对不同反馈周期的第一信道信息进行多尺度的利用,增强信道信息对应的编码性能或解码性能。
在示意性实施例中,通信设备基于粒度信息对不同反馈周期的第一信道信息进行多尺度的利用。
图9示出了本申请一个示例性实施例提供的信息处理方法的流程图。该方法可以应用于如图1示出的网络架构中,该方法可以包括如下步骤(902~908):
步骤902,获取对应于n个反馈周期的n个第一信道信息,反馈周期是信道信息的反馈 周期。
其中,n为大于1的正整数。
可选的,n个第一信道信息组成序列或者特征图。
在一种可能的实现方式中,通信设备获取对应于n个反馈周期的n个第一信道信息,得到序列表示的n个第一信道信息。
示例性的,n为6,共有6个第一信道信息,包括信息1至信息6,组成序列{信息1,信息2,信息3,信息4,信息5,信息6}。
在另一种可能的实现方式中,通信设备获取对应于n个反馈周期的n个第一信道信息,将n个第一信道信息经过第一神经网络层进行处理,得到特征图表示的n个第一信道信息。
其中,第一神经网络层是支持将第一信道信息使用特征图进行表示的神经网络结构。可选的,第一神经网络层将第一信道信息进行维度放大并转换成信道信息矩阵的维度。可选的,第一神经网络层包括全连接层。
示例性的,n为6,共有6个第一信道信息,包括信息1至信息6,经过神经网络层进行处理,生成特征图{信息1’,信息2’,信息3’,信息4’,信息5’,信息6’}。
步骤904,获取粒度信息,粒度信息用于指示粒度s。
其中,s为正整数。
可选的,s是预先设置好的固定值。
可选的,s是根据不同的信道情况进行调整的值。示例性的,若当前信道情况需要使用尽量多的拼接信道信息,则粒度s对应较小的值;若当前信道情况不需要使用尽量多的拼接信道信息,则粒度s对应较大的值。
步骤906,基于粒度信息,对n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息。
其中,任意两个拼接信道信息中所拼接的第一信道信息的个数的差值为s的整数倍。
由于粒度信息中指示了粒度s,则通信设备按照粒度s,下一个拼接信道信息比上一个拼接信道信息中少s个第一信道信息。
可选的,拼接信道信息中所拼接的第一信道信息对应的反馈周期在时间维度上是连续的。也即,通信设备对连续的x个反馈周期对应的x个第一信道信息进行拼接,得到一个拼接信道信息,x为正整数。
可选的,m个拼接信道信息中分别包括对应于第n个反馈周期的第n个第一信道信息。可以理解的是,第n个反馈周期是当前的反馈周期,拼接信道信息中包括对应于第n个反馈周期的第n个第一信道信息,可以使得拼接信道信息更好的反应当前的信道状态。
可选的,在上一个拼接信道信息所拼接的第一信道信息中,去除时间维度上靠前的s个第一信道信息,对剩余的第一信道信息进行拼接,得到下一个拼接信道信息。
在一种可能的实现方式中,步骤906实现为:将n个第一信道信息中的第(a-1)*s+1个第一信道信息至第n个第一信道信息进行拼接,得到第a个拼接信道信息,a为从1开始递增加一的正整数,且(a-1)*s+1小于n。
示例性的,n为10,共有10个第一信道信息,包括信息1至信息10,s为3,则拼接信道信息包括:{信息1,信息2,…,信息10}、{信息4,信息5,…,信息10}、{信息7,信息8,信息9,信息10}、{信息10}。
步骤908,将m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息。
在一种可能的实现方式中,神经网络模型对m个拼接信道信息进行最优联合利用。也即,步骤908替换实现为:将m个拼接信道信息分别输入m个第二神经网络层进行处理,得到m个信道特征;对m个信道特征进行加权拼接,得到拼接信道特征,将拼接信道特征输入第三神经网络层,得到第二信道信息。
在另一种可能的实现方式中,神经网络模型对m个拼接信道信息进行自适应最优选择利 用。也即,步骤908替换实现为:将m个拼接信道信息分别输入m个第二神经网络层进行处理,得到m个信道特征;在m个信道特征中选择目标信道特征,将目标信道特征输入第四神经网络层,得到第二信道信息。
本申请对第二神经网络层、第三神经网络层和第四神经网络层的具体实现方式不进行限定。
综上所述,本申请技术方案,将对应于n个反馈周期的n个第一信道信息进行不同尺度的拼接,得到m个拼接信道信息,再由神经网络模型对m个拼接信道信息进行处理,得到第二信道信息,神经网络模型是编码模型和解码模型中的一个,从而实现对不同反馈周期的第一信道信息进行多尺度的利用,增强信道信息对应的编码性能或解码性能。
本申请技术方案,基于粒度信息将n个第一信道信息进行不同尺度的拼接,由于粒度信息中指示了任意两个拼接信道信息中所拼接的第一信道信息的个数的差值为粒度s的整数倍,可以保障得到合理个数的拼接信道信息。
本申请技术方案,支持对不同尺度的拼接信道信息进行自适应最优选择利用或最优联合利用。
基于如上实施例,发送端和接收端均可以采用如上实施例的基于多尺度的拼接信道信息以进行性能增强的方案。具体包括如下两种情况:
·响应于神经网络模型是编码模型,第一信道信息包括通过信道估计得到的信道信息,第二信道信息包括信道信息对应的压缩比特流。
也即,在终端设备对应的发送端,设置有编码模型,利用不同尺度的信道信息,对当前反馈周期的压缩过程对应的编码性能进行增强。
·响应于神经网络模型是解码模型,第一信道信息包括信道信息对应的压缩比特流,第二信道信息包括还原后的信道信息。
也即,在网络设备对应的接收端,设置有解码模型,利用不同尺度的压缩比特流,对当前反馈周期的解压缩过程对应的解码性能进行增强。
下面,通过如下几个示例对本申请技术方案进行示例性的说明。
结合参考图10,其示出了本申请一个示例性实施例提供的在发送端基于多尺度信息以进行编码性能增强的示意图。
在本实施例中,将n个反馈周期的信道信息分别记为H_1至H_n,输出当前的第n个反馈周期对应的信道信息的压缩比特流B_n。本实施例对应于一种基于LSTM的联合增强机制。本实施例将不同尺度的信道信息的组合当做不同长度的序列,作为编码器的输入。
首先对n个反馈周期的信道信息{H_1,...,H_n}通过扁平化(flatten)处理进行维度压缩,得到{H’_1,...,H’_n}。设置粒度信息s的值为1,最大历史尺度为n,那么共有不同的尺度n个。编码器所需的LSTM结构数为n个。
将{H’_1,...,H’_n}、{H’_2,...,H’_n}至{H’_n}当做序列,分别作为第1个LSTM结构至第n个LSTM结构的输入,同时各个LSTM结构只输出LSTM的最后一次循环的网络输出。
进一步地,将各个LSTM结构的输出{R_1,...,R_n}按通道维度进行拼接,并通过全连接层进行维度放大,将信息转换为当前反馈周期对应的压缩比特流B_n。
本实施例,在发送端的神经网络模型设计中,针对不同反馈周期的信道信息进行多尺度的最优联合利用,以实现对编码性能的增强。
结合参考图11,其示出了本申请一个示例性实施例提供的在接收端基于多尺度信息以进行解码性能增强的示意图。
在本实施例中,将n个反馈周期的压缩比特流分别记为B_1至B_n,输出当前的第n个反馈周期对应的还原后的信道信息H’_n。本实施例对应于一种基于卷积神经网络的联合增强机制。本实施例将不同尺度的信道信息的组合当做不同长度的图像,作为解码器的输入。
图11中的(a)对应于一种编码器结构。首先将输入的信道信息转换为一维向量H_n输入模型。模型采用全连接神经网络,包括M层全连接层,最后一层全连接层将信息转换为压缩比特流B_n,M为正整数。在各个全连接层之间也可以加入激活层、归一化层、量化层等网络层。
图11中的(b)对应于一种解码器结构。n个反馈周期的压缩比特流{B_1,...,B_n}作为解码器输入,每一个压缩比特流首先通过全连接层将维度放大并转换成信道信息矩阵的维度,生成特征图{B’_1,...,B’_n}。设置粒度信息s的值为1,最大历史尺度为n,那么共有不同的尺度n个。解码器所需的残差块结构数为n个。
将{B’_1,...,B’_n}、{B’_2,...,B’_n}至{B’_n}按照通道维度进行拼接,并分别作为第1个残差块结构至第n个残差块结构的输入。进一步地,将各个残差块的输出{R_1,...,R_n}按通道维度进行拼接,并利用1X1的卷积层进行合并,最后通过残差块进行重构还原,得到还原后的信道信息H’_n。
本实施例,在接收端的神经网络模型设计中,针对不同反馈周期的信道信息的压缩比特流进行多尺度的最优联合利用,以实现对解码性能的增强。
结合参考图12,其示出了本申请一个示例性实施例提供的在接收端基于多尺度信息以进行解码性能增强的示意图。
在本实施例中,将n个反馈周期的压缩比特流分别记为B_1至B_n,输出当前的第n个反馈周期对应的还原后的信道信息H’_n。本实施例对应于一种基于循环神经网络的联合增强机制。本实施例将不同尺度的压缩比特流的组合当做不同长度的序列,作为解码器的输入。
图12中的(a)对应于一种编码器结构。特征提取器采用卷积神经网络,包括M层卷积神经网络层,最后一层全连接层将信息转换为压缩比特流B_n,M为正整数。在各个神经网络层之间也可以加入激活层、归一化层、量化层等网络层。
图12中的(b)对应于一种解码器结构。n个反馈周期的压缩比特流{B_1,...,B_n}作为解码器输入。设置粒度信息s的值为1,最大历史尺度为n,那么共有不同的尺度n个。解码器所需的RNN结构数为n个。
将{B_1,...,B_n}、{B_2,...,B_n}至{B_n}当做序列,分别作为第1个RNN结构至第n个RNN结构的输入,同时各个RNN结构只输出RNN的最后一次循环的网络输出。
进一步地,将各个RNN结构的输出{R_1,...,R_n}按通道维度进行拼接,并利用1X1的卷积层进行合并,通过全连接层将维度放大并转换成信道信息矩阵的维度,最后通过残差块进行重构还原,得到还原后的信道信息H’_n。
本实施例,在接收端的神经网络模型设计中,针对不同反馈周期的信道信息的压缩比特流进行多尺度的最优联合利用,以实现对解码性能的增强。
结合参考图13,其示出了本申请一个示例性实施例提供的在接收端基于多尺度信息以进行解码性能增强的示意图。
在本实施例中,将n个反馈周期的压缩比特流分别记为B_1至B_n,输出当前的第n个反馈周期对应的还原后的信道信息H’_n。本实施例对应于一种基于长短期记忆网络的自适应选择机制。本实施例将不同尺度的压缩比特流的组合当做不同长度的序列,作为解码器的输入。
图13中的(a)对应于一种编码器结构。采用卷积神经网络及Inception结构,即利用不同卷积核大小对信道信息H_n进行特征提取,并对特征图进行通道维度的拼接,通过1X1的卷积层进行特征图合并,最后通过全连接层将信息转换为输出压缩比特流B_n。同时,在各 个神经网络层之间也可以加入激活层、归一化层、量化层等网络层。
图13中的(b)对应于一种解码器结构。n个反馈周期的压缩比特流{B_1,...,B_n}作为解码器输入。设置粒度信息s的值为1,最大历史尺度为n,那么共有不同的尺度n个。解码器所需的LSTM结构数为n个。
将{B_1,...,B_n}、{B_2,...,B_n}至{B_n}当做序列,分别作为第1个LSTM结构至第n个LSTM结构的输入,同时各个LSTM结构只输出LSTM的最后一次循环的网络输出。
进一步地,将各个LSTM结构的输出{R_1,...,R_n}按通道拼接为张量P,通过1X1卷积层进行通道合并,同时通过两层全连接层输出one-hot(独热)的选择向量,并将选择向量按通道维度与张量P进行点乘,完成从多支路到单支路的选择操作。之后通过全连接层将维度放大并转换成信道信息矩阵的维度,最后通过残差块进行重构还原,得到还原后的信道信息H’_n。
本实施例,在接收端的神经网络模型设计中,针对不同反馈周期的信道信息的压缩比特流进行多尺度的自适应选择利用,以实现对解码性能的增强。
可以理解的是,上述示例中所示出的神经网络模型结构不构成对本申请技术方案的限定。由于不同的数据特征、或信道特征会对上述模型的选择带来不同的影响。即模型选择需要与当前的数据特征、或者信道特征相匹配。神经网络模型均可根据不同的信道数据进行相应调整,例如:将编码器的特征提取器修改成其它特征提取网络、将LSTM换为其他形式的循环神经网络模块等。
需要说明的是,上述方法实施例可以分别单独实施,也可以组合实施,本申请对此不进行限制。
在上述各个实施例中,由终端设备执行的步骤可以单独实现成为终端设备一侧的信息处理方法,由网络设备执行的步骤可以单独实现成为网络设备一侧的信息处理方法。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图14示出了本申请一个示例性实施例提供的信息处理装置的结构框图,该装置可以实现成为通信设备,或者,实现成为通信设备中的一部分,该装置包括:信息获取模块1401、信息拼接模块1402和信息处理模块1403;
所述信息获取模块1401,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
所述信息拼接模块1402,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;
所述信息处理模块1403,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是编码模型和解码模型中的一个。
在一个可选的实施例中,所述信息拼接模块1402包括:粒度信息获取子模块和信息拼接子模块;
所述粒度信息获取子模块,用于获取粒度信息,所述粒度信息用于指示粒度s,所述s为正整数;
所述信息拼接子模块,用于基于所述粒度信息,对所述n个第一信道信息进行m次不同尺度的拼接,得到所述m个拼接信道信息,任意两个拼接信道信息中所拼接的第一信道信息的个数的差值为所述s的整数倍。
在一个可选的实施例中,m个所述拼接信道信息中分别包括对应于第n个反馈周期的第 n个第一信道信息。
在一个可选的实施例中,所述信息拼接子模块,用于将所述n个第一信道信息中的第(a-1)*s+1个第一信道信息至第n个第一信道信息进行拼接,得到第a个拼接信道信息,所述a为从1开始递增加一的正整数,且所述(a-1)*s+1小于所述n。
在一个可选的实施例中,所述信息获取模块1401,用于获取对应于n个反馈周期的n个第一信道信息,得到序列表示的所述n个第一信道信息;
或,
所述信息获取模块1401,用于获取对应于n个反馈周期的n个第一信道信息,将所述n个第一信道信息经过第一神经网络层进行处理,得到特征图表示的所述n个第一信道信息。
在一个可选的实施例中,所述信息处理模块1403,用于:将所述m个拼接信道信息分别输入m个第二神经网络层进行处理,得到m个信道特征;对所述m个信道特征进行加权拼接,得到拼接信道特征,将所述拼接信道特征输入第三神经网络层,得到所述第二信道信息;或,在所述m个信道特征中选择目标信道特征,将所述目标信道特征输入第四神经网络层,得到所述第二信道信息。
在一个可选的实施例中,响应于所述神经网络模型是编码模型,所述第一信道信息包括通过信道估计得到的信道信息,所述第二信道信息包括所述信道信息对应的压缩比特流。
在一个可选的实施例中,响应于所述神经网络模型是解码模型,所述第一信道信息包括信道信息对应的压缩比特流,所述第二信道信息包括还原后的所述信道信息。
需要说明的一点是,上述实施例提供的装置在实现其功能时,仅以上述各个功能模块的划分进行举例说明,实际应用中,可以根据实际需要而将上述功能分配由不同的功能模块完成,即将设备的内容结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图15示出了本申请一个示例性实施例提供的通信设备(终端设备或网络设备)的结构示意图,该通信设备包括:处理器1501、接收器1502、发射器1503、存储器1504和总线1505。
处理器1501包括一个或者一个以上处理核心,处理器1501通过运行软件程序以及模块,从而执行各种功能应用以及信息处理。
接收器1502和发射器1503可以实现为一个通信组件,该通信组件可以是一块通信芯片。
存储器1504通过总线1505与处理器1501相连。
存储器1504可用于存储至少一个指令,处理器1501用于执行该至少一个指令,以实现上述方法实施例中的各个步骤。
此外,存储器1504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,易失性或非易失性存储设备包括但不限于:磁盘或光盘,电可擦除可编程只读存储器(Electrically-Erasable Programmable Read Only Memory,EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM),静态随时存取存储器(Static Random Access Memory,SRAM),只读存储器(Read-Only Memory,ROM),磁存储器,快闪存储器,可编程只读存储器(Programmable Read-Only Memory,PROM)。
其中,当通信设备实现为终端设备时,本申请实施例涉及的中的处理器和收发器,可以执行上述图8至图10任一所示的方法中,由终端设备执行的步骤,此处不再赘述。
在一种可能的实现方式中,当通信设备实现终端设备时,
所述处理器,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
所述处理器,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个 数互不相同,所述m为正整数;
所述处理器,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是编码模型。
其中,当通信设备实现为网络设备时,本申请实施例涉及的中的处理器和收发器,可以执行上述图8至图9、图11至图13任一所示的方法中,由网络设备执行的步骤,此处不再赘述。
在一种可能的实现方式中,当通信设备实现为网络设备时,
所述收发器,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;
所述处理器,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;
所述处理器,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;
其中,所述神经网络模型是解码模型。
本申请实施例还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序用于被终端设备的处理器执行,以实现上述终端设备侧的信息处理方法。
本申请实施例还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序用于被网络设备的处理器执行,以实现上述网络设备侧的信息处理方法。
可选地,该计算机可读存储介质可以包括:ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存储器)、SSD(Solid State Drives,固态硬盘)或光盘等。其中,随机存取记忆体可以包括ReRAM(Resistance Random Access Memory,电阻式随机存取记忆体)和DRAM(Dynamic Random Access Memory,动态随机存取存储器)。
本申请实施例还提供了一种芯片,所述芯片包括可编程逻辑电路和/或程序指令,当所述芯片在终端设备上运行时,用于实现上述终端设备侧的信息处理方法。
本申请实施例还提供了一种芯片,所述芯片包括可编程逻辑电路和/或程序指令,当所述芯片在网络设备上运行时,用于实现上述网络设备侧的信息处理方法。
本申请实施例还提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中,终端设备的处理器从所述计算机可读存储介质读取并执行所述计算机指令,以实现上述终端设备侧的信息处理方法。
本申请实施例还提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中,网络设备的处理器从所述计算机可读存储介质读取并执行所述计算机指令,以实现上述网络设备侧的信息处理方法。
应理解,在本申请的实施例中提到的“指示”可以是直接指示,也可以是间接指示,还可以是表示具有关联关系。举例说明,A指示B,可以表示A直接指示B,例如B可以通过A获取;也可以表示A间接指示B,例如A指示C,B可以通过C获取;还可以表示A和B之间具有关联关系。
在本申请实施例的描述中,术语“对应”可表示两者之间具有直接对应或间接对应的关系,也可以表示两者之间具有关联关系,也可以是指示与被指示、配置与被配置等关系。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在 B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
另外,本文中描述的步骤编号,仅示例性示出了步骤间的一种可能的执行先后顺序,在一些其它实施例中,上述步骤也可以不按照编号顺序来执行,如两个不同编号的步骤同时执行,或者两个不同编号的步骤按照与图示相反的顺序执行,本申请实施例对此不作限定。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (21)
- 一种信息处理方法,其特征在于,所述方法包括:获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;其中,所述神经网络模型是编码模型和解码模型中的一个。
- 根据权利要求1所述的方法,其特征在于,所述对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,包括:获取粒度信息,所述粒度信息用于指示粒度s,所述s为正整数;基于所述粒度信息,对所述n个第一信道信息进行m次不同尺度的拼接,得到所述m个拼接信道信息,任意两个拼接信道信息中所拼接的第一信道信息的个数的差值为所述s的整数倍。
- 根据权利要求2所述的方法,其特征在于,m个所述拼接信道信息中分别包括对应于第n个反馈周期的第n个第一信道信息。
- 根据权利要求3所述的方法,其特征在于,所述基于所述粒度信息,对所述n个第一信道信息进行m次不同尺度的拼接,得到所述m个拼接信道信息,包括:将所述n个第一信道信息中的第(a-1)*s+1个第一信道信息至第n个第一信道信息进行拼接,得到第a个拼接信道信息,所述a为从1开始递增加一的正整数,且所述(a-1)*s+1小于所述n。
- 根据权利要求1至4任一所述的方法,其特征在于,所述获取对应于n个反馈周期的n个第一信道信息,包括:获取对应于n个反馈周期的n个第一信道信息,得到序列表示的所述n个第一信道信息;或,获取对应于n个反馈周期的n个第一信道信息,将所述n个第一信道信息经过第一神经网络层进行处理,得到特征图表示的所述n个第一信道信息。
- 根据权利要求1至5任一所述的方法,其特征在于,所述将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息,包括:将所述m个拼接信道信息分别输入m个第二神经网络层进行处理,得到m个信道特征;对所述m个信道特征进行加权拼接,得到拼接信道特征,将所述拼接信道特征输入第三神经网络层,得到所述第二信道信息;或,在所述m个信道特征中选择目标信道特征,将所述目标信道特征输入第四神经网络层,得到所述第二信道信息。
- 根据权利要求1至6任一所述的方法,其特征在于,响应于所述神经网络模型是编码模型,所述第一信道信息包括通过信道估计得到的信道信息,所述第二信道信息包括所述信道信息对应的压缩比特流。
- 根据权利要求1至6任一所述的方法,其特征在于,响应于所述神经网络模型是解码模型,所述第一信道信息包括信道信息对应的压缩比特流,所述第二信道信息包括还原后的所述信道信息。
- 一种信息处理装置,其特征在于,所述装置包括:信息获取模块、信息拼接模块和信息处理模块;所述信息获取模块,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期 是信道信息的反馈周期,所述n为大于1的正整数;所述信息拼接模块,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;所述信息处理模块,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;其中,所述神经网络模型是编码模型和解码模型中的一个。
- 根据权利要求9所述的装置,其特征在于,所述信息拼接模块包括:粒度信息获取子模块和信息拼接子模块;所述粒度信息获取子模块,用于获取粒度信息,所述粒度信息用于指示粒度s,所述s为正整数;所述信息拼接子模块,用于基于所述粒度信息,对所述n个第一信道信息进行m次不同尺度的拼接,得到所述m个拼接信道信息,任意两个拼接信道信息中所拼接的第一信道信息的个数的差值为所述s的整数倍。
- 根据权利要求10所述的装置,其特征在于,m个所述拼接信道信息中分别包括对应于第n个反馈周期的第n个第一信道信息。
- 根据权利要求11所述的装置,其特征在于,所述信息拼接子模块,用于将所述n个第一信道信息中的第(a-1)*s+1个第一信道信息至第n个第一信道信息进行拼接,得到第a个拼接信道信息,所述a为从1开始递增加一的正整数,且所述(a-1)*s+1小于所述n。
- 根据权利要求9至12任一所述的装置,其特征在于,所述信息获取模块,用于获取对应于n个反馈周期的n个第一信道信息,得到序列表示的所述n个第一信道信息;或,所述信息获取模块,用于获取对应于n个反馈周期的n个第一信道信息,将所述n个第一信道信息经过第一神经网络层进行处理,得到特征图表示的所述n个第一信道信息。
- 根据权利要求9至13任一所述的装置,其特征在于,所述信息处理模块,用于:将所述m个拼接信道信息分别输入m个第二神经网络层进行处理,得到m个信道特征;对所述m个信道特征进行加权拼接,得到拼接信道特征,将所述拼接信道特征输入第三神经网络层,得到所述第二信道信息;或,在所述m个信道特征中选择目标信道特征,将所述目标信道特征输入第四神经网络层,得到所述第二信道信息。
- 根据权利要求9至14任一所述的装置,其特征在于,响应于所述神经网络模型是编码模型,所述第一信道信息包括通过信道估计得到的信道信息,所述第二信道信息包括所述信道信息对应的压缩比特流。
- 根据权利要求9至14任一所述的装置,其特征在于,响应于所述神经网络模型是解码模型,所述第一信道信息包括信道信息对应的压缩比特流,所述第二信道信息包括还原后的所述信道信息。
- 一种终端设备,其特征在于,所述终端设备包括:处理器;其中,所述处理器,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;所述处理器,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;所述处理器,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;其中,所述神经网络模型是编码模型。
- 一种网络设备,其特征在于,所述网络设备包括:处理器和与所述处理器相连的收发器;其中,所述收发器,用于获取对应于n个反馈周期的n个第一信道信息,所述反馈周期是信道信息的反馈周期,所述n为大于1的正整数;所述处理器,用于对所述n个第一信道信息进行m次不同尺度的拼接,得到m个拼接信道信息,所述不同尺度的拼接用于指示所述m个拼接信道信息中所拼接的第一信道信息的个数互不相同,所述m为正整数;所述处理器,用于将所述m个拼接信道信息输入神经网络模型进行处理,得到第二信道信息;其中,所述神经网络模型是解码模型。
- 一种计算机可读存储介质,其特征在于,所述可读存储介质中存储有可执行指令,所述可执行指令由处理器加载并执行以实现如权利要求1至8任一所述的信息处理方法。
- 一种芯片,其特征在于,所述芯片包括可编程逻辑电路和/或程序指令,当所述芯片运行时,用于实现如权利要求1至8任一所述的信息处理方法。
- 一种计算机程序产品或计算机程序,其特征在于,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中,处理器从所述计算机可读存储介质读取并执行所述计算机指令,以实现如权利要求1至8任一所述的信息处理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/087263 WO2022217502A1 (zh) | 2021-04-14 | 2021-04-14 | 信息处理方法、装置、通信设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116671042A true CN116671042A (zh) | 2023-08-29 |
Family
ID=83639976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180085499.9A Pending CN116671042A (zh) | 2021-04-14 | 2021-04-14 | 信息处理方法、装置、通信设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116671042A (zh) |
WO (1) | WO2022217502A1 (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102403763B1 (ko) * | 2017-06-27 | 2022-05-30 | 삼성전자주식회사 | 무선 통신 시스템에서 명시적 채널 상태 정보 피드백을 위한 피드백 정보 설정하기 위한 방법 |
CN109672464B (zh) * | 2018-12-13 | 2021-09-03 | 西安电子科技大学 | 基于fcfnn的大规模mimo信道状态信息反馈方法 |
CN111464465B (zh) * | 2020-03-11 | 2022-05-06 | 重庆邮电大学 | 一种基于集成神经网络模型的信道估计方法 |
CN112039807A (zh) * | 2020-08-31 | 2020-12-04 | 中兴通讯股份有限公司 | 下行信道估计方法、装置、通信设备和存储介质 |
-
2021
- 2021-04-14 CN CN202180085499.9A patent/CN116671042A/zh active Pending
- 2021-04-14 WO PCT/CN2021/087263 patent/WO2022217502A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022217502A1 (zh) | 2022-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10462476B1 (en) | Devices for compression/decompression, system, chip, and electronic device | |
CN107632987B (zh) | 一种对话生成方法及装置 | |
CN109451308B (zh) | 视频压缩处理方法及装置、电子设备及存储介质 | |
CN111868753A (zh) | 使用条件熵模型的数据压缩 | |
ZA200408780B (en) | Method and system for multi-rate lattice vector quantization of a signal. | |
CN110930408B (zh) | 基于知识重组的语义图像压缩方法 | |
CN114071141A (zh) | 一种图像处理方法及其设备 | |
CN111918071A (zh) | 数据压缩的方法、装置、设备及存储介质 | |
CN111045726B (zh) | 支持编码、解码的深度学习处理装置及方法 | |
CN113271110B (zh) | 一种文本的语义信源信道联合编译码方法及装置 | |
CN116671042A (zh) | 信息处理方法、装置、通信设备及存储介质 | |
CN116484874A (zh) | 视频生成方法、装置、存储介质及计算机设备 | |
WO2022257121A1 (zh) | 通信方法、设备及存储介质 | |
CN114692774A (zh) | 编码器压缩率的调整方法、数据的反馈方法及装置 | |
CN113554719A (zh) | 一种图像编码方法、解码方法、存储介质及终端设备 | |
CN110855990A (zh) | 图像编码、解码方法、计算机设备和图像处理系统 | |
CN109003614A (zh) | 一种语音传输方法、语音传输系统及终端 | |
CN113627567B (zh) | 图片处理方法、文本处理方法、相关设备及存储介质 | |
CN111131839B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN118447857A (zh) | 音频编码和解码方法、装置及电子设备 | |
CN116309151B (zh) | 图片去压缩失真网络的参数生成方法、装置和存储介质 | |
CN118379219B (zh) | 模型生成方法及图像生成方法 | |
CN115833847B (zh) | Polar码译码方法、装置、通信设备和存储介质 | |
CN114915376B (zh) | 译码方法、编码方法、装置、设备和存储介质 | |
US20230229894A1 (en) | Method and apparatus for compression and training of neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |