CN111130565A - 一种基于神经网络的译码方法及装置 - Google Patents
一种基于神经网络的译码方法及装置 Download PDFInfo
- Publication number
- CN111130565A CN111130565A CN201811279026.9A CN201811279026A CN111130565A CN 111130565 A CN111130565 A CN 111130565A CN 201811279026 A CN201811279026 A CN 201811279026A CN 111130565 A CN111130565 A CN 111130565A
- Authority
- CN
- China
- Prior art keywords
- bit
- decoding
- indication information
- information
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/13—Linear codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/11—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
- H03M13/1102—Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
- H03M13/1105—Decoding
- H03M13/1108—Hard decision decoding, e.g. bit flipping, modified or weighted bit flipping
Abstract
一种基于神经网络的译码方法及装置,用以提高SCF译码方法的性能。该方法为:从神经网络获取第一指示信息,所述第一指示信息用于指示:第一比特翻转位置,和/或,是否对第一比特翻转操作进行回退,所述第一比特翻转操作为对待译码信息进行第一译码的过程中执行的;对所述待译码信息进行第二译码,获得译码结果;其中,在所述第二译码的过程中,按照所述第一指示信息所指示的所述第一比特翻转位置执行第二比特翻转操作,和/或,按照所述第一指示信息对所述第一比特翻转操作进行回退。
Description
技术领域
本申请实施例涉及通信技术领域,尤其涉及一种基于神经网络的译码方法及装置。
背景技术
极化码(Polar Codes)在第五代(5th generation,5G)通信系统具有很大的发展和应用前景。极化码也可以称为Polar码。Polar码是一种线性块码,其生成矩阵为GN,其编码过程为 是一个二进制的行矢量,长度为N(即码长);且这里BN是一个N×N的转置矩阵,例如比特逆序转置矩阵;其中,BN是可选量,生成矩阵GN的运算过程可以省略BN的运算。定义为log2N个矩阵F2的克罗内克(Kronecker)乘积,x1 N是编码后的比特(也叫码字),u1 N与生成矩阵GN相乘后就得到编码后的比特,相乘的过程就是编码的过程。在Polar码的编码过程中,u1 N中的一部分比特用来携带信息,称为信息比特,信息比特的索引的集合记作A;u1 N中另外的一部分比特置为收发端预先约定的固定值,称之为固定比特,其索引的集合用A的补集Ac表示。固定比特通常被设为0,只需要收发端预先约定,固定比特序列可以被任意设置。
在Polar码的译码方法中,现有的一种逐比特消除(Successive Cancellation,SC)译码方法的译码过程如下所述。接收到待译码信息后,对于待译码信息中信息比特,逐个计算每一个信息比特的对数似然比(Log Likelihood Ratio,LLR),进行逐比特判决。若信息比特的LLR>0,则判决结果为0。若信息比特的LLR<0,则判决结果为1。对于待译码信息中的固定比特,无论LLR为多少,判决结果都为0。图1为SC译码计算过程示意图,以译码比特为4个为例,图1中共有8个计算节点,其中有4个F节点,4个G节点,F节点和G节点分别对应F函数和G函数。F节点的计算需要其右侧2项LLR输入,G节点的计算需要其右侧2项LLR输入以及上一级的输出也作为输入,只有输入项计算完成后,才能计算输出。按照上述计算规则,图1中从右侧接收信号开始,按序计算8个节点,获得的译码比特的顺序为①→②→③→④,至此译码完成。由于前一个译码比特的结果作为后一个译码比特计算的G函数的输入,所以前一个比特一旦判错,会导致错误扩散,且没有机会挽回,因此译码性能不高。SC译码方法比特判决的错误可以分为两类。由信道噪声引起的错误称为I类错误。由于I类错误扩散导致的错误称为II类错误。
基于比特翻转的逐比特消除(Successive Cancellation Flip,SCF)是SC译码方法的一种增强方法。SCF译码方法的思想是通过逐步纠正SC译码方法中的I类错误来提升译码性能。将接收的信号(即待译码信息)进行SC译码,若译码结果未通过校验,则译码错误。确定I类错误出现的位置,将发生I类错误的位置上的信息比特翻转,即将信息比特的硬判决结果取反。翻转后再次进行SC译码,直到译码成功,或翻转次数达到上限。
现有的确定I类错误的方法并不成熟,导致翻转次数较高,甚至译码失败,从而限制了SCF译码方法的性能。
发明内容
本申请实施例提供一种基于神经网络的译码方法及装置,用以提高SCF译码方法的性能。
本申请实施例提供的具体技术方案如下:
第一方面,提供一种基于神经网络的译码方法,该方法的执行主体为译码设备,译码设备可以是终端,也可以是网络设备。译码设备通过以下步骤实现该方法。具体如下:从神经网络获取第一指示信息,所述第一指示信息用于指示:第一比特翻转位置,和/或,是否对第一比特翻转操作进行回退,所述第一比特翻转操作为对待译码信息进行第一译码的过程中执行的;对所述待译码信息进行第二译码,获得译码结果;其中,在所述第二译码的过程中,按照所述第一指示信息所指示的所述第一比特翻转位置执行第二比特翻转操作,和/或,按照所述第一指示信息对所述第一比特翻转操作进行回退。这样,在译码方法中结合神经网络,通过神经网络输出翻转的比特位置,在译码过程中进行比特翻转,提高比特翻转位置的预测精度,降低译码过程所需的比特翻转次数,降低计算复杂度和译码时延。
在一个可能的设计中,所述对待译码信息进行第二译码,获得译码结果,包括:根据待译码信息确定软信息序列,对所述软信息序列进行硬判决,获得所述译码结果;所述方法还包括:若所述译码结果错误,则将所述软信息序列输入所述神经网络。从而达到译码的模块与神经网络的模块组成一个循环的执行过程,能够根据神经网络确定下一次的翻转位置指示和/或翻转操作回退指示。
在一个可能的设计中,所述软信息序列的长度为N,所述N为极化Polar码的母码长度,N为2的正整数次幂。可以看出,神经网络的输入向量为长度为N的向量。
在一个可能的设计中,所述第一指示信息的长度为(K+1);所述第一指示信息中的K个值与Polar码中K个非固定比特的位置一一对应,所述K个值中的最大值指示所述第一比特翻转位置,所述第一指示信息中的除所述K个值之外的1个值用于指示是否对第一比特翻转操作进行回退,所述K为正整数。可以看出,神经网络的输出向量大小可以是(K+1)。这样,能够方便指示K个非固定比特位置中的第一比特翻转位置。
在一个可能的设计中,所述第一指示信息指示K个非固定比特的位置被翻转的概率大小的排序。提供了另一种第一比特翻转位置的指示方式,概率从大到小排序,可以从排序靠前的位置选择第一比特翻转位置。概率从小到大排序,可以从排序靠后的位置选择第一比特翻转位置。
在一个可能的设计中,若所述第一指示信息与所述第一译码的过程中依据的第二指示信息不同,则:所述K个非固定比特的位置中未被翻转过且概率最大的位置为所述第一比特翻转位置。提供了一种第一比特翻转位置的具体指示方式。
在一个可能的设计中,若所述第一指示信息与所述第一译码的过程中依据的第二指示信息相同,则:所述第一指示信息指示对所述第一比特翻转操作进行回退,和/或,所述第一指示信息指示排序第(i+1)序号的非固定比特位置为所述第一比特翻转位置,其中,排序第i序号的非固定比特位置为所述第一译码的过程中的第二比特翻转位置,所述i为正整数。提供了一种第一比特翻转位置的具体指示方式。
在一个可能的设计中,所述第一指示信息中包括上取整log2(K),所述上取整log2(K)为所述第一比特翻转位置的二进制表示。提供了一种第一比特翻转位置的具体指示方式,使得第一指示信息占用的比特数更少。
在一个可能的设计中,所述第一指示信息中包括1个比特,所述1个比特用于指示所述是否对第一比特翻转操作进行回退。
在一个可能的设计中,所述方法还包括:基于训练样本,对所述神经网络进行训练;
所述训练样本包括:多个软信息序列样本和多个指示信息样本,所述多个软信息序列样本和所述多个指示信息样本一一对应,所述软信息序列样本执行硬判决得到的译码结果错误,所述指示信息样本用于指示判决错误的非固定比特位置,和/或,所述指示信息样本用于指示对比特翻转操作进行回退。通过训练,使得神经网络能够输出更准确的比特翻转位置或比特翻转操作的回退的指示。
第二方面,提供一种基于神经网络的译码装置,该装置具有实现上述第一方面和第一方面的任一种可能的设计中所述的方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,当所述功能的部分或全部通过硬件实现时,所述译码装置包括:输入接口电路,用于获取待译码信息;逻辑电路,用于执行上述第一方面和第一方面的任一种可能的设计中所述的行为;输出接口电路,用于输出译码结果。
可选的,所述基于神经网络的译码装置可以是芯片或者集成电路。
在一个可能的设计中,当所述功能的部分或全部通过软件实现时,所述基于神经网络的译码装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述基于神经网络的译码装置可以实现如上述第一方面和第一方面的任一种可能的设计中所述的方法。
可选的,上述存储器可以是物理上独立的单元,也可以与处理器集成在一起。
在一个可能的设计中,当所述功能的部分或全部通过软件实现时,所述基于神经网络的译码装置包括处理器。用于存储程序的存储器位于所述基于神经网络的译码装置之外,处理器通过电路/电线与存储器连接,用于读取并执行所述存储器中存储的程序。
第三方面,提供了一种通信系统,该通信系统包括网络设备和终端,所述网络设备、所述终端均可以执行如上述第一方面或第一方面的任一种可能的设计所述的方法。
第四方面,提供了一种计算机存储介质,存储有计算机程序,该计算机程序包括用于执行上述第一方面或第一方面的任一种可能的设计所述的方法的指令。
第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面的任一种可能的设计所述的方法。
附图说明
图1为现有技术中SC译码方法示意图;
图2为本申请实施例中通信系统架构示意图;
图3为本申请实施例中基于神经网络的译码方法的过程示意图之一;
图4为本申请实施例中基于神经网络的译码方法的过程示意图之二;
图5为本申请实施例中基于神经网络的译码装置结构示意图之一;
图6为本申请实施例中基于神经网络的译码装置结构示意图之二;
图7为本申请实施例中基于神经网络的译码装置结构示意图之三。
具体实施方式
本申请提供一种基于神经网络的译码方法,用以减少SCF译码方法中比特翻转的次数,从而提高SCF译码的性能。其中,方法和装置是基于同一发明构思的,由于方法及装置解决问题的原理相似,因此装置与方法的实施可以相互参见,重复之处不再赘述。
在本申请的描述中,字符“/”一般表示前后关联对象是一种“或”的关系。“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。本申请中所涉及的至少一个是指一个或多个;多个,是指两个或两个以上。
下面将结合附图,对本申请实施例进行详细描述。
首先介绍一下本申请实施例适用的通信系统架构。
图2示出了本申请实施例提供的基于神经网络的译码方法适用的一种可能的通信系统的架构,参阅图2所示,通信系统200中包括:网络设备201和一个或多个终端202。当通信系统200包括核心网时,网络设备201还可以与核心网相连。网络设备201可以与IP网络203进行通信,例如,IP网络203可以是:因特网(internet),私有的IP网,或其它数据网等。网络设备201为覆盖范围内的终端202提供服务。例如,参见图2所示,网络设备201为网络设备201覆盖范围内的一个或多个终端202提供无线接入。除此之外,网络设备之间的覆盖范围可以存在重叠的区域,例如网络设备201和网络设备201’的覆盖范围可以存在重叠的区域。网络设备之间还可以互相通信,例如,网络设备201可以与网络设备201’进行通信。
网络设备201是本申请应用的通信系统中将终端202接入到无线网络的设备。网络设备201为无线接入网(radio access network,RAN)中的节点,又可以称为基站,还可以称为RAN节点(或设备)。目前,一些网络设备201的举例为:通用型基站(general node B,gNB)、新空口基站(new radio node B,NR-NB)、传输接收点(transmission receptionpoint,TRP)、演进型节点B(evolved Node B,eNB)、无线网络控制器(radio networkcontroller,RNC)、节点B(Node B,NB)、基站控制器(base station controller,BSC)、基站收发台(base transceiver station,BTS)、家庭基站(例如,home evolved NodeB,HeNB;或home Node B,HNB)、基带单元(base band unit,BBU),或无线保真(wireless fidelity,Wifi)接入点(access point,AP),或5G通信系统或者未来可能的通信系统中的网络侧设备等。
终端202,又称之为用户设备(user equipment,UE)、移动台(mobile station,MS)、移动终端(mobile terminal,MT)等,是一种向用户提供语音和/或数据连通性的设备。例如,终端202包括具有无线连接功能的手持式设备、车载设备等。目前,终端202可以是:手机(mobile phone)、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internetdevice,MID)、可穿戴设备(例如智能手表、智能手环、计步器等),车载设备(例如,汽车、自行车、电动车、飞机、船舶、火车、高铁等)、虚拟现实(virtual reality,VR)设备、增强现实(augmented reality,AR)设备、工业控制(industrial control)中的无线终端、智能家居设备(例如,冰箱、电视、空调、电表等)、智能机器人、车间设备、无人驾驶(self driving)中的无线终端、远程手术(remote medical surgery)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端,或智慧家庭(smart home)中的无线终端、飞行设备(例如,智能机器人、热气球、无人机、飞机)等。
本申请实施例提供的基于神经网络的译码方法可以由网络设备来执行,也可以由终端来执行。本申请实施例提供的基于神经网络的译码方法可以适用于各种无线通信场景,可以但不限于包括适用于增强型移动宽带(enhance mobile broadband,eMBB)、海量机器连接通信(massive machine type communication,mMTC)和高可靠低延迟通信(ultrareliable low latency communication,URLLC)的场景。
本申请实施例中,Polar码母码的长度用N表示,N为2的正整数次幂。编码端和译码端预先约定了固定比特的位置,固定比特通常设为0。非固定比特通常包括信息比特或检验比特。非固定比特的长度用K表示,K为正整数,K≤N;
图3为本申请实施例中基于神经网络的译码方法的过程示意图。该方法的执行主体为译码设备,译码设备可以是网络设备,也可以是终端。适用的译码方法可以包括但不限于以下几种:SC译码方法、和积(sum product)方法、最小和(min-sum)方法、蔡斯(Chase)译码方法、分阶统计译码(ordered statistics decoding)方法、或方盒匹配(box-and-match)译码方法。以下描述中,以译码方法为SC译码方法为例进行介绍,可以理解,所描述的方法可以应用于其它列举的译码方法中,均属于本申请的保护范围。
S301、获取待译码信息。
本申请中,待译码信息还可以称为待译码码字、待译码码块、码块或码字。待译码信息对应的长度为N的LLR向量经过一个或多个层级的F/G运算,到达最后一个层级,根据最后一个层级的软信息序列(即最后一个层级上的LLR向量)进行逐比特硬判决,获得信息侧的译码比特,即获得译码结果。其中,对于非固定比特位置,在进行硬判决时,若LLR>0,则判决结果为0;若LLR<0,则判决结果为1。对于固定比特位置,在进行硬判决时,无论LLR为多少,判决结果都为0。
S302、将待译码信息进行SC译码,获得译码结果。
S303、将SC译码结果进行校验。
若校验通过,则表明译码正确,执行S305。若校验不通过,则表明译码错误,执行S304。需要说明的是,判断译码是否正确的方法可以通过CRC校验或者PM值指示来实现。本步骤以CRC校验为例。
S304、将执行硬判决之前的软信息序列输入神经网络,神经网络输出指示信息。
指示信息指示翻转的非固定比特位置,和/或,指示信息指示对上一次比特翻转操作进行回退。
返回执行S302。
即,按照指示信息再次进行SC译码。其中,在SC译码过程中,按照指示信息进行比特翻转和/或对上一次比特翻转操作进行回退。
继续执行S303和S304,直至校验通过或达到预先设置的最大翻转次数,执行S305。
S305、输出正确的译码结果。
图3描述了本申请基于神经网络的译码方法的基本过程,可见,在译码方法中结合神经网络,通过神经网络输出翻转的比特位置,在译码过程中进行比特翻转。通过神经网络提高比特翻转位置的预测精度,降低译码过程所需的比特翻转次数,降低计算复杂度和译码时延。
那么,如何训练神经网络,以使得神经网络能够输出更准确的比特翻转位置或比特翻转操作的回退的指示,从而达到上述效果。以下介绍一下本申请实施例中神经网络的训练方法。
假设Polar码母码码长为N,N为2的正整数次幂,非固定比特的长度为K,K为正整数。以下描述中,当涉及举例时,可以以N=8,K=4为例进行介绍。本申请中的N可以选择N=32、64、128、256、512或1024等。针对Polar码进行多次SC译码实验,获取SC译码失败的实验样本。SC译码器的输入侧为码字侧,输入符号序列(即待译码信息)Y,SC译码器的输出侧为信息侧,输出译码比特。其中,译码比特为软信息序列LLR进行硬判决得到的结果。硬判决采用的硬判决函数可以是:其中,x为LLR的值。
具体的,在第一次SC译码失败的实验中,向SC译码器中输入待译码信息,通过逐层的F/G函数运算,得到长度为N的软信息序列样本LLR1,根据LLR1进行硬判决得到译码结果C1。如果译码结果C1错误,则说明译码比特中的K个非固定比特存在判决错误。确定判决错误的非固定比特位置,生成能够指示该判决错误的非固定比特位置的指示信息样本。记录该软信息序列样本与该指示信息样本的对应关系。
指示信息样本可以有几种表现方式。
表现方式1:指示信息样本的长度为(K+1),其中K个值与K个非固定比特的位置一一对应,假设第i1=2个非固定比特是第1个错误比特,则将判决错误的非固定比特位置i1进行one-hot编码得到编码序列E1。E1即指示信息样本。E1用二进制表示,用1代表判决错误的非固定比特位置,其他元素为0。或者,用0代表判决错误的非固定比特位置,其他元素为1。例如,K=4时,指示信息样本的长度为5。E1中的4个值对应4个非固定比特的位置,E1中的除4个值之外的1个值用于指示是否对上一次比特翻转操作进行回退。由于本次是第一次SC译码,因此,该值指示不对上一次比特翻转操作进行回退。例如,E1=[0 1 0 0 0],可以用于表示第2个非固定比特是第1个判决错误比特。
表现方式2:指示信息样本包括一个序列L,该指示信息样本指示K个非固定比特的位置序号,其中,K个非固定比特的位置序号在该指示信息样本中是按照判决错误的可能性大小进行排序的。例如,L={I2 I4 I3 I1},可以用于表示第2个非固定比特是第1个判决错误的比特。
表现方式3:指示信息样本包括上取整log2(K),上取整log2(K)可以用于表示第1个判决错误的非固定比特位置的序号。例如,K=4,上取整log2(K)可以占用2个比特。可以用2个比特来表征4个非固定比特的位置,可选的,00表征第1个非固定比特的位置,01表征第1个非固定比特的位置,10表征第1个非固定比特的位置,11表征第1个非固定比特的位置。
可选的,指示信息样本中还可以用1个比特来指示是否对上一次比特翻转操作进行回退。也可以不用显示指示的方式来指示,由于第一次SC译码错误不存在上次比特翻转,因此这里先不对指示回退的方式做介绍,将在后文中介绍。
如此,获取多个软信息序列样本和多个指示信息样本的对应关系,生成训练样本,对神经网络进行训练。可以得到神经网络的初级训练效果,或者阶段性的训练效果。根据该阶段性的训练效果,可以对神经网络进一步强化训练,以使得神经网络更加成熟。具体过程如下。
向SC译码器中输入待译码信息,通过逐层的F/G函数运算,得到长度为N的软信息序列样本LLR1,对LLR1进行硬判决得到译码结果C1。如果译码结果C1错误,将LLR1输入神经网络,根据上述对神经网络的训练,神经网络输出指示信息,该指示信息用于指示比特翻转位置,假设为第i1=2个非固定比特位置。SC译码器按照指示信息,对待译码信息再次进行SC译码,记为第二次SC译码。在第二次SC译码过程中,类似的,通过逐层的F/G函数运算,得到长度为N的软信息序列样本LLR2,对LLR2进行硬判决。其中,按照神经网络输出的指示信息,将第i1=2个非固定比特位置的硬判决结果进行翻转,后续比特位置按照正常SC译码方法继续进行译码,得到第二次SC译码的译码结果C2。如果译码结果C2错误,则说明译码比特中的K个非固定比特仍然存在判决错误。假设第i2个非固定比特位置是第一个判决错误的比特,则:若i2大于i1,则表明上一次的比特翻转操作正确,将判决错误的非固定比特位置i2进行one-hot编码得到编码序列E2。E2为指示信息样本。E2用二进制表示,用1代表判决错误的非固定比特位置,其他元素为0。或者,用0代表判决错误的非固定比特位置,其他元素为1。以指示信息样本的表现方式1为例,K=4时,指示信息样本的长度为5。E2中的4个值对应4个非固定比特的位置,E2中的除4个值之外的1个值用于指示是否对上一次比特翻转操作进行回退,可以用一个比特来表示。假设i1=3,E2=[0 0 1 0 0],可以用于表示第3个非固定比特是第1个判决错误比特。
若i2小于或者等于i1,则表明上一次的比特翻转操作错误,则指示信息样本中的与K个非固定比特位置具有对应关系的K个值接近于0,另外一个值接近于1,用于指示上一次的比特翻转操作错误,即对第i1个非固定比特位置的硬判决结果进行翻转的操作错误,第i1个非固定比特位置并不是判决错误的比特,或者,并不是第一个判决错误的比特。以指示信息样本的表现方式1为例,K=4时,指示信息样本的长度为5。E2=[0 0 0 0 1],可以用于标识上一次的比特翻转错误。
类似的,若译码错误,则后续SC译码的过程与第二次SC译码的过程类似,重复之处不再赘述。如此,获取多个软信息序列样本和多个指示信息样本的对应关系,生成训练样本,对神经网络进行强化训练。
神经网络的训练是以多次仿真译码的失败样本进行的,神经网络的训练效果与失败样本的选取数量也有关系。经过强化学习训练,可以得到神经网络的网络参数。本申请实施例中,神经网络可以选择隐藏状态大小为N的三层长短期记忆(long short timememory,LSTM)神经网络,N为Polar码的母码长度。神经网络的输入向量的大小为N,可以是长度为N的软信息序列,输出向量的大小可以为(K+1)、或者3。输出向量为指示信息,指示信息的大小与指示信息的表现方式有关。神经网络的输出与一层全链接网络相连,可以输出指示信息大小的向量。
基于上述描述,如图4所示,下面将详细介绍一下本申请实施例基于神经网络的译码方法。同样的,N为Polar码的母码长度,K为非固定比特的数目,与神经网络训练过程对应,以下描述涉及举例时,可以以N=8,K=4为例进行描述。
S401、从神经网络获取第一指示信息。
该第一指示信息用于指示第一比特翻转位置,和/或,是否对第一比特翻转操作进行回退,其中,第一比特翻转操作为对待译码信息进行第一译码的过程中执行的。若第一指示信息为从神经网络获取的初始值,则第一指示信息仅用于指示第一比特翻转位置,可以不用于指示是否对第一比特翻转操作进行回退。若第一指示信息不是从神经网络获取的初始值,则在第一译码过程中,已按照从神经网络获取的第二指示信息指示的第二比特翻转位置进行第一比特翻转操作。
S402、对待译码信息进行第二译码,获得译码结果。
具体的,根据待译码信息确定软信息序列,对软信息序列进行硬判决,获得译码结果。
第一译码在第二译码之前执行的,第一译码为第二译码的上一次译码。
其中,在第二译码的过程中,按照第一指示信息所指示的第一比特翻转位置执行第二比特翻转操作,和/或,按照第一指示信息对所述第一比特翻转操作进行回退。
S403、若S402的译码结果错误,则将软信息序列输入神经网络。
重复执行比特翻转和/或比特翻转回退的操作,直到译码成功或达到设定的最大翻转次数为止。
具体来说,第一指示信息包括但不限于以下几种表现形式,对应上述神经网络的训练过程中指示信息样本的几种表现形式,相关之处可以参照上文的描述。第二指示信息与第一指示信息的表现形式类似。
表现形式1:第一指示信息的长度为(K+1);第一指示信息中的K个值与Polar码中K个非固定比特的位置一一对应,K个值中的最大值指示该第一比特翻转位置,第一指示信息中的除K个值之外的1个值用于指示是否对第一比特翻转操作进行回退。
举例来说,N=8,K=4。在初始译码结果错误时,将硬判决之前的软信息序列输入神经网络,神经网络输出序列O1,O1作为指示信息。假设O1=[0.0 0.5 0.2 0.3 0.0],则前4个值中最大值为0.5,指示第二比特翻转位置为第2个非固定比特位置。在第一译码过程中,按照第二比特翻转位置进行第一比特翻转操作。具体的,将待译码信息进行第一译码,在第一译码过程中,获得软信息序列LLR1,将软信息序列LLR1进行硬判决,其中将第2个非固定比特位置的硬判决结果进行翻转,翻转即取反,将后续比特按照传统译码方法继续进行译码,得到第一译码过程的译码结果C1。若译码结果C1错误,则将LLR1输入神经网络,神经网络输出序列O2,假设O2=[0.0 0.0 0.8 0.2 0.0],则前4个值中最大值为0.8,指示第一比特翻转位置为第3个非固定比特位置。由于第3个非固定比特位置大于第2个非固定比特位置,说明第一译码过程中按照第二比特翻转位置执行的第一比特翻转操作是正确的,可继续对第3个非固定比特位置进行比特翻转。在第二译码过程中,获得软信息序列LLR2,将软信息序列LLR2进行硬判决,其中将第3个非固定比特位置的硬判决结果进行翻转,将后续比特按照传统译码方法继续进行译码,得到第二译码过程的译码结果C2。若C2错误,则继续将LLR2输入神经网络。重复执行比特翻转和/或比特翻转回退的操作,直到译码成功或达到设定的最大翻转次数为止。
假设O2=[0.01 0.01 0.01 0.01 0.96],则前4个值接近于0,表示本次不对4个非固定比特位置进行翻转,最后一个值接近于1,表示第一译码过程中按照第二比特翻转位置执行的第一比特翻转操作很大概率是错误的,需要对第一比特翻转操作进行回退。并在第二译码过程中,进一步按照O1=[0.0 0.5 0.2 0.3 0.0]指示的K个值中的次大值进行比特翻转。
表现形式2:第一指示信息指示K个非固定比特的位置被翻转的概率大小的排序。
其中,若第一指示信息与第二指示信息不同,则K个非固定比特的位置中未被翻转过且概率最大的位置为第一比特翻转位置。
若第一指示信息与第二指示信息相同,则:第一指示信息指示对第一比特翻转操作进行回退,和/或,第一指示信息指示排序第(i+1)序号的非固定比特位置为第一比特翻转位置,其中,排序第i序号的非固定比特位置为第一译码的过程中的第二比特翻转位置,i为正整数。
举例来说,N=8,K=4。在初始译码结果错误时,将硬判决之前的软信息序列输入神经网络,得到O1=[0.0 0.5 0.2 0.3 0.0],根据O1中K个值的大小,构建序列L={I2 I4I3 I1},I2表示第2个非固定比特位置,I4表示第4个非固定比特位置,I3表示第3个非固定比特位置,I1表示第1个非固定比特位置。神经网络输出序列L={I2 I4 I3 I1},序列L作为指示信息。序列L指示4个非固定比特的位置被翻转的概率大小的排序。例如,按照从大到小排序,序列L指示第二比特翻转位置为第2个非固定比特位置。在第一译码过程中,按照第二比特翻转位置进行第一比特翻转操作。具体的,将待译码信息进行第一译码,在第一译码过程中,获得软信息序列LLR1,将软信息序列LLR1进行硬判决,其中将第2个非固定比特位置的硬判决结果进行翻转,翻转即取反,将后续比特按照传统译码方法继续进行译码,得到第一译码过程的译码结果C1。若译码结果C1错误,则将LLR1输入神经网络,得到序列O2,O2=[0.0 0.0 0.8 0.2 0.0],由于O2指示第3个非固定比特位置的值为最大值,大于O1指示的第2个非固定比特位置的值,则说明第一译码过程中按照第二比特翻转位置执行的第一比特翻转操作是正确的。神经网络更新序列L={I2 I3 I4 I1},或者更新序列L={I2 [I2I3]I4 I1}。[I2I3]用于指示在翻转I2的基础上继续翻转I3。神经网络输出更新的序列L,更新的序列L用于指示4个非固定比特的位置中未被翻转过且概率最大的位置为第一比特翻转位置。由于I2在上一次被翻转过了,因此本次翻转I3。即,在第二译码过程中,获得软信息序列LLR2,将软信息序列LLR2进行硬判决,其中将第3个非固定比特位置的硬判决结果进行翻转,将后续比特按照传统译码方法继续进行译码,得到第二译码过程的译码结果C2。若C2错误,则继续将LLR2输入神经网络。重复执行比特翻转和/或比特翻转回退的操作,直到译码成功或达到设定的最大翻转次数为止。
另一种情况下,译码结果C1错误,将LLR1输入神经网络,得到序列O2。若O2=[0.010.01 0.01 0.01 0.96],表示第一译码过程中按照第二比特翻转位置执行的第一比特翻转操作很大概率是错误的。神经网络仍然输出序列L={I2 I4 I3 I1},与第一译码过程中输出的序列L相同。序列L指示对第一比特翻转操作进行回退,即,将第2个非固定比特位置的比特翻转操作进行回退;和/或,序列L指示排序第(i+1)序号的非固定比特位置为第一比特翻转位置,其中,排序第i序号的非固定比特位置为第一译码的过程中的第二比特翻转位置。其中,排序第i序号是指在序列L中第i序号。例如,第一译码的过程中,第二比特翻转位置在序列L中排序序号i为1,则排序第(i+1)序号为第2序号,即I3。第一比特翻转位置为I4,第4个非固定比特位置。那么在第二译码过程中,获得软信息序列LLR2,将软信息序列LLR2进行硬判决,其中将第2个非固定比特位置的硬判决结果进行翻转回退,进一步将第4个非固定比特位置的硬判决结果进行翻转,将后续比特按照传统译码方法继续进行译码,得到第二译码过程的译码结果C2。若C2错误,则继续将LLR2输入神经网络。重复执行比特翻转和/或比特翻转回退的操作,直到译码成功或达到设定的最大翻转次数为止。
需要说明的是,指示信息的表现形式2中,神经网络输出序列L,根据序列L是否更新,来指示比特翻转位置和/或比特翻转回退。序列L可以根据序列O1/O2得出,也可以不通过序列O1/O2而直接得出,以上为方便说明,先给出序列O1/O2,再推出序列L,只是一种举例。
表现形式3:第一指示信息中包括上取整log2(K),所述上取整log2(K)为第一比特翻转位置的二进制表示。
K=4时,上取整log2(K)占用第一指示信息中的2个比特,第一指示信息中还包括一个比特,用于指示是否对第一比特翻转操作进行回退。
除了通过序列L来指示比特翻转位置和/或比特翻转回退之外,还可以通过上取整log2(K)直接指示第一比特翻转位置。例如,K=4,可以用2个比特来表征4个非固定比特的位置,可选的,00表征第1个非固定比特的位置,01表征第1个非固定比特的位置,10表征第1个非固定比特的位置,11表征第1个非固定比特的位置。另外用1个比特来指示是否对第一比特翻转操作进行回退。例如,用0表征不对第一比特翻转操作进行回退,用1表征对第一比特翻转操作进行回退。
基于上文描述的方法实施例,如图5所示,本申请实施例还提供一种基于神经网络的译码装置500,该基于神经网络的译码装置500用于执行上述提供的基于神经网络的译码方法。该基于神经网络的译码装置500包括:
获取单元501,用于从神经网络获取第一指示信息,该第一指示信息用于指示:第一比特翻转位置,和/或,是否对第一比特翻转操作进行回退,该第一比特翻转操作为对待译码信息进行第一译码的过程中执行的;
译码单元502,用于对该待译码信息进行第二译码,获得译码结果;其中,在该第二译码的过程中,按照该第一指示信息所指示的该第一比特翻转位置执行第二比特翻转操作,和/或,按照该第一指示信息对该第一比特翻转操作进行回退。
可选的,该译码单元502用于:根据待译码信息确定软信息序列,对该软信息序列进行硬判决,获得该译码结果;
该基于神经网络的译码装置500还包括:输入单元503,用于若该译码单元获得的该译码结果错误,则将该软信息序列输入该神经网络。
可选的,该软信息序列的长度为N,该N为极化Polar码的母码长度,N为2的正整数次幂。
可选的,该第一指示信息的长度为(K+1);该第一指示信息中的K个值与Polar码中K个非固定比特的位置一一对应,该K个值中的最大值指示该第一比特翻转位置,该第一指示信息中的除该K个值之外的1个值用于指示是否对第一比特翻转操作进行回退,该K为正整数。
可选的,该第一指示信息指示K个非固定比特的位置被翻转的概率大小的排序。
可选的,若该第一指示信息与该第一译码的过程中依据的第二指示信息不同,则:
该K个非固定比特的位置中未被翻转过且概率最大的位置为该第一比特翻转位置。
可选的,若该第一指示信息与该第一译码的过程中依据的第二指示信息相同,则:
该第一指示信息指示对该第一比特翻转操作进行回退,和/或,
该第一指示信息指示排序第(i+1)序号的非固定比特位置为该第一比特翻转位置,其中,排序第i序号的非固定比特位置为该第一译码的过程中的第二比特翻转位置,该i为正整数。
可选的,该第一指示信息中包括上取整log2(K),该上取整log2(K)为该第一比特翻转位置的二进制表示。
可选的,该第一指示信息中包括1个比特,该1个比特用于指示该是否对第一比特翻转操作进行回退。
可选的,该基于神经网络的译码装置500还包括训练单元504,用于:
基于训练样本,对该神经网络进行训练;该训练样本包括:多个软信息序列样本和多个指示信息样本,该多个软信息序列样本和该多个指示信息样本一一对应,该软信息序列样本执行硬判决得到的译码结果错误,该指示信息样本用于指示判决错误的非固定比特位置,和/或,该指示信息样本用于指示对比特翻转操作进行回退。
基于上述方法实施例的同一发明构思,如图6所示,本申请实施例还提供一种基于神经网络的译码装置600,该基于神经网络的译码装置600用于执行上文提供的基于神经网络的译码方法。其中,上文提供的基于神经网络的译码方法中的部分或全部可以通过硬件来实现也可以通过软件来实现,当通过硬件实现时,基于神经网络的译码装置600包括:输入接口电路601,用于获取待译码信息;逻辑电路602,用于执行基于神经网络的译码方法;输出接口电路603,用于输出译码结果。
可选的,基于神经网络的译码装置600在具体实现时可以是芯片或者集成电路。
可选的,上文提供的基于神经网络的译码方法中的部分或全部通过软件来实现时,如图7所示,基于神经网络的译码装置700包括:存储器701,用于存储程序;处理器702,用于执行存储器701存储的程序,当程序被执行时,使得译码装置700可以实现基于神经网络的译码方法。
可选的,上述存储器701可以是物理上独立的单元,也可以与处理器702集成在一起。
可选的,当基于神经网络的译码方法中的部分或全部通过软件实现时,基于神经网络的译码装置700也可以只包括处理器702。用于存储程序的存储器701位于基于神经网络的译码装置700之外,处理器702通过电路/电线与存储器701连接,用于读取并执行存储器701中存储的程序。
处理器702可以是中央处理器(central processing unit,CPU),网络处理器(network processor,NP)或者CPU和NP的组合。
处理器702还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmablelogic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complexprogrammable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器701可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器701也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);存储器701还可以包括上述种类的存储器的组合。
本申请实施例提供的基于神经网络的译码装置还可以是一种芯片。
本申请实施例提供了一种计算机存储介质,存储有计算机程序,该计算机程序包括用于执行上述方法实施例提供的基于神经网络的译码方法。
本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述方法实施例提供的基于神经网络的译码方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请实施例进行各种改动和变型而不脱离本申请实施例的精神和范围。这样,倘若本申请实施例的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (25)
1.一种基于神经网络的译码方法,其特征在于,包括:
从神经网络获取第一指示信息,所述第一指示信息用于指示:第一比特翻转位置,和/或,是否对第一比特翻转操作进行回退,所述第一比特翻转操作为对待译码信息进行第一译码的过程中执行的;
对所述待译码信息进行第二译码,获得译码结果;其中,在所述第二译码的过程中,按照所述第一指示信息所指示的所述第一比特翻转位置执行第二比特翻转操作,和/或,按照所述第一指示信息对所述第一比特翻转操作进行回退。
2.如权利要求1所述的方法,其特征在于,所述对待译码信息进行第二译码,获得译码结果,包括:根据待译码信息确定软信息序列,对所述软信息序列进行硬判决,获得所述译码结果;
所述方法还包括:若所述译码结果错误,则将所述软信息序列输入所述神经网络。
3.如权利要求2所述的方法,其特征在于,所述软信息序列的长度为N,所述N为极化Polar码的母码长度,N为2的正整数次幂。
4.如权利要求1~3任一项所述的方法,其特征在于,所述第一指示信息的长度为(K+1);所述第一指示信息中的K个值与Polar码中K个非固定比特的位置一一对应,所述K个值中的最大值指示所述第一比特翻转位置,所述第一指示信息中的除所述K个值之外的1个值用于指示是否对第一比特翻转操作进行回退,所述K为正整数。
5.如权利要求1~3任一项所述的方法,其特征在于,所述第一指示信息指示K个非固定比特的位置被翻转的概率大小的排序。
6.如权利要求5所述的方法,其特征在于,若所述第一指示信息与所述第一译码的过程中依据的第二指示信息不同,则:
所述K个非固定比特的位置中未被翻转过且概率最大的位置为所述第一比特翻转位置。
7.如权利要求5所述的方法,其特征在于,若所述第一指示信息与所述第一译码的过程中依据的第二指示信息相同,则:
所述第一指示信息指示对所述第一比特翻转操作进行回退,和/或,
所述第一指示信息指示排序第(i+1)序号的非固定比特位置为所述第一比特翻转位置,其中,排序第i序号的非固定比特位置为所述第一译码的过程中的第二比特翻转位置,所述i为正整数。
8.如权利要求1~3任一项所述的方法,其特征在于,所述第一指示信息中包括上取整log2(K),所述上取整log2(K)为所述第一比特翻转位置的二进制表示。
9.如权利要求1-8中任一项所述的方法,其特征在于,所述第一指示信息中包括1个比特,所述1个比特用于指示所述是否对第一比特翻转操作进行回退。
10.如权利要求1~9任一项所述的方法,其特征在于,所述方法还包括:
基于训练样本,对所述神经网络进行训练;
所述训练样本包括:多个软信息序列样本和多个指示信息样本,所述多个软信息序列样本和所述多个指示信息样本一一对应,所述软信息序列样本执行硬判决得到的译码结果错误,所述指示信息样本用于指示判决错误的非固定比特位置,和/或,所述指示信息样本用于指示对比特翻转操作进行回退。
11.一种基于神经网络的译码装置,其特征在于,包括:
获取单元,用于从神经网络获取第一指示信息,所述第一指示信息用于指示:第一比特翻转位置,和/或,是否对第一比特翻转操作进行回退,所述第一比特翻转操作为对待译码信息进行第一译码的过程中执行的;
译码单元,用于对所述待译码信息进行第二译码,获得译码结果;其中,在所述第二译码的过程中,按照所述第一指示信息所指示的所述第一比特翻转位置执行第二比特翻转操作,和/或,按照所述第一指示信息对所述第一比特翻转操作进行回退。
12.如权利要求11所述的装置,其特征在于,所述译码单元用于:根据待译码信息确定软信息序列,对所述软信息序列进行硬判决,获得所述译码结果;
所述装置还包括:输入单元,用于若所述译码单元获得的所述译码结果错误,则将所述软信息序列输入所述神经网络。
13.如权利要求12所述的装置,其特征在于,所述软信息序列的长度为N,所述N为极化Polar码的母码长度,N为2的正整数次幂。
14.如权利要求11~13任一项所述的装置,其特征在于,所述第一指示信息的长度为(K+1);所述第一指示信息中的K个值与Polar码中K个非固定比特的位置一一对应,所述K个值中的最大值指示所述第一比特翻转位置,所述第一指示信息中的除所述K个值之外的1个值用于指示是否对第一比特翻转操作进行回退,所述K为正整数。
15.如权利要求11~13任一项所述的装置,其特征在于,所述第一指示信息指示K个非固定比特的位置被翻转的概率大小的排序。
16.如权利要求15所述的装置,其特征在于,若所述第一指示信息与所述第一译码的过程中依据的第二指示信息不同,则:
所述K个非固定比特的位置中未被翻转过且概率最大的位置为所述第一比特翻转位置。
17.如权利要求15所述的装置,其特征在于,若所述第一指示信息与所述第一译码的过程中依据的第二指示信息相同,则:
所述第一指示信息指示对所述第一比特翻转操作进行回退,和/或,
所述第一指示信息指示排序第(i+1)序号的非固定比特位置为所述第一比特翻转位置,其中,排序第i序号的非固定比特位置为所述第一译码的过程中的第二比特翻转位置,所述i为正整数。
18.如权利要求11~13任一项所述的装置,其特征在于,所述第一指示信息中包括上取整log2(K),所述上取整log2(K)为所述第一比特翻转位置的二进制表示。
19.如权利要求11-18中任一项所述的装置,其特征在于,所述第一指示信息中包括1个比特,所述1个比特用于指示所述是否对第一比特翻转操作进行回退。
20.如权利要求11~19任一项所述的方法,其特征在于,所述装置还包括训练单元,用于:
基于训练样本,对所述神经网络进行训练;
所述训练样本包括:多个软信息序列样本和多个指示信息样本,所述多个软信息序列样本和所述多个指示信息样本一一对应,所述软信息序列样本执行硬判决得到的译码结果错误,所述指示信息样本用于指示判决错误的非固定比特位置,和/或,所述指示信息样本用于指示对比特翻转操作进行回退。
21.一种基于神经网络的译码装置,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述处理器用于执行如权利要求1~10任一项所述的方法。
22.如权利要求21所述的装置,其特征在于,所述基于神经网络的译码装置为芯片或集成电路。
23.一种基于神经网络的译码装置,其特征在于,包括:
输入接口电路,用于获取待译码信息;
逻辑电路,用于基于获取的待译码信息执行所述权利要求1~10任一项所述的方法,得到译码结果;
输出接口电路,用于输出译码结果。
24.一种芯片,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述处理器用于执行如权利要求1~10任一项所述的方法。
25.一种芯片,其特征在于,包括:
输入接口电路,用于获取待译码信息;
逻辑电路,用于基于获取的待译码信息执行所述权利要求1~10任一项所述的方法,得到译码结果;
输出接口电路,用于输出译码结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811279026.9A CN111130565B (zh) | 2018-10-30 | 2018-10-30 | 一种基于神经网络的译码方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811279026.9A CN111130565B (zh) | 2018-10-30 | 2018-10-30 | 一种基于神经网络的译码方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111130565A true CN111130565A (zh) | 2020-05-08 |
CN111130565B CN111130565B (zh) | 2021-12-21 |
Family
ID=70484534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811279026.9A Active CN111130565B (zh) | 2018-10-30 | 2018-10-30 | 一种基于神经网络的译码方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111130565B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112118015A (zh) * | 2020-09-11 | 2020-12-22 | 山东云海国创云计算装备产业创新中心有限公司 | 一种译码方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571832A (zh) * | 2016-11-04 | 2017-04-19 | 华南理工大学 | 一种多进制ldpc码级联神经网络解码方法及装置 |
US20170279467A1 (en) * | 2016-03-23 | 2017-09-28 | SK Hynix Inc. | Performance optimization in soft decoding of error correcting codes |
-
2018
- 2018-10-30 CN CN201811279026.9A patent/CN111130565B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170279467A1 (en) * | 2016-03-23 | 2017-09-28 | SK Hynix Inc. | Performance optimization in soft decoding of error correcting codes |
CN106571832A (zh) * | 2016-11-04 | 2017-04-19 | 华南理工大学 | 一种多进制ldpc码级联神经网络解码方法及装置 |
Non-Patent Citations (1)
Title |
---|
赵侃: "极化码译码算法的研究和改进", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112118015A (zh) * | 2020-09-11 | 2020-12-22 | 山东云海国创云计算装备产业创新中心有限公司 | 一种译码方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111130565B (zh) | 2021-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230056892A1 (en) | Method and device for transmitting data | |
EP3614701A1 (en) | Polar code transmission method and device | |
CN108809506B (zh) | 一种编码方法及装置 | |
EP2849377A1 (en) | Encoding method and apparatus | |
CN108282259B (zh) | 一种编码方法及装置 | |
EP3484126B1 (en) | Method and apparatus for carrying identifier information | |
CN109257140B (zh) | 一种极化信道可靠度排序的方法、极化码编码方法及装置 | |
EP3591868A1 (en) | Information processing method, apparatus and device | |
CN112953558A (zh) | 一种Polar码编码方法及装置 | |
US11245423B2 (en) | Interleaving method and apparatus | |
CN108631919B (zh) | 极性码的速率匹配方法及设备 | |
CN108574494B (zh) | 编译码方法及装置 | |
CN108429599A (zh) | 用于通信系统中的数据处理的方法和设备 | |
CN111130565B (zh) | 一种基于神经网络的译码方法及装置 | |
WO2021063217A1 (zh) | 一种译码方法及装置 | |
US20200195373A1 (en) | Encoding method, decoding method, apparatus, and device | |
CN111490798B (zh) | 译码的方法和译码装置 | |
US11171673B2 (en) | Decoding method and apparatus | |
EP4340231A1 (en) | Polar code encoding method and decoding method and apparatuses | |
CN110324111B (zh) | 一种译码方法及设备 | |
US20200343913A1 (en) | Channel encoding method and encoding apparatus | |
WO2021103978A1 (zh) | 一种极化码编码方法及装置 | |
CN112740582B (zh) | 一种存储方法及极化码接收设备 | |
CN116208178A (zh) | 编码方法和编码器、译码方法和译码器、通信系统 | |
CN117155410A (zh) | 一种编码、译码方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |