CN111835364A - 一种极化码的低复杂度神经bp译码方法 - Google Patents
一种极化码的低复杂度神经bp译码方法 Download PDFInfo
- Publication number
- CN111835364A CN111835364A CN202010766768.5A CN202010766768A CN111835364A CN 111835364 A CN111835364 A CN 111835364A CN 202010766768 A CN202010766768 A CN 202010766768A CN 111835364 A CN111835364 A CN 111835364A
- Authority
- CN
- China
- Prior art keywords
- neural
- weight parameters
- decoder
- decoding
- decoder model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000010287 polarization Effects 0.000 title claims abstract description 26
- 210000005036 nerve Anatomy 0.000 title claims abstract description 13
- 230000001537 neural effect Effects 0.000 claims abstract description 56
- 238000013139 quantization Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000007667 floating Methods 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 8
- 230000006835 compression Effects 0.000 claims description 7
- 238000007906 compression Methods 0.000 claims description 7
- 238000003064 k means clustering Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 9
- 241000169170 Boreogadus saida Species 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101150069124 RAN1 gene Proteins 0.000 description 1
- 101100355633 Salmo salar ran gene Proteins 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/11—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
- H03M13/1102—Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
- H03M13/1105—Decoding
Abstract
本发明提供一种极化码的低复杂度神经BP译码方法,涉及信道编码技术领域。该方法首先在信道接收端对原始信息序列经过编码、调制和加噪后获得极化码码字序列,即得到待译码码字序列;然后基于DNN构建神经BP译码器模型,利用有效的聚类技术减少权重参数的数量;通过在时间上共享权重,进一步消除大量权重参数中存在的不必要冗余;并从均匀量化和非均匀量化两方面对浮点权重参数进行量化,进一步减少权重参数的存储需求;最后利用接收到的待译码信道信息和原始信息序列作为训练集训练神经BP译码器模型,实现对接收的待译码码字进行译码。该方法有效降低了权重参数的内存消耗,大幅度压缩了神经BP译码器的存储空间。
Description
技术领域
本发明涉及信道编码技术领域,尤其涉及一种极化码的低复杂度神经BP译码方法。
背景技术
Arikan提出的Polar码是第一个被严格理论证明可以达到香农限的构造性编码。随着5G标准化工作的推进,在3GPP RAN1第87次会议中,Polar码入选为5G增强移动宽带(Enhanced Mobile Broadband,eMBB)控制信道编码方案,这预示着对于Polar码编译码方面的研究将具有更加重要的理论与实际意义。
目前Polar码(也称极化码)的两种主要译码方案是串行抵消(SuccessiveCancellation,SC)译码和置信度传播(BeliefPropagation,BP)译码。SC译码算法是一种有效的低复杂度的译码算法,但是由于其顺序译码过程导致较低的吞吐量,并且译码时延较高。而BP译码算法由于并行性实现了更高的吞吐量和更低的延迟,但是需要更多的迭代导致具有很高的运算复杂度,硬件实现困难。近年来,随着深度神经网络(Deep NeuralNetwork,DNN)的广泛应用,DNN也显示出在信道编码领域中的应用潜力。将DNN应用于译码领域主要分为两种方式,第一个是用完全连接的神经网络完全取代传统的译码算法,虽然在结构化码中,表现出近乎最佳的性能,但是训练复杂度却随着码字长度呈指数增长,对于(N,K)极化码码字类别为2K。另外,码字的高维性还需要更多的训练数据,降低了码字的泛化能力。第二个是将传统BP译码结构与神经网络相结合,则可以很好地平衡复杂度和译码性能。具体来说,通过将迭代结构展开为神经网络的分层结构来改进BP算法。此外,权重还分配给译码网络结构的连接以实现更好的性能。通过采用这些方法,可以分别提高收敛速度并减少译码所需的迭代次数。DNN强大的预测模型和单次译码属性被认为是替代或帮助最新的Polar码译码的解决方案。尽管DNN十分强大,但是由于DNN是计算密集型和存储密集型的,因此与传统的非DNN信道译码器相比,DNN辅助信道译码器通常需要更大的计算消耗和内存消耗,阻碍了DNN辅助信道译码器在实际应用场景中的部署。
传统的SC译码算法由于其顺序译码过程导致较低的吞吐量,并且译码时延较高。而BP译码算法需要更多的迭代导致具有很高的时延和能耗。基于全连接的神经网络译码器虽然在结构化码中,表现出近乎最佳的性能,但是训练复杂度却随着码字长度呈指数增长。另外,码字的高维性还需要更多的训练数据,降低了码字的泛化能力。将传统极化码译码结构与深度学习技术相结合的全权重浮点参数译码器需要更大的计算消耗和内存消耗,阻碍了DNN辅助信道译码器在实际场景中的部署。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种极化码的低复杂度神经BP译码方法,实现对极化码的译码。
为解决上述技术问题,本发明所采取的技术方案是:一种极化码的低复杂度神经BP译码方法,包括以下步骤:
步骤1:在信道接收端对原始信息序列经过编码、调制和加噪后获得极化码码字序列,即得到待译码码字序列;所述待译码码字序列包括有效信息和信道噪声;
步骤2:建立低复杂度的神经BP译码器;
步骤2.1:基于DNN构建神经BP译码器模型;
将DNN看作极化码BP译码算法因子图的展开结构,得到在因子图的处理单元中通过DNN调整因子图中节点信息的迭代函数,如下公式所示:
其中,和分别为第t次迭代时因子图中第i行第j列的节点从右到左的信息和从左到右的信息,即因子图中每个节点包含两种对数似然比(Log-likelihood Ratio,LLR)消息;w(t)是第t次迭代过程中为因子图中节点的从右到左和从左到右的两种相互迭代的信息分配的权重,N为极化码码长,为BP算法中表示变量a,b关系的函数;
将极化码的BP算法中表示变量a,b关系的函数h(a,b)用最小和算法进行简化,即令
h(a,b)=sgn(a)sgn(b)min(|a|,|b|)
其中,sgn(·)为符号函数;
再使用Sigmoid函数作为神经BP译码器的输出层以获取译码结果;
步骤2.2:利用K-means聚类算法对权重参数进行空间共享,再在时间上共享神经BP译码器模型权重参数;
首先利用K-means聚类算法将神经BP译码器模型的权重参数聚类为多个类,用同一类中的所有聚类权重替换当前类的聚类中心值,并将聚类中心值作为因子图中节点信息的权重参数;进一步,在时间上共享权重参数,最终将BP译码算法中通过DNN调整节点信息的迭代函数中的权重参数修改为如下公式所示:
步骤2.3:采用均匀量化或非均匀量化方法量化神经BP译码器模型权重参数;
采用均匀量化方法量化神经BP译码器模型权重参数的具体方法为:
采用线性量化方法量化DNN译码器模型权重参数,如下公式所示:
其中,为32位的浮点权重量化后的q位的定点权重,的第一位为整数,其他小数部分(q-1)位为十进制,量化步长为2q-1;R(·)表示将数字四舍五入到指定的位数,即将浮点权重四舍五入到用q位表示的最接近的值;
采用非均匀量化方法量化神经BP译码器模型权重参数的具体方法为:首先应用压缩函数对权重参数进行压缩后再进行均匀量化;
步骤2.4:训练神经BP译码器模型;
利用接收到的待译码信道信息和原始信息序列作为训练集,利用随机梯度下降法对神经BP译码器模型行训练,获得神经BP译码器;
步骤3:利用训练好的度神经BP译码器对接收的待译码码字进行译码;
步骤4:随机生成多个码字序列,并对其编码调制加噪得到待译码序列,将二者共同作为新的测试样本,并将新的测试样本输入到步骤2中建立的神经BP译码器模型中,实现对神经BP译码器的性能进行测试。
采用上述技术方案所产生的有益效果在于:本发明提供的一种极化码的低复杂度神经BP译码方法,(1)通过译码网络权重共享策略,包括在空间上的权重聚类和时间上的权重共享结合,可以减少权重参数种类的数量,并且有效地降低了权重参数的内存消耗,从而大幅度压缩了神经BP译码器的存储空间,同时能够保持良好的译码性能;(2)对浮点权重参数进行均匀量化或非均匀量化进一步减少权重参数的存储需求,同时可以提升译码速度;此外,在实际工程中,也是将浮点数量化为定点数后应用于数字信号处理器件中,因此,本发明方法符合实际应用。(3)将传统极化码译码结构与深度学习技术相结合,并利用神经网络译码的单次译码属性,权衡了运算复杂度和译码性能。
附图说明
图1为本发明实施例提供的一种极化码的低复杂度神经BP译码方法的流程图;
图2为本发明实施例提供的一次完整BP译码展开的神经网络示意图;
图3为本发明实施例提供的极化码因子图中处理单元的示意图;
图4为本发明实施例提供的训练神经BP译码器的流程图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本实施例中,一种极化码的低复杂度神经BP译码方法,如图1所示,包括以下步骤:
步骤1:在信道接收端对原始信息序列经过编码、调制和加噪后获得极化码码字序列,即得到待译码码字序列;所述待译码码字序列包括有效信息和信道噪声;
本实施例中,首先,在发送端选取K个无噪信道来传输信息位,在剩余N-K个完全噪声信道中传输冻结位(通常设置为0),通过将原始信息序列u乘以生成矩阵GN,可以得到Polar码编码后的编码序列c,如下公式所示:
x=-2c+1
最后,经加性高斯白噪声信道传输后接收的待译码码字序列表示为:
y=x+z
其中,z为服从均值为0,方差为σ2的高斯分布;
步骤2:建立低复杂度的神经BP译码器;
步骤2.1:基于DNN构建神经BP译码器模型;
借助极化码BP译码算法因子图与DNN之间的相似性,将传统极化码的BP译码算法与DNN结合。更确切地说,将DNN看作极化码BP译码算法因子图的展开结构,图2给出了一个表示极化码BP译码中完整迭代的简单示例。对于一个(N,K)极化码,因子图中有n=log2N个阶段,每个阶段包含N个节点。展开原始因子图后,从左至右和从右至左的每个传播分别对应于前馈神经网络结构中的(n-1)和n层,每层包含N个神经元。从右向左传播的最后一个隐藏层计算原始因子图中最左侧节点的输出。因此,在输入LLR穿过(2n-1)个隐藏层之后,便完成了一次完整的BP迭代。最后输出层的Sigmoid函数判断接收到的码字的估计值。为了增加DNN中的迭代次数,只需要在输入层和输出层之间串联一定数量的与图3中相同的隐藏层。对于BP译码算的T次迭代对应神经BP译码器有2(n-1)T+3层,本实施例中使用的神经BP译码器模型为BP算法的5次迭代展开,即T=5,对于码长N=16,n=log2N=log2 16=4,那么神经BP译码器总层数为33。得到在如图3所示的因子图的处理单元中通过DNN调整因子图中节点信息的迭代函数,如下公式所示:
其中,(i,j)表示因子图中第i行中第j列的节点,每个节点包含两种对数似然比(Log-likelihood Ratio,LLR)消息,即从左到右的信息和从右到左的信息 和分别为第t次迭代时因子图中第i行第j列的节点从右到左的信息和从左到右的信息,即因子图中每个节点包含两种对数似然比(Log-likelihood Ratio,LLR)消息;w(t)是第t次迭代过程中为因子图中节点的从右到左和从左到右的两种相互迭代的信息分配的权重,N为极化码码长,为BP算法中表示变量a,b关系的函数;
将极化码的BP算法中表示变量a,b关系的函数h(a,b)用最小和算法进行简化,即令
h(a,b)=sgn(a)sgn(b)min(|a|,|b|)
其中,sgn(·)为符号函数;
再使用Sigmoid函数作为神经BP译码器的输出层以获取译码结果;
步骤2.2:利用K-means聚类算法对权重参数进行空间共享,再在时间上共享神经BP译码器模型权重参数:
首先利用K-means聚类算法将神经BP译码器模型的权重参数聚类为多个类,用同一类中的所有聚类权重替换当前类的聚类中心值,并将聚类中心值作为因子图中节点信息的权重参数;因此,当聚类的数量较小时,用于存储DNN权重所需存储器的成本显着降低。然后通过在时间上共享权重,进一步消除权重参数中的不必要冗余。进而将BP译码算法中通过DNN调整节点信息的迭代函数中的权重参数修改为如下公式所示:
步骤2.3:采用均匀量化或非均匀量化方法量化神经BP译码器模型权重参数;
尽管通过权重共享策略有效地减少了所需的参数种类的数量,由于在每次迭代过程中大量使用了浮点参数,其宽数据类型会增加能耗,并限制可以并行处理的数据量,仍然阻碍了神经BP译码器的硬件实现。因此,本发明进一步提出对LLR信息的浮点权重参数进行量化,以减少网络中权重的精度,从而减少存储需求和计算成本。下面具体描述均匀量化与非均匀量化方法。
采用均匀量化方法量化神经BP译码器模型权重参数的具体方法为:
采用线性量化方法量化神经BP译码器模型权重参数,如下公式所示:
其中,为32位的浮点权重量化后的q位的定点权重,的第一位为整数,其他小数部分(q-1)位为十进制,量化步长为2q-1;R(·)表示将数字四舍五入到指定的位数,即将浮点权重四舍五入到用q位表示的最接近的值;
采用非均匀量化方法量化BP译码器模型权重参数的具体方法为:首先应用压缩函数对权重参数进行压缩后再进行均匀量化;
非均匀量化方案:在实际中,非均匀量化的实现方法通常在进行量化之前,先将输入值应用压缩函数进行压缩,在进行均匀量化。本实施例采用A律压缩函数,压缩公式为:
其中,w、o分别为压缩函数的输入和输出,A为常数;在实际应用中,选择A=87.6。
最终,经步骤2.2和步骤2.3权重聚类和量化后BP译码器的迭代函数为:
步骤2.4:训练神经BP译码器模型;
利用接收到的待译码信道信息和原始信息序列作为训练集,利用随机梯度下降法对神经BP译码器模型行训练,获得神经BP译码器;
本实施例中,神经BP译码模型在深度学习框架Tensorflow上实现。为了找到最佳权重组合,需要一组已知输入、输出映射的训练集,获得标记的训练数据对于深度学习领域来说通常是非常困难和昂贵的任务。但是使用神经网络进行信道编码是特殊的,因为处理的是人造信号。因此,能够生成尽可能多的训练样本。利用接收到的待译码信道信息和原始信息序列对神经BP译码器模型进行训练,如图4所示。信噪比范围选取1dB到6dB。本实施例中优化器选择Adam优化器,学习率为0.01,损失函数选取为交叉熵损失函数:
式中,i与节点(i,j)表述中的i均表示长度为N的码序列中的第i处(j表示阶段),u表示发送的信息码字,σ(L)表示DNN的输出,并且σ(L)=1/(1+e-L)。
步骤3:利用训练好的度神经BP译码器对接收的待译码码字进行译码;
将带有噪声的码字序列输入到步骤2.4训练好的神经BP译码器中,由于输出层表示信息位,因此输出层使用的Sigmoid函数获得每个输出位的概率,即迫使输出神经元处于0和1之间,这可以解释为发送“1”的概率,则译码后的位估计为:
步骤4:随机生成多个码字序列,并对其编码调制加噪得到待译码序列,将二者共同作为新的测试样本,并将新的测试样本输入到步骤2中建立的神经BP译码器模型中,实现对神经BP译码器的性能进行测试。
本实施例还生成更多的测试数据,用于衡量译码器的译码性能。对于二进制码,比特出错概率定义为接收的错误比特数与接收的总比特数的比值,用Bber表示,公式表示为:
其中,Serror和Stotal分别表示接收的错误比特数和总比特数。
经测试,改进后的神经BP译码器可实现全权重神经BP译码器的性能,且权重参数数量减少至少80%,复杂度更低。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (4)
1.一种极化码的低复杂度神经BP译码方法,其特征在于:包括以下步骤:
步骤1:在信道接收端对原始信息序列经过编码、调制和加噪后获得极化码码字序列,即得到待译码码字序列;所述待译码码字序列包括有效信息和信道噪声;
步骤2:建立低复杂度的神经BP译码器;
步骤2.1:基于DNN构建神经BP译码器模型;
将DNN看作极化码BP译码算法因子图的展开结构,得到在因子图的处理单元中通过DNN调整因子图中节点信息的迭代函数;再使用Sigmoid函数作为神经BP译码器的输出层以获取译码结果;
步骤2.2:利用K-means聚类算法对权重参数进行空间共享,再在时间上共享神经BP译码器模型权重参数;
步骤2.3:采用均匀量化或非均匀量化方法量化神经BP译码器模型权重参数;
步骤2.4:训练神经BP译码器模型;
利用接收到的待译码信道信息和原始信息序列作为训练集,利用随机梯度下降法对神经BP译码器模型行训练,获得神经BP译码器;
步骤3:利用训练好的度神经BP译码器对接收的待译码码字进行译码;
步骤4:随机生成多个码字序列,并对其编码调制加噪得到待译码序列,将二者共同作为新的测试样本,并将新的测试样本输入到步骤2中建立的神经BP译码器模型中,实现对神经BP译码器的性能进行测试。
2.根据权利要求1所述一种极化码的低复杂度神经BP译码方法,其特征在于:步骤2.1所述在因子图的处理单元中通过DNN调整因子图中节点信息的迭代函数,如下公式所示:
其中,和分别为第t次迭代时因子图中第i行第j列的节点从右到左的信息和从左到右的信息,即因子图中每个节点包含两种对数似然比(Log-likelihood Ratio,LLR)消息;w(t)是第t次迭代过程中为因子图中节点的从右到左和从左到右的两种相互迭代的信息分配的权重,N为极化码码长,为BP算法中表示变量a,b关系的函数;
将极化码的BP算法中表示变量a,b关系的函数h(a,b)用最小和算法进行简化,即令
h(a,b)=sgn(a)sgn(b)min(|a|,|b|)
其中,sgn(·)为符号函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010766768.5A CN111835364B (zh) | 2020-08-03 | 2020-08-03 | 一种极化码的低复杂度神经bp译码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010766768.5A CN111835364B (zh) | 2020-08-03 | 2020-08-03 | 一种极化码的低复杂度神经bp译码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111835364A true CN111835364A (zh) | 2020-10-27 |
CN111835364B CN111835364B (zh) | 2023-11-14 |
Family
ID=72920765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010766768.5A Active CN111835364B (zh) | 2020-08-03 | 2020-08-03 | 一种极化码的低复杂度神经bp译码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111835364B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112564713A (zh) * | 2020-11-30 | 2021-03-26 | 福州大学 | 高效率低时延的动觉信号编解码器及编解码方法 |
CN113438049A (zh) * | 2021-05-31 | 2021-09-24 | 杭州电子科技大学 | 一种基于dnn模型分析的汉明码译码方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013117076A1 (zh) * | 2012-02-07 | 2013-08-15 | 中兴通讯股份有限公司 | 一种迭代译码方法及系统 |
US20160086078A1 (en) * | 2014-09-22 | 2016-03-24 | Zhengping Ji | Object recognition with reduced neural network weight precision |
CN106251001A (zh) * | 2016-07-18 | 2016-12-21 | 南京工程学院 | 一种基于改进模糊聚类算法的光伏功率预测方法 |
CN110278001A (zh) * | 2019-06-19 | 2019-09-24 | 北京交通大学 | 基于深度学习的极化码分区译码方法 |
-
2020
- 2020-08-03 CN CN202010766768.5A patent/CN111835364B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013117076A1 (zh) * | 2012-02-07 | 2013-08-15 | 中兴通讯股份有限公司 | 一种迭代译码方法及系统 |
US20160086078A1 (en) * | 2014-09-22 | 2016-03-24 | Zhengping Ji | Object recognition with reduced neural network weight precision |
CN106251001A (zh) * | 2016-07-18 | 2016-12-21 | 南京工程学院 | 一种基于改进模糊聚类算法的光伏功率预测方法 |
CN110278001A (zh) * | 2019-06-19 | 2019-09-24 | 北京交通大学 | 基于深度学习的极化码分区译码方法 |
Non-Patent Citations (3)
Title |
---|
刘斌;李立欣;李静;: "一种改进的基于深度前馈神经网络的极化码BP译码算法", 移动通信, no. 04 * |
王廷银;林明贵;陈达;吴允平;: "基于北斗RDSS的核辐射监测应急通讯方法", 计算机系统应用, no. 12 * |
陶志勇;李艳;: "基于变量节点更新改进的自修正最小和算法", 云南大学学报(自然科学版), no. 02 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112564713A (zh) * | 2020-11-30 | 2021-03-26 | 福州大学 | 高效率低时延的动觉信号编解码器及编解码方法 |
CN112564713B (zh) * | 2020-11-30 | 2023-09-19 | 福州大学 | 高效率低时延的动觉信号编解码器及编解码方法 |
CN113438049A (zh) * | 2021-05-31 | 2021-09-24 | 杭州电子科技大学 | 一种基于dnn模型分析的汉明码译码方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111835364B (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Teng et al. | Low-complexity recurrent neural network-based polar decoder with weight quantization mechanism | |
Cammerer et al. | Scaling deep learning-based decoding of polar codes via partitioning | |
CN107241106B (zh) | 基于深度学习的极化码译码算法 | |
CN106888026B (zh) | 基于lsc-crc译码的分段极化码编译码方法及系统 | |
CN107612560B (zh) | 基于部分信息比特似然比的极化码早期迭代停止方法 | |
CN110278001B (zh) | 基于深度学习的极化码分区译码方法 | |
CN109921803B (zh) | 基于神经网络的高密度线性分组码译码方法 | |
CN110932734B (zh) | 一种基于交替方向乘子法的深度学习信道译码方法 | |
CN105763203A (zh) | 一种基于硬可靠度信息的多元ldpc码译码方法 | |
CN110233628B (zh) | 极化码的自适应置信传播列表译码方法 | |
CN111835364A (zh) | 一种极化码的低复杂度神经bp译码方法 | |
Deng et al. | Reduced-complexity deep neural network-aided channel code decoder: A case study for BCH decoder | |
Saidutta et al. | Joint source-channel coding for gaussian sources over awgn channels using variational autoencoders | |
Teng et al. | Convolutional neural network-aided bit-flipping for belief propagation decoding of polar codes | |
Rao et al. | CNN-SC decoder for polar codes under correlated noise channels | |
Gao et al. | Learning to decode polar codes with quantized LLRs passing | |
CN111130697B (zh) | 一种降低基于自动编码器的通信物理层传输系统复杂度的方法 | |
Li et al. | A rate-compatible punctured Polar code decoding scheme based on deep learning | |
Nachmani et al. | A gated hypernet decoder for polar codes | |
Yan et al. | Research on polar Decoding Method Based on Convolutional Neural Network | |
Burich et al. | A simple family of non-linear analog codes | |
Song et al. | ANN based adaptive successive cancellation list decoder for polar codes | |
Shi et al. | On optimized uniform quantization for SC decoder of polar codes | |
Chen et al. | A Novel Labeling Scheme for Neural Belief Propagation in Polar Codes | |
CN111049531A (zh) | 一种基于分段线性惩罚函数的交替方向乘子法的深度学习信道译码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |