CN106571832A - 一种多进制ldpc码级联神经网络解码方法及装置 - Google Patents

一种多进制ldpc码级联神经网络解码方法及装置 Download PDF

Info

Publication number
CN106571832A
CN106571832A CN201610974241.5A CN201610974241A CN106571832A CN 106571832 A CN106571832 A CN 106571832A CN 201610974241 A CN201610974241 A CN 201610974241A CN 106571832 A CN106571832 A CN 106571832A
Authority
CN
China
Prior art keywords
decoding
ldpc
initialization
neural network
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610974241.5A
Other languages
English (en)
Inventor
姜小波
魏锴
李洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201610974241.5A priority Critical patent/CN106571832A/zh
Publication of CN106571832A publication Critical patent/CN106571832A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1108Hard decision decoding, e.g. bit flipping, modified or weighted bit flipping
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1148Structural properties of the code parity-check or generator matrix

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Error Detection And Correction (AREA)

Abstract

本发明公开了一种多进制LDPC码级联神经网络解码方法及装置,所述解码方法包括:多进制LDPC译码初始化;神经网络级联解码。其中多进制LDPC译码首先对各码元符号进行初始化得到后验概率;神经网络将后验概率软信息作为输入信息输入到输入层,经过神经网络的训练和学习,由输出层得到输出软信息并进行判决译码,得到译码结果。本发明在传统多进制LDPC置信传播译码算法的基础上引入神经网络的级联译码方法,降低译码计算量和复杂度,提高译码效率。

Description

一种多进制LDPC码级联神经网络解码方法及装置
技术领域
本发明涉及信息编解码技术领域,具体涉及一种多进制LDPC码级联神经网络解码方法及装置。
背景技术
Nand Flash是目前消费性电子产品中被广泛使用的元件之一。由于Nand Flash的物理机构特点,容易发生错误,如何保证数据的可靠性,成为一项重要的研究课题。采用纠错码(Error Correction Coding,ECC)的纠错控制技术是目前提高闪存数据可靠性的关键技术之一,而LDPC码(Low-Density Parity-Check codes)是目前被广泛应用在闪存上的纠错码。对比传统的二进制LDPC码,多进制LDPC编译码方法与二进制类似,抗随机错误能力和抗突发错误能力均优于二进制LDPC码,为当前编码领域性能最优的一种编码方案。另外,由于多进制LDPC码是基于高阶有限域设计的,因此非常适合与高阶调制系统接合,更适合高速率传输系统,适合NAND闪存的高速数据传输。
目前,神经网络已被应用于包括计算机、交通、金融业、智能机器人等很多领域,在多个方面展现出其特殊性,成为了站在科技最前沿的技术。神经网络专家J.C.Platt和J.J.Hopfield首先提出将人工神经网络技术应用于线性纠错码。用神经网络对二进制LDPC码进行译码,其误码率和算法复杂度上都有明显提升。由于神经网络结构适用于并行结构,而基于迭代计算的多进制LDPC译码算法也易于拆分成多个部分进行并行译码,将神经网络技术与多进制LDPC译码算法进行结合,一方面使得有学习能力的神经网络可以适合不同多进制LDPC码的译码过程,另一方面也可以改善译码性能,提高译码速度和容错性。
发明内容
本发明的第一个目的是为了创新译码方法,改善译码性能,提出一种多进制LDPC码级联神经网络解码方法。
本发明的第二个目的是为了创新译码方法,改善译码性能,提供一种多进制LDPC码级联神经网络解码装置。
本发明的第一个目的可以通过采取如下技术方案达到:
一种多进制LDPC码级联神经网络解码方法,所述方法包括如下步骤:
S1、确定Hmn为M*N的校验矩阵,令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合;
S2、获取N个经过信道后的信息比特yi,i=1,2,…,N;其中每一个yi代表一个符号,其中包含了b个二进制比特;
S3、在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
S4、所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率;
S5、将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息;
S6、选取神经元输出概率ui(t+τ)的最大值所带表的码字进行译码判决,如果H*ui=0,则迭代结束得到译码结果;否则,返回步骤S3将输出软信息作为新的输入进行下次迭代。
进一步地,所述神经网络包括输出缓冲层和神经网络层,有n个输入,每层有N个神经元,N为该码所有可能码字的个数,每个神经元输出满足
其中,
进一步地,所述多进制LDPC初始化译码模型只进行信息初始化,并将初始化后得到的后验概率作为输入直接输入到所述神经网络。
进一步地,所述方法采用所述神经网络模仿多进制LDPC置信传播译码算法进行迭代译码。
进一步地,所述迭代译码过程还包括硬判决和校验判决,用于将输出软信息硬判决为0或1。
本发明的第二个目的可以通过采取如下技术方案达到:
一种多进制LDPC码级联神经网络解码装置,所述装置包括:
校验矩阵确定模块,用于确定Hmn为M*N的校验矩阵,令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合;
信道信息获取模块,用于获取N个经过信道后的信息比特yi,i=1,2,…,N;其中每一个yi代表一个符号,其中包含了b个二进制比特;
LDPC译码模型模块,用在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
码元初始化模块,用于所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率;
神经网络解码模块,用于将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息;
判决迭代模块,用于选取神经元输出概率ui(t+τ)的最大值所带表的码字进行译码判决,如果H*ui=0,则迭代结束得到译码结果;否则,返回所述LDPC译码模型模块将输出软信息作为新的输入进行下次迭代。
本发明相对于现有技术具有如下的优点及效果:
本发明公开的一种多进制LDPC码级联神经网络解码方法在传统多进制LDPC置信传播译码算法的基础上引入神经网络的级联译码方法,降低译码计算量和复杂度,提高译码效率。
附图说明
图1是本发明公开的一种多进制LDPC码级联神经网络解码方法的流程示意图;
图2是一种人工神经网络译码结构示意图;
图3是定义在GF(8)上的(10,5)的LDPC码的校验矩阵示意图;
图4是本发明公开的一种多进制LDPC码级联神经网络解码装置的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1所示,本实施例公开了一种多进制LDPC码级联神经网络解码方法,包括如下步骤:
S1、确定Hmn为M*N的校验矩阵,令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合;
S2、获取N个经过信道后的信息比特yi,i=1,2,…,N;其中每一个yi代表一个符号,其中包含了b个二进制比特;
S3、在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
S4、所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率;
S5、将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息;
所述神经网络由双层结构构成,输出缓冲层和神经网络层,有n个输入,每层有N个神经元,N为该码所有可能码字的个数,每个神经元输出满足
其中,
S6、选取神经元输出概率ui(t+T)的最大值所带表的码字进行译码判决,如果H*ui=0,则迭代结束得到译码结果;否则,返回步骤S3将输出软信息作为新的输入进行下次迭代。
具体应用中,所述多进制LDPC初始化译码模型只进行信息初始化,并将初始化信息作为输入直接输入到神经网络输入层。
本实施例公开的一种多进制LDPC码级联神经网络解码方法,用神经网络模仿多进制LDPC置信传播译码算法进行迭代译码。
上述迭代译码过程还包括硬判决和校验判决,用于将输出软信息硬判决为0或1。
实施例二
本实施例以1/2码率,定义在GF(8)上的(10,5)的多进制LDPC码为例,下面结合附图2和附图3对本发明提供的一种多进制LDPC码级联神经网络解码方法进行详细的说明。
S1、对于码率为1/2的(10,5)校验矩阵H,该矩阵行重为4,列重为2,用m和n分别代表校验节点和变量节点的集合,其中m={1,2,3,4,5},n={1,2,……,10},令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合,yi表示经过信道后接受到的信息比特。
S2、获取10个经过信道后的信息比特yi,i=1,2,…,10。其中每一个yi代表一个符号,其中包含了3个二进制比特。
S3、在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
S4、所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率;
S5、将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息;
具体公式是:
其中,
权重系数
其中是码字Xh的第j个分量,WH()表示码字的汉明重量,Wmax(X)=max(WH(Xh));
阈值
ui(t)是神经元在时刻t的状态,ui(0)=xi,即开始时神经元i的状态为输入节点的i状态;θ是神经元i的阈值,初始值为1-ε(其中ε为无穷小);ωij代表神经元j到神经元i的连接权重系数。
S6、求出种经元输出概率ui(t+T)的最大值umax进行译码判决,如果H*ui=0,则迭代结束得到译码结果;否则,返回步骤S3将输出软信息作为新的输入进行下次迭代。
综上所述,本发明公开的一种多进制LDPC码级联神经网络解码方法在传统多进制LDPC置信传播译码算法的基础上引入神经网络的级联译码方法,降低译码计算量和复杂度,提高译码效率。
实施例三
如附图4所示,本实施公开了一种多进制LDPC码级联神经网络解码装置,所述装置包括:校验矩阵确定模块、信道信息获取模块、LDPC译码模型模块、码元初始化模块、神经网络解码模块以及判决迭代模块。
下面具体说明各个模块:
校验矩阵确定模块,用于确定Hmn为M*N的校验矩阵,令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合。
信道信息获取模块,用于获取N个经过信道后的信息比特yi,i=1,2,…,N;其中每一个yi代表一个符号,其中包含了b个二进制比特。
LDPC译码模型模块,用在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
具体应用中,所述多进制LDPC初始化译码模型只进行信息初始化,并将初始化后得到的后验概率作为输入直接输入到所述神经网络。
码元初始化模块,用于所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率。
神经网络解码模块,用于将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息。
具体应用中,所述神经网络包括输出缓冲层和神经网络层,有n个输入,每层有N个神经元,N为该码所有可能码字的个数,每个神经元输出满足
其中,
具体应用中,采用所述神经网络模仿多进制LDPC置信传播译码算法进行迭代译码。
上述迭代译码过程还包括硬判决和校验判决,用于将输出软信息硬判决为0或1。
判块迭代模块,用于选取种经元输出概率ui(t+T)的最大值所带表的码字进行译码判块,如果H*ui=0,则迭代结束得到译码结果;否则,返回所述LDPC译码模型模块将输出软信息作为新的输入进行下次迭代。
值得注意的是,上述装置实施例中,所包括的各个模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种多进制LDPC码级联神经网络解码方法,其特征在于,所述方法包括如下步骤:
S1、确定Hmn为M*N的校验矩阵,令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合;
S2、获取N个经过信道后的信息比特yi,i=1,2,…,N;其中每一个yi代表一个符号,其中包含了b个二进制比特;
S3、在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
S4、所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率;
S5、将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息;
S6、选取神经元输出概率ui(t+τ)的最大值所带表的码字进行译码判决,如果H*ui=0,则迭代结束得到译码结果;否则,返回步骤S3将输出软信息作为新的输入进行下次迭代。
2.根据权利要求1所述的一种多进制LDPC码级联神经网络解码方法,其特征在于,所述神经网络包括输出缓冲层和神经网络层,有n个输入,每层有N个神经元,N为该码所有可能码字的个数,每个神经元输出满足
u i ( t + T ) = sgn &lsqb; &Sigma; j = 1 n &omega; i j u j ( t ) - &theta; &rsqb; 0 < x &le; N
其中,
sgn &lsqb; x &rsqb; = 1 i f x > 0 0 i f x &le; 0 .
3.根据权利要求1所述的一种多进制LDPC码级联神经网络解码方法,其特征在于,所述多进制LDPC初始化译码模型只进行信息初始化,并将初始化后得到的后验概率作为输入直接输入到所述神经网络。
4.根据权利要求1所述的一种多进制LDPC码级联神经网络解码方法,其特征在于,
所述方法采用所述神经网络模仿多进制LDPC置信传播译码算法进行迭代译码。
5.根据权利要求4所述的一种多进制LDPC码级联神经网络解码方法,其特征在于,
所述迭代译码过程还包括硬判决和校验判决,用于将输出软信息硬判决为0或1。
6.一种多进制LDPC码级联神经网络解码装置,其特征在于,所述装置包括:
校验矩阵确定模块,用于确定Hmn为M*N的校验矩阵,令N(m):={n:Hmn≠0}为参与第m个校验方程的校验节点的变量节点的集合,令M(n):={m:Hmn≠0}为包含第n个变量节点的校验节点的集合;
信道信息获取模块,用于获取N个经过信道后的信息比特yi,i=1,2,…,N;其中每一个yi代表一个符号,其中包含了b个二进制比特;
LDPC译码模型模块,用在高斯信道下建立多进制LDPC初始化译码模型,
初始化
式中,每个二进制比特的似然比为其中s为输入符号的幅度,σ2为信道高斯噪声∑的方差,
码元初始化模块,用于所述多进制LDPC初始化译码模型对各码元符号进行初始化得到后验概率;
神经网络解码模块,用于将所述后验概率软信息作为输入信息输入到神经网络,经过神经网络的训练和学习,由输出缓冲层得到输出软信息;
判决迭代模块,用于选取神经元输出概率ui(t+τ)的最大值所带表的码字进行译码判决,如果H*ui=0,则迭代结束得到译码结果;否则,返回所述LDPC译码模型模块将输出软信息作为新的输入进行下次迭代。
CN201610974241.5A 2016-11-04 2016-11-04 一种多进制ldpc码级联神经网络解码方法及装置 Pending CN106571832A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610974241.5A CN106571832A (zh) 2016-11-04 2016-11-04 一种多进制ldpc码级联神经网络解码方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610974241.5A CN106571832A (zh) 2016-11-04 2016-11-04 一种多进制ldpc码级联神经网络解码方法及装置

Publications (1)

Publication Number Publication Date
CN106571832A true CN106571832A (zh) 2017-04-19

Family

ID=58541559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610974241.5A Pending CN106571832A (zh) 2016-11-04 2016-11-04 一种多进制ldpc码级联神经网络解码方法及装置

Country Status (1)

Country Link
CN (1) CN106571832A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241106A (zh) * 2017-05-24 2017-10-10 东南大学 基于深度学习的极化码译码算法
CN108768593A (zh) * 2018-06-12 2018-11-06 中国地质大学(武汉) 一种基于dmt调制的qc-ldpc码编、解码方法与系统
CN108777157A (zh) * 2018-05-08 2018-11-09 南京邮电大学 基于深度神经网络预测mlc闪存电压阈值的自适应方法
CN108933602A (zh) * 2017-05-26 2018-12-04 爱思开海力士有限公司 用于低密度奇偶校验解码的深度学习
CN109347601A (zh) * 2018-10-12 2019-02-15 哈尔滨工业大学 基于卷积神经网络的抗音调干扰ldpc码的译码方法
CN109428606A (zh) * 2017-08-29 2019-03-05 爱思开海力士有限公司 具有ldpc解码器的存储器系统及其操作方法
CN109525254A (zh) * 2018-10-25 2019-03-26 华南理工大学 基于深度学习的卷积码软判决译码方法
CN109728824A (zh) * 2018-12-06 2019-05-07 杭州电子科技大学 一种基于深度学习的ldpc码迭代译码方法
CN109921882A (zh) * 2019-02-20 2019-06-21 深圳市宝链人工智能科技有限公司 一种基于深度学习的mimo解码方法、装置及存储介质
CN110730008A (zh) * 2019-09-12 2020-01-24 天津大学 一种基于深度学习的rs码置信传播译码方法
CN110741553A (zh) * 2017-06-22 2020-01-31 瑞典爱立信有限公司 用于前向纠错解码的神经网络
CN111130565A (zh) * 2018-10-30 2020-05-08 华为技术有限公司 一种基于神经网络的译码方法及装置
CN111435838A (zh) * 2019-01-14 2020-07-21 华为技术有限公司 译码方法、装置及设备
CN112615629A (zh) * 2020-11-26 2021-04-06 西安电子科技大学 多元ldpc码的译码方法、系统、介质、设备及应用
CN112865813A (zh) * 2019-11-26 2021-05-28 爱思开海力士有限公司 电子装置及操作电子装置的方法
CN113890543A (zh) * 2021-10-09 2022-01-04 吉林大学 基于多层感知神经网络的多进制ldpc码的译码方法
CN114421972A (zh) * 2022-01-27 2022-04-29 石家庄市经纬度科技有限公司 一种多进制ldpc码译码方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105337700A (zh) * 2015-11-19 2016-02-17 济南澳普通信技术有限公司 一种基于码率自适应qc-ldpc编码方式的电力线载波的可见光通信系统及其运行方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105337700A (zh) * 2015-11-19 2016-02-17 济南澳普通信技术有限公司 一种基于码率自适应qc-ldpc编码方式的电力线载波的可见光通信系统及其运行方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DINESH KUMAR ET AL.: "Non iterative LDPC decoding by syndrome generation using Artificial Neural Network", 《2015 NATIONAL CONFERENCE ON RECENT ADVANCES IN ELECTRONICS & COMPUTER ENGINEERING (RAECE)》 *
叶佥昱: "无线传感器网络中的信息压缩与路由技术研究", 《中国博士学位论文全文数据库 信息科技辑(月刊)》 *
叶小霞: "基于LDPC编码的OFDM通信系统及性能仿真", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 *
肖禺: "LDPC码校验矩阵构造及编码研究", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 *
薛飞: "基于神经网络的LDPC译码算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241106A (zh) * 2017-05-24 2017-10-10 东南大学 基于深度学习的极化码译码算法
CN107241106B (zh) * 2017-05-24 2020-07-14 东南大学 基于深度学习的极化码译码算法
CN108933602A (zh) * 2017-05-26 2018-12-04 爱思开海力士有限公司 用于低密度奇偶校验解码的深度学习
CN108933602B (zh) * 2017-05-26 2021-09-10 爱思开海力士有限公司 用于低密度奇偶校验解码的深度学习
CN110741553B (zh) * 2017-06-22 2023-11-03 瑞典爱立信有限公司 用于前向纠错解码的神经网络
CN110741553A (zh) * 2017-06-22 2020-01-31 瑞典爱立信有限公司 用于前向纠错解码的神经网络
CN109428606A (zh) * 2017-08-29 2019-03-05 爱思开海力士有限公司 具有ldpc解码器的存储器系统及其操作方法
CN109428606B (zh) * 2017-08-29 2022-05-10 爱思开海力士有限公司 具有ldpc解码器的存储器系统及其操作方法
CN108777157A (zh) * 2018-05-08 2018-11-09 南京邮电大学 基于深度神经网络预测mlc闪存电压阈值的自适应方法
CN108777157B (zh) * 2018-05-08 2021-07-09 南京邮电大学 基于深度神经网络预测mlc闪存电压阈值的自适应方法
CN108768593B (zh) * 2018-06-12 2020-07-07 中国地质大学(武汉) 一种基于dmt调制的qc-ldpc码编、解码方法与系统
CN108768593A (zh) * 2018-06-12 2018-11-06 中国地质大学(武汉) 一种基于dmt调制的qc-ldpc码编、解码方法与系统
CN109347601B (zh) * 2018-10-12 2021-03-16 哈尔滨工业大学 基于卷积神经网络的抗音调干扰ldpc码的译码方法
CN109347601A (zh) * 2018-10-12 2019-02-15 哈尔滨工业大学 基于卷积神经网络的抗音调干扰ldpc码的译码方法
CN109525254B (zh) * 2018-10-25 2020-10-27 华南理工大学 基于深度学习的卷积码软判决译码方法
CN109525254A (zh) * 2018-10-25 2019-03-26 华南理工大学 基于深度学习的卷积码软判决译码方法
CN111130565A (zh) * 2018-10-30 2020-05-08 华为技术有限公司 一种基于神经网络的译码方法及装置
CN111130565B (zh) * 2018-10-30 2021-12-21 华为技术有限公司 一种基于神经网络的译码方法及装置
CN109728824A (zh) * 2018-12-06 2019-05-07 杭州电子科技大学 一种基于深度学习的ldpc码迭代译码方法
CN111435838B (zh) * 2019-01-14 2022-06-14 华为技术有限公司 译码方法、装置及设备
CN111435838A (zh) * 2019-01-14 2020-07-21 华为技术有限公司 译码方法、装置及设备
CN109921882A (zh) * 2019-02-20 2019-06-21 深圳市宝链人工智能科技有限公司 一种基于深度学习的mimo解码方法、装置及存储介质
CN110730008A (zh) * 2019-09-12 2020-01-24 天津大学 一种基于深度学习的rs码置信传播译码方法
CN110730008B (zh) * 2019-09-12 2023-04-07 天津大学 一种基于深度学习的rs码置信传播译码方法
CN112865813A (zh) * 2019-11-26 2021-05-28 爱思开海力士有限公司 电子装置及操作电子装置的方法
CN112865813B (zh) * 2019-11-26 2023-12-12 爱思开海力士有限公司 电子装置及操作电子装置的方法
CN112615629A (zh) * 2020-11-26 2021-04-06 西安电子科技大学 多元ldpc码的译码方法、系统、介质、设备及应用
CN112615629B (zh) * 2020-11-26 2023-09-26 西安电子科技大学 多元ldpc码的译码方法、系统、介质、设备及应用
CN113890543A (zh) * 2021-10-09 2022-01-04 吉林大学 基于多层感知神经网络的多进制ldpc码的译码方法
CN113890543B (zh) * 2021-10-09 2024-04-26 吉林大学 基于多层感知神经网络的多进制ldpc码的译码方法
CN114421972A (zh) * 2022-01-27 2022-04-29 石家庄市经纬度科技有限公司 一种多进制ldpc码译码方法
CN114421972B (zh) * 2022-01-27 2022-11-22 石家庄市经纬度科技有限公司 一种多进制ldpc码译码方法

Similar Documents

Publication Publication Date Title
CN106571832A (zh) 一种多进制ldpc码级联神经网络解码方法及装置
CN110442707B (zh) 一种基于seq2seq的多标签文本分类方法
CN108282264B (zh) 基于比特翻转串行消除列表算法的极化码译码方法
CN108933602A (zh) 用于低密度奇偶校验解码的深度学习
Aliabadi et al. Storing sparse messages in networks of neural cliques
CN103888148B (zh) 一种动态阈值比特翻转的ldpc码硬判决译码方法
CN110278002B (zh) 基于比特翻转的极化码置信传播列表译码方法
CN106777125A (zh) 一种基于神经网络及图像关注点的图像描述生成方法
CN108540267B (zh) 一种基于深度学习的多用户数据信息检测方法及装置
CN107276594A (zh) 使用硬选取硬译码模式下的译码器产生软信息的方法
CN111970009B (zh) 级联极化码比特翻转置信传播编译码方法
CN100542049C (zh) 一种多码率的ldpc码的译码器装置及译码方法
WO2017113507A1 (zh) 一种集合译码方法和集合译码器
Wang et al. Fine-grained recognition of error correcting codes based on 1-D convolutional neural network
Jiang et al. Storing sequences in binary tournament-based neural networks
Chen et al. Robust multi-class classification using linearly scored categorical cross-entropy
CN107395214A (zh) 一种基于闪存页错误特性降低ldpc译码延迟的方法
CN115664899A (zh) 一种基于图神经网络的信道解码方法及系统
Yuan et al. A novel hard decision decoding scheme based on genetic algorithm and neural network
CN112104379B (zh) 一种基于关键集的极化码置信度传播动态翻转译码方法
CN101436864B (zh) 一种低密度奇偶校验码的译码方法及装置
JP7332193B2 (ja) 因子グラフ上での確率伝搬
CN108933604A (zh) 一种变量节点处理方法及装置
Liang et al. Exploiting noise correlation for channel decoding with convolutional neural networks
Aliabadi et al. Learning sparse messages in networks of neural cliques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170419

WD01 Invention patent application deemed withdrawn after publication