CN114244375B - 基于神经网络的ldpc归一化最小和译码方法及装置 - Google Patents

基于神经网络的ldpc归一化最小和译码方法及装置 Download PDF

Info

Publication number
CN114244375B
CN114244375B CN202111585773.7A CN202111585773A CN114244375B CN 114244375 B CN114244375 B CN 114244375B CN 202111585773 A CN202111585773 A CN 202111585773A CN 114244375 B CN114244375 B CN 114244375B
Authority
CN
China
Prior art keywords
soft information
updated
hard decision
information
ldpc code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111585773.7A
Other languages
English (en)
Other versions
CN114244375A (zh
Inventor
罗志勇
施泓昊
丁俊豪
钟明阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202111585773.7A priority Critical patent/CN114244375B/zh
Publication of CN114244375A publication Critical patent/CN114244375A/zh
Application granted granted Critical
Publication of CN114244375B publication Critical patent/CN114244375B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1111Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms
    • H03M13/1125Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms using different domains for check node and bit node processing, wherein the different domains include probabilities, likelihood ratios, likelihood differences, log-likelihood ratios or log-likelihood difference pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1131Scheduling of bit node or check node processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Error Detection And Correction (AREA)

Abstract

本发明公开了一种基于神经网络的LDPC归一化最小和译码方法及装置,包括:获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化;对第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息;对迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果。本发明能够提高译码结果的准确性,译码性能得到了增强,误码率进一步降低。

Description

基于神经网络的LDPC归一化最小和译码方法及装置
技术领域
本发明涉及深度学习和通信技术领域,尤其涉及一种基于神经网络的LDPC归一化最小和译码方法及装置。
背景技术
在通信、存储系统中,为纠正传输错误而广泛使用前向纠错编码。LDPC码是线性分组码,经过仔细构造校验矩阵的LDPC码具有接近香农极限的纠错能力,因此广泛用于数据存储和各种通信方式。例如,在卫星通信领域常用的CCSDS标准中定义了应用于不同场景、不同码长、码率的LDPC码。
传统的置信传播(BP)译码方式由于采用大量的双曲正切tanh和反双曲正切arctanh函数,导致译码计算复杂度过高。最小和译码器使用取最小值代替上述两种非线性函数,只需要对数据进行比较,大大降低了译码器的复杂度。但由于采用了最小值近似,最小和译码器的软信息迭代中,算出的校验节点至变量节点的值比BP算出的值偏大,因此纠错性能比BP算法差。通常采用的方法是对该值乘上一个归一化因子,该归一化因子由于很难使用公式计算,故一般采用经验估计,大多取值于0.6至0.9之间。由于归一化因子通过经验估计,因此会导致译码存在一定的误差,使得该译码方式的性能与BP译码仍存在较大的偏差。
因此,本领域技术人员有动机开发一种计算复杂度比BP译码方式低,同时性能接近BP译码方式。
发明内容
本发明提供了一种基于神经网络的LDPC归一化最小和译码方法及装置,以解决现有技术中经验估计的归一化因子导致译码误差大的技术问题。
为了解决上述技术问题,本发明实施例提供了一种基于神经网络的LDPC归一化最小和译码方法,包括:
获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化;
对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息;
对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果。
进一步地,所述获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化,具体为:
将所述LDPC码信号进行解调,转换成对数似然比,并根据所述对数似然比,对第一软信息进行初始化。
进一步地,所述根据预设的神经网络,来更新归一化因子,具体为:
将每个校验节点的输入数据,输入至预设的神经网络,从而得出对应于的每个校验节点的归一化因子;
其中,在所述LDPC码信号的校验矩阵中,每一行对应一个校验节点,每一列对应的一个变量节点,所述校验矩阵由LDPC码信号的码长和信息长度求得。
进一步地,所述根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,具体为:
根据更新后的归一化因子和所述第一软信息,计算每个所述校验节点传递给相连变量节点的第二软信息:Lij=αNN(i)×minj′∈N(i)\j|Zij′|×∏j′∈N(i)\jsign(Zij′);
其中,i为校验节点,j为变量节点,N(i)\j表示为从集合N(i)中除去j,N(i)表示所有与校验节点相连的变量节点的集合,min表示取最小值,sign为符号函数,αNN(i)为归一化因子,Zij为第一软信息,Lij为第二软信息。
进一步地,所述根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,具体为:
根据更新后的第二软信息,以及所述对数似然比,计算出硬判决信息:Zj=lj+∑i∈M(j)Lij;其中,lj为所述对数似然比,M(j)表示所有与变量节点相连的校验节点;
根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作:Zij=Zj-Lij
进一步地,所述对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果,具体为:
对所述迭代后的硬判决信息进行硬判决译出码矢量:从而输出译码结果b=(b1,b2,b3,…,bn)。
相应地,本发明实施例还提供一种基于神经网络的LDPC归一化最小和译码装置,包括:初始化模块、迭代计算模块和硬判决模块;
所述初始化模块,用于获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化;
所述迭代计算模块用于对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息;
所述硬判决模块,用于对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果。
进一步地,所述初始化模块,用于获取LDPC码信号,并初始化第一软信息,具体为:
将所述LDPC码信号进行解调,转换成对数似然比,并根据所述对数似然比,对第一软信息进行初始化。
进一步地,所述迭代计算模块用于对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,从而对所述第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息,具体为:
将每个校验节点的输入数据,输入至预设的神经网络,从而得出对应于的每个校验节点的归一化因子;其中,在所述LDPC码信号的校验矩阵中,每一行对应一个校验节点,每一列对应的一个变量节点,所述校验矩阵由LDPC码信号的码长和信息长度求得。
根据更新后的归一化因子和所述第一软信息,计算每个所述校验节点传递给相连变量节点的第二软信息:Lij=αNN(i)×minj′∈N(i)\j|zij′|×Πj′∈N(i)\jsign(Zij′);其中,i为校验节点,j为变量节点,N(i)\j表示为从集合N(i)中除去j,N(i)表示所有与校验节点相连的变量节点的集合,min表示取最小值,sign为符号函数,αNN(i)为归一化因子,Zij为第一软信息,Lij为第二软信息;
根据更新后的第二软信息,以及所述对数似然比,计算出硬判决信息:Zj=lj+∑i∈M(j)Lij;其中,lj为所述对数似然比,M(j)表示所有与变量节点相连的校验节点;
根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作:Zij=Zj-Lij
进一步地,所述硬判决模块,用于对所述硬判决信息进行硬判决译出码矢量,从而输出译码结果,具体为:
对所述迭代后的硬判决信息进行硬判决译出码矢量:从而输出译码结果b=(b1,b2,b3,…,bn)。
相比于现有技术,本发明实施例具有如下有益效果:
本发明的技术方案通过对第一软信息进行一次初始化操作后,进行第一软信息和第二软信息迭代计算,并且在每一次迭代中增加了神经网络对归一化因子的估值,保证了每一次迭代过程中都采取不同的归一化因子来对第二软信息进行计算,提高了后续对信息硬判决的译码结果的准确性,以达到精确的估计效果,使得译码性能得到了增强,误码率进一步降低。
附图说明
图1:为本发明实施例所提供的基于神经网络的LDPC归一化最小和译码方法的步骤流程图;
图2:为本发明实施例所提供的基于神经网络的LDPC归一化最小和译码方法的示意图;
图3:为本发明实施例所提供的基于神经网络的LDPC归一化最小和译码方法中神经网络的结构示意图;
图4:为本发明实施例所提供的基于神经网络的LDPC归一化最小和译码方法与现有技术的信噪比和误码率的关系示意图;
图5:为本发明实施例所提供的基于神经网络的LDPC归一化最小和译码装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参照图1,为本发明实施例提供的一种基于神经网络的LDPC归一化最小和译码方法,包括以下步骤S101-S103:
S101:获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化。
具体地,将所述LDPC码信号进行解调,转换成对数似然比,并根据所述对数似然比,对第一软信息进行初始化。
需要说明的是,对数似然比记为lj(j=1,2,3,…,n),根据所述对数似然比,对第一软信息进行初始化,令第一软信息Zij=lj
S102:对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息。
具体地,请参阅图2,为本发明实施例所提供的基于神经网络的LDPC归一化最小和译码方法的示意图,将每个变量节点的输入数据,输入至预设的神经网络,从而得出对应于的每个校验节点的归一化因子;其中,在所述LDPC码信号的校验矩阵中,每一行对应一个校验节点,每一列对应的一个变量节点,所述校验矩阵由LDPC码信号的码长和信息长度求得。
需要说明的是,LDPC码信息的码长为n,信息长度k,校验部分长度n-k;LDPC码的生成矩阵G为k行n列,校验矩阵H为n-k行,n列。校验矩阵的每一行对应一个校验节点i,每一列对应一个变量节点j,矩阵中为1的元素代表校验关系。例如,若第i行第j列为1,则表示校验节点i与变量节点j之间存在校验关系,在迭代译码中需要往复传递软信息。
作为本实施例中的优选方案,对于卫星通信中广泛使用的CCSDS LDPC码,码长为8176,信息长度为7154,校验位有1022比特,其校验矩阵是规则的,即每一行都有32个1,每一列都有4个1,代表每一个校验节点都有32个变量节点与之相连;每一个变量节点都有4个校验节点与之相连。
需要说明的是,每个校验节点i的输入数据为Z(i)={Zij:hij=1},将其输入至预设的神经网络,由神经网络估计出对应校验节点i的归一化因子αNN(i)。请参阅图3,预设的神经网络结构包括输入层、若干层隐藏层和输出层,输入层将变量节点提供给每个校验节点i的数据Z(i)交给第一个隐藏层的每个神经元,输入层的神经元数量即校验节点i相连的变量节点j数量。隐藏层内部均为全连接网络:上一层的每一个神经元与下一层的每个神经元相连;每个神经元的输出都经过一个激活函数处理。最后一层隐藏层仅有一个神经元,其输出经过激活函数后给网络的输出层。输出层不做任何数据处理,仅用于输出数据αNN(i)。
作为本实施例中的优选方案,神经网络设置有一层输入层、10层隐藏层和一层输出层;输入层的神经元数量为32,无激活函数;10层隐藏层中,前8层隐藏层的神经元数量均为8,激活函数均为ReLU函数;第9层隐藏层的神经元数量为64,激活函数为ReLU函数,ReLU函数的表达式为y=0,x<0;y=x,x>0;第10层隐藏层的神经元数量为1,激活函数为Softplus函数,Softplus函数表达式为y=log(1+exp(x));输出层的神经元数量为1,无激活函数。神经网络经过输入数据和参考数据的训练,并使用优化器进行反向传播和权值更新,最终完成收敛,便可得到性能较优的权值参数。
需要说明的是,上述优选方案仅为一个优选实施例,根据实际的应用情形,对于每一个校验节点i,在每一次迭代计算中都会使用一次上述神经网络,且该神经网络适用于各种LDPC码型,包括规则码、非规则码,以及1/2,3/4,7/8,等各种码率,各隐藏层的神经元数量可以根据实际情况调整,以达到精确的估计效果。对于所有校验节点i相连的变量节点j数量相同的情形,例如规则码,则可以重复使用相同的网络参数;对于非规则码,即每个校验节点i相连的变量节点j数量有差异的情形,只需要将输入层的神经元数量相应更改,而后训练网络即可达到理想的译码效果。
在本实施例中,根据更新后的归一化因子和所述第一软信息,计算每个所述校验节点传递给相连变量节点的第二软信息:Lij=αNN(i)×minj′∈N(i)\j|Zij′|×Πj′∈N(i)\jsign(Zij′);其中,i为校验节点,j为变量节点,N(i)\j表示为从集合N(i)中除去j,N(i)表示所有与校验节点相连的变量节点的集合,min表示取最小值,sign为符号函数,αNN(i)为归一化因子,Zij为第一软信息,Lij为第二软信息。
需要说明的是,所有与校验节点i相连的变量节点j集合为N(i)={j:hij=1},其中,hij表示校验矩阵第i行第j列的元素值;所有与变量节点j相连的校验节点i为M(j)={i:hij=1}。在迭代计算中,变量节点j传递给校验节点i的第一软信息记为Zij,校验节点i传递给变量节点j的第二软信息记为Lij
在本实施例中,根据更新后的第二软信息,以及所述对数似然比,计算出硬判决信息:Zj=lj+∑i∈M(j)Lij;其中,lj为所述对数似然比,M(j)表示所有与变量节点相连的校验节点;根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作:Zij=Zj-Lij
需要说明的是,达到迭代停止的预设条件或迭代次数达到预设值后,则停止迭代计算,并获取迭代计算结束后当前的硬判决信息Zj。迭代停止的预设条件为bHT=0,其中T为对校验矩阵H的转置,b=(b1,b2,b3,…,bn),bi为对迭代后的硬判决信息进行硬判决译出的码矢量。
作为本实施例的优选方案,迭代次数达到的预设值最大值为30,在运算中进行30次迭代。
S103:对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果。
具体地,对所述迭代后的硬判决信息进行硬判决译出码矢量: 从而输出译码结果b=(b1,b2,b3,…,bn),共n个比特,即图2中的判决比特。
请参阅图4,其为现有技术与本发明实施例的译码方法的性能对比示意图,采用了CCSDS标准中的LDPC(8176,7154)码。由图4可得,“○”标记的BP译码的性能最佳,在不同信噪比下其误码率最低,但由于BP译码中大量的非线性运算,导致运算十分复杂;而本发明实施例的优选方案,“╳”神经网络辅助的最小和译码的性能已非常接近BP译码,且规避了BP译码中大量的非线性运算,可作为BP译码的低复杂度替代方案;而“□”标记的归一化因子=0.8的归一化最小和译码与“┼”标记的无归一化因子的最小和译码性能都没有本发明实施例的优选方案的性能优异。因此,本发明实施例的优选方案具有很大的应用前景,能够适配于实际的通信系统中。
实施本发明实施例,具有如下效果:
本发明的技术方案通过对第一软信息进行一次初始化操作后,进行第一软信息和第二软信息迭代计算,并且在每一次迭代中增加了神经网络对归一化因子的估值,保证了每一次迭代过程中都采取不同的归一化因子来对第二软信息进行计算,同时神经网络各层均采用了神经元全连接的方式,使得神经网络输出的归一化因子的准确性能够提高,并且也提高了后续对信息硬判决的译码结果的准确性,以达到精确的估计效果,使得译码性能得到了增强,误码率进一步降低,同时也规避了BP译码中大量的非线性运算,在保证性能的前提下尽可能降低了计算复杂度。
实施例二
相应地,请参阅图5,其为本发明实施例还提供一种基于神经网络的LDPC归一化最小和译码装置,包括:初始化模块201、迭代计算模块202和硬判决模块203。
所述初始化模块201,用于获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化。
在本实施例中,初始化模块201用于将所述LDPC码信号进行解调,转换成对数似然比,并根据所述对数似然比,对第一软信息进行初始化。
所述迭代计算模块202用于对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息。
在本实施例中,迭代计算模块202用于将每个校验节点的输入数据,输入至预设的神经网络,从而得出对应于的每个校验节点的归一化因子;其中,在所述LDPC码信号的校验矩阵中,每一行对应一个校验节点,每一列对应的一个变量节点,所述校验矩阵由LDPC码信号的码长和信息长度求得。
在本实施例中,迭代计算模块202还用于根据更新后的归一化因子和所述第一软信息,计算每个所述校验节点传递给相连变量节点的第二软信息:Lij=αNN(i)×minj′∈N(i)\j|Zij′|×Πj′∈N(i)\jsign(Zij′);其中,i为校验节点,j为变量节点,N(i)\j表示为从集合N(i)中除去j,N(i)表示所有与校验节点相连的变量节点的集合,min表示取最小值,sign为符号函数,αNN(i)为归一化因子,Zij为第一软信息,Lij为第二软信息。
在本实施例中,迭代计算模块202还用于根据更新后的第二软信息,以及所述对数似然比,计算出硬判决信息:Zj=lj+∑i∈M(j)Lij;其中,lj为所述对数似然比,M(j)表示所有与变量节点相连的校验节点。
在本实施例中,迭代计算模块202还用于根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作:Zij=Zj-Lij
所述硬判决模块203,用于对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果。
在本实施例中,硬判决模块203用于对所述迭代后的硬判决信息进行硬判决译出码矢量:从而输出译码结果b=(b1,b2,b3,…,bn)。
实施本发明实施例,具有如下效果:
本发明的技术方案通过对第一软信息进行一次初始化操作后,进行第一软信息和第二软信息迭代计算,并且在每一次迭代中增加了神经网络对归一化因子的估值,保证了每一次迭代过程中都采取不同的归一化因子来对第二软信息进行计算,同时神经网络各层均采用了神经元全连接的方式,使得神经网络输出的归一化因子的准确性能够提高,并且也提高了后续对信息硬判决的译码结果的准确性,以达到精确的估计效果,使得译码性能得到了增强,误码率进一步降低。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种基于神经网络的LDPC归一化最小和译码方法,其特征在于,包括:
获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化;其中,将所述LDPC码信号进行解调,转换成对数似然比,并根据所述对数似然比,对第一软信息进行初始化;
对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息;
其中,将每个校验节点的输入数据,输入至预设的神经网络,从而得出对应于的每个校验节点的归一化因子;其中,在所述LDPC码信号的校验矩阵中,每一行对应一个校验节点,每一列对应的一个变量节点,所述校验矩阵由LDPC码信号的码长和信息长度求得;根据更新后的归一化因子和所述第一软信息,计算每个所述校验节点传递给相连变量节点的第二软信息:Lij=αNN(i)×minj′∈N(i)\j|Zij′|×Πj′∈N(i)\jsign(Zij′);其中,i为校验节点,j为变量节点,N(i)\j表示为从集合N(i)中除去j,N(i)表示所有与校验节点相连的变量节点的集合,j′为集合N(i)中除去j后的集合中的节点,min表示取最小值,sign为符号函数,αNN(i)为归一化因子,Zij为第一软信息,Lij为第二软信息;根据更新后的第二软信息,以及所述对数似然比,计算出硬判决信息:Zj=lj+∑i∈M(j)Lij;其中,li为所述对数似然比,M(j)表示所有与变量节点相连的校验节点;根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作:Zij=Zj-Lij
对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果;其中,对所述迭代后的硬判决信息进行硬判决译出码矢量:从而输出译码结果b=(b1,b2,b3,…,bn)。
2.一种基于神经网络的LDPC归一化最小和译码装置,其特征在于,包括:初始化模块、迭代计算模块和硬判决模块;
所述初始化模块,用于获取LDPC码信号,并根据LDPC码信号,对第一软信息进行初始化;其中,将所述LDPC码信号进行解调,转换成对数似然比,并根据所述对数似然比,对第一软信息进行初始化;
所述迭代计算模块用于对所述第一软信息进行迭代计算,以使在每一次迭代计算中,根据预设的神经网络,来更新归一化因子,从而根据更新后的归一化因子和所述第一软信息,计算并更新第二软信息,继而根据更新后的第二软信息,计算并更新硬判决信息,根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作,直至达到迭代停止的预设条件或迭代次数达到预设值后,获得迭代后的硬判决信息;其中,将每个校验节点的输入数据,输入至预设的神经网络,从而得出对应于的每个校验节点的归一化因子;其中,在所述LDPC码信号的校验矩阵中,每一行对应一个校验节点,每一列对应的一个变量节点,所述校验矩阵由LDPC码信号的码长和信息长度求得;根据更新后的归一化因子和所述第一软信息,计算每个所述校验节点传递给相连变量节点的第二软信息:Lij=αNN(i)×minj′∈N(i)\j|Zij′|×Πj′∈N(i)\jsign(Zij′);其中,i为校验节点,j为变量节点,N(i)\j表示为从集合N(i)中除去j,N(i)表示所有与校验节点相连的变量节点的集合,j′为集合N(i)中除去j后的集合中的节点,min表示取最小值,sign为符号函数,αNN(i)为归一化因子,Zij为第一软信息,Lij为第二软信息;根据更新后的第二软信息,以及所述对数似然比,计算出硬判决信息:Zj=lj+∑i∈M(j)Lij;其中,lj为所述对数似然比,M(j)表示所有与变量节点相连的校验节点;根据更新后的第二软信息和更新后的硬判决信息,对第一软信息进行更新操作:Zij=Zj-Lij
所述硬判决模块,用于对所述迭代后的硬判决信息进行硬判决译出码矢量,从而输出译码结果;其中,对所述迭代后的硬判决信息进行硬判决译出码矢量:从而输出译码结果b=(b1,b2,b3,…,bn)。
CN202111585773.7A 2021-12-22 2021-12-22 基于神经网络的ldpc归一化最小和译码方法及装置 Active CN114244375B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111585773.7A CN114244375B (zh) 2021-12-22 2021-12-22 基于神经网络的ldpc归一化最小和译码方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111585773.7A CN114244375B (zh) 2021-12-22 2021-12-22 基于神经网络的ldpc归一化最小和译码方法及装置

Publications (2)

Publication Number Publication Date
CN114244375A CN114244375A (zh) 2022-03-25
CN114244375B true CN114244375B (zh) 2023-07-21

Family

ID=80761752

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111585773.7A Active CN114244375B (zh) 2021-12-22 2021-12-22 基于神经网络的ldpc归一化最小和译码方法及装置

Country Status (1)

Country Link
CN (1) CN114244375B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115037313B (zh) * 2022-08-12 2023-01-24 北京智芯微电子科技有限公司 Ldpc译码量化方法、装置、设备、ldpc译码方法及系统
CN115037312B (zh) * 2022-08-12 2023-01-17 北京智芯微电子科技有限公司 Ldpc译码软信息的量化方法、装置及设备
CN117640017A (zh) * 2024-01-26 2024-03-01 荣耀终端有限公司 通信方法、系统及相关设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101615913A (zh) * 2009-07-17 2009-12-30 清华大学 Ldpc码的快速收敛译码算法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10691540B2 (en) * 2017-11-21 2020-06-23 SK Hynix Inc. Soft chip-kill recovery for multiple wordlines failure
CN111245444B (zh) * 2020-03-20 2022-03-29 清华大学 归一化最小和ldpc译码方法及译码器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101615913A (zh) * 2009-07-17 2009-12-30 清华大学 Ldpc码的快速收敛译码算法

Also Published As

Publication number Publication date
CN114244375A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN114244375B (zh) 基于神经网络的ldpc归一化最小和译码方法及装置
US7539920B2 (en) LDPC decoding apparatus and method with low computational complexity algorithm
CN105763203B (zh) 一种基于硬可靠度信息的多元ldpc码译码方法
US20090172493A1 (en) Method and device for decoding low density parity check code
CN109586730B (zh) 一种基于智能后处理的极化码bp译码算法
CN110445581B (zh) 基于卷积神经网络降低信道译码误码率的方法
WO2021093866A1 (zh) 一种基于交替方向乘子法的深度学习信道译码方法
CN110417512B (zh) 一种用于cpm通信系统的联合迭代译码方法
CN108092673B (zh) 一种基于动态调度的bp迭代译码方法及系统
CN109547032B (zh) 一种基于深度学习的置信度传播ldpc译码方法
CN109586732A (zh) 中短码ldpc编解码系统和方法
CN110995277B (zh) 一种多层神经网络辅助的罚对偶分解信道译码方法
CN110830049A (zh) 一种基于密度进化改进偏移最小和的ldpc译码方法
CN110730008B (zh) 一种基于深度学习的rs码置信传播译码方法
CN102412846A (zh) 一种适用于低密度奇偶校验码的多值修正最小和解码方法
CN115664899A (zh) 一种基于图神经网络的信道解码方法及系统
Shrinidhi et al. Modified Min Sum Decoding Algorithm for Low Density Parity Check Codes
Liang et al. A low-complexity neural normalized min-sum ldpc decoding algorithm using tensor-train decomposition
CN106998240A (zh) 一种译码方法及译码器
CN100550656C (zh) 信道译码方法、装置和低密度奇偶校验码译码器
CN101136639A (zh) 用于降低复杂性的低密度奇偶校验解码的系统和方法
Larue et al. Blind neural belief propagation decoder for linear block codes
CN115276668A (zh) 一种基于crc的ldpc码混合译码方法
Zhou et al. Performance analysis of LDPC decoding algorithm
CN111835363A (zh) 基于交替方向乘子法的ldpc码译码方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant