CN110995277B - 一种多层神经网络辅助的罚对偶分解信道译码方法 - Google Patents

一种多层神经网络辅助的罚对偶分解信道译码方法 Download PDF

Info

Publication number
CN110995277B
CN110995277B CN201911238262.0A CN201911238262A CN110995277B CN 110995277 B CN110995277 B CN 110995277B CN 201911238262 A CN201911238262 A CN 201911238262A CN 110995277 B CN110995277 B CN 110995277B
Authority
CN
China
Prior art keywords
penalty
neural network
decoding
dual decomposition
dual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911238262.0A
Other languages
English (en)
Other versions
CN110995277A (zh
Inventor
韦逸
赵明敏
赵民建
雷鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911238262.0A priority Critical patent/CN110995277B/zh
Publication of CN110995277A publication Critical patent/CN110995277A/zh
Priority to PCT/CN2020/133414 priority patent/WO2021110054A1/zh
Application granted granted Critical
Publication of CN110995277B publication Critical patent/CN110995277B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/01Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1148Structural properties of the code parity-check or generator matrix
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0054Maximum-likelihood or sequential decoding, e.g. Viterbi, Fano, ZJ algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Error Detection And Correction (AREA)

Abstract

本发明提供了一种多层神经网络辅助的罚对偶分解信道译码方法,主要面向二进制线性码。该方法包括如下步骤:(1)基于信道译码构建最大似然优化问题;(2)通过将基本多面体的概念引入约束,将信道译码最大似然优化问题转化为基于奇偶校验多面体的译码优化问题;(3)引入解罚对偶分解法求解该译码优化问题,得到罚对偶分解信道译码器;(4)设计基于多层神经网络的校验多面体映射,通过训练获得学习参数,将基于多层神经网络的校验多面体映射引入罚对偶分解信道译码器,得到多层神经网络辅助的罚对偶分解信道译码器。本发明借助机器学习的力量进一步提升译码性能并且降低了译码延迟。

Description

一种多层神经网络辅助的罚对偶分解信道译码方法
技术领域
本发明属于无线通信信道编译码领域,涉及一种多层神经网络辅助的罚对偶分解信道译码方法。
背景技术
信道译码是将接收到的符号消息如何进行判决的问题。在一般的信息传输系统中,信宿收到的消息不一定与信源发出的消息相同,而信宿需要知道此时信源发出的是哪一个信源消息,故需要把信宿收到的消息根据某种规则判决为对应于信源符号消息集合中的某一个。线性规划(LP)译码器是基于原始最大似然译码问题的线性松弛,是二进制线性码的一种流行的译码技术。由于线性规划译码器在理论上对译码性能有很强的保证,因此受到了学术界和工业界的广泛关注,特别是对低密度奇偶校验(LDPC)码的译码。然而,与经典的置信传播(BP)译码器相比,LP译码器在低信噪比(SNR)区域具有较高的计算复杂度和较低的纠错性能。
另外,由于深度学习方法已经成功应用于其他很多领域,比如说图像处理,自然语言处理等,它作为一种有潜力的技术也开始应用于无线通信领域中,比如信号检测,信道估计,信道编码等。
发明内容
本发明的目的是信道译码过程中,为了提高译码性能,提出了一种多层神经网络辅助的罚对偶分解信道译码方法。本发明首先提出运用罚对偶分解方法求解最大似然信道译码问题,进一步提升译码性能。同时在该方法中的迭代多面体映射中引入神经网络减少迭代次数以减少译码延迟。
为达到上述目的,本发明采用了如下的技术方案:
一种多层神经网络辅助的罚对偶分解信道译码方法,包括:
1.基于信道译码构建最大似然译码问题,包括目标函数和奇偶校验约束条件;
2.将基本多面体引入步骤1中的奇偶校验约束条件,将最大似然译码问题转化为基于奇偶校验多面体的译码优化问题;
3.引入辅助变量,采用罚对偶分解法将步骤1所述的基于奇偶校验多面体的译码优化问题转化为其等价形式;在罚对偶分解法的内循环引入块连续上界最小化算法BSUM,得到罚对偶分解信道译码器,所述罚对偶分解信道译码器中带有校验多面体映射;
4.建立多层神经网络,与步骤3所述的校验多面体映射相结合,通过步骤3得到的解罚对偶分解信道译码器获取训练数据,经过训练得到基于多层神经网络的校验多面体映射;将基于多层神经网络的校验多面体映射引入步骤3得到的罚对偶分解信道译码器,得到多层神经网络辅助的罚对偶分解信道译码器;
5.采用步骤4得到的多层神经网络辅助的罚对偶分解信道译码器进行在线实时信道译码。
进一步的,步骤3得到的罚对偶分解信道译码器中带有校验多面体映射,校验多面体映射运算
Figure BDA0002305466580000021
是最耗费时间的部分,迭代校验多面体映射由于包含迭代所以引起译码延迟。本发明所提出的基于多层神经网络的多面体映射通过减少迭代次数减少译码延迟。
所述多层神经网络由三层组成:输入层、输出层和隐层;所述输入层包含dj个神经元,隐层包含
Figure BDA0002305466580000022
个神经元,输出层包含1个神经元,隐层和输出层后都跟着一个激活函数,其定义为:
Figure BDA0002305466580000023
定义yh表示隐藏层的输出,
Figure BDA0002305466580000024
为网络输出的差异系数的估计,则多层神经网络的结构表示为:
yh=SinAct(Wav+ba)
Figure BDA0002305466580000025
其中,
Figure BDA0002305466580000026
为网络中的权重以及偏置,是需要学习的网络参数;因此多层神经网络所实现的输入输出之间的映射表示为:
Figure BDA0002305466580000027
通过交叉验证确定训练信噪比,通过解罚对偶分解信道译码器获得训练数据
Figure BDA0002305466580000031
其中
Figure BDA0002305466580000032
是特征,
Figure BDA0002305466580000033
为标签,为sp的近似。由于迭代次数为1的情况占据着绝大多数,迭代次数为1的情况不需要通过神经网络减少迭代次数,因此在训练数据中排除迭代次数为1的情况。
使用训练数据
Figure BDA0002305466580000034
对多层神经网络进行训练,获得多层神经网络中所包含的参数Θ,其损失函数为:
Figure BDA0002305466580000035
其中,
Figure BDA0002305466580000036
表示发射信号,κ表示平衡系数,
Figure BDA0002305466580000037
表示向量的L2范数;为了进一步减少多层神经网络的计算复杂度,将{Wa,wb}量化为
Figure BDA0002305466580000038
Figure BDA0002305466580000039
为自然数集;乘法运算可以取消或者转化为复杂度较低的移位运算。经过训练,得到训练好的多层神经网络。
多层神经网络辅助的罚对偶分解信道译码器的运算方法具体如下:
4.1)确定一个与v对应的辅助超平面θ={θi}:
θi=sgn(vi-0.5),i=1,…,d
其中,sgn(·)是阶跃函数,如果|{i:θi=1}|中为1的元素数目是偶数,则将|v-0.5|最小值对应的θ中的第i个元素取反,即
i*=arg mini|vi-0.5|,
Figure BDA00023054665800000310
4.2)计算单步递进的差异系数η:
p=|{i:θi=1}|-1,
Figure BDA00023054665800000311
η=(θTu-p)/d
其中,ε为错误阈值,如果η<ε,则r=u即为输出;如果η>=ε,建立多层神经网络CPP-net并训练,将v输入到训练好的多层神经网络中,获得差异系数的估计值
Figure BDA00023054665800000312
Figure BDA00023054665800000313
其中,
Figure BDA00023054665800000314
表示神经网络的运算;
4.3)将估计值
Figure BDA00023054665800000315
赋值到单步递进差异系数的初始值
Figure BDA00023054665800000316
令k=0,以η0为起点进行迭代,直到ηk<ε,最终r=u即为输出;所述迭代的步骤如下:
v=v-ηkθ,
Figure BDA00023054665800000317
k=k+1,ηk=(θTu-p)/d。
本发明具备的有益效果:
本发明充分利用了罚函数分解方法求解最大似然信道译码优化问题,提高了译码性能。同时运用机器学习方法进一步优化基于罚函数分解的信道译码方法中的迭代多面体映射方法,引入一个神经网络减少迭代次数以降低译码延迟。同时,由于网络所需学习参数有限,相比起其他深度学习网络,该网络非常易于训练,训练过程对于训练时间和硬件平台的要求较低。
附图说明
图1是基于[96,48]MacKey 96.33.964码CPP-net结构图;
图2是BP译码器、基于交替方向乘子法的译码器(ADMM L2)、罚对偶分解信道译码方法(PDD)、多层神经网络辅助的罚对偶分解信道译码方法(PDD with neural CPP)在瑞利信道环境下的码组误码率BLER曲线图。
具体实施方式
为了使本发明的技术方案和优点变得更加清晰,接下来将结合附图对技术方案的具体实施方式作更加详细地说明。
实施例1
考虑在加性高斯信道上面进行传输信号,所考虑的码型为[96,48]MacKay96.33.964 LDPC码
Figure BDA0002305466580000041
和[575,288]IEEE802.16e LDPC码
Figure BDA0002305466580000042
针对该系统所提出的一种多层神经网络辅助的罚对偶分解信道译码方法包括如下步骤:
该方法具体包括以下步骤:
步骤一、针对一个长度为N的二进制线性码
Figure BDA0002305466580000043
每个码字由M×N奇偶校验矩阵H指定,
Figure BDA0002305466580000044
表示发送码字,y表示接收信号;基于信道译码构建最大似然译码问题,表示为下式(1)所述的形式:
Figure BDA0002305466580000045
其中
Figure BDA0002305466580000046
代表码字集,
Figure BDA0002305466580000047
为对数似然比,v的每一个元素的定义为:
Figure BDA0002305466580000048
其中,Pr(·)表示条件概率,
Figure BDA0002305466580000049
代表二进制线性码
Figure BDA00023054665800000410
的变量节点。
步骤二、在奇偶校验约束条件中引入基本多面体,将最大似然译码问题(1)松弛为下述线性约束问题:
Figure BDA0002305466580000051
其中,
Figure BDA0002305466580000052
表示该码字的凸包,
Figure BDA0002305466580000053
被称为基本多面体;
定义二进制线性码
Figure BDA0002305466580000054
的第j个校验节点的度数为dj,将问题(3)进一步被转化为基于奇偶校验多面体的译码优化问题:
Figure BDA0002305466580000055
其中,Pj代表一个dj×N选择矩阵,用于挑选出参与第j个校验等式的向量x中的元素,
Figure BDA0002305466580000056
表示度数为dj的奇偶校验多面体,表达式为:
Figure BDA0002305466580000057
其中even表示偶数。
步骤三、采用罚对偶分解法,引入一组辅助变量
Figure BDA0002305466580000058
将(4)中约束条件转化为以下等价形式:
Figure BDA0002305466580000059
将二进制变量{xi}松弛到区间[0,1],并引入辅助变量
Figure BDA00023054665800000510
满足
Figure BDA00023054665800000511
Figure BDA00023054665800000512
将问题(4)转化为:
Figure BDA00023054665800000513
此为由罚对偶分解法转化而来的等价形式;
问题(6)的增广拉格朗日问题表示为:
Figure BDA00023054665800000514
其中,
Figure BDA00023054665800000515
{yj},{wi}和{ηi}分别是Pjx=zj
Figure BDA00023054665800000516
Figure BDA00023054665800000517
对应的对偶变量;μm代表第m次外循环的惩罚参数;
针对问题(6),采用块连续上界最小化算法BSUM处理内循环,在外循环值更新对偶变量以及惩罚参数μm
BSUM算法处理步骤如下:
a)根据给定的{xk,zk},更新xk+1
将问题(6)的增广拉格朗日问题转换为一个带简单约束的二次优化问题:
Figure BDA0002305466580000061
将问题(7)分解成N个子问题:
Figure BDA0002305466580000062
其中
Figure BDA0002305466580000063
αi为向量
Figure BDA0002305466580000064
的第i个元素;
通过一阶优化条件,问题(8)的解表示为:
Figure BDA0002305466580000065
其中,∏[0,1]表示[0,1]区间上的欧几里得映射,最终得到
Figure BDA0002305466580000066
b)根据给定的{xk,xk+1},更新zk+1
zj的优化问题表示为:
Figure BDA0002305466580000067
与步骤a)同理,得到
Figure BDA0002305466580000068
其中,
Figure BDA0002305466580000069
表示校验多面体映射运算;最终得到
Figure BDA00023054665800000610
c)根据给定的{xk+1,zk+1},更新xk+1
求解xk+1可以写成下列非约束二次优化问题:
Figure BDA0002305466580000071
最终得到
Figure BDA0002305466580000072
对偶变量由以下公式更新得到:
Figure BDA0002305466580000073
本步骤的译码方法被称为罚对偶分解信道译码器,所述罚对偶分解信道译码器中带有校验多面体映射
Figure BDA0002305466580000074
步骤四、设计基于多层神经网络的校验多面体映射计算
Figure BDA0002305466580000075
具体分为以下步骤:
4.1)确定一个与v对应的辅助超平面θ={θi}:
θi=sgn(vi-0.5),i=1,…,d
其中,sgn(·)是阶跃函数,如果|{i:θi=1}|中为1的元素数目是偶数,则将|v-0.5|最小值对应的θ中的第i个元素取反,即
i*=arg mini|vi-0.5|,
Figure BDA0002305466580000076
4.2)计算单步递进的差异系数η:
p=|{i:θi=1}|-1,
Figure BDA0002305466580000077
η=(θTu-p)/d
其中,ε为错误阈值,如果η<ε,则r=u即为输出;如果η>=ε,建立多层神经网络CPP-net并训练,将v输入到训练好的多层神经网络中,获得差异系数的估计值
Figure BDA0002305466580000078
Figure BDA0002305466580000079
其中,
Figure BDA00023054665800000710
表示神经网络的运算;
如图1所示,所述CPP-net由三层组成:输入层、输出层和隐层;所述输入层包含dj个神经元,隐层包含
Figure BDA00023054665800000711
个神经元,输出层包含1个神经元,隐层和输出层后都跟着一个激活函数,其定义为:
Figure BDA0002305466580000081
定义yh表示隐藏层的输出,
Figure BDA0002305466580000082
为网络输出的差异系数的估计,则CPP-net的结构表示为:
yh=SinAct(Wav+ba)
Figure BDA0002305466580000083
其中,
Figure BDA0002305466580000084
为网络中的权重以及偏置,是需要学习的网络参数;因此CPP-net所实现的输入输出之间的映射表示为:
Figure BDA0002305466580000085
通过交叉验证确定训练信噪比,通过解罚对偶分解信道译码器获得训练数据
Figure BDA0002305466580000086
其中
Figure BDA0002305466580000087
是特征,
Figure BDA0002305466580000088
为标签;使用训练数据
Figure BDA0002305466580000089
对CPP-net进行训练,获得CPP-net中所包含的参数Θ,其损失函数为:
Figure BDA00023054665800000810
其中,
Figure BDA00023054665800000811
表示发射信号,κ表示平衡系数,
Figure BDA00023054665800000812
表示向量的L2范数;将{Wa,wb}量化为
Figure BDA00023054665800000813
为自然数集;经过训练,得到训练好的多层神经网络CPP-net;
4.3)将估计值
Figure BDA00023054665800000817
赋值到单步递进差异系数的初始值
Figure BDA00023054665800000814
令k=0,以η0为起点进行迭代,直到ηk<ε,最终r=u即为输出;所述迭代的步骤如下:
v=v-ηkθ,
Figure BDA00023054665800000815
k=k+1,ηk=(θTu-p)/d。
本步骤所述的计算方法被称为基于多层神经网络的校验多面体映射,其实现代码为:
Figure BDA00023054665800000816
Figure BDA0002305466580000091
将其引入罚对偶分解信道译码器中,得到多层神经网络辅助的罚对偶分解信道译码器。
步骤五、采用多层神经网络辅助的罚对偶分解信道译码器进行在线实时信道译码。
图2表示了在瑞利信道环境下,BP译码器、基于交替方向乘子法的译码器(ADMML2)、罚对偶分解信道译码方法(PDD)、多层神经网络辅助的罚对偶分解信道译码方法(PDDwith neural CPP)的码组误码率BLER。由图中可见,对于两种码型而言,罚对偶分解信道译码方法(PDD)、多层神经网络辅助的罚对偶分解信道译码方法(PDD with neural CPP)都获得了最好的译码性能。
表1:迭代多面体映射算法和基于神经网络的多面体映射算法的平均迭代次数(iterM)对比
Figure BDA0002305466580000092
表1是迭代多面体映射算法和基于神经网络的多面体映射算法的平均迭代次数(iterM)对比。由此可见本发明中所包含的基于神经网络的多面体映射算法可以有效减少迭代次数。
本发明是为了提高译码线性二进制性码的译码性能,所提出的一种多层神经网络辅助的罚对偶分解信道译码方法。以上所述仅为特定应用场合的具体实施方式,但本发明的真实精神和范围不局限于此,任何熟悉本领域的技术人员可以修改、等同替换、改进等,实现不同应用场合的信道译码方法。这些修改、等同替换和改进也落入本发明权利要求的保护范围内。

Claims (4)

1.一种多层神经网络辅助的罚对偶分解信道译码方法,其特征在于包括以下步骤:
1)基于信道译码构建最大似然译码问题,包括目标函数和奇偶校验约束条件;
2)将基本多面体引入步骤1)中的奇偶校验约束条件,将最大似然译码问题转化为基于奇偶校验多面体的译码优化问题;
3)引入辅助变量,采用罚对偶分解法将步骤1)所述的基于奇偶校验多面体的译码优化问题转化为其等价形式;在罚对偶分解法的内循环引入块连续上界最小化算法BSUM,得到罚对偶分解信道译码器,所述罚对偶分解信道译码器中带有校验多面体映射;
4)建立多层神经网络,与步骤3)所述的校验多面体映射相结合,通过步骤3)得到的解罚对偶分解信道译码器获取训练数据,经过训练得到基于多层神经网络的校验多面体映射;将基于多层神经网络的校验多面体映射引入步骤3)得到的罚对偶分解信道译码器,得到多层神经网络辅助的罚对偶分解信道译码器;
所述的步骤4)具体为:
设计基于多层神经网络的校验多面体映射计算
Figure FDA0002972476530000011
具体分为以下步骤:
4.1)确定一个与v对应的辅助超平面θ={θi}:
θi=sgn(vi-0.5),i=1,…,d
其中,sgn(·)是阶跃函数,如果|{i:θi=1}|中为1的元素数目是偶数,则将|v-0.5|最小值对应的θ中的第i个元素取反,即
Figure FDA0002972476530000012
4.2)计算单步递进的差异系数η:
Figure FDA0002972476530000013
其中,∈为错误阈值,如果η<∈,则r=u即为输出;如果η>=∈,建立多层神经网络CPP-net并训练,将v输入到训练好的多层神经网络中,获得差异系数的估计值
Figure FDA0002972476530000021
Figure FDA0002972476530000022
其中,
Figure FDA0002972476530000023
表示神经网络的运算;
所述CPP-net由三层组成:输入层、输出层和隐层;所述输入层包含dj个神经元,隐层包含
Figure FDA0002972476530000024
个神经元,输出层包含1个神经元,隐层和输出层后都跟着一个激活函数,其定义为:
Figure FDA0002972476530000025
定义yh表示隐藏层的输出,
Figure FDA0002972476530000026
为网络输出的差异系数的估计,则CPP-net的结构表示为:
yh=SinAct(Wav+ba)
Figure FDA0002972476530000027
其中,
Figure FDA0002972476530000028
为网络中的权重以及偏置,是需要学习的网络参数;因此CPP-net所实现的输入输出之间的映射表示为:
Figure FDA0002972476530000029
通过交叉验证确定训练信噪比,通过步骤3)中的解罚对偶分解信道译码器获得训练数据
Figure FDA00029724765300000210
其中
Figure FDA00029724765300000211
是特征,
Figure FDA00029724765300000212
为标签;使用训练数据
Figure FDA00029724765300000213
对CPP-net进行训练,获得CPP-net中所包含的参数Θ,其损失函数为:
Figure FDA00029724765300000214
其中,
Figure FDA00029724765300000215
表示发射信号,κ表示平衡系数,
Figure FDA00029724765300000216
表示向量的L2范数;将{Wa,wb}量化为
Figure FDA00029724765300000217
Figure FDA00029724765300000218
为自然数集;经过训练,得到训练好的多层神经网络CPP-net;
4.3)将估计值
Figure FDA00029724765300000219
赋值到单步递进差异系数的初始值
Figure FDA00029724765300000220
令k=0,以η0为起点进行迭代,直到ηk<∈,最终r=u即为输出;所述迭代的步骤如下:
v=v-ηkθ,
Figure FDA0002972476530000031
k=k+1,ηk=(θTu-p)/d
所述步骤4.1)-4.3)被称为基于多层神经网络的校验多面体映射,引入步骤3)用于计算罚对偶分解信道译码器中带有的校验多面体映射,得到多层神经网络辅助的罚对偶分解信道译码器;
5)采用步骤4)得到的多层神经网络辅助的罚对偶分解信道译码器进行在线实时信道译码。
2.根据权利要求1所述的多层神经网络辅助的罚对偶分解信道译码方法,其特征在于,所述的步骤1)具体为:
针对一个长度为N的二进制线性码
Figure FDA0002972476530000032
每个码字由M×N奇偶校验矩阵H指定,
Figure FDA0002972476530000033
表示发送码字,y表示接收信号;基于信道译码构建最大似然译码问题,表示为下式(1)所述的形式:
Figure FDA0002972476530000034
其中
Figure FDA0002972476530000035
代表码字集,
Figure FDA0002972476530000036
为对数似然比,v的每一个元素的定义为:
Figure FDA0002972476530000037
其中,Pr(·)表示条件概率,
Figure FDA0002972476530000038
代表二进制线性码
Figure FDA0002972476530000039
的变量节点。
3.根据权利要求1所述的多层神经网络辅助的罚对偶分解信道译码方法,其特征在于,所述的步骤2)具体为:
在奇偶校验约束条件中引入基本多面体,将步骤1)中所述的最大似然译码问题(1)松弛为下述线性约束问题:
Figure FDA00029724765300000310
其中,
Figure FDA00029724765300000311
表示该码字的凸包,
Figure FDA00029724765300000312
被称为基本多面体;
定义二进制线性码
Figure FDA00029724765300000313
的第j个校验节点的度数为dj,将问题(3)进一步被转化为基于奇偶校验多面体的译码优化问题:
Figure FDA0002972476530000041
其中,Pj代表一个dj×N选择矩阵,用于挑选出参与第j个校验等式的向量x中的元素,
Figure FDA0002972476530000042
表示度数为dj的奇偶校验多面体,表达式为:
Figure FDA0002972476530000043
其中even表示偶数。
4.根据权利要求3所述的多层神经网络辅助的罚对偶分解信道译码方法,其特征在于,所述的步骤3)具体为:
3.1)采用罚对偶分解法,引入一组辅助变量
Figure FDA0002972476530000044
将(4)中约束条件转化为以下等价形式:
Figure FDA0002972476530000045
将二进制变量{xi}松弛到区间[0,1],并引入辅助变量
Figure FDA0002972476530000046
满足
Figure FDA0002972476530000047
Figure FDA0002972476530000048
将问题(4)转化为:
Figure FDA0002972476530000049
此为由罚对偶分解法转化而来的等价形式;
问题(6)的增广拉格朗日问题表示为:
Figure FDA00029724765300000410
其中,
Figure FDA00029724765300000411
{yj},{wi}和{ηi}分别是Pjx=zj
Figure FDA00029724765300000412
Figure FDA00029724765300000413
对应的对偶变量;μm代表第m次外循环的惩罚参数;
3.2)针对问题(6),采用块连续上界最小化算法BSUM处理内循环,在外循环值更新对偶变量以及惩罚参数μm;使用上角标k表示内循环索引,所述BSUM算法处理步骤包括:
a)根据给定的
Figure FDA00029724765300000414
更新xk+1
将问题(6)的增广拉格朗日问题转换为一个带简单约束的二次优化问题:
Figure FDA0002972476530000051
将问题(7)分解成N个子问题:
Figure FDA0002972476530000052
其中
Figure FDA0002972476530000053
αi为向量
Figure FDA0002972476530000054
的第i个元素;
通过一阶优化条件,问题(8)的解表示为:
Figure FDA0002972476530000055
其中,Π[0,1]表示[0,1]区间上的欧几里得映射,最终得到
Figure FDA0002972476530000056
b)根据给定的
Figure FDA0002972476530000057
更新zk+1
zj的优化问题表示为:
Figure FDA0002972476530000058
与步骤a)同理,得到
Figure FDA0002972476530000059
其中,
Figure FDA00029724765300000510
表示校验多面体映射运算;最终得到
Figure FDA00029724765300000511
c)根据给定的{xk+1,zk+1},更新
Figure FDA00029724765300000512
求解
Figure FDA00029724765300000513
可以写成下列非约束二次优化问题:
Figure FDA00029724765300000514
Figure FDA00029724765300000515
最终得到
Figure FDA0002972476530000061
对偶变量由以下公式更新得到:
Figure FDA0002972476530000062
步骤3.1)-步骤3.2)的译码方法被称为罚对偶分解信道译码器,所述罚对偶分解信道译码器中带有校验多面体映射
Figure FDA0002972476530000063
CN201911238262.0A 2019-12-06 2019-12-06 一种多层神经网络辅助的罚对偶分解信道译码方法 Active CN110995277B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911238262.0A CN110995277B (zh) 2019-12-06 2019-12-06 一种多层神经网络辅助的罚对偶分解信道译码方法
PCT/CN2020/133414 WO2021110054A1 (zh) 2019-12-06 2020-12-02 一种多层神经网络辅助的罚对偶分解信道译码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911238262.0A CN110995277B (zh) 2019-12-06 2019-12-06 一种多层神经网络辅助的罚对偶分解信道译码方法

Publications (2)

Publication Number Publication Date
CN110995277A CN110995277A (zh) 2020-04-10
CN110995277B true CN110995277B (zh) 2021-06-01

Family

ID=70090843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911238262.0A Active CN110995277B (zh) 2019-12-06 2019-12-06 一种多层神经网络辅助的罚对偶分解信道译码方法

Country Status (2)

Country Link
CN (1) CN110995277B (zh)
WO (1) WO2021110054A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110995277B (zh) * 2019-12-06 2021-06-01 浙江大学 一种多层神经网络辅助的罚对偶分解信道译码方法
CN113824478B (zh) * 2021-10-11 2023-07-04 北京邮电大学 离散透镜天线阵列辅助的宽带毫米波多用户大规模mimo上行频谱效率优化方法
CN117335815B (zh) * 2023-11-29 2024-03-15 广东工业大学 基于改进原模图神经译码器的训练方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581924A (zh) * 2013-11-22 2014-02-12 北京无线电测量研究所 一种提高蜂窝网通信系统中双向中继传输容量的方法
CN107689801A (zh) * 2017-09-07 2018-02-13 西安电子科技大学 Ldpc码admm迭代译码的早停止方法
CN108140131A (zh) * 2015-10-04 2018-06-08 艾腾怀斯股份有限公司 用于将卷积网络应用于空间数据的系统和方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE336107T1 (de) * 2003-04-30 2006-09-15 Freescale Semiconductor Inc Verfahren und einrichtung zur digital- analog/analog-digital wandlung mit reduziertem energieverbrauch
US20120051452A1 (en) * 2010-09-01 2012-03-01 Nec Laboratories America, Inc. Modified coded hybrid subcarrier amplitude phase polarization modulation
US8650459B1 (en) * 2011-02-16 2014-02-11 Sk Hynix Memory Solutions Inc. Soft input, soft ouput mappers and demappers for block codes
CN102122962B (zh) * 2011-04-01 2013-04-17 山东大学 基于预测-修正原对偶内点法的ldpc码的lp译码器
CN102130745B (zh) * 2011-04-07 2013-04-17 山东大学 一种改进的ldpc码的线性规划译码方法
CN105792258B (zh) * 2016-04-13 2019-02-22 浙江理工大学 无线传感网中速率和可靠性协同的跨层优化方法
CN105959015B (zh) * 2016-04-22 2019-01-29 西安电子科技大学 基于最小多面体模型的ldpc码线性规划译码方法
CN108199721B (zh) * 2017-12-22 2019-10-25 西安电子科技大学 基于badmm的低密度奇偶检验码线性规划译码方法
CN108964669B (zh) * 2018-07-06 2021-07-06 西安电子科技大学 基于度分解和交替乘子法的ldpc码二次规划译码方法
CN109167600A (zh) * 2018-10-12 2019-01-08 哈尔滨工业大学 基于深度置信网络的抗音调干扰ldpc码的译码方法
CN110995277B (zh) * 2019-12-06 2021-06-01 浙江大学 一种多层神经网络辅助的罚对偶分解信道译码方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581924A (zh) * 2013-11-22 2014-02-12 北京无线电测量研究所 一种提高蜂窝网通信系统中双向中继传输容量的方法
CN108140131A (zh) * 2015-10-04 2018-06-08 艾腾怀斯股份有限公司 用于将卷积网络应用于空间数据的系统和方法
CN107689801A (zh) * 2017-09-07 2018-02-13 西安电子科技大学 Ldpc码admm迭代译码的早停止方法

Also Published As

Publication number Publication date
CN110995277A (zh) 2020-04-10
WO2021110054A1 (zh) 2021-06-10

Similar Documents

Publication Publication Date Title
CN110995277B (zh) 一种多层神经网络辅助的罚对偶分解信道译码方法
CN110932734B (zh) 一种基于交替方向乘子法的深度学习信道译码方法
CN110474716B (zh) 基于降噪自编码器的scma编解码器模型的建立方法
Kim et al. Physical layer communication via deep learning
Be’Ery et al. Active deep decoding of linear codes
CN110445581B (zh) 基于卷积神经网络降低信道译码误码率的方法
Xiao et al. Designing finite alphabet iterative decoders of LDPC codes via recurrent quantized neural networks
CN109361404B (zh) 一种基于半监督深度学习网络的ldpc译码系统及译码方法
CN114244375B (zh) 基于神经网络的ldpc归一化最小和译码方法及装置
CN111711455A (zh) 一种基于神经网络的极化码bp译码方法
Liu et al. A deep learning assisted node-classified redundant decoding algorithm for BCH codes
CN111835364B (zh) 一种极化码的低复杂度神经bp译码方法
Kim et al. Linear MMSE-optimal turbo equalization using context trees
CN111049531B (zh) 一种基于分段线性惩罚函数的交替方向乘子法的深度学习信道译码方法
Nachmani et al. Autoregressive belief propagation for decoding block codes
Xuan et al. Deep joint source-channel coding for transmission of correlated sources over awgn channels
Larue et al. Blind neural belief propagation decoder for linear block codes
Dhok et al. ATRNN: Using seq2seq approach for decoding polar codes
US8571092B2 (en) Interconnect coding method and apparatus
Li et al. A double-CNN BP decoder on fast fading channels using correlation information
Stark et al. Neural information bottleneck decoding
Wei et al. A PDD decoder for binary linear codes with neural check polytope projection
Chen et al. Boosting belief propagation for LDPC codes with deep convolutional neural network predictors
Kavvousanos et al. An iterative approach to syndrome-based deep learning decoding
Ranjan et al. Auto-scma: Learning codebook for sparse code multiple access using machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant