CN109525254B - 基于深度学习的卷积码软判决译码方法 - Google Patents

基于深度学习的卷积码软判决译码方法 Download PDF

Info

Publication number
CN109525254B
CN109525254B CN201811252800.7A CN201811252800A CN109525254B CN 109525254 B CN109525254 B CN 109525254B CN 201811252800 A CN201811252800 A CN 201811252800A CN 109525254 B CN109525254 B CN 109525254B
Authority
CN
China
Prior art keywords
convolutional code
neural network
deep neural
code
noisy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811252800.7A
Other languages
English (en)
Other versions
CN109525254A (zh
Inventor
姜小波
张帆
梁冠强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201811252800.7A priority Critical patent/CN109525254B/zh
Publication of CN109525254A publication Critical patent/CN109525254A/zh
Application granted granted Critical
Publication of CN109525254B publication Critical patent/CN109525254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/23Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using convolutional codes, e.g. unit memory codes

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)

Abstract

本发明提供一种基于深度学习的卷积码软判决译码方法,该方法采用深度神经网络或感知器对卷积码进行译码,并对深度神经网络的深度进行设置;所述深度神经网络为全连接神经网络、卷积神经网络、GAN或LSTM。本发明基于深度学习的卷积码软判决译码方法采用了深度学习算法来对卷积码进行译码,并从带噪的软信息序列中还原发送的信息位序列。

Description

基于深度学习的卷积码软判决译码方法
技术领域
本发明涉及电子通信技术领域,更具体地说,涉及一种基于深度学习的卷积码软判决译码方法。
背景技术
为了提高信号在信道传输的可靠性,各种纠错码技术被广泛的应用在数字通信中,卷积码(convolutional code)是一种应用广泛同时性能良好的编码方式,被应用于各种数据传输系统,特别是卫星通信系统中,而维特比则是针对卷积码的一种译码方法。
卷积码由爱里斯(Elias)于1955年提出,与分组码不同之处在于,分组码在编码过程中,本组的n-k个校验元仅与本组的k个信息元有关,而与其他各组码元无关。分组码译码时,也仅从本码组中的码元内提取有关译码信息,而与其他各组无关。而在卷积码编码中,本组的n-k个校验元不仅与本组的k个信息元有关,而且还与以前各时刻输入至编码器的信息组有关。正由于在卷积码的编码过程中,充分利用了各组之间的相关性,且k和n也较小,因此,在与分组码同样的码率和设备复杂性条件下,无论从理论上还是从实际上均已证明卷积码的性能至少不比分组码差。
卷积码现有的维特比译码方法来说,维特比译码在译码效率和译码性能的平衡上还有提高的空间,当维特比的译码窗口一定时,维特比译码通过计算汉明距离来获得最优路径,大大降低了译码的效率。
发明内容
本发明的目的在于克服现有技术中的缺点与不足,提供一种基于深度学习的卷积码软判决译码方法,该译码方法采用了深度学习算法来对卷积码进行译码,并从带噪的软信息序列中还原发送的信息位序列。
为了达到上述目的,本发明通过下述技术方案予以实现:一种基于深度学习的卷积码软判决译码方法,其特征在于:采用深度神经网络或感知器对卷积码进行译码,并对深度神经网络的深度进行设置;所述深度神经网络为全连接神经网络、卷积神经网络、GAN或LSTM。
采用深度神经网络对卷积码进行译码,并对深度神经网络的深度进行设置是指:通过建立深度神经网络模型并将半无限的卷积码序列切分为符合深度神经网络结构的训练集,训练完深度神经网络模型后,切分后的带噪卷积码经过译码,用状态位将其衔接成全部码字的译码输出。
包括以下步骤:
第一步,确定深度神经网络的模型参数,并建立深度神经网络模型;
第二步,建立卷积码译码的数据样本集;
第三步,利用第二步数据样本集并采用softmax分类方式和批量梯度下降法对深度神经网络模型进行训练;
第四步,将需译码的卷积码输入第三步得到的深度神经网络模型中进行译码,完成卷积码译码。
在第一步中,所述确定深度神经网络的模型参数,并建立深度神经网络模型是指:对于任一个(n0,k0,m)卷积码,设定深度神经网络模型的输出层维度为n,输入层维度为n0×n/k0+k0×m;设定隐藏层的激活函数为f(x)=relu(x);根据输出层维度、输入层维度和隐藏层的激活函数建立深度神经网络模型。
所述建立卷积码译码的数据样本集是指:
首先,随机生成一段长度为L的信息序列,经过(n0,k0,m)卷积码编码后,并通过高斯白噪声加噪得到长度为n0×L/k0的带噪卷积码信息序列;
其次,在带噪卷积码信息序列前加入00做为状态位,并将带噪卷积码信息序列按照第一步深度神经网络模型的输入维度进行切分,形成对应于深度神经网络模型大小的带噪卷积码信息码字段;其中,对于任一个(n0,k0,m)卷积码的开始状态均为00(共k0×m个0);
最后,对带噪卷积码信息码字段进行样本构建,批量生成符合深度神经网络模型的数据样本集。
所述对带噪卷积码信息码字段进行样本构建,批量生成符合深度神经网络模型的数据样本集是指:
(1)在带噪卷积码信息码字段中,前k0×m位为原始码字的状态位,后n0×n/k0位为带噪卷积码信息码字段,作为第一个训练样本;
(2)设定样本获取信息位窗口大小为N,取第二个训练样本时,样本窗口在带噪卷积码信息码字段按序列方向向后滑动一位,将前一个码字段的状态位的第二个0和码字段的第一个比特做为状态位,加上滑动后样本窗口加入的码字比特,作为第二个训练样本;
(3)以此类推,根据全段的带噪卷积码信息码字段和对应的信息位批量生成符合深度神经网络模型的数据样本集。
在第三步中,深度神经网络模型训练时采用前馈计算和后向传播两个过程更新权重的方式得到最优的权重,使得该模型具有分类能力。
在第四步中,所述将需译码的卷积码输入第三步得到的深度神经网络模型中进行译码,完成卷积码译码是指:
(1)将需译码的卷积码进行编码加噪后得到带噪卷积码信息序列,并在带噪卷积码信息序列的信息位最后加上零信息位后输入深度神经网络模型;
(2)设定最开始状态位为00,并对第一个信息位进行译码;
(3)将带噪卷积码信息序列的状态更新,并向带噪卷积码信息序列后滑动一位,对后续带噪卷积码信息序列重复此步译码,完成卷积码译码。
与现有技术相比,本发明具有如下优点与有益效果:
1、本发明基于深度学习的卷积码软判决译码方法采用了深度学习算法来对卷积码进行译码,并从带噪的软信息序列中还原发送的信息位序列。
2、本发明可以将深度神经网络模型的软信息输入换成硬信息输入,从而实现卷积码的硬判决译码。
附图说明
图1是本发明实施例一的深度神经网络模型译码的流程图;
图2是本发明实施例一的深度神经网络模型的结构图;
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例一
本发明以(2,1,2)卷积码为实施例,对本发明提供的一种基于深度学习的卷积码软判决译码方法进行详细的说明,其中该卷积码的编码方式如下,卷积码的每一段的起始状态可由在该段之前两位的输入比特来表示,在编码最前端的起始状态可由00来表示。G(D)=[1+D+D2,1+D2]。
如图1至2所示,本发明基于深度学习的卷积码软判决译码方法是这样的:采用深度神经网络对卷积码进行译码,并对深度神经网络的深度进行设置;所述深度神经网络为全连接神经网络、卷积神经网络、GAN或LSTM。具体为通过建立深度神经网络模型并将半无限的卷积码序列切分为符合深度神经网络结构的训练集,训练完深度神经网络模型后,切分后的带噪卷积码经过译码,用状态位将其衔接成全部码字的译码输出。
包括以下步骤:
第一步,确定深度神经网络的模型参数,并建立深度神经网络模型;
第二步,建立卷积码译码的数据样本集;
第三步,利用第二步数据样本集并采用softmax分类方式和批量梯度下降法对深度神经网络模型进行训练;
第四步,将需译码的卷积码输入第三步得到的深度神经网络模型中进行译码,完成卷积码译码。
具体步骤如下:
(1)首先确定深度神经网络的模型参数,并建立深度神经网络模型。可将深度神经网络的输出层维度大小设定为8,对应的深度神经网络的输入层维度大小为8×2+2=18,其中2为该小段卷积码的起始状态。由于(2,1,2)卷积码的构造比较简单,所以一层隐藏层已经足够,此处将隐藏层大小设为64,并设定隐藏层的激活函数为f(x)=relu(x)。根据输出层维度、输入层维度和隐藏层的激活函数建立深度神经网络模型。
(2)对带噪卷积码信息码字段进行样本构建,批量生成符合深度神经网络模型的数据样本集。
随机生成长度为L的信息序列,经(2,1,2)卷积码编码后,由范围为1db~8db的高斯白噪声加噪,得到一个长度为2×L的带噪卷积码信息序列。取L=1000,为方便译码,最后7位可设为零信息位,以便倒数第八位的译码后译码过程结束,构建样本的时候,将带噪卷积码信息序列按照第一步深度神经网络模型的输入维度进行切分,形成对应于深度神经网络模型大小的带噪卷积码信息码字段。第一个训练样本状态位由00开始,后面是2×8的信息序列为带噪卷积码信息码字段,作为第一个训练样本。
取第二个训练样本时,窗口在带噪卷积码信息码字段按序列方向向后滑动一位,将前一个码字段的状态位的第二个0和码字段的第一个比特做为状态位,加上滑动后窗口加入的码字比特做为输入,标签为编码前码字段的onehot形式,组成了第二个训练样本,以此类推,将长度为L的信息序列全部转化为对应输入层大小为18,输入层大小为8的神经网络的训练样本集,其中输入包含码字段的状态位和码字段,输出为码字段译码后的onehot。
(3)得到数据样本集后,隐藏层以f(x)=relu(x)做为激活函数,采用softmax分类方式和批量梯度下降法对深度神经网络模型进行训练。深度神经网络模型训练时采用前馈计算和后向传播两个过程更新权重的方式得到最优的权重,使得该模型具有分类能力。以上步骤为一个完整的训练过程,经过训练后,误差会不断降低,也就是说深度神经网络逐渐学习对带噪的卷积码信息序列进行译码。进行多次训练直到深度神经网络的准确率和误差达到稳定即可停止训练。此处选择训练次数为2000次。
(4)将需译码的卷积码输入至训练好的深度神经网络模型中进行译码,完成卷积码译码:对训练好的深度神经网络模型,随机生成一段信息序列,经过(2,1,2)卷积码编码和范围为1db~8db的高斯白噪声加噪后,将得到的带噪软信息按深度神经网络的输入层大小输入神经网络。最开始的状态位为00,对神经网络的译码输出取前面一位,相当于对第一个信息位进行了译码,将此时卷积码的状态更新,并向带噪卷积码信息序列后滑动一位,对后续码字重复此步骤,从而完成了卷积码的全部译码。
实施例二
本实施例一种基于深度学习的卷积码软判决译码方法是这样的:采用感知器对卷积码进行译码,并对深度神经网络的深度进行设置;所述深度神经网络为全连接神经网络、卷积神经网络、GAN或LSTM。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种基于深度学习的卷积码软判决译码方法,其特征在于:包括以下步骤:
第一步,确定深度神经网络的模型参数,并建立深度神经网络模型;所述深度神经网络为全连接神经网络、卷积神经网络、GAN或LSTM;
第二步,建立卷积码译码的数据样本集;
第三步,利用第二步数据样本集并采用softmax分类方式和批量梯度下降法对深度神经网络模型进行训练;
第四步,将需译码的卷积码输入第三步得到的深度神经网络模型中进行译码,完成卷积码译码;
所述建立卷积码译码的数据样本集是指:
首先,随机生成一段长度为L的信息序列,经过(n0,k0,m)卷积码编码后,并通过高斯白噪声加噪得到长度为n0×L/k0的带噪卷积码信息序列;
其次,在带噪卷积码信息序列前加入00做为状态位,并将带噪卷积码信息序列按照第一步深度神经网络模型的输入维度进行切分,形成对应于深度神经网络模型大小的带噪卷积码信息码字段;其中,对于任一个(n0,k0,m)卷积码的开始状态均为00;
最后,对带噪卷积码信息码字段进行样本构建,批量生成符合深度神经网络模型的数据样本集;
所述对带噪卷积码信息码字段进行样本构建,批量生成符合深度神经网络模型的数据样本集是指:
(1)在带噪卷积码信息码字段中,前k0×m位为原始码字的状态位,后n0×n/k0位为带噪卷积码信息码字段,作为第一个训练样本;
(2)设定样本获取信息位窗口大小为N,取第二个训练样本时,样本窗口在带噪卷积码信息码字段按序列方向向后滑动一位,将前一个码字段的状态位的第二个0和前一个码字段的第一个比特做为状态位,加上滑动后样本窗口加入的码字比特,作为第二个训练样本;
(3)以此类推,根据全段的带噪卷积码信息码字段和对应的信息位批量生成符合深度神经网络模型的数据样本集。
2.根据权利要求1所述的基于深度学习的卷积码软判决译码方法,其特征在于:在第一步中,所述确定深度神经网络的模型参数,并建立深度神经网络模型是指:对于任一个(n0,k0,m)卷积码,设定深度神经网络模型的输出层维度为n,输入层维度为n0×n/k0+k0×m;设定隐藏层的激活函数为f(x)=relu(x);根据输出层维度、输入层维度和隐藏层的激活函数建立深度神经网络模型。
3.根据权利要求1所述的基于深度学习的卷积码软判决译码方法,其特征在于:在第三步中,深度神经网络模型训练时采用前馈计算和后向传播两个过程更新权重的方式得到最优的权重,使得该模型具有分类能力。
4.根据权利要求1所述的基于深度学习的卷积码软判决译码方法,其特征在于:在第四步中,所述将需译码的卷积码输入第三步得到的深度神经网络模型中进行译码,完成卷积码译码是指:
(1)将需译码的卷积码进行编码加噪后得到带噪卷积码信息序列,并在带噪卷积码信息序列的信息位最后加上零信息位后输入深度神经网络模型;
(2)设定最开始状态位为00,并对第一个信息位进行译码;
(3)将带噪卷积码信息序列的状态更新,并向带噪卷积码信息序列后滑动一位,对后续带噪卷积码信息序列重复此步译码,完成卷积码译码。
CN201811252800.7A 2018-10-25 2018-10-25 基于深度学习的卷积码软判决译码方法 Active CN109525254B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811252800.7A CN109525254B (zh) 2018-10-25 2018-10-25 基于深度学习的卷积码软判决译码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811252800.7A CN109525254B (zh) 2018-10-25 2018-10-25 基于深度学习的卷积码软判决译码方法

Publications (2)

Publication Number Publication Date
CN109525254A CN109525254A (zh) 2019-03-26
CN109525254B true CN109525254B (zh) 2020-10-27

Family

ID=65773141

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811252800.7A Active CN109525254B (zh) 2018-10-25 2018-10-25 基于深度学习的卷积码软判决译码方法

Country Status (1)

Country Link
CN (1) CN109525254B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110739977B (zh) * 2019-10-30 2023-03-21 华南理工大学 一种基于深度学习的bch码译码方法
CN112910469B (zh) * 2021-01-15 2023-06-06 普联技术有限公司 一种无线信号的译码方法及译码装置
CN112953565B (zh) * 2021-01-19 2022-06-14 华南理工大学 一种基于卷积神经网络的归零卷积码译码方法和系统
CN113438049A (zh) * 2021-05-31 2021-09-24 杭州电子科技大学 一种基于dnn模型分析的汉明码译码方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374385B1 (en) * 1998-05-26 2002-04-16 Nokia Mobile Phones Limited Method and arrangement for implementing convolutional decoding
CN106571832A (zh) * 2016-11-04 2017-04-19 华南理工大学 一种多进制ldpc码级联神经网络解码方法及装置
CN106571831A (zh) * 2016-10-28 2017-04-19 华南理工大学 一种基于深度学习的ldpc硬判决译码方法及译码器
CN108933602A (zh) * 2017-05-26 2018-12-04 爱思开海力士有限公司 用于低密度奇偶校验解码的深度学习

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374385B1 (en) * 1998-05-26 2002-04-16 Nokia Mobile Phones Limited Method and arrangement for implementing convolutional decoding
CN106571831A (zh) * 2016-10-28 2017-04-19 华南理工大学 一种基于深度学习的ldpc硬判决译码方法及译码器
CN106571832A (zh) * 2016-11-04 2017-04-19 华南理工大学 一种多进制ldpc码级联神经网络解码方法及装置
CN108933602A (zh) * 2017-05-26 2018-12-04 爱思开海力士有限公司 用于低密度奇偶校验解码的深度学习

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的LDPC译码算法研究;李杰;《中国优秀硕士学位论文全文数据库》;20180615(第06期);第38-46页 *

Also Published As

Publication number Publication date
CN109525254A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109525254B (zh) 基于深度学习的卷积码软判决译码方法
CN106571831B (zh) 一种基于深度学习的ldpc硬判决译码方法及译码器
CN109525253B (zh) 基于深度学习和集成方法的卷积码译码方法
CN1132320C (zh) 截尾格子码的软输出译码器
CN109586730B (zh) 一种基于智能后处理的极化码bp译码算法
US5406570A (en) Method for a maximum likelihood decoding of a convolutional code with decision weighting, and corresponding decoder
CN108847848B (zh) 一种基于信息后处理的极化码的bp译码算法
CN109728824B (zh) 一种基于深度学习的ldpc码迭代译码方法
CN1430815A (zh) 带有判决反馈均衡的turbo解码器
US20060136799A1 (en) LDPC decoding apparatus and method with low computational complexity algorithm
Wen et al. Utilizing soft information in decoding of variable length codes
CN109547032B (zh) 一种基于深度学习的置信度传播ldpc译码方法
CN110233810B (zh) 一种混合噪声下基于深度学习的msk信号解调方法
CN113379040A (zh) 基于语义编码的混合重传方法
He et al. TurboNet: A model-driven DNN decoder based on max-log-MAP algorithm for turbo code
Williamson et al. Reliability-output decoding of tail-biting convolutional codes
CN110299921B (zh) 一种模型驱动的Turbo码深度学习译码方法
KR101051933B1 (ko) 트렐리스의 버터플라이 구조를 이용한 맵 디코딩을 위한메트릭 계산
CN109194336B (zh) 级联Spinal码的编码和译码方法、系统及装置
Garcia-Frias et al. Combined turbo detection and decoding for unknown ISI channels
JP2005065271A (ja) 復号化方法および装置
JP2005065271A5 (zh)
CN110166386B (zh) 一种基于递归混沌码的水声通信均衡译码方法
CN112953565B (zh) 一种基于卷积神经网络的归零卷积码译码方法和系统
CN1172448C (zh) 解码数据信号的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant