CN110299921A - 一种模型驱动的Turbo码深度学习译码方法 - Google Patents
一种模型驱动的Turbo码深度学习译码方法 Download PDFInfo
- Publication number
- CN110299921A CN110299921A CN201910500984.2A CN201910500984A CN110299921A CN 110299921 A CN110299921 A CN 110299921A CN 201910500984 A CN201910500984 A CN 201910500984A CN 110299921 A CN110299921 A CN 110299921A
- Authority
- CN
- China
- Prior art keywords
- output
- information
- layer
- neuron
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2957—Turbo codes and decoding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明公开了一种模型驱动的Turbo码深度学习译码方法,首先将Turbo码迭代译码结构展开为一个“平铺”式的结构,并且将每一次迭代用一个DNN译码单元替代,构成用于Turbo码译码的网络TurboNet;然后构建传统Max‑Log‑MAP算法的图形结构并将其参数化,得到一个基于Max‑Log‑MAP算法的深度神经网络,将其作为TurboNet译码单元中的子网络,从而替代传统译码结构中的SISO译码器及由SISO译码器的输出获得外信息的计算;对由M个DNN单元组成的TurboNet进行训练,获得模型参数;最后对TurboNet的输出值用sigmoid函数归一化,并对归一化的结果进行硬判决,得到对真实信息序列u的估计值实现对Turbo码的译码。本发明可以提高Max‑Log‑MAP算法的误码率性能,且和纯数据驱动的模型相比,参数个数减少了2个数量级,极大地降低了时延。
Description
技术领域
本发明涉及一种模型驱动的Turbo码深度学习译码方法,属于无线通信技术领域。
背景技术
Turbo码作为一种重要的信道编码技术凭借其接近Shannon极限的优异性能在第三代、第四代移动通信系统中得到了广泛的应用。在深空通信中,Turbo码也作为标准码被写入CCSDS建议。但是Turbo码传统的迭代译码算法只能串行处理,需要多次迭代,难以符合第五代移动通信系统提出的时延极低特征。
近年来,深度学习技术在图像、语音等领域取得了很大的成功,使得无人驾驶、智能家居等应用成为可能。深度学习是机器学习领域的一个重要分支,是一种监督学习方法,通过最小化神经网络的输出值和真实值之间的损失函数,得到一组最优的神经网络参数,从而使深度神经网络能够进行准确的分类和预测。
深度学习在信道译码领域已经有了一些探索性的研究,主要有两种方法。一种是用一个“黑箱”神经网络替代通信系统的信道译码模块,利用大量的样本使神经网络自身学会译码。这种方法并没有将编码结构和现有的信道译码知识应用到神经网络的设计上,使得神经网络的训练只能依赖大量数据驱动,故而神经网络的参数量非常大,训练难度也随之剧增。另一种是结合Tanner图将L次迭代的BP(Belief propagation)算法展开为包含2L个隐藏层的深度神经网络结构,通过训练使在Tanner图中传递的信息有一个合适的权重,从而提高BP算法的性能。但是这种基于BP算法的模型驱动译码方法能否被应用到序列码(例如Turbo码)来提高译码的性能仍是未知。
发明内容
现有基于深度学习的Turbo码译码器因为没有结合通信知识而完全借助数据驱动,故而需要大量的参数,致使计算量过大而且网络难以训练。本发明旨在解决上述模型驱动的Turbo码深度学习译码器的不足,提供一种模型驱动的Turbo码深度学习译码方法。
本发明提供一种模型驱动的Turbo码深度学习译码方法,包括以下步骤:
(1)将Turbo码迭代译码结构展开为一个“平铺”式的结构:将Turbo码迭代译码结构中的每一次迭代视作一个独立的单元,这样原先M次迭代的Turbo码译码结构可以展开为M个独立的单元,其中第m个单元的输出对应原先Turbo迭代译码结构中第m次迭代计算的信息比特的先验信息,m=1,2,...,M-1,而第M个单元的输出对应原先Turbo迭代译码结构中第M次迭代计算的信息比特的后验概率对数似然比,将这M个独立的单元串行连接形成一个“平铺”式的结构;
(2)将步骤(1)中的每一个迭代单元用一个DNN译码单元替代,构成用于Turbo码译码的网络TurboNet,其中每个所述的DNN译码单元由结构相同的第一和第二子网络、结构相同的第一和第二交织器以及1个解交织器构成,第一子网络输出的外信息在经过第一交织器后与第二校验信息、经过第二交织器后的系统信息一同构成第二子网络的输入,第二子网络输出的外信息在经过解交织器后得到上述DNN译码单元的输出,该输出与系统信息、第一校验信息一起构成下一个DNN译码单元第一子网络的输入;
(3)构建Max-Log-MAP算法的图形结构并将该图形结构参数化,得到一个基于Max-Log-MAP算法的深度神经网络,将该深度神经网络作为DNN译码单元中的子网络,从而替代步骤(1)所述Turbo码迭代译码结构中的SISO译码器及由SISO译码器的输出获得外信息的计算;
(4)对TurboNet进行训练,在完成给定次数的训练后,获得TurboNet的参数;
(5)对训练完成后的TurboNet输出的信息比特后验概率对数似然比估计值用sigmoid函数归一化,并对归一化的结果进行硬判决,得到真实信息比特序列u的估计值从而实现对Turbo码的译码。
作为本发明的进一步技术方案,第m个DNN译码单元中的第一子网络的结构及Max-Log-MAP算法的参数化过程,具体为:
(2.1)Turbo编码器由结构相同的第一和第二分量编码器以及1个交织器构成,第一分量编码器在编码时所有可能的状态构成集合SR,Turbo编码器的输入为信息比特序列u={uk|k=1,2,...,L},其中L为信息比特序列实际的长度,Turbo编码器的输出由3部分构成:系统比特序列第一校验比特序列以及第二校验比特序列接收端对应的检测结果分别为系统信息第一校验信息以及第二校验信息
将系统信息、第一校验信息以及第m-1个DNN译码单元输出的信息比特先验信息{Lm-1(uk)|k=1,2,...,L}组成的序列构成第一子网络的输入层,则输入层的长度为3L,并且输入层中所有神经元的输出构成集合NIn={Ik|k=1,2,...,L},其中第1个DNN译码单元的输入信息比特先验信息{L0(uk)|k=1,2,...,L}初始化为0;
(2.2)第一子网络中,第1层隐藏层中所有神经元的输出构成集合其中s'表示第一分量编码器k-1时刻的状态,s表示第一分量编码器k时刻的状态;S=S0∪S1,S0={(s′,s)|uk=0}表示k时刻输入Turbo编码器的信息比特uk为0时第一分量编码器所有可能发生的状态转移分支,S1={(s′,s)|uk=1}表示k时刻输入Turbo编码器的信息比特uk为1时第一分量编码器所有可能发生的状态转移分支;表示k时刻第一分量编码器的对数域状态转移概率,其中记y={yk|k=1,2,...,L}。由于第1层隐藏层中神经元的输出与集合N1中的元素对应,所以当(s′,s)取集合S中的某一个确定元素(s0′,s0),k取集合{1,2,...,L}中的某一个确定元素k0时,可以得到集合N1中的某一个确定元素该确定元素对应第一层隐藏层中某个神经元的输出;上述输出对应的神经元与输入层中输出对应k0时刻以及的3个神经元相连接,并且相连的边上被赋予权重参数该神经元由输入计算输出的具体公式为:
(2.3)第一子网络中,第z层隐藏层中所有神经元的输出构成集合其中是第z层隐藏层中所有奇数位置神经元的输出构成的集合,其中表示k时刻对数域的前向递推概率;是第z层隐藏层中所有偶数位置神经元的输出构成的集合,其中表示k-1时刻对数域的后向递推概率,z=2,3,...,L;这L-1层隐藏层中每一层的神经元个数都为2×|SR|,对于某一个z0∈{2,3,...,L},当取定z0后,则可以计算对应的k0=z0-1,得到第z0层隐藏层中所有奇数位置神经元输出构成的集合再取定某个s0∈SR后,就可以得到集合中某个确定元素该确定元素对应第z0层隐藏层中某一个奇数位置神经元的输出,上述输出对应的神经元和第z0-1层中所有输出与集合中元素对应的神经元相连,此外还和第一层隐藏层中所有输出与集合中元素对应的神经元相连;同样地,当取定某个z0后,则可以计算对应的k1=L-z0+2,得到第z0层隐藏层中所有偶数位置神经元输出构成的集合再取定某个s′0∈SR后,就可以得到集合中某个确定元素该确定元素对应第z0层隐藏层中某一个偶数位置神经元的输出,上述输出对应的神经元和第z0-1层中所有输出与集合中元素对应的神经元相连,此外还和第一层隐藏层中所有输出与集合中元素对应的神经元相连;上述第z0层隐藏层中输出对应的神经元或输出对应的神经元都先将各自的输入分组求和,然后求得各组中和的最大值后输出,具体公式为:
(2.4)第一子网络中,第L+1层隐藏层中所有神经元的输出构成集合其中表示第一分量译码器第m次迭代计算的信息比特uk的后验概率对数似然比;第L+1层隐藏层共L个神经元,当取定某个k0∈{1,2,...,L}后,就可以得到集合NL+1中某一个确定元素该元素对应第L+1层隐藏层中某个神经元的输出,上述输出对应的神经元与前L层隐藏层中所有输出与集合 中元素对应的神经元相连,与上述输出对应的神经元相连的神经元之间的边上分别被赋予权重参数 以及上述输出对应的神经元首先将输入分成两类,然后对每一类分组加权求和,最后求得每一类中各组和的最大值后作差,具体公式为:
(2.5)第一子网络中,输出层所有神经元的输出构成集合其中表示第一分量译码器第m次迭代计算的信息比特uk的外信息。输出层共L个神经元,当取定某个k0∈{1,2,...,L}后,就可以得到集合NOut中某一个确定元素该元素对应输出层中某个神经元的输出,上述输出对应的神经元与输入层中对应k0时刻 及第L+1层隐藏层中对应的3个神经元相连。与上述输出对应的神经元相连的边上被赋予权重参数该输出对应的神经元对输入加权求和后输出,具体公式为:
上述输出层得到的前K个信息比特的外信息在交织以后与剩余信息比特的外信息一同作为第二子网络的先验信息输入,其中K=L-3,此外系统信息在交织以后与第二校验信息共同作为第二子网络的输入;第二子网络输出的前K个信息比特的外信息在解交织以后与剩余L-K个信息比特的外信息拼接,得到第m个译码单元输出的信息比特先验信息{Lm(uk)|k=1,2,...,L},第M个译码单元M将第二子网络计算得到的前K个信息比特的后验概率对数似然比估计值解交织以后输出。
作为本发明的进一步技术方案,所述步骤(4)中采用Adam优化算法完成给定次数的训练,用于计算TurboNet输出的信息比特后验概率对数似然比估计值和标签值之间差异的损失函数为:
其中,LM(uk|y)为TurboNet第M个DNN译码单元输出的信息比特uk的后验概率对数似然比估计值,为Log-MAP算法N次迭代计算得到的信息比特uk的后验概率对数似然比。
作为本发明的进一步技术方案,所述步骤(5)中先利用sigmoid函数对信息比特uk的后验概率对数似然比估计值LM(uk|y)进行归一化,并对归一化的结果ok=σ(LM(uk|y))按照下式进行硬判决,从而得到最终的译码结果。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:本发明利用单一信噪比的样本对TurboNet训练后,TurboNet的误比特率性能可以在很大的信噪比范围内都优于同等迭代次数的Max-Log-MAP算法,并且和数据驱动的方法相比,TurboNet将参数个数减少了2个数量级,极大地降低了时延。
附图说明
图1为本发明的TurboNet网络架构图;
图2为本发明的DNN译码单元结构图;
图3为本发明的DNN译码单元中子网络的结构图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明所述的一种模型驱动的Turbo码深度学习译码方法,包括以下步骤:
(1)将Turbo码迭代译码结构展开为一个“平铺”式的结构:将Turbo码迭代译码结构中的每一次迭代视作一个独立的单元,这样原先3次迭代的Turbo码译码结构可以展开为3个独立的单元,其中第m个单元的输出对应原先Turbo迭代译码结构中第m次迭代计算的信息比特的先验信息,m=1,2,而第3个单元的输出对应原先Turbo迭代译码结构中第3次迭代计算的信息比特的后验概率对数似然比,将这3个独立的单元串行连接形成一个“平铺”式的结构;
(2)将步骤(1)中的每一个迭代单元用一个DNN译码单元替代,构成用于Turbo码译码的网络TurboNet,其中每个所述的DNN译码单元由结构相同的第一和第二子网络、结构相同的第一和第二交织器以及1个解交织器构成,第一子网络输出的外信息在经过第一交织器后与第二校验信息、经过第二交织器后的系统信息一同构成第二子网络的输入,第二子网络输出的外信息在经过解交织器后得到上述DNN译码单元的输出,该输出与系统信息、第一校验信息一起构成下一个DNN译码单元第一子网络的输入。图1给出了一个包含M个DNN译码单元的TurboNet结构,图2给出了其中第m个DNN译码单元的结构;
(3)构建Max-Log-MAP算法的图形结构并将该图形结构参数化,得到一个基于Max-Log-MAP算法的深度神经网络,将该深度神经网络作为DNN译码单元中的子网络,从而替代步骤(1)所述Turbo码迭代译码结构中的SISO译码器及由SISO译码器的输出获得外信息的计算。接下来以LTE标准中码率为1/3的Turbo码为例,对第m个DNN译码单元中第一子网络的结构及Max-Log-MAP算法的参数化过程做具体阐述:
表1状态转移路径
s' | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
s:u<sub>k</sub>=0 | 0 | 4 | 5 | 1 | 2 | 6 | 7 | 3 |
s:u<sub>k</sub>=1 | 4 | 0 | 1 | 5 | 6 | 2 | 3 | 7 |
(2.1)3GPP LTE标准中Turbo编码器由结构相同的第一和第二分量编码器以及1个交织器构成,第一分量编码器的传输函数为G(D)=[1,g1(D)/g0(D)],其中g0(D)=1+D2+D3,g1(D)=1+D+D3,故而第一分量编码器共8种可能的状态,记为s=0,1,...,7,所以第一分量编码器在编码时所有可能的状态构成的集合SR={0,1,...,7}。表1总结了Turbo码在编码的过程中由k-1时刻状态s'转移到k时刻状态s所有可能的情况,可见共16种状态转移路径。假设Turbo编码器的输入为长度为43的信息比特序列u={uk|k=1,...,43},Turbo编码器的输出由3部分构成:系统比特序列第一校验比特序列以及第二校验比特序列这些比特序列在调制之后通过无线信道传输,假设信道为无记忆加性高斯白噪声信道,利用一个软输出的检测器可以计算得到发送比特序列对应的对数似然比分别为系统信息第一校验信息以及第二校验信息将系统信息、第一校验信息以及第m-1个DNN译码单元输出的信息比特先验信息{Lm-1(uk)k=1,2,...,43}组成的序列构成第一子网络的输入层,则输入层的长度为3×43=129,并且输入层中所有神经元的输出构成集合NIn={Ik|k=1,2,...,43},其中第1个DNN译码单元的输入信息比特先验信息{L0(uk)|k=1,2,...,43}初始化为0;
(2.2)第一子网络中,第1层隐藏层中所有神经元的输出构成集合其中S=S0∪S1,S0={(s′,s)|uk=0}表示k时刻输入Turbo编码器的信息比特uk为0时第一分量编码器所有可能发生的状态转移分支,S1={(s′,s)|uk=1}表示k时刻输入Turbo编码器的信息比特uk为1时第一分量编码器所有可能发生的状态转移分支;表示k时刻第一分量编码器的对数域状态转移概率,其中记y={yk|k=1,2,...,43}。由表1知当uk=0时,一共有8种可能的状态转移分支,所以集合S0中共有8个元素;同样地,当uk=1时,一共有8种可能的状态转移分支,所以集合S1中共有8个元素,且与集合S0中的元素各不相同,因此集合S=S0∪S1共包含16个元素。由于第1层隐藏层中神经元的输出与集合N1中的元素对应,所以当(s′,s)取集合S中的某一个确定元素(s0′,s0),k取集合{1,2,...,43}中的某一个确定元素k0时,可以得到集合N1中的某一个确定元素该确定元素对应第一层隐藏层中某个神经元的输出;上述输出对应的神经元与输入层中输出对应k0时刻以及的3个神经元相连接,并且相连的边上被赋予权重参数该神经元由输入计算输出的具体公式为:
(2.3)第一子网络中,第z层隐藏层中所有神经元的输出构成集合其中是第z层隐藏层中所有奇数位置神经元的输出构成的集合;是第z层隐藏层中所有偶数位置神经元的输出构成的集合,而z=2,3,...,43;这42层隐藏层中每一层的神经元个数都为2×|SR|=16,对于某一个z0∈{2,3,...,43},当取定z0后,则可以计算对应的k0=z0-1,得到第z0层隐藏层中所有奇数位置神经元输出构成的集合再取定某个s0∈SR后,就可以得到集合中某个确定元素该确定元素对应第z0层隐藏层中某一个奇数位置神经元的输出,上述输出对应的神经元和第z0-1层中所有输出与集合中元素对应的神经元相连,此外还和第一层隐藏层中所有输出与集合中元素对应的神经元相连;同样地,当取定某个z0后,则可以计算对应的k1=43-z0+2,得到第z0层隐藏层中所有偶数位置神经元输出构成的集合再取定某个s′0∈SR后,就可以得到集合中某个确定元素该确定元素对应第z0层隐藏层中某一个偶数位置神经元的输出,上述输出对应的神经元和第z0-1层中所有输出与集合中元素对应的神经元相连,此外还和第一层隐藏层中所有输出与集合中元素对应的神经元相连;上述第z0层隐藏层中输出对应的神经元或输出对应的神经元都先将各自的输入分组求和,然后求得各组中和的最大值后输出,具体公式为:
(2.4)第一子网络中,第44层隐藏层中所有神经元的输出构成集合其中表示第一分量译码器第m次迭代计算的信息比特uk的后验概率对数似然比;第44层隐藏层共有43个神经元,当取定某个k0∈{1,2,...,43}后,就可以得到集合N44中某一个确定元素该元素对应第44层隐藏层中某个神经元的输出,上述输出对应的神经元与前43层隐藏层中所有输出与集合 中元素对应的神经元相连,与上述输出对应的神经元相连的神经元之间的边上分别被赋予权重参数 以及上述输出对应的神经元首先将输入分成两类,然后对每一类分组加权求和,最后求得每一类中各组和的最大值后作差,具体公式为:
(2.5)第一子网络中,输出层所有神经元的输出构成集合其中表示第一分量译码器第m次迭代计算的信息比特uk的外信息。输出层共43个神经元,当取定某个k0∈{1,2,...,43}后,就可以得到集合NOut中某一个确定元素该元素对应输出层中某个神经元的输出,上述输出对应的神经元与输入层中对应k0时刻及第44层隐藏层中对应的3个神经元相连。与上述输出对应的神经元相连的边上被赋予权重参数该输出对应的神经元对输入加权求和后输出,具体公式为:
上述输出层得到的前40个信息比特的外信息在交织后与剩余3个信息比特的外信息一同作为第二子网络的先验信息输入,此外系统信息在交织后与第二校验信息共同作为第二子网络的输入;第二子网络输出的前40个信息比特的外信息在解交织以后与剩余3个信息比特的外信息拼接,得到第m个译码单元输出的信息比特先验信息{Lm(uk)|k=1,2,...,43},第3个DNN译码单元将自身第二子网络计算得到的前40个信息比特的后验概率对数似然比估计值解交织以后输出。
(4)利用步骤(3)中所述的Turbo编码器结构和信道模型在信噪比为0dB时产生60000个训练样本,采用Adam优化算法对这60000个样本分批训练,每一批的大小为500,一共训练50轮,其中Adam算法的学习率设置为1×10-5。用于计算TurboNet输出的信息比特后验概率对数似然比估计值和标签值之间差异的损失函数为:
其中,L3(uk|y)为TurboNet第3个DNN译码单元输出的信息比特uk的后验概率对数似然比估计值,为Log-MAP算法6次迭代计算得到的信息比特uk的后验概率对数似然比。
(5)在完成训练后,先利用sigmoid函数对信息比特uk的后验概率对数似然比估计值L3(uk|y)进行归一化,并对归一化的结果ok=σ(L3(uk|y))按照下式进行硬判决,即可得到最终的译码比特。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (4)
1.一种模型驱动的Turbo码深度学习译码方法,其特征在于,包括以下步骤:
(1)将Turbo码迭代译码结构展开为一个“平铺”式的结构:将Turbo码迭代译码结构中的每一次迭代视作一个独立的单元,这样原先M次迭代的Turbo码译码结构可以展开为M个独立的单元,其中第m个单元的输出对应原先Turbo迭代译码结构中第m次迭代计算的信息比特的先验信息,m=1,2,...,M-1,而第M个单元的输出对应原先Turbo迭代译码结构中第M次迭代计算的信息比特的后验概率对数似然比,将这M个独立的单元串行连接形成一个“平铺”式的结构;
(2)将步骤(1)中的每一个迭代单元用一个DNN译码单元替代,构成用于Turbo码译码的网络TurboNet,其中每个所述的DNN译码单元由结构相同的第一和第二子网络、结构相同的第一和第二交织器以及1个解交织器构成,第一子网络输出的外信息在经过第一交织器后与第二校验信息、经过第二交织器后的系统信息一同构成第二子网络的输入,第二子网络输出的外信息在经过解交织器后得到上述DNN译码单元的输出,该输出与系统信息、第一校验信息一起构成下一个DNN译码单元第一子网络的输入;
(3)构建Max-Log-MAP算法的图形结构并将该图形结构参数化,得到一个基于Max-Log-MAP算法的深度神经网络,将该深度神经网络作为DNN译码单元中的子网络,从而替代步骤(1)所述Turbo码迭代译码结构中的SISO译码器及由SISO译码器的输出获得外信息的计算;
(4)对TurboNet进行训练,在完成给定次数的训练后,获得TurboNet的参数;
(5)对训练完成后的TurboNet输出的信息比特后验概率对数似然比估计值用sigmoid函数归一化,并对归一化的结果进行硬判决,得到真实信息比特序列u的估计值从而实现对Turbo码的译码。
2.根据权利要求1所述的模型驱动的Turbo码深度学习译码方法,其特征在于,第m个DNN译码单元中的第一子网络的结构及Max-Log-MAP算法的参数化过程,具体为:
(2.1)Turbo编码器由结构相同的第一和第二分量编码器以及1个交织器构成,第一分量编码器在编码时所有可能的状态构成集合SR,Turbo编码器的输入为信息比特序列u={uk|k=1,2,...,L},其中L为信息比特序列实际的长度,Turbo编码器的输出由3部分构成:系统比特序列第一校验比特序列以及第二校验比特序列接收端对应的检测结果分别为系统信息第一校验信息以及第二校验信息
将系统信息、第一校验信息以及第m-1个DNN译码单元输出的信息比特先验信息{Lm-1(uk)|k=1,2,...,L}组成的序列构成第一子网络的输入层,则输入层的长度为3L,并且输入层中所有神经元的输出构成集合NIn={Ik|k=1,2,...,L},其中第1个DNN译码单元的输入信息比特先验信息{L0(uk)|k=1,2,...,L}初始化为0;
(2.2)第一子网络中,第1层隐藏层中所有神经元的输出构成集合其中s'表示第一分量编码器k-1时刻的状态,s表示第一分量编码器k时刻的状态;S=S0∪S1,S0={(s′,s)|uk=0}表示k时刻输入Turbo编码器的信息比特uk为0时第一分量编码器所有可能发生的状态转移分支,S1={(s′,s)|uk=1}表示k时刻输入Turbo编码器的信息比特uk为1时第一分量编码器所有可能发生的状态转移分支;表示k时刻第一分量编码器的对数域状态转移概率,其中记y={yk|k=1,2,...,L};第1层隐藏层中某一个输出对应的神经元与输入层中输出对应k0时刻以及的3个神经元相连接,其中(s′0,s0)∈S,k0∈{1,2,...,L}是各自所属集合中的某一个元素,上述输出对应的神经元与输入层中相连的神经元之间的边上被赋予权重参数并且该神经元由输入计算输出的具体公式为:
(2.3)第一子网络中,第z层隐藏层中所有神经元的输出构成集合其中是第z层隐藏层中所有奇数位置神经元的输出构成的集合,其中表示k时刻对数域的前向递推概率;是第z层隐藏层中所有偶数位置神经元的输出构成的集合,其中表示k-1时刻对数域的后向递推概率,z=2,3,...,L;这L-1层隐藏层中每一层的神经元个数都为2×|SR|,对于某一个z0∈{2,3,...,L},第z0层隐藏层中某一个输出对应的神经元和第z0-1层中所有输出与集合中元素对应的神经元相连,此外还和第一层隐藏层中所有输出与集合中元素对应的神经元相连,其中k0=z0-1,s0∈SR是集合SR中的某一个确定元素;第z0层隐藏层中某一个输出对应的神经元和第z0-1层中所有输出与集合中元素对应的神经元相连,此外还和第一层隐藏层中所有输出与集合中元素对应的神经元相连,其中k1=L-z0+2,s′0∈SR是集合SR中的某一个确定元素;上述第z0层隐藏层中输出对应的神经元或输出对应的神经元都先将各自的输入分组求和,然后求得各组中和的最大值后输出,具体公式为:
(2.4)第一子网络中,第L+1层隐藏层中所有神经元的输出构成集合其中表示第一分量译码器第m次迭代计算的信息比特uk的后验概率对数似然比;第L+1层隐藏层共L个神经元,其中某一个输出对应的神经元与前L层隐藏层中所有输出与集合 中元素对应的神经元相连,其中k0∈{1,2,...,L}是所属集合中的某一个确定元素,与上述输出对应的神经元相连的神经元之间的边上分别被赋予权重参数以及上述输出对应的神经元首先将输入分成两类,然后对每一类分组加权求和,最后求得每一类中各组和的最大值后作差,具体公式为:
(2.5)第一子网络中,输出层所有神经元的输出构成集合其中表示第一分量译码器第m次迭代计算的信息比特uk的外信息;输出层共L个神经元,其中某一个输出对应的神经元与输入层中对应k0时刻及第L+1层隐藏层中对应的神经元相连,其中k0∈{1,2,...,L}是所属集合中的某一个确定元素。与上述输出对应的神经元相连的边上被赋予权重参数该输出对应的神经元对输入加权求和后输出,具体公式为:
上述输出层得到的前K个信息比特的外信息在交织以后与剩余信息比特的外信息一同作为第二子网络的先验信息输入,其中K=L-3,此外系统信息在交织以后与第二校验信息共同作为第二子网络的输入;第二子网络输出的前K个信息比特的外信息在解交织以后与剩余L-K个信息比特的外信息拼接,得到第m个译码单元输出的信息比特先验信息{Lm(uk)|k=1,2,...,L},第M个DNN译码单元将第二子网络计算得到的前K个信息比特的后验概率对数似然比估计值解交织以后输出。
3.根据权利要求1所述的模型驱动的Turbo码深度学习译码方法,其特征在于,所述步骤(4)中采用Adam优化算法完成给定次数的训练,用于计算TurboNet输出的信息比特后验概率对数似然比估计值和标签值之间差异的损失函数为:
其中,LM(uk|y)为TurboNet第M个DNN译码单元输出的信息比特uk的后验概率对数似然比估计值,为Log-MAP算法N次迭代计算得到的信息比特uk的后验概率对数似然比。
4.根据权利要求1所述的模型驱动的Turbo码深度学习译码方法,其特征在于,所述步骤(5)中先利用sigmoid函数对信息比特uk的后验概率对数似然比估计值LM(uk|y)进行归一化,并对归一化的结果ok=σ(LM(uk|y))按照下式进行硬判决,从而得到最终的译码结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910500984.2A CN110299921B (zh) | 2019-06-11 | 2019-06-11 | 一种模型驱动的Turbo码深度学习译码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910500984.2A CN110299921B (zh) | 2019-06-11 | 2019-06-11 | 一种模型驱动的Turbo码深度学习译码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110299921A true CN110299921A (zh) | 2019-10-01 |
CN110299921B CN110299921B (zh) | 2023-01-17 |
Family
ID=68027796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910500984.2A Active CN110299921B (zh) | 2019-06-11 | 2019-06-11 | 一种模型驱动的Turbo码深度学习译码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110299921B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111130570A (zh) * | 2019-12-23 | 2020-05-08 | 东方红卫星移动通信有限公司 | 一种并行Turbo译码算法在LEO中应用的方法 |
CN112751651A (zh) * | 2020-12-29 | 2021-05-04 | 上海瀚芯实业发展合伙企业(有限合伙) | 一种Turbo码与神经网络相结合的信号传输方法 |
CN113258940A (zh) * | 2021-06-15 | 2021-08-13 | 成都星联芯通科技有限公司 | turbo译码方法、装置、译码设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1710815A (zh) * | 2005-06-01 | 2005-12-21 | 西南交通大学 | 非对数域高速最大后验概率Turbo译码方法 |
CN101674094A (zh) * | 2009-10-16 | 2010-03-17 | 中山大学 | 一种Turbo码信道自适应实现方法 |
CN109039468A (zh) * | 2018-07-27 | 2018-12-18 | 北京邮电大学 | 一种信息调制方法、信息解调方法、装置及通信系统 |
-
2019
- 2019-06-11 CN CN201910500984.2A patent/CN110299921B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1710815A (zh) * | 2005-06-01 | 2005-12-21 | 西南交通大学 | 非对数域高速最大后验概率Turbo译码方法 |
CN101674094A (zh) * | 2009-10-16 | 2010-03-17 | 中山大学 | 一种Turbo码信道自适应实现方法 |
CN109039468A (zh) * | 2018-07-27 | 2018-12-18 | 北京邮电大学 | 一种信息调制方法、信息解调方法、装置及通信系统 |
Non-Patent Citations (2)
Title |
---|
凌骏: "Turbo码的Max-Log-MAP算法研究", 《中国优秀硕士学位论文全文数据库》 * |
夏慧宁等: "Turbo 码Max-Log-MAP算法研究及其实现", 《大众科技》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111130570A (zh) * | 2019-12-23 | 2020-05-08 | 东方红卫星移动通信有限公司 | 一种并行Turbo译码算法在LEO中应用的方法 |
CN112751651A (zh) * | 2020-12-29 | 2021-05-04 | 上海瀚芯实业发展合伙企业(有限合伙) | 一种Turbo码与神经网络相结合的信号传输方法 |
CN112751651B (zh) * | 2020-12-29 | 2021-09-07 | 白盒子(上海)微电子科技有限公司 | 一种Turbo码与神经网络相结合的信号传输方法 |
CN113258940A (zh) * | 2021-06-15 | 2021-08-13 | 成都星联芯通科技有限公司 | turbo译码方法、装置、译码设备及存储介质 |
CN113258940B (zh) * | 2021-06-15 | 2021-10-08 | 成都星联芯通科技有限公司 | turbo译码方法、装置、译码设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110299921B (zh) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liang et al. | An iterative BP-CNN architecture for channel decoding | |
Wang et al. | Deep learning for wireless physical layer: Opportunities and challenges | |
CN110474716B (zh) | 基于降噪自编码器的scma编解码器模型的建立方法 | |
CN110299921A (zh) | 一种模型驱动的Turbo码深度学习译码方法 | |
Kim et al. | Physical layer communication via deep learning | |
CN109361404A (zh) | 一种基于半监督深度学习网络的ldpc译码系统及译码方法 | |
CN113269077B (zh) | 基于改进门控网络和残差网络的水声通信信号调制方式识别方法 | |
CN109728824B (zh) | 一种基于深度学习的ldpc码迭代译码方法 | |
CN112115821B (zh) | 一种基于小波近似系数熵的多信号智能调制模式识别方法 | |
Ye et al. | Circular convolutional auto-encoder for channel coding | |
CN107453807B (zh) | 一种大气光通信信道模型的极化方法、装置及电子设备 | |
CN109525253B (zh) | 基于深度学习和集成方法的卷积码译码方法 | |
He et al. | TurboNet: A model-driven DNN decoder based on max-log-MAP algorithm for turbo code | |
He et al. | Model-driven DNN decoder for turbo codes: Design, simulation, and experimental results | |
CN109525254B (zh) | 基于深度学习的卷积码软判决译码方法 | |
CN110995279B (zh) | 一种极化码联合scf球形列表翻转译码方法 | |
CN116318185A (zh) | 一种Polar码编译码方法和利用该方法的低频无线通信系统 | |
CN112953565B (zh) | 一种基于卷积神经网络的归零卷积码译码方法和系统 | |
Lu et al. | Attention-empowered residual autoencoder for end-to-end communication systems | |
Kim et al. | Robust non-linear feedback coding via power-constrained deep learning | |
CN113114269A (zh) | 一种置信传播-信息修正译码方法 | |
CN110166386B (zh) | 一种基于递归混沌码的水声通信均衡译码方法 | |
CN108494526A (zh) | 多进制正交扩频信号的极化码编译码方法 | |
CN114630207B (zh) | 基于降噪自编码器的多传感节点感知数据收集方法 | |
CN113852434B (zh) | 一种LSTM与ResNets辅助的深度学习端到端智能通信方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |