CN112953565B - 一种基于卷积神经网络的归零卷积码译码方法和系统 - Google Patents
一种基于卷积神经网络的归零卷积码译码方法和系统 Download PDFInfo
- Publication number
- CN112953565B CN112953565B CN202110066450.0A CN202110066450A CN112953565B CN 112953565 B CN112953565 B CN 112953565B CN 202110066450 A CN202110066450 A CN 202110066450A CN 112953565 B CN112953565 B CN 112953565B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- sequence
- network model
- convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/23—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using convolutional codes, e.g. unit memory codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/39—Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
- H03M13/41—Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using the Viterbi algorithm or Viterbi processors
Landscapes
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明提供了一种基于卷积神经网络的归零卷积码译码方法和系统;其中方法包括:获取带噪码字序列Y',带噪码字序列Y'为信息序列经卷积码编码后传输而形成;对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出。该方法对接收到的带噪序列进行特征提取,对构建好的二维特征用卷积神经网络进行译码,实现从含有噪声的序列中还原出原有的数据信息,可实现结果并行输出,译码速度快。
Description
技术领域
本发明设计电子通信技术领域,更具体地说,设计一种基于卷积神经网络的归零卷积码译码方法和系统。
背景技术
随着人们生活水平的日益提升,对高速网络信号传输的需求越来越高。为了提高信道传输信息的可靠性,纠错码技术被广泛地应用于通信系统中,其中卷积码(Convolutional Codes)是一种应用广泛的纠错码,同时也作为3G、4G时代被广泛使用的Turbo码的子码,具有较高的研究价值。
卷积码编码算法中,当前编码输出的码元,不仅取决于当前的信息位,还与前面多个信息位有关。所以卷积码各个信息位之间具有关联,由于这种特性的存在,便出现了最大后验概率译码算法和最大似然估计译码算法。
传统译卷积码的算法有基于最大似然估计的维特比译码算法和基于最大后验概率的BCJR译码算法,前者为市面上主流的译码算法,后者由于译码复杂度高而使用得并不多,尽管其性能相较于维特比译码算法而言,在某些场合具有一定的优势。但两者算法的译码复杂度均与卷积码编码的约束长度增长呈现指数型增长。
对于现有的译码算法而言,其译码效率和译码性能均还存在提升空间,尤其是考虑到约束长度较大时,其译码所需要的资源呈指数型增长,急需一种译码复杂度与约束长度呈线性关系的译码算法。
发明内容
为了克服现在技术中的缺点与不足,本发明提供了一种基于卷积神经网络的归零卷积码译码方法和系统;本发明对接收到的带噪序列进行特征提取,对构建好的二维特征用卷积神经网络进行译码,实现从含有噪声的序列中还原出原有的数据信息,可实现结果并行输出,译码速度快。
为了达到上述目的,本发明通过下述技术方案予以实现:一种基于卷积神经网络的归零卷积码译码方法,其特征在于:包括:
获取带噪码字序列Y',带噪码字序列Y'为信息序列经卷积码编码后传输而形成;对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型。
本发明译码方法对接收到的带噪码字序列进行特征提取,对构建好的二维特征数据用卷积神经网络模型进行译码,实现从含有噪声的序列中还原出原有的数据信息,且对于任意一帧的带噪码字序列而言,其二维特征数据之间不存在依赖关系,该译码方法可并行输出所有结果。
优选地,所述对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据,是指:
根据当前卷积码的约束长度选择译码窗口参数arg_win;对带噪码字序列Y',用译码窗口参数arg_win对带噪码字序列Y'中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win)。
优选地,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型,是指包括以下步骤:
第一步,建立用于训练的数据集pre_train_set;
第二步,根据当前卷积码的约束长度选择译码窗口参数arg_win,对第一步获得的数据集进行预处理,得到用于训练的二维特征数据集;
第三步,根据第二步选定的译码窗口参数arg_win,确定卷积神经网络模型的相关超参数,构建多个卷积神经网络模型;
第四步,利用第二步获得的二维特征数据集采用Adam优化器在第三步获得的多个卷积神经网络模型上进行训练,采用最优停止策略获得最优的卷积神经网络模型参数;
第五步,对训练完的卷积神经网络模型进行性能验证,选取其中性能最好的卷积神经网络模型作为最终的卷积神经网络模型,用于卷积码译码。
优选地,所述第一步中,建立用于训练的数据集pre_train_set,是指:
设置num_u条信息序列U;对于每条信息序列U,分别乘以给定的卷积码(n,k,v)的生成矩阵G得到编码后的比特序列X;其中,(n,k,v)表示卷积码k位输入比特得到n位输出比特,约束长度为v;
将比特序列X进行调制处理,之后进行num_noise次加噪处理:对同样的比特序列X,加以不同的满足高斯分布的白噪声,得到多个不同的、带有高斯白噪声的序列Y;
将num_u条信息序列U和num_noise×num_u条序列Y对应起来,组成数据集pre_train_set。
优选地,所述第二步中,根据当前卷积码的约束长度选择译码窗口参数arg_win,对第一步获得的数据集进行预处理,得到用于训练的二维特征数据集,是指:
对于卷积码(n,k,v)的约束长度v,选定译码窗口参数arg_win,arg_win=K×n,其中K≥v+1,K为正整数;
对各个序列Y,分别用译码窗口参数arg_win对其中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win);对于切分后长度不足arg_win的序列进行补零操作;由各个序列Y得到的二维矩阵组成二维特征数据集。
优选地,所述第三步,根据第二步选定的译码窗口参数arg_win,确定卷积神经网络模型的相关超参数,构建多个合适的卷积神经网络模型,是指:
根据第二步得到的二维矩阵维度,将卷积神经网络模型设定为:第一层卷积层的卷积核大小为n的倍数,第一层卷积层的输出通道数为v的K倍;根据第一层卷积层超参数的设定,确定第二层卷积层及其以后的每一层神经网络的超参数信息;每一层的神经网络运算结束后,连接一个BN层来进行一个归一化的操作处理;在BN层之后连接一个激活函数层。
优选地,所述第四步,利用第二步获得的二维特征数据集采用Adam优化器在第三步获得的多个卷积神经网络模型上进行训练,采用最优停止策略获得最优的卷积神经网络模型参数,是指:
对第三步构建的多个卷积神经网络模型进行训练,将第二步获得的二维特征数据集按照比例拆分成训练集和验证集;对每一个卷积神经网络模型都采用训练集进行同样的训练操作;在每一回合训练之后,更新卷积神经网络模型的权重和偏差;用验证集进行一次性能测试;当验证集的性能连续多次出现下降时,便停止卷积神经网络模型的训练。
一种基于卷积神经网络的归零卷积码译码系统,其特征在于:包括:
数据采集模块,用于获取带噪码字序列Y',带噪码字序列Y'为比特序列X经过传输而形成;
预处理模块,用于对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
译码模块,用于将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型。
与现有技术相比,本发明具有如下优点与有益效果:
1、本发明译码方法对接收到的带噪码字序列进行特征提取,对构建好的二维特征数据用卷积神经网络模型进行译码,实现从含有噪声的序列中还原出原有的数据信息,且对于任意一帧的带噪码字序列而言,其二维特征数据之间不存在依赖关系,该译码方法可并行输出所有结果;相比其它传统的译码算法而言,不需要进行一些判断操作,译码速度更快;
2、本发明基于卷积神经网络的归零卷积码译码方法中,构造的二维特征很好的结合了卷积码的编码特性,在其二维特征中融入了前后的时序信息,而强大的卷积神经网络能从中准确地还原出原有的信息。
附图说明
图1是本发明基于卷积神经网络的归零卷积码译码方法中卷积神经网络模型的训练流程图;
图2是本发明基于卷积神经网络的归零卷积码译码方法中二维特征构造方法的示意图;
图3是本发明基于卷积神经网络的归零卷积码译码方法中卷积神经网络模型的结构示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例一
本实施例一种基于卷积神经网络的归零卷积码译码方法,包括:
获取带噪码字序列Y',带噪码字序列Y'为信息序列经卷积码编码后传输而形成;对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型。
所述对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据,是指:
根据当前卷积码的约束长度选择译码窗口参数arg_win;对带噪码字序列Y',用译码窗口参数arg_win对带噪码字序列Y'中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win);对于切分后长度不足arg_win的序列进行补零操作。
所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型,是指,如图1所示,包括以下步骤:
第一步,建立用于训练的数据集pre_train_set:
设置num_u条信息序列U;对于每条信息序列U,分别乘以给定的卷积码(n,k,v)的生成矩阵G得到编码后的比特序列X;其中,(n,k,v)表示卷积码k位输入比特得到n位输出比特,约束长度为v;
将比特序列X进行调制处理,之后进行num_noise次加噪处理:对同样的比特序列X,加以不同的满足高斯分布的白噪声,得到多个不同的、带有高斯白噪声的序列Y;
将num_u条信息序列U和num_noise×num_u条序列Y对应起来,组成数据集pre_train_set。
第二步,根据当前卷积码的约束长度选择译码窗口参数arg_win,对第一步获得的数据集进行预处理,得到用于训练的二维特征数据集:
对于卷积码(n,k,v)的约束长度v,选定译码窗口参数arg_win,arg_win=K×n,其中K≥v+1,K为正整数;
对各个序列Y,分别用译码窗口参数arg_win对其中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win),如图2所示;
特殊情况的处理:Y序列中,对于前后的arg_win-n的数据而言,切分后长度不足arg_win的序列进行补零操作,对于前面数据缺失序列在序列前面补零,对于后面数据缺失的序列在序列后面补零。
由各个序列Y得到的二维矩阵组成二维特征数据集。
第三步,根据第二步选定的译码窗口参数arg_win,确定卷积神经网络模型的相关超参数,构建多个卷积神经网络模型:
根据第二步得到的二维矩阵维度,将卷积神经网络模型设定为:如图3所示,第一层卷积层的卷积核大小为n的倍数,第一层卷积层的输出通道数为v的K倍;根据第一层卷积层超参数的设定,确定第二层卷积层及其以后的每一层神经网络的超参数信息;每一层的神经网络运算结束后,连接一个BN(Batch Normalization)层来进行一个归一化的操作处理;BN层的作用是将上一层的网络的输出结果进行归一化处理,使得这批数据满足均值为0、方差为1的性质;在BN层之后连接一个激活函数层,本方法采用的激活函数为ReLU,包含但不限于Sigmoid、tanh等其他激活函数。
第四步,利用第二步获得的二维特征数据集采用Adam优化器在第三步获得的多个卷积神经网络模型上进行训练,采用最优停止策略获得最优的卷积神经网络模型参数:
对第三步构建的多个卷积神经网络模型进行训练,将第二步获得的二维特征数据集按照比例拆分成训练集和验证集;对每一个卷积神经网络模型都采用训练集进行同样的训练操作;在每一回合训练之后,更新卷积神经网络模型的权重和偏差;用验证集进行一次性能测试;当验证集的性能连续多次出现下降时,便停止卷积神经网络模型的训练。
第五步,对训练完的卷积神经网络模型进行性能验证,选取其中性能最好的卷积神经网络模型作为最终的卷积神经网络模型,用于卷积码译码:
需要像第一步和第二步一样,生成大量的卷积码的预处理数据,根据卷积码的约束长度、译码窗口参数等信息进行处理,得到维度和训练集相同的数据集,称为测试集;其中,测试集的数量要远大于训练集的数量;然后用生成的测试集对多个卷积神经网络模型分别进行测试,进行性能对比后,选择最佳的卷积神经网络模型作为最终的卷积神经网络模型。
为实现上述的编码方法和译码方法,一种基于卷积神经网络的归零卷积码译码系统,其特征在于:包括:
数据采集模块,用于获取带噪码字序列Y',带噪码字序列Y'为比特序列X经过传输而形成;
预处理模块,用于对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
译码模块,用于将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型。
实施例二
本实施例以(7,5,2)卷积码为例进行详细说明。
如图1至图3所示,本发明基于卷积神经网络的归零卷积码译码方法,包括:
获取带噪码字序列Y',带噪码字序列Y'为信息序列经卷积码编码后传输而形成;对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型。
对初始卷积神经网络模型进行训练处理:首先要生成若干个的信息序列U,乘以给定的卷积码的生成矩阵G后,得到编码后的比特序列X。将X进行调制和加噪的运算得到带噪声的浮点数序列Y。根据图2所示的方法构造二维特征向量,从而得到大量的数据集。再根据二维特征的规模设定模型参数进行训练,最后选定性能最好的模型作为最终的卷积码译码模型。
具体包括以下步骤:
首先要生成若干个的信息序列U,该例中卷积码的生成方程式为G=[1+D_2,1+D_1+D_2],其中归零卷积码的起始状态和终止状态均要求寄存器的状态位为全零。信息序列U乘以给定的卷积码的生成矩阵G后,得到编码后的比特序列X。将X进行BPSK调制运算,之后进行加噪运算得到带噪声的浮点数序列Y,这里噪声大小为1.0dB-5.0dB之间,步进0.1dB;即加噪过程要重复若干次,对同样的X序列,加以不同的满足高斯分布的白噪声,得到多个不同带有高斯白噪声的Y序列。举例说明,假定此处信息序列U长度为1784,那么编码之后的序列X的长度则为3572,然后经过BPSK调制和加噪,噪声一共有41种,所以最后得到一个41*3572的数据,即有41种不同噪声程度下的带噪码字序列,均对应于同一个信息序列。
对于(7,5,2)卷积码,其约束长度为2,此处选定长为40、宽为20构建二维特征。将41个长度为3572的序列均进行这样的处理,矩阵中的副对角线的位置,为带噪码字上该位的信息。每一个构建出来的二维特征,均对应于信息序列U上的对应编码位。如图2所示,信息序列U对应于带噪码字序列Y,以u_i1为例,编码后对应为y_i3、y_i4位,对包含(y_i3,y_i4)的长度为40的数据进行切分,可以得到20条长度为40的序列,将这些序列从上至下拼凑成一个二维矩阵,其中维度为(20,40)。其中对于不足以构造(20,40)矩阵的信息位而言,对剩余位补零即可。
选定了二维特征后,便可创建卷积神经网络模型进行训练,特征的维度给定了,所以第一层的卷积层的输入输出维度也就确定了,通道数和卷积核的大小可自行确定,通常设定为上一层的多倍,而卷积核可为3*3和5*5的大小,这里选定为3*3。那么卷积层之后还要加上BN层和激活函数层,激活函数选用ReLU作为激活函数层。这样的卷积层、BN层和激活函数层构成一个基本单元,创建多个这样的基本单元,最后再加上两至三层的全连接层作为分类器,而对应二维特征的标签则为构造二维特征时所对应的信息序列X上的对应信息位。通常创建3到5个不同的神经网络模型。
创建好神经网络模型之后,便用Adam优化器对其进行训练,训练模型的时候采用批训练的方式,这里的BatchSize大小设置为128,即每批使用训练集中的128个数据进行训练。对整个训练集训练完一个回合后,都要使用验证集对模型进行验证,且记录在当前验证集下模型的性能指标。当验证集的性能指标连续下降三次的时候,认为模型已经训练完成,然后保存模型参数,退出训练。
对多个训练完毕的神经网络模型进行统一的测试。生成大量的信息序列U,依照前面所说的方法构造二维特征,创建测试集,对模型进行测试,统计准确率。选取准确率最高的模型作为最终的卷积神经网络译码模型。
模型的训练过程全部结束。在实际使用中,对每一帧收到卷积码序列Y’,进行二维特征的构造,然后再用卷积神经网络模型进行译码即可。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于卷积神经网络的归零卷积码译码方法,其特征在于:包括:
获取带噪码字序列Y',带噪码字序列Y'为信息序列经卷积码编码后传输而形成;对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型;
所述对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据,是指:
根据当前卷积码的约束长度选择译码窗口参数arg_win;对带噪码字序列Y',用译码窗口参数arg_win对带噪码字序列Y'中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win);
所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型,是指包括以下步骤:
第一步,建立用于训练的数据集pre_train_set;
第二步,根据当前卷积码的约束长度选择译码窗口参数arg_win,对第一步获得的数据集进行预处理,得到用于训练的二维特征数据集;
第三步,根据第二步选定的译码窗口参数arg_win,确定卷积神经网络模型的相关超参数,构建多个卷积神经网络模型;
第四步,利用第二步获得的二维特征数据集采用Adam优化器在第三步获得的多个卷积神经网络模型上进行训练,采用最优停止策略获得最优的卷积神经网络模型参数;
第五步,对训练完的卷积神经网络模型进行性能验证,选取其中性能最好的卷积神经网络模型作为最终的卷积神经网络模型,用于卷积码译码。
2.根据权利要求1所述的基于卷积神经网络的归零卷积码译码方法,其特征在于:所述第一步中,建立用于训练的数据集pre_train_set,是指:
设置num_u条信息序列U;对于每条信息序列U,分别乘以给定的卷积码(n,k,v)的生成矩阵G得到编码后的比特序列X;其中,(n,k,v)表示卷积码k位输入比特得到n位输出比特,约束长度为v;
将比特序列X进行调制处理,之后进行num_noise次加噪处理:对同样的比特序列X,加以不同的满足高斯分布的白噪声,得到多个不同的、带有高斯白噪声的序列Y;
将num_u条信息序列U和num_noise×num_u条序列Y对应起来,组成数据集pre_train_set。
3.根据权利要求2所述的基于卷积神经网络的归零卷积码译码方法,其特征在于:所述第二步中,根据当前卷积码的约束长度选择译码窗口参数arg_win,对第一步获得的数据集进行预处理,得到用于训练的二维特征数据集,是指:
对于卷积码(n,k,v)的约束长度v,选定译码窗口参数arg_win,arg_win=K×n,其中K≥v+1,K为正整数;
对各个序列Y,分别用译码窗口参数arg_win对其中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win);对于切分后长度不足arg_win的序列进行补零操作;由各个序列Y得到的二维矩阵组成二维特征数据集。
4.根据权利要求3所述的基于卷积神经网络的归零卷积码译码方法,其特征在于:所述第三步,根据第二步选定的译码窗口参数arg_win,确定卷积神经网络模型的相关超参数,构建多个合适的卷积神经网络模型,是指:
根据第二步得到的二维矩阵维度,将卷积神经网络模型设定为:第一层卷积层的卷积核大小为n的倍数,第一层卷积层的输出通道数为v的K倍;根据第一层卷积层超参数的设定,确定第二层卷积层及其以后的每一层神经网络的超参数信息;每一层的神经网络运算结束后,连接一个BN层来进行一个归一化的操作处理;在BN层之后连接一个激活函数层。
5.根据权利要求1所述的基于卷积神经网络的归零卷积码译码方法,其特征在于:所述第四步,利用第二步获得的二维特征数据集采用Adam优化器在第三步获得的多个卷积神经网络模型上进行训练,采用最优停止策略获得最优的卷积神经网络模型参数,是指:
对第三步构建的多个卷积神经网络模型进行训练,将第二步获得的二维特征数据集按照比例拆分成训练集和验证集;对每一个卷积神经网络模型都采用训练集进行同样的训练操作;在每一回合训练之后,更新卷积神经网络模型的权重和偏差;用验证集进行一次性能测试;当验证集的性能连续多次出现下降时,便停止卷积神经网络模型的训练。
6.一种基于卷积神经网络的归零卷积码译码系统,其特征在于:包括:
数据采集模块,用于获取带噪码字序列Y',带噪码字序列Y'为比特序列X经过传输而形成;
预处理模块,用于对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据;
译码模块,用于将所述预处理的二维特征数据输入至卷积神经网络模型,通过所述卷积神经网络模型对所述二维特征数据进行识别,得到译码任务分类概率P,P中分类概率最大的pi一项为最终输出;其中,所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型;
所述对带噪码字序列Y'进行预处理,得到预处理后的二维特征数据,是指:
根据当前卷积码的约束长度选择译码窗口参数arg_win;对带噪码字序列Y',用译码窗口参数arg_win对带噪码字序列Y'中第(y_0,y_1,...,y_n-1)位进行切分,得到arg_win/n条长度为arg_win的序列单元,将序列单元从上至下拼凑成二维矩阵,二维矩阵的维度为(arg_win/n,arg_win);
所述卷积神经网络模型为对初始卷积神经网络模型进行训练处理得到的模型,是指包括以下步骤:
第一步,建立用于训练的数据集pre_train_set;
第二步,根据当前卷积码的约束长度选择译码窗口参数arg_win,对第一步获得的数据集进行预处理,得到用于训练的二维特征数据集;
第三步,根据第二步选定的译码窗口参数arg_win,确定卷积神经网络模型的相关超参数,构建多个卷积神经网络模型;
第四步,利用第二步获得的二维特征数据集采用Adam优化器在第三步获得的多个卷积神经网络模型上进行训练,采用最优停止策略获得最优的卷积神经网络模型参数;
第五步,对训练完的卷积神经网络模型进行性能验证,选取其中性能最好的卷积神经网络模型作为最终的卷积神经网络模型,用于卷积码译码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110066450.0A CN112953565B (zh) | 2021-01-19 | 2021-01-19 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110066450.0A CN112953565B (zh) | 2021-01-19 | 2021-01-19 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112953565A CN112953565A (zh) | 2021-06-11 |
CN112953565B true CN112953565B (zh) | 2022-06-14 |
Family
ID=76236080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110066450.0A Active CN112953565B (zh) | 2021-01-19 | 2021-01-19 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112953565B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114268413A (zh) * | 2021-11-19 | 2022-04-01 | 中国联合网络通信集团有限公司 | 通用译码方法、装置、设备及存储介质 |
CN114268328B (zh) * | 2021-12-02 | 2024-10-01 | 哈尔滨工业大学 | 一种基于双向lstm的卷积码译码方法与卷积码编码和译码方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104811276A (zh) * | 2015-05-04 | 2015-07-29 | 东南大学 | 一种超奈奎斯特速率通信的dl-cnn解调器 |
CN108650201A (zh) * | 2018-05-10 | 2018-10-12 | 东南大学 | 基于神经网络的信道均衡方法、译码方法及对应设备 |
CN110569967A (zh) * | 2019-09-11 | 2019-12-13 | 山东浪潮人工智能研究院有限公司 | 一种基于算术编码的神经网络模型压缩加密方法及系统 |
CN110752894A (zh) * | 2019-10-17 | 2020-02-04 | 网络通信与安全紫金山实验室 | 一种基于cnn的ldpc码盲信道译码方法及译码器 |
CN112163596A (zh) * | 2020-09-04 | 2021-01-01 | 华南理工大学 | 复杂场景文本识别方法、系统、计算机设备及存储介质 |
CN112329690A (zh) * | 2020-11-16 | 2021-02-05 | 河北工业大学 | 基于时空残差网络和时序卷积网络的连续手语识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9524450B2 (en) * | 2015-03-04 | 2016-12-20 | Accenture Global Services Limited | Digital image processing using convolutional neural networks |
CN109525253B (zh) * | 2018-10-25 | 2020-10-27 | 华南理工大学 | 基于深度学习和集成方法的卷积码译码方法 |
CN109525254B (zh) * | 2018-10-25 | 2020-10-27 | 华南理工大学 | 基于深度学习的卷积码软判决译码方法 |
-
2021
- 2021-01-19 CN CN202110066450.0A patent/CN112953565B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104811276A (zh) * | 2015-05-04 | 2015-07-29 | 东南大学 | 一种超奈奎斯特速率通信的dl-cnn解调器 |
CN108650201A (zh) * | 2018-05-10 | 2018-10-12 | 东南大学 | 基于神经网络的信道均衡方法、译码方法及对应设备 |
CN110569967A (zh) * | 2019-09-11 | 2019-12-13 | 山东浪潮人工智能研究院有限公司 | 一种基于算术编码的神经网络模型压缩加密方法及系统 |
CN110752894A (zh) * | 2019-10-17 | 2020-02-04 | 网络通信与安全紫金山实验室 | 一种基于cnn的ldpc码盲信道译码方法及译码器 |
CN112163596A (zh) * | 2020-09-04 | 2021-01-01 | 华南理工大学 | 复杂场景文本识别方法、系统、计算机设备及存储介质 |
CN112329690A (zh) * | 2020-11-16 | 2021-02-05 | 河北工业大学 | 基于时空残差网络和时序卷积网络的连续手语识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112953565A (zh) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110209801B (zh) | 一种基于自注意力网络的文本摘要自动生成方法 | |
CN112953565B (zh) | 一种基于卷积神经网络的归零卷积码译码方法和系统 | |
CN109728824B (zh) | 一种基于深度学习的ldpc码迭代译码方法 | |
CN106888026B (zh) | 基于lsc-crc译码的分段极化码编译码方法及系统 | |
CN110445581B (zh) | 基于卷积神经网络降低信道译码误码率的方法 | |
CN109361404A (zh) | 一种基于半监督深度学习网络的ldpc译码系统及译码方法 | |
CN109525253B (zh) | 基于深度学习和集成方法的卷积码译码方法 | |
CN109525254B (zh) | 基于深度学习的卷积码软判决译码方法 | |
KR20040036460A (ko) | Ldpc 복호화 장치 및 그 방법 | |
CN107612656B (zh) | 一种适用于极化码的高斯近似简化方法 | |
CN115309869A (zh) | 一种一对多的多用户语义通信模型及通信方法 | |
CN111130567B (zh) | 添加噪声扰动和比特翻转的极化码置信传播列表译码方法 | |
Teng et al. | Convolutional neural network-aided tree-based bit-flipping framework for polar decoder using imitation learning | |
Teng et al. | Convolutional neural network-aided bit-flipping for belief propagation decoding of polar codes | |
CN101467459B (zh) | 信号的矢量量化字典生成方法、编解码器及编解码方法 | |
CN117097441B (zh) | 基于数据分析的载波通信系统传输效率优化方法 | |
CN116155453B (zh) | 一种面向动态信噪比的译码方法及相关设备 | |
CN110739977A (zh) | 一种基于深度学习的bch码译码方法 | |
CN114418821B (zh) | 基于图像频域的盲水印处理方法 | |
CN1741614A (zh) | 使用冗余对视/音频和语音数据进行解码的方法和系统 | |
Zhu et al. | Deep learning for waveform level receiver design with natural redundancy | |
Lee et al. | Large-small sorting for successive cancellation list decoding of polar codes | |
Dai et al. | Neural Network Aided Path Splitting Strategy for Polar Successive Cancellation List Decoding | |
CN114154508B (zh) | 一种基于Transformer的语义通信系统及方法 | |
WO2021014746A1 (ja) | 情報処理方法、情報処理装置、および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |