CN112737733A - 一种基于一维卷积神经网络的信道编码码型识别方法 - Google Patents
一种基于一维卷积神经网络的信道编码码型识别方法 Download PDFInfo
- Publication number
- CN112737733A CN112737733A CN202011576541.0A CN202011576541A CN112737733A CN 112737733 A CN112737733 A CN 112737733A CN 202011576541 A CN202011576541 A CN 202011576541A CN 112737733 A CN112737733 A CN 112737733A
- Authority
- CN
- China
- Prior art keywords
- code
- neural network
- matrix
- convolutional neural
- convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 44
- 238000012567 pattern recognition method Methods 0.000 title claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims abstract description 38
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 26
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 10
- 230000008859 change Effects 0.000 claims abstract description 5
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000012937 correction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/0001—Systems modifying transmission characteristics according to link quality, e.g. power backoff
- H04L1/0036—Systems modifying transmission characteristics according to link quality, e.g. power backoff arrangements specific to the receiver
- H04L1/0038—Blind format detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/0001—Systems modifying transmission characteristics according to link quality, e.g. power backoff
- H04L1/0009—Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the channel coding
Abstract
本发明公开了一种基于一维卷积神经网络的信道编码码型识别方法。该方法为:首先根据仿真的编码数据,按照码字的变化对汉明码、循环码、卷积码三类信道编码数据进行仿真;然后对于每一类码添加噪声,计算误比特率;接着将每一类码字随机叠加生成1000*5000的码字矩阵,并对每一类码字矩阵添加标签,并将矩阵前3500列作为训练集,后1500列作为测试集;再经过一维卷积神经网络进行分类处理,通过改变卷积层数、迭代次数以及不同的学习率,验证算法可行性;最后使用RNN网络进行分类处理,比较不同网络的性能对比。本发明实现了对信道编码码型的盲识别,计算速度快,识别效率高,抗噪声性能好,具有很好的工程应用性。
Description
技术领域
本发明涉及信道编码技术领域,特别是一种基于一维卷积神经网络的信道编码码型识别方法。
背景技术
近年来,信道编码盲识别问题已经成为非合作信号处理领域的一个热点。因为信道编码自身所具有的纠错能力以及严格的代数结构,被广泛用于通信对抗和电子侦察等方面,成为自适应调制和认知无线电等领域的关键技术。
信道编码技术包括伪随机扰乱、纠错编码、交织编码、级联编码等,关键在于纠错编码。对于信息侦测领域,在非合作通信的背景下,需要依靠技术手段识别分析纠错编码参数包括编码类型,分组长度,分组起始点,从军事应用的角度来说,对于敌方信息拦截有重要的参考价值。主要体现为:(1)可用于实现对敌信息识别,即对未知的码流信息进行判别,掌握敌方信息数据;(2)可实现对敌方卫星通信信息拦截,获得敌方关键数据;(3)可对通信目标的战术性质进行判定,例如判定通信源的威胁等级,判定哪些通信源是重要指挥节点,判定哪些目标是高价值目标等;(4)可实现对通信源通信对象的判别,从而获得敌方火力、机动性、防御能力等战术能力信息。
当前国内外的研究主要是基于已知码类型,对码参数进行识别,而在码型识别方面研究近乎空白。从当前公开发表的文献来看,主要有三种方法:基于Walsh-Hadamard变换的求解算法、基于公约式权重最大化算法、矩阵秩算法。上述方法都是在已知码型类别的前提下对其参数进行估计,但是在实际的非合作信道背景下,无法获知对方所采用的码型类别以及编码参数,所以对收到的0/1比特流进行码型盲识别是一个亟需解决的问题。
发明内容
本发明目的在于提供一种计算速度快、识别效率高、抗噪声性能好、工程应用性好的基于一维卷积神经网络的信道编码码型识别方法。
实现本发明目的的技术解决方案为:一种基于一维卷积神经网络的信道编码码型识别方法,包括以下步骤:
步骤1、根据仿真的编码数据,按照码字的变化对汉明码、循环码、卷积码三类信道编码数据进行仿真;
步骤2、对于每一类码按照通信协议规范,添加高斯噪声,计算误比特率;
步骤3、将每一类码字随机叠加生成5000*1000的码字矩阵;
步骤4、对每一类码字矩阵添加标签,并将矩阵前3500列作为训练集,后1500列作为测试集;
步骤5、经过一维卷积神经网络进行分类处理,计算得到信道编码码型分类识别结果。
进一步地,步骤1所述的根据仿真的编码数据,按照码字的变化对汉明码、循环码、卷积码三类信道编码数据进行仿真,具体如下:
步骤1.1、对汉明码数据进行编码:
在二元域GF(2)上的汉明码由一个不小于3的正整数m定义,码长n为:
n=2m-1
信息组长度k为:
k=n-r=2m-1-m
校验元个数r为:
r=n-k=m
编码过程根据生成矩阵G得到,设定信息组为M=(mk-1,mk-2,mk-3,...,m1,m0),码组为C=(cn-1,cn-2,cn-3,...,c1,c0),则M、C与G的关系为:
C=M·G
从而得到编码码字;
步骤1.2、对循环码数据进行编码:
在二元域GF(2)上的(n,k)循环码中,存在唯一一个n-k次首一多项式g(x)使得C(x)=m(x)g(x):
g(x)=xn-k+gn-k-1xn-k-1+...+g1x+g0
其中C(x)为码字多项式,m(x)为信息位多项式;
在二元域GF(2)上,(n,k)循环码的生成多项式g(x)一定是(xn-1)的因子,则g(x)一定能够生成一个(n,k)循环码;以g(x)作为生成多项式组成的(n,k)循环码的k个码多项式g(x),xg(x),x2g(x),...,xk-1g(x)一定是线性无关的,根据线性分组码的定义,这些码多项式能够构成循环码的生成多项式G(x):
根据G(x)从而得到G,其后码字求法与汉明码求法相同;
步骤1.3、对卷积码数据进行编码:
用延迟算子D表示卷积码编码过程中单位时间的延迟,则冲激响应g(j)表示为:
g(1)(D)=g0 (1)+g1 (1)D+g2 (1)D2
g(2)(D)=g0 (2)+g1 (2)D+g2 (2)D2
卷积码生成函数矩阵G(D)定义为:
编码输出c(D)定义为:
根据线性分组码的定义,得出:
c(D)=m(D)·G(D)
其中m(D)是输入矩阵;
将输入信息序列和输出码字序列写成向量的形式m∞:
m∞=(m0,m1,m2,m3,...)
由此得到半无限矩阵G∞:
进一步地,步骤4所述的对每一类码字矩阵添加标签,并将矩阵前3500列作为训练集,后1500列作为测试集,具体如下:
步骤4.1、对每一类码组进行设置标签的预处理;
步骤4.2、将同一信噪比条件下的1000*5000不同码型矩阵按照行进行叠加,将每一类码前3500列取出,三类码叠加形成1000*10500的训练集矩阵,每一类码组的后1500列拼接成为1000*4500的测试集矩阵。
进一步地,步骤5之后还包括以下步骤:通过改变卷积层数、迭代次数以及不同的学习率,验证卷积神经网络算法的可行性,并使用循环神经网络RNN网络进行分类处理,比较不同网络的性能对比。
进一步地,所述的通过改变卷积层数、迭代次数以及不同的学习率,验证卷积神经网络算法的可行性,并使用循环神经网络RNN网络进行分类处理,比较不同网络的性能对比,具体为:
步骤6.1、输入数据集是1000*15000的矩阵序列,每次输入1*1000数据序列,经过一维卷积神经网络中的reshape过程后维度为1000*15000*1;
步骤6.2、一维卷积神经网络采用的两个卷积层,分别具有128个和64个卷积核,采用全0填充,使得输出尺寸不被改变,而是只改变深度;采用的两层池化层步长均为2,因此输出的维度尺寸减少一半,分别为128*15000*500和64*15000*250;最后通过三层全连接层,输出类别数为3;
步骤6.3、对照试验采取三层卷积神经网络,第三层卷积层卷积核个数为32,池化层步长为2,后续与两层卷积神经网络进行对照试验;
步骤6.4、将训练集数据放入卷积神经网络,神经网络进行特征学习,后将验证集数据放入网络,自动完成分类识别;
步骤6.5、使用循环神经网络RNN网络进行分类处理,比较不同网络的性能。
本发明与现有技术相比,其显著优点为:(1)一维CNN更易于获得固定长度的特征,尤其是该片段中数据在位置上不具有高度相关性,避免了不同码字的混淆;(2)实现了对信道编码码型的盲识别,计算速度快,识别效率高,抗噪声性能好,具有很好的工程应用性。
附图说明
图1是本发明基于一维卷积神经网络的信道编码码型分类方法的流程示意图。
图2是本发明中一维卷积神经网络的结构示意图。
图3是不同神经网络对于码型分类效果对比图
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细说明。
结合图1,本发明一种基于一维卷积神经网络的信道编码码型识别方法,包括以下步骤:
步骤1、根据仿真的编码数据,按照码字的变化对汉明码、循环码、卷积码三类信道编码数据进行仿真,具体如下:
步骤1.1、对汉明码数据进行编码:
二元域GF(2)上的汉明码由一个不小于3的正整数m定义,其码长为:
n=2m-1
信息组长度为:
k=n-r=2m-1-m
校验元个数为:
r=n-k=m
其编码过程根据生成矩阵G得到,设定信息组为M=(mk-1,mk-2,mk-3,...,m1,m0),码组为C=(cn-1,cn-2,cn-3,...,c1,c0),则M、C与G的关系为:
C=M·G
从而得到编码码字;
步骤1.2、对循环码数据进行编码:
在二元域GF(2)上的(n,k)循环码中,存在唯一一个n-k次首一多项式:
g(x)=xn-k+gn-k-1xn-k-1+...+g1x+g0
使得C(x)=m(x)g(x)。其中C(x)为码字多项式,m(x)为信息位多项式;
在二元域GF(2)上,(n,k)循环码的生成多项式g(x)一定是(xn-1)的因子,则g(x)一定可以生成一个(n,k)循环码;以g(x)作为生成多项式组成的(n,k)循环码的k个码多项式g(x),xg(x),x2g(x),...,xk-1g(x)一定是线性无关的,根据线性分组码的定义,这些码多项式可以构成循环码的生成多项式G(x):
根据G(x)从而得到G,其后码字求法与汉明码求法相同;
步骤1.3、对卷积码数据进行编码:
以(2,1,2)循环码为例,用延迟算子D表示卷积码编码过程中单位时间的延迟,则冲激响应g(j)表示为:
g(1)(D)=g0 (1)+g1 (1)D+g2 (1)D2
g(2)(D)=g0 (2)+g1 (2)D+g2 (2)D2
卷积码生成函数矩阵定义为:
编码输出定义为:
根据线性分组码的定义,得出:
c(D)=m(D)·G(D)
其中m(D)是输入矩阵;
将输入信息序列和输出码字序列写成向量的形式:
m∞=(m0,m1,m2,m3,...)
由此得到半无限矩阵G:
步骤2、对于每一类码按照通信协议规范,添加高斯噪声,计算误比特率;
步骤3、将每一类码字随机叠加生成5000*1000的码字矩阵;
步骤4、对每一类码字矩阵添加标签,并将矩阵前3500列作为训练集,后1500列作为测试集,具体如下:
步骤4.1、对每一类码组进行设置标签的预处理;
步骤4.2、将同一信噪比条件下的1000*5000不同码型矩阵按照行进行叠加,将每一类码前3500列取出,三类码叠加形成1000*10500的训练集矩阵,每一类码组的后1500列拼接成为1000*4500的测试集矩阵。
步骤5、经过一维卷积神经网络进行分类处理,计算得到信道编码码型分类识别结果。
步骤6、通过改变卷积层数、迭代次数以及不同的学习率,验证卷积神经网络算法的可行性,并使用循环神经网络RNN网络进行分类处理,比较不同网络的性能对比。
通过改变卷积层数、迭代次数以及不同的学习率,验证算法可行性,结合图2,具体如下:
步骤6.1、输入数据集是1000*15000的矩阵序列,每次输入1*1000数据序列,经过一维卷积神经网络中的reshape过程后维度为1000*15000*1;
步骤6.2、一维卷积神经网络采用的两个卷积层,分别具有128个和64个卷积核,采用全0填充,使得输出尺寸不被改变,而是只改变深度;采用的两层池化层步长均为2,因此输出的维度尺寸减少一半,分别为128*15000*500和64*15000*250;最后通过三层全连接层,输出类别数为3;
步骤6.3、对照试验采取三层卷积神经网络,第三层卷积层卷积核个数为32,池化层步长为2,后续与两层卷积神经网络进行对照试验;
步骤6.4、将训练集数据放入卷积神经网络,神经网络进行特征学习,后将验证集数据放入网络,自动完成分类识别;
步骤6.5、使用循环神经网络RNN网络进行分类处理,比较不同网络的性能。
由表1可知,随着信噪比不断增大,识别率不断提升,在0db时识别率高达0.992,可以认为三类码字完全识别正确。识别效果理想。本文所取得识别率是最后二十组数据识别率取均值,忽略了初始的验证集识别率较低且波动较大的影响,可以认为是准确的识别率。从表格中可以发现随着信噪比的不断下降,识别率下降速度不断增大,-10db时识别率在0.7左右,识别率过低,可以认定识别已经失效。信噪比高于-6db时,识别率都是0.9以上,可以认定识别有效。
表1不同信噪比识别率统计表
根据表2数据可知,当卷积层为一层时,神经网络的识别率有较为明显的下降,同时识别率下降速度随着信噪比的减少而不断增大,其整体性能不如两层卷积网络和三层卷积网络。一层卷积神经网络的波动性较大,识别率不够稳定,会出现明显的偏差。
两层卷积神经网络和三层卷积神经网络识别率总体相差不大,增加卷积层并没有出现明显的识别率提升。三层神经网络在迭代次数低于20次时,识别率较两层神经网络差距明显。
表2不同卷积层识别率统计表
由表3可知,学习率0.05时,在低信噪比条件下,识别率下降明显。而学习率为0.005和0.001时,识别率几乎相同。学习率为0.05时,识别正确率出现波动较大,会影响最终的识别效果,学习率越高,波动越小。同时识别率上升的越快,更加稳定。
表3不同学习率识别率统计表
结果如图3所示。通过观察发现,RNN网络波动范围过大,无法得到准确的识别率数据。这是因为RNN网络不仅与当前时刻有关,与之前时刻的数据集也有关,在0/1比特流中会造成码字的叠加,改变数据集中码字的实际特性。一维CNN网络识别率为0.992.,二维CNN网络则识别率稳定0.667,其识别精度明显低于一维CNN。因为一维CNN更易于获得固定长度的特征,尤其是该片段中数据在位置上不具有高度相关性。而二维CNN更加关注其位置的相关性,可能出现不同码字的混淆。因此可以得出结论,一维CNN网络对码型的识别效果最好。
Claims (5)
1.一种基于一维卷积神经网络的信道编码码型识别方法,其特征在于,包括以下步骤:
步骤1、根据仿真的编码数据,按照码字的变化对汉明码、循环码、卷积码三类信道编码数据进行仿真;
步骤2、对于每一类码按照通信协议规范,添加高斯噪声,计算误比特率;
步骤3、将每一类码字随机叠加生成5000*1000的码字矩阵;
步骤4、对每一类码字矩阵添加标签,并将矩阵前3500列作为训练集,后1500列作为测试集;
步骤5、经过一维卷积神经网络进行分类处理,计算得到信道编码码型分类识别结果。
2.根据权利要求1所属的基于一维卷积神经网络的信道编码码型识别方法,其特征在于,步骤1所述的根据仿真的编码数据,按照码字的变化对汉明码、循环码、卷积码三类信道编码数据进行仿真,具体如下:
步骤1.1、对汉明码数据进行编码:
在二元域GF(2)上的汉明码由一个不小于3的正整数m定义,码长n为:
n=2m-1
信息组长度k为:
k=n-r=2m-1-m
校验元个数r为:
r=n-k=m
编码过程根据生成矩阵G得到,设定信息组为M=(mk-1,mk-2,mk-3,...,m1,m0),码组为C=(cn-1,cn-2,cn-3,...,c1,c0),则M、C与G的关系为:
C=M·G
从而得到编码码字;
步骤1.2、对循环码数据进行编码:
在二元域GF(2)上的(n,k)循环码中,存在唯一一个n-k次首一多项式g(x)使得C(x)=m(x)g(x):
g(x)=xn-k+gn-k-1xn-k-1+...+g1x+g0
其中C(x)为码字多项式,m(x)为信息位多项式;
在二元域GF(2)上,(n,k)循环码的生成多项式g(x)一定是(xn-1)的因子,则g(x)一定能够生成一个(n,k)循环码;以g(x)作为生成多项式组成的(n,k)循环码的k个码多项式g(x),xg(x),x2g(x),...,xk-1g(x)一定是线性无关的,根据线性分组码的定义,这些码多项式能够构成循环码的生成多项式G(x):
根据G(x)从而得到G,其后码字求法与汉明码求法相同;
步骤1.3、对卷积码数据进行编码:
用延迟算子D表示卷积码编码过程中单位时间的延迟,则冲激响应g(j)表示为:
g(1)(D)=g0 (1)+g1 (1)D+g2 (1)D2
g(2)(D)=g0 (2)+g1 (2)D+g2 (2)D2
卷积码生成函数矩阵G(D)定义为:
编码输出c(D)定义为:
根据线性分组码的定义,得出:
c(D)=m(D)·G(D)
其中m(D)是输入矩阵;
将输入信息序列和输出码字序列写成向量的形式m∞:
m∞=(m0,m1,m2,m3,...)
由此得到半无限矩阵G∞:
3.根据权利要求1所述的基于一维卷积神经网络的信道编码码型识别方法,其特征在于,步骤4所述的对每一类码字矩阵添加标签,并将矩阵前3500列作为训练集,后1500列作为测试集,具体如下:
步骤4.1、对每一类码组进行设置标签的预处理;
步骤4.2、将同一信噪比条件下的1000*5000不同码型矩阵按照行进行叠加,将每一类码前3500列取出,三类码叠加形成1000*10500的训练集矩阵,每一类码组的后1500列拼接成为1000*4500的测试集矩阵。
4.根据权利要求1所述的基于一维卷积神经网络的信道编码码型识别方法,其特征在于,步骤5之后还包括以下步骤:通过改变卷积层数、迭代次数以及不同的学习率,验证卷积神经网络算法的可行性,并使用循环神经网络RNN网络进行分类处理,比较不同网络的性能对比。
5.根据权利要求4所述的基于一维卷积神经网络的信道编码码型识别方法,其特征在于,所述的通过改变卷积层数、迭代次数以及不同的学习率,验证卷积神经网络算法的可行性,并使用循环神经网络RNN网络进行分类处理,比较不同网络的性能对比,具体为:
步骤6.1、输入数据集是1000*15000的矩阵序列,每次输入1*1000数据序列,经过一维卷积神经网络中的reshape过程后维度为1000*15000*1;
步骤6.2、一维卷积神经网络采用的两个卷积层,分别具有128个和64个卷积核,采用全0填充,使得输出尺寸不被改变,而是只改变深度;采用的两层池化层步长均为2,因此输出的维度尺寸减少一半,分别为128*15000*500和64*15000*250;最后通过三层全连接层,输出类别数为3;
步骤6.3、对照试验采取三层卷积神经网络,第三层卷积层卷积核个数为32,池化层步长为2,后续与两层卷积神经网络进行对照试验;
步骤6.4、将训练集数据放入卷积神经网络,神经网络进行特征学习,后将验证集数据放入网络,自动完成分类识别;
步骤6.5、使用循环神经网络RNN网络进行分类处理,比较不同网络的性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011576541.0A CN112737733A (zh) | 2020-12-28 | 2020-12-28 | 一种基于一维卷积神经网络的信道编码码型识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011576541.0A CN112737733A (zh) | 2020-12-28 | 2020-12-28 | 一种基于一维卷积神经网络的信道编码码型识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112737733A true CN112737733A (zh) | 2021-04-30 |
Family
ID=75606265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011576541.0A Pending CN112737733A (zh) | 2020-12-28 | 2020-12-28 | 一种基于一维卷积神经网络的信道编码码型识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112737733A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115001916A (zh) * | 2022-06-06 | 2022-09-02 | 北京理工大学 | 一种基于深度学习及盲识别的mcs识别方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012130074A (ja) * | 2012-03-19 | 2012-07-05 | Fujitsu Ltd | 無線通信方法、無線端末及び無線通信システム |
CN104113398A (zh) * | 2014-07-08 | 2014-10-22 | 西安电子科技大学 | 基于正交空时分组编码的mimo盲信道估计模糊度去除方法 |
CN104363078A (zh) * | 2014-12-02 | 2015-02-18 | 重庆邮电大学 | 基于鲁棒竞争聚类的欠定系统实正交空时分组码盲识别方法 |
CN106059712A (zh) * | 2016-06-28 | 2016-10-26 | 西安电子科技大学 | 一种高误码的任意码率卷积码编码参数盲识别方法 |
CN106209312A (zh) * | 2016-07-06 | 2016-12-07 | 重庆邮电大学 | 一种利用软判决的循环码参数盲识别算法 |
CN106788762A (zh) * | 2016-12-13 | 2017-05-31 | 桂林电子科技大学 | 语音信号字符化编码控制的可变重频激光调制方法和系统 |
CN107018110A (zh) * | 2017-02-28 | 2017-08-04 | 西安电子科技大学 | 一种基于主成分序列的空频编码盲识别方法 |
CN108282426A (zh) * | 2017-12-08 | 2018-07-13 | 西安电子科技大学 | 基于轻量级深度网络的无线电信号认知识别方法 |
-
2020
- 2020-12-28 CN CN202011576541.0A patent/CN112737733A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012130074A (ja) * | 2012-03-19 | 2012-07-05 | Fujitsu Ltd | 無線通信方法、無線端末及び無線通信システム |
CN104113398A (zh) * | 2014-07-08 | 2014-10-22 | 西安电子科技大学 | 基于正交空时分组编码的mimo盲信道估计模糊度去除方法 |
CN104363078A (zh) * | 2014-12-02 | 2015-02-18 | 重庆邮电大学 | 基于鲁棒竞争聚类的欠定系统实正交空时分组码盲识别方法 |
CN106059712A (zh) * | 2016-06-28 | 2016-10-26 | 西安电子科技大学 | 一种高误码的任意码率卷积码编码参数盲识别方法 |
CN106209312A (zh) * | 2016-07-06 | 2016-12-07 | 重庆邮电大学 | 一种利用软判决的循环码参数盲识别算法 |
CN106788762A (zh) * | 2016-12-13 | 2017-05-31 | 桂林电子科技大学 | 语音信号字符化编码控制的可变重频激光调制方法和系统 |
CN107018110A (zh) * | 2017-02-28 | 2017-08-04 | 西安电子科技大学 | 一种基于主成分序列的空频编码盲识别方法 |
CN108282426A (zh) * | 2017-12-08 | 2018-07-13 | 西安电子科技大学 | 基于轻量级深度网络的无线电信号认知识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115001916A (zh) * | 2022-06-06 | 2022-09-02 | 北京理工大学 | 一种基于深度学习及盲识别的mcs识别方法 |
CN115001916B (zh) * | 2022-06-06 | 2023-08-01 | 北京理工大学 | 一种基于深度学习及盲识别的mcs识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Duffy et al. | Ordered reliability bits guessing random additive noise decoding | |
Zolotarev et al. | Optimization Coding Theory and Multithreshold Algorithms | |
CN110098839B (zh) | 一种高误码下非系统卷积码编码参数的盲识别方法 | |
CN107147400B (zh) | 一种ira码开集盲识别方法 | |
US11847019B2 (en) | Polar code construction method and apparatus | |
CN110233628B (zh) | 极化码的自适应置信传播列表译码方法 | |
Wu et al. | Blind recognition of BCH code based on Galois field Fourier transform | |
Han et al. | A method for blind identification of a scrambler based on matrix analysis | |
CN111800145A (zh) | 一种基于余弦相似度的线性分组码的码长盲识别方法 | |
US9294128B2 (en) | Test signal generator for low-density parity-check decoder | |
CN112737733A (zh) | 一种基于一维卷积神经网络的信道编码码型识别方法 | |
US10735141B2 (en) | System and a method for error correction coding using a deep neural network | |
CN110535560A (zh) | 一种极化码结合编码和译码方法 | |
Cheng et al. | Encoder and list decoder of Reed-Solomon kernel based polar codes | |
Jamali et al. | Low-complexity decoding of a class of Reed-Muller subcodes for low-capacity channels | |
RU2646372C1 (ru) | Способ мягкого когнитивного декодирования систематических блоковых кодов | |
Kim et al. | Estimation of convolutional interleaver in a non-cooperative context | |
Boiko et al. | Features of code redundancy formation in information transmission channels | |
CN113659994A (zh) | 一种低复杂度的卷积码随机交织关系的估计方法 | |
Kim et al. | Efficient method for interleaver parameter estimation in a fading channel | |
CN111510164B (zh) | 一种Turbo码分量编码器识别方法及系统 | |
Kamassury et al. | Iterative error decimation for syndrome-based neural network decoders | |
CN112152751B (zh) | 单项迹的计算方法及应用单项迹的错误纠正方法 | |
Li et al. | An improved algorithm of RS codes blind recognition | |
CN108512555A (zh) | 一种系统rs码阶数及本原多项式的识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |