CN115510905A - 一种用于信道编码盲识别的多任务学习方法 - Google Patents

一种用于信道编码盲识别的多任务学习方法 Download PDF

Info

Publication number
CN115510905A
CN115510905A CN202211175218.1A CN202211175218A CN115510905A CN 115510905 A CN115510905 A CN 115510905A CN 202211175218 A CN202211175218 A CN 202211175218A CN 115510905 A CN115510905 A CN 115510905A
Authority
CN
China
Prior art keywords
network
sample
coding
identification
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211175218.1A
Other languages
English (en)
Inventor
杨海芬
罗旭
金嗣东
吴颛宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202211175218.1A priority Critical patent/CN115510905A/zh
Publication of CN115510905A publication Critical patent/CN115510905A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0009Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the channel coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于信道编码盲识别的多任务学习方法,属于无线通信领域。该框架将分类器网络与解码器网络与共享特征提取器相结合,能够实现在复杂通信环境下对候选编码集接收序列的编码方式和参数准确识别,同时能够准确地拒绝候选编码集中未出现的编码方式和参数,即实现信道编码的闭集/开集识别。另外,该多任务学习框架引入度量学习中的CenterLoss,学习每个编码类别的深度特征中心,并惩罚深度特征与其相应类别特征中心之间的距离,使信号识别的决策边界更紧密且清晰,进一步提高信道编码识别准确率。此外,本发明利用神经网络自动提取相关序列特征,避免了现有技术中需要人工提取特征这一繁琐过程。

Description

一种用于信道编码盲识别的多任务学习方法
技术领域
本发明公开了一种通用的多任务学习框架,用于信道编码的开/闭集识别,属于无线通信领域。
背景技术
为保证信息传输过程中的可靠性,提高信息的传输速率及频谱资源利用率,无线通信经过一百多年不断的发展革新,出现了信源编译码、加解密、信道纠错编码等众多的现代通信技术。其中,为减少信道中干扰对通信可靠性的影响,提出了各种信道编码理论和算法,在卫星通信、深空通信、移动通信等众多实际系统中大力使用。
信道编码盲识别分析首要应用的场景是在非协作的侦察通信中。在协作通信系统中,收发双方都知道所采用的信道编码的类型和参数,因此接收方可以使用这些信息进行正确的解码。然而在非合作通信场景中,接收方需要在没有任何信道编码的先验知识的情况下,从截获信号中重建传输的信息。因此,对于非合作接收机来说,正确地识别信道编码的类型和编码参数是至关重要的。
现有研究中对编码识别的研究甚少,对编码方式的识别仅集中于对一些常见的线性分组码,卷积码等,对于现代通信系统中常用的Turbo码、LDPC码以及最新设计出的Polar码却鲜有提及。并且关于参数识别问题(例如码长、码率)的解决仅针对同一编码类型,没有针对不同编码方式的统一参数识别方法。文献《B.Shen,C.Huang,W.Xu,T.Yang andS.Cui.Blind Channel Codes Recognition via Deep Learning.IEEE Journal onSelected Areas in Communications,2021》提出了三种神经网络识别器,用于检测接受序列是否由Polar码编码而成,该识别算法遵循一个封闭集设置,其中所有测试编码类型的先验知识都假定在训练期间可用。然而,实际的信道编码类型种类繁多,当部署识别算法时,这些识别系统很可能观察到属于未知类的测试样本。由于封闭集假设,识别系统会错误地将来自未知类的测试样本识别为属于已知封闭集类之一的样本,这不符合非合作通信的要求。
本发明提出了一种通用的多任务学习框架,用于信道编码类型和编码参数的开、集识别。提出的多任务学习方法由一个共享的特征提取网络、一个解码网络和一个分类网络组成。同时,引入Center Loss来优化已知闭集数据和未知开集数据之间特征决策边界,进一步提高识别准确率。所提出的多任务学习框架能够准确地拒绝未知编码测试样本,同时保持对已知信道编码的识别性能。
发明内容
针对信道编码盲识别问题,本发明的目的在于:提出一种通用的多任务学习框架,该多任务框架由一个共享的特征提取网络、一个解码网络和一个分类网络组成,用于信道编码类型和参数的开、闭集识别。此外,在网络特征空间引入度量学习中的Center Loss来增强已知闭集数据和未知开集数据之间的特征鉴别性,可以在已知类和未知类之间建立紧密而清晰的界限。对于一个训练好的多任务学习网络,通过特征提取器加分类器,可以对闭集候选集合中的信道编码类型(参数)进行闭集识别分类。同时,利用特征提取器加解码器,可以通过重构误差来拒绝未知类的测试样本,实现信道编码类型(参数)的开集识别。因此,该多任务学习框架可以实现在复杂通信环境下对接收序列的编码方式和参数准确识别的同时,能够准确地拒绝候选编码集中未出现的编码方式和参数。
本发明技术方案为一种用于信道编码盲识别的多任务学习方法,该方法包括:
步骤1:构建多任务学习框架,多任务学习框架包括:共享特征提取器网络
Figure BDA0003863995400000021
解码器网络
Figure BDA0003863995400000022
和分类器网络
Figure BDA0003863995400000023
所述共享特征提取网络
Figure BDA00038639954000000225
为一个具有多个残差块的ResNet网络,函数表示为:
Figure BDA0003863995400000024
其中
Figure BDA0003863995400000025
为编码后的截取序列空间,
Figure BDA0003863995400000026
为深度网络特征空间;
所述分类器
Figure BDA0003863995400000027
是带有Softmax的一个MLP(Multi-layer Perceptron,多层感知器)分类网络,用函数表示为:
Figure BDA0003863995400000028
其中
Figure BDA0003863995400000029
为深度网络特征空间,
Figure BDA00038639954000000210
为所有K个信道编码类型(参数类型)标签空间,K为候选编码集的识别种类数量;
所述解码器
Figure BDA00038639954000000211
为一个具有多个残差块的ResNet网络,用函数表示为:
Figure BDA00038639954000000212
其中
Figure BDA00038639954000000213
为深度网络特征空间,
Figure BDA00038639954000000214
为所有输入编码序列对应的序列重构空间;
步骤2:生成多任务学习框架的训练样本以及测试样本;
步骤2.1:训练样本生成:选定需要闭集识别的候选编码集,生成待识别的信道编码序列;
步骤2.2:测试样本生成:针对闭集识别,测试样本根据训练样本流程生成,针对开集识别,测试样本编码序列由候选编码集以及非候选编码集生成;
步骤3:引入Center loss损失函数,并训练该多任务学习框架,即一个共享的特征提取网络、一个解码网络和一个分类网络;
步骤3.1:设
Figure BDA00038639954000000215
Figure BDA00038639954000000216
是任意已知类中的一个样本及其对应的标签;
Figure BDA00038639954000000217
是经过特征提取器
Figure BDA00038639954000000218
的深度网络输出特征;
Figure BDA00038639954000000219
是经过特征提取器
Figure BDA00038639954000000220
和解码器
Figure BDA00038639954000000221
的输入编码序列的重构编码序列;另外,
Figure BDA00038639954000000222
是经过特征提取器
Figure BDA00038639954000000223
和分类器
Figure BDA00038639954000000224
得到的预测类概率向量;因此,所述多任务学习框架的损失函数由三部分组成:分类器网络的cross-entropy分类损失函数
Figure BDA0003863995400000031
解码器的L1正则重构损失
Figure BDA0003863995400000032
以及引入特征空间的中心损失
Figure BDA0003863995400000033
因此,所述多任务学习框架最终损失函数为:
Figure BDA0003863995400000034
其中,α,λ,β为三个常数,用于平衡三个损失函数,
Figure BDA0003863995400000035
用于闭集识别分类任务,
Figure BDA0003863995400000036
用于重构任务,
Figure BDA0003863995400000037
保证深度特征空间中编码信号类间距离变大,类内距离变小;
Figure BDA0003863995400000038
Figure BDA0003863995400000039
Figure BDA00038639954000000310
式中,N表示训练批次的大小(Batch-size),
Figure BDA00038639954000000311
为cross-entropy分类损失函数,可以表示为
Figure BDA00038639954000000312
其中,K为候选编码集的识别种类数量,
Figure BDA00038639954000000313
是样本Xi所对应标签yi的one-hot编码向量,
Figure BDA00038639954000000314
表示样本Xi的预测类概率向量,
Figure BDA00038639954000000315
为L1正则重构损失,可表示为
Figure BDA00038639954000000316
其中
Figure BDA00038639954000000317
输入样本;zi为Xi样本的深度特征向量,yi为Xi的类标签,
Figure BDA00038639954000000318
为其类中心;
步骤3.2:为了获得多任务学习框架中三个网络
Figure BDA00038639954000000319
所对应的最优的网络参数Θfg和Θc,随机选取一批训练数据集输入
Figure BDA00038639954000000320
计算损失函数
Figure BDA00038639954000000321
使用自适应矩估计算法(Adam)对多任务学习框架参数进行优化,经过小批量的反复迭代,多任务学习框架的参数逐渐收敛,逼近最优值;
步骤4:多任务学习框架性能测试
步骤4.1:针对闭集识别测试,测试步骤如下:将测试样本X输入特征提取器-分类器通道
Figure BDA00038639954000000322
产生类别概率估计向量
Figure BDA00038639954000000323
记为
Figure BDA00038639954000000324
Figure BDA00038639954000000325
其中P(Hn|X)表示该测试样本X为第i类的概率;最终识别分类结果ypred可以表示为
Figure BDA00038639954000000326
步骤4.2:针对信道编码类型(参数)的开集识别,测试步骤如下:
步骤4.2.1:将所有训练集样本经过特征提取器加解码器,该训练集样本为闭集中的样本,得到重构信号,通过公式
Figure BDA0003863995400000041
计算训练集样本重构误差,记判定阈值
Figure BDA0003863995400000042
为训练集中最大重构误差的80%;
步骤4.2.2:将测试样本X输入特征提取器,该测试样本包括有闭集和非闭集样本,得到其深度特征
Figure BDA0003863995400000043
然后输入分类器
Figure BDA0003863995400000044
中,得到:
Figure BDA0003863995400000045
同时,将深度特征z输入解码器
Figure BDA0003863995400000046
中,得到其重构信号
Figure BDA0003863995400000047
计算重构误差
Figure BDA0003863995400000048
如果
Figure BDA0003863995400000049
则判定为未知类样本;如果
Figure BDA00038639954000000410
则判定为已知类样本,标签为ypred
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明针对信道编码开集识别问题,首次提出一种多任务学习框架,对信道编码类型和参数(码率,码长)的识别均有效。
2.本发明避免手动提取信号特征的繁琐过程,使用所设计的网络特征提取器,复杂度降低。
3.本发明在特征空间中引入Center Loss,能够优化已知闭集数据和未知开集数据之间的决策边界,可以在已知类和未知类之间建立紧密而清晰的界限。
4.针对闭集识别,本发明通过引入Center Loss,该多任务学习框架的闭集识别性能超过目前先进的ResNet闭集识别器以及传统的CNN(Convolutional Neural Network)闭集识别器;针对开集识别,该多任务学习框架开集性能超过传统的SoftMax开集识别器。
附图说明
图1为信道编码盲识别算法的设计流程图
图2为多任务学习框架网络示意图。
图3(a)为不同信噪比下多任务学习框架对于信道编码类型闭集识别性能结果。(b)为不同信噪比下多任务学习框架对于Polar码码率闭集识别性能结果。(c)为不同信噪比下多任务学习框架对于Polar码码长闭集识别性能结果。
图4(a)为10dB下CNN识别器对于信道编码码率参数闭集识别的深度特征二维可视化散点图。(b)为10dB下ResNet识别器对于信道编码码率参数闭集识别的深度特征二维可视化散点图。(c)为10dB下多任务学习框架对于信道编码码率参数闭集识别的深度特征二维可视化散点图。
具体实施方式
为使本发明的目的、技术方法和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
本发明针对非合作通信中,对接收序列信道编码类型和参数的盲识别问题,提出一种通用的多任务学习框架,该多任务框架由一个共享的ResNet特征提取网络
Figure BDA0003863995400000051
一个ResNet解码网络
Figure BDA0003863995400000052
和一个MLP分类网络
Figure BDA0003863995400000053
组成,用于信道编码类型和参数的开、闭集识别。同时,在网络特征空间引入度量学习中的Center Loss进一步增强已知闭集数据和未知开集数据之间的特征边界,在已知类和未知类之间建立紧密而清晰的界限。对于一个训练好的多任务学习框架,通过特征提取器加分类器
Figure BDA0003863995400000054
可以对闭集候选集合中的信道编码类型(参数)进行闭集识别分类。同时,通过特征提取器加解码器
Figure BDA0003863995400000055
可以通过重构误差来拒绝未知类的测试样本。因此,该多任务学习框架能够实现在复杂通信环境下对接收序列的编码方式和参数准确识别的同时,准确地拒绝候选编码集中未出现的编码方式和参数。
本发明的通用多任务信道编码识别框架方法,具体步骤如下:
步骤1:若为编码类型识别,生成由不同信道编码编码而成的接收序列样本;若为编码参数识别(码率和码长),生成由不同编码参数编码而成的接收序列样本。
步骤1.1:对于一个非合作通信系统,源消息被编码为一个码字序列c=[c1,c2,…,cM],其中M为传输码字的数量,其中ci=[ci1,ci2,…,ciN]表示第i个码字,N为码字的长度,i=1,2,…,M,cij表示第i个码字的第j个符号;
步骤1.2:这些M个码字依次被调制后,在信道上传输。考虑圆对称复高斯噪声(CSCG)信道,在接收端观测的接收序列可表示为x=[x1,x2,…,xM],其中
xi=ci+ni
式中,xi为第i个接收信号,ni为CSCG噪声,其元素为均值为0,方差为N0的独立同分布的复高斯随机变量。
步骤1.3:在非合作通信系统中,所观测的接受序列为全部接收序列x的部分,记为X。可以表示为
X=[xij,xij+1,…,xsq]
式中,xsq为第s个接收编码序列的第q个符号(1≤i≤s≤K,1≤j,q≤N)。xij为截取接收序列的起点。
步骤1.4:基于对应的起点,向后截取长度为L的序列,得到信道编码序列的接收序列。
步骤1.5:根据不同的编码方式,码率、码长和信道的信噪比生成截取序列,生成数据集的候选参数集给定为
Figure BDA0003863995400000061
式中,
Figure BDA0003863995400000062
为信道编码类型识别闭集集合,×为笛卡尔乘积,
Figure BDA0003863995400000063
分别为码率和码长的识别闭集集合,
Figure BDA0003863995400000064
为信道信噪比值的集合。为了生成数据集的一个样本,随机选取Φ的一个元素,根据步骤1.3以及1.4得到多任务学习识别框架的一个截取序列(训练样本)。
步骤2:从生成的序列中随机抽取90%作为训练集,剩下的部分随机抽取10%作为验证集,其中验证集用于训练过程中调整网络超参数(包括学习率、批次大小、迭代次数和各权重矩阵的维度)。针对测试集,若为闭集识别测试,测试样本根据训练样本流程生成;若为开集识别,测试样本编码序列应由候选编码集以及非候选编码集生成。
步骤3:构建多任务学习识别框架。一个多任务学习识别框架由三个网络组成:一个特征提取器
Figure BDA0003863995400000065
一个解码器
Figure BDA0003863995400000066
一个分类器
Figure BDA0003863995400000067
Figure BDA0003863995400000068
由多个ResNet残差块组成构成,可以用函数表示为
Figure BDA0003863995400000069
其中
Figure BDA00038639954000000610
为编码后的截取序列空间,
Figure BDA00038639954000000611
为深度网络特征空间。
Figure BDA00038639954000000612
同样由多个ResNet残差块组成,
Figure BDA00038639954000000613
是一个带有Softmax的MLP(Multi-layer Perceptron,多层感知器)网络组成。同样地,
Figure BDA00038639954000000614
Figure BDA00038639954000000615
可以分别表示为
Figure BDA00038639954000000616
其中
Figure BDA00038639954000000617
为所有输入编码序列对应的序列重构空间,
Figure BDA00038639954000000618
为所有K个信道编码类型(参数类型)标签空间,K为候选编码集的识别种类数量。该多任务学习识别框架示意图如图2所示,参数如表1所示。
步骤4:训练多任务学习识别框架。
步骤4.1:令Θfg和Θc分别为
Figure BDA00038639954000000619
的参数。分类损失用
Figure BDA00038639954000000620
表示,对错误分类已知类样本的网络,即特征提取器-分类器网络
Figure BDA00038639954000000621
进行惩罚。重建损失用
Figure BDA00038639954000000622
表示,惩罚了重构已知类样本的网络,即特征提取器-解码器网络
Figure BDA00038639954000000623
Figure BDA00038639954000000624
Figure BDA00038639954000000625
是任意已知类中的一个样本及其对应的标签。
Figure BDA00038639954000000626
是经过特征提取器
Figure BDA00038639954000000627
和解码器
Figure BDA00038639954000000628
的重构输入。另外,
Figure BDA00038639954000000629
是经过特征提取器
Figure BDA00038639954000000630
和分类器
Figure BDA00038639954000000631
得到的预测类概率向量。对于一个训练数据集Batch-size大小为N的输入序列样本,损失函数可以表示为
Figure BDA00038639954000000632
Figure BDA00038639954000000633
式中,lc为cross-entropy分类损失函数,lr为L1正则重构损失。lc和lr的定义如下:
Figure BDA0003863995400000071
Figure BDA0003863995400000072
其中,
Figure BDA0003863995400000073
是标签yi的one-hot编码向量。
Figure BDA0003863995400000074
为训练样本Xi的预测类概率向量,
Figure BDA0003863995400000075
为输入样本编码序列的重构序列。
步骤4.2:引入Center Loss,增强已知闭集数据和未知开集数据之间的特征边界,缩小类内距离,增大类间距离,Center Loss可以表示为
Figure BDA0003863995400000076
式中,zi为样本的Xi深度特征向量,yi为Xi的类标签,
Figure BDA0003863995400000077
为其类中心。
步骤4.3:多任务学习框架的最终损失函数可以表示为
Figure BDA0003863995400000078
这里,α,λ,β为三个常数用于平衡三个损失函数。
步骤4.4:为了获得多任务学习框架最优的网络参数Θfg和Θc,在训练样本中随机选取一批训练数据集,将长度为L一维截取序列转化为N×N的二维序列,输入网络
Figure BDA0003863995400000079
计算损失函数
Figure BDA00038639954000000710
然后,使用自适应矩估计(Adam)算法对多任务学习网络参数进行优化。经过小批量的反复迭代,多任务学习网络的参数逐渐收敛,逼近最优值。
步骤5:为了测试所训练好的多任务网络模型的性能,采用下述方法对其识别性能进行评估。
步骤5.1:针对信道编码类型(参数)的闭集识别:将测试样本X(均为闭集候选集中的样本)输入特征提取器-分类器通道
Figure BDA00038639954000000711
产生类别概率估计向量
Figure BDA00038639954000000712
记为
Figure BDA00038639954000000713
其中P(Hn|X)表示该测试样本X为第i类的概率;最终识别分类结果ypred可以表示为
Figure BDA00038639954000000714
步骤5.2:针对信道编码类型(参数)的开集识别,测试步骤如下:
步骤5.2.1:将所有训练集样本(闭集中的样本)经过特征提取器加解码器,得到重构信号,通过公式
Figure BDA0003863995400000081
计算训练集样本重构误差。记判定阈值
Figure BDA0003863995400000082
为训练集中最大重构误差的80%。
步骤5.2.2:将测试样本X(有闭集/非闭集样本)输入特征提取器,得到其深度特征
Figure BDA0003863995400000083
然后输入分类器
Figure BDA0003863995400000084
中,得到
Figure BDA0003863995400000085
同时,将深度特征z输入解码器
Figure BDA0003863995400000086
中,得到其重构信号
Figure BDA0003863995400000087
计算重构误差
Figure BDA0003863995400000088
如果
Figure BDA0003863995400000089
则判定为未知类样本;如果
Figure BDA00038639954000000810
则判定为已知类样本,标签为ypred
上述步骤1-步骤5算法流程图如图1所示。
本发明优势在于:
1.本发明针对信道编码开集识别问题,首次提出一种多任务学习框架,对信道编码类型和参数(码率,码长)的识别均有效。
2.本发明避免手动提取信号特征的繁琐过程,使用所设计的网络特征提取器,复杂度降低。
3.本发明在特征空间中引入Center Loss,能够优化已知闭集数据和未知开集数据之间的决策边界,可以在已知类和未知类之间建立紧密而清晰的界限。
4.针对闭集识别,本发明通过引入Center Loss,该多任务学习框架的闭集识别性能超过目前先进的ResNet闭集识别器;针对开集识别,该多任务学习框架开集性能超过传统的SoftMax开集识别器。
实施例
以LDPC,Polar,Turbo码,BCH码为例,描述本发明的具体识别处理过程。
数据集:设置信道编码类型闭集候选集为
Figure BDA00038639954000000811
对于LDPC码,设
Figure BDA00038639954000000812
Figure BDA00038639954000000813
参数都来自IEEE 802.11和IEEE 802.16协议。对于Polar码,设置
Figure BDA00038639954000000814
Figure BDA00038639954000000815
Figure BDA00038639954000000816
对于Turbo码,设置
Figure BDA00038639954000000817
Figure BDA00038639954000000818
参数来自LTE协议。对于BCH码,设置
Figure BDA00038639954000000819
Figure BDA00038639954000000820
网络参数设置:在该多任务学习框架中,设置损失平衡常数α=0.2,λ=0.5,β=0.5。学习率设置为0.001,训练数据集-size设置为64。将生成序列截取为L=8192,转换为二维64×64输入特征提取网络中,对多任务识别框架完成训练。训练好的多任务学习框架可以完成闭集识别任务以及开集识别任务。其中,针对类型识别,训练集大小为246000个样本,其中LDPC,Polar,Turbo,BCH分别为66000个样本。针对参数识别,以Polar的码率和码长识别为例,训练集大小为246000个样本,其中针对码率识别,1/8,2/8,3/8,4/8码率分别为66000个样本;针对码长识别,256,512,1024,2048码长分别为66000个样本。
实施例识别结果:
测试闭集识别性能:为了测试闭集性能,我们选取了目前流行的CNN识别器,ResNet识别器作为基准。对于测试集,我们选取了不同信噪比下的测试数据,信噪比为{-4,-2,0,2,4,6,8,10},针对每个测试信噪比,生成大小为36000个测试样本。将测试样本(只有上述闭集候选集中的样本)输入特征提取器+分类器通道
Figure BDA0003863995400000091
图3(a)(b)(c)分别展示了信道编码类型的识别,Polar编码码率以及码长的识别结果。我们发现,无论是信道编码类型识别,还是编码参数的识别,多任务学习框架中带有Center Loss的ResNet闭集识别器
Figure BDA0003863995400000092
性能优于目前流行的CNN以及ResNet识别器。并且,当超过4dB时,类型识别准确率可达到90%;当超过2dB时,码率以及码长识别可达到90%。为了说明本发明的有效性,图4(a)(b)(c)分别画出了在10dB下Polar码率识别中,CNN识别器,ResNet识别器,以及多任务学习框架识别器的深度特征的可视化t-sne表示,可以看到ResNet识别器以及多任务学习框架识别器提取的特征明显比基于CNN提取的特征更具差异性,此外本发明带有CenterLoss特征提取网络的特征相对于ResNet识别器具有更好的类内相似度和更大的类间区别。这说明对于闭集识别,该多任务识别框架优于目前最先进的CNN以及ResNet识别器。
测试开集识别性能:为了测试开集识别的性能,我们引入闭集候选集中未出现的编码类型及参数进行测试,测试样本数量与闭集识别相同。针对编码类型的开集识别,引入卷积码,RS码作为未知的测试编码类型。同时,针对编码参数的开集识别,引入Polar码码率为5/8,6/8作为未知的测试码率,引入Polar码码长为128,4096的类别作为未知的测试码长。为了说明本发明的开集识别性能,将目前流行的SoftMax开集识别器作为基准对比,该识别器使用logit层的SoftMax的硬阈值识别未知测试样本(在本实验中,将其设置为0.5)。表2,表3,表4分别展示了信道编码类型开集识别,Polar编码码率的开集识别以及Polar码码长的开集识别的识别性能。我们发现,本发明的开集识别性能在0-10dB的场景下均优于SoftMax开集识别器,并且这种优势在低信噪比下更加明显。
经过闭集以及开集识别测试,多任务学习框架的闭集识别性能超过目前先进的ResNet闭集识别器以及传统的CNN闭集识别器;针对开集识别,该多任务学习框架开集性能超过传统的SoftMax开集识别器。因此,该多任务学习框架能够实现在复杂通信环境下对接收序列的编码方式和参数准确识别的同时,准确地拒绝候选编码集中未出现的编码方式和参数。
表1为不同信噪比下多任务学习框架的网络参数。
Figure BDA0003863995400000101
表2为不同信噪比下多任务学习框架对于信道编码类型开集识别性能结果。
测试信噪比(dB) 0 2 4 6 8 10
SoftMax方法 31.2% 35.6% 60.2% 65.2% 70.4% 70.6%
多任务识别框架 75.2% 78.5% 84.4% 87.4% 91.0% 92.3%
表3为不同信噪比下多任务学习框架对于Polar码码率开集识别性能结果。
测试信噪比(dB) 0 2 4 6 8 10
SoftMax方法 50.6% 55.4% 68.9% 76.2% 76.5% 77.8%
多任务识别框架 78.2% 80.9% 90.5% 95.8% 97.5% 98.2%
表4为不同信噪比下多任务学习框架对于Polar码码长开集识别性能结果。
测试信噪比(dB) 0 2 4 6 8 10
SoftMax方法 54.3% 54.4% 67.8% 77.4% 79.6% 80.5%
多任务识别框架 75.2% 82.4% 91.6% 95.9% 98.5% 98.5%

Claims (1)

1.一种用于信道编码盲识别的多任务学习方法,该方法包括:
步骤1:构建多任务学习框架,多任务学习框架包括:共享特征提取器网络
Figure FDA0003863995390000011
解码器网络
Figure FDA0003863995390000012
和分类器网络
Figure FDA0003863995390000013
所述共享特征提取网络
Figure FDA0003863995390000014
为一个具有多个残差块的ResNet网络,函数表示为:
Figure FDA0003863995390000015
其中
Figure FDA0003863995390000016
为编码后的截取序列空间,
Figure FDA0003863995390000017
为深度网络特征空间;
所述分类器
Figure FDA0003863995390000018
是带有Softmax的一个MLP分类网络,用函数表示为:
Figure FDA0003863995390000019
其中
Figure FDA00038639953900000110
为深度网络特征空间,
Figure FDA00038639953900000111
为所有K个信道编码类型标签空间,K为候选编码集的识别种类数量;
所述解码器
Figure FDA00038639953900000112
为一个具有多个残差块的ResNet网络,用函数表示为:
Figure FDA00038639953900000113
其中
Figure FDA00038639953900000114
为深度网络特征空间,
Figure FDA00038639953900000115
为所有输入编码序列对应的序列重构空间;
步骤2:生成多任务学习框架的训练样本以及测试样本;
步骤2.1:训练样本生成:选定需要闭集识别的候选编码集,生成待识别的信道编码序列;
步骤2.2:测试样本生成:针对闭集识别,测试样本根据训练样本流程生成,针对开集识别,测试样本编码序列由候选编码集以及非候选编码集生成;
步骤3:引入Centerloss损失函数,并训练该多任务学习框架,即一个共享的特征提取网络、一个解码网络和一个分类网络;
步骤3.1:设
Figure FDA00038639953900000116
Figure FDA00038639953900000117
是任意已知类中的一个样本及其对应的标签;
Figure FDA00038639953900000118
是经过特征提取器
Figure FDA00038639953900000119
的深度网络输出特征;
Figure FDA00038639953900000120
是经过特征提取器
Figure FDA00038639953900000121
和解码器
Figure FDA00038639953900000122
的输入编码序列的重构编码序列;另外,
Figure FDA00038639953900000123
是经过特征提取器
Figure FDA00038639953900000124
和分类器
Figure FDA00038639953900000125
得到的预测类概率向量;因此,所述多任务学习框架的损失函数由三部分组成:分类器网络的cross-entropy分类损失函数
Figure FDA00038639953900000126
解码器的L1正则重构损失
Figure FDA00038639953900000127
以及引入特征空间的中心损失
Figure FDA00038639953900000128
因此,所述多任务学习框架最终损失函数为:
Figure FDA00038639953900000129
其中,α,λ,β为三个常数,用于平衡三个损失函数,
Figure FDA00038639953900000130
用于闭集识别分类任务,
Figure FDA00038639953900000131
用于重构任务,
Figure FDA00038639953900000132
保证深度特征空间中编码信号类间距离变大,类内距离变小;
Figure FDA00038639953900000133
Figure FDA00038639953900000134
Figure FDA0003863995390000021
式中,N表示训练批次的大小,
Figure FDA0003863995390000022
为cross-entropy分类损失函数,可以表示为
Figure FDA0003863995390000023
其中,K为候选编码集的识别种类数量,
Figure FDA0003863995390000024
是样本Xi所对应标签yi的one-hot编码向量,
Figure FDA0003863995390000025
表示样本Xi的预测类概率向量,
Figure FDA0003863995390000026
为L1正则重构损失,可表示为
Figure FDA0003863995390000027
其中
Figure FDA0003863995390000028
输入样本;zi为Xi样本的深度特征向量,yi为Xi的类标签,
Figure FDA0003863995390000029
为其类中心;
步骤3.2:为了获得多任务学习框架中三个网络
Figure FDA00038639953900000210
所对应的最优的网络参数Θfg和Θc,随机选取一批训练数据集输入
Figure FDA00038639953900000211
计算损失函数
Figure FDA00038639953900000212
使用自适应矩估计算法(Adam)对多任务学习框架参数进行优化,经过小批量的反复迭代,多任务学习框架的参数逐渐收敛,逼近最优值;
步骤4:多任务学习框架性能测试
步骤4.1:针对闭集识别测试,测试步骤如下:将测试样本X输入特征提取器-分类器通道
Figure FDA00038639953900000213
产生类别概率估计向量
Figure FDA00038639953900000214
记为
Figure FDA00038639953900000215
Figure FDA00038639953900000216
其中P(Hn|X)表示该测试样本X为第i类的概率;最终识别分类结果ypred可以表示为
Figure FDA00038639953900000217
步骤4.2:针对信道编码类型的开集识别,测试步骤如下:
步骤4.2.1:将所有训练集样本经过特征提取器加解码器,该训练集样本为闭集中的样本,得到重构信号,通过公式
Figure FDA00038639953900000218
计算训练集样本重构误差,记判定阈值
Figure FDA00038639953900000219
为训练集中最大重构误差的80%;
步骤4.2.2:将测试样本X输入特征提取器,该测试样本包括有闭集和非闭集样本,得到其深度特征
Figure FDA00038639953900000220
然后输入分类器
Figure FDA00038639953900000221
中,得到:
Figure FDA00038639953900000222
同时,将深度特征z输入解码器
Figure FDA00038639953900000223
中,得到其重构信号
Figure FDA00038639953900000224
计算重构误差
Figure FDA00038639953900000225
如果
Figure FDA00038639953900000226
则判定为未知类样本;如果
Figure FDA00038639953900000227
则判定为已知类样本,标签为ypred
CN202211175218.1A 2022-09-26 2022-09-26 一种用于信道编码盲识别的多任务学习方法 Pending CN115510905A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211175218.1A CN115510905A (zh) 2022-09-26 2022-09-26 一种用于信道编码盲识别的多任务学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211175218.1A CN115510905A (zh) 2022-09-26 2022-09-26 一种用于信道编码盲识别的多任务学习方法

Publications (1)

Publication Number Publication Date
CN115510905A true CN115510905A (zh) 2022-12-23

Family

ID=84505830

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211175218.1A Pending CN115510905A (zh) 2022-09-26 2022-09-26 一种用于信道编码盲识别的多任务学习方法

Country Status (1)

Country Link
CN (1) CN115510905A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116388933A (zh) * 2023-04-27 2023-07-04 成都美数科技有限公司 基于深度学习的通信信号盲识别系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116388933A (zh) * 2023-04-27 2023-07-04 成都美数科技有限公司 基于深度学习的通信信号盲识别系统
CN116388933B (zh) * 2023-04-27 2023-11-21 成都美数科技有限公司 基于深度学习的通信信号盲识别系统

Similar Documents

Publication Publication Date Title
CN109525369B (zh) 一种基于循环神经网络的信道编码类型盲识别方法
CN110099019B (zh) 基于深度学习的LoRa调制信号检测方法
CN112464837B (zh) 基于小数据样本的浅海水声通信信号调制识别方法及系统
CN109495214B (zh) 基于一维Inception结构的信道编码类型识别方法
CN114465855B (zh) 一种基于注意力机制与多特征融合的自动调制识别方法
CN111490853A (zh) 一种基于深度卷积神经网络的信道编码参数识别方法
CN110113288B (zh) 一种基于机器学习的ofdm解调器的设计和解调方法
CN110233653B (zh) 基于加权集成聚类算法的mimo系统的盲多径识别方法及系统
JP2004266838A (ja) 逐次モンテカルロによる準最適多入力多出力(mimo)チャネル検出
CN106130688B (zh) 一种低复杂度的稀疏码多址接入检测方法
CN113381828B (zh) 基于条件生成对抗网络的稀疏码多址接入随机信道建模方法
CN112115821B (zh) 一种基于小波近似系数熵的多信号智能调制模式识别方法
CN114268388B (zh) 一种在大规模mimo中基于改进gan网络的信道估计方法
CN112861927B (zh) 基于自适应特征提取与融合的信号调制分类方法
CN113205140B (zh) 基于生成式对抗网络的半监督式特定辐射源个体识别方法
US20220418008A1 (en) Transmitting device, receiving device, and methods for random-access communication
CN115510905A (zh) 一种用于信道编码盲识别的多任务学习方法
Qin et al. Deep learning based channel code recognition using TextCNN
CN109728824A (zh) 一种基于深度学习的ldpc码迭代译码方法
CN107682119B (zh) 一种基于分组极值模型的mimo空时码识别方法
Zhang et al. Blind recognition of channel coding based on CNN-BLSTM
Fengler Sparse recovery based grant-free random access for massive machine-type communication
CN114337883A (zh) 协方差矩阵Cholesky分解的CNN协作频谱感知方法及系统
CN117375770B (zh) 一种信道编码识别方法和装置
CN105119860A (zh) 一种广义空间调制系统的信号检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination