CN116055273A - 一种神经网络级联的qpsk接收机及其辅助模型训练方法 - Google Patents
一种神经网络级联的qpsk接收机及其辅助模型训练方法 Download PDFInfo
- Publication number
- CN116055273A CN116055273A CN202310055588.XA CN202310055588A CN116055273A CN 116055273 A CN116055273 A CN 116055273A CN 202310055588 A CN202310055588 A CN 202310055588A CN 116055273 A CN116055273 A CN 116055273A
- Authority
- CN
- China
- Prior art keywords
- neural network
- model
- qpsk
- training
- lstm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 63
- 238000012549 training Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000003062 neural network model Methods 0.000 claims abstract description 57
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 39
- 230000006870 function Effects 0.000 claims description 41
- 230000004913 activation Effects 0.000 claims description 24
- 210000002569 neuron Anatomy 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims 1
- 238000011084 recovery Methods 0.000 abstract description 6
- 230000010365 information processing Effects 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L27/00—Modulated-carrier systems
- H04L27/18—Phase-modulated carrier systems, i.e. using phase-shift keying
- H04L27/22—Demodulator circuits; Receiver circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
Abstract
本发明涉及一种神经网络级联的QPSK接收机辅助模型训练方法,包括:搭建QPSK系统模型,使用QPSK系统模型获取训练数据集,搭建并训练rethink神经网络模型,rethink神经网络模型用于对经过编码和噪声影响的信号进行解调,生成预测标签;搭建并训练LSTM_CNN神经网络模型,LSTM_CNN神经网络模型用于对第一QPSK接收机辅助模型输出的预测标签进行译码。本发明的方法所训练的两个模型分别具有解调和信道译码两个小型神经网络,相比于Deepreceiver的深度神经网络,这两个小型神经网络显著减少了网络复杂度、能针对局部进行优化、应用更灵活,信息处理能力和信息恢复性能也在Deepreceiver的基础上得到了进一步提升。
Description
技术领域
本发明属于无线通信技术领域,具体涉及一种神经网络级联的QPSK接收机及其辅助模型训练方法。
背景技术
最近几年,神经网络在计算机视觉、图像处理等众多领域得到了广泛应用,神经网络具有很强的信息综合能力,能同时处理定量和定性的信息,能很好地协调多种输入信息关系,还具有自学习、自组织、自适应性,学术界和工业界对神经网络的关注也在逐渐增强。在无线通信领域,将神经网络应用在通信接收机上是目前研究的热点方向之一,传统无线通信接收机的性能也很可能因此得到较大的提升。正交相移键控技术(QPSK)是一种抗干扰性强、频谱利用率高的数字调制方式,在无线通信系统中应用广泛。
在高信噪比的条件下,传统的QPSK接收机对经过编码和加噪处理过的信号进行解调时采用硬判决方法,最终的误比特率较高,识別准确率低。深度接收机(Deepreceiver)方法采用了一个深度神经网络来取代传统的接收机的信息恢复过程,设计了一种一维卷积密集网络结构,利用全局池化来提高网络对不同输入信号长度的适应性。在最终的分类层中使用多个二进制分类器来实现多位信息流的恢复,接收机的识別准确率相比于传统硬判决有所提升。但是Deepreceiver网络复杂度高,对设备要求高,且不能针对局部进行优化,应用门槛高,接收机的识別准确率提升也较少。
因此,亟需一种方案,以解决在高信噪比条件下,上述两种方案各自存在的问题。
发明内容
基于现有技术中存在的上述缺点和不足,本发明的目的之一是至少解决现有技术中存在的上述问题之一或多个,换言之,本发明的目的之一是提供满足前述需求之一或多个的一种神经网络级联的QPSK接收机及其辅助模型训练方法。
为了达到上述发明目的,本发明采用以下技术方案:
一种神经网络级联的QPSK接收机辅助模型训练方法,具体包括如下步骤:
S1、搭建QPSK系统模型,使用QPSK系统模型获取第一训练数据集;
S2、搭建rethink神经网络模型,rethink神经网络模型用于对经过编码和噪声影响的信号进行解调,生成预测标签;
S3、使用第一训练数据集训练rethink神经网络模型,优化rethink神经网络模型的第一损失函数;
S4、使用Nadam算法优化第一损失函数,更新rethink神经网络模型的参数,直至预测标签与真实标签对比的错误率最小,将更新后的rethink神经网络模型作为第一QPSK接收机辅助模型;
S5、获取第一QPSK接收机辅助模型的输出数据作为第二训练数据集;
S6、搭建LSTM_CNN神经网络模型,LSTM_CNN神经网络模型用于对第一QPSK接收机辅助模型输出的预测标签进行译码;
S7、使用第二训练数据集训练LSTM_CNN神经网络模型,优化LSTM_CNN神经网络模型的第二损失函数;
S8、使用adam算法优化第二损失函数,更新LSTM_CNN神经网络模型的参数,直至LSTM_CNN神经网络模型的输出与QPSK系统模型的原始比特流对比的误码率最小,将更新后的LSTM_CNN神经网络模型作为第二QPSK接收机辅助模型。
作为一种优选的方案,使用QPSK系统模型获取第一训练数据集具体为,使用QPSK系统模型对经过汉明编码后的数据进行QPSK调制,然后使用根升余弦进行过采样,再加入高斯噪声作为干扰,经过匹配滤波和欠采样得到56位特征。
作为一种优选的方案,rethink神经网络模型对经过编码和噪声影响的信号的解调具体包括:
对输入的信号进行五次重复向量迭代;
输入第一层网络,第一层网络使用非线性激活函数Relu;
输入第二层网络,第二层网络为长短期记忆神经网络,具有128个神经元,使用激活函数sigmoid;
输入全连接层进行输出,全连接层具有56个神经元。
作为一种进一步优选的方案,预测标签为56位。
作为一种优选的方案,LSTM_CNN神经网络模型对第一QPSK接收机辅助模型输出的预测标签的译码具体包括:
将输入的预测标签依次输入三层LSTM层,LSTM层使用relu激活函数,具有56个神经元;
输入Conv1D卷积神经网络,Conv1D卷积神经网络使用relu激活函数;
输入Flatten层降维;
输入Dense层进行输出,Dense层使用sigmoid激活函数,具有32个神经元。
第二方面,本发明提供一种基于神经网络级联辅助模型的QPSK接收方法,使用上述任一项的神经网络级联的QPSK接收机辅助模型训练方法所训练的第一QPSK接收机辅助模型和第二QPSK接收机辅助模型,具体包括:
使用第一QPSK接收机辅助模型对经过编码和噪声影响的信号进行解调,生成预测标签;
使用第二QPSK接收机辅助模型对预测标签进行译码,还原得到原码。
第三方面,本发明提供一种基于神经网络级联辅助模型的QPSK智能接收机,使用上述的基于神经网络级联辅助模型的QPSK接收方法。
本发明与现有技术相比,有益效果是:
本发明的方法所训练的两个模型分别具有解调和信道译码两个小型神经网络,相比于Deepreceiver的深度神经网络,这两个小型神经网络显著减少了网络复杂度、能针对局部进行优化、应用更灵活,性能也在Deepreceiver的基础上得到了进一步提升。上述方法在解调环节设计出一种基于反思结构的神经网络(Rethink),将标签之间的隐藏相关性考虑在内,也运用了多标签分类的思想;在译码环节设计出LSTM_CNN神经网络,对Rethink网络的输出进行了时间和空间上的特征提取,增强了信息处理能力,提高了接收机的信息恢复性能。
附图说明
图1是本发明的神经网络级联的QPSK接收机辅助模型训练方法的流程图;
图2是本发明的QPSK接收机辅助模型的级联结构示意图;
图3是本发明的基于神经网络级联辅助模型的QPSK智能接收机的误码率对比图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例:本申请提供一种神经网络级联的QPSK接收机辅助模型训练方法,其流程图如图1所示,在本申请的某一实施例中,方法具体包括如下步骤:
S1、搭建QPSK系统模型,使用QPSK系统模型获取第一训练数据集;
S2、搭建rethink神经网络模型,rethink神经网络模型用于对经过编码和噪声影响的信号进行解调,生成预测标签;
S3、使用第一训练数据集训练rethink神经网络模型,优化rethink神经网络模型的第一损失函数;
S4、使用Nadam算法优化第一损失函数,更新rethink神经网络模型的参数,直至预测标签与真实标签对比的错误率最小,将更新后的rethink神经网络模型作为第一QPSK接收机辅助模型;
S5、获取第一QPSK接收机辅助模型的输出数据作为第二训练数据集;
S6、搭建LSTM_CNN神经网络模型,LSTM_CNN神经网络模型用于对第一QPSK接收机辅助模型输出的预测标签进行译码;
S7、使用第二训练数据集训练LSTM_CNN神经网络模型,优化LSTM_CNN神经网络模型的第二损失函数;
S8、使用adam算法优化第二损失函数,更新LSTM_CNN神经网络模型的参数,直至LSTM_CNN神经网络模型的输出与QPSK系统模型的原始比特流对比的误码率最小,将更新后的LSTM_CNN神经网络模型作为第二QPSK接收机辅助模型。
作为一种优选的方案,在步骤S1的一个更进一步的实施例中,使用QPSK系统模型获取第一训练数据集具体为,使用QPSK系统模型对经过汉明编码后的数据进行QPSK调制,然后使用根升余弦进行过采样,再加入高斯噪声作为干扰,经过匹配滤波和欠采样得到56位特征。
其中,QPSK系统模型要传输的一条数据为01比特流,信息位为4位,共8组,即一共为32位。在QPSK系统模型中,在发送端对要传输的数据进行(7,4)汉明编码得到56位,再经过QPSK调制,利用根升余弦进行过采样,每符号采样数为8,之后再加入高斯噪声作为干扰,经过了匹配滤波和欠采样:每8个样本取一个符号,然后得到56位特征,汉明编码得到的56位汉明码则作为标签。经过上述QPSK系统模型所生成的所有特征和对应的标签一起组成第一训练数据集。
在步骤S2的一个更进一步的实施例中,rethink神经网络模型对经过编码和噪声影响的信号的解调具体包括:
对输入的信号进行五次重复向量迭代;
输入第一层网络,第一层网络使用非线性激活函数Relu;
输入第二层网络,第二层网络为长短期记忆神经网络,具有128个神经元,使用激活函数sigmoid;
输入全连接层进行输出,全连接层具有56个神经元。
作为一种进一步优选的方案,预测标签为56位。
具体的,rethink神经网络的结构示意图如图3所示,rethink网络根据输入形状先用重复向量(RepeatVector)迭代5次,再输入到第一层网络,共有128个神经元,采用的激活函数是非线性激活函数Relu。然后输入到第二层网络,采用长短期记忆神经网络(LSTM),共有128个神经元,采用的激活函数是sigmoid。最后一层是全连接层,作为输出层,共有56个神经元。上述网络结构将LSTM网络的输出结果输入到sigmoid层进行计算,使得输入向量中的每个实数被映射为0到1之间的实数,且输出向量中的所有值都在[0,1]的区间里。
上述步骤S3及S4使用rethink神经网络输出五次迭代的结果,并取第五次迭代的结果作为输出结果,为56位浮点数,进行01判决后得到56位预测标签(pre_label),与真实标签(true_label)进行对比,计算得到错误率,从而根据神经网络的输出结果,计算rethink神经网络模型的损失函数。
然后采用Nadam算法对损失函数进行优化,对全连接神经网络模型进行反向传播训练,更新优化各层神经元的参数值以及权重。
在更新过程中调节模型参数,使输出的信息进行01判决得到的预测标签(pre_label)与真实标签(true_label)进行对比,计算出的错误率最小,即完成rethink神经网络模型的训练。
另外,在步骤S6的一个更进一步的实施例中,LSTM_CNN神经网络模型对第一QPSK接收机辅助模型输出的预测标签的译码具体包括:
将输入的预测标签依次输入三层LSTM层,LSTM层使用relu激活函数,具有56个神经元;
输入Conv1D卷积神经网络,Conv1D卷积神经网络使用relu激活函数;
输入Flatten层降维;
输入Dense层进行输出,Dense层使用sigmoid激活函数,具有32个神经元。
具体的,LSTM_CNN的输入数据为Rethink神经网络、也即第一QPSK接收机辅助模型的输出结果,并该输出结果按照9:1的比例划分为训练集和验证集。输入数据形状为(56,1),LSTM_CNN前三层网络均为LSTM网络,均采用relu激活函数,神经元个数均为56,第四层是卷积神经网络Conv1D,采用relu激活函数,第四层是Flatten层,将数据维度变为一维,最后一层是Dense层,激活函数为sigmoid,神经元个数为32。
以下提供本申请的某一实施例中的具体实现过程:
在本实施例中,在步骤S1中我们规定训练集为180万条,其中信噪比-6~2dB(间隔1dB)的数据各20万条,测试集为85万条,其中信噪比-6~2dB(间隔0.5dB)的数据各5万条,步骤S1中要传输的一条数据为01比特流,信息位为4位,共8组,即一共为32位。在发送端对要传输的数据进行(7,4)汉明编码得到56位,再经过QPSK调制,利用根升余弦进行过采样,每符号采样数为8,之后再加入高斯噪声作为干扰,经过了匹配滤波和欠采样:每8个样本取一个符号,然后得到56位特征,汉明编码得到的56位汉明码则作为标签。所有特征和对应的标签一起组成数据集。
在步骤S2中,rethink网络根据输入形状先用重复向量(RepeatVector)迭代5次,再输入到第一层网络,共有128个神经元,采用的激活函数是非线性激活函数Relu。然后输入到第二层网络,采用长短期记忆神经网络(LSTM),共有128个神经元,采用的激活函数是sigmoid。最后一层是全连接层,作为输出层,共有56个神经元。上述网络结构将LSTM网络的输出结果输入到sigmoid层进行计算,使得输入向量中的每个实数被映射为0到1之间的实数,且输出向量中的所有值都在[0,1]的区间里。
在步骤S3及S4使用rethink神经网络输出五次迭代的结果,并取第五次迭代的结果作为输出结果,为56位浮点数,进行01判决后得到56位预测标签(pre_label),与真实标签(true_label)进行对比,计算得到错误率,从而根据神经网络的输出结果,计算rethink神经网络模型的损失函数。
然后采用Nadam算法对损失函数进行优化,对全连接神经网络模型进行反向传播训练,更新优化各层神经元的参数值以及权重。
在更新过程中调节模型参数,使输出的信息进行01判决得到的预测标签(pre_label)与真实标签(true_label)进行对比,计算出的错误率最小,即完成rethink神经网络模型的训练。
Rethink神经网络模型训练完成后,将其输出结果按照9:1的比例划分为训练集和验证集。训练LSTM_CNN神经网络。并根据LSTM_CNN的输出结果,计算出对应的损失函数(Function_loss2)。对于Function_loss2,采用adam优化算法进行优化,通过反向传播算法更新优化每一层网络神经元的权重以及参数值。将新的数据集输入到训练好的LSTM_CNN神经网络中,调节网络参数,将LSTM_CNN神经网络的输出结果与QPSK系统的原始比特流进行比较,比较得到误码率最小时即完成LSTM_CNN神经网络模型的训练。
上述方法所训练的两个模型分别具有解调和信道译码两个小型神经网络,相比于Deepreceiver的深度神经网络,这两个小型神经网络显著减少了网络复杂度、能针对局部进行优化、应用更灵活,性能也在Deepreceiver的基础上得到了进一步提升。上述方法在解调环节设计出一种基于反思结构的神经网络(Rethink),将标签之间的隐藏相关性考虑在内,也运用了多标签分类的思想;在译码环节设计出LSTM_CNN神经网络,对Rethink网络的输出进行了时间和空间上的特征提取,增强了信息处理能力,提高了接收机的信息恢复性能。
第二方面,本申请提供一种基于神经网络级联辅助模型的QPSK接收方法,使用上述实施例的神经网络级联的QPSK接收机辅助模型训练方法所训练的第一QPSK接收机辅助模型和第二QPSK接收机辅助模型,具体包括:
使用第一QPSK接收机辅助模型对经过编码和噪声影响的信号进行解调,生成预测标签;
使用第二QPSK接收机辅助模型对预测标签进行译码,还原得到原码。
上述方法所使用的神经网络级联的QPSK接收机辅助模型,其级联结构示意图如图2所示。
上述实施使用MATLAB R2021b和pycharm 2020、tensorflow1.15.0(python3.6)模拟上述步骤进行仿真实验,计算并绘制出在信噪比0~7dB时,随着信噪比的增加,使用传统硬判决、Deepreceiver智能接收机、本发明的所述的基于神经网络级联的QPSK智能接收机进行解调、译码以及最大似然估计(ML)分别计算出的误码率对比图,如图3所示。
第三方面,本申请提供一种基于神经网络级联辅助模型的QPSK智能接收机,使用上述的基于神经网络辅助模型的QPSK接收方法,其结构示意图如图3所示。
该接收机具有解调和信道译码两个小型神经网络,相比于Deepreceiver的深度神经网络,这两个小型神经网络显著减少了网络复杂度、能针对局部进行优化、应用更灵活,性能也在Deepreceiver的基础上得到了进一步提升。上述方法在解调环节设计出一种基于反思结构的神经网络(Rethink),将标签之间的隐藏相关性考虑在内,也运用了多标签分类的思想;在译码环节设计出LSTM_CNN神经网络,对Rethink网络的输出进行了时间和空间上的特征提取,增强了信息处理能力,提高了接收机的信息恢复性能。。
应当说明的是,上述实施例仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。
Claims (8)
1.一种神经网络级联的QPSK接收机辅助模型训练方法,其特征在于,具体包括如下步骤:
S1、搭建QPSK系统模型,使用所述QPSK系统模型获取第一训练数据集;
S2、搭建rethink神经网络模型,所述rethink神经网络模型用于对经过编码和噪声影响的信号进行解调,生成预测标签;
S3、使用所述第一训练数据集训练所述rethink神经网络模型,优化所述rethink神经网络模型的第一损失函数;
S4、使用Nadam算法优化所述第一损失函数,更新所述rethink神经网络模型的参数,直至所述预测标签与真实标签对比的错误率最小,将更新后的rethink神经网络模型作为第一QPSK接收机辅助模型;
S5、获取所述第一QPSK接收机辅助模型的输出数据作为第二训练数据集;
S6、搭建LSTM_CNN神经网络模型,所述LSTM_CNN神经网络模型用于对所述第一QPSK接收机辅助模型输出的预测标签进行译码;
S7、使用所述第二训练数据集训练所述LSTM_CNN神经网络模型,优化所述LSTM_CNN神经网络模型的第二损失函数;
S8、使用adam算法优化所述第二损失函数,更新所述LSTM_CNN神经网络模型的参数,直至LSTM_CNN神经网络模型的输出与QPSK系统模型的原始比特流对比的误码率最小,将更新后的LSTM_CNN神经网络模型作为第二QPSK接收机辅助模型。
2.如权利要求1所述的一种神经网络级联的QPSK接收机辅助模型训练方法,其特征在于,使用所述QPSK系统模型获取第一训练数据集具体为,使用所述QPSK系统模型对经过汉明编码后的数据进行QPSK调制,然后使用根升余弦进行过采样,再加入高斯噪声作为干扰,经过匹配滤波和欠采样得到56位特征。
3.如权利要求1所述的一种神经网络级联的QPSK接收机辅助模型训练方法,其特征在于,所述rethink神经网络模型对经过编码和噪声影响的信号的解调具体包括:
对输入的信号进行五次重复向量迭代;
输入第一层网络,所述第一层网络使用非线性激活函数Relu;
输入第二层网络,所述第二层网络为长短期记忆神经网络,具有128个神经元,使用激活函数sigmoid;
输入全连接层进行输出,所述全连接层具有56个神经元。
4.如权利要求3所述的一种神经网络级联的QPSK接收机辅助模型训练方法,其特征在于,所述预测标签为56位。
5.如权利要求1所述的一种神经网络级联的QPSK接收机辅助模型训练方法,其特征在于,所述LSTM_CNN神经网络模型对所述第一QPSK接收机辅助模型输出的预测标签的译码具体包括:
将输入的预测标签依次输入三层LSTM层,所述LSTM层使用relu激活函数,具有56个神经元;
输入Conv1D卷积神经网络,所述Conv1D卷积神经网络使用relu激活函数;输入Flatten层降维;
输入Dense层进行输出,所述Dense层使用sigmoid激活函数,具有32个神经元。
6.如权利要求1所述的一种神经网络级联的QPSK接收机辅助模型训练方法,其特征在于,所述第二训练数据集的数据以9:1划分为训练集和验证集。
7.一种神经网络级联辅助模型的QPSK接收方法,使用如权利要求1-5任一项所述的神经网络级联的QPSK接收机辅助模型训练方法所训练的第一QPSK接收机辅助模型和第二QPSK接收机辅助模型,其特征在于,具体包括:
使用所述第一QPSK接收机辅助模型对经过编码和噪声影响的信号进行解调,生成预测标签;
使用所述第二QPSK接收机辅助模型对所述预测标签进行译码,还原得到原码。
8.一种神经网络级联辅助模型的QPSK智能接收机,其特征在于,使用如权利要求7所述的基于神经网络辅助模型的QPSK接收方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310055588.XA CN116055273B (zh) | 2023-01-19 | 一种神经网络级联的qpsk接收机及其辅助模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310055588.XA CN116055273B (zh) | 2023-01-19 | 一种神经网络级联的qpsk接收机及其辅助模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116055273A true CN116055273A (zh) | 2023-05-02 |
CN116055273B CN116055273B (zh) | 2024-06-28 |
Family
ID=
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942100A (zh) * | 2019-11-29 | 2020-03-31 | 山东大学 | 一种基于深度去噪神经网络的空间调制系统的工作方法 |
CN112600772A (zh) * | 2020-12-09 | 2021-04-02 | 齐鲁工业大学 | 一种基于数据驱动神经网络的ofdm信道估计与信号检测方法 |
WO2021181002A1 (en) * | 2020-03-12 | 2021-09-16 | Nokia Solutions And Networks Oy | Radio receiver |
CN113630130A (zh) * | 2021-07-31 | 2021-11-09 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 端到端数字通信解调方法 |
CN113965440A (zh) * | 2021-10-20 | 2022-01-21 | 嘉兴学院 | 一种双通道混合深度神经网络ofdm无线通信盲接收方法 |
CN114268328A (zh) * | 2021-12-02 | 2022-04-01 | 哈尔滨工业大学 | 一种基于双向lstm的卷积码译码方法与卷积码编码和译码方法 |
CN114679363A (zh) * | 2022-04-11 | 2022-06-28 | 浙江工业大学 | 人工智能辅助ofdm接收机的离线学习方法 |
CN114745230A (zh) * | 2022-03-10 | 2022-07-12 | 西安电子科技大学 | 基于深度神经网络结构的otfs信号接收恢复方法 |
US20220353012A1 (en) * | 2019-07-04 | 2022-11-03 | Nokia Technologies Oy | Apparatus, method and sw for harq control |
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220353012A1 (en) * | 2019-07-04 | 2022-11-03 | Nokia Technologies Oy | Apparatus, method and sw for harq control |
CN110942100A (zh) * | 2019-11-29 | 2020-03-31 | 山东大学 | 一种基于深度去噪神经网络的空间调制系统的工作方法 |
WO2021181002A1 (en) * | 2020-03-12 | 2021-09-16 | Nokia Solutions And Networks Oy | Radio receiver |
CN112600772A (zh) * | 2020-12-09 | 2021-04-02 | 齐鲁工业大学 | 一种基于数据驱动神经网络的ofdm信道估计与信号检测方法 |
CN113630130A (zh) * | 2021-07-31 | 2021-11-09 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 端到端数字通信解调方法 |
CN113965440A (zh) * | 2021-10-20 | 2022-01-21 | 嘉兴学院 | 一种双通道混合深度神经网络ofdm无线通信盲接收方法 |
CN114268328A (zh) * | 2021-12-02 | 2022-04-01 | 哈尔滨工业大学 | 一种基于双向lstm的卷积码译码方法与卷积码编码和译码方法 |
CN114745230A (zh) * | 2022-03-10 | 2022-07-12 | 西安电子科技大学 | 基于深度神经网络结构的otfs信号接收恢复方法 |
CN114679363A (zh) * | 2022-04-11 | 2022-06-28 | 浙江工业大学 | 人工智能辅助ofdm接收机的离线学习方法 |
Non-Patent Citations (5)
Title |
---|
ZHENMING YU; XU ZHAO; SIGANG YANG; HONGWEI CHEN; MINGHUA CHEN: "Binarized Coherent Optical Receiver Based on Opto-Electronic Neural Network", IEEE JOURNAL OF SELECTED TOPICS IN QUANTUM ELECTRONICS, 31 December 2020 (2020-12-31) * |
杨梦;侯永宏;: "基于卷积神经网络的多天线Polar码联合解调-解码方案", 重庆邮电大学学报(自然科学版), no. 03, 15 June 2018 (2018-06-15) * |
王威;王培源;彭奇峰;: "基于卷积神经网络STBC调制信号识别", 中国电子科学研究院学报, no. 05, 20 May 2020 (2020-05-20) * |
郑雅文;任佳鑫;刘铭;: "基于深度神经网络的设备身份识别研究", 现代计算机, no. 18, 25 June 2020 (2020-06-25) * |
郭锐;冉凡春;: "基于卷积神经网络的极化码译码算法", 电信科学, no. 06, 20 June 2020 (2020-06-20) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Overfitting and underfitting analysis for deep learning based end-to-end communication systems | |
CN110166391B (zh) | 脉冲噪声下基于深度学习的基带预编码msk信号解调方法 | |
CN110445581B (zh) | 基于卷积神经网络降低信道译码误码率的方法 | |
CN110942100A (zh) | 一种基于深度去噪神经网络的空间调制系统的工作方法 | |
CN112600618B (zh) | 一种基于注意力机制的可见光信号均衡系统及方法 | |
CN109728824B (zh) | 一种基于深度学习的ldpc码迭代译码方法 | |
CN110233810B (zh) | 一种混合噪声下基于深度学习的msk信号解调方法 | |
Mao et al. | Deep learning in physical layer communications: Evolution and prospects in 5G and 6G networks | |
CN116055273B (zh) | 一种神经网络级联的qpsk接收机及其辅助模型训练方法 | |
Liu et al. | A brief review on deep learning in application of communication signal processing | |
CN116055273A (zh) | 一种神经网络级联的qpsk接收机及其辅助模型训练方法 | |
Cao et al. | Learning to denoise and decode: A novel residual neural network decoder for polar codes | |
ElMossallamy et al. | Noncoherent MIMO codes construction using autoencoders | |
CN116405158A (zh) | 一种非高斯噪声下基于深度学习的端到端通信系统 | |
Zhao et al. | An End-to-End Demodulation System Based on Convolutional Neural Networks | |
Tian et al. | A deep convolutional learning method for blind recognition of channel codes | |
CN114584151A (zh) | 基于概率计算的模拟译码电路停止准则的译码方法 | |
CN115952827A (zh) | 一种基于人工智能的qpsk接收机及其辅助模型训练方法 | |
CN108199807B (zh) | 一种极化码可靠性估计方法 | |
CN117880032B (zh) | 一种脉冲噪声下基于新型门控网络的msk解调方法 | |
CN116800572A (zh) | 一种基于深度学习的qpsk接收机及其辅助模型训练方法 | |
CN117375770B (zh) | 一种信道编码识别方法和装置 | |
CN115051734B (zh) | 一种固定复杂度球形译码的改进方法 | |
CN115085780B (zh) | 基于信道反馈的海上高可靠端到端通信自编码器设计方法 | |
CN109639618A (zh) | 一种适用于高阶正交幅度调制信号的低复杂度软输出解调方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |