CN114362859B - 增强条件生成对抗网络的自适应信道建模方法及系统 - Google Patents
增强条件生成对抗网络的自适应信道建模方法及系统 Download PDFInfo
- Publication number
- CN114362859B CN114362859B CN202111683187.6A CN202111683187A CN114362859B CN 114362859 B CN114362859 B CN 114362859B CN 202111683187 A CN202111683187 A CN 202111683187A CN 114362859 B CN114362859 B CN 114362859B
- Authority
- CN
- China
- Prior art keywords
- sequence
- sample
- channel
- input
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 230000003044 adaptive effect Effects 0.000 title claims description 13
- 238000012549 training Methods 0.000 claims abstract description 66
- 238000010276 construction Methods 0.000 claims abstract description 29
- 238000005457 optimization Methods 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims abstract description 21
- 230000008485 antagonism Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 5
- 230000009191 jumping Effects 0.000 claims description 4
- 238000004088 simulation Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 3
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 230000001143 conditioned effect Effects 0.000 claims 1
- 230000006399 behavior Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 44
- 239000010410 layer Substances 0.000 description 23
- 238000004891 communication Methods 0.000 description 10
- 230000002708 enhancing effect Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 108010076504 Protein Sorting Signals Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241001647769 Mirza Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种增强条件生成对抗网络的自适应信道建模方法及系统,方法按如下步骤:步骤S1,初始化生成对抗网络模型,获得信道样本序列;步骤S2,通过先验知识设置潜在变量方法,得到潜在变量序列;步骤S3,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;步骤S4,通过惩罚样本构建方法,得到惩罚样本序列;步骤S5,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;步骤S6,网络对抗训练,输出可模拟真实信道数据分布的生成器模型。本发明选择改进生成对抗网络使其准确地捕捉随机信道行为,实现无需手动假定物理模型的自适应信道建模。
Description
技术领域
本发明属于数字通信技术领域,具体涉及一种增强条件生成对抗网络的自适应信道建模方法及系统。
背景技术
近年来在无线通信领域,对大规模多输入多输出系统(multiple input multipleoutput,MIMO)的信道建模得到了业界的广泛关注和研究。而深度学习(Deep Learning,DL)作为人工智能领域的一个重要分支,被认为是分析测量数据、理解传播过程和构造非线性模型的有力工具。基于深度学习的信道建模具有自适应的特点,网络结构相对固定,如果需要重新对一个无线信道进行建模,只需用不同的数据对其训练就可以做到。Popoola S I等人使用实测数据训练神经网络(Neural Network,NN)模型,以了解输出变量(路径损耗)与输入变量(训练集)之间的非线性关系,从而确定实现最佳路径损耗预测时的输入向量和所需的神经网络参数。SALMAN M A等人优化降维算法提高了深度学习模型的信道建模精度,且证明NN的输出结果优于支持向量机。但,前述现有技术还存在测量数据有限的情况下参数分析困难和建模方法缺乏通用性的技术问题。
发明内容
针对现有技术存在测量数据有限的情况下参数分析困难和建模方法缺乏通用性的问题,本发明提供了一种采用增强条件生成对抗网络的自适应信道建模方法及系统,本发明利用训练序列和相应的接收序列作为条件信息,并利用Wasserstein距离作为分布之间的度量,有效提高GANs的训练稳定性和学习能力;利用先验知识,探讨训练过程中潜在变量的分布,显著增强所提出的增强条件生成对抗网络(Enhanced Conditional Generativeadversarial networks)框架的模拟性能。
为达到上述目的,本发明采用以下技术方案:
一种采用增强条件生成对抗网络的自适应信道建模方法,
按如下步骤:
步骤S1,初始化生成对抗网络模型,获得信道样本序列;
步骤S2,通过先验知识设置潜在变量方法,得到潜在变量序列;
步骤S3,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;
步骤S4,通过惩罚样本构建方法,得到惩罚样本序列;
步骤S5,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;
步骤S6,网络对抗训练,输出可模拟真实信道数据分布的生成器模型。作为优选方案,步骤S1具体如下:
步骤S1.1,按生成对抗网络构建方法执行模型初始化,得到生成器、判别器网络与训练参数集合,包括迭代次数K;
步骤S1.2,根据步骤S1.1所得生成器模型输入维度,对需要建模的随机信道执行采样方法,获得l×N维信道样本序列X。
作为优选方案,步骤S2,将步骤S1.2所得信道样本序列X作为输入参数,按先验知识设置潜在变量方法执行计算,得到服从位置参数μz=0、尺度参数的正态分布2l×N维潜在变量序列Z;
步骤S3,将步骤S1.2所得信道样本序列X作为输入参数,按复数序列重新构造方法执行计算,得到满足神经网络处理要求的2l×N维重构样本序列XR;
步骤S4,将步骤S2所得潜在变量序列Z与步骤S3所得重构样本序列XR作为输入参数,按惩罚样本构建方法,得到2l×N维惩罚样本序列XP;
步骤S5,将步骤S2所得潜在变量序列Z、步骤S3所得重构样本序列XR、步骤S4所得惩罚样本序列XP作为输入参数,按增强条件生成对抗网络误差函数优化方法执行计算,得到1×3维条件输入序列m和生成对抗网络目标函数。
作为优选方案,步骤S6具体步骤如下:
步骤S6.1,将步骤S1.1所得训练参数集合与步骤S2所得潜在变量序列Z、步骤S3所得重构样本序列XR、步骤S4所得惩罚样本序列XP和步骤S5所得条件输入序列m、目标函数作为输入参数,按Adam梯度下降迭代更新方法执行训练;
步骤S6.2,判断是否达到步骤S1.1训练参数集中预设的迭代次数K,若是,则输出可模拟真实信道数据分布的生成器模型G;若否,则跳转至步骤S6.1。
作为优选方案,先验知识设置潜在变量方法,包括以下步骤:
步骤S2.1,采用步骤S1.2所得信道样本数据序列X以l×N维的矩阵形式存在,即X为:
X=[x1,x2,...,xn,...,xN] (1)
其中N为正整数,表示序列长度;l为正整数,表示为每符号x的维度;每个符号x以l×1维的矩阵形式存在,即x为:
x=[x1,x2,...,xl-1,xl]T (2)
计算每个符号x的样本均值,则第n个(n为正整数且(1≤n≤N))符号xn的均值为:
计算每个符号x的样本方差,则第n个符号xn的方差为:
将X的样本方差集合作为输入参数,组成先验知识序列I,以1×N维的矩阵形式存在,即I为:
步骤S2.2,每一训练批次输入的原潜在变量序列Zp服从标准正态分布Zp~N(0,1),为使其近似于信道数据分布pdata,将序列Z的方差更改为序列I的均值μI:
输出优化后的2l×N维潜在变量序列Z,服从位置参数μz=0、尺度参数的正态分布。
作为优选方案,复数序列重新构造方法的方法,包括以下步骤:
步骤S3.1,采用步骤S1.2所得信道样本序列X,当其由复数构成时,因为神经网络不能直接处理复数,所以不满足输入要求,因此定义重构函数fR(x)。
给定第n个复数序列符号xn=[a1+b1j,...,al+blj]T,其中a、b皆为实数,重构函数fR(x)为:
fR(x)=[a1,b1,a2,b2...,al-1,bl-1,al,bl]T (7)
步骤S3.2,将信道样本序列X作为输入参数,采用步骤S3.1所定义的重构函数fR(x)方法执行计算,得到2l×N维重构样本序列XR。
作为优选方案,增强条件生成对抗网络误差函数优化方法采用以下步骤:
步骤S5.1,采用步骤S2所得潜在变量序列Z、步骤S3所得重构样本序列XR、步骤S4所得惩罚样本序列XP,通过式(3)、(4)计算其对应方差
步骤S5.2,将步骤S5.1所得方差分别作为三个条件信息/>mZ、构建条件输入序列
步骤S5.3,将潜在变量序列Z、重构样本序列XR、惩罚样本序列XP与其对应条件信息结合,构成(Z,m)、(XR,m)、(XP,m),要求生成器按条件输入序列的约束来生成相应的数据。生成器训练目标函数优化为:
其中,G代表生成器,D代表判别器,pdata(x)表示为步骤S2所得信道样本数据分布,pz(z)表示为步骤S3所得潜在变量数据分布。G(z)是生成器的输出,即2l×N维模拟样本序列XG,它也是判别器的输入;D(G(z))是判别器的输出,即模拟样本为真实信道样本的概率。考虑到一项与生成器无关,因此生成器的训练目标函数优化为:
步骤S5.4,采用步骤S4所得惩罚样本序列XP,在鉴别器的优化函数中引入梯度惩罚项GP(D)计算为:
其中ppenalty(x)表示为步骤S3所得惩罚样本数据分布。结合条件输入序列m,要求判别器判断生成的数据是否符合条件约束,若生成一组比较真实但并不满足条件信息的序列,仍然判定为不合格。判别器训练目标函数优化为:
其中,G代表生成器,D代表判别器,λ为实数,表示为梯度惩罚系数,可取值为1等。增强条件生成对抗网络的目标函数优化为:
当输入步骤S2.2所述的潜在变量序列Z、步骤S3.2所述的重构样本序列XR和步骤S1.1所述的条件输入序列m后,生成器和判别器依次采用Adam梯度下降迭代更新方法执行训练,达到步骤S1.1所设的迭代次数,得到近似信道响应效果良好的生成器模型G,即本发明最后的结果。
增强条件生成对抗网络的自适应信道建模系统,其特征在于包括如下模块:
初始化模块,初始化生成对抗网络模型,获得信道样本序列;
先验知识设置潜在变量模块,通过先验知识设置潜在变量方法,得到潜在变量序列;
复数序列重新构造模块,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;
惩罚样本构建模块,通过惩罚样本构建方法,得到惩罚样本序列;
增强条件生成对抗网络误差函数优化模块,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;
网络对抗训练模块,网络对抗训练,输出可模拟真实信道数据分布的生成器模型。
与现有技术相比,本发明有益效果如下:
本发明应用于通信系统,涉及一种生成对抗网络的近似信道响应方法,其结合先验知识优化潜在变量分布、改进网络训练目标函数方法,实现了一种增强条件生成对抗网络的自适应信道建模的技术方案。针对目前测量数据匮乏情况下信道参数分析困难的问题,本发明提出了生成对抗网络近似信道响应的模拟建模方案,本发明选择利用训练序列和相应的接收序列作为条件信息,并引入梯度惩罚项,降低了网络不收敛概率;并且联合先验知识设定训练过程中潜在变量的分布,提高了系统模拟性能。
附图说明
图1为本发明实施例的增强条件生成对抗网络的自适应信道建模方法流程图;
图2为本发明实施例先验知识优化潜在变量分布步骤流程图;
图3为本发明实施例增强条件生成对抗网络框架图;
图4为本发明实施例增强条件生成对抗网络的训练方法步骤流程图;
图5为本发明实施例深度学习端到端自编码器结构图;
图6为本发明实施例通信系统还原原始信息步骤流程图;
图7为本发明实施例的增强条件生成对抗网络的自适应信道建模系统框图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。
本发明所提供的采用增强条件生成对抗网络的自适应信道建模方案可用于信息与通信工程技术领域,并不局限于以下实施例所详细说明的通信领域。下面选取典型领域说明本发明的具体实施方式。
本发明涉及背景技术如下:
1.生成对抗网络构建方法
生成对抗网络(Generative Adversarial Network,GAN)由Goodfellow等人在2014年提出,它的思想是一种二人零和博弈思想,博弈双方的利益之和是一个常数,它主要由生成网络G和判决网络D两部分组成。G是一个数据生成网络,它通过输入一个随机噪声z生成数据样本,然后将生成的数据样本与真实数据进行比对,使得输出数据样本越来越接近于真实数据,从而捕捉真实数据分布Pdata;D是一个二分类判决网络,它通过学习真实数据以及G生成的虚假数据来判断一个样本是否来自与真实数据。生成对抗网络原理与构建方法具体见“Goodfellow IJ,Pouget-Abadie J,Mirza M,et al.Generative AdversarialNetworks[J].Advances in Neural Information Processing Systems,2014,3:2672-2680.”。
2.采样方法
在信号处理领域,采样是将信号从连续时间域上的模拟信号转换到离散时间域上的离散信号的过程,以采样器实现。通常采样与量化联合进行,模拟信号先由采样器按照一定时间间隔采样获得时间上离散的信号,再经模数转换器(ADC)在数值上也进行离散化,从而得到数值和时间上都离散的数字信号。关于采样的原理与方法具体见“C.E.Shannon,"Communication in the presence of noise",Proc.Institute of Radio Engineers,vol.37,no.1,pp.10-21,Jan.1949.”。
3.惩罚样本构建方法
I.Gulrajani等人为解决传统GAN训练不稳定的问题,提出了GAN的变体WGAN-GP,定义出惩罚样本抽取数据的空间分布Psample,要求从Psample中抽取的样本数据xpsample对应的小于1即可,该空间外的数据就不再理会。样本xpsample是通过两部分相加得到的,其中一部分是将随机数t∈U(0,1)与实际样本x∈pdata(x)相乘,另一部分是将(1-t)与模拟样本x∈pg(x)相乘:
关于惩罚样本构建的原理与方法具体见“I.Gulrajani,F.Ahmed,M.Arjovsky,V.Dumoulin,and A.C.Courville,“Improved training of wasserstein gans,”inAdvances in Neural Information Processing Systems.Red Hook,NY,USA:Curran,2017,pp.5767–5777.”
4.Adam梯度下降迭代更新训练方法
Adam是一种基于一阶梯度的随机目标函数的优化算法,采用对低阶矩的自适应估计。该方法简单易行,计算效率高,对内存的要求不高,对梯度的对角线重构没有影响,并且非常适合于数据和参数较大的问题。该方法也适用于非稳态目标和具有非常嘈杂和稀疏梯度的问题。超参数有直观的解释,通常不需要进行调整。关于Adam梯度下降迭代更新训练的原理与方法具体见“D.P.Kingma and J.Ba,“Adam:A method for stochasticoptimization,”2014.[Online].Available:arXiv:1412.6980.”。
实施例一
如图1所示,本实施例增强条件生成对抗网络的自适应信道建模方法,具体步骤如下:
(1)初始化增强条件生成对抗网络模型步骤
步骤1.1,设定生成器模型,包括若干层卷积神经网络与单层变分神经网络;设定判别器模型,包括若干层深度神经网络和全连接层。其中,每一层主要由全连接(fullyconnected layers,FC)整流线性单元(Rectified Linear Unit,ReLU)层组成,其中单个FC-ReLU层的传递函数为:
图层输出值根据输入值/>权重向量/>偏置向量/>计算所得图层输出值同时整流器起非线性的作用。其中i表示层索引,k表示输入索引,j表示输出索引。在判决器的输出处使用没有ReLU激活的等效FC层,信道近似层为:
每个网络确定参数θ,权重值与偏置值/>决定每个网络层的输出。
步骤1.2,将步骤1.1.1所得生成器与判别器网络模型参数集θG与θD初始化,同时初始化固定参数包括梯度下降批量大小、采样大小、学习率、训练周期、迭代次数。动量设置为α,α为实数,可取值为0.5等;学习率为β,β为实数,可取值为0.0015等;每批次样本数量γ个,γ为实数,可取值为24等;训练批次数为δ次,δ为正整数,取值范围为1000至3000。
(2)先验知识设置潜在变量方法
步骤2.1,采用步骤1.1.2所得信道样本数据序列X以l×N维的矩阵形式存在,即X为:
X=[x1,x2,...,xn,...,xN] (17)
其中N为正整数,表示序列长度;l为正整数,表示为每符号x的维度;每个符号x以l×1维的矩阵形式存在,即x为:
x=[x1,x2,...,xl-1,xl]T (18)
计算每个符号x的样本均值,则第n个(n为正整数且(1≤n≤N))符号xn的均值为:
计算每个符号x的样本方差,则第n个符号xn的方差为:
将X的样本方差集合作为输入参数,组成先验知识序列I,以1×N维的矩阵形式存在,即I为:
步骤2.2,每一训练批次输入的原潜在变量序列Zp服从标准正态分布Zp~N(0,1),为使其近似于信道数据分布pdata,将序列Z的方差更改为序列I的均值μI:
输出优化后的2l×N维潜在变量序列Z,服从位置参数μz=0、尺度参数的正态分布。
(3)样本数据预处理的方法
步骤3.1,采用步骤1.1.2所得信道样本序列X,当其由复数构成时,因为神经网络不能直接处理复数,所以不满足输入要求,因此定义重构函数fR(x)。
给定第n个复数序列符号xn=[a1+b1j,...,al+blj]T,其中a、b皆为实数,重构函数fR(x)为:
fR(x)=[a1,b1,a2,b2...,al-1,bl-1,al,bl]T (23)
步骤3.2,将信道样本序列X作为输入参数,采用步骤3.1所定义的重构函数fR(x)方法执行计算,得到2l×N维重构样本序列XR。
步骤3.3,为解决GAN训练不稳定的问题,对判别器目标函数加上了1-Lipschitz约束,将判别器参数更新后的值限制在(-c,c)范围内的方式,强行让判别器的目标函数变得平滑,其中c为实数,可取值为1等。当判别器D服从1-Lipschitz约束时,等价于判别器D在任意地方的梯度都小于1,表达如下:
现在已知两者是等价的,那么当直接实现让判别器D服从1-Lipschitz约束比较困难时,可以实现这种等价方式,即判别器D对于所有的输入x,其梯度都小于1,那么可以将判别器D的目标函数修改成如下形式。
的作用类似正则项,惩罚梯度更新时大于1的行为。这其实就要求判别器的所有输入对应/>都要小于1,但要获得所有x的是不可能的,无法遍历整个数据空间抽取出其中的所有数据。因此定义出惩罚样本抽取数据的空间分布Psample,要求从Psample中抽取的样本数据xpsample对应的/>小于1即可,该空间外的数据就不再理会。样本xpsample是通过两部分相加得到的,其中一部分是将随机数t∈U(0,1)与步骤3.1所得实际样本x∈pdata(x)相乘,另一部分是将(1-t)与模拟样本x∈pg(x)相乘:
(4)改进网络训练误差函数方法
步骤4.1,采用步骤1.3所得潜在变量序列Z、步骤1.4.1所得重构样本序列XR、步骤1.4.2所得惩罚样本序列XP,通过式(3)、(4)计算其对应方差
步骤4.2,将步骤4.1所得方差分别作为三个条件信息/>mZ、/>构建条件输入序列
步骤4.3,将潜在变量序列Z、重构样本序列XR、惩罚样本序列XP与其对应条件信息结合,构成(Z,m)、(XR,m)、(XP,m),要求生成器按条件输入序列的约束来生成相应的数据。生成器训练目标函数优化为:
其中,G代表生成器,D代表判别器,pdata(x)表示为步骤1.2所得信道样本数据分布,pz(z)表示为步骤1.3所得潜在变量数据分布。G(z)是生成器的输出,即2l×N维模拟样本序列XG,它也是判别器的输入;D(G(z))是判别器的输出,即模拟样本为真实信道样本的概率。考虑到一项与生成器无关,因此生成器的训练目标函数优化为:
步骤4.4,采用步骤1.4.2所得惩罚样本序列XP,在鉴别器的优化函数中引入梯度惩罚项GP(D)计算为:
其中ppenalty(x)表示为步骤1.3所得惩罚样本数据分布。结合条件输入序列m,要求判别器判断生成的数据是否符合条件约束,若生成一组比较真实但并不满足条件信息的序列,仍然判定为不合格。判别器训练目标函数优化为:
其中,G代表生成器,D代表判别器,λ为实数,表示为梯度惩罚系数,可取值为1等。增强条件生成对抗网络的目标函数优化为:
(5)增强生成对抗网络训练方法步骤
步骤5.1,如图4所示,每一轮训练,先训练判别器K次,然后相应地训练一次生成器,K可取值为10等。固定生成器参数θG,训练判别器参数θD。从步骤1.2所得真实数据空间pdata中抽取N个样本经步骤3.1处理得到x1,x2,...,xN,从步骤2.2所在潜在变量空间随机获取数据zi,输入生成器得到相应的数据样本G(zi):
以(34)给出的随机梯度最小化网络参数,使判别器的目标函数最大化。
步骤5.2,固定判别器参数,训练生成器。从步骤2.2所在潜在变量空间随机获取数据zi,生成器zi使用生成数据G(zi)。以(35)给出的随机梯度更新生成器参数,使生成器的目标函数最小化。
步骤5.3,判断是否达到步骤1.2所设迭代次数,是则进入步骤1.6,否则跳转至步骤5.1。
(6)采用增强生成对抗网络构建端到端自编码器系统步骤
步骤6.1,构建端到端通信系统,如图5所示,由发射机、信道和接收机三部分组成,其中发射机包含调制器,接收机包含解调器。
步骤6.2,步骤6.1所构成系统的发射机由a个一维卷积层和1个功率归一化层组成,其中a可取值为4等。输入的消息序列S经过由卷积层构成的调制器进入调制阶段,调制后的信号经功率归一化层能量约束后进入信道。
步骤6.2,步骤6.1所构成系统的发射机由a个一维卷积层和1个功率归一化层组成,其中a可取值为4等。输入的消息序列S经过由卷积层构成的调制器进入调制阶段,调制后的信号序列X经功率归一化层能量约束后进入信道。
步骤6.3,针对步骤6.1所构成系统的信道部分,引入步骤5.3所得训练完毕生成器网络G作信道建模,输出模拟接收序列YpG。
步骤6.4,步骤6.1所构成系统的接收机由b个卷积层组成,其中b可取值为5等,能够接收经过信道后具有失真和噪声污染的信号:
y=h(x)+n (36)
其中h代表信道特性,n是方差为σ2的加性高斯白噪声。
接收机对步骤6.1所得模拟信号序列YpG解调,以估计原始的比特流S,生成序列
如图1所示,本发明实施例采用增强条件生成对抗网络的自适应信道建模方法,主要通过以下步骤完成:步骤S1,初始化生成对抗网络模型,获得信道样本序列;步骤S2,通过先验知识设置潜在变量方法,得到潜在变量序列;步骤S3,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;步骤S4,通过惩罚样本构建方法,得到惩罚样本序列;步骤S5,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;步骤S6,网络对抗训练,输出可模拟真实信道数据分布的生成器模型。
图2为先验知识优化潜在变量分布步骤流程图。通过计算真实样本的统计信息,构建先验知识,设真实样本分布的方差等价于潜在变量分布的方差。根据信道数据样本Y,计算每个符号y的样本方差,则第n个符号yn的方差为:
其中表示符号yn的样本均值:
将样本序列Y的统计信息作为先验知识I,使潜在变量Z的分布pZ从其中近似,设序列Y的样本方差的均值为分布的pZ方差
使潜在变量的分布从中获益,增强网络的学习能力。
图3为增强条件生成对抗网络框架图。其改进之处在于网络的输入处添加了样本与条件的结合,可以更好地区分不同标签的样本,减少了数据空间的混叠现象。构造了惩罚样本空间,引入梯度惩罚项,解决训练困难、收敛缓慢的问题,起到增强学习能力的作用。
图4为增强条件生成对抗网络的训练方法步骤流程图。
每一轮训练,先训练判别器K次,然后相应地训练一次生成器,K可取值为10等。固定生成器参数θG,训练判别器参数θD。从真实数据空间pdata中抽取N个样本经步骤3.1处理得到x1,x2,...,xN,从步骤2.2所在潜在变量空间随机获取数据zi,输入生成器得到相应的数据样本G(zi)更新判别器参数θD,使判别器的目标函数最大化。再固定判别器参数,训练生成器。从步骤2.2所在潜在变量空间随机获取数据zi,生成器zi使用生成数据G(zi)。更新生成器参数,使生成器的目标函数最小化。最后判断是否达到预设迭代次数,是则提取生成器参数集,否则跳转至新一轮训练。
图5为深度学习端到端自编码器结构图。由发射机、信道和接收机三部分组成,其中发射机包含调制器,接收机包含解调器。其中的信道传输功能由所提增强条件生成对抗网络信道建模方法实现。
图6为通信系统还原原始信息步骤流程图。输入的消息序列S经过由卷积层构成的调制器进入调制阶段,调制后的信号序列X经功率归一化层能量约束后进入信道。信道部分训练完毕生成器网络G作信道建模,输出模拟接收序列接收机对步骤6.1所得模拟信号序列/>解调,以估计原始的比特流S,生成序列/>
实施例二
如图7所示,本实施例增强条件生成对抗网络的自适应信道建模系统,包括如下模块:
初始化模块,初始化生成对抗网络模型,获得信道样本序列;
先验知识设置潜在变量模块,通过先验知识设置潜在变量方法,得到潜在变量序列;
复数序列重新构造模块,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;
惩罚样本构建模块,通过惩罚样本构建方法,得到惩罚样本序列;
增强条件生成对抗网络误差函数优化模块,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;
网络对抗训练模块,网络对抗训练,输出可模拟真实信道数据分布的生成器模型。
综上,本发明属于数字通信领域,具体涉及一种增强条件生成对抗网络的自适应信道建模方案,主要采用以下步骤:步骤S1,初始化生成对抗网络模型,获得信道样本序列;步骤S2,通过先验知识设置潜在变量方法,得到潜在变量序列;步骤S3,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;步骤S4,通过惩罚样本构建方法,得到惩罚样本序列;步骤S5,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;步骤S6,网络对抗训练,输出可模拟真实信道数据分布的生成器模型。本发明选择改进生成对抗网络使其准确地捕捉随机信道行为,实现无需手动假定物理模型的自适应信道建模。
Claims (2)
1.增强条件生成对抗网络的自适应信道建模方法,其特征在于按如下步骤:
步骤S1,初始化生成对抗网络模型,获得信道样本序列;
步骤S2,通过先验知识设置潜在变量方法,得到潜在变量序列;
步骤S3,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;
步骤S4,通过惩罚样本构建方法,得到惩罚样本序列;
步骤S5,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;
步骤S6,网络对抗训练,输出能模拟真实信道数据分布的生成器模型;
步骤S1具体如下:
步骤S1.1,按生成对抗网络构建方法执行模型初始化,得到生成器模型、判别器网络与训练参数集合,包括迭代次数K;
步骤S1.2,根据步骤S1.1所得生成器模型输入维度,对需要建模的随机信道执行采样方法,获得l×N维信道样本序列X;
步骤S2,将步骤S1.2所得信道样本序列X作为输入参数,按先验知识设置潜在变量方法执行计算,得到服从位置参数μz=0、尺度参数的正态分布2l×N维潜在变量序列Z;
步骤S3,将步骤S1.2所得信道样本序列X作为输入参数,按复数序列重新构造方法执行计算,得到满足神经网络处理要求的2l×N维重构样本序列XR;
步骤S4,将步骤S2所得潜在变量序列Z与步骤S3所得重构样本序列XR作为输入参数,按惩罚样本构建方法,得到2l×N维惩罚样本序列XP;
步骤S5,将步骤S2所得潜在变量序列Z、步骤S3所得重构样本序列XR、步骤S4所得惩罚样本序列XP作为输入参数,按增强条件生成对抗网络误差函数优化方法执行计算,得到1×3维条件输入序列m和生成对抗网络目标函数;
步骤S6具体步骤如下:
步骤S6.1,将步骤S1.1所得训练参数集合与步骤S2所得潜在变量序列Z、步骤S3所得重构样本序列XR、步骤S4所得惩罚样本序列XP和步骤S5所得条件输入序列m、目标函数作为输入参数,按Adam梯度下降迭代更新方法执行训练;
步骤S6.2,判断是否达到步骤S1.1训练参数集中预设的迭代次数K,若是,则输出能模拟真实信道数据分布的生成器模型G;若否,则跳转至步骤S6.1;
所述先验知识设置潜在变量方法采用以下步骤:
步骤S2.1,采用步骤S1.2所得信道样本序列X以l×N维的矩阵形式存在,即X为:
X=[x1,x2,...,xn,...,xN] (1)
其中,N为正整数,表示序列长度;l为正整数,表示为每符号x的维度;每个符号x以l×1维的矩阵形式存在,即x为:
x=[x1,x2,...,xl-1,xl]T (2)
计算每个符号x的样本均值,则第n个符号xn的均值为:
n为正整数且1≤n≤N;i是层索引;
计算每个符号x的样本方差,则第n个符号xn的方差为:
将X的样本方差集合作为输入参数,组成先验知识序列I,以1×N维的矩阵形式存在,即I为:
步骤S2.2,每一训练批次输入的原潜在变量序列Zp服从标准正态分布Zp~N(0,1),为使其近似于信道数据分布pdata,将序列Z的方差更改为序列I的均值μI:
j是输出索引;
输出优化后的2l×N维潜在变量序列Z,服从位置参数μz=0、尺度参数的正态分布;
所述复数序列重新构造方法采用以下步骤:
步骤S3.1,采用步骤S1.2所得信道样本序列X,当其由复数构成时,因为神经网络不能直接处理复数,所以不满足输入要求,因此定义重构函数fR(x);
给定第n个复数序列符号xn=[a1+b1j,...,al+blj]T,其中a、b皆为实数,重构函数fR(x)为:
fR(x)=[a1,b1,a2,b2...,al-1,bl-1,al,bl]T (7)
步骤S3.2,将信道样本序列X作为输入参数,采用步骤S3.1所定义的重构函数fR(x)方法执行计算,得到2l×N维重构样本序列XR;
所述增强条件生成对抗网络误差函数优化方法采用以下步骤:
步骤S5.1,采用步骤S2所得潜在变量序列Z、步骤S3所得重构样本序列XR、步骤S4所得惩罚样本序列XP,通过式(3)、(4)计算其对应方差
步骤S5.2,将步骤S5.1所得方差分别作为三个条件信息/>mZ、/>构建条件输入序列
步骤S5.3,将潜在变量序列Z、重构样本序列XR、惩罚样本序列XP与其对应条件信息结合,构成(Z,m)、(XR,m)、(XP,m),要求生成器模型按条件输入序列的约束来生成相应的数据;生成器模型训练目标函数优化为:
其中,G代表生成器模型,D代表判别器,pdata(x)表示为步骤S2所得信道样本数据分布,pz(z)表示为步骤S3所得潜在变量数据分布;G(z)是生成器模型的输出,即2l×N维模拟样本序列XG,也是判别器的输入;D(G(z))是判别器的输出,即模拟样本为真实信道样本的概率;考虑到一项与生成器模型无关,因此生成器模型的训练目标函数优化为:
步骤S5.4,采用步骤S4所得惩罚样本序列XP,在鉴别器的优化函数中引入梯度惩罚项GP(D)计算为:
其中,ppenalty(x)表示为步骤S3所得惩罚样本数据分布;结合条件输入序列m,要求判别器判断生成的数据是否符合条件约束;判别器训练目标函数优化为:
其中,λ为实数,表示为梯度惩罚系数,取值为1;增强条件生成对抗网络的目标函数优化为:
当输入步骤S2.2所述的潜在变量序列Z、步骤S3.2所述的重构样本序列XR和步骤S5所述的条件输入序列m后,生成器模型和判别器依次采用Adam梯度下降迭代更新方法执行训练,达到步骤S1.1所设的迭代次数,得到近似信道响应效果良好的生成器模型G。
2.增强条件生成对抗网络的自适应信道建模系统,其特征在于包括如下模块:
初始化模块,初始化生成对抗网络模型,获得信道样本序列;
先验知识设置潜在变量模块,通过先验知识设置潜在变量方法,得到潜在变量序列;
复数序列重新构造模块,通过复数序列重新构造方法,得到满足神经网络处理要求的重构样本序列;
惩罚样本构建模块,通过惩罚样本构建方法,得到惩罚样本序列;
增强条件生成对抗网络误差函数优化模块,通过增强条件生成对抗网络误差函数优化方法,得到输入序列和生成对抗网络目标函数;
网络对抗训练模块,网络对抗训练,输出能模拟真实信道数据分布的生成器模型;
初始化模块具体执行如下:
步骤S1.1,按生成对抗网络构建方法执行模型初始化,得到生成器模型、判别器网络与训练参数集合,包括迭代次数K;
步骤S1.2,根据步骤S1.1所得生成器模型输入维度,对需要建模的随机信道执行采样方法,获得l×N维信道样本序列X;
先验知识设置潜在变量模块具体如下,将步骤S1.2所得信道样本序列X作为输入参数,按先验知识设置潜在变量方法执行计算,得到服从位置参数μz=0、尺度参数的正态分布2l×N维潜在变量序列Z;
复数序列重新构造模块具体如下,将步骤S1.2所得信道样本序列X作为输入参数,按复数序列重新构造方法执行计算,得到满足神经网络处理要求的2l×N维重构样本序列XR;
惩罚样本构建模块具体如下,将先验知识设置潜在变量模块所得潜在变量序列Z与复数序列重新构造模块所得重构样本序列XR作为输入参数,按惩罚样本构建方法,得到2l×N维惩罚样本序列XP;
增强条件生成对抗网络误差函数优化模块,将先验知识设置潜在变量模块所得潜在变量序列Z、复数序列重新构造模块所得重构样本序列XR、惩罚样本构建模块所得惩罚样本序列XP作为输入参数,按增强条件生成对抗网络误差函数优化方法执行计算,得到1×3维条件输入序列m和生成对抗网络目标函数;
网络对抗训练模块具体执行如下:
步骤S6.1,将步骤S1.1所得训练参数集合与先验知识设置潜在变量模块所得潜在变量序列Z、复数序列重新构造模块所得重构样本序列XR、惩罚样本构建模块所得惩罚样本序列XP和增强条件生成对抗网络误差函数优化模块所得条件输入序列m、目标函数作为输入参数,按Adam梯度下降迭代更新方法执行训练;
步骤S6.2,判断是否达到步骤S1.1训练参数集中预设的迭代次数K,若是,则输出能模拟真实信道数据分布的生成器模型G;若否,则跳转至步骤S6.1;
所述先验知识设置潜在变量方法采用以下步骤:
步骤S2.1,采用步骤S1.2所得信道样本序列X以l×N维的矩阵形式存在,即X为:
X=[x1,x2,...,xn,...,xN] (1)
其中,N为正整数,表示序列长度;l为正整数,表示为每符号x的维度;每个符号x以l×1维的矩阵形式存在,即x为:
x=[x1,x2,...,xl-1,xl]T (2)
计算每个符号x的样本均值,则第n个符号xn的均值为:
n为正整数且1≤n≤N;i是层索引;
计算每个符号x的样本方差,则第n个符号xn的方差为:
将X的样本方差集合作为输入参数,组成先验知识序列I,以1×N维的矩阵形式存在,即I为:
步骤S2.2,每一训练批次输入的原潜在变量序列Zp服从标准正态分布Zp~N(0,1),为使其近似于信道数据分布pdata,将序列Z的方差更改为序列I的均值μI:
j是输出索引;
输出优化后的2l×N维潜在变量序列Z,服从位置参数μz=0、尺度参数的正态分布;
所述复数序列重新构造方法采用以下步骤:
步骤S3.1,采用步骤S1.2所得信道样本序列X,当其由复数构成时,因为神经网络不能直接处理复数,所以不满足输入要求,因此定义重构函数fR(x);
给定第n个复数序列符号xn=[a1+b1j,...,al+blj]T,其中a、b皆为实数,重构函数fR(x)为:
fR(x)=[a1,b1,a2,b2...,al-1,bl-1,al,bl]T (7)
步骤S3.2,将信道样本序列X作为输入参数,采用步骤S3.1所定义的重构函数fR(x)方法执行计算,得到2l×N维重构样本序列XR;
所述增强条件生成对抗网络误差函数优化方法采用以下步骤:
步骤S5.1,采用先验知识设置潜在变量模块所得潜在变量序列Z、复数序列重新构造模块所得重构样本序列XR、惩罚样本构建模块所得惩罚样本序列XP,通过式(3)、(4)计算其对应方差
步骤S5.2,将步骤S5.1所得方差分别作为三个条件信息/>mZ、/>构建条件输入序列
步骤S5.3,将潜在变量序列Z、重构样本序列XR、惩罚样本序列XP与其对应条件信息结合,构成(Z,m)、(XR,m)、(XP,m),要求生成器模型按条件输入序列的约束来生成相应的数据;生成器模型训练目标函数优化为:
其中,G代表生成器模型,D代表判别器,pdata(x)表示为先验知识设置潜在变量模块所得信道样本数据分布,pz(z)表示为复数序列重新构造模块所得潜在变量数据分布;G(z)是生成器模型的输出,即2l×N维模拟样本序列XG,也是判别器的输入;D(G(z))是判别器的输出,即模拟样本为真实信道样本的概率;考虑到一项与生成器模型无关,因此生成器模型的训练目标函数优化为:
步骤S5.4,采用惩罚样本构建模块所得惩罚样本序列XP,在鉴别器的优化函数中引入梯度惩罚项GP(D)计算为:
其中,ppenalty(x)表示为复数序列重新构造模块所得惩罚样本数据分布;结合条件输入序列m,要求判别器判断生成的数据是否符合条件约束;判别器训练目标函数优化为:
其中,λ为实数,表示为梯度惩罚系数,取值为1;增强条件生成对抗网络的目标函数优化为:
当输入步骤S2.2所述的潜在变量序列Z、步骤S3.2所述的重构样本序列XR和步骤S5所述的条件输入序列m后,生成器模型和判别器依次采用Adam梯度下降迭代更新方法执行训练,达到步骤S1.1所设的迭代次数,得到近似信道响应效果良好的生成器模型G。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111683187.6A CN114362859B (zh) | 2021-12-28 | 2021-12-28 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111683187.6A CN114362859B (zh) | 2021-12-28 | 2021-12-28 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114362859A CN114362859A (zh) | 2022-04-15 |
CN114362859B true CN114362859B (zh) | 2024-03-29 |
Family
ID=81105093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111683187.6A Active CN114362859B (zh) | 2021-12-28 | 2021-12-28 | 增强条件生成对抗网络的自适应信道建模方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114362859B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114785423B (zh) * | 2022-06-20 | 2022-11-01 | 中国海洋大学三亚海洋研究院 | 一种水下激光数字信息传输增强模型的搭建方法 |
CN114866158B (zh) * | 2022-07-07 | 2022-11-01 | 中国海洋大学三亚海洋研究院 | 一种水下激光数字通信系统信道建模和模拟方法 |
CN115270891A (zh) * | 2022-08-22 | 2022-11-01 | 苏州大学 | 一种信号对抗样本的生成方法、装置、设备及存储介质 |
CN116996148A (zh) * | 2023-07-17 | 2023-11-03 | 哈尔滨工程大学 | 基于生成对抗网络的极地环境水下声信道建模方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108597496A (zh) * | 2018-05-07 | 2018-09-28 | 广州势必可赢网络科技有限公司 | 一种基于生成式对抗网络的语音生成方法及装置 |
CN110472280A (zh) * | 2019-07-10 | 2019-11-19 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN113381828A (zh) * | 2021-06-08 | 2021-09-10 | 哈尔滨工业大学 | 基于条件生成对抗网络的稀疏码多址接入随机信道建模方法 |
CN113381952A (zh) * | 2021-06-09 | 2021-09-10 | 东南大学 | 基于深度学习的多天线系统信道估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783198B2 (en) * | 2020-04-03 | 2023-10-10 | Baidu Usa Llc | Estimating the implicit likelihoods of generative adversarial networks |
-
2021
- 2021-12-28 CN CN202111683187.6A patent/CN114362859B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108597496A (zh) * | 2018-05-07 | 2018-09-28 | 广州势必可赢网络科技有限公司 | 一种基于生成式对抗网络的语音生成方法及装置 |
CN110472280A (zh) * | 2019-07-10 | 2019-11-19 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN113381828A (zh) * | 2021-06-08 | 2021-09-10 | 哈尔滨工业大学 | 基于条件生成对抗网络的稀疏码多址接入随机信道建模方法 |
CN113381952A (zh) * | 2021-06-09 | 2021-09-10 | 东南大学 | 基于深度学习的多天线系统信道估计方法 |
Non-Patent Citations (1)
Title |
---|
基于射频功放非线性建模的欺骗干扰识别;甘一鸣等;舰船电子对抗;20140825;第37卷(第4期);1-4, 9 * |
Also Published As
Publication number | Publication date |
---|---|
CN114362859A (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114362859B (zh) | 增强条件生成对抗网络的自适应信道建模方法及系统 | |
CN109063939B (zh) | 一种基于邻域门长短期记忆网络的风速预测方法及系统 | |
CN113381828B (zh) | 基于条件生成对抗网络的稀疏码多址接入随机信道建模方法 | |
CN110601777B (zh) | 一种低轨移动卫星星座下星地下行链路同频干扰估计方法 | |
CN103888391B (zh) | 基于双Sigmoid混沌神经网络的信号盲检测方法 | |
CN116523079A (zh) | 一种基于强化学习联邦学习优化方法及系统 | |
Han et al. | Network traffic prediction using variational mode decomposition and multi-reservoirs echo state network | |
CN111464469B (zh) | 基于神经网络的混合数字调制方式识别方法 | |
Xiang et al. | A new hybrid network traffic prediction method | |
CN111461445B (zh) | 短期风速预测方法、装置、计算机设备及存储介质 | |
CN112115821B (zh) | 一种基于小波近似系数熵的多信号智能调制模式识别方法 | |
CN114268388B (zh) | 一种在大规模mimo中基于改进gan网络的信道估计方法 | |
CN115659254A (zh) | 一种双模态特征融合的配电网电能质量扰动分析方法 | |
CN112217545A (zh) | 一种大规模mimo系统检测模型构建方法 | |
Kim et al. | Learnable MIMO detection networks based on inexact ADMM | |
CN113627597B (zh) | 一种基于通用扰动的对抗样本生成方法及系统 | |
CN112422208B (zh) | 未知信道模型下基于对抗式学习的信号检测方法 | |
Li et al. | Self-evolution cascade deep learning model for high-speed receiver adaptation | |
CN116405158A (zh) | 一种非高斯噪声下基于深度学习的端到端通信系统 | |
Kumar | Empowerment-driven exploration using mutual information estimation | |
CN114363262B (zh) | 一种空天地一体化网络下的混沌动态拥塞预测系统及方法 | |
Fan et al. | Intelligent communication: Application of deep learning at the physical layer of communication | |
CN109474258B (zh) | 基于核极化策略的随机傅立叶特征核lms的核参数优化方法 | |
CN112821971A (zh) | 一种基于对抗式学习的时变信道信号检测方法 | |
CN114970837B (zh) | 面向电力物联网的doa估计方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |