CN115357218A - 一种基于混沌预测对抗学习的高熵随机数生成方法 - Google Patents
一种基于混沌预测对抗学习的高熵随机数生成方法 Download PDFInfo
- Publication number
- CN115357218A CN115357218A CN202210921405.3A CN202210921405A CN115357218A CN 115357218 A CN115357218 A CN 115357218A CN 202210921405 A CN202210921405 A CN 202210921405A CN 115357218 A CN115357218 A CN 115357218A
- Authority
- CN
- China
- Prior art keywords
- network
- random number
- generated
- generation
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000003042 antagnostic effect Effects 0.000 title claims abstract description 6
- 238000009826 distribution Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims description 61
- 230000004913 activation Effects 0.000 claims description 36
- 239000013598 vector Substances 0.000 claims description 32
- 238000011176 pooling Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 230000000739 chaotic effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 6
- 238000005457 optimization Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000007493 shaping process Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000005653 Brownian motion process Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005537 brownian motion Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000001583 randomness test Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/58—Random or pseudo-random number generators
- G06F7/588—Random number generators, i.e. based on natural stochastic processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于混沌预测对抗学习的高熵随机数生成方法,首先选用一个现有的随机数生成器作为起始状态;随后构造生成网络,将起始状态输入生成网络,获取网络的输出值作为随机数;构造判别网络对生成网络输出的值与另一现有的随机数生成器生成值进行判别,保证生成网络输出的随机数服从目标分布;构造预测网络,将生成网络中生成的多个数值拆分成两部分,并用前一部分数值通过预测网络预测后一部分数值;重复多轮按照判别网络、预测网络、生成网络的顺序对网络进行训练,促使生成网络生成的随机数服从目标分布并具有高随机性。这种基于对抗学习的随机数生成方法采用的网络结构设计合理,并且能够生成符合目标分布的熵值较高的伪随机数。
Description
技术领域
本发明涉及计算数学与模式识别交叉领域,尤其涉及一种基于混沌预测对抗学习的高熵随机数生成方法。
背景技术
随机数是专门的随机试验的结果,对统计学采样、计算机科学中模拟仿真及密码学中加密等诸多方面起到至关重要的作用。随机数包括真随机数与伪随机数。真随机数通常观察物理现象产生,如投掷硬币、观察电子元件噪声、微粒的布朗运动等。而伪随机数是通过一个固定的、可以重复的计算方法,计算机可以生成具有较长周期的数字序列。由于该序列是通过一个初始状态计算出来的,因此并不具备真正的随机性,但具有类似于随机数的统计特征。本文描述的是一种伪随机数生成算法。
目前,伪随机数生成算法可以大致分为两类,一类基于状态转移函数对初始状态进行转换构造新状态,并将状态值通过简单的变化作为输出值;一类则是构造较为状态转移函数进行状态变换,而构造较为复杂的输出函数来实现输出序列的随机性。
手工构造状态转移函数及输出函数通常十分困难,随着深度学习的兴起,一些基于神经网络训练构造状态转移函数及输出函数的方法逐渐被提出,如利用LSTM网络、Hopfield网络、Elman神经网络等生成随机数。然而由于上述网络在训练过程中通常难以判断生成序列的随机性(即只能在训练结束后进行通用的随机性测试如NIST等),网络生成序列的随机性难以保证。
近几年来,基于对抗生成网络(GAN)的随机数生成方法被提出,该方法利用其包含的生成器与判别器之间的相互博弈来促使生成器生成随机数:判别器学习如何区分生成器生成的随机数和采样与目标分布的随机数,生成器生成尽可能相似于采样于目标分布的随机数来欺骗判别器。然而基于GAN的随机数生成方法只能保证生成器生成的随机数符合目标分布,而不能保证其生成的随机数具有不可预测性。
除此以外,另一种基于GAN的改进随机数生成方法用预测器替代GAN中的判别器,将生成器生成的随机数序列分成两部分,预测器通过随机数序列的前一部分预测后一部分,生成器则尽可能生成无法被预测器成功预测的随机数序列。然而该方法虽然能够生成具有一定不可预测的随机数序列,但由于生成器的构造及训练过程解释性较差,因此其生成的随机数分布难以被确定。
发明内容
本发明解决的技术问题:克服现有技术的不足,提供一种基于混沌预测对抗学习的高熵随机数生成方法,能够克服现有伪随机数生成方法状态转移函数及输出函数手工设计困难及神经网络训练方法随机性较差的问题,能够输出随机性(即熵)高,即具有极长的循环周期的伪随机数。
本发明是通过以下技术方案实现的:一种基于混沌预测对抗学习的高熵随机数生成方法,所述方法使用生成网络、判别网络、预测网络以及周期较小,即周期不大于输入整型范围,对于32位整型输入,其周期不大于232的伪随机数生成器,所述周期较小的伪随机数生成器采用线性同余生成器LCG;所述方法的具体实现如下:
(1)设置随机数种子并使用LCG根据该随机数种子生成一组弱随机数,即由LCG生成的周期较小的随机数;
(2)构造生成网络,将LCG生成的弱随机数组作为生成网络的输入向量,并获取生成网络的输出的多个值作为强随机数向量;
(3)构造判别网络,将生成网络生成的强随机数向量与LCG生成的另一组弱随机数向量同时输入判别网络,判别网络对输入的每一个随机数向量进行分类,当判别网络将强随机数向量判定为该向量由生成网络生成,或将弱随机数向量判定为该向量由LCG生成时,则认为判别网络能够成功区分生成网络与LCG生成的随机数分布;通过生成网络与判别网络之间的对抗训练,使生成网络生成的随机数与LCG生成的随机数服从同一分布;
(4)构造预测网络,将生成网络生成的强随机数向量拆分为前后两个子随机向量,并将前一个子随机向量作为预测网络输入,预测网络输出后一个子随机向量的预测值;通过生成网络与预测网络之间的对抗训练,保证生成网络生成的随机数具有不可预测性,使生成网络生成预测网络输出的后一子随机向量预测值与真实值差异最大化;
(5)重复多轮按照判别网络、预测网络、生成网络的顺序对各网络节点权重进行训练,使生成网络生成的随机数序列服从目标分布并具有高随机性,即难以从上一次生成的随机数预测出下一次生成的随机数,即具有极长,即周期远大于输入整型范围,对于32位整型输入,其周期远大于232的循环周期;
(6)经过训练多轮后,将训练过程中使用的判别网络、预测网络删除,只保留生成网络与LCG,多次重复步骤(1),并将生成网络生成的强随机数向量作为随机数生成的输出值。
进一步,所述步骤(2)中使用的生成网络为深度神经网络具有5层全连接层,输入层大小为4,中间三层大小均为64,输出层大小为32,输出的随机数为32位;输入层与中间层的激活函数LeakyReLU(带泄露的修正线性单元),输出层的激活函数为最大值为232-1的Scaled Sigmoid(带尺度的Sigmoid函数)。
进一步,所述步骤(3)中,判别网络为深度神经网络,具有三个阶段:
阶段1处理生成器输出,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含多个隐藏层,促使判别器具有足够的复杂度,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3处理生成判别网络输入序列的类别输出,包含2个全连接层,输出维度为16、2,激活函数为LeakyReLU、SoftMax。
进一步,所述步骤(4)中,预测网络为深度神经网络,具有三个阶段:
阶段1处理生成器输出,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含多个隐藏层,促使判别器具有足够的复杂度,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3生成预测值,包含2个全连接层,输出维度为16、8,激活函数为LeakyReLU、LeakyReLU。
进一步地,所述步骤(4)中预测网络具有三个阶段:
阶段1包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3包含2个全连接层,输出维度为16、8,激活函数为LeakyReLU、LeakyReLU。
本发明提出了生成对抗预测训练损失函数,借此在每轮训练过程中分别对所述的生成网络、判别网络及预测网络的网络节点权重进行训练,如下:
其中,G,P,D分别表示生成网络,预测网络,判别网络,Px表示判别网络的真实随机数分布,用LCG1生成序列进行模拟;Pz表示LCG0生成序列分布,作为生成网络的输入;对任意长度为32的序列v,front表示取序列v前24个数,rear表示取序列v后8个数;此外,对任意长度序列v,v(i)表示取序列第i个数;λ为预测网络权重,在所述网络中取1;n表示预测网络输出大小,在所述网络中n为8;smoothL1(光滑的L1范数)由下式定义:
其中,x∈R为输入值。
生成对抗预测训练损失函数将生成网络、判别网络及预测网络的训练统一起来,能够在同一轮训练同时训练生成网络、判别网络及预测网络,促使生成网络生成符合目标分布的周期极长,即周期远大于输入整型范围,对于32位整型输入,其周期远大于232的循环周期的伪随机数。
与现有技术相比,本发明的有益之处在于:这种基于对抗学习的随机数生成方法采用的网络结构设计合理,并且能够生成符合目标分布的熵值较高的伪随机数,其具有以下优点:
(1)本发明提出了一种新型的随机数生成网络结构,加入判别网络对网络输出值与符合目标分布的随机数序列进行判别,避免了显式构造生成目标分布所需要的损失函数,无论输入的随机数序列是从真随机数中采样获得的还是由另一伪随机数生成的,判别网络均能够促使随机数生成网络生成符合输入随机数分布的伪随机数;通过构造深度神经网络,避免了显示构造一般随机数生成器所需要构造的输出函数。
(2)本发明在网络生成网络输出值后加入预测网络,保证难以从生成网络生成的前若干个随机数值预测后若干个随机数值,提高了网络生成数值的无序度;
(3)本发明在神经网络的模型大小进行了细致的设计,充分考虑了各个网络结构的作用并细致的设计了每个模块的通道数和激活函数,有利于在保证网络运行速度的前提下提升模型检测精度。
附图说明
图1是本发明一种基于混沌预测对抗学习的高熵随机数生成方法的整体流程图;
图2是随机数生成网络的详细结构图;
图3是判别网络的详细结构图;
图4是预测网络的详细结构图;
图5是采用本发明方法获得的随机数生成结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细描述。
如图1所示,本发明的基于混沌预测对抗学习的高熵随机数生成方法,包括以下步骤:
(1)选用一个现有的随机数生成器如线性同余生成器LCG作为状态输入所述随机数生成网络;所述线性同余生成器LCG可以通过以下方式构造:
Xn+1=(aXn+c)mod m
其中,Xn是第n个生成的随机数值,mod为取余运算;a=45271,c=0,m=231-1;
(2)构造生成网络将网络的输入值通过生成网络获取网络的输出值作为随机数;所述生成网络具有5层全连接层,输入层大小为4,中间层大小为64,输出层大小为32,输出的随机数为32位;输入层与中间层的激活函数LeakyReLU,输出层的激活函数为最大值为232-1的Scaled Sigmoid;所述Scaled Sigmoid如下:
其中,x为函数输入值;
(3)构造判别网络对生成网络输出的值与另一现有的随机数生成器输出值进行判别,保证生成网络输出的随机数服从均匀分布U(0,1)*(232-1);所述判别网络具有三个阶段:阶段1包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;阶段2包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;阶段3包含2个全连接层,输出维度为16、2,激活函数为LeakyReLU、SoftMax;
(4)构造预测网络,将生成网络中生成的多个数值拆分成两部分,并用前一部分数值通过预测网络预测后一部分数值。所述预测网络具有三个阶段:阶段1包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;阶段2包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;阶段3包含2个全连接层,输出维度为16、8,激活函数为LeakyReLU、LeakyReLU;
(5)重复多轮按照判别网络、预测网络、生成网络的顺序对网络参数进行训练,促使生成网络生成的随机数服从目标分布并具有高随机性。
实验环境配置如下,以GPU(型号GTX2060)作为计算平台,采用GPU并行计算框架,选取Keras作为卷积网络框架;本发明具体步骤概括为:
(1)利用线性同余生成器LCG(LCG0)生成64*4个32位随机数作为所述随机数生成网络的状态值,其中LCG的参数选择为a=45271,c=0,m=231-1;
(2)依照图1中的网络架构图和图2、图3、图4中对生成网络、判别网络、预测网络各个阶段的说明,构造卷积神经网络架构。
其中生成网络具有5层全连接层,输入层大小为4,中间层大小为64,输出层大小为32,输出的随机数为32位;输入层与中间层的激活函数LeakyReLU,输出层的激活函数为最大值为232-1的Scaled Sigmoid,如图2所示。
判别网络具有三个阶段,如图3所示:
阶段1包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3包含2个全连接层,输出维度为16、2,激活函数为LeakyReLU、SoftMax。
判别网络具有三个阶段,如图4所示:
阶段1包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3包含2个全连接层,输出维度为16、8,激活函数为LeakyReLU、LeakyReLU。
(3)将LCG生成的64*4个32位随机数分成批大小为64,长度为4的32位数据,作为生成网络的输入生成批大小为64,长度为32的32位随机数;
(4)构造另一个LCG(LCG1),其参数为a=16807,c=0,m=231-1,并由该LCG生成批大小为64,长度为32的32位随机数;将所述生成网络生成的随机数与LCG1生成的随机数输入到判别网络中进行判别,并更新判别网络的参数;
(5)将生成网络生成的批大小为64,长度为32的32位随机数中的每一批长度为32的32位随机数分割为长度为24的一批32位数split0以及长度为8的一批32位数split1,将split0输入预测网络,比较预测值与split1,并以此更新预测网络的参数;
(6)重复步骤(3)及步骤(4)、(5)中判别与预测步骤,获得判别网络判别结果以及预测网络预测结果,并根据该结果更新生成网络;
(7)调用训练好的网络模型以LCG0生成值作为输入进行推理计算,得到网络生成的随机数。
结合上述步骤,本发明的具体技术细节如下:
(1)网络整体优化目标
所述随机数生成网络整体优化目标,即生成对抗预测训练损失函数如下:
其中,G,P,D分别表示生成网络,预测网络,判别网络,Px表示判别网络的真实随机数分布,用LCG1生成序列进行模拟;Pz表示LCG0生成序列分布,作为生成网络的输入;对任意长度为32的序列v,front表示取序列v前24个数,rear表示取序列v后8个数;此外,对任意长度序列v,v(i)表示取序列第i个数;λ为预测网络权重;n表示预测网络输出大小,在所述网络中n为8,在所述网络中取1;smoothL1(光滑的L1范数)由下式定义:
其中,x∈R为输入值。
(2)判别网络训练阶段损失函数及优化目标
判别网络训练阶段损失函数如下:
优化目标为:
maxLD
其中,G表示生成网络,zi表示生成网络的输入即LCG0输出的随机数。
(3)预测网络训练阶段损失函数及优化目标
预测网络训练阶段损失函数如下:
优化目标为:
minLP
其中,m表示生成网络输入的批大小,在所述网络中m为64;n表示预测网络输出大小,在所述网络中n为8;此外,
其中,P表示预测网络,G表示生成网络;对任意长度为32的序列v,front表示取序列v前24个数,rear表示取序列v后8个数;此外,对任意长度序列v,v(i)表示取序列第i个数;zi表示生成网络的输入即LCG0输出的随机数。
(4)生成网络训练阶段损失函数及优化目标
生成网络训练阶段损失函数如下:
优化目标为:
maxLG
其中,m表示生成网络输入的批大小,在所述网络中m为64;n表示预测网络输出大小,在所述网络中n为8;λ为预测网络权重,在所述网络中取1;D表示判别网络,G表示生成网络;zi表示生成网络的输入即LCG0输出的随机数;
此外,
其中,P表示预测网络;对任意长度为32的序列v,front表示取序列v前24个数,rear表示取序列v后8个数;此外,对任意长度序列v,v(i)表示取序列第i个数。
如图5所示,图5展示了所述随机数生成网络在目标分布为均匀分布时的部分生成序列。可以看出所述随机数生成网络在保证生成序列服从正态分布的同时生成具有极长周期,即周期远大于输入整型范围,对于32位整型输入,其周期远大于232的随机数序列。说明本发明基于对抗学习的随机数生成方法采用的网络结构设计合理,并且能够生成符合目标分布的熵值较高的伪随机数。
需要强调的是:以上仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (5)
1.一种基于混沌预测对抗学习的高熵随机数生成方法,其特征在于:所述方法使用生成网络、判别网络、预测网络以及周期较小,即周期不大于输入整型范围,对于32位整型输入,其周期不大于232的伪随机数生成器,所述周期较小的伪随机数生成器采用线性同余生成器LCG;所述方法具体实现如下:
(1)设置随机数种子并使用LCG根据该随机数种子生成一组弱随机数,即由LCG生成的周期较小的随机数;
(2)构造生成网络,将LCG生成的弱随机数组作为生成网络的输入向量,并获取生成网络的输出的多个值作为强随机数向量;
(3)构造判别网络,将生成网络生成的强随机数向量与LCG生成的另一组弱随机数向量同时输入判别网络,判别网络对输入的每一个随机数向量进行分类,当判别网络将强随机数向量判定为该向量由生成网络生成,或将弱随机数向量判定为该向量由LCG生成时,则认为判别网络能够成功区分生成网络与LCG生成的随机数分布;通过生成网络与判别网络之间的对抗训练,使生成网络生成的随机数与LCG生成的随机数服从同一分布;
(4)构造预测网络,将生成网络生成的强随机数向量拆分为前后两个子随机向量,并将前一个子随机向量作为预测网络输入,预测网络输出后一个子随机向量的预测值;通过生成网络与预测网络之间的对抗训练,保证生成网络生成的随机数具有不可预测性,使生成网络生成预测网络输出的后一子随机向量预测值与真实值差异最大化;
(5)提出生成对抗预测损失函数,并借此重复多轮按照判别网络、预测网络、生成网络的顺序对各网络节点权重进行训练,使生成网络生成的随机数序列服从目标分布并具有高随机性,即难以从上一次生成的随机数预测出下一次生成的随机数,即具有极长,即周期远大于输入整型范围,对于32位整型输入,其周期远大于232的循环周期;
(6)经过训练多轮后,将训练过程中使用的判别网络、预测网络删除,只保留生成网络与LCG,多次重复步骤(1),并将生成网络生成的强随机数向量作为随机数生成的输出值。
2.根据权利要求1所述的一种基于混沌预测对抗学习的高熵随机数生成方法,其特征在于:所述步骤(2)中,使用的生成网络为深度神经网络具有5层全连接层,输入层大小为4,中间三层大小均为64,输出层大小为32,输出的随机数为32位;输入层与中间层的激活函数LeakyReLU,输出层的激活函数为最大值为232-1的Scaled Sigmoid。
3.根据权利要求1所述的一种基于混沌预测对抗学习的高熵随机数生成方法,其特征在于:所述步骤(3)中,判别网络为深度神经网络,具有三个阶段:
阶段1处理生成器输出,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含多个隐藏层,促使判别器具有足够的复杂度,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3处理生成判别网络输入序列的类别输出,包含2个全连接层,输出维度为16、2,激活函数为LeakyReLU、SoftMax。
4.根据权利要求1所述的一种基于混沌预测对抗学习的高熵随机数生成方法,其特征在于:所述步骤(4)中,预测网络为深度神经网络具有三个阶段:
阶段1处理生成器输出,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为8,激活函数为LeakyReLU;阶段1与阶段2之间包含1个池化大小为2,步长为1的最大值池化层;
阶段2包含多个隐藏层,促使判别器具有足够的复杂度,包含2个一维卷积,卷积核大小为2,步长为1,输出维度为16,激活函数为LeakyReLU;
阶段3生成预测值,包含2个全连接层,输出维度为16、8,激活函数为LeakyReLU、LeakyReLU。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210921405.3A CN115357218A (zh) | 2022-08-02 | 2022-08-02 | 一种基于混沌预测对抗学习的高熵随机数生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210921405.3A CN115357218A (zh) | 2022-08-02 | 2022-08-02 | 一种基于混沌预测对抗学习的高熵随机数生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115357218A true CN115357218A (zh) | 2022-11-18 |
Family
ID=84031752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210921405.3A Pending CN115357218A (zh) | 2022-08-02 | 2022-08-02 | 一种基于混沌预测对抗学习的高熵随机数生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115357218A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522857A (zh) * | 2018-11-26 | 2019-03-26 | 山东大学 | 一种基于生成式对抗网络模型的人数估计方法 |
CN111654368A (zh) * | 2020-06-03 | 2020-09-11 | 电子科技大学 | 一种基于深度学习生成对抗网络的密钥生成方法 |
WO2020200030A1 (zh) * | 2019-04-02 | 2020-10-08 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置和存储介质 |
CN112163671A (zh) * | 2020-12-02 | 2021-01-01 | 中国电力科学研究院有限公司 | 一种新能源场景生成方法及系统 |
CN113065282A (zh) * | 2021-03-22 | 2021-07-02 | 北京航空航天大学 | 基于改进生成对抗网络的无人作战仿真地图生成方法 |
CN113837934A (zh) * | 2021-11-26 | 2021-12-24 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN114501164A (zh) * | 2021-12-28 | 2022-05-13 | 海信视像科技股份有限公司 | 音视频数据的标注方法、装置及电子设备 |
-
2022
- 2022-08-02 CN CN202210921405.3A patent/CN115357218A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522857A (zh) * | 2018-11-26 | 2019-03-26 | 山东大学 | 一种基于生成式对抗网络模型的人数估计方法 |
WO2020200030A1 (zh) * | 2019-04-02 | 2020-10-08 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置和存储介质 |
CN111767979A (zh) * | 2019-04-02 | 2020-10-13 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置 |
CN111654368A (zh) * | 2020-06-03 | 2020-09-11 | 电子科技大学 | 一种基于深度学习生成对抗网络的密钥生成方法 |
CN112163671A (zh) * | 2020-12-02 | 2021-01-01 | 中国电力科学研究院有限公司 | 一种新能源场景生成方法及系统 |
CN113065282A (zh) * | 2021-03-22 | 2021-07-02 | 北京航空航天大学 | 基于改进生成对抗网络的无人作战仿真地图生成方法 |
CN113837934A (zh) * | 2021-11-26 | 2021-12-24 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN114501164A (zh) * | 2021-12-28 | 2022-05-13 | 海信视像科技股份有限公司 | 音视频数据的标注方法、装置及电子设备 |
Non-Patent Citations (3)
Title |
---|
GIUSEPPE LO RE: "Secure random number generation in wireless sensor networks", PROCEEDINGS OF THE 4TH INTERNATIONAL CONFERENCE ON SECURITY OF INFORMATION AND NETWORKS, 30 November 2011 (2011-11-30) * |
王晓宇;朱一峰;郗金洋;王尧;段锦;: "基于密集连接生成对抗网络的图像颜色迁移", 液晶与显示, no. 03, 15 March 2020 (2020-03-15) * |
金晓航;许壮伟;孙毅;单继宏;王欣;: "基于生成对抗网络的风电机组在线状态监测", 仪器仪表学报, no. 04, 15 April 2020 (2020-04-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | AS-NAS: Adaptive scalable neural architecture search with reinforced evolutionary algorithm for deep learning | |
Liu et al. | Block proposal neural architecture search | |
CN111898689A (zh) | 一种基于神经网络架构搜索的图像分类方法 | |
CN108985335B (zh) | 核反应堆包壳材料辐照肿胀的集成学习预测方法 | |
KR20210040248A (ko) | 물질의 생성 구조-특성 역 계산 공동 설계 | |
Garciarena et al. | Evolved GANs for generating Pareto set approximations | |
CN108364064A (zh) | 操作神经网络的方法、对应网络、装置、以及计算机程序产品 | |
Liu et al. | Multiobjective criteria for neural network structure selection and identification of nonlinear systems using genetic algorithms | |
Valsalam et al. | Using symmetry and evolutionary search to minimize sorting networks | |
Li et al. | Automatic design of convolutional neural network architectures under resource constraints | |
Yan et al. | A hybrid algorithm based on binary chemical reaction optimization and tabu search for feature selection of high-dimensional biomedical data | |
Zhao et al. | A hybrid learning method for constructing compact rule-based fuzzy models | |
Phan et al. | Efficiency enhancement of evolutionary neural architecture search via training-free initialization | |
CN111126560A (zh) | 一种基于云遗传算法优化bp神经网络的方法 | |
Ngom et al. | STRIP-a strip-based neural-network growth algorithm for learning multiple-valued functions | |
CN115357218A (zh) | 一种基于混沌预测对抗学习的高熵随机数生成方法 | |
CN116050456A (zh) | 一种水质预测方法及应用 | |
Hu et al. | Apenas: An asynchronous parallel evolution based multi-objective neural architecture search | |
Antoniades et al. | Speeding up feature selection: A deep-inspired network pruning algorithm | |
CN113033495B (zh) | 一种基于k-means算法的弱监督行为识别方法 | |
CN117668701B (zh) | Ai人工智能机器学习系统及方法 | |
EP4239531A1 (en) | Method and electronic system for inferring a morphological neural network | |
Garg et al. | Revisiting neural architecture search | |
Pooranam et al. | A Study on Optimization Algorithm (OA) in Machine Learning and Hierarchical Information | |
Christiani et al. | Towards a scalable neuromorphic hardware for classification and prediction with stochastic no-prop algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |