CN110739030A - 一种乙烯生产过程小样本的软测量方法 - Google Patents

一种乙烯生产过程小样本的软测量方法 Download PDF

Info

Publication number
CN110739030A
CN110739030A CN201910868999.4A CN201910868999A CN110739030A CN 110739030 A CN110739030 A CN 110739030A CN 201910868999 A CN201910868999 A CN 201910868999A CN 110739030 A CN110739030 A CN 110739030A
Authority
CN
China
Prior art keywords
layer
output
neurons
neuron
bottleneck
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910868999.4A
Other languages
English (en)
Other versions
CN110739030B (zh
Inventor
贺彦林
邹童
朱群雄
徐圆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Chemical Technology
Original Assignee
Beijing University of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Chemical Technology filed Critical Beijing University of Chemical Technology
Priority to CN201910868999.4A priority Critical patent/CN110739030B/zh
Publication of CN110739030A publication Critical patent/CN110739030A/zh
Application granted granted Critical
Publication of CN110739030B publication Critical patent/CN110739030B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/10Analysis or design of chemical reactions, syntheses or processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Abstract

本发明公开了一种乙烯生产过程小样本的软测量方法,采用加入高斯白噪声的AANN进行数据校正,生成虚拟样本,扩充样本数据,解决样本数量不足,数据分布不平衡问题;采用ELM进行数据建模,建立智能软测量仪表与乙烯产品单耗模型。本发明发明具有响应时间快、建模精度高、推理能力强、管理方便的特点,为保证乙烯生产的安全进行、提高产品质量、节约生产成本提供了帮助。

Description

一种乙烯生产过程小样本的软测量方法
技术领域
本发明属于软测量技术领域,特别涉及一种乙烯生产过程小样本的软测量方法,其中,通过引用加入高斯白噪声的自联想神经网络(Auto-Associative Neural Network,AANN)的对称拓扑结构实现虚拟样本的生成,运用极限学习机(Extreme LearningMachine,ELM)算法实现乙烯在工业生产过程的软测量,解决极限学习机建模过程中样本数据少建模精度低的问题。
背景技术
化工过程具有非线性、高维数、强耦合等复杂特征,难以利用机理进行精确过程建模。人工神经网络因其具有自学习自适应性、高度非线性逼近能力、并行分布处理等特点,无须考虑内部机理,正适合于过程建模领域。目前通常使用机理建模、数据驱动建模或者是两者结合的混合模型对工业过程进行软测量,从而实现对整个过程工况的实时监测,提高工业效率、稳定性和安全性。其中机理建模需要根据过程的基本反应原理来对对象进行建模,模型精度较高,然而基于反应机理的建模方法要求对生产过程有十分清晰的认识,在如今化工工艺中,工况多变,机理建模变得愈发困难。由于小样本的数量有限,通常会出现数据不完整和不平衡的情况,从而不能完全刻画总体样本的空间特征。因此,利用小样本构建的模型训练精度很高而泛化精度不甚理想,即出现“过拟合”问题。随着时代智能化的不断推进,人工智能技术不断推陈出新,人工智能技术也常常用于解决小样本问题。神经网络是人工智能技术的重要组成部分,模拟人类大脑的工作机制,具有自学习、快速寻优等优点。因此,将流程工业与神经网络相结合是提高流程智能化的重要方式之一。
近年来,黄广斌提出了一种快速学习算法—极限学习机(Extreme LearningMachine,ELM),该算法专门针对单隐含层前馈神经网络,只需随机设定输入层权值和隐含层神经元阈值,直接利用Moore-Penrose广义逆快速求解输出权重,无须烦琐训练,可以得到最优解,避免了基于梯度下降学习法产生的许多问题,如各种网络参数设置,调整、学习速度慢及局部极小等,具有收敛速度快且泛化性能好的优点。然而,由于化工过程变量繁多,易受外界干扰,其测量参数含有大量噪声和误差,数据维数较高,导致ELM的学习性能受到较大影响。
自联想神经网络(Auto-Associative Neural Network,AANN)是在1987年由Ballard针对编码/解码问题首先提出的,其网络原型是一种具有对称拓扑结构的五层前馈传递网络,AANN应用到数据检验问题时具有比较明显的物理意义,首先通过输入层、映射层以及瓶颈层实现了输入数据信息的压缩。从网络输入的高维参数空间中提取了反映系统结构的最具代表性的低维子空间,同时有效地滤去了测量数据中的噪声和测量误差,再通过瓶颈层、解映射层和输出层实现数据的解压缩,将前面压缩的信息还原到各个参数值,从而实现各测量数据的重构。
自联想神经网络作为一种特殊的前馈式神经网络,通过设定合适的输入层与隐含层之间的压缩比率,不仅可以实现数据降维,还可以达到剔除噪声、过滤冗余信息的目的,同时可以生成有效的虚拟样本解决小样本问题中样本数量不足的问题。因此,可以将ELM网络同AANN网络相串联,构造一种递阶ELM神经网络,用于处理小样本问题。
发明内容
本发明的目的在于:提供一种乙烯生产过程小样本的软测量方法,通过在AANN网络中加入零均值、固定方差的高斯噪声来产生新样本,改善由于样本数量少导致的样本数据不平衡的特征,相当于给原始样本增添了扰动;在输入样本中添加些许噪声,相当于在神经网络的参数调整过程中使用了正则化方法,从而降低了建模过程的过拟合现象,提高建模精度。
技术方案如下:
一种乙烯生产过程小样本的软测量方法,其特征在于:建立对称结构的AANN自联想神经网络且在瓶颈层中添加高斯白噪声以得到高拟合度的虚拟样本,将虚拟样本通过Bootstrap方法进行重复采样以得到带有差异度的样本,再采用ELM实现快速对个体神经网络的训练以实现对乙烯生产过程小样本的软测量。
进一步的,将进料流量、燃料用量、蒸汽用量、水流量、电力用量和乙烯的产量作为输入,在AANN自联想神经网络中进行样本数据训练:
将获得的P个高维输入样本需要用自联想神经网络进行压缩降维,其集合表示为S={Sp|p=1,2,...,P;Sp∈RI},其中,I表示输入层所含有的线性神经元个数;
对于每一个高维输入样本Sp,经过输入层和映射层后,映射层的神经元的输出表示为Mp=f(WSp+b),其中映射层神经元个数为M,Mp为输入样本Sp的映射层输出向量,W=[wmi]M×I为输入层与映射层神经元连接权值矩阵,wmi表示连接第i个输入神经元与第m个映射层神经元的权值,b=[bm]m×1为映射层的阈值向量,bm表示第m个映射层神经元的阈值,f(·)为映射层的激活函数,且
Figure BDA0002202143770000031
瓶颈层的神经元的输出表示为Bp=f(WMp+c)+G_noise,其中瓶颈层神经元个数为B,Bp为映射层样本Mp的瓶颈层输出向量,W=[wbm]B×M为映射层与瓶颈层神经元连接权值矩阵,wbm表示连接第m个映射神经元与第b个瓶颈层神经元的权值,c=[cb]b×1为瓶颈层的阈值向量,cb表示第b个瓶颈层神经元的阈值,G_noise表示加入适当的高斯白噪声;
解映层的神经元的输出表示为Dp=f(WBp+d),其中解映层神经元个数为D,Dp为瓶颈层Bp的解映曾输出向量,W=[wdb]D×B为瓶颈层与解映层神经元连接权值矩阵,wdb表示连接第b个瓶颈神经元与第d个解映层神经元的权值,c=[cd]d×1为解映层的阈值向量,cd表示第d个解映层神经元的阈值;
根据解映层每个神经元的输出,计算得到输出层每个神经元的输出值Qp=VDp+e,其中,输出层神经元个数为I,Qp为输入样本Sp经自联想神经网络后的输出值,V=[wid]I×D为解映层与输出层神经元连接权值矩阵,e=[ei]I×1为输出层的阈值向量,ei表示第i个输出层神经元的阈值;
AANN神经网络包括前后两部分,其中前半部分包括输入层、映射层、瓶颈层,完成输入信息的压缩和编码:实现
Figure BDA0002202143770000032
后半部分包括解映层和输出层完成特征信息的解码:实现将此时获得的样本作为ELM建模的训练数据。
进一步的,将训练数据中的进料流量、燃料用量、蒸汽用量、水流量和电力用量作为输入,乙烯的产量作为输出,在ELM中进行建模:
初始化各层节点数并读入训练数据和泛化数据,将初始数据(X,Y)归一化处理,消除奇异样本数据对训练过程的影响,
Figure BDA0002202143770000041
归一化过程为:
Figure BDA0002202143770000042
Figure BDA0002202143770000043
其中,为X第j列的最大值,
Figure BDA0002202143770000045
为X第j列的最小值,ymax为Y的最大值,ymin为Y的最小值;
对于一个有L个隐含层节点的单隐层神经网络可以表示为
Figure BDA0002202143770000046
其中,g(x)为激活函数,Wi=[wi,1,wi,2,…,wi,n]T为输入权重,βi为输出权重,bi是第i个隐层单元的偏置。Wi·Xi表示Wi和Xi的内积。
根据ELM算法,利用Moore-Penrose广义逆得到隐含层和输出层的权重
Figure BDA0002202143770000047
将归一化之后的训练数据代入模型进行处理,得到最终归一化之后的网络预测值y′,将y′进行反归一化:
Y′=y′×(ymax-ymin)+ymin
计算得到的Y′即为产出乙烯的测量值。
本发明与现有技术相比的所取得的技术优势:
(1)本发明利用自联想神经网络(Auto-Associative Neural Network,AANN)进行数据的预处理,AANN具有对称拓扑结构的五层前馈传递网络,首先通过输入层、映射层以及瓶颈层实现了输入数据信息的压缩,输出层完成特征信息的解码。此外,对于AANN神经网络,将带有噪声的测量数据同时作为网络的训练输入和期望输出,则每个测量点的期望输出和信息恢复输出之间的误差就表示了现场测量数据中存在的噪声,体现了该网络具有抑制噪声的能力。因此,将其用于处理高维尤其含有噪声的数据会有较大的优势。
(2)本发明采用噪声注入来进行虚拟样本生成。噪声注入通常是在原始数据中加入零均值、固定方差的高斯噪声来产生新样本。在输入样本中添加些许噪声,相当于在神经网络的参数调整过程中使用了正则化方法,正则化系数与噪声标准差对神经网络的参数调整而言有异曲同工之妙,这个过程也相当于给原始样本增添了扰动。
(3)本发明提供了一种新型的神经网络参数学习算法-极限学习机(ExtremeLearning Machine,ELM)算法,该算法可以在随机选择输入层权值的前提下,利用Moore-Penrose广义逆解析求出输出层权值,同时还可以保证网络的泛化能力。与传统的BP神经网络、RBF神经网络相比,ELM学习算法具有学习速度快、可调参数少、不会出现局部极值等许多优良特性。
附图说明
图1为乙烯生产模型结构图;
图2为乙烯生产工艺流程图;
图3为AANN网络结构图;
图4为ELM网络结构图;
图5为本发明所述方法的工作流程图;
图6为泛化过程拟合图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合实施例对本发明提供的乙烯生产过程小样本的软测量方法进行详细描述。以下实施例仅用于说明本发明而非用于限制本发明的范围。
实施例1
本发明提供的用于提高乙烯生产过程小样本问题的建模精度方法,包括:数据预处理过程、样本选取过程、生成虚拟样本和个体神经网络建模过程。
数据预处理过程为:对现场采集的各部分原料数据中存在的缺失数据、异常数据和噪声数据进行处理,并将所处理后的数据作为自联想神经网络的训练数据进行训练。
样本选取过程为:将数据预处理后的训练数据分为用于个体神经网络建模的训练样本和用于神经网络集成的验证样本,并对所划分的训练样本采用Bootstrap方法进行重复抽样,获得带有差异度的个体神经网络的训练样本。
生成虚拟样本过程为:将上一步获得的训练样本通过AANN网络进行虚拟样本生成,由于AANN具有对称的网络结构,可以获得加入噪声后等量的虚拟样本数。
个体神经网络建模过程为:采用极限学习机(ELM)算法快速完成个体神经网络的训练;其中,在ELM建模过程中,通过设置个体神经网络的训练标准,以减少随机选取的输入层权值所带来的训练误差。
本发明通过对AANN瓶颈层添加高斯白噪声,实现虚拟样本的生成,实现数据增强,再进行ELM建模预测,用于实现乙烯工业生产过程小样本的软测量,AANN过程如图1所示,ELM网络结构如图2所示。通过对AANN瓶颈层添加高斯白噪声生成虚拟样本,避免了数据分布不均衡问题,进一步避免出现过拟合的情况,提升ELM泛化性能。本发明可以实现对乙烯生产过程中原料消耗的精准预测,从而提高装置的生产效率。
本发明的工作流程图如图3所示,具体实施方式如下:
(1)假设有P个高维输入样本需要用自联想神经网络进行压缩降维,其集合表示为S={Sp|p=1,2,...,P;Sp∈RI},其中,I表示输入层所含有的线性神经元个数。
(2)对于每一个高维输入样本Sp,经过输入层和映射层后,映射层的神经元的输出表示为Mp=f(WSp+b),其中映射层神经元个数为M,Mp为输入样本Sp的映射层输出向量,W=[wmi]M×I为输入层与映射层神经元连接权值矩阵,wmi表示连接第i个输入神经元与第m个映射层神经元的权值,b=[bm]m×1为映射层的阈值向量,bm表示第m个映射层神经元的阈值,f(·)为映射层的激活函数,且
Figure BDA0002202143770000061
(3)瓶颈层的神经元的输出表示为Bp=f(WMp+c)+G_noise,其中瓶颈层神经元个数为B,Bp为映射层样本Mp的瓶颈层输出向量,W=[wbm]B×M为映射层与瓶颈层神经元连接权值矩阵,wbm表示连接第m个映射神经元与第b个瓶颈层神经元的权值,c=[cb]b×1为瓶颈层的阈值向量,cb表示第b个瓶颈层神经元的阈值,G_noise表示加入适当的高斯白噪声,从而提高数据训练的拟合程度。
(4)解映层的神经元的输出表示为Dp=f(WBp+d),其中解映层神经元个数为D,Dp为瓶颈层Bp的解映曾输出向量,W=[wdb]D×B为瓶颈层与解映层神经元连接权值矩阵,wdb表示连接第b个瓶颈神经元与第d个解映层神经元的权值,c=[cd]d×1为解映层的阈值向量,cd表示第d个解映层神经元的阈值。
(5)根据解映层每个神经元的输出,可计算得到输出层每个神经元的输出值Qp=VDp+e,其中,输出层神经元个数为I,Qp为输入样本Sp经自联想神经网络后的输出值,V=[wid]I×D为解映层与输出层神经元连接权值矩阵,e=[ei]I×1为输出层的阈值向量,ei表示第i个输出层神经元的阈值。
(6)整个AANN神经网络包括前后两部分,其中前半部分包括输入层、映射层、瓶颈层,完成输入信息的压缩、编码(实现
Figure BDA0002202143770000071
),后半部分包括解映层和输出层完成特征信息的解码(实现
Figure BDA0002202143770000072
),将此时获得的样本作为ELM建模的训练数据。
(7)抽取30%的训练数据作为验证样本集,其余的训练数据作为训练样本集。对于N组训练数据{X,Y},随机抽取N1(N1<<N)组训练数据作为验证样本集,剩余N2(N2=N-N1)组训练数据作为训练样本集。假设所抽取的N1组训练数据序号为{n1,n2,…,nN1},则抽取后的验证样本集合为:
{X',Y'}={(Xn,Yn)|n=n1,n2,…,nN1;Xn=[xn1,xn2,…,xnP]T∈RP;Yn=[yn1]T∈R1}
对于抽取后的训练样本集合{X”,Y”}={X,Y}-{X',Y'},将训练序号重新进行排序后,所得训练样本集合为:
{X”,Y”}={(Xn,Yn)|n=1,2,…,N2;Xn=[xn1,xn2,…,xnP]T∈RP;Yn=[yn1]T∈R1}
(8)设置每个个体神经网络的训练样本个数为N(m)(其中,m=1,2,…,M),并从第1(m=1)个神经网络开始,采用Bootstrap方法获得第1个神经网络的训练样本。同时初始化第m个神经网络所选取的训练样本序号集合Λm为空集,集合Λm中的元素个数ρ=0。
(9)利用计算机在0到J之间产生随机整数j。此时,应保证生成值j在0到J上具有独立性、满周期性与均匀性,J>>N2,N2为训练样本的个数。
(10)令μ=j%N2,即将序号μ所对应的训练样本(Xμ,Yμ)作为第m个神经网络中的一个训练样本,并将序号μ加入到集合Λm
Figure BDA0002202143770000073
ρ=ρ+1。
(11)判断集合Λm中的元素个数ρ是否超过了所要求的训练样本个数N(m)。如果ρ≤N(m),则返回第(3)步,继续选取个体神经网络m的训练样本;如果ρ>N(m),则可得神经网络m的训练样本为并进入下一步。
(12)令m=m+1,如果m≤M,则设置Λm=Ф,ρ=0,并返回第(3)步对下一个个体神经网络的训练样本进行选取,直到m>M为止,完成该系统中所有个体神经网络训练样本的选取。
(13)对训练样本进行归一化处理,消除量纲对模型的影响。其中
Figure BDA0002202143770000082
Figure BDA0002202143770000083
归一化过程如下所示:
Figure BDA0002202143770000084
Figure BDA0002202143770000085
其中
Figure BDA0002202143770000086
为X第j列的最大值,
Figure BDA0002202143770000087
为X第j列的最小值,ymax为Y的最大值,ymin为Y的最小值。
(14)设置隐含层节点数s,计算得到ELM隐含层输出:
其中xi=[xi1 … xip],wj=[w1j … wpj]T,bj为第j个隐含层节点的阈值,g(·)为隐含层激活函数且
Figure BDA0002202143770000089
(15)根据ELM算法,利用Moore-Penrose广义逆得到隐含层与输出层之间的权重
Figure BDA00022021437700000810
得到训练好的网络模型,归一化处理后的x′,代入模型可以得到网络预测值y′,将y′进行反归一化:
Y′=y′×(ymax-ymin)+ymin
计算得到的Y′即为乙烯生产过程消耗的测量值。
(16)同时分别两两比较不同训练样本之间的泛化误差(均方差),得到最后的泛化误差
比较结果
Figure BDA0002202143770000091
其中Ti是准确值数组,Ai是模型的预计值数组,n是数据点的总个数。
本发明采用加入高斯白噪声的AANN进行数据校正,生成虚拟样本,扩充样本数据,解决样本数量不足,数据分布不平衡问题;采用ELM进行数据建模,建立智能软测量仪表与乙烯产品单耗模型,最终形成了一套乙烯生产过程针对小样本问题的智能检测方法,解决了针对乙烯工业生产过程小样本的软测量问题,由于神经网络需要充足的训练样本来提高模型的泛化能力,在获取大量样本需要耗费大量资源的情况下,如何利用采集到的小样本构建良好的输入输出模型并解决实际问题的难题。本发明发明具有响应时间快、建模精度高、推理能力强、管理方便的特点,为保证乙烯生产的安全进行、提高产品质量、节约生产成本提供了帮助。
上面结合实施例对本发明的实例作了详细说明,但是本发明并不限于上述实例,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出的各种变化,也应视为本发明的保护范围。

Claims (3)

1.一种乙烯生产过程小样本的软测量方法,其特征在于:建立对称结构的AANN自联想神经网络且在瓶颈层中添加高斯白噪声以得到高拟合度的虚拟样本,将虚拟样本通过Bootstrap方法进行重复采样以得到带有差异度的样本,再采用ELM实现快速对个体神经网络的训练以实现对乙烯生产过程小样本的软测量。
2.根据权利要求1所述乙烯生产过程小样本的软测量方法,其特征在于:将进料流量、燃料用量、蒸汽用量、水流量、电力用量和乙烯的产量作为输入,在AANN自联想神经网络中进行样本数据训练:
将获得的P个高维输入样本需要用自联想神经网络进行压缩降维,其集合表示为S={Sp|p=1,2,...,P;Sp∈RI},其中,I表示输入层所含有的线性神经元个数;
对于每一个高维输入样本Sp,经过输入层和映射层后,映射层的神经元的输出表示为Mp=f(WSp+b),其中映射层神经元个数为M,Mp为输入样本Sp的映射层输出向量,W=[wmi]M×I为输入层与映射层神经元连接权值矩阵,wmi表示连接第i个输入神经元与第m个映射层神经元的权值,b=[bm]m×1为映射层的阈值向量,bm表示第m个映射层神经元的阈值,f(·)为映射层的激活函数,且
Figure FDA0002202143760000011
瓶颈层的神经元的输出表示为Bp=f(WMp+c)+G_noise,其中瓶颈层神经元个数为B,Bp为映射层样本Mp的瓶颈层输出向量,W=[wbm]B×M为映射层与瓶颈层神经元连接权值矩阵,wbm表示连接第m个映射神经元与第b个瓶颈层神经元的权值,c=[cb]b×1为瓶颈层的阈值向量,cb表示第b个瓶颈层神经元的阈值,G_noise表示加入适当的高斯白噪声;
解映层的神经元的输出表示为Dp=f(WBp+d),其中解映层神经元个数为D,Dp为瓶颈层Bp的解映曾输出向量,W=[wdb]D×B为瓶颈层与解映层神经元连接权值矩阵,wdb表示连接第b个瓶颈神经元与第d个解映层神经元的权值,c=[cd]d×1为解映层的阈值向量,cd表示第d个解映层神经元的阈值;
根据解映层每个神经元的输出,计算得到输出层每个神经元的输出值Qp=VDp+e,其中,输出层神经元个数为I,Qp为输入样本Sp经自联想神经网络后的输出值,V=[wid]I×D为解映层与输出层神经元连接权值矩阵,e=[ei]I×1为输出层的阈值向量,ei表示第i个输出层神经元的阈值;
AANN神经网络包括前后两部分,其中前半部分包括输入层、映射层、瓶颈层,完成输入信息的压缩和编码:实现
Figure FDA0002202143760000021
后半部分包括解映层和输出层完成特征信息的解码:实现
Figure FDA0002202143760000022
将此时获得的样本作为ELM建模的训练数据。
3.根据权利要求2所述乙烯生产过程小样本的软测量方法,其特征在于:将训练数据中的进料流量、燃料用量、蒸汽用量、水流量和电力用量作为输入,乙烯的产量作为输出,在ELM中进行建模:
初始化各层节点数并读入训练数据和泛化数据,将初始数据(X,Y)归一化处理,消除奇异样本数据对训练过程的影响,
Figure FDA0002202143760000023
归一化过程为:
Figure FDA0002202143760000025
其中,
Figure FDA0002202143760000026
为X第j列的最大值,为X第j列的最小值,ymax为Y的最大值,ymin为Y的最小值;
对于一个有L个隐含层节点的单隐层神经网络可以表示为
Figure FDA0002202143760000028
其中,g(x)为激活函数,Wi=[wi,1,wi,2,…,wi,n]T为输入权重,βi为输出权重,bi是第i个隐层单元的偏置。Wi·Xi表示Wi和Xi的内积。
根据ELM算法,利用Moore-Penrose广义逆得到隐含层和输出层的权重
Figure FDA0002202143760000029
将归一化之后的训练数据代入模型进行处理,得到最终归一化之后的网络预测值y′,将y′进行反归一化:
Y′=y′×(ymax-ymin)+ymin
计算得到的Y′即为产出乙烯的测量值。
CN201910868999.4A 2019-09-16 2019-09-16 一种乙烯生产过程小样本的软测量方法 Active CN110739030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910868999.4A CN110739030B (zh) 2019-09-16 2019-09-16 一种乙烯生产过程小样本的软测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910868999.4A CN110739030B (zh) 2019-09-16 2019-09-16 一种乙烯生产过程小样本的软测量方法

Publications (2)

Publication Number Publication Date
CN110739030A true CN110739030A (zh) 2020-01-31
CN110739030B CN110739030B (zh) 2023-09-01

Family

ID=69268100

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910868999.4A Active CN110739030B (zh) 2019-09-16 2019-09-16 一种乙烯生产过程小样本的软测量方法

Country Status (1)

Country Link
CN (1) CN110739030B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966429A (zh) * 2020-08-11 2021-06-15 中国矿业大学 基于WGANs数据增强的非线性工业过程建模方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6401082B1 (en) * 1999-11-08 2002-06-04 The United States Of America As Represented By The Secretary Of The Air Force Autoassociative-heteroassociative neural network
CN103226728A (zh) * 2013-04-07 2013-07-31 北京化工大学 高密度聚乙烯串级聚合反应过程智能检测与收率优化方法
WO2019067960A1 (en) * 2017-09-28 2019-04-04 D5Ai Llc AGGRESSIVE DEVELOPMENT USING COOPERATIVE GENERATORS
CN110197031A (zh) * 2019-05-29 2019-09-03 北京化工大学 一种用于高密度聚乙烯串级聚合反应的软测量方法
CN112906855A (zh) * 2020-12-30 2021-06-04 西北工业大学 动态阈值的变循环发动机多重故障诊断器
CN113010985A (zh) * 2021-03-05 2021-06-22 重庆邮电大学 一种基于并行aann的非侵入式负荷识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6401082B1 (en) * 1999-11-08 2002-06-04 The United States Of America As Represented By The Secretary Of The Air Force Autoassociative-heteroassociative neural network
CN103226728A (zh) * 2013-04-07 2013-07-31 北京化工大学 高密度聚乙烯串级聚合反应过程智能检测与收率优化方法
WO2019067960A1 (en) * 2017-09-28 2019-04-04 D5Ai Llc AGGRESSIVE DEVELOPMENT USING COOPERATIVE GENERATORS
CN110197031A (zh) * 2019-05-29 2019-09-03 北京化工大学 一种用于高密度聚乙烯串级聚合反应的软测量方法
CN112906855A (zh) * 2020-12-30 2021-06-04 西北工业大学 动态阈值的变循环发动机多重故障诊断器
CN113010985A (zh) * 2021-03-05 2021-06-22 重庆邮电大学 一种基于并行aann的非侵入式负荷识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BO DAI等: "Improved online sequential extreme learning machine for identifying crack behavior in concrete dam", vol. 2, no. 2 *
TONG ZOU等: "Intelligent modeling using a novel feature extraction based multiple activation functions extreme learning machine" *
朱宝: "虚拟样本生成技术及建模应用研究" *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966429A (zh) * 2020-08-11 2021-06-15 中国矿业大学 基于WGANs数据增强的非线性工业过程建模方法

Also Published As

Publication number Publication date
CN110739030B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
CN108416695B (zh) 基于深度学习的电力负荷概率密度预测方法和系统、介质
CN108280552B (zh) 基于深度学习的电力负荷预测方法和系统、存储介质
CN109766921B (zh) 一种基于深度领域自适应的振动数据故障分类方法
Peng et al. Negative correlation learning-based RELM ensemble model integrated with OVMD for multi-step ahead wind speed forecasting
CN106022954B (zh) 基于灰色关联度的多重bp神经网络负荷预测方法
CN115018021B (zh) 基于图结构与异常注意力机制的机房异常检测方法及装置
CN111178616B (zh) 基于负相关学习和正则化极限学习机集成的风速预测方法
CN111860982A (zh) 一种基于vmd-fcm-gru的风电场短期风电功率预测方法
CN111445010B (zh) 一种基于证据理论融合量子网络的配网电压趋势预警方法
CN110427654A (zh) 一种基于敏感状态的滑坡预测模型构建方法及系统
CN112364975A (zh) 基于图神经网络的终端运行状态预测方法及系统
CN112836604A (zh) 一种基于vmd-ssae的滚动轴承故障诊断分类方法、系统、设备及其存储介质
CN113822139A (zh) 一种基于改进1DCNN-BiLSTM的设备故障诊断方法
CN115689008A (zh) 基于集合经验模态分解的CNN-BiLSTM短期光伏功率预测方法及其系统
CN112686376A (zh) 一种基于时序图神经网络的节点表示方法及增量学习方法
CN112784920A (zh) 云边端协同的旋转部件对抗域自适应故障诊断方法
Mdrafi et al. Joint learning of measurement matrix and signal reconstruction via deep learning
CN107045659A (zh) 预测光伏发电功率的方法及装置
CN108520310A (zh) 基于G-L混合噪声特性v-支持向量回归机的风速预报方法
CN112884149A (zh) 一种基于随机敏感度st-sm的深度神经网络剪枝方法及系统
CN112085062A (zh) 一种基于小波神经网络的异常能耗定位方法
CN114971090A (zh) 一种电供暖负荷预测方法、系统、设备和介质
CN110289987B (zh) 基于表征学习的多智能体系统网络抗攻击能力评估方法
CN114880538A (zh) 基于自监督的属性图社团检测方法
CN115329799A (zh) 桥梁安全状态监测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant