CN113191078B - 城市生活垃圾焚烧过程一燃室烟气温度预报方法 - Google Patents
城市生活垃圾焚烧过程一燃室烟气温度预报方法 Download PDFInfo
- Publication number
- CN113191078B CN113191078B CN202110451164.6A CN202110451164A CN113191078B CN 113191078 B CN113191078 B CN 113191078B CN 202110451164 A CN202110451164 A CN 202110451164A CN 113191078 B CN113191078 B CN 113191078B
- Authority
- CN
- China
- Prior art keywords
- distribution
- hidden layer
- training set
- output
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000008569 process Effects 0.000 title claims abstract description 36
- 239000010813 municipal solid waste Substances 0.000 title claims abstract description 31
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 title claims abstract description 28
- 238000002485 combustion reaction Methods 0.000 title claims abstract description 28
- 239000003546 flue gas Substances 0.000 title claims abstract description 28
- 238000013277 forecasting method Methods 0.000 title claims abstract description 11
- 238000009826 distribution Methods 0.000 claims abstract description 111
- 238000012549 training Methods 0.000 claims abstract description 105
- 230000002159 abnormal effect Effects 0.000 claims abstract description 7
- 210000002569 neuron Anatomy 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 37
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- HGUFODBRKLSHSI-UHFFFAOYSA-N 2,3,7,8-tetrachloro-dibenzo-p-dioxin Chemical compound O1C2=CC(Cl)=C(Cl)C=C2OC2=C1C=C(Cl)C(Cl)=C2 HGUFODBRKLSHSI-UHFFFAOYSA-N 0.000 description 1
- 206010007269 Carcinogenicity Diseases 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007670 carcinogenicity Effects 0.000 description 1
- 231100000260 carcinogenicity Toxicity 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000004056 waste incineration Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/08—Thermal analysis or thermal optimisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/10—Noise analysis or noise optimisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
城市生活垃圾焚烧过程一燃室烟气温度预报方法,涉及城市生活垃圾焚烧过程关键参数预报领域,通过炉排速度、一次风量、二次风量等输入变量预报焚烧炉一燃室的烟气温度,进而为焚烧过程的稳定控制提供指导,主要包括如下步骤:(1)构建预报模型的训练集;(2)参数初始化;(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;(5)执行期望最大化算法的E‑step,得到训练集中各个潜变量的期望值;(6)执行期望最大化算法的M‑step,得到混合分布的超参数及隐含层输出权重的迭代解;(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程。
Description
技术领域
本发明涉及城市生活垃圾焚烧过程关键参数预报技术领域,更具体来说,本发明是一种城市生活垃圾焚烧过程的一燃室烟气温度预报方法。
背景技术
随着我国经济水平的快速提高、城市化水平的逐步提升以及城市人口的飞速增加,城市生活垃圾的产量也随之增加。目前,垃圾焚烧发电技术是我国城市生活垃圾处理的主要方法之一,该方法可以实现城市生活垃圾的减量化、资源化以及无害化。然而,受我国生活习惯、地域、季节等因素影响,我国垃圾组分存在着较大的随机性,而且我国垃圾普遍没有经过分类处理,这对焚烧过程提出了很高的要求。准确的预报垃圾焚烧过程一燃室烟气温度可以为现场操作人员提供有效地指导,同时为焚烧过程的稳定控制提供保证。因此,本发明的研究成果具有重要的现实意义。
值得注意的是,城市生活垃圾焚烧处理的原则是在保证垃圾稳定燃烧且环境影响最小的前提下,提高垃圾焚烧过程的经济效益。一燃室烟气温度是决定焚烧过程是否合理的关键指标。当一燃室烟气温度低于850℃时,具有强致癌性的二噁英将得不到有效分解,从而危及人类的健康;相反,烟气温度过高会降低焚烧炉的使用寿命并会造成资源的浪费。此外,准确预报一燃室烟气温度有助于操作人员对进风量和进料量做出及时的调整,从而保证垃圾焚烧过程的稳定运行。
目前,针对城市生活垃圾焚烧过程的炉温预报方法的研究主要集中在机理模型的研究,即根据焚烧炉内的质量守恒、能量守恒以及相关的物理化学反应方程等建立一燃室烟气温度预报模型。虽然机理分析具有可靠性高、外推性好等优点,但由于焚烧过程存在垃圾成分复杂、强非线性、变量间耦合严重等复杂特性,采用机理模型作为一燃室烟气温度的预报模型很难满足要求。随着传感器技术的大力发展,垃圾焚烧发电厂可以获得大量的焚烧数据,这为基于数据驱动的预报方法提供了有力保障,如:BP神经网络、支持向量机等。然而,由于众所周知的原因,如:BP神经网络容易陷入局部最优且收敛速度慢;支持向量机对大规模数据样本的训练效率低等,使得这些典型方法的应用具有一定的局限性。
随机配置网络(SCN)作为一种新兴的数据驱动建模方法,以其通用逼近性质、网络结构随机配置、训练速度快等优点引起广大研究人员的关注,并在模式分类、函数逼近、参数预测等领域得到了有效应用。然而,从垃圾焚烧发电厂采集的数据普遍存在服从未知分布的噪声或异常值,这导致基于数据驱动的预报模型的准确性下降。仅采用经典的随机配置网络算法建立垃圾焚烧过程一燃室烟气温度预报模型是不能满足要求的。因此,研究一种具有鲁棒性的城市生活垃圾焚烧过程一燃室烟气温度预报模型是十分必要的。
发明内容
针对上述问题,本发明提供了一种基于鲁棒随机配置网络的城市生活垃圾焚烧过程一燃室烟气温度预报方法,可以根据炉排速度、一次风量、二次风量等输入变量对焚烧炉一燃室的烟气温度进行预报,从而为焚烧过程的稳定控制提供指导。
为达到上述目的,本发明采用如下技术方案:
城市生活垃圾焚烧过程一燃室烟气温度预报方法,其特征在于,包括以下步骤:(1)构建预报模型的训练集;(2)参数初始化;(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;(5)执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;(6)执行期望最大化算法的M-step,得到超参数及隐含层输出权重的迭代解;(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程。进一步具体包括如下步骤:
(1)构建预报模型的训练集;将各段炉排速度、一次风量、二次风量等60个特征变量(如表1所示)的样本数据作为训练集的输入X,一燃室烟气温度作为训练集的输出Y,组成样本容量为N的训练集D,如下式所示:
其中,n表示训练集D中的第n组数据;R表示实数域;K表示训练集D的输入特征数量,此处K=62。
接着,对训练集D中各个特征变量进行归一化处理,如下式所示:
其中,k=1,2,…,K+1;n=1,2,…,N,此处N表示训练样本容量;表示归一化后第n个样本的第k个特征变量值;min(x1,k,…,xN,k)表示训练集D中第k个特征变量的最小值,max(x1,k,…,xN,k)表示训练集D中第k个特征变量的最大值,xn,k表示训练集D中的第n个训练样本的第k个特征变量的值。
(2)参数初始化;令随机配置网络算法的最大隐含层神经元个数为Lmax,最大配置次数为Tmax,训练预期误差为ε,隐含层神经元的输入权重和偏置的参数配置范围为[-λ,+λ];
(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估。对于目标函数f:RK→R,假设随机配置网络的L-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:
其中,X表示训练集的输入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隐含层神经元数量为L-1时的隐含层输出矩阵;表示HL-1(X)的转置;β={β1,β2,…,βL-1}表示隐含层神经元的输出权重矩阵,且β采用式(5)计算得出;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出 表示第j个隐含层神经元的激活函数,此处为Sigmoid函数,j=1,..,L-1。此时,随机配置网络的输出残差为eL-1(X)=f(X)-fL-1(X),其中f(X)表示输入为X时目标函数的输出。如果eL-1(X)的矩阵范数大于期望误差ε,需根据式(4)的监督机制在[-λ,+λ]随机生成第L个隐含层神经元(wL和bL)并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于ε(ε的取值根据模型允许的误差进行设置,此处ε为0.0001)或者隐含层神经元数量到达最大值Lmax。
其中,hL(X)表示第L个隐含层神经元的输出;{μL}是非负实数序列,μL=(1-r)/L且常数r的取值范围为(0,1);Y为训练集的输出;表示隐含层神经元数量为L时的隐含层输出HL的伪逆;||·||F表示F-范数运算,此处λ=1,由于不等式(4)监督机制的约束,保证了网络的通用逼近性质,因此,λ的取值对实验结果基本没有影响。
(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由g个Student分布组成的混合分布,其概率密度函数如式(6)所示:
其中,g表示混合分布中子分布的数量,S(ε;0,σi,vi)表示第i个Student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,…,g;Ω={ω1,ω2,…,ωg}表示每个Student分布的权重系数的集合,ωi≥0且Σ={σ1,σ2,…,σg}表示每个Student分布的尺度参数的集合,V={v1,v2,…,vg}表示每个Student分布的自由度的集合,Γ(·)表示伽玛函数,其计算表达式为且
此时,第n的训练样本的输出yn的概率密度函数如下所示:
其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个Student分布的尺度参数,vi表示第i个Student分布的自由度,ωi表示第i个Student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出;i=1,2,3;S(yn;h(xn)β*,σi,vi)表示位置参数为h(xn)β*、尺度参数为σi且自由度为vi的Student分布。
为了便于后续计算,在训练集D内引入服从gamma(un;v/2,v/2)分布的潜变量U={u1,u2,…,uN},引入潜变量U后的训练集表示为M={X,Y,U}。此时,可以将Student分布的概率密度函数可以表示为高斯分布与伽玛分布的乘积形式。假设训练集内所有的样本相互独立,则训练集M的似然函数可表示为:
其中,S(yn;h(xn)β*,σi,vi)表示yn服从位置参数为h(xn)β*、尺度参数为σi以及自由度为vi的Student分布;un表示训练集M中第n个样本对应的潜变量;Gaussian(yn;h(xn)β*,σi 2/un)表示均值为h(xn)β*且标准差为σi 2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布。
根据贝叶斯定理,计算隐含层输出权重β后验分布的公式是:
其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:
其中,L表示隐含层神经元数量。
于是,式(8)对应的对数似然函数是:
其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
根据最大后验估计估计算法,随机配置网络的隐含层权重β*以及超参数可以通过下式计算得出:
根据期望最大算法,在数据集M的基础上引入潜变量Z={z1,z2,…,zN}构成新的数据集T={X,Y,U,Z}。其中,zn={z1n,z2n,…,zgn}(n=1,2,…,N,N表示训练样本容量;g为混合分布中子分布的数量)的概率分布如下式所示:
其中,zin表示集合Z中的第n个变量的第i个特征值,ωi表示第i个Student分布的权重系数。
此时,式(11)所示的似然函数可被更新为下式:
于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:
其中c2为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
合并(10)、(14)和(15)可得:
(5)执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集D下的条件期望:
其中,E(·)表示数学期望,c3为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果;并且,由于后续进行求导运算,此处省略了与超参数无关的项。其中,在给定训练集D情况下,zin的条件期望为γin;un的条件期望为χin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函数,i=1,2,…,g,g表示混合分布中子分布的数量。
(6)执行期望最大化算法的M-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化。令对的偏导数为0,对于i=1,2,…,g,第i个Student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个Student分布的权重系数;表示第q+1次迭代后第i个Student分布的尺度参数;χin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示SCN网络的隐含层输出;β*表示隐含层输出权重。。
为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:
第i个Student分布的自由度按下式计算得出:
其中,和分别表示第q次迭代和第q+1次迭代后第i个Student分布的自由度。
此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解。
的迭代计算公式是:
其中,表示第q+1次迭代后β*的先验分布的方差,L为随机配置网络隐含层神经元数量。
输出权重β*的迭代公式是:
β*(q+1)=(HT(X)Φ(q+1)H(X)+IL)-1(HT(X)Φ(q+1)Y) (26)
其中,HT(X)表示输入矩阵为X时随机配置网络的隐含层输出矩阵的转置;IL表示L维单位矩阵;为维度为N的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:
(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束。
其中,η表示趋于0的正数,此处取值为10-6。
本发明与现有技术相比具有以下优点:1.本发明采用随机配置网络学习算法作为一燃室烟气温度预报模型的学习算法,极大的避免了人工设定对网络结构的影响且模型的训练速度较快。2.随机配置网络的通用逼近性质保证了预报模型的准确性。3.采用混合Student分布较好的模拟了训练样本中的噪声和误差分布,从而提升了温度预报模型的鲁棒性和泛化能力。
附图说明
图1为本发明城市生活垃圾焚烧过程的一燃室烟气温度预报方法策略图
具体实施方式
样本数据来自某城市生活垃圾焚烧发电厂焚烧过程中产生的700组数据,下面结合图1的策略图对本发明的具体实施方式做进一步说明。
城市生活垃圾焚烧过程的一燃室烟气温度预报方法,其特征在于包括以下步骤:
(1)构建预报模型的训练集;将各段炉排速度、一次风量、二次风量等62个特征变量(如表1所示)的样本数据作为训练集的输入X,一燃室烟气温度作为训练集的输出Y,组成样本容量为700的训练集D,如下式所示:
其中,n表示训练集D中的第n组数据,R表示实数域,训练集D的输入特征数量为62。
接着,对训练集D中各个特征变量进行归一化处理,如下式所示:
其中,k=1,2,…63;n=1,2,…,700;表示归一化后第n个样本的第k个特征变量值,min(x1,k,…,x700,k)表示训练集D中第k个特征变量的最小值,max(x1,k,…,x700,k)表示训练集D中第k个特征变量的最大值,xn,k表示训练集D中的第n个训练样本的第k个特征变量的值。
(2)参数初始化;令随机配置网络模型的最大隐含层神经元个数为60,最大配置次数为200,训练预期误差为0.001,隐含层神经元的输入权重和偏置的参数配置范围为[-1,+1];
(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估。对于目标函数f:R62→R,假设随机配置网络的L-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:
其中,X表示训练集的输入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隐含层神经元数量为L-1时的隐含层输出矩阵,且β采用式(5)计算得出;表示HL-1(X)的转置;β={β1,β2,…,βL-1}表示隐含层神经元的输出权重矩阵;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出表示第j个隐含层神经元的激活函数,此处为Sigmoid函数,j=1,..,L-1。此时,随机配置网络的输出残差为eL-1(X)=f(X)-fL-1(X),其中f(X)表示输入为X时目标函数的输出。如果eL-1(X)的矩阵范数大于期望误差0.001,需根据式(4)的监督机制在[-1,+1]内随机生成第L个隐含层神经元(wL和bL)并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于0.0001或者隐含层神经元数量到达60。
其中,hL(X)表示第L个隐含层神经元的输出;{μL}是非负实数序列,μL=(1-r)/L且常数r的取值为{0.9,0.99,0.999,0.9999,0.99999};Y为训练集的输出;表示隐含层神经元数量为L时的隐含层输出HL的伪逆;||·||F表示F-范数运算。
(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由3个Student分布组成的混合分布,其概率密度函数如式(6)所示:
其中,S(ε;0,σi,vi)表示第i个Student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,3;Ω={ω1,ω2,ω3}表示每个Student分布的权重系数的集,且ω1=ω2=ω3=1/3,Σ={σ1,σ2,σ3}表示每个Student分布的尺度参数的集合,且σ1=0.20,σ2=0.15,σ3=0.10;V={v1,v2,v3}表示每个Student分布的自由度的集合,且v1=v2=v3=5,Γ(·)表示伽玛函数,其计算表达式为且
此时,第n的训练样本的输出yn的概率密度函数如下所示:
其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个Student分布的尺度参数,vi表示第i个Student分布的自由度,ωi表示第i个Student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出,i=1,2,3;S(yn;h(xn)β*,σi,vi)表示位置参数为h(xn)β*、尺度参数为σi且自由度为vi的Student分布。
为了便于后续计算,在训练集D内引入服从gamma(un;vi/2,vi/2)分布的潜变量U={u1,u2,…,u700},i=1,2,3,引入潜变量U后的训练集表示为M={X,Y,U}。此时可以将Student分布的概率密度函数可以表示为高斯分布与伽玛分布的乘积形式。假设训练集内所有的样本相互独立,则训练集M的似然函数可表示为:
其中,S(yn;h(xn)β*,σi,vi)表示yn服从位置参数为h(xn)β*、尺度参数为σi以及自由度为vi的Student分布;un表示训练集M中第n个样本对应的潜变量;Gaussian(yn;h(xn)β*,σi 2/un)表示均值为h(xn)β*且标准差为σi 2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布。
根据贝叶斯定理,计算隐含层输出权重β*后验分布的公式是:
其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:
其中,L表示隐含层神经元数量。
于是,式(8)对应的对数似然函数是:
其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
根据最大后验估计估计算法,随机配置网络的隐含层输出权重β以及超参数可以通过下式计算得出:
根据期望最大算法,在数据集M的基础上引入潜变量Z={z1,z2,…,z700}构成新的数据集T={X,Y,U,Z}。其中,zn={z1n,z2n,z3n}(n=1,2,…,700)的概率分布如下式所示:
其中,zin表示集合Z中的第n个变量的第i个特征值,ωi表示第i个Student分布的权重系数。
此时,式(11)所示的似然函数可被更新为下式:
于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:
其中c2为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
合并(10)、(14)和(15)可得:
(5)执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集D下的条件期望:
其中,E(·)表示数学期望,c3为常数且不影响算法求解性能;并且,由于后续进行求导运算,此处省略了与超参数无关的项。其中,在给定训练集D情况下,zin的条件期望为γin;un的条件期望为xin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函数,i=1,2,3。
(6)执行期望最大化算法的M-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化。令对的偏导数为0,对于i=1,2,3,第i个Student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个Student分布的权重系数;表示第q+1次迭代后第i个Student分布的尺度参数;Xin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示SCN网络的隐含层输出;β*表示隐含层输出权重。。
为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:
第i个Student分布的自由度按下式计算得出:
其中,和分别表示第q次迭代和第q+1次迭代后第i个Student分布的自由度。
此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解。
的迭代计算公式是:
其中,表示第q+1次迭代后β*的先验分布的方差,L为随机配置网络隐含层神经元数量。
输出权重β的迭代公式是:
β*(q+1)=(HT(X)Φ(q+1)H(X)+IL)-1(HT(X)Φ(q+1)Y) (26)
其中,HT(X)表示输入矩阵为X时随机配置网络的隐含层输出矩阵的转置;IL表示L维单位矩阵,为维度为700的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:
(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束。
其中,η=10-6,该参数的选取会影响算法的收敛速度和准确性。
表1变量明细
目前,城市生活垃圾焚烧过程的一燃室烟气温度预报模型的研究主要集中在机理模型,而机理模型的预报准确率不能满足要求。另外,由于垃圾焚烧发电厂采集的样本普遍包含服从未知分布的异常值或噪声,导致基于数据驱动的预报模型的泛化能力较差。本发明提供了一种基于鲁棒随机配置网络的一燃室烟气温度预报方法,通过学习垃圾焚烧发电厂的历史数据,建立了鲁棒性强且准确度高的一燃室烟气温度预报模型。预报模型可以实时预报下一阶段一燃室烟气的温度,从而提醒操作人员对进风量和进料量做出及时的调整,极大的降低了由于操作问题造成的焚烧过程异常情况的发生。为了直观的体现本发明鲁棒性和准确性,在100条垃圾焚烧发电厂的历史数据的基础上分别引入10%、15%、20%、25%和30%的随机噪声作为测试样本,实验结果表明,本发明的预报均方根误差分别为0.0363、0.0355、0.0372、0.0387和0.0419(此处为归一化后的结果),达到了较为准确的预报效果。
Claims (1)
1.城市生活垃圾焚烧过程一燃室烟气温度预报方法,其特征在于,具体包括如下步骤:
步骤一构建预报模型的训练集;将表1所示的62个特征变量的样本数据作为训练集的输入X,一燃室烟气温度作为训练集的输出Y,组成样本容量为N的训练集D,如下式所示:
其中,n表示训练集D中的第n组数据,R表示实数域,K表示训练集D的输入特征数量,此处K=62;
接着,对训练集D中各个特征变量进行归一化处理,如下式所示:
其中,k=1,2,…,K+1;n=1,2,…,N,此处N表示训练样本容量;表示归一化后第n个样本的第k个特征变量值,min(x1,k,…,xN,k)表示训练集D中第k个特征变量的最小值,max(x1,k,…,xN,k)表示训练集D中第k个特征变量的最大值,xn,k表示训练集D中的第n个训练样本的第k个特征变量的值;
步骤二参数初始化;令随机配置网络算法的最大隐含层神经元个数为Lmax,最大配置次数为Tmax,训练预期误差为ε,隐含层神经元的输入权重和偏置的参数配置范围为[-λ,+λ];步骤三采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估;对于目标函数f:RK→R,假设随机配置网络的L-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:
其中,X表示训练集的输入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隐含层神经元数量为L-1时的隐含层输出矩阵;表示HL-1(X)的转置;β={β1,β2,…,βL-1}表示隐含层神经元的输出权重矩阵,且β采用式(5)计算得出;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出 表示第j个隐含层神经元的激活函数,此处为Sigmoid函数,j=1,...,L-1;此时,随机配置网络的输出残差为eL-1(X)=f(X)-f L-1(X),其中f(X)表示输入为X时目标函数的输出;如果eL-1(X)的矩阵范数大于期望误差ε,需根据式(4)的监督机制在[-λ,+λ]内随机生成第L个隐含层神经元,它的输入权重和偏置分别为wL和bL,并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于ε,ε的取值根据模型允许的误差进行设置,此处ε=0.0001;或者隐含层神经元数量到达最大值Lmax;
其中,hL(X)表示第L个隐含层神经元的输出;{μL}是非负实数序列,μL=(1-r)/L且常数r的取值范围为(0,1);Y为训练集的输出;表示隐含层神经元数量为L时的隐含层输出HL的伪逆;||·||F表示F-范数运算,此处λ=1,由于不等式(4)监督机制的约束,保证了网络的通用逼近性质,因此,λ的取值对实验结果基本没有影响;
步骤四对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由g个Student分布组成的混合分布,其概率密度函数如式(6)所示:
其中,g表示混合分布中子分布的数量,S(ε;0,σi,vi)表示第i个Student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,…,g;Ω={ω1,ω2,…,ωg}表示每个Student分布的权重系数的集合,ωi≥0且Σ={σ1,σ2,…,σg}表示每个Student分布的尺度参数的集合,V={v1,v2,…,vg}表示每个Student分布的自由度的集合,Γ(·)表示伽玛函数,其计算表达式为且
此时,第n的训练样本的输出yn的概率密度函数如下所示:
其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个Student分布的尺度参数,vi表示第i个Student分布的自由度,ωi表示第i个Student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出,i=1,2,3;S(yn;h(xn)β*,σi,vi)表示位置参数为h(xn)β*、尺度参数为σi且自由度为vi的Student分布;
为了便于后续计算,在训练集D内引入服从gamma(un;vi/2,vi/2)分布的潜变量U={u1,u2,…,uN},引入潜变量U后的训练集表示为M={X,Y,U};此时将Student分布的概率密度函数表示为高斯分布与伽玛分布的乘积形式;假设训练集内所有的样本相互独立,则训练集M的似然函数可表示为:
其中,S(yn;h(xn)β*,σi,vi)表示yn服从位置参数为h(xn)β*、尺度参数为σi以及自由度为vi的Student分布;un表示训练集M中第n个样本对应的潜变量;Gaussian(yn;h(xn)β*,σi 2/un)表示均值为h(xn)β*且标准差为σi 2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布;
根据贝叶斯定理,计算隐含层输出权重β*后验分布的公式是:
其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:
其中,L表示随机配置网络隐含层神经元数量;
于是,式(8)对应的对数似然函数是:
其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数;
根据最大后验估计估计算法,随机配置网络的隐含层输出权重β*以及超参数通过下式计算得出:
根据期望最大算法,在数据集M的基础上引入潜变量Z={z1,z2,…,zN}构成新的数据集T={X,Y,U,Z};其中,zn={z1n,z2n,…,zgn}的概率分布如下式所示:
其中,n=1,2,…,N,N表示训练样本容量,g为混合分布中子分布的数量,zin表示集合Z中的第n个变量的第i个特征值,ωi表示第i个Student分布的权重系数;
此时,式(11)所示的似然函数可被更新为下式:
于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:
其中c2为对数运算后产生的常数;
合并(10)、(14)和(15)可得:
步骤五执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集D下的条件期望:
其中,E(·)表示数学期望,c3为期望运算后产生的常数;并且,由于后续进行求导运算,此处省略了与超参数无关的项;其中,在给定训练集D情况下,zin的条件期望为γin;un的条件期望为χin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函数,i=1,2,…,g,g表示混合分布中子分布的数量;
步骤六执行期望最大化算法的M-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化;令对的偏导数为0,对于i=1,2,…,g,第i个Student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个Student分布的权重系数;表示第q+1次迭代后第i个Student分布的尺度参数;χin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示SCN网络的隐含层输出;β*表示隐含层输出权重;
为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:
第i个Student分布的自由度按下式计算得出:
其中,和分别表示第q次迭代和第q+1次迭代后第i个Student分布的自由度;
此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解;
的迭代计算公式是:
其中,表示第q+1次迭代后β*的先验分布的方差,L为随机配置网络隐含层神经元数量;
输出权重β*的迭代公式是:
其中,HT(X)表示输入矩阵为X时随机配置网络的隐含层输出矩阵的转置;IL表示L维单位矩阵;为维度为N的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:
步骤七重复上述步骤五和步骤六,直至得出混合Student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束;
其中,η表示趋于0的正数,此处取值为10-6;
表1变量明细
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110451164.6A CN113191078B (zh) | 2021-04-26 | 2021-04-26 | 城市生活垃圾焚烧过程一燃室烟气温度预报方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110451164.6A CN113191078B (zh) | 2021-04-26 | 2021-04-26 | 城市生活垃圾焚烧过程一燃室烟气温度预报方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113191078A CN113191078A (zh) | 2021-07-30 |
CN113191078B true CN113191078B (zh) | 2024-05-31 |
Family
ID=76978859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110451164.6A Active CN113191078B (zh) | 2021-04-26 | 2021-04-26 | 城市生活垃圾焚烧过程一燃室烟气温度预报方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191078B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114186472B (zh) * | 2021-08-27 | 2023-05-02 | 北京工业大学 | 一种多输入多输出的城市固废焚烧过程模型设计方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600001A (zh) * | 2016-12-05 | 2017-04-26 | 清华大学 | 基于混合高斯分布相关学习机的玻璃窑炉温度预报方法 |
CN108224446A (zh) * | 2017-12-31 | 2018-06-29 | 北京工业大学 | 一种垃圾焚烧过程的自动燃烧优化决策方法 |
CN111144609A (zh) * | 2019-11-13 | 2020-05-12 | 瀚蓝绿电固废处理(佛山)有限公司 | 一种锅炉废气排放预测模型建立方法、预测方法及装置 |
-
2021
- 2021-04-26 CN CN202110451164.6A patent/CN113191078B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600001A (zh) * | 2016-12-05 | 2017-04-26 | 清华大学 | 基于混合高斯分布相关学习机的玻璃窑炉温度预报方法 |
CN108224446A (zh) * | 2017-12-31 | 2018-06-29 | 北京工业大学 | 一种垃圾焚烧过程的自动燃烧优化决策方法 |
CN111144609A (zh) * | 2019-11-13 | 2020-05-12 | 瀚蓝绿电固废处理(佛山)有限公司 | 一种锅炉废气排放预测模型建立方法、预测方法及装置 |
Non-Patent Citations (1)
Title |
---|
《Dioxin emission concentration soft measuring method based on selective ensemble least square support vector machine algorithm》;Tang Jian等;《Proceeding of the 37th Chinese Control Conference》;第7969-7974页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113191078A (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rotshtein et al. | Fuzzy evidence in identification, forecasting and diagnosis | |
Chen et al. | Nonlinear system modelling via optimal design of neural trees | |
Wang et al. | An efficient self-organizing deep fuzzy neural network for nonlinear system modeling | |
Zhu et al. | Coke price prediction approach based on dense GRU and opposition-based learning salp swarm algorithm | |
CN105893694A (zh) | 一种基于重采样粒子群优化算法的复杂系统设计方法 | |
Qiao et al. | A self-organizing RBF neural network based on distance concentration immune algorithm | |
Sun et al. | Evaluation of university project based on partial least squares and dynamic back propagation neural network group | |
CN113962454A (zh) | 基于双重特征选择+粒子群优化的lstm能耗预测方法 | |
CN113191078B (zh) | 城市生活垃圾焚烧过程一燃室烟气温度预报方法 | |
Rad et al. | GP-RVM: Genetic programing-based symbolic regression using relevance vector machine | |
CN109408896B (zh) | 一种污水厌氧处理产气量多元智能实时监控方法 | |
Li et al. | Research on short term prediction method of thermal hydraulic transient operation parameters based on automated deep learning | |
Su et al. | A combined model based on secondary decomposition technique and grey wolf optimizer for short-term wind power forecasting | |
Khosla et al. | A comparison of computational efforts between particle swarm optimization and genetic algorithm for identification of fuzzy models | |
Qiu et al. | Air traffic flow of genetic algorithm to optimize wavelet neural network prediction | |
Orang et al. | Introducing randomized high order fuzzy cognitive maps as reservoir computing models: a case study in solar energy and load forecasting | |
CN115796327A (zh) | 一种基于vmd和iwoa-f-gru模型的风电功率区间预测方法 | |
Warsito et al. | Particle swarm optimization to obtain weights in neural network | |
Liu et al. | Network traffic big data prediction model based on combinatorial learning | |
Zhang et al. | Wind farm wind power prediction method based on CEEMDAN and DE optimized DNN neural network | |
CN113902492A (zh) | 一种分时电价预测方法及系统 | |
Liu et al. | Prediction of Biochemical Oxygen Demand Based on VIP-PSO-Elman Model in Wastewater Treatment | |
Wang | A review of the application of neural networks and global optimization algorithms in hydroturbine optimization | |
Shao et al. | A new improved echo state network with multiple output layers for time series prediction | |
Yi et al. | Ultra-Short Term Power Prediction Of Wind Farm Based On EEMDSE-GGRU |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |