CN113191078B - 城市生活垃圾焚烧过程一燃室烟气温度预报方法 - Google Patents

城市生活垃圾焚烧过程一燃室烟气温度预报方法 Download PDF

Info

Publication number
CN113191078B
CN113191078B CN202110451164.6A CN202110451164A CN113191078B CN 113191078 B CN113191078 B CN 113191078B CN 202110451164 A CN202110451164 A CN 202110451164A CN 113191078 B CN113191078 B CN 113191078B
Authority
CN
China
Prior art keywords
distribution
hidden layer
training set
output
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110451164.6A
Other languages
English (en)
Other versions
CN113191078A (zh
Inventor
严爱军
郭京承
李昂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110451164.6A priority Critical patent/CN113191078B/zh
Publication of CN113191078A publication Critical patent/CN113191078A/zh
Application granted granted Critical
Publication of CN113191078B publication Critical patent/CN113191078B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/08Thermal analysis or thermal optimisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/10Noise analysis or noise optimisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

城市生活垃圾焚烧过程一燃室烟气温度预报方法,涉及城市生活垃圾焚烧过程关键参数预报领域,通过炉排速度、一次风量、二次风量等输入变量预报焚烧炉一燃室的烟气温度,进而为焚烧过程的稳定控制提供指导,主要包括如下步骤:(1)构建预报模型的训练集;(2)参数初始化;(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;(5)执行期望最大化算法的E‑step,得到训练集中各个潜变量的期望值;(6)执行期望最大化算法的M‑step,得到混合分布的超参数及隐含层输出权重的迭代解;(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程。

Description

城市生活垃圾焚烧过程一燃室烟气温度预报方法
技术领域
本发明涉及城市生活垃圾焚烧过程关键参数预报技术领域,更具体来说,本发明是一种城市生活垃圾焚烧过程的一燃室烟气温度预报方法。
背景技术
随着我国经济水平的快速提高、城市化水平的逐步提升以及城市人口的飞速增加,城市生活垃圾的产量也随之增加。目前,垃圾焚烧发电技术是我国城市生活垃圾处理的主要方法之一,该方法可以实现城市生活垃圾的减量化、资源化以及无害化。然而,受我国生活习惯、地域、季节等因素影响,我国垃圾组分存在着较大的随机性,而且我国垃圾普遍没有经过分类处理,这对焚烧过程提出了很高的要求。准确的预报垃圾焚烧过程一燃室烟气温度可以为现场操作人员提供有效地指导,同时为焚烧过程的稳定控制提供保证。因此,本发明的研究成果具有重要的现实意义。
值得注意的是,城市生活垃圾焚烧处理的原则是在保证垃圾稳定燃烧且环境影响最小的前提下,提高垃圾焚烧过程的经济效益。一燃室烟气温度是决定焚烧过程是否合理的关键指标。当一燃室烟气温度低于850℃时,具有强致癌性的二噁英将得不到有效分解,从而危及人类的健康;相反,烟气温度过高会降低焚烧炉的使用寿命并会造成资源的浪费。此外,准确预报一燃室烟气温度有助于操作人员对进风量和进料量做出及时的调整,从而保证垃圾焚烧过程的稳定运行。
目前,针对城市生活垃圾焚烧过程的炉温预报方法的研究主要集中在机理模型的研究,即根据焚烧炉内的质量守恒、能量守恒以及相关的物理化学反应方程等建立一燃室烟气温度预报模型。虽然机理分析具有可靠性高、外推性好等优点,但由于焚烧过程存在垃圾成分复杂、强非线性、变量间耦合严重等复杂特性,采用机理模型作为一燃室烟气温度的预报模型很难满足要求。随着传感器技术的大力发展,垃圾焚烧发电厂可以获得大量的焚烧数据,这为基于数据驱动的预报方法提供了有力保障,如:BP神经网络、支持向量机等。然而,由于众所周知的原因,如:BP神经网络容易陷入局部最优且收敛速度慢;支持向量机对大规模数据样本的训练效率低等,使得这些典型方法的应用具有一定的局限性。
随机配置网络(SCN)作为一种新兴的数据驱动建模方法,以其通用逼近性质、网络结构随机配置、训练速度快等优点引起广大研究人员的关注,并在模式分类、函数逼近、参数预测等领域得到了有效应用。然而,从垃圾焚烧发电厂采集的数据普遍存在服从未知分布的噪声或异常值,这导致基于数据驱动的预报模型的准确性下降。仅采用经典的随机配置网络算法建立垃圾焚烧过程一燃室烟气温度预报模型是不能满足要求的。因此,研究一种具有鲁棒性的城市生活垃圾焚烧过程一燃室烟气温度预报模型是十分必要的。
发明内容
针对上述问题,本发明提供了一种基于鲁棒随机配置网络的城市生活垃圾焚烧过程一燃室烟气温度预报方法,可以根据炉排速度、一次风量、二次风量等输入变量对焚烧炉一燃室的烟气温度进行预报,从而为焚烧过程的稳定控制提供指导。
为达到上述目的,本发明采用如下技术方案:
城市生活垃圾焚烧过程一燃室烟气温度预报方法,其特征在于,包括以下步骤:(1)构建预报模型的训练集;(2)参数初始化;(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;(5)执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;(6)执行期望最大化算法的M-step,得到超参数及隐含层输出权重的迭代解;(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程。进一步具体包括如下步骤:
(1)构建预报模型的训练集;将各段炉排速度、一次风量、二次风量等60个特征变量(如表1所示)的样本数据作为训练集的输入X,一燃室烟气温度作为训练集的输出Y,组成样本容量为N的训练集D,如下式所示:
其中,n表示训练集D中的第n组数据;R表示实数域;K表示训练集D的输入特征数量,此处K=62。
接着,对训练集D中各个特征变量进行归一化处理,如下式所示:
其中,k=1,2,…,K+1;n=1,2,…,N,此处N表示训练样本容量;表示归一化后第n个样本的第k个特征变量值;min(x1,k,…,xN,k)表示训练集D中第k个特征变量的最小值,max(x1,k,…,xN,k)表示训练集D中第k个特征变量的最大值,xn,k表示训练集D中的第n个训练样本的第k个特征变量的值。
(2)参数初始化;令随机配置网络算法的最大隐含层神经元个数为Lmax,最大配置次数为Tmax,训练预期误差为ε,隐含层神经元的输入权重和偏置的参数配置范围为[-λ,+λ];
(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估。对于目标函数f:RK→R,假设随机配置网络的L-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:
其中,X表示训练集的输入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隐含层神经元数量为L-1时的隐含层输出矩阵;表示HL-1(X)的转置;β={β12,…,βL-1}表示隐含层神经元的输出权重矩阵,且β采用式(5)计算得出;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出 表示第j个隐含层神经元的激活函数,此处为Sigmoid函数,j=1,..,L-1。此时,随机配置网络的输出残差为eL-1(X)=f(X)-fL-1(X),其中f(X)表示输入为X时目标函数的输出。如果eL-1(X)的矩阵范数大于期望误差ε,需根据式(4)的监督机制在[-λ,+λ]随机生成第L个隐含层神经元(wL和bL)并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于ε(ε的取值根据模型允许的误差进行设置,此处ε为0.0001)或者隐含层神经元数量到达最大值Lmax
其中,hL(X)表示第L个隐含层神经元的输出;{μL}是非负实数序列,μL=(1-r)/L且常数r的取值范围为(0,1);Y为训练集的输出;表示隐含层神经元数量为L时的隐含层输出HL的伪逆;||·||F表示F-范数运算,此处λ=1,由于不等式(4)监督机制的约束,保证了网络的通用逼近性质,因此,λ的取值对实验结果基本没有影响。
(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由g个Student分布组成的混合分布,其概率密度函数如式(6)所示:
其中,g表示混合分布中子分布的数量,S(ε;0,σi,vi)表示第i个Student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,…,g;Ω={ω12,…,ωg}表示每个Student分布的权重系数的集合,ωi≥0且Σ={σ1,σ2,…,σg}表示每个Student分布的尺度参数的集合,V={v1,v2,…,vg}表示每个Student分布的自由度的集合,Γ(·)表示伽玛函数,其计算表达式为
此时,第n的训练样本的输出yn的概率密度函数如下所示:
其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个Student分布的尺度参数,vi表示第i个Student分布的自由度,ωi表示第i个Student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出;i=1,2,3;S(yn;h(xn*,σi,vi)表示位置参数为h(xn*、尺度参数为σi且自由度为vi的Student分布。
为了便于后续计算,在训练集D内引入服从gamma(un;v/2,v/2)分布的潜变量U={u1,u2,…,uN},引入潜变量U后的训练集表示为M={X,Y,U}。此时,可以将Student分布的概率密度函数可以表示为高斯分布与伽玛分布的乘积形式。假设训练集内所有的样本相互独立,则训练集M的似然函数可表示为:
其中,S(yn;h(xn*,σi,vi)表示yn服从位置参数为h(xn*、尺度参数为σi以及自由度为vi的Student分布;un表示训练集M中第n个样本对应的潜变量;Gaussian(yn;h(xn*i 2/un)表示均值为h(xn*且标准差为σi 2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布。
根据贝叶斯定理,计算隐含层输出权重β后验分布的公式是:
其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:
其中,L表示隐含层神经元数量。
于是,式(8)对应的对数似然函数是:
其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
根据最大后验估计估计算法,随机配置网络的隐含层权重β*以及超参数可以通过下式计算得出:
根据期望最大算法,在数据集M的基础上引入潜变量Z={z1,z2,…,zN}构成新的数据集T={X,Y,U,Z}。其中,zn={z1n,z2n,…,zgn}(n=1,2,…,N,N表示训练样本容量;g为混合分布中子分布的数量)的概率分布如下式所示:
其中,zin表示集合Z中的第n个变量的第i个特征值,ωi表示第i个Student分布的权重系数。
此时,式(11)所示的似然函数可被更新为下式:
于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:
其中c2为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
合并(10)、(14)和(15)可得:
(5)执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集D下的条件期望:
其中,E(·)表示数学期望,c3为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果;并且,由于后续进行求导运算,此处省略了与超参数无关的项。其中,在给定训练集D情况下,zin的条件期望为γin;un的条件期望为χin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函数,i=1,2,…,g,g表示混合分布中子分布的数量。
(6)执行期望最大化算法的M-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化。令的偏导数为0,对于i=1,2,…,g,第i个Student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个Student分布的权重系数;表示第q+1次迭代后第i个Student分布的尺度参数;χin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示SCN网络的隐含层输出;β*表示隐含层输出权重。。
为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:
第i个Student分布的自由度按下式计算得出:
其中,分别表示第q次迭代和第q+1次迭代后第i个Student分布的自由度。
此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解。
的迭代计算公式是:
其中,表示第q+1次迭代后β*的先验分布的方差,L为随机配置网络隐含层神经元数量。
输出权重β*的迭代公式是:
β*(q+1)=(HT(X)Φ(q+1)H(X)+IL)-1(HT(X)Φ(q+1)Y) (26)
其中,HT(X)表示输入矩阵为X时随机配置网络的隐含层输出矩阵的转置;IL表示L维单位矩阵;为维度为N的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:
(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束。
其中,η表示趋于0的正数,此处取值为10-6
本发明与现有技术相比具有以下优点:1.本发明采用随机配置网络学习算法作为一燃室烟气温度预报模型的学习算法,极大的避免了人工设定对网络结构的影响且模型的训练速度较快。2.随机配置网络的通用逼近性质保证了预报模型的准确性。3.采用混合Student分布较好的模拟了训练样本中的噪声和误差分布,从而提升了温度预报模型的鲁棒性和泛化能力。
附图说明
图1为本发明城市生活垃圾焚烧过程的一燃室烟气温度预报方法策略图
具体实施方式
样本数据来自某城市生活垃圾焚烧发电厂焚烧过程中产生的700组数据,下面结合图1的策略图对本发明的具体实施方式做进一步说明。
城市生活垃圾焚烧过程的一燃室烟气温度预报方法,其特征在于包括以下步骤:
(1)构建预报模型的训练集;将各段炉排速度、一次风量、二次风量等62个特征变量(如表1所示)的样本数据作为训练集的输入X,一燃室烟气温度作为训练集的输出Y,组成样本容量为700的训练集D,如下式所示:
其中,n表示训练集D中的第n组数据,R表示实数域,训练集D的输入特征数量为62。
接着,对训练集D中各个特征变量进行归一化处理,如下式所示:
其中,k=1,2,…63;n=1,2,…,700;表示归一化后第n个样本的第k个特征变量值,min(x1,k,…,x700,k)表示训练集D中第k个特征变量的最小值,max(x1,k,…,x700,k)表示训练集D中第k个特征变量的最大值,xn,k表示训练集D中的第n个训练样本的第k个特征变量的值。
(2)参数初始化;令随机配置网络模型的最大隐含层神经元个数为60,最大配置次数为200,训练预期误差为0.001,隐含层神经元的输入权重和偏置的参数配置范围为[-1,+1];
(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估。对于目标函数f:R62→R,假设随机配置网络的L-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:
其中,X表示训练集的输入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隐含层神经元数量为L-1时的隐含层输出矩阵,且β采用式(5)计算得出;表示HL-1(X)的转置;β={β12,…,βL-1}表示隐含层神经元的输出权重矩阵;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出表示第j个隐含层神经元的激活函数,此处为Sigmoid函数,j=1,..,L-1。此时,随机配置网络的输出残差为eL-1(X)=f(X)-fL-1(X),其中f(X)表示输入为X时目标函数的输出。如果eL-1(X)的矩阵范数大于期望误差0.001,需根据式(4)的监督机制在[-1,+1]内随机生成第L个隐含层神经元(wL和bL)并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于0.0001或者隐含层神经元数量到达60。
其中,hL(X)表示第L个隐含层神经元的输出;{μL}是非负实数序列,μL=(1-r)/L且常数r的取值为{0.9,0.99,0.999,0.9999,0.99999};Y为训练集的输出;表示隐含层神经元数量为L时的隐含层输出HL的伪逆;||·||F表示F-范数运算。
(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由3个Student分布组成的混合分布,其概率密度函数如式(6)所示:
其中,S(ε;0,σi,vi)表示第i个Student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,3;Ω={ω123}表示每个Student分布的权重系数的集,且ω1=ω2=ω3=1/3,Σ={σ123}表示每个Student分布的尺度参数的集合,且σ1=0.20,σ2=0.15,σ3=0.10;V={v1,v2,v3}表示每个Student分布的自由度的集合,且v1=v2=v3=5,Γ(·)表示伽玛函数,其计算表达式为
此时,第n的训练样本的输出yn的概率密度函数如下所示:
其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个Student分布的尺度参数,vi表示第i个Student分布的自由度,ωi表示第i个Student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出,i=1,2,3;S(yn;h(xn*i,vi)表示位置参数为h(xn*、尺度参数为σi且自由度为vi的Student分布。
为了便于后续计算,在训练集D内引入服从gamma(un;vi/2,vi/2)分布的潜变量U={u1,u2,…,u700},i=1,2,3,引入潜变量U后的训练集表示为M={X,Y,U}。此时可以将Student分布的概率密度函数可以表示为高斯分布与伽玛分布的乘积形式。假设训练集内所有的样本相互独立,则训练集M的似然函数可表示为:
其中,S(yn;h(xn*i,vi)表示yn服从位置参数为h(xn*、尺度参数为σi以及自由度为vi的Student分布;un表示训练集M中第n个样本对应的潜变量;Gaussian(yn;h(xn*i 2/un)表示均值为h(xn*且标准差为σi 2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布。
根据贝叶斯定理,计算隐含层输出权重β*后验分布的公式是:
其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:
其中,L表示隐含层神经元数量。
于是,式(8)对应的对数似然函数是:
其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
根据最大后验估计估计算法,随机配置网络的隐含层输出权重β以及超参数可以通过下式计算得出:
根据期望最大算法,在数据集M的基础上引入潜变量Z={z1,z2,…,z700}构成新的数据集T={X,Y,U,Z}。其中,zn={z1n,z2n,z3n}(n=1,2,…,700)的概率分布如下式所示:
其中,zin表示集合Z中的第n个变量的第i个特征值,ωi表示第i个Student分布的权重系数。
此时,式(11)所示的似然函数可被更新为下式:
于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:
其中c2为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。
合并(10)、(14)和(15)可得:
(5)执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集D下的条件期望:
其中,E(·)表示数学期望,c3为常数且不影响算法求解性能;并且,由于后续进行求导运算,此处省略了与超参数无关的项。其中,在给定训练集D情况下,zin的条件期望为γin;un的条件期望为xin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函数,i=1,2,3。
(6)执行期望最大化算法的M-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化。令的偏导数为0,对于i=1,2,3,第i个Student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个Student分布的权重系数;表示第q+1次迭代后第i个Student分布的尺度参数;Xin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示SCN网络的隐含层输出;β*表示隐含层输出权重。。
为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:
第i个Student分布的自由度按下式计算得出:
其中,分别表示第q次迭代和第q+1次迭代后第i个Student分布的自由度。
此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解。
的迭代计算公式是:
其中,表示第q+1次迭代后β*的先验分布的方差,L为随机配置网络隐含层神经元数量。
输出权重β的迭代公式是:
β*(q+1)=(HT(X)Φ(q+1)H(X)+IL)-1(HT(X)Φ(q+1)Y) (26)
其中,HT(X)表示输入矩阵为X时随机配置网络的隐含层输出矩阵的转置;IL表示L维单位矩阵,为维度为700的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:
(7)重复上述步骤(5)和(6),直至得出混合Student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束。
其中,η=10-6,该参数的选取会影响算法的收敛速度和准确性。
表1变量明细
目前,城市生活垃圾焚烧过程的一燃室烟气温度预报模型的研究主要集中在机理模型,而机理模型的预报准确率不能满足要求。另外,由于垃圾焚烧发电厂采集的样本普遍包含服从未知分布的异常值或噪声,导致基于数据驱动的预报模型的泛化能力较差。本发明提供了一种基于鲁棒随机配置网络的一燃室烟气温度预报方法,通过学习垃圾焚烧发电厂的历史数据,建立了鲁棒性强且准确度高的一燃室烟气温度预报模型。预报模型可以实时预报下一阶段一燃室烟气的温度,从而提醒操作人员对进风量和进料量做出及时的调整,极大的降低了由于操作问题造成的焚烧过程异常情况的发生。为了直观的体现本发明鲁棒性和准确性,在100条垃圾焚烧发电厂的历史数据的基础上分别引入10%、15%、20%、25%和30%的随机噪声作为测试样本,实验结果表明,本发明的预报均方根误差分别为0.0363、0.0355、0.0372、0.0387和0.0419(此处为归一化后的结果),达到了较为准确的预报效果。

Claims (1)

1.城市生活垃圾焚烧过程一燃室烟气温度预报方法,其特征在于,具体包括如下步骤:
步骤一构建预报模型的训练集;将表1所示的62个特征变量的样本数据作为训练集的输入X,一燃室烟气温度作为训练集的输出Y,组成样本容量为N的训练集D,如下式所示:
其中,n表示训练集D中的第n组数据,R表示实数域,K表示训练集D的输入特征数量,此处K=62;
接着,对训练集D中各个特征变量进行归一化处理,如下式所示:
其中,k=1,2,…,K+1;n=1,2,…,N,此处N表示训练样本容量;表示归一化后第n个样本的第k个特征变量值,min(x1,k,…,xN,k)表示训练集D中第k个特征变量的最小值,max(x1,k,…,xN,k)表示训练集D中第k个特征变量的最大值,xn,k表示训练集D中的第n个训练样本的第k个特征变量的值;
步骤二参数初始化;令随机配置网络算法的最大隐含层神经元个数为Lmax,最大配置次数为Tmax,训练预期误差为ε,隐含层神经元的输入权重和偏置的参数配置范围为[-λ,+λ];步骤三采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估;对于目标函数f:RK→R,假设随机配置网络的L-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:
其中,X表示训练集的输入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隐含层神经元数量为L-1时的隐含层输出矩阵;表示HL-1(X)的转置;β={β12,…,βL-1}表示隐含层神经元的输出权重矩阵,且β采用式(5)计算得出;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出 表示第j个隐含层神经元的激活函数,此处为Sigmoid函数,j=1,...,L-1;此时,随机配置网络的输出残差为eL-1(X)=f(X)-f L-1(X),其中f(X)表示输入为X时目标函数的输出;如果eL-1(X)的矩阵范数大于期望误差ε,需根据式(4)的监督机制在[-λ,+λ]内随机生成第L个隐含层神经元,它的输入权重和偏置分别为wL和bL,并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于ε,ε的取值根据模型允许的误差进行设置,此处ε=0.0001;或者隐含层神经元数量到达最大值Lmax
其中,hL(X)表示第L个隐含层神经元的输出;{μL}是非负实数序列,μL=(1-r)/L且常数r的取值范围为(0,1);Y为训练集的输出;表示隐含层神经元数量为L时的隐含层输出HL的伪逆;||·||F表示F-范数运算,此处λ=1,由于不等式(4)监督机制的约束,保证了网络的通用逼近性质,因此,λ的取值对实验结果基本没有影响;
步骤四对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由g个Student分布组成的混合分布,其概率密度函数如式(6)所示:
其中,g表示混合分布中子分布的数量,S(ε;0,σi,vi)表示第i个Student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,…,g;Ω={ω12,…,ωg}表示每个Student分布的权重系数的集合,ωi≥0且Σ={σ12,…,σg}表示每个Student分布的尺度参数的集合,V={v1,v2,…,vg}表示每个Student分布的自由度的集合,Γ(·)表示伽玛函数,其计算表达式为
此时,第n的训练样本的输出yn的概率密度函数如下所示:
其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个Student分布的尺度参数,vi表示第i个Student分布的自由度,ωi表示第i个Student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出,i=1,2,3;S(yn;h(xn*i,vi)表示位置参数为h(xn*、尺度参数为σi且自由度为vi的Student分布;
为了便于后续计算,在训练集D内引入服从gamma(un;vi/2,vi/2)分布的潜变量U={u1,u2,…,uN},引入潜变量U后的训练集表示为M={X,Y,U};此时将Student分布的概率密度函数表示为高斯分布与伽玛分布的乘积形式;假设训练集内所有的样本相互独立,则训练集M的似然函数可表示为:
其中,S(yn;h(xn*i,vi)表示yn服从位置参数为h(xn*、尺度参数为σi以及自由度为vi的Student分布;un表示训练集M中第n个样本对应的潜变量;Gaussian(yn;h(xn*i 2/un)表示均值为h(xn*且标准差为σi 2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布;
根据贝叶斯定理,计算隐含层输出权重β*后验分布的公式是:
其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:
其中,L表示随机配置网络隐含层神经元数量;
于是,式(8)对应的对数似然函数是:
其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数;
根据最大后验估计估计算法,随机配置网络的隐含层输出权重β*以及超参数通过下式计算得出:
根据期望最大算法,在数据集M的基础上引入潜变量Z={z1,z2,…,zN}构成新的数据集T={X,Y,U,Z};其中,zn={z1n,z2n,…,zgn}的概率分布如下式所示:
其中,n=1,2,…,N,N表示训练样本容量,g为混合分布中子分布的数量,zin表示集合Z中的第n个变量的第i个特征值,ωi表示第i个Student分布的权重系数;
此时,式(11)所示的似然函数可被更新为下式:
于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:
其中c2为对数运算后产生的常数;
合并(10)、(14)和(15)可得:
步骤五执行期望最大化算法的E-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集D下的条件期望:
其中,E(·)表示数学期望,c3为期望运算后产生的常数;并且,由于后续进行求导运算,此处省略了与超参数无关的项;其中,在给定训练集D情况下,zin的条件期望为γin;un的条件期望为χin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函数,i=1,2,…,g,g表示混合分布中子分布的数量;
步骤六执行期望最大化算法的M-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化;令的偏导数为0,对于i=1,2,…,g,第i个Student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个Student分布的权重系数;表示第q+1次迭代后第i个Student分布的尺度参数;χin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示SCN网络的隐含层输出;β*表示隐含层输出权重;
为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:
第i个Student分布的自由度按下式计算得出:
其中,分别表示第q次迭代和第q+1次迭代后第i个Student分布的自由度;
此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解;
的迭代计算公式是:
其中,表示第q+1次迭代后β*的先验分布的方差,L为随机配置网络隐含层神经元数量;
输出权重β*的迭代公式是:
其中,HT(X)表示输入矩阵为X时随机配置网络的隐含层输出矩阵的转置;IL表示L维单位矩阵;为维度为N的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:
步骤七重复上述步骤五和步骤六,直至得出混合Student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束;
其中,η表示趋于0的正数,此处取值为10-6
表1变量明细
CN202110451164.6A 2021-04-26 2021-04-26 城市生活垃圾焚烧过程一燃室烟气温度预报方法 Active CN113191078B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110451164.6A CN113191078B (zh) 2021-04-26 2021-04-26 城市生活垃圾焚烧过程一燃室烟气温度预报方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110451164.6A CN113191078B (zh) 2021-04-26 2021-04-26 城市生活垃圾焚烧过程一燃室烟气温度预报方法

Publications (2)

Publication Number Publication Date
CN113191078A CN113191078A (zh) 2021-07-30
CN113191078B true CN113191078B (zh) 2024-05-31

Family

ID=76978859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110451164.6A Active CN113191078B (zh) 2021-04-26 2021-04-26 城市生活垃圾焚烧过程一燃室烟气温度预报方法

Country Status (1)

Country Link
CN (1) CN113191078B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114186472B (zh) * 2021-08-27 2023-05-02 北京工业大学 一种多输入多输出的城市固废焚烧过程模型设计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106600001A (zh) * 2016-12-05 2017-04-26 清华大学 基于混合高斯分布相关学习机的玻璃窑炉温度预报方法
CN108224446A (zh) * 2017-12-31 2018-06-29 北京工业大学 一种垃圾焚烧过程的自动燃烧优化决策方法
CN111144609A (zh) * 2019-11-13 2020-05-12 瀚蓝绿电固废处理(佛山)有限公司 一种锅炉废气排放预测模型建立方法、预测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106600001A (zh) * 2016-12-05 2017-04-26 清华大学 基于混合高斯分布相关学习机的玻璃窑炉温度预报方法
CN108224446A (zh) * 2017-12-31 2018-06-29 北京工业大学 一种垃圾焚烧过程的自动燃烧优化决策方法
CN111144609A (zh) * 2019-11-13 2020-05-12 瀚蓝绿电固废处理(佛山)有限公司 一种锅炉废气排放预测模型建立方法、预测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Dioxin emission concentration soft measuring method based on selective ensemble least square support vector machine algorithm》;Tang Jian等;《Proceeding of the 37th Chinese Control Conference》;第7969-7974页 *

Also Published As

Publication number Publication date
CN113191078A (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
Rotshtein et al. Fuzzy evidence in identification, forecasting and diagnosis
Chen et al. Nonlinear system modelling via optimal design of neural trees
Wang et al. An efficient self-organizing deep fuzzy neural network for nonlinear system modeling
Zhu et al. Coke price prediction approach based on dense GRU and opposition-based learning salp swarm algorithm
CN105893694A (zh) 一种基于重采样粒子群优化算法的复杂系统设计方法
Qiao et al. A self-organizing RBF neural network based on distance concentration immune algorithm
Sun et al. Evaluation of university project based on partial least squares and dynamic back propagation neural network group
CN113962454A (zh) 基于双重特征选择+粒子群优化的lstm能耗预测方法
CN113191078B (zh) 城市生活垃圾焚烧过程一燃室烟气温度预报方法
Rad et al. GP-RVM: Genetic programing-based symbolic regression using relevance vector machine
CN109408896B (zh) 一种污水厌氧处理产气量多元智能实时监控方法
Li et al. Research on short term prediction method of thermal hydraulic transient operation parameters based on automated deep learning
Su et al. A combined model based on secondary decomposition technique and grey wolf optimizer for short-term wind power forecasting
Khosla et al. A comparison of computational efforts between particle swarm optimization and genetic algorithm for identification of fuzzy models
Qiu et al. Air traffic flow of genetic algorithm to optimize wavelet neural network prediction
Orang et al. Introducing randomized high order fuzzy cognitive maps as reservoir computing models: a case study in solar energy and load forecasting
CN115796327A (zh) 一种基于vmd和iwoa-f-gru模型的风电功率区间预测方法
Warsito et al. Particle swarm optimization to obtain weights in neural network
Liu et al. Network traffic big data prediction model based on combinatorial learning
Zhang et al. Wind farm wind power prediction method based on CEEMDAN and DE optimized DNN neural network
CN113902492A (zh) 一种分时电价预测方法及系统
Liu et al. Prediction of Biochemical Oxygen Demand Based on VIP-PSO-Elman Model in Wastewater Treatment
Wang A review of the application of neural networks and global optimization algorithms in hydroturbine optimization
Shao et al. A new improved echo state network with multiple output layers for time series prediction
Yi et al. Ultra-Short Term Power Prediction Of Wind Farm Based On EEMDSE-GGRU

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant