CN107067080A - 基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法 - Google Patents

基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法 Download PDF

Info

Publication number
CN107067080A
CN107067080A CN201611106313.0A CN201611106313A CN107067080A CN 107067080 A CN107067080 A CN 107067080A CN 201611106313 A CN201611106313 A CN 201611106313A CN 107067080 A CN107067080 A CN 107067080A
Authority
CN
China
Prior art keywords
msub
mrow
mtd
mtr
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201611106313.0A
Other languages
English (en)
Inventor
刘月婵
孙超
王博
迟长宇
张帅
周晓凤
常嘉文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201611106313.0A priority Critical patent/CN107067080A/zh
Publication of CN107067080A publication Critical patent/CN107067080A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0004Gaseous mixtures, e.g. polluted air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Combustion & Propulsion (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明公开了基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法,它涉及危险化学品技术领域;它的扩展方法为:首先选取已监测空间区域S1位置点坐标Xs,Ys和浓度数据作为训练样本集;其中坐标值为网络的输入值,而浓度数据作为网络输出值,这样就构造出网络并进行训练;然后根据需要外推或内插的虚拟监测点空间位置S2‑S1确定坐标(XPn,Ypn),n为预测的点数,并且同训练样本集中的坐标组成预测样本集中的输入值,输入至前面训练好的网络;网络的输出值为要预测的目标值,即虚拟扩展后的空间S2全部监测点的气体浓度数据,并保持初始监测面S1上的数据不变;本发明在不增加测点的情况下有效地提高源特性反算精度,并节省工作量,提高工作效率。

Description

基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法
技术领域
本发明涉及基于核极限学习机的危险化学品气体泄露监测浓度数据虚拟扩展方法,属于危险化学品技术领域。
背景技术
面对危险化学品泄漏事件,尤其是毒气泄漏,突发情况、信息缺失等是泄漏事故存在的普遍问题,在泄漏源信息都是未知的条件下,相关部门需要在最短的时间内进行决策,进而确定泄漏的影响范围,划出相应的应急疏散区域和安全距离。因此,研究泄露源特性反演技术(包括反演源释放速率、源位置、源高度、风速、风向等参数)对于制定应急响应决策,提高应急疏散效果,从而减少人员伤亡和财产损失具有重要意义。
在危险化学品气体泄露源特性反算问题中,常常需要在下风向不同空间位置采集大量监测点浓度数据。在传感器个数有限或较少时,仅由少量的有效浓度数据进行反演,精度较低。若采用多次测量,则工作量很大,工作效率较低。为此,研究并解决在有限的传感器个数条件下,仅通过较少空间位置处的气体浓度监测,获取不便测量或其它未监测到的空间位置处的气体浓度数据,对于解决在突发事故中,当有限信息或信息缺失条件时,用最短时间确定未知泄露源特性问题尤为重要。
发明内容
针对上述问题,本发明要解决的技术问题是提供基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法。
本发明的基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法,它的扩展方法为:首先选取已监测空间区域S1位置点坐标Xs,Ys和浓度数据作为训练样本集;其中坐标值为网络的输入值,而浓度数据作为网络输出值,这样就构造出网络并进行训练;然后根据需要外推或内插的虚拟监测点空间位置S2-S1确定坐标(XPn,Ypn),n为预测的点数,并且同训练样本集中的坐标组成预测样本集中的输入值,输入至前面训练好的网络;网络的输出值为要预测的目标值,即虚拟扩展后的空间S2全部监测点的气体浓度数据,并保持初始监测面S1上的数据不变。
作为优选,所述训练样本为核极限学习机训练。
与现有技术相比,本发明的有益效果为:通过将小孔径监测点内的气体浓度数据进行外推和内插估计,虚拟出其它未监测的空间位置处的气体浓度数据,有效扩大了监测面,增大了监测点个数。将该方法与其它泄露源特性反算方法(例如遗传算法、粒子群算法、模式搜索算法等)相结合,对危化品泄露源源释放速率、源位置、源高度、方向、风速等源特性进行反演,体现了本方法的优越性。在传感器个数较少时,采用KELM技术对监测点浓度数据进行外推或插值,在不增加测点的情况下有效地提高源特性反算精度,并节省工作量,提高工作效率。
附图说明
为了易于说明,本发明由下述的具体实施及附图作以详细描述。
图1为本发明的流程图;
图2为本发明中空间监测浓度数据外推与内插示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面通过附图中示出的具体实施例来描述本发明。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
如图1所示,本具体实施方式采用以下技术方案:它的扩展方法为:首先选取已监测空间区域S1位置点坐标Xs,Ys和浓度数据作为训练样本集;其中坐标值为网络的输入值,而浓度数据作为网络输出值,这样就构造出网络并进行训练;然后根据需要外推或内插的虚拟监测点空间位置S2-S1确定坐标(XPn,Ypn),n为预测的点数,并且同训练样本集中的坐标组成预测样本集中的输入值,输入至前面训练好的网络;网络的输出值为要预测的目标值,即虚拟扩展后的空间S2全部监测点的气体浓度数据,并保持初始监测面S1上的数据不变。
一、神经网络核极限学习机(KELM)理论:
神经网络是一种模仿人脑信息处理机制的网络系统,能够进行学习、记忆、识别和推理等功能。它具有很强的鲁棒性和容错性。拥有自我学习、联想存储以及高速寻优的能力。网络本身通常是对某种逻辑策略的表达或是对某种算法及函数的逼近。常用的神经网络主要有前馈型神经网络、反馈型神经网络和局部逼近神经网络。其中,由于单隐层前馈神经网络具有良好的学习性能使其在许多领域中得到了较为广泛的应用。本具体实施方式采用的极限学习机(Extreme Learning Machine,ELM)算法就是一种单隐层前馈神经网络的新算法,该算法随机产生输入层与隐含层之间的权值和隐含层神经元阈值。网络训练的过程中,只需要设定隐含层神经元个数,便可获得唯一最优解。该方法与传统的训练方法相比具有学习速度快、泛化性能好等优点。
令输入层神经元个数为n,表示有n个输入;隐含层有L个神经元;输出层有m个神经元,代表m个输出,用b表示隐含层神经元阈值,w代表隐含层和输入层间的权值,β代表其与输出层间的权值,则w,β,b可表示为:
式中,wji表示隐含层中第j个神经元和输入层中第i个神经元间的权值,βjk表示其与输出层第k个神经元间的权值。
用X表示网络的训练输入样本,Y表示网络的训练输出样本,Q表示训练样本个数,即:
令隐含层神经元的激活函数为g(x),则由式1可得,网络的输出T为:
其中,wi=[wi1,wi2,L,win],xj=[x1j,x2j,L,xnj]T,上式可表示为:
Hβ=T' (3)
式中,T'为T的转置;H称为神经网络的隐含层输出矩阵,表达式为:
在此基础上,隐含层与输出层之间的连接权值β可以写作:
其最小二乘解为:
其中,H+为隐含层输出矩阵H的MP广义逆。
通过上式得到的输出权值不但获得了最小的训练误差,得到最优的泛化性能,而且不会产生局部最优解。通过把预测样本当作测试集进行测试,就可以得到测试集对应的输出预测值矩阵:
f(x)=h(x)β (7)
其中,h(x)为测试集的隐含层输出矩阵。当训练样本数远大于隐含层节点数时:
否则有:
通过在H+H或HH+的对角线上添加一正项能够使得到的解更加稳健,同时加入基于核函数思想的ELM算法。可以定义核矩阵:
则输出函数可表示为:
式中,K(u,v)为核函数,通常采用径向基核函数(RBF kernel),K(u,v)=exp(-γ||u-v||2)对于参数C和γ,采用交叉验证方法寻找其最佳值,然后利用最佳参数训练模型。通过引入核函数,避免了选择隐含层神经元个数和定义隐含层的输出矩阵,进一步提高了KELM的学习速度和泛化能力。
二、基于KELM的危化品泄露气体监测浓度虚拟扩展技术:
由于核极限学习机(KELM)具有良好的学习性能和泛化性能,具有逼近非线性函数的能力,使其适用于解决信号处理过程中的分类辨识和回归拟合问题。而毒气泄露扩散模型正是高度非线性函数,其与泄露源源释放速率、源位置、源高度、风速、风向、泄露气体密度、地面粗糙度、雨水吸附、大气稳定度等参数密切相关,该扩散模型很难用公式有效表达。基于此,提出将该方法用于危化品泄露气体监测浓度虚拟扩展问题中。
该方法把位于不同空间位置处的监测点浓度数据当成网络的训练样本进行学习,将未知的空间位置浓度当作目标值进行预测,有效地减小了监测点孔径,减少工作量,提高工作效率。具体说,监测点浓度数据虚拟扩展技术包括监测点浓度数据的外推和内插两部分。如图2所示,由测量区域中的监测点浓度外推或内插未测点浓度,并保证预测值尽可能接近真实值。将外推及内插的虚拟监测点浓度与实际监测点浓度进行组合,相当于间接增大了浓度监测信息。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (3)

1.基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法,其特征在于:它的扩展方法为:首先选取已监测空间区域S1位置点坐标Xs,Ys和浓度数据作为训练样本集;其中坐标值为网络的输入值,而浓度数据作为网络输出值,这样就构造出网络并进行训练;然后根据需要外推或内插的虚拟监测点空间位置S2-S1确定坐标(XPn,Ypn),n为预测的点数,并且同训练样本集中的坐标组成预测样本集中的输入值,输入至前面训练好的网络;网络的输出值为要预测的目标值,即虚拟扩展后的空间S2全部监测点的气体浓度数据,并保持初始监测面S1上的数据不变。
2.根据权利要求1所述的基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法,其特征在于:所述训练样本为核极限学习机训练。
3.根据权利要求2所述的基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法,其特征在于:所述核极限学习机训练的方法为:令输入层神经元个数为n,表示有n个输入;隐含层有L个神经元;输出层有m个神经元,代表m个输出,用b表示隐含层神经元阈值,w代表隐含层和输入层间的权值,β代表其与输出层间的权值,则w,β,b可表示为:
<mrow> <mi>w</mi> <mo>=</mo> <msub> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <msub> <mi>w</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>w</mi> <mn>11</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>w</mi> <mrow> <mn>1</mn> <mi>n</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>w</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>w</mi> <mn>22</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>w</mi> <mrow> <mn>2</mn> <mi>n</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>w</mi> <mrow> <mi>l</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>w</mi> <mrow> <mi>l</mi> <mn>2</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>w</mi> <mrow> <mi>l</mi> <mi>n</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>l</mi> <mo>&amp;times;</mo> <mi>n</mi> </mrow> </msub> <mo>,</mo> <mi>&amp;beta;</mi> <mo>=</mo> <msub> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <msub> <mi>&amp;beta;</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>&amp;beta;</mi> <mn>11</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&amp;beta;</mi> <mrow> <mn>1</mn> <mi>m</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>&amp;beta;</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>&amp;beta;</mi> <mn>22</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&amp;beta;</mi> <mrow> <mn>2</mn> <mi>m</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>&amp;beta;</mi> <mrow> <mi>l</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>&amp;beta;</mi> <mrow> <mi>l</mi> <mn>2</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&amp;beta;</mi> <mrow> <mi>l</mi> <mi>m</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>l</mi> <mo>&amp;times;</mo> <mi>m</mi> </mrow> </msub> <mo>,</mo> <mi>b</mi> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>b</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>b</mi> <mn>2</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>b</mi> <mi>l</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>l</mi> <mo>&amp;times;</mo> <mn>1</mn> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>
式中,wji表示隐含层中第j个神经元和输入层中第i个神经元间的权值,βjk表示其与输出层第k个神经元间的权值;
用X表示网络的训练输入样本,Y表示网络的训练输出样本,Q表示训练样本个数,即:
<mrow> <mi>X</mi> <mo>=</mo> <msub> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <msub> <mi>x</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>x</mi> <mn>12</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>x</mi> <mrow> <mn>1</mn> <mi>Q</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>x</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>x</mi> <mn>22</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>x</mi> <mrow> <mn>2</mn> <mi>Q</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>x</mi> <mrow> <mi>n</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>x</mi> <mrow> <mi>n</mi> <mn>2</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>x</mi> <mrow> <mi>n</mi> <mi>Q</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>n</mi> <mo>&amp;times;</mo> <mi>Q</mi> </mrow> </msub> <mo>,</mo> <mi>Y</mi> <mo>=</mo> <msub> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <msub> <mi>y</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>y</mi> <mn>12</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>y</mi> <mrow> <mn>1</mn> <mi>Q</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>y</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>y</mi> <mn>22</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>y</mi> <mrow> <mn>2</mn> <mi>Q</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>y</mi> <mrow> <mi>m</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>y</mi> <mrow> <mi>m</mi> <mn>2</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>y</mi> <mrow> <mi>m</mi> <mi>Q</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>m</mi> <mo>&amp;times;</mo> <mi>Q</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
令隐含层神经元的激活函数为g(x),则由式1可得,网络的输出T为:
<mrow> <mi>T</mi> <mo>=</mo> <msub> <mrow> <mo>&amp;lsqb;</mo> <msub> <mi>t</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>t</mi> <mn>2</mn> </msub> <mo>,</mo> <mi>L</mi> <mo>,</mo> <msub> <mi>t</mi> <mi>Q</mi> </msub> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mi>m</mi> <mo>&amp;times;</mo> <mi>Q</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>j</mi> </msub> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>t</mi> <mrow> <mn>1</mn> <mi>j</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>t</mi> <mrow> <mn>2</mn> <mi>j</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>t</mi> <mrow> <mi>m</mi> <mi>j</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>m</mi> <mo>&amp;times;</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mstyle> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>l</mi> </munderover> </mstyle> <msub> <mi>&amp;beta;</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mi>g</mi> <mo>(</mo> <msub> <mi>w</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>)</mo> </mtd> </mtr> <mtr> <mtd> <mstyle> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>l</mi> </munderover> </mstyle> <msub> <mi>&amp;beta;</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mi>g</mi> <mo>(</mo> <msub> <mi>w</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>)</mo> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <mstyle> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>l</mi> </munderover> </mstyle> <msub> <mi>&amp;beta;</mi> <mrow> <mi>i</mi> <mi>m</mi> </mrow> </msub> <mi>g</mi> <mo>(</mo> <msub> <mi>w</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>)</mo> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>m</mi> <mo>&amp;times;</mo> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mi>L</mi> <mi>Q</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,wi=[wi1,wi2,L,win],xj=[x1j,x2j,L,xnj]T,上式可表示为:
Hβ=T' (3)
式中,T'为T的转置;H称为神经网络的隐含层输出矩阵,表达式为:
<mrow> <mi>H</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>w</mi> <mn>2</mn> </msub> <mo>,</mo> <mi>L</mi> <mo>,</mo> <msub> <mi>w</mi> <mi>l</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mo>,</mo> <mi>L</mi> <mo>,</mo> <msub> <mi>b</mi> <mi>l</mi> </msub> <mo>,</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>Lx</mi> <mi>Q</mi> </msub> <mo>,</mo> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mi>l</mi> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>l</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mi>l</mi> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>l</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mi>l</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mi>l</mi> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>l</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>Q</mi> <mo>&amp;times;</mo> <mi>l</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
在此基础上,隐含层与输出层之间的连接权值β可以写作:
<mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>&amp;beta;</mi> </munder> <mo>|</mo> <mo>|</mo> <mi>H</mi> <mi>&amp;beta;</mi> <mo>-</mo> <msup> <mi>T</mi> <mo>&amp;prime;</mo> </msup> <mo>|</mo> <mo>|</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其最小二乘解为:
<mrow> <mover> <mi>&amp;beta;</mi> <mo>^</mo> </mover> <mo>=</mo> <msup> <mi>H</mi> <mo>+</mo> </msup> <msup> <mi>T</mi> <mo>&amp;prime;</mo> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
其中,H+为隐含层输出矩阵H的MP广义逆;
通过上式得到的输出权值不但获得了最小的训练误差,得到最优的泛化性能,而且不会产生局部最优解;通过把预测样本当作测试集进行测试,就得到测试集对应的输出预测值矩阵:
f(x)=h(x)β (7)
其中,h(x)为测试集的隐含层输出矩阵;当训练样本数远大于隐含层节点数时:
<mrow> <mi>&amp;beta;</mi> <mo>=</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mi>I</mi> <mi>C</mi> </mfrac> <mo>+</mo> <msup> <mi>H</mi> <mo>+</mo> </msup> <mi>H</mi> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <msup> <mi>H</mi> <mo>+</mo> </msup> <mi>T</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
否则有: <mrow> <mi>&amp;beta;</mi> <mo>=</mo> <msup> <mi>H</mi> <mo>+</mo> </msup> <msup> <mrow> <mo>(</mo> <mfrac> <mi>I</mi> <mi>C</mi> </mfrac> <mo>+</mo> <msup> <mi>HH</mi> <mo>+</mo> </msup> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mi>T</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
通过在H+H或HH+的对角线上添加一正项能够使得到的解更加稳健;同时也基于核函数思想的ELM算法;可以定义核矩阵:
<mrow> <msub> <mi>&amp;Omega;</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msub> <mo>=</mo> <msup> <mi>HH</mi> <mo>+</mo> </msup> <mo>;</mo> <msub> <mi>&amp;Omega;</mi> <mrow> <msub> <mi>ELM</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> </mrow> </msub> <mo>=</mo> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>K</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
则输出函数可表示为:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>h</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <msup> <mi>H</mi> <mo>+</mo> </msup> <msup> <mrow> <mo>(</mo> <mfrac> <mi>I</mi> <mi>C</mi> </mfrac> <mo>+</mo> <msup> <mi>HH</mi> <mo>+</mo> </msup> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mi>T</mi> <mo>=</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>K</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>)</mo> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <mi>K</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>N</mi> </msub> <mo>)</mo> </mtd> </mtr> </mtable> </mfenced> <mo>+</mo> </msup> <msup> <mrow> <mo>(</mo> <mfrac> <mi>I</mi> <mi>C</mi> </mfrac> <mo>+</mo> <msub> <mi>&amp;Omega;</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msub> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mi>T</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
式中,K(u,v)为核函数,通常采用径向基核函数(RBF kernel),K(u,v)=exp(-γ||u-v||2)对于参数C和γ,采用交叉验证方法寻找其最佳值,然后利用最佳参数训练模型。
CN201611106313.0A 2016-12-05 2016-12-05 基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法 Withdrawn CN107067080A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611106313.0A CN107067080A (zh) 2016-12-05 2016-12-05 基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611106313.0A CN107067080A (zh) 2016-12-05 2016-12-05 基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法

Publications (1)

Publication Number Publication Date
CN107067080A true CN107067080A (zh) 2017-08-18

Family

ID=59619689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611106313.0A Withdrawn CN107067080A (zh) 2016-12-05 2016-12-05 基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法

Country Status (1)

Country Link
CN (1) CN107067080A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389039A (zh) * 2018-09-04 2019-02-26 温州大学激光与光电智能制造研究院 一种优化核极限学习机在线监测刀具磨损状态方法及系统
CN109521155A (zh) * 2018-09-28 2019-03-26 北京英视睿达科技有限公司 质控方法及装置
CN112580692A (zh) * 2020-11-25 2021-03-30 北京化工大学 一种基于插值算法的虚拟样本生成方法
CN115993210A (zh) * 2023-03-24 2023-04-21 山东金宇信息科技集团有限公司 一种机房漏水检测方法及设备
CN116498908A (zh) * 2023-06-26 2023-07-28 成都秦川物联网科技股份有限公司 基于超声波流量计的智慧燃气管网监测方法和物联网系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101919255A (zh) * 2007-12-10 2010-12-15 高通股份有限公司 用于视频内插或外推的参考选择
CN102460220A (zh) * 2009-04-14 2012-05-16 艾尔达股份有限公司 测量排放和量化排放源的方法和系统
CN103132990A (zh) * 2011-11-25 2013-06-05 普拉德研究及开发股份有限公司 井下温度分布的动态预测
CN104123476A (zh) * 2014-08-12 2014-10-29 大连海事大学 基于极限学习机的气体浓度预测方法及其装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101919255A (zh) * 2007-12-10 2010-12-15 高通股份有限公司 用于视频内插或外推的参考选择
CN102460220A (zh) * 2009-04-14 2012-05-16 艾尔达股份有限公司 测量排放和量化排放源的方法和系统
CN103132990A (zh) * 2011-11-25 2013-06-05 普拉德研究及开发股份有限公司 井下温度分布的动态预测
CN104123476A (zh) * 2014-08-12 2014-10-29 大连海事大学 基于极限学习机的气体浓度预测方法及其装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙超 等: "全息数据外推与插值技术的极限学习机方法", 《哈尔滨工程大学学报》 *
李嵩 等: "大气PM2.5污染指数预测优化模型仿真分析", 《计算机仿真》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389039A (zh) * 2018-09-04 2019-02-26 温州大学激光与光电智能制造研究院 一种优化核极限学习机在线监测刀具磨损状态方法及系统
CN109521155A (zh) * 2018-09-28 2019-03-26 北京英视睿达科技有限公司 质控方法及装置
CN109521155B (zh) * 2018-09-28 2023-05-30 北京英视睿达科技股份有限公司 质控方法及装置
CN112580692A (zh) * 2020-11-25 2021-03-30 北京化工大学 一种基于插值算法的虚拟样本生成方法
CN112580692B (zh) * 2020-11-25 2024-04-02 北京化工大学 一种基于插值算法的虚拟样本生成方法
CN115993210A (zh) * 2023-03-24 2023-04-21 山东金宇信息科技集团有限公司 一种机房漏水检测方法及设备
CN115993210B (zh) * 2023-03-24 2023-06-20 山东金宇信息科技集团有限公司 一种机房漏水检测方法及设备
CN116498908A (zh) * 2023-06-26 2023-07-28 成都秦川物联网科技股份有限公司 基于超声波流量计的智慧燃气管网监测方法和物联网系统
CN116498908B (zh) * 2023-06-26 2023-08-25 成都秦川物联网科技股份有限公司 基于超声波流量计的智慧燃气管网监测方法和物联网系统
US11953356B2 (en) 2023-06-26 2024-04-09 Chengdu Qinchuan Iot Technology Co., Ltd. Methods and internet of things (IoT) systems for monitoring smart gas pipeline networks based on ultrasonic flowmeters

Similar Documents

Publication Publication Date Title
CN107067080A (zh) 基于核极限学习机的泄露气体监测浓度数据虚拟扩展方法
Mahalingam et al. A machine learning model for air quality prediction for smart cities
Ni et al. Leak location of pipelines based on transient model and PSO-SVM
CN105740619A (zh) 基于核函数的加权极限学习机污水处理在线故障诊断方法
Niu et al. Model turbine heat rate by fast learning network with tuning based on ameliorated krill herd algorithm
CN109492760B (zh) 基于深度模糊认知图模型的道路交通可解释预测方法
CN107633638A (zh) 一种基于wsn的智能火灾探测方法
Li et al. Harmful algal blooms prediction with machine learning models in Tolo Harbour
Guan et al. Rolling bearing fault diagnosis based on information fusion and parallel lightweight convolutional network
Tian et al. A study on the robustness of neural network models for predicting the break size in LOCA
Tunckaya et al. Comparative analysis and prediction study for effluent gas emissions in a coal-fired thermal power plant using artificial intelligence and statistical tools
CN107918837A (zh) 一种果蔬类食品安全风险预测方法
CN106680428A (zh) 一种用于脱硝控制系统的软测量方法
Pentoś et al. Application of Soft Computing Techniques for the Analysis of Tractive Properties of a Low‐Power Agricultural Tractor under Various Soil Conditions
Braik et al. Hybrid neural network models for forecasting ozone and particulate matter concentrations in the Republic of China
CN104218571A (zh) 一种风力发电设备的运行状态评估方法
Park et al. Source term estimation using deep reinforcement learning with Gaussian mixture model feature extraction for mobile sensors
Kang et al. Design and analysis of computer experiments with quantitative and qualitative inputs: A selective review
White et al. A fuzzy inference system for fault detection and isolation: Application to a fluid system
Li et al. Knowledge-based genetic algorithms data fusion and its application in mine mixed-gas detection.
El-Amin Detection of Hydrogen Leakage Using Different Machine Learning Techniques
CN103337000A (zh) 一种油气集输系统安全监测预警方法
Zhang et al. Knowledge-based genetic algorithms data fusion and its application in mine mixed-gas detection
Arampongsanuwat et al. Pm10 prediction model by support vector regression based on particle swarm optimization
Wang et al. Echo state network structure optimization algorithm based on correlation analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20170818