CN108345726A - 基于互信息和软仪表误差的输入变量自动选择方法 - Google Patents
基于互信息和软仪表误差的输入变量自动选择方法 Download PDFInfo
- Publication number
- CN108345726A CN108345726A CN201810075448.8A CN201810075448A CN108345726A CN 108345726 A CN108345726 A CN 108345726A CN 201810075448 A CN201810075448 A CN 201810075448A CN 108345726 A CN108345726 A CN 108345726A
- Authority
- CN
- China
- Prior art keywords
- variable
- input
- sae
- soft instrument
- input variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了基于互信息和软仪表误差的输入变量自动选择方法。首先利用原始采集的全部过程变量,作为软仪表的输入变量集,通过训练多个自动编码器,构建一个基于SAE的软仪表模型。在此基础上,利用MI‑SAE方法,在每次训练迭代中剔除一个最不相关的过程变量,之后仅更新软仪表首层权值,避免整体更新带来的大量计算,直到满足程序终止条件,以达到对于过程变量个数或者模型误差的要求。本发明中综合考量了输入变量之间的相关性以及软仪表的预测误差,以确定某过程变量的重要程度,从而实现对于过程变量的自动排除选择,提高了对于过程变量选择的可靠性。
Description
技术领域
本发明涉及机器学习和仪器仪表领域,尤其涉及基于互信息和软仪表误差的输入变量自动选择方法。
背景技术
在工业过程中,存在许多与产品质量、生产效率等密切相关的关键变量,但由于很多工业现场处于高温、高粉尘或者腐蚀性等恶劣环境,利用硬件设备测量这些关键变量困难,另外,此类硬件测量设备制造和维护成本较高,也给测量工作带来了阻碍。软仪表是一种测量工业过程中难测关键变量的数学模型,将一些与目标变量密切相关的易测过程变量作为模型输入,将目标变量作为模型输出,建立数学关系,从而预测目标变量的数值。
目前针对软仪表的研究,大部分集中于模型结构和训练方法,但除此之外,还有许多因素会直接影响软仪表的性能,例如过程变量的选择。在保证软仪表精度的前提下,选择最直接相关且最少数目的输入变量,可简化模型结构,有效降低计算负担,提高收敛速度,优化训练过程。传统方法利用人工通过参考工业过程的物理背景或工艺方法,选择相关性较高的过程变量,但由于工业过程的复杂性,此方法可靠性低。本发明关注于对软仪表的输入变量进行自动选择,首先利用自动编码器(Auto-Encoders,AE)进行训练堆叠,建立一个堆叠自动编码器(Stacked Auto-Encoders,SAE)的软仪表模型,在此模型基础上,提出了一种全新的对于软仪表输入变量的自动选择方法。本方法提出了一种新的代价函数,通过后序选择,选出与目标变量相关性最大的过程变量,实验结果显示,相比其他常用方法,在取得相同软仪表预测精度的前提下,本方法可选出更少的输入变量,且选择时间在可接受范围内。因此,本研究对于软仪表的理论研究和工业实际应用均具有重要意义。
发明内容
本发明的目的在于提供基于互信息和软仪表误差的输入变量自动选择方法,以解决上述技术问题。
为实现上述目的本发明采用以下技术方案:
基于互信息和软仪表误差的输入变量自动选择方法,包括如下步骤:
步骤1、构建SAE软仪表模型;
通过堆叠多个自动编码器,构建深层神经网络,自动编码器是一种三层前馈神经网络,以重构自身输入为目标,包括一个编码器和一个解码器,中间隐层的输出看作是对输入数据的特征提取,具有强大的数据压缩和重构能力,其编码器将输入数据映射为隐层输出:
y=g(W(1)x+b(1)) (1);
其中g(x)代表Sigmoid函数,定义如下:
解码器以输入数据为目标对隐层输出进行重构:
通过最小化下列重构误差进行网络参数θ的更新训练:
在第一个自动编码器训练结束后,去掉其解码部分,保留编码部分,将其隐层输出作为新的输入,训练第二个自动编码器,以此类推,根据需求堆叠h个编码器以构建一个深层神经网络模型,由于软仪表对数据预测的回归要求,在模型的顶层添加一个附加的线性回归预测层,最终输出目标变量,此时,软仪表的输入为全部原始过程变量,在不同的实例研究中,网络层数、神经元个数等超参数可通过经验或者交叉验证确定。
步骤2、实施MI-SAE对输入变量进行选择;
基于步骤1构建SAE软仪表模型,利用MI-SAE方法对原始输入变量进行选择,对于过程变量的自动选择方法包括两个要素,一是对于变量重要性的衡量标准,即代价函数,二是对于变量的选择规则,构建的代价函数如下:
此代价函数表示的是在去掉第r个过程变量之后的代价函数值,其中,第一项代表去掉第r个输入变量xr之后的软仪表误差,X表示输入变量集合,X-r代表去掉xr之后的输入集合,采用均方根误差(RootMean Square Error,RMSE)衡量模型的误差,如下:
n为样本个数,yreal和y分别代表目标变量的实际测量值和模型预测值;当从输入集合中去掉某一输入变量xr之后,软仪表的预测误差变大,则说明变量xr对模型的重要性高,若预测误差变小,则说明xr对软仪表性能来说是无用的,即的值越大,xr的重要程度越高;
代价函数的第二项代表第r个输入变量与其他输入变量的平均互信息值,互信息用来衡量的是变量间的相关性大小,值越大,相关性越大,对于两个离散变量之间的互信息定义如下:
第二项中的分子代表变量xr与集合X-r中的其他变量的互信息求和,分母|X|-1表示集合X-r中的变量数目,此项的值越大,说明变量xr与其他输入变量的相关性越大,为了降低输入变量集内部的相关性,剔除与其他变量相关性最强的变量,使得代价函数(5)值最小的变量其重要性最低,从输入集合中去除;
基于上述分析,本发明对输入变量的选择规则是,利用一种后序选择的方法,在每一次迭代中去掉一个输入变量,直到输入变量的个数或者模型的预测误差满足结束条件,在每一迭代中,某一输入变量被去掉之后,软仪表的输入变量发生改变,SAE模型需要更新,在传统的前向或者后向搜索算法中,每一次迭代之后都要整体重新训练模型进行权值更新,带来了巨大的计算量,在每次迭代中仅更新SAE的第一层权值,大大降低了计算量,在变量xr从输入集合中移除之后,新的SAE模型为:
W(1),-r,b(1),-r,W(2),-r和b(2),-r是SAE模型的第一层和第二层的新权值;将新模型与旧模型之间的差值定义为ε,则:
R(yreal,y)=R(yreal,y-r)+ε (9);
对第k个样本:
其中,ε(k)是第k个样本的误差贡献量,将(8)带入(11),得:
g(g(X(k)TW(1)+b(1))W(2)+b(2))=g(g(X-r(k)TW(1),-r+b(1),-r)W(2),-r+b(2),-r)+ε(k)(12);更新W(1)和b(1),其他权值不变,W(2)=W(2),-r and b(2)=b(2),-r,将ε(k)分别作用于剩余的每一个输入变量:
g(g(X(k)TW(1)+b(1))W(2)+b(2))=g(g(X-r(k)TW(1),-r+b(1),-r+Δ(k))W(2)+b(2)) (13);
Δ(k)代表一个输入变量与隐层之间的h×1权值向量,h为隐层神经元数,对剩余输入变量及其相关权值,由(13)可得:
即当变量xr以及其相关权值wrj(j=1,...,h)被移除之后,剩余的第一层权值wij可通过因子δij进行更新,即:
δij通过(14)可得;
在每去掉一个输入变量之后,通过更新软仪表的第一层权值更新模型,其他层权值保持不变,循环迭代,直到满足终止条件,算法的最终输出是选出的最优输入变量集合。
作为本发明进一步的方案,MI-SAE的算法流程步骤包括:
a:利用全部原始输入变量建立一个原始SAE模型;
b:对于原始输入变量集合X中的每一个变量x,计算代价函数L值;
c:选出使得L最小的输入变量,从输入集合中去除;
d:更新输入集合并更新SAE模型权值;
e:若满足终止条件则停止,否则返回步骤2循环。
与现有技术相比,本发明具有以下优点:本发明中综合考量了输入变量之间的相关性以及软仪表的预测误差,以确定某过程变量的重要程度,在原始采集的众多数量的输入变量中选择最优变量集,从而实现对于过程变量的自动排除选择,提高了对于过程变量选择的可靠性,简化软仪表模型结构,降低运算负担,提高训练及收敛速度。
附图说明
图1是本发明的SAE软仪表模型的训练过程;
图2是本发明的SAE软仪表模型的神经网络结构图;
图3是本发明的MI-SAE算法流程图;
图4是本发明的实例1中五种方法的软仪表误差与所选输入变量个数对应曲线图;
图5是本发明的实例2中三分仓旋转空气预热器结构示意图;
图6是本发明的实例2中空气预热器转子变形示意图;
图7是本发明的实例2中五种方法的软仪表误差与所选输入变量个数对应曲线图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细阐述。
本发明提出了一种基于互信息和软仪表误差的输入变量自动选择方法。首先通过训练多个自动编码器进行堆叠,利用全部可采集过程变量作为输入,构建一个SAE软仪表模型。然后利用本发明的MI-SAE算法,后序依次剔除重要性最低的输入变量,直到满足结束条件。在每剔除一个变量之后,仅更新软仪表的首层权值,避免了传统后序选择中整体更新模型带来的巨大计算量。整个实施过程包括以下三个阶段:
1、构建SAE软仪表模型
近年来对于软仪表结构的研究呈现多样化,本发明中采用了深度学习的方法,通过堆叠多个自动编码器,构建深层神经网络,训练过程如图1所示。自动编码器是一种三层前馈神经网络,以重构自身输入为目标,包括一个编码器和一个解码器,中间隐层的输出可看作是对输入数据的特征提取,具有强大的数据压缩和重构能力。其编码器将输入数据映射为隐层输出:
y=g(W(1)x+b(1)) (1);
其中g(x)代表Sigmoid函数,定义如下:
解码器以输入数据为目标对隐层输出进行重构:
通过最小化下列重构误差进行网络参数θ的更新训练:
在第一个自动编码器训练结束后,去掉其解码部分,保留编码部分,将其隐层输出作为新的输入,训练第二个自动编码器,以此类推,可以根据需求堆叠h个编码器以构建一个深层神经网络模型。由于软仪表对数据预测的回归要求,在模型的顶层添加一个附加的线性回归预测层,最终输出目标变量。此时,软仪表的输入为全部原始过程变量。在不同的实例研究中,网络层数、神经元个数等超参数可通过经验或者交叉验证确定。在本发明中,我们对两个自编码器进行堆叠,采用了两隐层的模型结构,其神经网络结构图如图2所示。
2、实施MI-SAE对输入变量进行选择;
基于阶段1中构建的SAE模型,利用MI-SAE方法对原始输入变量进行选择。对于过程变量的自动选择方法包括两个要素,一是对于变量重要性的衡量标准,即代价函数,二是对于变量的选择规则。本发明中构建的代价函数如下:
此代价函数表示的是在去掉第r个过程变量之后的代价函数值。其中,第一项代表去掉第r个输入变量xr之后的软仪表误差,X表示输入变量集合,X-r代表去掉xr之后的输入集合,此发明中,我们采用均方根误差(RootMean Square Error,RMSE)衡量模型的误差,如下:
n为样本个数,yreal和y分别代表目标变量的实际测量值和模型预测值。当从输入集合中去掉某一输入变量xr之后,软仪表的预测误差变大,则说明变量xr对模型的重要性高,若预测误差变小,则说明xr对软仪表性能来说是无用的。即的值越大,xr的重要程度越高。
代价函数的第二项代表第r个输入变量与其他输入变量的平均互信息值。互信息用来衡量的是变量间的相关性大小,值越大,相关性越大。对于两个离散变量之间的互信息定义如下:
第二项中的分子代表变量xr与集合X-r中的其他变量的互信息求和,分母|X|-1表示集合X-r中的变量数目。此项的值越大,说明变量xr与其他输入变量的相关性越大。为了降低输入变量集内部的相关性,我们认为应该剔除与其他变量相关性最强的变量。综合考量之后,我们认为,使得代价函数(5)值最小的变量其重要性最低,应该从输入集合中去除。
基于上述分析,本发明对输入变量的选择规则是,利用一种后序选择的方法,在每一次迭代中去掉一个输入变量,直到输入变量的个数或者模型的预测误差满足结束条件。在每一迭代中,某一输入变量被去掉之后,软仪表的输入变量发生改变,SAE模型需要更新。在传统的前向或者后向搜索算法中,每一次迭代之后都要整体重新训练模型进行权值更新,带来了巨大的计算量。本发明中,我们在每次迭代中仅更新SAE的第一层权值,大大降低了计算量。在变量xr从输入集合中移除之后,新的SAE模型为:
W(1),-r,b(1),-r,W(2),-r和b(2),-r是SAE模型的第一层和第二层的新权值。将新模型与旧模型之间的差值定义为ε,则:
R(yreal,y)=R(yreal,y-r)+ε (9);
对第k个样本:
其中,ε(k)是第k个样本的误差贡献量。将(8)带入(11),得:
g(g(X(k)TW(1)+b(1))W(2)+b(2))=g(g(X-r(k)TW(1),-r+b(1),-r)W(2),-r+b(2),-r)+ε(k)(12);我们只更新W(1)和b(1),其他权值不变,W(2)=W(2),-r and b(2)=b(2),-r。将ε(k)分别作用于剩余的每一个输入变量:
g(g(X(k)TW(1)+b(1))W(2)+b(2))=g(g(X-r(k)TW(1),-r+b(1),-r+Δ(k))W(2)+b(2)) (13);
Δ(k)代表一个输入变量与隐层之间的h×1权值向量,h为隐层神经元数。对剩余输入变量及其相关权值,由(13)可得:
即当变量xr以及其相关权值wrj(j=1,...,h)被移除之后,剩余的第一层权值wij可通过因子δij进行更新,即:
δij通过(14)可得。
这样,在每去掉一个输入变量之后,通过更新软仪表的第一层权值更新模型,其他层权值保持不变。循环迭代,直到满足终止条件,算法的最终输出是选出的最优输入变量集合。
MI-SAE的算法流程图如图3所示,具体实施步骤包括:
步骤1:利用全部原始输入变量建立一个原始SAE模型;
步骤2:对于原始输入变量集合X中的每一个变量x,计算代价函数L值;
步骤3:选出使得L最小的输入变量,从输入集合中去除;
步骤4:更新输入集合并更新SAE模型权值;
步骤5:若满足终止条件则停止,否则返回步骤2循环。
3、实例验证;
本发明方法运行平台为2015a,计算机配置为CoreTMi73.60GHz,8GB RAM。通过两个实例研究,证明本方法可有效选择最优过程变量作为软仪表输入,且不损失软仪表的预测性能。为了验证本方法的有效性,在实验中引入了其他4种常用且效果较好的变量自动选择方法进行比较,分别是最小冗余最大相关算法(minimumredundancy maximum relevance algorithm,mRMR)、标准化互信息特征选择(normalizedmutual information feature selection,NMIFS)、最小二乘法(partialleast squares,PLS)以及基于SAE模型的后序搜索算法(sequential backward search,SBS),称为SBS-SAE。实验实施步骤为:
步骤1:数据集分为训练集(70%)和测试集(30%);
步骤2:将所有过程变量作为软仪表输入,用训练数据集训练一个SAE模型;
步骤3:将本发明中MI-SAE方法与其他4种方法分别对原始输入变量进行选择;
步骤4:将五种方法选出的最优输入变量集分别作为SAE的输入,利用测试数据集测试模型的预测误差并分析比较。
实例1:
本例中数据集来自于UCI机器学期数据库,包括16个原始输入变量,2个目标变量,目的是预测混合气体中一氧化碳和乙烯的浓度。原数据集数据量较大,我们从中选择了300个数据样本。2个输出变量的平均RMSE作为模型的预测误差。五种方法的实验结果如表1和图4所示。
表1
从表1可以看出,在取得同样的软仪表精度的前提下,我们的方法与SBS-SAE选出了数量最少的输入变量,而SBS-SAE所用的选择时间是我们的207倍。也就是说,在选择相同数量变量的要求下,MI-SAE的计算量要远低于传统的后序选择类方法。图4中横轴表示已选择的变量个数,从图4中可以看出,为了获得软仪表的最优性能,MI-SAE与SBS-SAE最少可以选出4个输入变量,而其他三种方法则需选出6个甚至更多变量。但由于选择过程的计算量过大,SBS-SAE方法所需的选择时间要远高于我们的方法。因此,综合而言,我们所提出的MI-SAE方法不但可以选出最少的输入变量以取得相同的软仪表预测精度,而且选择时间也在可接受范围内,是一种可行性高且操作方便的软仪表输入变量的自动选择方法。
实例2:
本例中的数据集是来自于某火力发电厂锅炉空气预热器中的实际数据,样本数600。本实例研究的应用背景如下:
空气预热器是火电厂锅炉系统中的气体换热装置,用来提取废气中的热量,对进入锅炉的助燃空气进行预热。空气预热器的结构示意图如图5所示,外部空气通过两个风道自下而上进入空气预热器,为了分隔风道和烟道,在转子的上部和下部分别安装有扇形板,废气通过烟道自上而下排出,在空气预热器的转子中密布安装了蓄热片,随着转子的缓慢转动,废气中的热量被吸收到了虚热装置中,再释放到助燃空气中,以达到预热的目的。在此过程中,空气预热器内部处于严重温度不均的状态,上部温度高,下部温度低,由于热应力的作用,转子发生了一种蘑菇状变形,使得转子与扇形板之间出现了缝隙,导致未加热的空气通过缝隙进入烟道,产生漏风,大大降低了预热的效率,如图6所示。因此,检测和控制转子变形是本工业过程中的重要环节。而空气预热器所处的环境高温且高粉尘,硬件测量设备测量困难,因此我们引入了软仪表方法,通过对其他易测过程变量与转子变形量建模,进行目标变量的检测和控制。原始采集的过程变量与目标变量如表2所示;
表2
过程变量9个,其中包括了气体流量、压力、温度、转子转速等。
利用五种方法对本实例的实验结果如表3和图7所示。
表3
由表3可见,MI-SAE与SBS-SAE在选择变量数目及软仪表误差等方面均取得了最优的结果,但在选择时间方面,MI-SAE远低于SBS-SAE,虽然MI-SAE用时并不是最短,但在可接受范围内。由图7可见,MI-SAE与SBS-SAE更快的收敛至最优解,而其他三种方法则需选择更多数量的变量以收敛达到相同的软仪表误差。实验结果与实例一一致,综上所述,MI-SAE方法可通过选择更少的变量以取得相同的软仪表误差,计算量小,用时较少,能够为软仪表的模型结构优化提供保障。
以上所述为本发明较佳实施例,对于本领域的普通技术人员而言,根据本发明的教导,在不脱离本发明的原理与精神的情况下,对实施方式所进行的改变、修改、替换和变型仍落入本发明的保护范围之内。
Claims (2)
1.基于互信息和软仪表误差的输入变量自动选择方法,其特征在于,包括如下步骤:
步骤1、构建SAE软仪表模型;
通过堆叠多个自动编码器,构建深层神经网络,自动编码器是一种三层前馈神经网络,以重构自身输入为目标,包括一个编码器和一个解码器,中间隐层的输出看作是对输入数据的特征提取,具有强大的数据压缩和重构能力,其编码器将输入数据映射为隐层输出:
y=g(W(1)x+b(1)) (1);
其中g(x)代表Sigmoid函数,定义如下:
解码器以输入数据为目标对隐层输出进行重构:
通过最小化下列重构误差进行网络参数θ的更新训练:
在第一个自动编码器训练结束后,去掉其解码部分,保留编码部分,将其隐层输出作为新的输入,训练第二个自动编码器,以此类推,根据需求堆叠h个编码器以构建一个深层神经网络模型,由于软仪表对数据预测的回归要求,在模型的顶层添加一个附加的线性回归预测层,最终输出目标变量,此时,软仪表的输入为全部原始过程变量,在不同的实例研究中,网络层数、神经元个数等超参数可通过经验或者交叉验证确定。
步骤2、实施MI-SAE对输入变量进行选择;
基于步骤1构建SAE软仪表模型,利用MI-SAE方法对原始输入变量进行选择,对于过程变量的自动选择方法包括两个要素,一是对于变量重要性的衡量标准,即代价函数,二是对于变量的选择规则,构建的代价函数如下:
此代价函数表示的是在去掉第r个过程变量之后的代价函数值,其中,第一项代表去掉第r个输入变量xr之后的软仪表误差,X表示输入变量集合,X-r代表去掉xr之后的输入集合,采用均方根误差(RootMean Square Error,RMSE)衡量模型的误差,如下:
n为样本个数,yreal和y分别代表目标变量的实际测量值和模型预测值;当从输入集合中去掉某一输入变量xr之后,软仪表的预测误差变大,则说明变量xr对模型的重要性高,若预测误差变小,则说明xr对软仪表性能来说是无用的,即的值越大,xr的重要程度越高;
代价函数的第二项代表第r个输入变量与其他输入变量的平均互信息值,互信息用来衡量的是变量间的相关性大小,值越大,相关性越大,对于两个离散变量之间的互信息定义如下:
第二项中的分子代表变量xr与集合X-r中的其他变量的互信息求和,分母|X|-1表示集合X-r中的变量数目,此项的值越大,说明变量xr与其他输入变量的相关性越大,为了降低输入变量集内部的相关性,剔除与其他变量相关性最强的变量,使得代价函数(5)值最小的变量其重要性最低,从输入集合中去除;
基于上述分析,本发明对输入变量的选择规则是,利用一种后序选择的方法,在每一次迭代中去掉一个输入变量,直到输入变量的个数或者模型的预测误差满足结束条件,在每一迭代中,某一输入变量被去掉之后,软仪表的输入变量发生改变,SAE模型需要更新,在传统的前向或者后向搜索算法中,每一次迭代之后都要整体重新训练模型进行权值更新,带来了巨大的计算量,在每次迭代中仅更新SAE的第一层权值,大大降低了计算量,在变量xr从输入集合中移除之后,新的SAE模型为:
W(1),-r,b(1),-r,W(2),-r和b(2),-r是SAE模型的第一层和第二层的新权值;将新模型与旧模型之间的差值定义为ε,则:
R(yreal,y)=R(yreal,y-r)+ε (9);
对第k个样本:
其中,ε(k)是第k个样本的误差贡献量,将(8)带入(11),得:
g(g(X(k)TW(1)+b(1))W(2)+b(2))=g(g(X-r(k)TW(1),-r+b(1),-r)W(2),-r+b(2),-r)+ε(k) (12);
更新W(1)和b(1),其他权值不变,W(2)=W(2),-rand b(2)=b(2),-r,将ε(k)分别作用于剩余的每一个输入变量:
g(g(X(k)TW(1)+b(1))W(2)+b(2))=g(g(X-r(k)TW(1),-r+b(1),-r+Δ(k))W(2)+b(2)) (13);
Δ(k)代表一个输入变量与隐层之间的h×1权值向量,h为隐层神经元数,对剩余输入变量及其相关权值,由(13)可得:
即当变量xr以及其相关权值wrj(j=1,...,h)被移除之后,剩余的第一层权值wij可通过因子δij进行更新,即:
δij通过(14)可得;
在每去掉一个输入变量之后,通过更新软仪表的第一层权值更新模型,其他层权值保持不变,循环迭代,直到满足终止条件,算法的最终输出是选出的最优输入变量集合。
2.根据权利要求1所述的基于互信息和软仪表误差的输入变量自动选择方法,其特征在于,MI-SAE的算法流程步骤包括:
a:利用全部原始输入变量建立一个原始SAE模型;
b:对于原始输入变量集合X中的每一个变量x,计算代价函数L值;
c:选出使得L最小的输入变量,从输入集合中去除;
d:更新输入集合并更新SAE模型权值;
e:若满足终止条件则停止,否则返回步骤2循环。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810075448.8A CN108345726A (zh) | 2018-01-26 | 2018-01-26 | 基于互信息和软仪表误差的输入变量自动选择方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810075448.8A CN108345726A (zh) | 2018-01-26 | 2018-01-26 | 基于互信息和软仪表误差的输入变量自动选择方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108345726A true CN108345726A (zh) | 2018-07-31 |
Family
ID=62961691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810075448.8A Pending CN108345726A (zh) | 2018-01-26 | 2018-01-26 | 基于互信息和软仪表误差的输入变量自动选择方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108345726A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11663679B2 (en) | 2019-10-11 | 2023-05-30 | International Business Machines Corporation | Generating mode change alerts with automatic detection from sensor data |
US11868932B2 (en) | 2020-09-30 | 2024-01-09 | International Business Machines Corporation | Real-time opportunity discovery for productivity enhancement |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101487466A (zh) * | 2009-02-25 | 2009-07-22 | 华东理工大学 | 一种离心式压缩机压缩比和多变效率的在线软测量方法 |
CN106405640A (zh) * | 2016-08-26 | 2017-02-15 | 中国矿业大学(北京) | 基于深度信念神经网络的微震信号到时自动拾取方法 |
CN106709640A (zh) * | 2016-12-15 | 2017-05-24 | 华南理工大学 | 基于深度学习与支持向量回归的船舶能耗预测方法 |
-
2018
- 2018-01-26 CN CN201810075448.8A patent/CN108345726A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101487466A (zh) * | 2009-02-25 | 2009-07-22 | 华东理工大学 | 一种离心式压缩机压缩比和多变效率的在线软测量方法 |
CN106405640A (zh) * | 2016-08-26 | 2017-02-15 | 中国矿业大学(北京) | 基于深度信念神经网络的微震信号到时自动拾取方法 |
CN106709640A (zh) * | 2016-12-15 | 2017-05-24 | 华南理工大学 | 基于深度学习与支持向量回归的船舶能耗预测方法 |
Non-Patent Citations (1)
Title |
---|
XIAO WANG 等: "A new input variable selection method for soft sensor based on stacked auto-encoders", 《2017 IEEE 56TH ANNUAL CONFERENCE ON DECISION AND CONTROL (CDC)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11663679B2 (en) | 2019-10-11 | 2023-05-30 | International Business Machines Corporation | Generating mode change alerts with automatic detection from sensor data |
US11868932B2 (en) | 2020-09-30 | 2024-01-09 | International Business Machines Corporation | Real-time opportunity discovery for productivity enhancement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110033021B (zh) | 一种基于一维多路卷积神经网络的故障分类方法 | |
CN102693451B (zh) | 基于多参数的氨法烟气脱硫效率预测方法 | |
CN113107626B (zh) | 一种基于多变量lstm的联合循环发电机组负荷预测方法 | |
CN112508053A (zh) | 基于集成学习框架的智能诊断方法、装置、设备及介质 | |
CN108345284B (zh) | 一种基于两变量块的质量相关故障检测方法 | |
CN101872182A (zh) | 一种基于递推非线性部分最小二乘的间歇过程监控方法 | |
CN113901977A (zh) | 一种基于深度学习的电力用户窃电识别方法及系统 | |
CN104865827B (zh) | 一种基于多工况模型的抽油机采油优化方法 | |
CN109784692A (zh) | 一种基于深度学习的快速安全约束经济调度方法 | |
CN110910026B (zh) | 一种跨省输电线路线损智能管理与决策方法及系统 | |
CN113837464A (zh) | 一种基于CNN-LSTM-Attention的热电联产锅炉负荷预测方法 | |
CN108345726A (zh) | 基于互信息和软仪表误差的输入变量自动选择方法 | |
CN114358116A (zh) | 油浸式变压器故障诊断方法、系统及可读存储介质 | |
CN114757269A (zh) | 一种基于局部子空间-邻域保持嵌入的复杂过程精细化故障检测方法 | |
CN114722730A (zh) | 基于LightGBM与随机搜索法的燃煤锅炉排烟温度预测方法及系统 | |
CN115238573A (zh) | 考虑工况参数的水电机组性能劣化趋势预测方法和系统 | |
CN110378035A (zh) | 一种基于深度学习的加氢裂化软测量建模方法 | |
Meng et al. | The complex network model for industrial data based on Spearman correlation coefficient | |
CN110766234B (zh) | 基于信息融合的水泥冷却过程篦下压力预测方法 | |
CN117096871A (zh) | 一种基于时空分布的风电功率概率密度的预测方法 | |
CN117238401A (zh) | 一种基于图注意力网络的芳香硝基化合物毒性预测方法 | |
CN109886316B (zh) | 基于云系相似度权重分配的变压器状态参量组合预测方法 | |
CN116757354A (zh) | 一种基于多层感知机的烟叶复烤段关键参数筛选方法 | |
CN111178627B (zh) | 一种基于spca的神经网络混合优化预测方法 | |
CN115526433A (zh) | 一种基于集成混合模型的电厂再热烟气挡板操作预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180731 |
|
RJ01 | Rejection of invention patent application after publication |