CN108445752B - 一种自适应选择深度特征的随机权神经网络集成建模方法 - Google Patents
一种自适应选择深度特征的随机权神经网络集成建模方法 Download PDFInfo
- Publication number
- CN108445752B CN108445752B CN201810174267.0A CN201810174267A CN108445752B CN 108445752 B CN108445752 B CN 108445752B CN 201810174267 A CN201810174267 A CN 201810174267A CN 108445752 B CN108445752 B CN 108445752B
- Authority
- CN
- China
- Prior art keywords
- layer
- output
- model
- integrated
- integration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种自适应选择深度特征的随机权神经网络集成建模方法,首先,预设定深度特征层数和集成模型尺寸阈值为J和Jthresh;接着,构建以易检测过程变量为输入和输出的神经网络自编码器并提取第1层特征,建立以易检测过程变量为输入和难检测过程参数为输出的第1个候选子模型;然后,构建以第1层特征为输入和输出的神经网络自编码器并提取获得第2层特征,建立以第1层特征为输入和难检测过程参数为输出的第2个候选子模型;重复上述过程,直到获得第J层特征和第J个候选子模型;最后,基于全部J个候选子模型,耦合分支定界优化算法和模型加权算法获取集成尺寸为2~Jthresh的全部选择性集成模型,并将预测误差最小的作为最终的难检测过程参数预测模型。
Description
技术领域
本发明属于工业控制技术领域,尤其涉及一种自适应选择深度特征的随机权神经网络集成建模方法。
背景技术
连续实时地检测与生产质量、效率及安全密切相关的关键过程参数对有效工业过程实施运行优化与控制策略至关重要。受限于工业过程的综合复杂特性和众多因素的强耦合性,某些关键过程参数值的难以在线检测和机理建模。目前主要依靠优秀领域专家凭经验估计或人工定时采样、实验室离线化验或检测的方法取得这些参数值,存在依赖性大、准确度低、检测滞后、耗时等缺点,成为制约复杂工业过程节能降耗、绿色化生产的主要因素之一。基于离线的易检测过程变量构建难检测过程参数的预测模型是一种行之有效的解决方法[1]。
针对工业过程中的易检测过程变量间的共线性和非线性问题,特征提取和特征选择技术是基于不同机理的两种处理策略。特征选择是选择最重要的某些相关特征,未被选择的特征可能会降低估计模型的泛化性能[2]。特征提取是采用线性或是非线性的方式确定合适的低维潜在特征替代原始高维特征,如主成分分析(PCA)[3]和潜变量映射(PLS)[4]及其核版本,但这些方法难以提取易检测过程变量所蕴含的深层次特征。理论上,深度学习可充分模拟人类大脑的神经连接结构,通过组合低层特征可实现数据的分层特征表示[5]。近年来,基于生物大脑认知图像机理设计的卷积神经网络在视频图像识别领域成功应用[6,7]。针对难以获取足够有标签数据的工业过程,文献[8]认为深度神经网络可作为潜变量模型描述过程变量间的高相关性,也可对工业过程的大量无标签数据进行无监督特征提取,文献[9]提出基于受限玻尔兹曼机的深度特征构建软测量模型。文献[10]提出多尺度深度特征提取方法,文献[11]提出处理不确定性信息的深度学习算法,文献[12]提出同时考虑高层次和低层次特征的部分跨接神经网络用于人脸性别分类,文献[13]提出基于全层次深度特征的全跨接深度网络,文献[14]提出进行同层单元连接的深度信念网络模型提取图像特征;以上文献对如何使深度特征能够蕴含建模对象的内在机理,如何自适应确定深度层次和深度特征数量未做深入探讨。文献[15]综述了面向时间序列建模的非监督特征学习和深度学习,文献[16]综述了深度学习在控制领域的应用研究现状,指出其在深度特征提取方向上具有突出的潜力和优势。但是,以上这些深度学习策略均需要多次精调隐含层的众多学习参数,导致训练过程繁琐和耗时。随机权神经网络(RWNN)是一类具有快速学习速度和较好泛化能力的单隐层神经网络[17,18,19],其特点是对随机产生的隐含层输入权重和偏置不进行调整,只是对输出权重采用最小二乘算法进行调节。研究表明,基于自编码的深度网络可提取原始建模数据所蕴含的有价值深度特征[20]。文献[21]提出了基于RWNN自编码器进行逐层非监督学习的多层神经网络,具有快速提取非监督深度特征的特性。综上可知,如何自适应选择深度特征,即如何确定深度特征的层数,一直未有行之有效的方法。另外,理论上讲,不同层的深度特征在表征能力和可解释性方面也具有差异性。
研究表明,神经网络集成通过对具有差异性的候选子模型的预测结果进行合并,可提高预测模型的泛化性、有效性及可信度。选择性的集成部分子模型(这些被选择的候选子模型被称之为集成子模型)可得到比集成全部子模型更好的预测性能[22]。面向多源特征子集构造的候选子模型,在预设定加权方法的情况下,基于选择性集成(SEN)学习的建模过程可描述为一个类似于最优特征选择的优化问题[23],同时也是一个选择性的多源信息优化融合问题[24]。显然,基于深度神经网络提取的多层深度特征可看作具有不同表征和解释能力的多个来源的特征。在给定预设定层数的情况下,基于选择性集成学习算法对这些深度特征进行选择性的优化融合,可实现深度特征的自适应选择。
不同层的深度特征在表征能力和解释性上具有差异性。如何自适应选择深度特征并快速构建具有较强泛化性能的难检测过程参数预测模型是目前研究的难点。
发明内容
本发明从模拟人类专家面对多源特征认知模型所采用的选择性优化融合机制的视角出发,提出了一种自适应选择深度特征的随机权神经网络集成建模方法。
为实现上述目的,本发明采用如下的技术方案:
本发明自适应选择深度特征的随机权神经网络集成建模方法。首先,进行工业过程易检测过程变量与难检测过程参数采集,预设定深度特征层数和集成模型尺寸阈值为J和Jthresh;接着,构建以易检测过程变量为输入和输出的神经网络自编码器并提取第1层特征,建立以易检测过程变量为输入和难检测过程参数为输出的第1个候选子模型;然后,构建以第1层特征为输入和输出的神经网络自编码器并提取获得第2层特征,建立以第1层特征为输入和难检测过程参数为输出的第2个候选子模型;重复上述过程,直到获得第J层特征和第J个候选子模型;最后,基于全部J个候选子模型,耦合分支定界优化算法和模型加权算法获取集成尺寸为2~Jthresh的全部选择性集成模型,并将预测误差最小的作为最终的难检测过程参数预测模型。该预测建模方法在本质上是对基于不同层深度特征的候选子模型进行选择与合并,是在预设定神经网络层数的情况下进行深度特征的自适应选择,适合于人类专家面对多源特征模型所采取的选择性融合机制。采用Benchmark数据验证了所提方法的有效性。
附图说明
图1为本发明自适应选择深度特征的随机权神经网络集成建模方法流程图。
图2难检测参数集成预测模型的建模过程;
图3不同N值与训练、验证和测试数据预测误差的关系;
图4不同J值与训练、验证和测试数据预测误差的关系;
图5a不同α值与训练、验证和测试数据预测误差的关系;
图5b不同1/λ值与训练、验证和测试数据预测误差的关系;
图6候选子模型运行40次的最大、平均和最小预测误差;
图7选择性集成模型运行40次的最大、平均和最小预测误差;
图8不同建模方法的训练数据预测曲线;
图9不同建模方法的验证数据预测曲线;
图10不同建模方法的测试数据预测曲线。
具体实施方式
本发明从模拟人类专家面对多源特征认知模型所采用的选择性优化融合机制的视角出发,提出了一种自适应选择深度特征的随机权神经网络集成建模方法。
随机权神经网络(RWNN)可表示为:
其中,β=[β1,...,βn,...,βN]∈RN是输出层权重;N是隐含层节点数量;x∈RP是输入特征向量,P是输入特征的维数;w∈RP和b∈R是在范围[-α,α]间的隐含层输入权重和偏置。可见,β与N,α,w和b相关。
对于给定的训练数据集{X∈RK×P,Y∈RK×1},RWNN就是求解如下优化问题:
其中矩阵H称为隐含层映射,可用下式表示:
通过求解最小二乘问题,可得其解为:
采用正则化方式克服最小二乘的病态问题,公式(2)所示的优化问题变为::
即:
其中,xk表示第k个样本;λ>0,表示正则化参数。
上式的解为:
神经网络选择性集成建模
对于给定的训练数据集{X∈RK×P,Y∈RK×1},J个集成子模型的输出可表示为:
其中,αj是第j个集成子模型的权重系数。
集成子模型和集成模型的学习误差采用下式计算:
通过简化约束∑αj=1,采用拉格朗日乘子法求解上式;将优化获得的权重向量αopt中的第j*个权重值记为其计算过程需要求解误差函数相关系数矩阵的逆。针对具体的工业过程建模数据,因不同集成子模型之间的存在相关性,求逆的过程通常不稳定。
基于遗产算法的选择性集成(SEN)策略避免了上述问题:首先通过演化候选子模型的随机权重获得优化的子模型权重,然后再通过预先设定的阈值确定优选的集成子模型,最后通过简单平均加权合并所选择的集成子模型。其最终的选择性集成模型的输出为:
由上可知,上述建模策略未考虑不同集成子模型的贡献;同时,针对具体工业问题,尤其是面对不同来源特征子集所构建的集成子模型时,进行优化的选择性信息融合更符合实际情景。
如图1所示,本发明的自适应选择深度特征的随机权神经网络集成建模方法,包括以下步骤:
步骤1、非监督深度特征提取
构建基于RWNN的自编码器,进行深度特征的非监督提取,简化特征提取过程;具体为:
为表述方便,下文对不同的隐含层映射和深度特征采用相同的隐含层神经网络节点数量进行表述,对自编码器的输出权重采用相同的正则化参数进行表述。对不同隐含层的随机输入权重和偏置也采用相同的字符进行表示。在实际应用中,应依据实际情况而取为不同的值。
在实际复杂工业过程中,工业自动化系统所采集易检测过程变量样本数量K通常都较大。因此,针对公式(1)所描述的RWNN网络,构建以易检测过程变量为输入和输出的第1层自编码器,由公式(7)可知其输出权重为:
进一步,提取得到易检测过程变量的第1层非监督特征:
采用相同的方法,构建以易检测过程变量的第1层特征为输入和输出的自编码器,所提取的第2层非监督特征为:
其中,
其中,公式(17)、(18)、(19)中各符号的含义同公式(16)、(14)、(15)相同,只是采用上标或下标“2”表示对应于第2层特征的相应矩阵或变量。
类似的,以易检测过程变量的第j-1层特征为输入和输出构建自编码器,所提取的第j层非监督特征为:
其中,
由上可知,所提取的第J层非监督特征为:
其中,
综合上述过程,可实现对易检测过程变量的不同层深度特征的非监督提取。
步骤2、深度特征候选子模型构建
构建基于不同层深度特征的RWNN候选子模型。理论上,这些基于不同表征能力的深度特征候选子模型具有不同的预测性能。因此,将它们看作为基于多源特征的候选子模型,具体为;
理论上,不同层深度特征在表征能力和可解释性上存在差异性。为表述方便,与提取非监督特征的过程类似,下文对不同的隐含层映射采用相同的神经网络节点数量进行表述,对候选子模型输出权重采用相同的正则化参数进行表述。
首先构建以易检测过程变量为输入和难检测过程参数为输出的第1个候选子模型。基于公式(7)和公式(15),第1个候选子模型的输出可表示为:
类似,构建以第1层特征为输入和难检测过程参数为输出的第2个候选子模型,其输出可表示为:
其中,公式(28)、(29)中各符号的含义同公式(26)、(27)相同,只是采用上标或下标“2”表示对应于第2个候选子模型的相应矩阵或变量。
再然后,重复上述过程,第j个候选子模型的输出可表示为:
其中,
最后,建立以J-1层特征为输入和难检测过程参数为输出的第J个候选子模型,其输出为:
其中,
综合上述过程,实现了基于不同层非监督深度特征的候选子模型的构建。
步骤3、预测模型构建
对候选子模型进行选择和融合,获得具有最佳预测性能的选择性集成模型,将其作为最终的难检测过程参数预测模型,具体为:
本发明中预测建模的目标是通过有效地合并多个基于不同层深度特征的候选模型提高难检测过程参数预测模型的泛化性能,主要策略是:先采用选择性集成学习策略得到具有不同集成尺寸的多个选择性集成模型,再以其中预测性能最佳的作为最终的预测模型。
将J个基于不同层深度特征的候选子模型的集合SCan表示为:
其中,jsel=1,2,…,Jsel,Jsel表示选择性集成模型的集成尺寸,即所选择的集成子模型数量。
首先预先选定集成子模型的加权算法,基于该算法可以获得集成子模型的加权系数。为便于表述,此处以自适应加权算法(AWF)为例进行说明,利用下式计算权系数,
将上述集成尺寸为Jsel的选择性集成模型的均方根误差(RMSE)表示为:
其中,θth是为保证求最大化极值问题所设定的阈值。
由于事先未知集成子模型及其数量(集成尺寸),并且子模型的加权系数需要在集成子模型确定后才能通过加权算法获得的,此处将公式(38)的复杂优化问题进行分解和简化。
(3)最后,选择这些选择性集成模型中预测性能最佳的作为最终的难以检测参数预测模型,可用如下公式表示:
上述预测模型构建过程如图2所示。
由上述过程可知,所提方法实现了预设定神经网络层次情况下的深度特征自适应选择。
实验验证
采用Benchmark平台的Boston Housing数据集验证本发明所提方法。该数据集由506个样本、13个输入特征组成。将数据分为三份,其中训练和验证数据集的大小为270和135,测试数据集的样本大小为135,测试数据依据训练和验证数据进行极值化处理,范围为0.1~0.9。
考虑到随机性,采用运行20次的平均结果作为选择模型学习参数的依据。首先,将输入权重和偏置的范围α选择为=1,神经网络的层数为J=10层,正则化参数选择为1/λ=1e-8,对隐含层节点数量N进行选择。采用不同的N值时,训练、验证和测试数据的RMSE曲线如图3所示。
依据上述曲线,选择N值;然后依次选择神经网络的层数J,然后再选择输入权重和偏置的范围α,最后选择正则化参数λ。这些不同的学习参数与预测误差的关系如图4、图5a、图5b所示。
基于上述运行结果,基于验证数据集的预测误差最终确定的学习参数为:α=0.01,J=28,N=50,1/λ=1e-12。采用上述学习参数运行40次,对全部深度特征候选子模型及最终预测模型的结果进行统计分析。图6给出了全部特征候选子模型在训练、验证和测试数据集上运行40次的最大、平均和最小预测误差。
图6表明,针对不同层深度特征所构建的子模型:(1)平均预测误差上的波动范围较小,并且无明显趋势;(2)最小误差上的波动范围较平均误差大,并且在验证数据上随着特征深度的增加呈现总体下降的趋势;(3)最大误差具有最大的波动范围,并且在训练、验证和测试数据集上都呈现出随着深度增加而总体下降的趋势。上述结果表明了深度特征逐层提取的有效性。
此处,将集成尺寸的阈值Jthresh设定为10。基于上述基于非监督提取的深度特征构建集成尺寸为2~10的选择性集成模型。运行40次在不同数据集上的预测误差如图7所示。
图7表明,针对具有不同集成尺寸的选择性集成模型:(1)平均预测误差在训练和测试数据集上随着集成尺寸的增加呈现下降趋势,验证数据集则变化平缓,并且在集成尺寸为4的时候具有最佳值;(2)最小预测误差在不同的数据集上呈现出不同的形式,在训练数据上主要是缓慢下降,在验证数据集上则是先上升再下降,在测试数据集上则是呈现先上升再下降的趋势,这些表明需要更多数据和更大的集成尺寸对本发明所提方法进行验证;(3)最大预测误差的在三个数据集上都是呈现下降趋势,在验证数据上的下降速率稍低,说明在总体上最大测试误差还是随着集成尺寸的增大而降低,这与集成学习的理论相符合。另外,考虑到本发明学习参数的选择基于验证数据集对每个学习参数进行单独选择,并且不同隐含层采用的是相同的节点个数,这些因素限制了所提方法在预测性能上的提升。
为了比较不同建模方法,此处将预测性能最好的单层深度特征模型(Sub)、集成全部深度特征候选子模型的预测模型(Ensub)和采用本发明所提自适应确定深度特征方法建立的预测模型(SEN)的在训练、验证和测试数据集上运行40次,其统计结果如表1所示。
表1不同预测模型在训练、验证和测试数据集上的统计结果
由表1可知:(1)针对最小预测误差,本发明所提方法在训练、验证和测试数据集上均具有最佳性能,分别是1.000、3.628和3.158,表明通过选择性集成基于不同深度特征的候选子模型,可以获得性能最佳的预测模型;(2)针对最大预测误差,在训练数据集上是Ensub性能最佳(3.048),在验证数据集是本发明所提SEN性能最佳(4.320),在测试数据集上,则是Sub性能最佳(4.578),具有差异性。由于是采用验证数据集选择的学习参数,其在本发明所提方法上具有最佳性能是合理的;(3)针对平均预测误差,在训练和测试数据集上均是Ensub具有最佳性能(2.559和3.696),在验证数据集是本发明所提SEN性能最佳(3.994),依次是Sub和Ensub。上述结果表明,集成尺寸还需要适当增加。
基于训练、测试和验证数据的预测曲线如图8-10所示。
上述结果表明本发明所提方法是有效和可行的。
本发明提出了一种自适应选择深度特征的随机权神经网络集成建模方法,其主要创新点是:对基于不同层深度特征的候选子模型进行的选择性集成学习,是在预设定神经网络层数的情况下进行深度特征的自适应选择,适合于人类专家对多源特征模型的选择性信息融合机制。采用Benchmark数据验证了所提方法的有效性。
参考文献
[1]Kadlec P,Gabrys B,Strand S.Data-driven soft-sensors in the processindustry[J].Computers and Chemical Engineering,2009,33(4):795-814.
[2]Lázaro J.M.B.D.,Moreno A.P.,Santiago O.L.,and NetoA.J.D.S.Optimizing kernel methods to reduce dimensionality in fault diagnosisof industrial systems[J].Computers&Industrial Engineering,2015,87(C):140-149.
[3]Tang J.,Chai T.Y.,Zhao L.J.,Yu W.,and Yue H.Soft sensor forparameters of mill load based on multi-spectral segments PLS sub-models andon-line adaptive weighted fusion algorithm[J].Neurocomputing,2012,78(1):38-47.
[4]Charanpal D.,Gunn S.R.,and John S.T.Efficient sparse kernelfeature extraction based on partial least squares[J].IEEE Transactions onPattern Analysis&Machine Intelligence,2009,31(8):1347-1361.
[5]尹宝才,王文通,王立春.深度学习研究综述[J].北京工业大学学报,2015,1:48-59.
[6]Hinton,G.E.:A fast learning algorithm for deep belief nets[J],Neural Computation,2006,18:1527-1554.
[7]Schmidhuber J.Deep Learning in Neural Networks:An Overview[J].Neural Networks the Official Journal of the International Neural NetworkSociety,2014,61:85-117.
[8]Shang C,Yang F,Huang D,et al.Data-driven soft sensor developmentbased on deep learning technique[J].Journal of Process Control,2014,24(3):223-233.
[9]王宇红,狄克松,张姗,等.基于DBN-ELM的聚丙烯熔融指数的软测量[J].化工学报,2016,67(12):5163-5168.
[10]任荣荣,周明全,耿国华,等.基于深度神经网络的多尺度特征提取方法[J].西北大学学报:自然科学版,2017,47(2):215-221.
[11]Chen C.L.Philip,Zhang Chun-Yang,Chen Long,Gan Min.FuzzyRestricted Boltzmann Machine for the Enhancement of Deep Learning[J].IEEETRANSACTIONS ON FUZZY SYSTEMS.2015,23(6):2163-2173.
[12]张婷,李玉鑑,胡海鹤,等.基于跨连卷积神经网络的性别分类模型[J].自动化学报,2016,42(6):858-865.
[13]Huang G,Liu Z,Weinberger K Q,et al.Densely ConnectedConvolutional Networks[J].2016.arXiv:1608.06993
[14]耿志强,张怡康.一种基于胶质细胞链的改进深度信念网络模型[J].自动化学报,2016,42(6):943-952.
[15]Martin,L.Karlsson,and A.Loutfi.A review of unsupervisedfeature learning and deep learning for time-series modeling[J].PatternRecognition Letters,2014,42(1):11-24.
[16]段艳杰,吕宜生,张杰,赵学亮,王飞跃.深度学习在控制领域的研究现状与展望.自动化学报,2016,42(5):643-654
[17]Pao,Y.H.,Takefuji,Y.Functional-link net computing,theory,systemarchitecture,and functionalities[J].IEEE Comput.,1992,25(5):76-79.
[18]Igelnik,B.,Pao,Y.H.Stochastic choice of basis functions inadaptive function approximation and the functional-link net[J].IEEETrans.Neural Network,1995,6(6):1320-1329.
[19]Comminiello D.,Scarpiniti M.,Azpicueta-Ruiz L.A.,Arenas-GarciaJ.,Uncini A.Functional link adaptive filters for nonlinear acoustic echocancellation[J].IEEE Trans.Audio Speech Lang.Process.2013,21(7):1502-1512.
[20]Vinent,H.,Larochelle,H.,Lajoie,I.,Bengio,Y.,Manzagol,P.A.Stackeddenoising autoendcoders:Learning useful representations in a deep networkwith a local denoising criterion[J].The journal of Machine Learning Research,2010,11:3371-3408.
[21]Kasun,L.L.C.,Zhou,.H.Representational learning with extremelearning machine for big data,IEEE Intelligent system,2013,28(6):31-34.
[22]Zhou Z H,Wu J,Tang W.Ensembling neural networks:many could bebetter than all[J].
Artificial Intelligence,2002,137(1-2):239-263
[23]Jian Tang,Tianyou Chai,Wen Yu,Lijie Zhao,Modeling load parametersof ball mill in grinding process based on selective ensemble multisensorinformation[J],IEEE Transaction on Automation Science and Engineering,2013,10(3):726-740.
[24]汤健,田福庆,贾美英,李东.基于频谱数据驱动的旋转机械设备负荷软测量[M],国防工业出版社,北京,2015年6月。
Claims (2)
1.一种自适应选择深度特征的随机权神经网络集成建模方法,其特征在于,包括:首先,进行工业过程易检测过程变量与难检测过程参数采集,预设定深度特征层数和集成模型尺寸阈值为J和Jthresh;接着,构建以易检测过程变量为输入和输出的神经网络自编码器并提取第1层特征,建立以易检测过程变量为输入和难检测过程参数为输出的第1个候选子模型;然后,构建以第1层特征为输入和输出的神经网络自编码器并提取获得第2层特征,建立以第1层特征为输入和难检测过程参数为输出的第2个候选子模型;重复上述过程,直到获得第J层特征和第J个候选子模型;最后,基于全部J个候选子模型,耦合分支定界优化算法和模型加权算法获取集成尺寸为2~Jthresh的全部选择性集成模型,并将预测误差最小的作为最终的难检测过程参数预测模型。
2.一种自适应选择深度特征的随机权神经网络集成建模方法,其特征在于,包括以下步骤:
步骤1、非监督深度特征提取
针对RWNN网络,构建以易检测过程变量为输入和输出的第1层自编码器,输出权重为:
进一步,提取得到易检测过程变量的第1层非监督特征:
采用相同的方法,构建以易检测过程变量的第1层特征为输入和输出的自编码器,所提取的第2层非监督特征为:
其中,
其中,公式(17)、(18)、(19)中各符号的含义同公式(16)、(14)、(15)相同,只是采用上标或下标“2”表示对应于第2层特征的相应矩阵或变量;
类似的,以易检测过程变量的第j-1层特征为输入和输出构建自编码器,所提取的第j层非监督特征为:
其中,
由上可知,所提取的第J层非监督特征为:
其中,
综合上述过程,可实现对易检测过程变量的不同层深度特征的非监督提取;
步骤2、深度特征候选子模型构建
首先构建以易检测过程变量为输入和难检测过程参数为输出的第1个候选子模型;第1个候选子模型的输出可表示为:
类似,构建以第1层特征为输入和难检测过程参数为输出的第2个候选子模型,其输出可表示为:
其中,公式(28)、(29)中各符号的含义同公式(26)、(27)相同,只是采用上标或下标“2”表示对应于第2个候选子模型的相应矩阵或变量,
再然后,重复上述过程,第j个候选子模型的输出可表示为:
其中,
最后,建立以J-1层特征为输入和难检测过程参数为输出的第J个候选子模型,其输出为:
其中,
综合上述过程,实现了基于不同层非监督深度特征的候选子模型的构建;
步骤3、预测模型构建
将J个基于不同层深度特征的候选子模型的集合SCan表示为:
其中,jsel=1,2,…,Jsel,Jsel表示选择性集成模型的集成尺寸,即所选择的集成子模型数量,
首先预先选定集成子模型的加权算法,基于该算法可以获得集成子模型的加权系数,为便于表述,当选定的集成子模型为自适应加权算法时,利用下式计算权系数,
将上述集成尺寸为Jsel的选择性集成模型的均方根误差表示为:
其中,θth是为保证求最大化极值问题所设定的阈值;
由于事先未知集成子模型及其数量,并且子模型的加权系数需要在集成子模型确定后才能通过加权算法获得的,此处将公式(38)的复杂优化问题进行分解和简化,
(3)最后,选择这些选择性集成模型中预测性能最佳的作为最终的难以检测参数预测模型,可用如下公式表示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810174267.0A CN108445752B (zh) | 2018-03-02 | 2018-03-02 | 一种自适应选择深度特征的随机权神经网络集成建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810174267.0A CN108445752B (zh) | 2018-03-02 | 2018-03-02 | 一种自适应选择深度特征的随机权神经网络集成建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108445752A CN108445752A (zh) | 2018-08-24 |
CN108445752B true CN108445752B (zh) | 2021-08-17 |
Family
ID=63192997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810174267.0A Active CN108445752B (zh) | 2018-03-02 | 2018-03-02 | 一种自适应选择深度特征的随机权神经网络集成建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108445752B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12001949B2 (en) | 2018-09-05 | 2024-06-04 | Sartorius Stedim Data Analytics Ab | Computer-implemented method, computer program product and system for data analysis |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4290412A3 (en) * | 2018-09-05 | 2024-01-03 | Sartorius Stedim Data Analytics AB | Computer-implemented method, computer program product and system for data analysis |
CN109522448B (zh) * | 2018-10-18 | 2021-07-13 | 天津大学 | 一种基于crbm和snn进行鲁棒性语音性别分类的方法 |
CN109695174B (zh) * | 2018-12-28 | 2021-09-07 | 东北大学 | 磨浆过程纤维长度分布的pdf形状预测方法及系统 |
CN110070116B (zh) * | 2019-04-08 | 2022-09-20 | 云南大学 | 基于深度树状训练策略的分段式选择集成图像分类方法 |
CN110188383B (zh) * | 2019-04-23 | 2021-01-05 | 华中科技大学 | 一种基于选择性集成模型的电站scr脱硝建模方法 |
CN110378035A (zh) * | 2019-07-19 | 2019-10-25 | 南京工业大学 | 一种基于深度学习的加氢裂化软测量建模方法 |
CN111523647B (zh) * | 2020-04-26 | 2023-11-14 | 南开大学 | 网络模型训练方法及装置、特征选择模型、方法及装置 |
CN111929054B (zh) * | 2020-07-07 | 2022-06-07 | 中国矿业大学 | 一种基于prvfln的气动调节阀并发故障诊断方法 |
CN113705614B (zh) * | 2021-07-28 | 2024-04-05 | 东北大学 | 基于gan的复杂工业过程运行指标校正方法 |
CN114310483B (zh) * | 2021-12-13 | 2023-04-28 | 华中科技大学 | 一种数控加工尺寸误差预测方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160098633A1 (en) * | 2014-10-02 | 2016-04-07 | Nec Laboratories America, Inc. | Deep learning model for structured outputs with high-order interaction |
CN105137967B (zh) * | 2015-07-16 | 2018-01-19 | 北京工业大学 | 一种深度自动编码器与q学习算法相结合的移动机器人路径规划方法 |
US9805269B2 (en) * | 2015-11-20 | 2017-10-31 | Adobe Systems Incorporated | Techniques for enhancing content memorability of user generated video content |
CN106934458A (zh) * | 2015-12-31 | 2017-07-07 | 中国科学院深圳先进技术研究院 | 基于深度学习的多层自动编码方法及系统 |
CN105787255B (zh) * | 2016-02-04 | 2018-10-30 | 中国人民解放军61599部队计算所 | 一种磨机负荷参数软测量方法 |
US20170328194A1 (en) * | 2016-04-25 | 2017-11-16 | University Of Southern California | Autoencoder-derived features as inputs to classification algorithms for predicting failures |
CN106709567A (zh) * | 2016-12-14 | 2017-05-24 | 河北省科学院应用数学研究所 | 基于深度学习模型的道岔故障诊断方法 |
CN107016241A (zh) * | 2017-04-05 | 2017-08-04 | 重庆交通大学 | 基于加噪样本增强深度自编码学习网络的旋转机械寿命阶段识别方法 |
CN107122809B (zh) * | 2017-04-24 | 2020-04-28 | 北京工业大学 | 基于图像自编码的神经网络特征学习方法 |
CN107122733B (zh) * | 2017-04-25 | 2019-10-11 | 西安电子科技大学 | 基于nsct和sae的高光谱图像分类方法 |
CN107505837A (zh) * | 2017-07-07 | 2017-12-22 | 浙江大学 | 一种半监督神经网络模型及基于该模型的软测量建模方法 |
-
2018
- 2018-03-02 CN CN201810174267.0A patent/CN108445752B/zh active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12001949B2 (en) | 2018-09-05 | 2024-06-04 | Sartorius Stedim Data Analytics Ab | Computer-implemented method, computer program product and system for data analysis |
US12001935B2 (en) | 2018-09-05 | 2024-06-04 | Sartorius Stedim Data Analytics Ab | Computer-implemented method, computer program product and system for analysis of cell images |
Also Published As
Publication number | Publication date |
---|---|
CN108445752A (zh) | 2018-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108445752B (zh) | 一种自适应选择深度特征的随机权神经网络集成建模方法 | |
Almalaq et al. | A review of deep learning methods applied on load forecasting | |
Su et al. | An end-to-end framework for remaining useful life prediction of rolling bearing based on feature pre-extraction mechanism and deep adaptive transformer model | |
Asadi et al. | A new hybrid artificial neural networks for rainfall–runoff process modeling | |
Wang et al. | Research on healthy anomaly detection model based on deep learning from multiple time-series physiological signals | |
CN110648014B (zh) | 一种基于时空分位数回归的区域风电预测方法及系统 | |
CN112990556A (zh) | 一种基于Prophet-LSTM模型的用户用电能耗预测方法 | |
CN109784692B (zh) | 一种基于深度学习的快速安全约束经济调度方法 | |
CN109919364A (zh) | 基于自适应降噪和集成lstm的多变量时间序列预测方法 | |
Zhang et al. | Comparison of econometric models and artificial neural networks algorithms for the prediction of baltic dry index | |
Mylonas et al. | Conditional variational autoencoders for probabilistic wind turbine blade fatigue estimation using Supervisory, Control, and Data Acquisition data | |
CN114218872B (zh) | 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法 | |
CN114282443A (zh) | 基于mlp-lstm有监督联合模型的剩余使用寿命预测方法 | |
Abdulsalam et al. | Electrical energy demand forecasting model using artificial neural network: A case study of Lagos State Nigeria | |
Li et al. | First-order sensitivity analysis for hidden neuron selection in layer-wise training of networks | |
Surakhi et al. | On the ensemble of recurrent neural network for air pollution forecasting: Issues and challenges | |
Bahri et al. | Time series forecasting using smoothing ensemble empirical mode decomposition and machine learning techniques | |
Ghosh et al. | Weather data mining using artificial neural network | |
Dang et al. | seq2graph: Discovering dynamic non-linear dependencies from multivariate time series | |
Shi et al. | The integrated methodology of rough set theory and artificial neural-network for construction project cost prediction | |
CN116578858A (zh) | 基于图神经网络的空压机故障预测与健康度评价方法及系统 | |
Chen et al. | Hybrid genetic algorithm and learning vector quantization modeling for cost-sensitive bankruptcy prediction | |
Yakubu et al. | Electricity consumption forecasting using DFT decomposition based hybrid ARIMA-DLSTM model | |
Haryono et al. | Stock price forecasting in Indonesia stock exchange using deep learning: A comparative study | |
Ge et al. | Remaining useful life prediction using deep multi-scale convolution neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |