CN112381139A - 基于elm-adhdp的复杂分离过程优化方法 - Google Patents

基于elm-adhdp的复杂分离过程优化方法 Download PDF

Info

Publication number
CN112381139A
CN112381139A CN202011266460.0A CN202011266460A CN112381139A CN 112381139 A CN112381139 A CN 112381139A CN 202011266460 A CN202011266460 A CN 202011266460A CN 112381139 A CN112381139 A CN 112381139A
Authority
CN
China
Prior art keywords
network
output
layer
input
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011266460.0A
Other languages
English (en)
Other versions
CN112381139B (zh
Inventor
秦伟
李慧
常华鹏
李颖
骆万博
丛铄沣
罗明月
赵启亮
叶伟康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Technology
Original Assignee
Changchun University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Technology filed Critical Changchun University of Technology
Priority to CN202011266460.0A priority Critical patent/CN112381139B/zh
Publication of CN112381139A publication Critical patent/CN112381139A/zh
Application granted granted Critical
Publication of CN112381139B publication Critical patent/CN112381139B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Neurology (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Evolutionary Biology (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了基于ELM‑ADHDP的复杂分离过程优化方法,本发明把ELM‑ADHDP算法引入复杂分离过程中,在统计、分析生产过程的真实数据的基础上,建立输出量的预测模型;用极限学习机预测模型网络参数的初始值,然后对该预测模型进行学习训练,得到稳定的预测模型网络;在训练好的预测模型网络的基础上建立基于改进的ADHDP的参数优化策略,提出复杂分离过程中优化的对象,根据优化的最优性能指标确定优化量值,为复杂分离过程提供工艺优化策略。

Description

基于ELM-ADHDP的复杂分离过程优化方法
技术领域
本发明涉及复杂分离过程工艺条件优化技术领域,具体为基于ELM-ADHDP的复杂分离过程优化方法。
背景技术
基于刮膜蒸发技术的复杂分离过程具有操作温度低、分离压强低、受热时间短等特点,适用于高沸点、热敏、高粘度物质的提取、分离和精制,在诸如精细化工、药品、香精、食用添加剂、石化实际工程领域的应用中,具有常规分离技术无法比拟的优势。复杂分离过程与传统分离技术相比,其工艺参数更加难以控制。刮膜蒸发技术是利用轻重分子平均自由程的不同进行分离的,所以选择适宜的温度和真空度,能够降低分子之间的触碰几率,避免了部分轻分子在向冷凝面运动的过程中因碰撞破坏被分离物的结构,使被提取物保持自身原有的天然特性;而刮膜蒸发器的进料速率以及刮膜电机转速决定了被分离物形成头波的液膜厚度以及不断的更新和补充蒸发表面液膜,适当的进料速率和刮膜电机转速能增强对蒸发面积的利用,有效提高分离提取效率。所以,在复杂分离过程中,蒸发温度、真空度以及刮膜电机转速和进料速度是影响分离效果的关键参数,能否准确确定这些工艺参数,将直接影响产品的质量和生产效率。
复杂分离过程无法建立准确的数学模型,大多采用经验参数,缺少科学依据。本发明采用基于改进的执行依赖启发式动态规划算法实现工艺参数优化,根据产品的指标要求(纯度和得率),运用该算法获得最佳工艺参数值。在基于刮膜蒸发技术的复杂分离过程中,由于蒸发温度、真空度以及刮膜电机转速和进料速度是影响分离产物指标的最重要工艺参数,也是分离过程中需要精确控制的四个量。本发明以分离产物的得率和纯度为最优目标,基于改进的执行依赖启发式动态规划,优化蒸发温度、真空度、刮膜电机转速和进料速度四个关键工艺参数,该方法对于实际生产具有很好的指导意义。
发明内容
本发明的目的在于提供基于ELM-ADHDP的复杂分离过程优化方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于ELM-ADHDP的复杂分离过程优化方法,包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k)、u2(k)、u3(k)、u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k)、x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量u与输出量x具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录n个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure BDA0002776232260000021
输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,win]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
Figure BDA0002776232260000031
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
Figure BDA0002776232260000032
即存在wi、uj和bi使得:
Figure BDA0002776232260000033
上述等式可以改写为Hβ=X,其中:
Figure BDA0002776232260000034
Figure BDA0002776232260000035
其中,H为极限学习机的隐层输出矩阵;因此极限学习机的训练等同于求线性系统Hβ=X的最小二乘解
Figure BDA0002776232260000036
步骤三:将x(k)输入到执行网络,得到u(k),执行网络的输入分别是系统在k时刻的状态向量x(k)的n个分量,输出则是与输入状态x(k)对应的控制向量u(k)的m个分量。由三层拓扑结构极限学习机构成,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure BDA0002776232260000037
输出层的激活函数选取Purelin线性函数。
优选的,所述步骤二中利用极限学习机原理训练模型网络的的具体过程如下:
步骤2-1:定义模型网络k时刻的的输入向量M(k)。
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
Figure BDA0002776232260000041
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
Figure BDA0002776232260000042
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
Figure BDA0002776232260000043
求取Wm2(k)等于求线性系统
Figure BDA0002776232260000044
的最小二乘解
Figure BDA0002776232260000045
即:
Figure BDA0002776232260000046
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
Figure BDA0002776232260000047
其中,
Figure BDA0002776232260000048
为k时刻的伪逆矩阵。
优选的,所述步骤三中执行网络的计算过程如下:
ah1(k)=x(k)·Wa1(k)+βa
ah2(k)=sigmoid(ah1(k))
u(k)=ah2(k)·Wa2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出。
根据极限学习机权值调整的思想,得到隐层到输出层的权值
Figure BDA0002776232260000049
Figure BDA00027762322600000410
其中
Figure BDA0002776232260000051
为ah2(k)的伪逆矩阵,u(k)为执行网络的期望输出。所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值。令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
Figure BDA0002776232260000052
则u(k)为矩阵
Figure BDA0002776232260000053
的前m行。令
Figure BDA0002776232260000054
u(k)=ux(k)(1:m,:)
所以
Figure BDA0002776232260000055
其中ux(k)(1:m,:)是Matlab中常用的矩阵表示形式,表示矩阵ux(k)的前m行。
优选的,还包括如下步骤:
步骤四:将[u(k) x(k)]输入到模型网络,得到x(k+1);
步骤五:将[u(k) x(k)]输入到评价网络中,得到J(k),并计算U(k)。评价网络同样由三层拓扑结构极限学习机构成,输入层神经元为m+n个,n=4,m=2,输出层神经元为1个,隐含层神经元为14个,隐含层的激活函数选取双极性sigmoidal函数,即
Figure BDA0002776232260000056
输出层的激活函数选取Purelin线性函数。
优选的,所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×Wc1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
Figure BDA0002776232260000061
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下。
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
由ch2(k)×Wc2=J(k+1)知,求取隐层到输出层的权值Wc2等于求线性系统ch2(k)×Wc2=J(k+1)的最小二乘解
Figure BDA0002776232260000062
即:
Figure BDA0002776232260000063
其中,
Figure BDA0002776232260000064
为k时刻的伪逆矩阵。
优选的,还包括如下步骤:
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1) x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束。
与现有技术相比,本发明的有益效果是:本发明把ELM-ADHDP算法引入复杂分离过程中,在统计、分析生产过程的真实数据的基础上,建立输出量的预测模型;用极限学习机预测模型网络参数的初始值,然后对该预测模型进行学习训练,得到稳定的预测模型网络;在训练好的预测模型网络的基础上建立基于改进的ADHDP的参数优化策略,提出复杂分离过程中优化的对象,根据优化的最优性能指标确定优化量值,为复杂分离过程提供工艺优化策略。
附图说明
图1为本发明ADHDP算法的基本结构图;
图2为本发明模型网络结构图;
图3为本发明执行网络结构图;
图4为本发明评价网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-4,本发明提供一种技术方案:基于ELM-ADHDP的复杂分离过程优化方法,包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k)、u2(k)、u3(k)、u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k)、x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量u与输出量x具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录n个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure BDA0002776232260000081
输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,win]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
Figure BDA0002776232260000082
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
Figure BDA0002776232260000083
即存在wi、uj和bi使得:
Figure BDA0002776232260000084
上述等式可以改写为Hβ=X,其中:
Figure BDA0002776232260000085
Figure BDA0002776232260000086
其中,H为极限学习机的隐层输出矩阵;因此极限学习机的训练等同于求线性系统Hβ=X的最小二乘解
Figure BDA0002776232260000091
步骤三:将x(k)输入到执行网络,得到u(k),执行网络的输入分别是系统在k时刻的状态向量x(k)的n个分量,输出则是与输入状态x(k)对应的控制向量u(k)的m个分量。由三层拓扑结构极限学习机构成,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure BDA0002776232260000092
输出层的激活函数选取Purelin线性函数。
本发明中,步骤二中利用极限学习机原理训练模型网络的的具体过程如下:
步骤2-1:定义模型网络k时刻的的输入向量M(k)。
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
Figure BDA0002776232260000093
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
Figure BDA0002776232260000094
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
Figure BDA0002776232260000095
求取Wm2(k)等于求线性系统
Figure BDA0002776232260000096
的最小二乘解
Figure BDA0002776232260000097
即:
Figure BDA0002776232260000098
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
Figure BDA0002776232260000101
其中,
Figure BDA0002776232260000102
为k时刻的伪逆矩阵。
本发明中,步骤三中执行网络的计算过程如下:
ah1(k)=x(k)·Wa1(k)+βa
ah2(k)=sigmoid(ah1(k))
u(k)=ah2(k)·Wa2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出。
根据极限学习机权值调整的思想,得到隐层到输出层的权值
Figure BDA0002776232260000103
Figure BDA0002776232260000104
其中
Figure BDA0002776232260000105
为ah2(k)的伪逆矩阵,u(k)为执行网络的期望输出。所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值。令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
Figure BDA0002776232260000106
则u(k)为矩阵
Figure BDA0002776232260000107
的前m行。令
Figure BDA0002776232260000108
u(k)=ux(k)(1:m,:)
所以
Figure BDA0002776232260000109
其中ux(k)(1:m,:)是Matlab中常用的矩阵表示形式,表示矩阵ux(k)的前m行。
本发明中,还包括如下步骤:
步骤四:将[u(k) x(k)]输入到模型网络,得到x(k+1);
步骤五:将[u(k) x(k)]输入到评价网络中,得到J(k),并计算U(k)。评价网络同样由三层拓扑结构极限学习机构成,输入层神经元为m+n个,n=4,m=2,输出层神经元为1个,隐含层神经元为14个,隐含层的激活函数选取双极性sigmoidal函数,即
Figure BDA0002776232260000111
输出层的激活函数选取Purelin线性函数。
优选的,所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×Wc1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
Figure BDA0002776232260000112
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下。
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
由ch2(k)×Wc2=J(k+1)知,求取隐层到输出层的权值Wc2等于求线性系统ch2(k)×Wc2=J(k+1)的最小二乘解
Figure BDA0002776232260000113
即:
Figure BDA0002776232260000114
其中,
Figure BDA0002776232260000115
为k时刻的伪逆矩阵。
本发明还包括如下步骤:
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1) x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束。
综上所述,本发明把ELM-ADHDP算法引入复杂分离过程中,在统计、分析生产过程的真实数据的基础上,建立输出量的预测模型;用极限学习机预测模型网络参数的初始值,然后对该预测模型进行学习训练,得到稳定的预测模型网络;在训练好的预测模型网络的基础上建立基于改进的ADHDP的参数优化策略,提出复杂分离过程中优化的对象,根据优化的最优性能指标确定优化量值,为复杂分离过程提供工艺优化策略。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。

Claims (6)

1.基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k)、u2(k)、u3(k)、u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k)、x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量u与输出量x具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录n个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure FDA0002776232250000011
输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,win]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
Figure FDA0002776232250000012
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
Figure FDA0002776232250000021
即存在wi、uj和bi使得:
Figure FDA0002776232250000022
上述等式可以改写为Hβ=X,其中:
Figure FDA0002776232250000023
Figure FDA0002776232250000024
其中,H为极限学习机的隐层输出矩阵;因此极限学习机的训练等同于求线性系统Hβ=X的最小二乘解
Figure FDA0002776232250000025
Figure FDA0002776232250000026
步骤三:将x(k)输入到执行网络,得到u(k),执行网络的输入分别是系统在k时刻的状态向量x(k)的n个分量,输出则是与输入状态x(k)对应的控制向量u(k)的m个分量。由三层拓扑结构极限学习机构成,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure FDA0002776232250000027
输出层的激活函数选取Purelin线性函数。
2.根据权利要求1所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:所述步骤二中利用极限学习机原理训练模型网络的的具体过程如下:
步骤2-1:定义模型网络k时刻的的输入向量M(k)。
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
Figure FDA0002776232250000028
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
Figure FDA0002776232250000031
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
Figure FDA0002776232250000032
求取Wm2(k)等于求线性系统
Figure FDA0002776232250000033
的最小二乘解
Figure FDA0002776232250000034
即:
Figure FDA0002776232250000035
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
Figure FDA0002776232250000036
其中,
Figure FDA0002776232250000037
为k时刻的伪逆矩阵。
3.根据权利要求1所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:所述步骤三中执行网络的计算过程如下:
ah1(k)=x(k)·Wa1(k)+βa
ah2(k)=sigmoid(ah1(k))
u(k)=ah2(k)·Wa2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出。
根据极限学习机权值调整的思想,得到隐层到输出层的权值
Figure FDA0002776232250000038
Figure FDA0002776232250000039
其中
Figure FDA0002776232250000041
为ah2(k)的伪逆矩阵,u(k)为执行网络的期望输出。所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值。令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
Figure FDA0002776232250000042
Figure FDA0002776232250000043
Figure FDA0002776232250000044
则u(k)为矩阵
Figure FDA0002776232250000045
的前m行。令
Figure FDA0002776232250000046
u(k)=ux(k)(1:m,:)
所以
Figure FDA0002776232250000047
其中ux(k)(1:m,:)是Matlab中常用的矩阵表示形式,表示矩阵ux(k)的前m行。
4.根据权利要求1所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:还包括如下步骤:
步骤四:将[u(k) x(k)]输入到模型网络,得到x(k+1);
步骤五:将[u(k) x(k)]输入到评价网络中,得到J(k),并计算U(k)。评价网络同样由三层拓扑结构极限学习机构成,输入层神经元为m+n个,n=4,m=2,输出层神经元为1个,隐含层神经元为14个,隐含层的激活函数选取双极性sigmoidal函数函数,即
Figure FDA0002776232250000048
输出层的激活函数选取Purelin线性函数。
5.根据权利要求4所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×Wc1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
Figure FDA0002776232250000051
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下。
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
由ch2(k)×Wc2=J(k+1)知,求取隐层到输出层的权值Wc2等于求线性系统ch2(k)×Wc2=J(k+1)的最小二乘解
Figure FDA0002776232250000052
即:
Figure FDA0002776232250000053
Figure FDA0002776232250000054
其中,
Figure FDA0002776232250000055
为k时刻的伪逆矩阵。
6.根据权利要求4所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:还包括如下步骤:
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1)x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束。
CN202011266460.0A 2020-11-13 2020-11-13 基于elm-adhdp的复杂分离过程优化方法 Active CN112381139B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011266460.0A CN112381139B (zh) 2020-11-13 2020-11-13 基于elm-adhdp的复杂分离过程优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011266460.0A CN112381139B (zh) 2020-11-13 2020-11-13 基于elm-adhdp的复杂分离过程优化方法

Publications (2)

Publication Number Publication Date
CN112381139A true CN112381139A (zh) 2021-02-19
CN112381139B CN112381139B (zh) 2023-07-25

Family

ID=74583726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011266460.0A Active CN112381139B (zh) 2020-11-13 2020-11-13 基于elm-adhdp的复杂分离过程优化方法

Country Status (1)

Country Link
CN (1) CN112381139B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115891741A (zh) * 2022-09-30 2023-04-04 南京邮电大学 一种适用于电动汽车充电过程的远程故障预警方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106842948A (zh) * 2017-03-01 2017-06-13 长春工业大学 基于bp网络的hdp分子蒸馏系统的最优控制方法
CN107330294A (zh) * 2017-07-15 2017-11-07 东北大学 带遗忘因子的在线时序多隐含层极限学习机的应用方法
CN109034366A (zh) * 2018-07-18 2018-12-18 北京化工大学 基于多激活函数的elm集成模型在化工建模中的应用
CN111105005A (zh) * 2019-12-03 2020-05-05 广东电网有限责任公司 一种风电功率预测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106842948A (zh) * 2017-03-01 2017-06-13 长春工业大学 基于bp网络的hdp分子蒸馏系统的最优控制方法
CN107330294A (zh) * 2017-07-15 2017-11-07 东北大学 带遗忘因子的在线时序多隐含层极限学习机的应用方法
CN109034366A (zh) * 2018-07-18 2018-12-18 北京化工大学 基于多激活函数的elm集成模型在化工建模中的应用
CN111105005A (zh) * 2019-12-03 2020-05-05 广东电网有限责任公司 一种风电功率预测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
NIKHITHA K. NAIR等: "Tensor Decomposition Based Approach for Training Extreme Learning Machines", 《BIG DATA RESEARCH》, vol. 10, pages 8 - 20 *
常化鹏: "刮膜蒸发过程工艺参数的优化方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅰ辑》 *
常化鹏: "刮膜蒸发过程工艺参数的优化方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅰ辑》, no. 09, 15 September 2019 (2019-09-15), pages 2 *
徐睿等: "极限学习机前沿进展与趋势", 《计算机学报》, vol. 42, no. 7, pages 1640 - 1670 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115891741A (zh) * 2022-09-30 2023-04-04 南京邮电大学 一种适用于电动汽车充电过程的远程故障预警方法及装置
CN115891741B (zh) * 2022-09-30 2023-09-22 南京邮电大学 一种适用于电动汽车充电过程的远程故障预警方法及装置

Also Published As

Publication number Publication date
CN112381139B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
CN109060001B (zh) 一种基于特征迁移学习的多工况过程软测量建模方法
CN111416797B (zh) 改进天牛群算法优化正则化极限学习机的入侵检测方法
CN110009020B (zh) 一种基于多核主元分析模型的非线性过程监测方法
CN110751318A (zh) 一种基于ipso-lstm的超短期电力负荷预测方法
CN111768000A (zh) 在线自适应微调深度学习的工业过程数据建模方法
CN108197743A (zh) 一种基于深度学习的预测模型软测量方法
CN113570039B (zh) 一种基于强化学习的优化共识的区块链系统
Li et al. Semi-supervised ensemble support vector regression based soft sensor for key quality variable estimation of nonlinear industrial processes with limited labeled data
CN106842948B (zh) 基于bp网络的hdp分子蒸馏系统的最优控制方法
CN112381139B (zh) 基于elm-adhdp的复杂分离过程优化方法
CN116579371A (zh) 一种双层优化异构代理模型辅助多目标进化优化计算方法
CN111222689A (zh) 基于多尺度时间特征的lstm负荷预测方法、介质及电子装置
Bi et al. Proximal alternating-direction-method-of-multipliers-incorporated nonnegative latent factor analysis
CN109960146A (zh) 提高软测量仪表模型预测精度的方法
CN116484275B (zh) 基于自适应时空图卷积神经网络的铝电解阳极效应监测方法
CN116911459A (zh) 适应于虚拟电厂的多输入多输出超短期电力负荷预测方法
CN111914471A (zh) 一种基于快速核独立成分分析的精馏塔故障检测方法
CN114818128B (zh) 船体局部曲面优化神经网络建模方法及优化方法
CN116662925A (zh) 一种基于加权稀疏神经网络工业过程软测量方法
CN114936413B (zh) 船体外形优化神经网络建模方法及船体外形优化方法
CN116109004A (zh) 一种绝缘子泄漏电流的预测方法、装置、设备及介质
CN115829099A (zh) 基于anfis及随机分形搜索算法的黄酒发酵预测方法及系统
CN112364527B (zh) 一种基于aliesn在线学习算法的脱丁烷塔软测量建模方法
CN115169660A (zh) 基于多尺度时空特征融合神经网络的刀具磨损预测方法
CN115169721A (zh) 一种基于迁移辨识的精馏过程单吨能耗预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant