CN112381139A - 基于elm-adhdp的复杂分离过程优化方法 - Google Patents
基于elm-adhdp的复杂分离过程优化方法 Download PDFInfo
- Publication number
- CN112381139A CN112381139A CN202011266460.0A CN202011266460A CN112381139A CN 112381139 A CN112381139 A CN 112381139A CN 202011266460 A CN202011266460 A CN 202011266460A CN 112381139 A CN112381139 A CN 112381139A
- Authority
- CN
- China
- Prior art keywords
- network
- output
- layer
- input
- hidden layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mathematical Analysis (AREA)
- Neurology (AREA)
- Pure & Applied Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Evolutionary Biology (AREA)
- Feedback Control In General (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了基于ELM‑ADHDP的复杂分离过程优化方法,本发明把ELM‑ADHDP算法引入复杂分离过程中,在统计、分析生产过程的真实数据的基础上,建立输出量的预测模型;用极限学习机预测模型网络参数的初始值,然后对该预测模型进行学习训练,得到稳定的预测模型网络;在训练好的预测模型网络的基础上建立基于改进的ADHDP的参数优化策略,提出复杂分离过程中优化的对象,根据优化的最优性能指标确定优化量值,为复杂分离过程提供工艺优化策略。
Description
技术领域
本发明涉及复杂分离过程工艺条件优化技术领域,具体为基于ELM-ADHDP的复杂分离过程优化方法。
背景技术
基于刮膜蒸发技术的复杂分离过程具有操作温度低、分离压强低、受热时间短等特点,适用于高沸点、热敏、高粘度物质的提取、分离和精制,在诸如精细化工、药品、香精、食用添加剂、石化实际工程领域的应用中,具有常规分离技术无法比拟的优势。复杂分离过程与传统分离技术相比,其工艺参数更加难以控制。刮膜蒸发技术是利用轻重分子平均自由程的不同进行分离的,所以选择适宜的温度和真空度,能够降低分子之间的触碰几率,避免了部分轻分子在向冷凝面运动的过程中因碰撞破坏被分离物的结构,使被提取物保持自身原有的天然特性;而刮膜蒸发器的进料速率以及刮膜电机转速决定了被分离物形成头波的液膜厚度以及不断的更新和补充蒸发表面液膜,适当的进料速率和刮膜电机转速能增强对蒸发面积的利用,有效提高分离提取效率。所以,在复杂分离过程中,蒸发温度、真空度以及刮膜电机转速和进料速度是影响分离效果的关键参数,能否准确确定这些工艺参数,将直接影响产品的质量和生产效率。
复杂分离过程无法建立准确的数学模型,大多采用经验参数,缺少科学依据。本发明采用基于改进的执行依赖启发式动态规划算法实现工艺参数优化,根据产品的指标要求(纯度和得率),运用该算法获得最佳工艺参数值。在基于刮膜蒸发技术的复杂分离过程中,由于蒸发温度、真空度以及刮膜电机转速和进料速度是影响分离产物指标的最重要工艺参数,也是分离过程中需要精确控制的四个量。本发明以分离产物的得率和纯度为最优目标,基于改进的执行依赖启发式动态规划,优化蒸发温度、真空度、刮膜电机转速和进料速度四个关键工艺参数,该方法对于实际生产具有很好的指导意义。
发明内容
本发明的目的在于提供基于ELM-ADHDP的复杂分离过程优化方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于ELM-ADHDP的复杂分离过程优化方法,包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k)、u2(k)、u3(k)、u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k)、x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量u与输出量x具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录n个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数函数,即输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,win]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
即存在wi、uj和bi使得:
上述等式可以改写为Hβ=X,其中:
步骤三:将x(k)输入到执行网络,得到u(k),执行网络的输入分别是系统在k时刻的状态向量x(k)的n个分量,输出则是与输入状态x(k)对应的控制向量u(k)的m个分量。由三层拓扑结构极限学习机构成,隐含层的激活函数选取双极性sigmoidal函数函数,即输出层的激活函数选取Purelin线性函数。
优选的,所述步骤二中利用极限学习机原理训练模型网络的的具体过程如下:
步骤2-1:定义模型网络k时刻的的输入向量M(k)。
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
优选的,所述步骤三中执行网络的计算过程如下:
ah1(k)=x(k)·Wa1(k)+βa
ah2(k)=sigmoid(ah1(k))
u(k)=ah2(k)·Wa2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出。
其中为ah2(k)的伪逆矩阵,u(k)为执行网络的期望输出。所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值。令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
u(k)=ux(k)(1:m,:)
优选的,还包括如下步骤:
步骤四:将[u(k) x(k)]输入到模型网络,得到x(k+1);
步骤五:将[u(k) x(k)]输入到评价网络中,得到J(k),并计算U(k)。评价网络同样由三层拓扑结构极限学习机构成,输入层神经元为m+n个,n=4,m=2,输出层神经元为1个,隐含层神经元为14个,隐含层的激活函数选取双极性sigmoidal函数,即输出层的激活函数选取Purelin线性函数。
优选的,所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×Wc1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下。
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
优选的,还包括如下步骤:
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1) x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束。
与现有技术相比,本发明的有益效果是:本发明把ELM-ADHDP算法引入复杂分离过程中,在统计、分析生产过程的真实数据的基础上,建立输出量的预测模型;用极限学习机预测模型网络参数的初始值,然后对该预测模型进行学习训练,得到稳定的预测模型网络;在训练好的预测模型网络的基础上建立基于改进的ADHDP的参数优化策略,提出复杂分离过程中优化的对象,根据优化的最优性能指标确定优化量值,为复杂分离过程提供工艺优化策略。
附图说明
图1为本发明ADHDP算法的基本结构图;
图2为本发明模型网络结构图;
图3为本发明执行网络结构图;
图4为本发明评价网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-4,本发明提供一种技术方案:基于ELM-ADHDP的复杂分离过程优化方法,包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k)、u2(k)、u3(k)、u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k)、x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量u与输出量x具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录n个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数函数,即输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,win]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
即存在wi、uj和bi使得:
上述等式可以改写为Hβ=X,其中:
步骤三:将x(k)输入到执行网络,得到u(k),执行网络的输入分别是系统在k时刻的状态向量x(k)的n个分量,输出则是与输入状态x(k)对应的控制向量u(k)的m个分量。由三层拓扑结构极限学习机构成,隐含层的激活函数选取双极性sigmoidal函数函数,即输出层的激活函数选取Purelin线性函数。
本发明中,步骤二中利用极限学习机原理训练模型网络的的具体过程如下:
步骤2-1:定义模型网络k时刻的的输入向量M(k)。
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
本发明中,步骤三中执行网络的计算过程如下:
ah1(k)=x(k)·Wa1(k)+βa
ah2(k)=sigmoid(ah1(k))
u(k)=ah2(k)·Wa2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出。
其中为ah2(k)的伪逆矩阵,u(k)为执行网络的期望输出。所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值。令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
u(k)=ux(k)(1:m,:)
本发明中,还包括如下步骤:
步骤四:将[u(k) x(k)]输入到模型网络,得到x(k+1);
步骤五:将[u(k) x(k)]输入到评价网络中,得到J(k),并计算U(k)。评价网络同样由三层拓扑结构极限学习机构成,输入层神经元为m+n个,n=4,m=2,输出层神经元为1个,隐含层神经元为14个,隐含层的激活函数选取双极性sigmoidal函数,即输出层的激活函数选取Purelin线性函数。
优选的,所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×Wc1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下。
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
本发明还包括如下步骤:
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1) x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束。
综上所述,本发明把ELM-ADHDP算法引入复杂分离过程中,在统计、分析生产过程的真实数据的基础上,建立输出量的预测模型;用极限学习机预测模型网络参数的初始值,然后对该预测模型进行学习训练,得到稳定的预测模型网络;在训练好的预测模型网络的基础上建立基于改进的ADHDP的参数优化策略,提出复杂分离过程中优化的对象,根据优化的最优性能指标确定优化量值,为复杂分离过程提供工艺优化策略。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (6)
1.基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k)、u2(k)、u3(k)、u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k)、x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量u与输出量x具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录n个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数函数,即输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,win]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
即存在wi、uj和bi使得:
上述等式可以改写为Hβ=X,其中:
2.根据权利要求1所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:所述步骤二中利用极限学习机原理训练模型网络的的具体过程如下:
步骤2-1:定义模型网络k时刻的的输入向量M(k)。
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
3.根据权利要求1所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:所述步骤三中执行网络的计算过程如下:
ah1(k)=x(k)·Wa1(k)+βa
ah2(k)=sigmoid(ah1(k))
u(k)=ah2(k)·Wa2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出。
其中为ah2(k)的伪逆矩阵,u(k)为执行网络的期望输出。所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值。令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
u(k)=ux(k)(1:m,:)
5.根据权利要求4所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×Wc1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下。
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
6.根据权利要求4所述的基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:还包括如下步骤:
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1)x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011266460.0A CN112381139B (zh) | 2020-11-13 | 2020-11-13 | 基于elm-adhdp的复杂分离过程优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011266460.0A CN112381139B (zh) | 2020-11-13 | 2020-11-13 | 基于elm-adhdp的复杂分离过程优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112381139A true CN112381139A (zh) | 2021-02-19 |
CN112381139B CN112381139B (zh) | 2023-07-25 |
Family
ID=74583726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011266460.0A Active CN112381139B (zh) | 2020-11-13 | 2020-11-13 | 基于elm-adhdp的复杂分离过程优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381139B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115891741A (zh) * | 2022-09-30 | 2023-04-04 | 南京邮电大学 | 一种适用于电动汽车充电过程的远程故障预警方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106842948A (zh) * | 2017-03-01 | 2017-06-13 | 长春工业大学 | 基于bp网络的hdp分子蒸馏系统的最优控制方法 |
CN107330294A (zh) * | 2017-07-15 | 2017-11-07 | 东北大学 | 带遗忘因子的在线时序多隐含层极限学习机的应用方法 |
CN109034366A (zh) * | 2018-07-18 | 2018-12-18 | 北京化工大学 | 基于多激活函数的elm集成模型在化工建模中的应用 |
CN111105005A (zh) * | 2019-12-03 | 2020-05-05 | 广东电网有限责任公司 | 一种风电功率预测方法 |
-
2020
- 2020-11-13 CN CN202011266460.0A patent/CN112381139B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106842948A (zh) * | 2017-03-01 | 2017-06-13 | 长春工业大学 | 基于bp网络的hdp分子蒸馏系统的最优控制方法 |
CN107330294A (zh) * | 2017-07-15 | 2017-11-07 | 东北大学 | 带遗忘因子的在线时序多隐含层极限学习机的应用方法 |
CN109034366A (zh) * | 2018-07-18 | 2018-12-18 | 北京化工大学 | 基于多激活函数的elm集成模型在化工建模中的应用 |
CN111105005A (zh) * | 2019-12-03 | 2020-05-05 | 广东电网有限责任公司 | 一种风电功率预测方法 |
Non-Patent Citations (4)
Title |
---|
NIKHITHA K. NAIR等: "Tensor Decomposition Based Approach for Training Extreme Learning Machines", 《BIG DATA RESEARCH》, vol. 10, pages 8 - 20 * |
常化鹏: "刮膜蒸发过程工艺参数的优化方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅰ辑》 * |
常化鹏: "刮膜蒸发过程工艺参数的优化方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅰ辑》, no. 09, 15 September 2019 (2019-09-15), pages 2 * |
徐睿等: "极限学习机前沿进展与趋势", 《计算机学报》, vol. 42, no. 7, pages 1640 - 1670 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115891741A (zh) * | 2022-09-30 | 2023-04-04 | 南京邮电大学 | 一种适用于电动汽车充电过程的远程故障预警方法及装置 |
CN115891741B (zh) * | 2022-09-30 | 2023-09-22 | 南京邮电大学 | 一种适用于电动汽车充电过程的远程故障预警方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112381139B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109060001B (zh) | 一种基于特征迁移学习的多工况过程软测量建模方法 | |
CN111416797B (zh) | 改进天牛群算法优化正则化极限学习机的入侵检测方法 | |
CN110009020B (zh) | 一种基于多核主元分析模型的非线性过程监测方法 | |
CN110751318A (zh) | 一种基于ipso-lstm的超短期电力负荷预测方法 | |
CN111768000A (zh) | 在线自适应微调深度学习的工业过程数据建模方法 | |
CN108197743A (zh) | 一种基于深度学习的预测模型软测量方法 | |
CN113570039B (zh) | 一种基于强化学习的优化共识的区块链系统 | |
Li et al. | Semi-supervised ensemble support vector regression based soft sensor for key quality variable estimation of nonlinear industrial processes with limited labeled data | |
CN106842948B (zh) | 基于bp网络的hdp分子蒸馏系统的最优控制方法 | |
CN112381139B (zh) | 基于elm-adhdp的复杂分离过程优化方法 | |
CN116579371A (zh) | 一种双层优化异构代理模型辅助多目标进化优化计算方法 | |
CN111222689A (zh) | 基于多尺度时间特征的lstm负荷预测方法、介质及电子装置 | |
Bi et al. | Proximal alternating-direction-method-of-multipliers-incorporated nonnegative latent factor analysis | |
CN109960146A (zh) | 提高软测量仪表模型预测精度的方法 | |
CN116484275B (zh) | 基于自适应时空图卷积神经网络的铝电解阳极效应监测方法 | |
CN116911459A (zh) | 适应于虚拟电厂的多输入多输出超短期电力负荷预测方法 | |
CN111914471A (zh) | 一种基于快速核独立成分分析的精馏塔故障检测方法 | |
CN114818128B (zh) | 船体局部曲面优化神经网络建模方法及优化方法 | |
CN116662925A (zh) | 一种基于加权稀疏神经网络工业过程软测量方法 | |
CN114936413B (zh) | 船体外形优化神经网络建模方法及船体外形优化方法 | |
CN116109004A (zh) | 一种绝缘子泄漏电流的预测方法、装置、设备及介质 | |
CN115829099A (zh) | 基于anfis及随机分形搜索算法的黄酒发酵预测方法及系统 | |
CN112364527B (zh) | 一种基于aliesn在线学习算法的脱丁烷塔软测量建模方法 | |
CN115169660A (zh) | 基于多尺度时空特征融合神经网络的刀具磨损预测方法 | |
CN115169721A (zh) | 一种基于迁移辨识的精馏过程单吨能耗预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |