CN106326677B - 一种pta装置醋酸消耗的软测量方法 - Google Patents

一种pta装置醋酸消耗的软测量方法 Download PDF

Info

Publication number
CN106326677B
CN106326677B CN201610816204.1A CN201610816204A CN106326677B CN 106326677 B CN106326677 B CN 106326677B CN 201610816204 A CN201610816204 A CN 201610816204A CN 106326677 B CN106326677 B CN 106326677B
Authority
CN
China
Prior art keywords
pta
layer
acetic acid
hidden layer
spongiocyte
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610816204.1A
Other languages
English (en)
Other versions
CN106326677A (zh
Inventor
耿志强
陈杰
韩永明
朱群雄
徐圆
崔芸菲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Chemical Technology
Original Assignee
Beijing University of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Chemical Technology filed Critical Beijing University of Chemical Technology
Priority to CN201610816204.1A priority Critical patent/CN106326677B/zh
Publication of CN106326677A publication Critical patent/CN106326677A/zh
Application granted granted Critical
Publication of CN106326677B publication Critical patent/CN106326677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Abstract

本发明涉及一种精对苯二甲酸(PTA)装置醋酸消耗的软测量方法,包括数据选取;数据归一化;根据神经元‑胶质细胞链接原则从训练样本信息中得到隐藏层节点数;根据Hebb规则得到输入层与隐藏层之间的链接权重;根据极限学习机(ELM)算法得到隐藏层与输出层之间的权重;对PTA关键过程变量醋酸消耗指标进行软测量。本发明运用自组织ELM网络预测模型的优越的、稳定的泛化性能对PTA生产装置中醋酸消耗的软测量,可准确可靠地估计工业生产中关键过程变量,从而有助于提高复杂工业过程的生产效率。

Description

一种PTA装置醋酸消耗的软测量方法
技术领域
本发明涉及软测量技术领域,具体而言,涉及一种精对苯二甲酸(PTA)装置醋酸消耗的软测量方法。
背景技术
PTA作为聚酯化工生产中的重要原材料之一,涉及国民经济的各个方面,有着非常广泛的应用,有效地控制PTA生产装置能耗将会极大地提高国民经济,因此对PTA的研究有着重大的现实意义。PTA溶剂系统作为PTA生产的重要系统,其分为PTA溶剂脱水塔、再蒸馏器及回流槽三个部分。因为醋酸的消耗是显示一个PTA生产技术是否有效的重要指标,因此为了能够减少醋酸的消耗,需要优化PTA溶剂系统。对工业生产中的醋酸消耗很难直接通过仪器进行测量,需要通过软测量方法间接的获得醋酸消耗的估计值,因此,进行软测量的模型的泛化性能及稳定性对PTA生产技术的发展就显得尤为重要。通过可靠地对醋酸消耗进行软测量,就可以改进PTA生产装置,通过较少的醋酸消耗获得更多的产出,从而能够提高PTA生产技术,降低生产成本,提高经济效益。
对工业生产中关键过程变量的软测量常使用神经网络进行建模,其中比较常用的有的基于误差反传(BP)算法的单层神经网络、径向基对称网络(RBF)及最近的基于极限学习机(ELM)算法的单层神经网络。基于BP算法的单层网络由于BP算法容易陷于局部最优解,虽然通过对BP算法进行改进,比如加入动量因子可以缓解BP算法局部最优的问题,但是也无法保证不会陷入局部最优,因此存在着很大的稳定性问题。对于RBF网络,通过对数据进行高维映射,从而较基于BP算法的传统网络在泛化性能上有着很大的提升,但是在迭代求解隐层与输出层之间的权重时需要消耗大量的训练时间,同时由于RBF网络的预测结果对初始聚类中心的选取比较敏感,所以也导致因初始聚类选取不佳而引起的泛化性能下降的问题。
最近基于ELM算法的单层网络由于其结构的简单性及较快的训练速度引起了人们的注意,但是,传统的ELM算法仍存在一些不足,比如隐藏层节点需要人为设定,这使得传统ELM算法很难应用在复杂的实时工业生产中。ELM算法是黄广斌在2004年提出来的一种针对单隐层网络结构的快速训练算法。ELM算法不需要对网络参数进行迭代的学习,而是通过摩尔-彭若斯广义逆直接获得,其广泛应用于数据挖掘、机器学习、图像识别及模式识别等领域。虽然ELM算法有着很好的泛化性能及快速的训练速度等优点,但是它仍存在一些不足,例如:隐藏层中的节点数需要人为根据经验确定,而不是根据样本信息自动确定,因此就会因隐藏层节点数的错误设定而导致性能下降等问题。
发明内容
为了能够解决现有方法在PTA工业过程对醋酸消耗软测量中存在的问题,本发明提出了一种用于PTA装置醋酸消耗的自组织ELM网络预测模型软测量方法。
一种PTA装置醋酸消耗的软测量方法,其特征在于,包括:数据选取;数据归一化;根据神经元-胶质细胞链接原则从训练样本信息中得到隐藏层节点数;根据Hebb规则得到输入层与隐藏层之间的链接权重;根据ELM算法得到隐藏层与输出层之间的权重;对PTA关键过程变量醋酸消耗进行软测量。
优选的,上述PTA装置醋酸消耗的软测量方法,其特征在于,PTA生产中进料醋酸含量、进料流量、水回流量、NBA主回流量、NBA侧线回流量、蒸汽流量、塔顶采出量、进料温度、回流温度、塔顶温度、塔板温度、塔板温度、塔板温度、塔内压力、塔板之间可控温度点、回流罐液位、溶剂脱水塔的操作压力作为输入;溶剂脱水塔塔顶电导率作为输出。
优选的,上述PTA装置醋酸消耗的软测量方法,其特征在于,给定n个样本以及对应输出p是每个样本的输入属性数,m是每个样本的输出属性数。
优选的,上述PTA装置醋酸消耗的软测量方法,其特征在于,对原始数据进行归一化,其处理过程如式(1)所示:
其中对网络预测结果的反归一化过程如式(2)所得,
优选的,上述PTA装置醋酸消耗的软测量方法,其特征在于,通过神经元-胶质细胞链接原则及信息熵理论自适应得到网络隐藏层的节点数;根据式(3)-(4)由Hebb规则获取网络输入层与隐藏层之间的权重,
其中β是Hebb学习因子;是第i个神经元中所有胶质细胞所含的能量值。
由式(5)得到两次迭代过程中网络熵值的变化,其中进行下一次迭代时,Ψ(t)变成Ψ(t-1)
MI(t)=Ψ(t-1)(t),(Ψ(0)=0) (5)
当MI(t)<0时,网络隐藏层中将增加一个节点。
当网络结构及输入层与隐藏层之间的权重确定后,接着便可通过式(6)获得隐藏层与输出层之间权重,
其中B是隐藏层各个节点的阈值,ρ是输入层各个节点与隐藏层各个节点之间的权重,φ(x)是隐藏层各个节点的激励函数。
优选的,上述PTA装置醋酸消耗的软测量方法,其特征在于,由式(7)得到测试样本输出层各个节点的输出值,
通过式(7)计算出的网络预测值,表示PTA工业过程中醋酸消耗的测量值。
本发明提出一种新型的自组织极限学习机(ELM)网络预测模型(SOELM)实现复杂精对苯二甲酸(PTA)工业过程关键变量的软测量。通过神经元-胶质细胞链接原则及信息熵理论获得稳定的网络结构,克服了传统ELM算法中人为确定隐藏层节点数而导致泛化性能下降的问题;然后通过Hebb规则学习网络输入层与隐藏层之间的权重;最后通过ELM算法获得隐藏层与输出层之间的权重。然后通过UCI数据及PTA工业数据验证SOELM网络的预测性能,从而实现对PTA工业过程中的关键变量进行测量,解决了复杂PTA工业过程中直接测量关键变量的难点。SOELM网络预测模型软测量方法通过对过程关键变量的测量客观展现了PTA生产中生产活动与生产强度之间的关系,指明了节能方向,有助于PTA生产企业进一步提高改进措施,同时说明了该提出方法的有效性和适用性。
附图说明
图1是PTA溶剂脱水塔工艺流程图。
图2是本发明实施例中的PTA装置醋酸消耗的软测量方法模型的结构图。
图3是中央神经元系统中神经细胞及胶质细胞结构图。
图4是本发明实施例中基于Airfoil数据集SOELM与ELM的性能比较。
图5是本发明实施例中基于Housing数据集SOELM与ELM的性能比较。
图6是本发明实施例中基于Wine数据集SOELM与ELM的性能比较。
图7是本发明实施例中基于Abalone数据集SOELM与ELM的性能比较。
图8是本发明实施例中基于Servo数据集SOELM与ELM的性能比较。
图9是本发明实施例中基于PTA工业生产数据集SOELM与ELM的性能比较。
具体实施方式
本发明涉及一种基于神经元-胶质细胞链接原则及ELM算法的新型自组织ELM网络预测模型对PTA工业生产中的醋酸消耗进行软测量的方法,针对PTA工业生产数据测量的难度,运用新型的自组织ELM网络预测模型的优越的泛化性能对PTA生产装置中的醋酸消耗的软测量,可获得非有效PTA装置的改进方向,通过神经元-胶质细胞链接原则及ELM算法可以对实现网络结构的自组织及快速的训练速度,同时提高网络的泛化性能,从而更加精确地对PTA装置生产中的醋酸消耗进行软测量,获得PTA生产装置节能降耗的方向与量化目标。
神经元及胶质细胞是中央神经系统中最重要的两类神经细胞。神经元在复杂的神经系统中经常扮演着重要的角色,而在过去几十年里,胶质细胞往往作为支撑神经元、为神经元提供营养的角色出现。最近研究表明,在电信号从一个神经元通过突触传输到另一个神经元时,胶质细胞在形成有效突触方面起着重要的作用。同时神经元的迁移,突触的生长等都依赖于神经元与胶质细胞的链接。因此对于一个完整的神经网络结构,胶质细胞起着不可替代的作用。之后研究人员将胶质细胞加入到多层感知器(MLP)中,并解决了双螺旋问题(TSP)。本发明根据神经元-胶质细胞链接原则,通过神经元-胶质细胞构建的能量模型,根据信息熵利用样本信息自动确定隐藏层节点数,提升单隐层网络结构的泛化性能。
本发明首先通过UCI标准数据验证本模型的有效性,然后将本模型应用于复杂的PTA工业过程中,对关键过程变量醋酸消耗的软测量,进而获得PTA装置的改进方向、节能降耗的方向与量化目标。
本发明所披露的ELM网络预测模型在PTA生产过程中的软测量过程分为六部分:
(1)数据选取;
(2)数据归一化;
(3)根据神经元-胶质细胞链接原则从训练样本信息中得到隐藏层节点数;
(4)根据Hebb规则得到输入层与隐藏层之间的链接权重;
(5)根据ELM算法得到隐藏层与输出层之间的权重;
(6)对PTA关键过程变量醋酸消耗进行软测量。
首先对生物系统中的神经元及胶质细胞进行抽象化,其定义如下。
定义1:胶质细胞结构定义为Glia={Posg,Eg},其中Posg={(x,y),x,y∈(0,1)},是胶质细胞在边长为1的正方形中的二维坐标位置;设定每个胶质细胞的能量值Eg=1,其能量极限值
定义2:神经元细胞结构定义为Neuron={Posn,En,R,θ,S,O,P},其中Posn={(x,y),x,y∈(0,1)},是神经元细胞在边长为1的正方形的二维坐标位置,En是神经元细胞的能量值,R是神经元细胞的作用域半径,θ是神经元细胞的阈值,S表征其是否已死亡,O是其输出值,P表征了神经元细胞包含的信息量。
定义3:神经元细胞的初始状态为初始胶质细胞其中k由1递增到初始胶质细胞数GtoN∈[10,20];非初始胶质细胞其中其中t表示第t个训练样本,Rel(t)表示第t个训练与第t+1个样本之间的相关系数LEN为训练样本数,MI(t)为第t个样本与第t+1个样本之间的互信息。
新型的自组织ELM网络预测模型软测量方法是基于神经元-胶质细胞链接原则及ELM算法的一种新型网络预测模型,用于对工业过程关键变量进行测量,以便有效地指导工业生产,提高企业生产效率。避免了传统ELM网络对隐藏层节点数选取的敏感性,可以有效地提高自组织ELM网络预测模型的泛化性能及预测稳定性。
给定n个样本以及对应输出p是每个样本的输入属性数,m是每个样本的输出属性数。
隐藏层与输出层之间的链接权重矩阵ζ由式(6)所得
其中B是隐藏层各个节点的阈值,ρ是输入层各个节点与隐藏层各个节点之间的权重,φ(x)是隐藏层各个节点的激励函数。
在建模之前,需要对原始数据进行归一化,其处理过程如式(1)所示。
其中对网络预测结果的反归一化过程如式(2)所得。
接着通过神经元-胶质细胞链接原则及信息熵理论自适应得到网络隐藏层的节点数。首先根据式(3)-(4)由Hebb规则获取网络输入层与隐藏层之间的权重。
其中β是Hebb学习因子;是第i个神经元中所有胶质细胞所含的能量值。
然后由式(5)得到两次迭代过程中网络熵值的变化,其中进行下一次迭代时,Ψ(t)变成Ψ(t-1)
MI(t)=Ψ(t-1)(t),(Ψ(0)=0) (5)
当MI(t)<0时,网络隐藏层中将增加一个节点。
当网络结构及输入层与隐藏层之间的权重确定后,接着便可通过式(7)获得隐藏层与输出层之间权重。
接着由式(7)得到测试样本输出层各个节点的输出值。
利用式(7)计算出的网络预测值,同时也表示了PTA工业过程中醋酸消耗的测量值,能够得到非有效PTA装置的投入冗余量和产出不足量。由于预测模型的优越的稳定性及泛化性能,因此通过软测量得到的醋酸消耗可以指导并改进非有效PTA生产装置的投入产出量。
为了验证新型的自组织ELM网络模型的有效性,首先有必要用标准数据集进行测试。我们选取了UCI中的五个经典的数据集,详细介绍如表1所示。
表1标准数据集
接着将本算法SOELM与传统的ELM算法进行对比,其对比指标平均相对泛化误差及均方根误差如式(8)-(10)所示。
首先我们根据多次实验选择一个针对标准数据集的最适合的模糊指数,如图3所示。
最后我们得到不同网络模型预测结果,如表2和图4-8所示。
表2不同网络模型的性能比较
说明:N表示“无”。
从表2及图4-8中,我们验证了新型的自组织ELM网络模型的有效性及稳定性,接着将其应用于PTA工业数据分析中。
为了考察PTA装置生产效率,有必要找出主要的投入和产出。对于PTA装置而言,降低醋酸消耗是衡量工艺技术是否最优的一个重要指标,根据装置的生产情况,醋酸损耗主要体现在四个方面:(1)氧化反应过程中醋酸的燃烧;(2)醋酸的回收;(3)废水挟带的醋酸;(4)洗涤水量。下面围绕着影响醋酸消耗的四方面的因素构建新型的自组织ELM网络预测模型,对关键过程变量醋酸消耗进行软测量。PTA装置生产投入产出指标分析:
在SOELM网络模型中,投入产出指标数量越多,分析结果的区分度越低。投入或产出指标之间的相关度越低,指标数量对区分度的影响越大。在效率区分度不高的情况下,对整体效率和效率前沿的判断是不可靠的。投入产出指标的数量严重影响SOELM网络模型的分析结果。在SOELM网络模型中,选择恰当的投入产出指标是得出正确结论的前提。
为了能够获得一个更好的SOELM模型,需要得到足够的训练样本。同时为了能够防止训练网络模型出现过拟合或欠拟合现象,我们样本数量与指标数量关系的规则,一般遵循的原则是样本数量不应少于投入和产出指标数量的3倍。这一原则是根据数据模拟结果和效率区分度的最低要求确定的。
PTA装置软测量过程实例分析:
将在线采集的溶剂脱水塔数据和分析数据174组作为训练样本,86组数据作为测试样本。由PTA生产装置分析得PTA生产中进料组成(醋酸含量)、进料流量(FC1501)、水回流量(FC1502)、NBA主回流量(FC1503)、NBA侧线回流量(FC1504)、蒸汽流量(FC1507)、塔顶采出量(FI1511)、进料温度(TI1504)、回流温度(TI1510)、塔顶温度(TI1511)、塔板温度(TI1515)、塔板温度(TI1516)、塔板温度(TI1517)、塔内压力、塔板之间的可控温度点(TC1501)(例如第53和第58块塔板之间)、回流罐液位(LC1503a)及溶剂脱水塔的操作压力17个因素为主要PTA投入,以此作为SOELM模型的输入,而溶剂脱水塔塔顶电导率为PTA生产的主要产出,以此作为SOELM模型的输出。首先根据训练样本建立SOELM模型,然后对测试样本中的输出进行预测。其结果如表3及图9所示。
表3基于PTA数据不同网络模型的性能比较
从表3及图9中,我们可以看出SOELM的性能要优于ELM的性能。SOELM模型的训练及测试ARE相比ELM提高了0.057%、0.058%;其RMSE较ELM模型提高了0.024、0.014。同时由图9我们可以看到SOELM模型要比ELM模型稳定,因此,SOELM模型对PTA生产中的关键过程变量的测量值将更稳定可靠。由图9可以知道,在PTA生产的第11个样本中,实际的醋酸电导率是47.55,ELM及SOELM分别为48.78、48.45,生产强度达到峰值,生产活动对生产强度有着较小的影响;在PTA生产的第85个样本中,实际的醋酸电导率是49.99,ELM及SOELM分别为48.45、49.53,生产强度变弱,醋酸电导率达到最大值,生产活动对生产强度有着较大的影响。通过实验可以看出,由于SOELM模型的优越的、稳定的泛化性能,使其可以用于PTA生产中的软测量,对关键过程变量进行测量,获得一个可信的测量值,从而可以更好地在复杂的工业过程指导PTA更高效地生产。
本发明提出一种新型的自组织极限学习机(ELM)网络预测模型(SOELM)实现复杂PTA工业过程关键变量的软测量。通过神经元-胶质细胞链接原则及信息熵理论获得稳定的网络结构,克服了传统ELM算法中人为确定隐藏层节点数而导致泛化性能下降的问题;然后通过Hebb规则学习网络输入层与隐藏层之间的权重;最后通过ELM算法获得隐藏层与输出层之间的权重。然后通过UCI数据及PTA工业数据验证SOELM网络的预测性能,从而实现对PTA工业过程中的关键变量进行测量,解决了复杂PTA工业过程中直接测量关键变量的难点。SOELM网络预测模型软测量方法通过对过程关键变量的测量客观展现了PTA生产中生产活动与生产强度之间的关系,指明了节能方向,有助于PTA生产企业进一步提高改进措施,同时说明了该提出方法的有效性和适用性。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。

Claims (2)

1.一种PTA装置醋酸消耗的软测量方法,其特征在于,包括:数据选取;数据归一化;根据神经元-胶质细胞链接原则从训练样本信息中得到隐藏层节点数;根据Hebb规则得到输入层与隐藏层之间的链接权重;根据ELM算法得到隐藏层与输出层之间的权重;对PTA关键过程变量醋酸消耗指标进行软测量;
PTA生产中进料醋酸含量、进料流量、水回流量、NBA主回流量、NBA侧线回流量、蒸汽流量、塔顶采出量、进料温度、回流温度、塔顶温度、塔板温度、塔板温度、塔板温度、塔内压力、塔板之间可控温度点、回流罐液位、溶剂脱水塔的操作压力作为输入数据;溶剂脱水塔塔顶电导率作为输出数据;
给定n个样本以及对应输出p是每个样本的输入属性数,m是每个样本的输出属性数;
对数据进行归一化,其处理过程如式(1)所示:
其中对网络预测结果的反归一化过程如式(2)所得,
通过神经元-胶质细胞链接原则及信息熵理论自适应得到网络隐藏层的节点数,根据式(3)-(4)由Hebb规则获取网络输入层与隐藏层之间的权重,
其中β是Hebb学习因子;是第i个神经元中所有胶质细胞所含的能量值;
将胶质细胞结构定义为Glia={Posg,Eg},其中Posg={(x,y),x,y∈(0,1)}为所述胶质细胞在边长为1的正方形中的二维坐标位置,所述胶质细胞的能量值Eg=1,所述胶质细胞的能量极限值
将神经元细胞结构定义为Neuron={Posn,En,R,θ,S,O,P},其中Posn={(x,y),x,y∈(0,1)}为所述神经元细胞在边长为1的正方形中的二维坐标位置,En为所述神经元细胞的能量值,R为所述神经元细胞的作用域半径,θ为所述神经元细胞的阈值,S表示所述神经元细胞是否已经死亡,O为所述神经元细胞的输出值,P表示所述神经元细胞包含的信息量;
将所述神经元细胞的初始状态定义为初始胶质细胞其中k由1递增到初始胶质细胞数GtoN∈[10,20],非初始胶质细胞其中t为第t个训练样本,Rel(t)为第t个训练与第t+1个样本之间的相关系数,LEN为训练样本数,MI(t)为第t个样本与第t+1个样本之间的互信息;
由式(5)得到两次迭代过程中网络熵值的变化,其中进行下一次迭代时,Ψ(t)变成Ψ(t-1)
MI(t)=Ψ(t-1)(t),(Ψ(0)=0) (5)
当MI(t)<0时,网络隐藏层中将增加一个节点;
当网络结构及输入层与隐藏层之间的权重确定后,接着通过式(6)获得隐藏层与输出层之间权重,
其中B是隐藏层各个节点的阈值,ρ是输入层各个节点与隐藏层各个节点之间的权重,φ(x)是隐藏层各个节点的激励函数。
2.根据权利要求1所述的PTA装置醋酸消耗的软测量方法,其特征在于,由式(7)得到测试样本输出层各个节点的输出值,
CN201610816204.1A 2016-09-12 2016-09-12 一种pta装置醋酸消耗的软测量方法 Active CN106326677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610816204.1A CN106326677B (zh) 2016-09-12 2016-09-12 一种pta装置醋酸消耗的软测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610816204.1A CN106326677B (zh) 2016-09-12 2016-09-12 一种pta装置醋酸消耗的软测量方法

Publications (2)

Publication Number Publication Date
CN106326677A CN106326677A (zh) 2017-01-11
CN106326677B true CN106326677B (zh) 2018-12-25

Family

ID=57786963

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610816204.1A Active CN106326677B (zh) 2016-09-12 2016-09-12 一种pta装置醋酸消耗的软测量方法

Country Status (1)

Country Link
CN (1) CN106326677B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633364A (zh) * 2017-09-20 2018-01-26 北京化工大学 一种基于主元融合的dea交叉模型能效分析方法
CN108829964A (zh) * 2018-06-07 2018-11-16 北京化工大学 基于特征提取elm的pta装置醋酸消耗的软测量方法
CN109034366B (zh) * 2018-07-18 2021-10-01 北京化工大学 基于多激活函数的elm集成模型在化工建模中的应用

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103728431A (zh) * 2014-01-09 2014-04-16 重庆科技学院 基于极限学习机的工业污水cod在线软测量方法
CN104123476A (zh) * 2014-08-12 2014-10-29 大连海事大学 基于极限学习机的气体浓度预测方法及其装置
CN104918030A (zh) * 2015-06-05 2015-09-16 河海大学 基于elm极限学习机的色彩空间转换方法
CN105701506A (zh) * 2016-01-12 2016-06-22 杭州电子科技大学 一种基于超限学习机与稀疏表示分类的改进方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100820723B1 (ko) * 2006-05-19 2008-04-10 인하대학교 산학협력단 은닉노드 목표값을 가진 2 개층 신경망을 이용한 분리 학습시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103728431A (zh) * 2014-01-09 2014-04-16 重庆科技学院 基于极限学习机的工业污水cod在线软测量方法
CN104123476A (zh) * 2014-08-12 2014-10-29 大连海事大学 基于极限学习机的气体浓度预测方法及其装置
CN104918030A (zh) * 2015-06-05 2015-09-16 河海大学 基于elm极限学习机的色彩空间转换方法
CN105701506A (zh) * 2016-01-12 2016-06-22 杭州电子科技大学 一种基于超限学习机与稀疏表示分类的改进方法

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
A novel self-organizing map(SOM) neural network for discrete groups of data clustering;M.H. Ghaseminezhad et al.;《Applied Soft Computing》;20110218;全文 *
Investigation of Glia-Neuron Network with Group Learning of Hidden-Layer Neurons;Chihiro Ikuta et al.;《2013 International Workshop on Nonlinear Circuits,Communications and Signal Processing》;20130331;全文 *
New Insights into Neuron-Glia Communication;R. Douglas Fields et al.;《NIH Public Access》;20021018;全文 *
Prediction of activated sludge bulking based on a self-organizing RBF neural network;Hong-Gui Han et al.;《Journal of Process Control》;20120427;全文 *
Soft sensor development for the key variables of complex chemical processes using a novel robust bagging nonlinear model integrating improved extreme learning machine with partial least square;YanLin He et al.;《Chemometrics and Intelligent Laboratory Systems》;20151228;全文 *
一种估计前馈神经网络中隐层神经元数目的新方法;袁红春 等;《小型微型计算机系统》;20030430;第24卷(第4期);全文 *
一种基于胶质细胞链的改进深度信念网络模型;耿志强 等;《自动化学报》;20160630;第42卷(第6期);全文 *
一种基于能量人工神经元模型的自生长、自组织神经网络;班晓娟 等;《自动化学报》;20110531;第37卷(第5期);第615-622页 *
基于主成分分析-改进的极限学习机方法的精对苯二甲酸醋酸含量软测量;贺彦林 等;《控制理论与应用》;20150131;第32卷(第1期);第80-85页 *
基于模糊RBF神经网络的乙烯装置生产能力预测;耿志强 等;《化工学报》;20160331;第67卷(第3期);第812-819页 *

Also Published As

Publication number Publication date
CN106326677A (zh) 2017-01-11

Similar Documents

Publication Publication Date Title
Pai System reliability forecasting by support vector machines with genetic algorithms
Yu et al. Exploring the regional characteristics of inter-provincial CO2 emissions in China: an improved fuzzy clustering analysis based on particle swarm optimization
CN106326677B (zh) 一种pta装置醋酸消耗的软测量方法
CN110751318A (zh) 一种基于ipso-lstm的超短期电力负荷预测方法
CN108985515A (zh) 一种基于独立循环神经网络的新能源出力预测方法及系统
CN106447133A (zh) 一种基于深度自编码网络的短期电力负荷预测方法
CN115186803A (zh) 一种考虑pue的数据中心算力负荷需求组合预测方法和系统
Zhang et al. Energy modeling using an effective latent variable based functional link learning machine
CN112289391A (zh) 一种基于机器学习的阳极铝箔性能预测系统
CN112396301A (zh) 基于能源大数据驱动的电力用户需求响应特性控制方法
CN108985323A (zh) 一种光伏功率的短期预测方法
CN114240687A (zh) 一种适用于综合能源系统的能源托管效率分析方法
Tang et al. Predicting housing price based on ensemble learning algorithm
Wang et al. Mutual information-weighted principle components identified from the depth features of stacked autoencoders and original variables for oil dry point soft sensor
Li et al. Forex prediction based on SVR optimized by artificial fish swarm algorithm
Wei et al. An instance based multi-source transfer learning strategy for building’s short-term electricity loads prediction under sparse data scenarios
Liu et al. A novel hybrid model to predict dissolved oxygen for efficient water quality in intensive aquaculture
Zhang et al. A feature-enhanced long short-term memory network combined with residual-driven ν support vector regression for financial market prediction
Qin Software reliability prediction model based on PSO and SVM
Cao et al. Short-Term Forecasting and Uncertainty Analysis of Photovoltaic Power Based on the FCM-WOA-BILSTM Model
CN115130620A (zh) 一种电力设备用电模式识别模型生成方法及装置
Mao et al. Naive Bayesian algorithm classification model with local attribute weighted based on KNN
Liu et al. Prediction of share price trend using FCM neural network classifier
CN113762591A (zh) 一种基于gru和多核svm对抗学习的短期电量预测方法及系统
Li et al. Research on recommendation algorithm based on e-commerce user behavior sequence

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant