CN104899463B - 高炉铁水硅含量四分类趋势预报模型的建立方法及应用 - Google Patents

高炉铁水硅含量四分类趋势预报模型的建立方法及应用 Download PDF

Info

Publication number
CN104899463B
CN104899463B CN201510340996.5A CN201510340996A CN104899463B CN 104899463 B CN104899463 B CN 104899463B CN 201510340996 A CN201510340996 A CN 201510340996A CN 104899463 B CN104899463 B CN 104899463B
Authority
CN
China
Prior art keywords
mrow
msub
mtd
mtr
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510340996.5A
Other languages
English (en)
Other versions
CN104899463A (zh
Inventor
蒋朝辉
尹菊萍
桂卫华
阳春华
谢永芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201510340996.5A priority Critical patent/CN104899463B/zh
Publication of CN104899463A publication Critical patent/CN104899463A/zh
Application granted granted Critical
Publication of CN104899463B publication Critical patent/CN104899463B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明涉及一种高炉铁水硅含量四分类趋势预报模型的建立方法及应用,属于自动化检测技术领域。所述模型的建立方法包括采集历史数据;进行数据预处理;确定模型输入变量和输出变量;依据模糊均值聚类的方法对铁水硅含量样本有效的聚类,获取模型输出变量四类趋势变化区间的划分标准;利用极限学习机建立四分类趋势预报模型。利用本发明所建立的模型不仅可以预报硅含量变化的趋势,同时可以得到趋势变化的幅度大小,即可以预报得到下一炉铁水硅含量是大幅上升、小幅上升、大幅下降、小幅下降的四分类趋势变化情况。这对高炉操作者提早判断炉况,并采取小调、早调等措施,避免炉况发生急剧变化有很好的指导。

Description

高炉铁水硅含量四分类趋势预报模型的建立方法及应用
技术领域
本发明涉及一种高炉冶炼过程中铁水硅含量趋势预报模型的建立方法及应用,属于自动化检测技术领域。
背景技术
铁水硅含量是表征高炉炼铁过程炉温及其变化趋势的关键信息,也是反应铁水质量、能耗等指标的重要物理量。但铁水硅含量及其变化趋势无法直接在线检测,导致对炉况调控不及时或者盲目,致使炉温大幅波动、炉况不顺,若炉温过低,则铁水物理热不足,炉缸热储备不够,不仅铁水质量差,且容易造成严重的炉缸冻结事故;若炉温过高,则炉内煤气流太过旺盛,导致悬料、崩料等事故,严重影响高炉的焦比、排放。因此研究如何实时预报铁水硅含量及其变化趋势,对稳定高炉热状态、减少炉况的波动、提高生铁质量和降低焦比等具有重要意义。
目前,对高炉铁水硅含量的预测可分为两大方向,一是利用检测得到的大量数据建立基于数据驱动的数值预测模型,也称为黑箱模型。常用的黑箱模型有:时间序列预测模型、神经网络预测模型、混沌模型、SVM预测模型、非线性动力学理论预测模型等。二是通过将高炉铁水硅含量的数值转变为上升和下降的趋势变化,进而建立铁水硅含量的二分类趋势预报。目前,关于铁水硅含量趋势预报方面的文献还比较少,而实际应用中,高炉工厂一般根据经验判断炉温的变化趋势,进而进行操作调节。
基于数据驱动的预测模型以铁水硅含量为高炉炉温的衡量标准,研究高炉冶炼过程参数与硅含量的函数关系,是一种仅依赖于系统输入输出的黑箱模型方法,对高炉铁水硅含量的预报有一定的效果,但是仍存在自身局限性,如时间序列模型更适应于炉况平稳的情形;神经网络能够获得比时间序列更好的预测效果,但是在实际应用中学习时间长且容易产生拟合现象;SVM的预测模型具有很好的泛化性能,在大多数情况下能获得优于其他方法的预测效果。
然而,上述的数据驱动模型主要集中在铁水硅含量的数值预测上,很少关注趋势的变化。尽管数值预测给出了铁水硅含量直接的结果,但是数值预测结果有时候会对铁水硅含量趋势的变化无法做出诊断或者做出错误的诊断。例如,在连续的两炉铁水中硅含量数值的变化很小,甚至比评价是否成功命中的临界值都小,这种情况下没有必要去构建数值预测模型,因为单一的预测模型完全依据目标命中率来评判,而此时的命中率虽然显示成功命中,却无法表针硅含量的这种微小变化,从这一点也可以得到,预测高炉炉缸热状态,也就是预测高炉铁水硅含量的趋势变化至关重要。
目前,对铁水硅含量的趋势变化的研究主要集中在二分类预报问题(即铁水硅含量上升和下降),但是二分类的预报只能得到趋势变化的方向,无法得到这种方向变化的幅度。
中国专利申请公布号CN 103160629 A,申请公布日2013.06.19,公开了一种预报高炉趋热的方法,其综合考虑了整个炼铁工艺中影响铁水硅含量的因素。通过建立三个预测模型,分别为:高炉铁水中的Si含量的RBF神经网络计算模型、高炉料速计算模型、理论燃烧温度计算模型,然后利用这三个模型对高炉趋热结果的判断,最终得到高炉是否趋热。但是该方法仅仅可以预测高炉是否趋热,对于其他变化趋势无法得到判断,比如高炉是否趋冷,或者趋热趋冷的程度等等,都无法得到准确的信息。
中国专利申请公布号CN103160626 A,申请公布日2013.06.19,公开了一种判断高炉炉缸过凉的方法,该方法与CN 103160629 A类似,不同点在于该方法揭示了一种判断高炉炉缸过凉的方法。分别从物理传热、化学传热、历史数据等影响高炉向凉发展的角度出发,建立了三个预测模型,分别为:高炉铁水中的Si含量的RBF神经网络计算模型、高炉料速计算模型、理论燃烧温度计算模型。综合三个模型所得结果判断高炉炉缸是否过凉。但是该方法也是只能判断一种炉温变化情况,无法获取炉温是否趋热、以及趋冷趋热程度的变化信息。另外,三个模型得到的数值对铁水硅含量影响的权重判断无法准确划分,这对预报结果的命中率有一定影响。
中国专利申请公布号CN10211383A,申请公布日2008.7.2,公开了一种高炉铁水硅含量的特征分析预报方法,该方法建立了一种高炉铁水硅含量的预报模型,采取改进的动态独立成分分析方法对输入变量的样本数据进行特征提取,提取了测量对象的高阶统计信息,通过小样本建模设计的基于遗传算法优化的最小二乘支持向量机方法建立铁水硅含量预报回归模型。但是该方法只能预测得到下一炉铁水硅含量的数值,无法准确判断炉温的变化,更无法获取炉温趋势的变化程度,可以反馈给高炉操作者的信息少,可靠性不高。
中国专利申请公布号CN102031319A,申请公布日20011.04.27,公开了一种高炉铁水硅含量的预报方法,该方法将炉况分为小波动和大波动两种情况分别建模,分别对炉况稳定和波动都进行了预报,当炉况波动较小时主要依靠均线系统,在炉况波动大时自动加入风口理论燃烧温度以及前次铁水含硫量,达到预测铁水硅含量的目的。该方法虽然综合考虑了炉况稳定和异常两种情况,但是在实际应用中,无法提前预判何时出现异常炉况,进而也就无法及时更换预测模型,对结果的命中率有一定影响。
综上所述,现有的各种预测炉温的方法,或无法全面预报,或只能预报数值,而对于炉温趋势预报的方法较少。
发明内容
本发明的目的是提出一种高炉铁水硅含量四分类趋势预报模型的建立方法及应用,根据与高炉铁水硅含量有密切关系的可控以及不可控变量的历史数据,利用极限学习机(extreme learning machine,ELM)建立四分类趋势预报模型,优选并采用状态转移算法优化模型参数,进而利用所建模型来预报未来一段时间硅含量的变化趋势。利用本发明所建立的模型不仅可以预报硅含量变化的趋势,同时可以得到趋势变化的幅度大小,即可以预报得到下一炉铁水硅含量是大幅上升、小幅上升、大幅下降、小幅下降的四分类趋势情况。这对高炉操作者提早判断炉况,并采取小调、早调等措施,避免炉况发生急剧变化有很好的指导。
本发明目的是通过以下技术方案实现的,一种高炉铁水硅含量四分类趋势预报模型的建立方法,包括:采集历史数据;进行数据预处理,以确定模型输入变量(即铁水硅含量影响因子)和输出变量;优选结合时滞分析和\或专家经验分析确定模型输入变量;依据模糊均值聚类的方法对铁水硅含量样本有效的聚类,达到对数据集进行正确的分类,获取模型输出变量——铁水硅含量的四类趋势变化区间的划分标准,即大幅上升、小幅上升、大幅下降、小幅下降的评判指标;利用极限学习机建立四分类趋势预报模型即ELM分类器;优选采用状态转移算法优化所述预报模型参数。
具体地,所述高炉铁水硅含量四分类趋势预报模型的建立方法,包括以下步骤:
S1、采集历史数据
所述采集历史数据为采集整个炼铁过程中影响铁水硅含量变化的变量及铁水硅含量数据。
由于高炉内部的复杂物理化学反应,其间接影响铁水硅含量变化的变量有很多,包括上部的布料方式、原料性质,下部的控制参数如风量、风温等。常用的变量数据有富氧率、透气性指数、标准风速、富氧流量、冷风流量、喷煤量、铁水成分、煤气成分、顶压、全压差、热风压力、实际风速、冷风压力、理论燃烧温度、热风温度、鼓风动能、富氧流量、富氧压力、炉腹煤气量等等。
S2、数据预处理
所述数据预处理即通过对现场炼铁工艺了解,对可采集到的历史数据进行分析,获得时间点对应的时间序列样本、剔除异常数据、确定模型输入变量(即与铁水硅含量相关性强的变量)和输出变量、归一化处理及差分处理。具体包括以下步骤:
S21、获得时间点对应的时间序列样本;
采集历史数据时,不同变量有不同的采样周期(或间隔),因此在数据预处理之前需要折中考虑。以一个变量的时间间隔为参照(例如以采样周期最长的变量的时间间隔,本发明的一种具体实施方式为1h),依据时间点对应对所有变量进行匹配,最终得到所需时间序列样本。比如:铁水成分(如:Si,Ti,S,P,Mn)的采集周期大概为40min,煤气成分(如:H2,CO,CO2)的采集周期为1s,喷煤量的采集周期为30min,而一些控制变量(喷煤量、热风温度、富氧量、风量等)和状态变量(透气性指数、炉顶温度)的采集周期为1h。在建立本发明所述模型时,需要相同时间点对应的各个变量值作为模型的一个输入样本。本发明的一种实施方式中以最长的采集周期1h为参照,通过时间点对应对所有变量进行匹配,最终提取时间序列样本。
S22、剔除异常数据;
在采样过程中,受到高温高压等环境影响或者高炉休风、减风等非正常状况,数据存在异常值。这些异常数据在一定程度上会改变数据的变化趋势,影响模型建立的准确性,因此需要对异常数据进行剔除。
本发明通过3σ准则进行异常值(和缺失值)处理,剔除异常数据,即若残差|Vi|>3σ,则该数据为异常数据,该样本为异常样本,予以剔除。重复使用该方法剔除异常数据,直至没有异常数据为止。
其中:
xi为所处理的数据,N为样本个数。为xi的残差。
S23、确定模型输入变量和输出变量;
对所有采集到的影响铁水硅含量变化的变量与铁水硅含量之间进行相关性分析,以与铁水硅含量的变化相关性强的变量,作为本发明所述模型的输入变量;以铁水硅含量作为输出变量。由于高炉内部的复杂物理化学反应,其间接影响铁水硅含量的因素有很多,包括上部的布料方式、原料性质,下部的控制参数如风量、风温等。本发明在建立所述模型时,将影响铁水硅含量的变化强的变量作为模型输入变量,将铁水硅含量作为模型输出变量。铁水中硅含量的变化与固体原料,包含铁矿石、烧结矿和焦炭;待加热的气态物质,包含空气和一些辅助燃料;以及下部的风量、风温等参数的变化有密切的关系。表1列出了20个待选变量。过多的输入变量会增加模型的复杂度,而过少的输入变量又会降低模型精度。因此,在建立模型时有必要删除待选变量中与铁水硅含量相关性不强的变量。本发明在一种具体实施方式中,通过SPSS(Statistical Product and Service Solutions,即“统计产品与服务解决方案”软件),计算了所有待选变量与铁水硅含量的相关系数,结果如表1所示。
值得说明的是,虽然透气性指数与硅含量的相关性系数不高,但在实际高炉调控中,它是现场操作者判断铁水硅含量变化的重要依据之一,因此,本发明在建模时也将其作为模型输入变量。
同时,由于高炉自身特点所决定,高炉的工艺参数对高炉炉温[Si]具有时滞影响,即存在一定的滞后性,及存在滞后时间。所谓的滞后时间指的是某一参数的变化将在n小时或n分钟之后才会导致高炉炉温[Si]发生变化。那么所谓的滞后时间也可以这样理解,某一时刻的高炉炉温[Si]受n小时或n分钟以前的工艺参数的影响,对应着那一段时间的工艺参数,相关性是最大的,也是最密切的。因此,要确定相关变量的滞后时间,需要借助于高炉现场专家人员的经验及相关性分析的手段。具体地,本发明通过SPSS进行时滞分析,得到上一炉铁水硅含量与本炉铁水硅含量有很强的相关性,因此,将上一炉铁水硅含量也作为待选变量进行选择。本发明在建模时也将时滞(即上一炉铁水硅含量)作为模型输入变量。同时,专家经验具有重要参考价值,也是值得考虑的重要因素。优选地,本发明同时结合时滞分析和/或专家经验确定模型输入变量。综上,在本发明的一种具体实施方式中,结合相关性分析、时滞分析以及专家经验得到一种优选的方案是选取富氧率、透气性指数、鼓风动能、全压差、热风温度、喷煤量、利用系数、冷风流量以及上一炉铁水硅含量共9个变量作为模型的输入变量。
表1输入变量与硅含量相关性系数
S24、归一化处理;
即将各输入变量分别归一化处理;优选地,将输出变量(即铁水硅含量)也进行归一化处理。因选取的各输入变量量纲不同,对模型的收敛速度和复杂度有很大影响,在建模前需要对其分别进行归一化处理。通过数值变换来消除变量间的量纲影响。方法如下:
其中xi分别为第i个变量归一化前、后取值,max(xi),min(xi)分别为第i个变量归一化前的最大值、最小值。
S25、差分处理;
即分别对各输入变量和输出变量进行差分处理(例如进行前向差分)得到所有变量的变化率;这样处理可以更好的与趋势变化相吻合。前向差分公式如下:
Δxi=xi-xi-1,i=1,2,…,n (Ⅲ)
经差分处理分别得到所有输入变量的变化率,组成输入样本;得到所有输出变量(即铁水硅含量)的变化率,组成输出样本。
S3、数据分类
所述数据分类即将所述输出样本依据模糊均值聚类算法划分为四类区间;具体包括以下步骤:
S31、以零为边界将所述输出样本划分为两大类,大于零的样本划分为第一类,简称为正类样本,小于零的样本划分为第二类,简称为负类样本。本发明将等于零的样本划分为正类样本。
S32、在所述正类样本中获取两个聚类中心c1、c2,在所述负类样本中获取两个聚类c′1、c′2,以这四个聚类中心得到两个边界值:
S33、根据步骤S32所述边界值,将所述正类样本和负类样本划分为四类区间:这四类区间依次代表四类变化趋势:大幅下降、小幅下降、小幅上升、大幅上升。
所述S32在正类样本中获取两个聚类中心c1、c2,在负类样本中获取两个聚类c′1、c′2,具体包括以下步骤:
S321、初始化算法参数;具体方法如下:
初始化聚类个数c、模糊指数m、误差ε、算法迭代次数T,初始化聚类中心V=[v1,v2,...,vc]。在[0,1]范围内随机初始化隶属度矩阵U,使uij满足公式(Ⅳ)约束条件
其中c是聚类个数,n为样本数,xi为聚类样本,vi聚类中心向量,uij为第i个样本属于第j个中心的隶属度,m为模糊指数,用来控制聚类的模糊程度。
S322、根据式(VII)计算K(xi,vj),式(VIII)计算参数ρ;具体方法如下:
构建模糊C均值聚类算法的目标函数如下:
式(Ⅴ)中,
||φ(xi)-φ(vj)||=K(xi,xi)+K(vj,vj)-2K(xi,vj) (Ⅵ)
K(xi,vj)=exp{-(||xi-vj||2)/ρ2} (VII)
依据S321和S322将所述正类样本和所述负类样本初步划分在不同类别中,然而,这种初步划分准确性不高。因此,通过如下公式更新聚类中心和隶属度,为步骤S324的进一步划分提供条件。
S323、依据式(VI)、式(VII)更新聚类中心V和隶属度矩阵U;具体方法如下:
分别对Jφ(U,V)关于U,V求偏导,得到新的聚类中心和隶属度,公式如下:
S324、依据算法目标函数进行算法迭代;即依据S323更新一次聚类中心和隶属度,带入式(V)便得到一个新的目标函数值。
迭代终止的条件如下:
即更新前后目标函数值的差值小于给定误差或者达到给定的最大迭代次数时算法结束,否则继续更新。
算法迭代结束即可以在所述正类样本中获得两个聚类中心c1、c2;在所述负类样本中获取两个聚类c′1、c′2
S4、建立预报模型
即依据所述步骤S3对所述输出样本的四类区间划分标准,将所述输出样本进行二进制编码;然后结合所述输入样本利用极限学习机建立预报模型。所述建立预报模型具体包括以下步骤:
S41、编码;
即依据上述步骤S3对对输出样本的四类区间划分标准,将所有输出样本进行二进制编码。所述输出样本的四类区间划分标准为: 这四类区间依次代表四类变化趋势:大幅下降、小幅下降、小幅上升、大幅上升。
也就是说,对所有样本(xj,tj)的输出tj进行二进制编码。xj指输入变量;tj指输出变量(即铁水硅含量变化率)。对c类分类问题,需要[log2c]个字节编码c个不同的类。本发明中的四分类问题,输出编码如下表1所示:
表1四分类编码
其中:f2代表趋势变化方向,该列中“-1”代表下降,“1”代表上升;f1代表趋势变化幅度,该列中“-1”代表小幅变化,“1”代表大幅变化。因此得到编码矩阵:
通过如上编码,将所有输出样本tj(即铁水硅含量)按编码的不同依次划分在各自的类中。例如其中每一个输出值tj都由两个编码字节组成。
S42、利用极限学习机(ELM)建立预报模型;所述建立好的预报模型也称ELM分类器;具体过程包括:经过上述编码,对于N个不同样本(xj,tj),其中xj=[xj1,xj2,…,xjn]T∈Rn,tj=[tj1,tj2,…,tjm]T∈Rm,m=log2c,tj={-1,1},具有K个隐含层神经元数目,并且激励函数为g(x)的ELM模型可以表示为:
式中ωi=[ω1i2i,…,ωni]是连接输入神经元和第i个隐含层神经元的ELM模型输入权值;bi是第i个隐元偏差;βi=[βi1i2,…,βim]T是连接第i个隐含层神经元和输出神经元的ELM模型输出权值;ωi·xj表示ωi和xj的内积,激励函数g(x)选用sigmoid函数,即:
最小化:
使得:
其中:h(xi)=[g(α1xi+b1),…,g(αKxi+BK)],ξi=[ξi,1,…,ξi,m]T是样本xi对应输出的训练误差,依据KKT条件(库恩塔克条件,即Karush-Kuhn-Tucker Conditions),训练ELM等价于解决如下的对偶优化问题:引入拉格朗日乘子αi(i=1,2,…n):
其中,每个拉格朗日乘子αi对应第i个训练样本。βj连接隐含层节点到第j个输出节点的向量,β=[β1,…,βm],相应的KKT的优化条件如下:
将(XVII)、(XVIII)式带入(XIX)式,得到如下方程:
其中:
将(XX)带入(XVII)式,得到隐元偏置:
其中:
通过式(XXII)计算得到的隐层权值β,将结果带入式(XII),得到(测试样本)对应的输出。
ELM的网络结构图1所示。
优选地,本发明所述高炉铁水硅含量四分类趋势预报模型的建立方法还包括解码的步骤;所述解码是指对建立好的预报模型(即ELM分类器)的输出进行解码,即对步骤S42得到的(测试样本)输出进行解码。
优选地,所述建立预报模型还包括训练和测试的步骤;
所述测试样本就是用来检测模型准确性的样本。也就是说,先用一大批历史数据(称为训练样本,包含输入变量和输出变量,都是已知的)对上述建立好的预报模型进行训练,训练好之后就需要用另一批数据(称为测试样本,也包含输入变量和输出变量)对所训练好的所述模型进行测试。测试的时候只需将输入变量带入所述模型,该模型会得到相应的输出,然后用该模型得到的输出与实际的输出比较,进而得到结果的准确性,如果准确性高,说明所建模型好,可以用于现场对高炉铁水硅含量进行预测,如果不高,则继续修正模型参数。
以下以测试样本为例,对解码步骤进行描述:
如图2所示,测试样本指图2中的②对应的那部分数据,测试样本的输出即由本发明预报模型(上述步骤S42所建立的ELM分类器)计算得到的铁水硅含量变化趋势。
给定测试样本x,依据上述建立好的预报模型(ELM分类器),得到m=log2c维的输出向量:
f(x)=(fm(x),…,f1(x)) (XXIV)
这些输出需要解码才能得到样本x最终所属的类。在此,运用基于损失函数的解码方法对ELM分类器的输出进行解码。在这种解码方法中,如要样本x被标签为i类,样本(x,i)的总损失函数值最小。样本(x,i)的总损失函数定义为:
M(i)指的是编码矩阵c*m的第i个行向量,表示为:M(i)=(M(i,m),…,M(i,1))。
基于上述损失函数(方程(XXV)),训练样本x最终的类输出为:
式(XXVI)也称决策函数。
依据上述描述得到如下ELM分类过程:
输入:训练集Xtrain;输出:训练集Ytrain
输入:测试集Xtest;输出:测试集Ytest
Step1:编码过程,依据编码矩阵对训练集类别Ytrain进行编码;
Step2:训练过程,得到隐含层输出矩阵H以及连接隐含层节点和输出层节点的权值β,即完成图2中的①部分;
Step3:测试过程,输入测试集,即图2中的②部分,基于上述参数,获得ELM的输出,即图2中的③部分;
Step4:解码过程,将上述输出依据式(XXV)的损失函数以及式(XXVI)的决策函数得到测试集所属的类别。
建立所述预报模型(即ELM分类器)时,由于模型的输入权值和隐元偏差理论上可以随机赋值得到,这无疑是ELM的一个较大的缺陷,使得预报结果出现了很大的不稳定性,对高炉炼铁过程中铁水硅含量的趋势预报带来了很大的影响。因此,如何设置影响算法性能的关键参数,对预测模型的学习精度和泛化能力的好坏起着决定性作用。优选地,本发明用状态转移算法(STA)优化得到输入权值和隐元偏差,不仅可以提高模型稳定性,而且使得模型的预测结果更可靠。具体流程如下:
输入:随机产生ELM的输入权值ωK*n和隐元偏差βK*m
输出:最优ELM输入权值和隐元偏差;
Step1:初始化搜索力度SE,问题维数Dim,搜索范围,迭代次数,极限学习机中的输入权值和隐元偏差以及隐含层节点数K;
Step2:引入STA算法,将初始化得到的输入权值和隐元偏差作为STA的输入样本,均方根误差MSE作为STA算法的目标函数;
Step3:如果算法满足收敛精度或是达到了最大的迭代次数,转step6,否则转step4;
Step4:对STA算法中的样本执行:
Step41扩张转变(expend transformation)
xk+1=xk+γRcxk (XXVII)
其中,γ是一个正常数,称为扩张因子;Rc∈Rn*n是一个随机对角矩阵,其中每一个元素都服从高斯分布。扩张转变的功能是将xk的范围扩张到[-∞,+∞],即在整个空间搜索。
Step42旋转转变(rotation transformation)
其中,xk∈Rn,α代表正常数,称为旋转因子。Rr∈Rn*n是一个随机矩阵,服从[-1,1]的均匀分布,||·||2代表二范数。旋转转变可以在超平面进行搜索。
Step43压缩转变(axesion transformation)
xk+1=xk+δRaxk (XXIX)
其中,δ是一个正常数,称为压缩因子;Ra∈Rn*n是一个随机对角矩阵,其中每一个元素都服从高斯分布,并且只有一个随机位置是非零值。压缩转变目的是搜索中心,增强单维搜索。
Step5:判断算法是否满足运行的终止条件,一般终止条件为最大的迭代次数以及算法的精度,若是满足,转step6,否则g=g+1,转step4;
Step6:输出STA算法的最优值,即ELM的输入权值和隐元偏差。
本发明还包括按上述方法所建立的预报模型在高炉铁水硅含量四分类趋势预报方面的应用。
进一步,本发明还提供一种高炉铁水硅含量四分类趋势预报方法,包括按上述方法建立高炉铁水硅含量四分类趋势预报模型,选取一组变量数据作为输入变量,输入到所述预报模型,得到高炉铁水硅含量四分类趋势预报结果;优选地,选取的输入到所述预报模型的输入变量与建立所述预报模型时采用的输入变量相同;所述变量相同是指变量名称相同,并非指变量数据相同;例如,建立所述预报模型时选取的变量为富氧率、透气型指数、鼓风动能、全压差、热风温度、喷煤、利用系数、冷风流量以及上一炉铁水硅含量共9个变量,那么在利用所述模型进行实际预报时也选取这9个变量,将其具体数据输入所述模进行预报;优选地,按上述方法对所述预报模型的输出进行解码,得到该输出所属的类别,即可得到该输出的四分类趋势。
本发明所述高炉铁水硅含量四分类趋势是指大幅上升、小幅上升、大幅下降、小幅下降。
本发明的关键点
1、本发明通过分析高炉内部的复杂物理化学反应以及高炉炼铁原理,获取了影响铁水硅含量的各种变量在一段时间内的数据,这些变量包括上部的布料方式、原料性质,下部的风温、风量等变量。通过时间点对应选取所需样本,依据拉伊达准则进行异常值处理,通过SPSS分析采集到的各变量与铁水硅含量之间的相关性系数以及时滞影响,得到与铁水硅含量有强相关性的变量作为所建模型的输入变量。
2、本发明采用模糊均值聚类算法确定区间划分依据,首先对历史数据进行聚类划分,形成若干个子样本集,其次对模型输出样本集进行区间划分,最终确定了模型输出变化趋势的四类区间的划分依据。
3.本发明采用二进制代码对上述四类进行编码,得到编码矩阵。用编码区分不同的类,更容易建立模型,也更容易识别输出类别。在对模型输出进行解码时,运用汉明距离来衡量模型输出与编码矩阵之间的相似程度,进而确定模型输出所属的类。
4、采用极限学习机对样本集进行建模,将经过异常值处理后的样本划分为训练集和测试集。为了避免极限学习机在参数选取上的随机性,进而造成结果的不稳定,本发明通过状态转移算法优化极限学习机的输入权值和隐元偏差。通过训练集对模型进行训练,获得铁水硅含量趋势变化幅度的分类器。再通过测试集进行铁水硅含量四分类趋势变化的准确性验证。
本发明的效果
本发明基于采样数据以及炼铁工艺的特点,以每炉次出铁时间为周期,时间点对应的方式选取数据样本,采用SPSS选取模型输入变量,并用模糊均值聚类的方法确定了模型输出变量的四分类趋势变化的控制边界。通过STA-ELM建模方法实现铁水硅含量四分类趋势预测的目的,本发明充分利用高炉可检测到的影响铁水硅含量的数据,使得铁水硅含量的趋势预测结果命中率更高,对高炉操作现场有更好的指导作用。
附图说明
图1为本发明ELM网络结构图。
图2为本发明STA-ELM趋势预测流程图。
图3为本发明模糊均值聚类划分区间图。
图4为本发明STA-ELM模型优化过程示意图。
图5为本发明实施例2样本实际铁水硅含量变化趋势图。
图6为本发明实施例2样本预测铁水硅含量变化趋势图。
图5和图6中:纵轴“1”“2”“3”“4”分别代表大幅下降、小幅下降、大幅上升、小幅上升;横轴代表炉次。
具体实施方式
以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例1
本实施例在某钢厂2650m3高炉进行试验测试。
一种高炉铁水硅含量四分类趋势预报模型的建立方法,具体包括如下步骤:
1)采集历史数据。通过自动化系统的组态软件实现炼铁过程控制及数据采集。所述的自动化系统包括高炉本体、上料系统、热风炉系统、喷煤系统组成。其中来自高炉本体的数据主要由:炉顶压力、热风压力、炉顶温度等相关数据。来自热风炉系统的数据主要有:高炉煤气量、送风、炉顶温度、烟道温度等送风相关数据。来自喷煤系统的数据主要有:喷吹压力、喷吹流量等喷煤有关的数据。
2)数据预处理。将上述采集到的数据进行数据预处理。具体包括:
①获得时间点对应的时间序列样本,即通过时间点对应选取样本。以最长的采集周期1h为参照,通过时间点对应对所有采集到的变量进行时间点匹配,提取时间序列样本,本实施例最终提取931个时间序列样本。
②利用3σ准则删除异常数据。通过异常值处理,本实施例共剔除31个异常数据。
③确定模型输入变量和输出变量。本实施例通过SPSS选取的模型输入变量为:富氧率、透气型指数、鼓风动能、全压差、热风温度、喷煤、利用系数、冷风流量以及上一炉铁水硅含量共9个变量作为模型的输入变量。
④归一化处理。
⑤差分处理。本实施例通过前向差分对所有变量进行差分,得到变化率。所有输入变量的变化率,组成输入样本;所有输出变量的变化率,组成输出样本。
3)模糊均值聚类得到趋势变化区间。通过模糊均值聚类对输出样本(铁水硅含量)进行聚类划分,最终确定四个趋势变化区间为: 这四个区间分别对应趋势变化的:大幅下降、小幅下降、
小幅上升、大幅上升。
4)建立预报模型
①编码:对数据预处理之后的输出样本通过编码矩阵进行二进制编码。
②建立预报模型。利用状态转移算法优化极限学习机的输入权值和隐元偏差,建立优化极限学习机的预报模型。将数据预处理后的900组样本划分为训练样本和测试样本,选取前700组作为训练样本,用来训练模型参数,后200组作为测试样本,用来验证模型准确性。通过不断修正模型参数,得到最优的预报模型。
实施例2
本实施例涉及一种利用实施例1所建立高炉铁水硅含量四分类趋势预报模型对高炉铁水硅含量四分类趋势预报方法,具体为选取一组变量数据作为输入变量,输入到所述预报模型,对预报模型的输出结果进行解码,得到最终的硅含量变化趋势(高炉铁水硅含量四分类趋势预报结果)。
具体而言,选取了从2013年1月9号21:00到2013年2月27号10:00总共1166组数据利用实施例1所述数据处理方法进行处理。其中200组测试样本对应的实际铁水硅含量变化趋势如图5所示,由图5可知,变化趋势大多都落在小幅上升和小幅下降的区间内,只有小部分样本落在大幅上升和大幅下降的区间,这也说明炉况比较稳定,符合现场实际情况。利用实施例1所建立的高炉铁水硅含量四分类趋势预报模型进行预报,预报结果如图6所示。对比图5和图6,可见大多炉次趋势预测都准确,表明本实施例预报结果与实际值相吻合,符合实际要求,取得了满意的预报效果。
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (10)

1.一种高炉铁水硅含量四分类趋势预报模型的建立方法,包括以下步骤:
S1、采集历史数据;即采集整个炼铁过程中影响铁水硅含量变化的变量及铁水硅含量数据;
S2、数据预处理;包括获得时间点对应的时间序列样本、剔除异常数据、确定模型输入变量和输出变量、归一化处理及差分处理;经差分处理分别得到所有输入变量的变化率,组成输入样本;得到所有输出变量的变化率,组成输出样本;
S3、数据分类;即将所述输出样本依据模糊均值聚类算法划分为四类区间;
S4、建立预报模型;即依据所述步骤S3对所述输出样本的四类区间划分标准,将所述输出样本进行二进制编码;然后结合所述输入样本利用极限学习机建立预报模型;
所述利用极限学习机建立预报模型的过程包括:将所述输出样本进行二进制编码后,对于N个不同样本(xj,tj),其中xj=[xj1,xj2,…,xjn]T∈Rn,tj=[tj1,tj2,…,tjm]T∈Rm,m=log2c,tj={-1,1},具有K个隐含层神经元数目,并且激励函数为g(x)的ELM模型表示为:
<mrow> <msub> <mi>f</mi> <mi>K</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>h</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mi>&amp;beta;</mi> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>N</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
式中ωi=[ω1i2i,…,ωni]是连接输入神经元和第i个隐含层神经元的ELM模型输入权值;bi是第i个隐元偏差;βi=[βi1i2,…,βim]T是连接第i个隐含层神经元和输出神经元的ELM模型输出权值;ωi·xj表示ωi和xj的内积,激励函数g(x)选用sigmoid函数,即:
<mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mo>(</mo> <mrow> <msub> <mi>&amp;omega;</mi> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
最小化:
使得:
<mrow> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>&amp;beta;</mi> <mo>=</mo> <msubsup> <mi>t</mi> <mi>i</mi> <mi>T</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;xi;</mi> <mi>i</mi> <mi>T</mi> </msubsup> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>N</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
其中:h(xi)=[g(α1xi+b1),…,g(αKxi+BK)],ξi=[ξi,1,…,ξi,m]T是样本xi对应输出的训练误差,依据KKT条件,训练ELM等价于解决如下的对偶优化问题:引入拉格朗日乘子αi(i=1,2,…n):
<mrow> <msub> <mi>L</mi> <msub> <mi>D</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msub> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>|</mo> <mo>|</mo> <mi>&amp;beta;</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>C</mi> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mo>|</mo> <mo>|</mo> <mi>&amp;xi;</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>h</mi> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <msub> <mi>&amp;beta;</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>t</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>&amp;xi;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
其中,每个拉格朗日乘子αi对应第i个训练样本;βj连接隐含层节点到第j个输出节点的向量,β=[β1,…,βm],相应的KKT的优化条件如下:
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>L</mi> <msub> <mi>D</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msub> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>&amp;beta;</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;DoubleRightArrow;</mo> <msub> <mi>&amp;beta;</mi> <mi>j</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mi>k</mi> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>&amp;DoubleRightArrow;</mo> <mi>&amp;beta;</mi> <mo>=</mo> <msup> <mi>H</mi> <mi>T</mi> </msup> <mi>&amp;alpha;</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>L</mi> <msub> <mi>D</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msub> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>&amp;xi;</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;DoubleRightArrow;</mo> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>C&amp;xi;</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>N</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>L</mi> <msub> <mi>D</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msub> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;DoubleRightArrow;</mo> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>&amp;beta;</mi> <mo>-</mo> <msubsup> <mi>t</mi> <mi>i</mi> <mi>T</mi> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;xi;</mi> <mi>i</mi> <mi>T</mi> </msubsup> <mo>=</mo> <mn>0</mn> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>N</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>I</mi> <mi>X</mi> <mo>)</mo> </mrow> </mrow> 1
将(XVII)、(XVIII)式带入(XIX)式,得到如下方程:
<mrow> <mo>(</mo> <mfrac> <mi>I</mi> <mi>C</mi> </mfrac> <mo>+</mo> <msup> <mi>HH</mi> <mi>T</mi> </msup> <mo>)</mo> <mi>&amp;alpha;</mi> <mo>=</mo> <mi>T</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mo>)</mo> </mrow>
其中:
<mrow> <mi>T</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msubsup> <mi>t</mi> <mn>1</mn> <mi>T</mi> </msubsup> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <msubsup> <mi>t</mi> <mi>N</mi> <mi>T</mi> </msubsup> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>t</mi> <mn>11</mn> </msub> </mtd> <mtd> <mn>...</mn> </mtd> <mtd> <msub> <mi>t</mi> <mrow> <mn>1</mn> <mi>m</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> <mtd> <mo>.</mo> </mtd> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> <mtd> <mo>.</mo> </mtd> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> <mtd> <mo>.</mo> </mtd> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <msub> <mi>t</mi> <mrow> <mi>N</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <mn>...</mn> </mtd> <mtd> <msub> <mi>t</mi> <mrow> <mi>N</mi> <mi>m</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
将(XX)带入(XVII)式,得到隐元偏置:
<mrow> <mi>&amp;beta;</mi> <mo>=</mo> <msup> <mi>H</mi> <mi>T</mi> </msup> <msup> <mrow> <mo>(</mo> <mfrac> <mi>I</mi> <mi>C</mi> </mfrac> <mo>+</mo> <msup> <mi>HH</mi> <mi>T</mi> </msup> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mi>T</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
其中:
<mrow> <mi>H</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>N</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mn>1</mn> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mn>...</mn> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>K</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>K</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mn>1</mn> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mn>...</mn> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>K</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>K</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mn>1</mn> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mi>N</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mn>...</mn> </mtd> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>K</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mi>N</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>K</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mrow> <mi>N</mi> <mo>&amp;times;</mo> <mi>K</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
通过式(XXII)计算得到的隐层权值β,将结果带入式(XII),得到样本对应的输出。
2.根据权利要求1所述的建立方法,其特征在于,所述获得时间点对应的时间序列样本是指以一个变量的时间间隔为参照依据时间点对应对所有变量进行匹配,最终得到所需时间序列样本。
3.根据权利要求1所述的建立方法,其特征在于,所述确定模型输入变量的方法为通过相关性分析,以与铁水硅含量的变化相关性强的变量作为所述模型输入变量。
4.根据权利要求3所述的建立方法,其特征在于,结合时滞分析和/或专家经验确定模型输入变量。
5.根据权利要求1-4任一项所述的建立方法,其特征在于,所述S3数据分类具体包括以下步骤:
S31、以零为边界将所述输出样本划分为两大类,大于零和等于零的样本划分为正类样本,小于零的样本划分为负类样本;
S32、在所述正类样本中获取两个聚类中心c1、c2,在所述负类样本中获取两个聚类c1′、c2′,以这四个聚类中心得到两个边界值:
S33、根据步骤S32所述边界值,将所述正类样本和负类样本划分为四类区间:这四类区间依次代表四类变化趋势:大幅下降、小幅下降、小幅上升、大幅上升。
6.根据权利要求5所述的建立方法,其特征在于,所述S32在正类样本中获取两个聚类中心c1、c2,在负类样本中获取两个聚类c1′、c2′,具体包括以下步骤:
S321、初始化算法参数;具体方法如下:
初始化聚类个数c、模糊指数m、误差ε、算法迭代次数T,初始化聚类中心V=[v1,v2,...,vc];在[0,1]范围内随机初始化隶属度矩阵U,使uij满足公式(Ⅳ)约束条件
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>0</mn> <mo>&lt;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&lt;</mo> <mi>n</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <msub> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>&amp;le;</mo> <msub> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;le;</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>i</mi> <mo>&amp;le;</mo> <mi>n</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>j</mi> <mo>&amp;le;</mo> <mi>c</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>I</mi> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
其中c是聚类个数,n为样本数,xi为聚类样本,uij为第i个样本属于第j个中心的隶属度,m为模糊指数,用来控制聚类的模糊程度;
S322、根据式(VII)计算K(xi,vj),式(XIII)计算参数ρ;具体方法如下,构建模糊C均值聚类算法的目标函数如下:
<mrow> <msub> <mi>J</mi> <mi>&amp;phi;</mi> </msub> <mrow> <mo>(</mo> <mi>U</mi> <mo>,</mo> <mi>V</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <msubsup> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>m</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mi>&amp;phi;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>&amp;phi;</mi> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
式(Ⅴ)中,
||φ(xi)-φ(vj)||=K(xi,xi)+K(vj,vj)-2K(xi,vj) (Ⅵ)
K(xi,vj)=exp{-(||xi-vj||2)/ρ2} (VII)
<mrow> <mi>&amp;rho;</mi> <mo>=</mo> <msqrt> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mi>n</mi> </mfrac> </mrow> </msqrt> <mo>,</mo> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mfrac> <msub> <mi>x</mi> <mi>i</mi> </msub> <mi>n</mi> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
S323、依据式(VI)、式(VII)更新聚类中心V和隶属度矩阵U;具体方法如下:
分别对Jφ(U,V)关于U,V求偏导,得到新的聚类中心和隶属度,公式如下:
<mrow> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mi>m</mi> </msup> <mi>K</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mi>m</mi> </msup> <mi>K</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>I</mi> <mi>X</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>u</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <msup> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>K</mi> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> <mo>/</mo> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msup> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>c</mi> </munderover> <msup> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>K</mi> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> <mo>/</mo> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msup> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> </mrow>
S324、依据算法目标函数进行算法迭代;即依据S323更新一次聚类中心和隶属度,带入式(V)得到一个新的目标函数值;
迭代终止的条件如下:
<mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>J</mi> <mi>&amp;phi;</mi> <mi>k</mi> </msubsup> <mo>-</mo> <msubsup> <mi>J</mi> <mi>&amp;phi;</mi> <mrow> <mi>k</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>|</mo> <mo>|</mo> <mo>&amp;le;</mo> <mi>&amp;epsiv;</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
即更新前后目标函数值的差值小于给定误差或者达到给定的最大迭代次数时算法结束,否则继续更新;算法迭代结束即在所述正类样本中获得两个聚类中心c1、c2;在所述负类样本中获取两个聚类c1′、c2′。
7.根据权利要求1-4、6任一项所述的建立方法,其特征在于,所述依据步骤S3对所述输出样本的四类区间划分标准,将所述输出样本进行二进制编码即对所有样本(xj,tj)的输出tj进行二进制编码;xj指输入变量;tj指输出变量;编码矩阵如下:
<mrow> <mi>M</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>.</mo> </mrow>
8.根据权利要求1所述的建立方法,其特征在于,还包括对所述预报模型的输出进行解码的步骤;解码过程如下:给定样本x,依据所述预报模型,得到m=log2c维的输出向量:
f(x)=(fm(x),…,f1(x)) (XXIV)
样本(x,i)的总损失函数定义为:
<mrow> <msub> <mi>d</mi> <mi>H</mi> </msub> <mrow> <mo>(</mo> <mi>M</mi> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>,</mo> <mi>y</mi> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>q</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>-</mo> <mi>s</mi> <mi>i</mi> <mi>g</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>M</mi> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>q</mi> </mrow> <mo>)</mo> <msub> <mi>f</mi> <mi>q</mi> </msub> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
M(i)指编码矩阵c*m的第i个行向量,表示为:M(i)=(M(i,m),…,M(i,1));
基于上述损失函数,样本x最终的类输出为:
<mrow> <mover> <mi>y</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <mi> </mi> <msub> <mi>min</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mi>c</mi> </mrow> </msub> <msub> <mi>d</mi> <mi>H</mi> </msub> <mrow> <mo>(</mo> <mi>M</mi> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>,</mo> <mi>y</mi> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mo>)</mo> </mrow> <mo>.</mo> </mrow>
9.根据权利要求1-4、6、8任一项所述的建立方法,其特征在于,用状态转移算法对所述预报模型的输入权值和隐元偏差进行优化,得到最优的输入权值和隐元偏差;所述优化具体流程如下:
输入:随机产生ELM的输入权值ωK*n和隐元偏差βK*m
输出:最优ELM输入权值和隐元偏差;
Step1:初始化搜索力度SE,问题维数Dim,搜索范围,迭代次数,极限学习机中的输入权值和隐元偏差以及隐含层节点数K;
Step2:引入STA算法,将初始化得到的输入权值和隐元偏差作为STA的输入样本,均方根误差MSE作为STA算法的目标函数;
Step3:如果算法满足收敛精度或是达到了最大的迭代次数,转step6,否则转step4;
Step4:对STA算法中的样本执行:
Step41扩张转变
xk+1=xk+γRcxk (XXVII)
其中,γ是一个正常数,称为扩张因子;Rc∈Rn*n是一个随机对角矩阵,其中每一个元素都服从高斯分布;
Step42旋转转变
<mrow> <msub> <mi>x</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msub> <mi>x</mi> <mi>k</mi> </msub> <mo>+</mo> <mi>&amp;alpha;</mi> <mfrac> <mn>1</mn> <mrow> <mi>n</mi> <mo>|</mo> <mo>|</mo> <msub> <mi>x</mi> <mi>k</mi> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow> </mfrac> <msub> <mi>R</mi> <mi>r</mi> </msub> <msub> <mi>x</mi> <mi>k</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
其中,xk∈Rn,α代表正常数,称为旋转因子;Rr∈Rn*n是一个随机矩阵,服从[-1,1]的均匀分布,||·||2代表二范数;
Step43压缩转变
xk+1=xk+δRaxk (XXIX)
其中,δ是一个正常数,称为压缩因子;Ra∈Rn*n是一个随机对角矩阵,其中每一个元素都服从高斯分布,并且只有一个随机位置是非零值;
Step5:判断算法是否满足运行的终止条件,终止条件为最大的迭代次数以及算法的精度,若是满足,转step6,否则g=g+1,转step4;
Step6:输出STA算法的最优值,即ELM的输入权值和隐元偏差。
10.一种高炉铁水硅含量四分类趋势预报方法,包括按权利要求1-9任一项所述方法建立高炉铁水硅含量四分类趋势预报模型,选取一组变量数据作为输入变量,输入到所述预报模型,得到高炉铁水硅含量四分类趋势预报结果;选取的输入到所述预报模型的输入变量与建立所述预报模型时采用的输入变量相同。
CN201510340996.5A 2015-06-18 2015-06-18 高炉铁水硅含量四分类趋势预报模型的建立方法及应用 Active CN104899463B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510340996.5A CN104899463B (zh) 2015-06-18 2015-06-18 高炉铁水硅含量四分类趋势预报模型的建立方法及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510340996.5A CN104899463B (zh) 2015-06-18 2015-06-18 高炉铁水硅含量四分类趋势预报模型的建立方法及应用

Publications (2)

Publication Number Publication Date
CN104899463A CN104899463A (zh) 2015-09-09
CN104899463B true CN104899463B (zh) 2017-11-21

Family

ID=54032125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510340996.5A Active CN104899463B (zh) 2015-06-18 2015-06-18 高炉铁水硅含量四分类趋势预报模型的建立方法及应用

Country Status (1)

Country Link
CN (1) CN104899463B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105271335B (zh) * 2015-11-16 2016-11-16 中南大学 一种氧化铝双流法溶出过程入口矿浆和碱液的配比优化方法
CN105975977A (zh) * 2016-05-05 2016-09-28 中国石油大学(华东) 规则辅助的数据驱动建模方法
CN105886680B (zh) * 2016-05-11 2017-12-29 东北大学 一种高炉炼铁过程铁水硅含量动态软测量系统及方法
CN106777652B (zh) * 2016-12-09 2019-12-17 中冶赛迪工程技术股份有限公司 一种预测高炉透气性的方法
CN107832880B (zh) * 2017-10-31 2021-07-20 中国地质大学(武汉) 基于布料参数的高炉状态变量预测方法
CN107844679B (zh) * 2017-11-08 2020-06-09 中南大学 一种分段式高炉铁水硅含量预测方法及装置
CN108875118B (zh) * 2018-04-12 2021-06-25 中南大学 一种高炉铁水硅含量预测模型准确度评价方法和设备
CN108845501B (zh) * 2018-09-11 2021-07-20 东北大学 一种基于懒惰学习的高炉铁水质量自适应优化控制方法
CN110309608B (zh) * 2019-07-05 2022-12-23 东北大学 一种针对时滞不确定信息的高炉铁水硅含量预报方法
CN110610255B (zh) * 2019-07-31 2023-08-18 华北理工大学 基于智能算法的炼铁过程配料优化方法
US20210064983A1 (en) * 2019-08-28 2021-03-04 Canvass Analytics Machine learning for industrial processes
CN111368897B (zh) * 2020-02-28 2023-06-20 中南大学 基于状态转移算法的除铜过程的犹豫模糊c均值聚类方法
CN111383723B (zh) * 2020-04-16 2023-06-27 山东钢铁股份有限公司 一种高炉炼铁成分预控方法
CN112949223B (zh) * 2021-03-17 2022-11-29 红云红河烟草(集团)有限责任公司 一种基于doe响应曲面法优化烘丝机物料通过时间的方法
CN113517037B (zh) * 2021-03-25 2022-11-15 中南大学 一种数据与知识融合的烧结矿FeO预测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593540A (zh) * 2013-11-28 2014-02-19 中南大学 多源信息融合确定高炉软熔带根部位置的方法
CN103981317A (zh) * 2014-05-30 2014-08-13 中南大学 基于温降模型的高炉出铁口铁水温度的连续检测方法
CN104593532A (zh) * 2015-01-19 2015-05-06 河北联合大学 一种炼铁系统炉料优化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593540A (zh) * 2013-11-28 2014-02-19 中南大学 多源信息融合确定高炉软熔带根部位置的方法
CN103981317A (zh) * 2014-05-30 2014-08-13 中南大学 基于温降模型的高炉出铁口铁水温度的连续检测方法
CN104593532A (zh) * 2015-01-19 2015-05-06 河北联合大学 一种炼铁系统炉料优化方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
haotic identification and prediction of silieon content in hot metal;GAO C H,et al.;《Joumal of Iron and Steel Research In-ternationgal》;20051231;第12卷(第5期);第3-46页 *
基于数据驱动的高炉冶炼操作参数优化;顾东洋;《中国优秀硕士学位论文全文数据库工程科技Ⅰ辑》;20150215(第02期);论文第105页 *
基于核的学习算法与应用;渐令;《中国博士学位论文全文数据库信息科技辑》;20120915(第09期);论文摘要第Ⅰ页、第27、29、31、38-39、44-47页 *
极限学习机算法及其在高炉冶炼过程建模中的应用研究;刘学艺;《中国博士学位论文全文数据库信息科技辑》;20140615(第06期);论文第27、31-33页 *

Also Published As

Publication number Publication date
CN104899463A (zh) 2015-09-09

Similar Documents

Publication Publication Date Title
CN104899463B (zh) 高炉铁水硅含量四分类趋势预报模型的建立方法及应用
CN106909705B (zh) 一种高炉铁水质量预报方法及其系统
CN106022377A (zh) 一种铁矿烧结料层透气性状态的在线预测方法
Li et al. Data-driven multiobjective optimization for burden surface in blast furnace with feedback compensation
CN105886680B (zh) 一种高炉炼铁过程铁水硅含量动态软测量系统及方法
CN112699613B (zh) 炼铁多目标一体化配料优化方法、系统、设备及介质
CN106202946A (zh) 基于深度信念网络模型的水泥熟料游离钙含量预测方法
CN108764517A (zh) 一种高炉铁水硅含量变化趋势预测方法、设备和存储介质
CN106802977A (zh) 一种用于烧结矿性能指标预测及综合质量评价方法
CN108846526A (zh) 一种二氧化碳排放量预测方法
CN107038307B (zh) 机理与数据相结合的辊道窑温度预测集成建模方法
CN107330597B (zh) 基于模糊模式识别的高炉热风炉能耗状态多维度评估方法
CN108388762A (zh) 基于深度置信网络的烧结矿化学成分预测方法
CN104915518A (zh) 一种高炉铁水硅含量二维预报模型的构建方法及应用
CN103942422B (zh) 一种基于粒度计算的冶金企业转炉煤气柜位长期预测方法
Li et al. Dynamic time features expanding and extracting method for prediction model of sintering process quality index
CN110427715B (zh) 基于时间序列和高炉多维度的炉缸热状态趋势预测的方法
CN108460213A (zh) 基于多聚类原型的t-s模型对炉腹煤气量的预测方法及程序
CN107622279A (zh) 高炉内部状态的分类方法
CN101109950A (zh) 高炉生产过程控制信息智能化系统
CN105574297A (zh) 自适应高炉铁水硅含量趋势预报方法
CN109934421B (zh) 一种面向波动炉况的高炉铁水硅含量预测与补偿方法
CN113919559A (zh) 一种综合能源系统设备参数超短期预测方法及装置
Li et al. Burden surface decision using MODE with TOPSIS in blast furnace ironmkaing
Liu et al. Temporal hypergraph attention network for silicon content prediction in blast furnace

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant