CN110110447B - 一种混合蛙跳反馈极限学习机带钢厚度预测方法 - Google Patents
一种混合蛙跳反馈极限学习机带钢厚度预测方法 Download PDFInfo
- Publication number
- CN110110447B CN110110447B CN201910385160.5A CN201910385160A CN110110447B CN 110110447 B CN110110447 B CN 110110447B CN 201910385160 A CN201910385160 A CN 201910385160A CN 110110447 B CN110110447 B CN 110110447B
- Authority
- CN
- China
- Prior art keywords
- frog
- group
- learning machine
- thickness
- strip steel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Feedback Control In General (AREA)
Abstract
一种混合蛙跳反馈极限学习机带钢厚度预测方法,包括以下步骤:1)分析采集的钢板数据信号;2)特征提取;3)在极限学习机中引入卡尔曼滤波思想,将网络的实际输出与期望输出的差值反馈给输入层,形成一种反馈极限学习机算法。同时运用混合蛙跳算法对反馈极限学习机算法的随机参数进行优化,构建一种混合蛙跳反馈极限学习机预测模型;4)将步骤3)所得的混合蛙跳反馈极限学习机用于带钢出口厚度的预测中,并与传统极限学习机以及混合蛙跳极限学习机进行结果对比,以此验证方法的有效性。本发明通过上述步骤,提供了一种的预测误差小,预测精度高,鲁棒性好的预测方法。
Description
技术领域
本发明涉及一种用于预测带钢出口厚度的方法,是一种混合蛙跳反馈极限学习机带钢厚度预测方法。
背景技术
带钢厚度在轧制过程中占据着重要的地位,出口厚度的精度已经成为衡量钢板成品质量的重要指标。但是在实际的轧制过程中,带钢出口厚度有众多的影响因素,并且每个因素根据张力控制方法对带钢厚度产生不同的影响。目前,对带钢厚度控制预测普遍采用自动厚度控制(AGC)方法,但是这种方法的控制精度完全取决于控制模型的精度,所以使得厚度的精度预测受到了限制。近年来,神经网络被普遍应用于轧钢的预测中,但是由于其存在收敛速度慢,容易陷入局部最优和泛化性能低等缺点,使得神经网络在预测方面受到了限制。
为了避免上述问题,极限学习机作为一种新型的单隐层前馈神经网络,以其快速的学习速度,较好的泛化性能和较少的调节参数得到了广泛应用。但是由于其输入权值和隐含层偏置值是随机选取的,所以导致极限学习机比传统的基于梯度的学习算法需要更多的隐含层节点,为了解决这种问题许多国内外的学者对极限学习机进行了进一步的研究。
发明内容
针对极限学习机的输入权值和隐含层偏置值的随机选取会对输出权值的计算产生影响,并且使极限学习机比传统的基于参数调整的学习算法需要更多的隐含层节点,引起系统的病态导致泛化性能降低的技术问题,本方法采用混合蛙跳算法优化反馈极限学习机,并应用于带钢出口厚度的预测中,提出了一种混合蛙跳反馈极限学习机带钢厚度预测方法,以此来降低预测误差,提高预测精度和鲁棒性。
为了实现上述目的,本发明创造采用的技术方案为:一种混合蛙跳反馈极限学习机带钢厚度预测方法,其特征在于,其步骤为:
1)分析采集的钢板数据信号:对钢板数据信号进行分析;
2)用互信息法计算带钢出口厚度与影响因素的互信息值,选择对带钢厚度影响大的因素,完成特征提取;
3)在极限学习机中引入卡尔曼滤波,将网络的实际输出与期望输出的差值反馈给输入层,形成一种反馈极限学习机算法;同时运用混合蛙跳算法对反馈极限学习机算法的随机参数进行优化,构建一种混合蛙跳反馈极限学习机预测模型;
4)将步骤3)所得的混合蛙跳反馈极限学习机用于带钢出口厚度的预测中,并与传统极限学习机以及混合蛙跳极限学习机进行结果对比。
所述的步骤2)中,具体方法为:
2.1)设置变量X和Y,X为输入的参数向量,Y为带钢厚度,变量X和Y之间的互信息值表示为I(X;Y),通过公式(1)进行计算:
其中:μXY(x,y)表示X和Y的联合概率密度函数:
μX(x)表示X的边缘概率密度函数;
μY(y)表示Y的边缘概率密度函数;
利用公式(1)计算得出带钢厚度影响因素与互信息值,然后然后根据步骤2.2.2),2.2.3)选择参数作为实验的数据集;
2.2)预测模型输入参数特征提取:
设输入参数向量为X={X1,X2,...,XN},N表示向量维数,带钢厚度为Y;
2.2.1)计算Xi与Y的互信息值I(Xi;Y),i=1,2,...,N;
2.2.2)设置相关性阈值α(α∈[0,1]),设置为α=1/N;
2.2.3)选择互信息值I(Xi;Y)>α的参数Xi,对最终选取的影响参数组合为新的数据集作为带钢厚度预测的实验数据集;
2.2.4)选择min-max方法对数据归一化处理:利用线性变换方法将数据的值转换为[0,1]之间的数,其线性变换公式如(2)所示:
其中:
max和min表示数据集中X的最大值和最小值;
当样本数据集发生变化时,重新计算max和min的值。
所述的步骤3)中,具体步骤为:
3.1)初始化一个蛙群:青蛙数量为F,青蛙种群分为m个群组,每一个群组的数量n,蛙群的全局进化次数,子群组局部进化次数LC,以及蛙群全局寻优中最优青蛙个体变化不明显的最近全局寻优次数阈值K;初始化反馈极限学习机的隐含层节点数H;
3.2)随机初始化蛙群中每只青蛙的信息:蛙群中青蛙个体表示为Pi;采用混合蛙跳算法对反馈极限学习机的随机输入权值和隐含层偏置值进行优化,
Pi=[ω11,ω12,...,ωH1,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH](3)
其中:ω和b分别为极限学习机的随机参数,且值都为[-1,1]之间的随机数;
3.3)利用训练集和校验集按FELM训练流程对每个FELM进行训练,保存得到FELM模型、训练误差和校验集得出的均方根误差RMSE和隐含层输出矩阵的二范式条件数COND,将RMSE和COND作为混合蛙跳算法每只青蛙的适应度值;
算法训练中选取均方根误差RMSE作为适应度函数,由校验集计算得出;均方根误差的计算公式如式(4)所示:
其中:nv表示校验集的样本数量;在算法中RMSE的值越小,ELM模型的回归预测精度越好;
tj表示带钢厚度期望输出向量;
混合蛙跳算法的适应度函数如公式(5)所示:
更新整个蛙群中最优青蛙个体Pt和子群组中最差青蛙个体Pworst:Pt即为最优ELM模型参数,当子群组进化一次后,就对群组中每个青蛙个体重新按适应度值降序排列,子群组继续迭代寻优,直到所有子群组进化结束,将所有青蛙个体重新按适应度值降序排列,选取全局最优青蛙个体Pt,若没有结束全局寻优,则蛙群继续进化,从而找出蛙群最终全局最优青蛙个体Pt;
3.4)对蛙群中每只青蛙个体按适应度值降序排列,并记录全局最优的青蛙个体Pt,将整个蛙群分为m个群组;
3.5)对每个群组进行子群组划分,并找出每个子群组中局部最优青蛙个体Pbest和最差青蛙个体Pworst;然后每个子群组进行局部寻优搜索,对Pworst改进;
3.6)重复执行步骤3.5),当每个群组中子群组局部寻优进化次数达到LC,整个蛙群完成一次全局寻优;
3.7)当整个蛙群完成一次全局寻优进化之后,将每个群组混合,重复执行步骤3.4)、3.5)、3.6),直到达到蛙群全局进化次数;
3.8)选取蛙群全局最优青蛙个体Pt,将其包含的FELM参数信息构建出最优的SFLAF-FELM预测模型;
3.9)将实验中测试数据集输入SFLAF-FELM预测模型中,进行预测。
所述的步骤3.5)中,子群组中Pworst的更新方法为:
Pj=2(n+1-j)/[n(n+1)] (11)
其中,j为群组中第j个青蛙;
Pj为第j个青蛙划分到子群组的概率;
n为子群组中青蛙的数量;
W=Rand()X(Pbest-Pworst) (12)
newPworst=Pworst+W (13)
-Wmax≤W≤Wmax (14)
其中:W为每只青蛙局部搜索的跳跃距离;
Rand()为[0,1]之间的随机数;
Wmax为青蛙个体的最大允许跳跃距离。
本发明创造的有益效果为:
本发明首先对钢板数据信号进行分析,然后用互信息法计算带钢出口厚度与各影响因素的互信息值,选择对带钢厚度影响较大的因素,完成特征提取,从而降低模型的复杂度,提高预测精度。最后归一化带钢数据,使数据量纲统一,进一步提高系统预测精度。并与传统极限学习机以及混合蛙跳极限学习机进行对比实验,来论证混合蛙跳反馈极限学习机预测算法在带钢出口厚度预测中的有效性。通过实验结果验证本方法在带钢厚度预测方面与其他方法相比,有较小的预测误差,较高的预测精度和较好的鲁棒性。
附图说明:
图1是反馈极限学习机的网络结构图。
图2是ibaAnalyzer中部分参数信号图。
图3是轧制力与出口厚度关系图。
图4是辊缝与出口厚度关系图。
图5是轧制速度与出口厚度关系图。
图6是电机电流与带钢出口厚度的关系图。
图7是SFLAF-FELM算法流程图。
图8是SFLAF-FELM算法局部寻优流程图。
图9是SFLA-FELM预测结果图。
图10是SFLA-ELM预测结果图。
图11是ELM预测结果图。
具体实施方式
一种混合蛙跳反馈极限学习机带钢厚度预测方法,其特征在于,其步骤为:
1)分析采集的钢板数据信号:对钢板数据信号进行分析。
2)用互信息法计算带钢出口厚度与影响因素的互信息值,选择对带钢厚度影响大的因素,完成特征提取。
具体方法为:
2.1)设置变量X和Y,X为输入参数向量,Y为带钢厚度,变量X和Y之间的互信息值表示为I(X;Y),通过公式(1)进行计算:
其中:μXY(x,y)表示X和Y的联合概率密度函数:
μX(x)表示X的边缘概率密度函数;
μY(y)表示Y的边缘概率密度函数;
利用公式(1)计算得出带钢厚度影响因素与互信息值,然后根据步骤2.2.2),2.2.3)选择参数作为实验的数据集。
2.2)预测模型输入参数特征提取:
设输入参数向量为X={X1,X2,...,XN},N表示向量维数,带钢厚度为Y;
2.2.1)计算Xi与Y的互信息值I(Xi;Y),i=1,2,...,N;
2.2.2)设置相关性阈值α(α∈[0,1]),设置为α=1/N;
2.2.3)选择互信息值I(Xi;Y)>α的参数Xi,对最终选取的影响参数组合为新的数据集作为带钢厚度预测的实验数据集;
2.2.4)选择min-max方法对数据归一化处理:利用线性变换方法将数据的值转换为[0,1]之间的数,其线性变换公式如(2)所示:
其中:
max和min表示数据集中X的最大值和最小值;
当样本数据集发生变化时,重新计算max和min的值。
3)在极限学习机中引入卡尔曼滤波,将网络的实际输出与期望输出的差值反馈给输入层,形成一种反馈极限学习机算法;同时运用混合蛙跳算法对反馈极限学习机算法的随机参数进行优化,构建一种混合蛙跳反馈极限学习机预测模型。
具体步骤为:
3.1)初始化一个蛙群:青蛙数量为F,青蛙种群分为m个群组,每一个群组的数量n,蛙群的全局进化次数,子群组局部进化次数LC,LC为随机选取的数值,在实验中设置为5,以及蛙群全局寻优中最优青蛙个体变化不明显的最近全局寻优次数阈值K;初始化反馈极限学习机的隐含层节点数H。
3.2)随机初始化蛙群中每只青蛙的信息:蛙群中青蛙个体表示为Pi;采用混合蛙跳算法对反馈极限学习机的随机输入权值和隐含层偏置值进行优化,
Pi=[ω11,ω12,...,ωH1,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH](3)
其中:ω和b分别为极限学习机的随机参数,且值都为[-1,1]之间的随机数。
3.3)利用训练集和校验集按FELM训练流程对每个FELM进行训练,保存得到FELM模型、训练误差和校验集得出的均方根误差RMSE和隐含层输出矩阵的二范式条件数COND,将RMSE和COND作为混合蛙跳算法每只青蛙的适应度值;
算法训练中选取均方根误差RMSE作为适应度函数,由校验集计算得出;均方根误差的计算公式如式(4)所示:
其中:nv表示校验集的样本数量;在算法中RMSE的值越小,ELM模型的回归预测精度越好;
tj表示带钢厚度期望输出向量
混合蛙跳算法的适应度函数如公式(5)所示:
更新整个蛙群中最优青蛙个体Pt和子群组中最差青蛙个体Pworst:Pt即为最优ELM模型参数,当子群组进化一次后,就对群组中每个青蛙个体重新按适应度值降序排列,子群组继续迭代寻优,直到所有子群组进化结束,将所有青蛙个体重新按适应度值降序排列,选取全局最优青蛙个体Pt,若没有结束全局寻优,则蛙群继续进化,从而找出蛙群最终全局最优青蛙个体Pt。
3.4)对蛙群中每只青蛙个体按适应度值降序排列,并记录全局最优的青蛙个体Pt,将整个蛙群分为m个群组。
3.5)对每个群组进行子群组划分,并找出每个子群组中局部最优青蛙个体Pbest和最差青蛙个体Pworst;然后每个子群组进行局部寻优搜索,对Pworst改进;
子群组中Pworst的更新方法为:
Pj=2(n+1-j)/[n(n+1)] (11)
其中,j为群组中第j个青蛙;
Pj为第j个青蛙划分到子群组的概率;
n为子群组中青蛙的数量;
W=Rand()X(Pbest-Pworst) (12)
newPworst=Pworst+W (13)
-Wmax≤W≤Wmax (14)
其中:W为每只青蛙局部搜索的跳跃距离;
Rand()为[0,1]之间的随机数;
Wmax为青蛙个体的最大允许跳跃距离。
3.6)重复执行步骤3.5),当每个群组中子群组局部寻优进化次数达到LC,整个蛙群完成一次全局寻优;
3.7)当整个蛙群完成一次全局寻优进化之后,将每个群组混合,重复执行步骤3.4)、3.5)、3.6),直到达到蛙群全局进化次数。
3.8)选取蛙群全局最优青蛙个体Pt,将其包含的FELM参数信息构建出最优的SFLAF-FELM预测模型。
3.9)将实验中测试数据集输入SFLAF-FELM预测模型中,进行预测。
4)将步骤3)所得的混合蛙跳反馈极限学习机用于带钢出口厚度的预测中,并与传统极限学习机以及混合蛙跳极限学习机进行结果对比。
实施例1:
一、本发明方案的理论依据:
1、极限学习机
极限学习机(ELM)算法为机器学习理论中主要的神经网络算法,在各个领域流行应用。其主要思想为:给定一个训练数据集L={(x(n),t(n)),n=1,2,...,N},其中x(n)=(x1(n),...,xd(n))T∈Rd,t(n)=(t1(n),...,tm(n))T∈Rm。一个具有激活函数g(·)和H个隐含层神经元节点的极限学习机可以表示为:
公式(10)也可以以矩阵的方式表示如式(7):
Hβ=T (7)
其中,
其中ωj=(ωj1,...,ωjd)T∈Rd是连接输入层和第j个隐含层的输入权值向量,bj是第j个隐含层神经元的偏置值,βj=(βj1,...,βjm)T是连接第j个隐含层神经元和输出层的输出权值向量。
所以,对输出权值的决定就是对给定的线性系统找出其最小二乘解,具有最小范数的线性系统的最小二乘解表示为:
在公式(9)中定义的解是公式(7)中线性系统的一个最小二乘解,且在所有的最小二乘解中具有最小的范数值。不仅使预测误差最小化,而且使输出权值具有最小的量级,所以在所有的最小二乘解中获取了最好的泛化性能。
卡尔曼滤波理论是于1960年由匈牙利著名学者卡尔曼(Rudolf Emily Kalman)基于维纳滤波理论的基础上发展起来的,针对维纳滤波理论不能够实时处理的缺点,卡尔曼学者将状态空间模型应用于维纳滤波理论中。卡尔曼滤波理论是一种崭新的递推估计算法,尤其在进行大量数据实时处理的应用中,优势愈加明显。该理论在处理一维或多维的平稳、非平稳的随机过程都可以很好的解决。该理论的最佳估计准则是最小化均方误差,以此来递推估计状态变量。在卡尔曼滤波理论中,其输入值是当前时刻状态的观测量,输出值是当前时刻状态的预测值,为了消除当前时刻状态变量的误差,利用滤波算法根据输出值对输入值进行反馈修正,从而将输出和输入相关联,该过程也称为滤波过程。
本发明针对标准极限学习机中没有考虑输出层实际输出值对整个网络模型训练过程的价值,只是利用输入层输入值训练整个网络模型,故将卡尔曼滤波思想引入标准极限学习机算法中,使实际输出值与期望输出值的差值反馈到标准极限学习机的输入层中,形成一种反馈极限学习机网络模型(FELM)。其结构与算法推导过程和标准极限学习机基本相同,在网络的训练学习过程中,既对模型输入层参数进行充分学习,而且对输出层实际输出值与理论期望输出值的误差值进行深度学习,从而网络的泛化性能得到大幅提升。附图1所示为FELM的网络结构图。
在FELM算法中,网络模型的输入层神经元节点数由实际输入向量维数和反馈误差共同构成输入向量X=(x1,x2,...,xi,xi+1),输出层神经元节点数为输出向量Y=(y1,y2,...,yn)的维数,网络模型的其他学习参数选取方式以及算法训练推导过程与标准ELM算法基本相同。
FELM算法的训练过程是在标准极限学习机算法训练过程的基础上加以改进,其网络训练过程如下:
(1)随机初始化网络的参数,设置网络最大训练迭代次数,确定FELM网络的功能为回归预测,首次训练网络时,将反馈差值设为0。将带钢数据分为训练集、校验集、测试集。
(2)将带钢训练数据集输入FELM网络中,然后进行网络训练。
(3)训练完毕后,利用训练集和校验集分别测试网络模型,得出训练集和校验集上的反馈误差值,记为Etr和Eva。
(4)将训练集上得到的误差值反馈到网络输入层,并利用min-max标准化方法将误差值归一化处理,将其保存,以便下次继续训练网络。归一化公式为:
(5)判断是否达到训练迭代阈值或判断是否Eva<Etr,如果不满足,继续步骤(2)(3)(4)训练网络,否则停止训练网络,保存得到的FELM网络模型。
2、混合蛙跳算法
混合蛙跳算法(SFLA)是于2003年由Eusuff和Lansey两位学者最先提出,也称为随机蛙跳算法,主要为了在解决组合优化问题中寻求最优解。SFLA同时拥有粒子群优化算法和模因演算算法的优点。该算法参数较少、实现简单、较强的全局寻优能力、搜索最优解速度快的特点。在求组合问题的最优解中有较强的优势。SFLA已成为国内外大量学者深度研究的热门群智能优化算法,并广泛应用于生产线车间调度分配、交通路段分配、发电厂电力系统设备动态分配等组合资源分配中。
SFLA算法的实现原理是对自然界一群青蛙跳跃着寻找食物最多地方过程的模拟。蛙群中每只青蛙存储着自己的信息,且每一只青蛙彼此之间可以交换信息。SFLA算法通过全局搜索和局部搜索两种方式寻求全局最优解。而且蛙群进化过程采用确定性和随机性相结合的方式,算法中的确定性通过确定信息保证种群进化过程的正确性,随机特性能够提高蛙群的全局寻优能力,避免搜索过程陷入局部最优。
在解决实际问题中,每一只青蛙信息被看成解决问题的一个解,每只青蛙都有一个适应度值来作为评价优劣标准,将整个蛙群按适应度值大小排序,分成若干个群组,在每个群组中进行局部搜索,每个群体可以继续划分为子群组,并在局部搜索过程中每只青蛙相互交流更新自己的信息,当各个群组达到局部进化上限,各个群组重新组合进行全局信息交换,当全局搜索停止后,即可得到全局最优解。
混合蛙跳(SFLA)算法的实现过程如下:
将整个蛙群划分为群组。
首先,初始化一个蛙群,青蛙数量为F,根据蛙群每个个体适应度值大小按降序排列,记录蛙群中全局最优的青蛙为Pt。然后将青蛙种群分为m个群组,每一个群组包含n只青蛙,其中F=m×n。将蛙群排序之后的前m只青蛙依次对应分到m个群组中,接着依次对应进行第二轮划分,直到将整个蛙群划分完毕。
(ii)将群组划分为子群组。
从各个群组中选择一部分青蛙个体进入子群组,选择方式按式(11)进行:
Pj=2(n+1-j)/[n(n+1)] (11)
其中,j为群组中第j个青蛙,Pj为第j个青蛙划分到子群组的概率,n为子群组中青蛙的数量。
子群组划分结束后,对子群组中按各个青蛙的适应度值进行降序排列,并记录子群组中最优个体和最差个体为Pbest、Pworst。
(iii)在子群组中执行局部寻优搜索。
在局部进行过程中,子群组中每只青蛙通过相互传递信息更新自己,更新策略如公式(12)和公式(13)所示:
W=Rand()X(Pbest-Pworst) (12)
newPworst=Pworst+W (13)
-Wmax≤W≤Wmax (14)
在公式(12)中,W为每只青蛙局部搜索的跳跃距离,Rand()为[0,1]之间的随机数,公式(13)为子群组中最差青蛙更新公式,Wmax为青蛙个体的最大允许跳跃距离。
如果最差青蛙个体更新前的适应度值大于更新后的适应度值,就将子群组的Pbest用整个蛙群全局最优的青蛙Pt替换,同时把Pworst更新为newPworst。如果最差青蛙个体Pworst仍然没有改进,那么就随机生成一个青蛙个体替换掉Pworst。
(iv)如果没有达到子群组局部进化的次数,就继续执行(iii)中的局部进化过程。结束局部进化之后,继续循环执行(i)、(ii)、(iii)步骤,直到满足算法的停止条件。
在算法中,通常使用两种方式来控制蛙群全局停止搜索。一种为整个蛙群最近几次全局寻优过程中,全局最优青蛙个体没有明显变化,全局进化就停止迭代;另一种方式为整个蛙群全局进化次数达到设定的阈值。在整个蛙群全局寻优中满足任何一个条件都可以停止全局迭代。
二、本发明技术方案的实现过程:
1、分析采集的钢板数据信号。钢板的数据来自具有9个机架的出口厚度为1.3毫米的轧机。通过在ibaAnalyzer软件中对数据图进行观察,可以直观的呈现出对带钢轧制出口厚度的影响参数,然后将对带钢轧制出口厚度影响较大的数据参数导入到Excel表中以便使用。部分参数信号如附图2所示,其中ABS_H为板带轧制的最终带钢输出厚度,F9_F为轧制力,F9_SPD_ACT为轧辊轧制速度,F9_GAP为辊缝,F9_CURRENT_ACT为电机电流,TEMP_OUT_FM为轧辊输出温度。
2、特征提取。由于导出的带钢数据含有较多的输入参数,轧制力、轧制速度、辊缝、出口温度、轧机电流、SONY值,影响预测模型泛化能力。因此对带钢数据进行特征提取,降低模型输入参数的维度。使用互信息计算公式计算带钢出口厚度的影响参数与出口厚度的互信息值,如表1所示:
表1影响因素的互信息值
根据设定的特征选取原则进行特征提取,N=6,α=1/N=0.1667,选取互信息值I(Xi;Y)>α的影响因素,由表1得出,轧制力、轧制速度、辊缝和轧机电流满足条件,故将经特征提取后的四个参数作为预测模型的输入参数。四个特征参数与带钢出口厚度的相关性曲线图,如附图3、4、5、6所示:
将带钢数据进行关键特征提取后,首先将特征提取后的带钢数据集分为训练集、校验集、测试集,然后对三个带钢数据集的数据采用min-max标准化方法消除量纲差异,将输入参数和输出参数带钢厚度的数值控制在特定范围[0,1]之间,最后将归一化后的数据集作为带钢厚度预测的实验数据集,进行预测模型的训练、校验、测试,最终构建一个最优的带钢厚度预测模型。
在实现过程中采用式(2)计算处理。带钢数据归一化前后对照如表2、表3所示:
表2带钢数据归一化前数据
表3带钢数据归一化后数据
3、用混合蛙跳算法对反馈极限学习机的随机参数进行优化,构建一种SFLA-FELM预测模型。SFLA-FELM算法的思想如下:
(1)SFLA-FELM算法适应度函数的选取。将实验数据集分为三个样本集:训练集、校验集、测试集,算法训练中选取均方根误差(RMSE)作为适应度函数,由校验集计算得出。均方根误差的计算公式如式(4)所示。在算法中RMSE的值越小,ELM模型的回归预测精度越好。混合蛙跳算法的适应度函数如公式(5)所示。
(2)整个蛙群中最优青蛙个体Pt和子群组中最差青蛙个体Pworst的更新。Pt即为最优ELM模型参数。当子群组进化一次后,就对群组中每个青蛙个体重新按适应度值降序排列,子群组继续迭代寻优,直到所有子群组进化结束,将所有青蛙个体重新按适应度值降序排列,选取全局最优青蛙个体Pt,若没有结束全局寻优,则蛙群继续进化,从而找出蛙群最终全局最优青蛙个体Pt。
SFLAF-FELM预测算法流程图如附图7所示。SFLAF-FELM算法中蛙群各个群组划分为子群组进行局部寻优过程的流程图如附图8所示。
4、将步骤2所得出的混合蛙跳反馈极限学习机用于带钢出口厚度的预测中,并与传统的极限学习机以及混合蛙跳极限学习机进行结果对比,以此验证本发明的有效性。
1)实验初始化。将对SFLA-FELM、SFLA-ELM和ELM三个预测模型进行实验对比。在实验对比中选取通过测试集得出的均方根误差RMSE作为网络模型评价指标。在SFLA-FELM和SFLA-ELM两个算法中,SFLA算法的蛙群群组分为5组,每个群组青蛙数量为10只,蛙群最大进化次数设置为10次,局部进化次数设置为5次,青蛙最大跳跃步长设置为20。将预处理后的带钢数据集作为对比实验的数据集,训练样本数量为1000,校验样本数量为100,测试样本数量为50。
2)实验结果分析。在实验对比中,由于三个网络模型隐含层节点数选取没有固定的理论支撑,故采用增量法来确定,通过依次增加隐含层节点数进行实验对比,从而确定出三个网络模型隐含层节点的最佳个数。如下表4为三个预测模型的实验对比情况。
表4 SFLA-FELM、SFLA-ELM和ELM算法实验对比结果
由表4可知,SFLA-FELM、SFLA-ELM和ELM三种网络模型随着隐含层节点数大于20时,三种网络训练出现过拟合现象,因此网络模型隐含层节点数选取20,且网络模型性能优于其他情况,而且SFLA-FELM算法性能优于标准ELM算法,模型预测误差更小。
为了能够直观地看出三种预测模型预测结果对比情况,附图9、附图10和附图11分别为SFLA-FELM、SFLA-ELM、ELM预测模型选取隐含层节点数为20时的预测结果对比图。
表5为三种方法的均方根误差对比表,可以清楚的得出SFLA-FELM的RMSE比SFLA-ELM、ELM的RMSE值小,所以本发明具有较高的预测精度和较好的鲁棒性。
表5对比实验结果
Claims (3)
1.一种混合蛙跳反馈极限学习机带钢厚度预测方法,其特征在于,其步骤为:
1)分析采集的钢板数据信号:对钢板数据信号进行分析;
2)用互信息法计算带钢出口厚度与影响因素的互信息值,选择对带钢厚度影响大的因素,完成特征提取;
3)在极限学习机中引入卡尔曼滤波,将网络的实际输出与期望输出的差值反馈给输入层,形成一种反馈极限学习机算法;同时运用混合蛙跳算法对反馈极限学习机算法的随机参数进行优化,构建一种混合蛙跳反馈极限学习机预测模型;
具体步骤为:
3.1)初始化一个蛙群:青蛙数量为F,青蛙种群分为m个群组,每一个群组的数量n,蛙群的全局进化次数,子群组局部进化次数LC,LC为随机选取的数值,以及蛙群全局寻优中最优青蛙个体变化不明显的最近全局寻优次数阈值K;初始化反馈极限学习机的隐含层节点数H;
3.2)随机初始化蛙群中每只青蛙的信息:蛙群中青蛙个体表示为Pi;采用混合蛙跳算法对反馈极限学习机的随机输入权值和隐含层偏置值进行优化,
Pi=[ω11,ω12,...,ωH1,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH] (3)
其中:ω和b分别为极限学习机的随机参数,且值都为[-1,1]之间的随机数,d为隐藏层层数;
3.3)利用训练集和校验集按FELM训练流程对每个FELM进行训练,保存得到FELM模型、训练误差和校验集得出的均方根误差RMSE和隐含层输出矩阵的二范式条件数COND,将RMSE和COND作为混合蛙跳算法每只青蛙的适应度值;
算法训练中选取均方根误差RMSE作为适应度函数,由校验集计算得出;均方根误差的计算公式如式(4)所示:
其中:nv表示校验集的样本数量;在算法中RMSE的值越小,ELM模型的回归预测精度越好;xj为第j个样本输入,ωi为第i个输入层和隐藏层的输入连接权值,βi是第i个隐藏层和输出层的输出连接权值,bi是第i个隐藏层的偏置,g(ωi·xj+bi)为隐藏层第i个节点的输出;
tj表示带钢厚度期望输出向量;
混合蛙跳算法的适应度函数如公式(5)所示:
更新整个蛙群中全局最优青蛙个体Pt和子群组中最差青蛙个体Pworst:Pt即为最优ELM模型参数,当子群组进化一次后,就对群组中每个青蛙个体重新按适应度值降序排列,子群组继续迭代寻优,直到所有子群组进化结束,将所有青蛙个体重新按适应度值降序排列,选取全局最优青蛙个体Pt,若没有结束全局寻优,则蛙群继续进化,从而找出蛙群最终全局最优青蛙个体Pt;
3.4)对蛙群中每只青蛙个体按适应度值降序排列,并记录全局最优青蛙个体Pt,将整个蛙群分为m个群组;
3.5)对每个群组进行子群组划分,并找出每个子群组中局部最优青蛙个体Pbest和最差青蛙个体Pworst;然后每个子群组进行局部寻优搜索,对Pworst改进;
3.6)重复执行步骤3.5),当每个群组中子群组局部寻优进化次数达到LC,整个蛙群完成一次全局寻优;
3.7)当整个蛙群完成一次全局寻优进化之后,将每个群组混合,重复执行步骤3.4)、3.5)、3.6),直到达到蛙群全局进化次数;
3.8)选取蛙群全局最优青蛙个体Pt,将其包含的FELM参数信息构建出最优的SFLAF-FELM预测模型;
3.9)将实验中测试数据集输入SFLAF-FELM预测模型中,进行预测;
4)将步骤3)所得的混合蛙跳反馈极限学习机用于带钢出口厚度的预测中,并与传统极限学习机以及混合蛙跳极限学习机进行结果对比。
2.根据权利要求1所述的一种混合蛙跳反馈极限学习机带钢厚度预测方法,其特征在于:所述的步骤2)中,具体方法为:
2.1)设置变量X和Y,X为输入的参数向量,Y为带钢厚度,变量X和Y之间的互信息值表示为I(X;Y),通过公式(1)进行计算:
其中:μXY(x,y)表示X和Y的联合概率密度函数;
μX(x)表示X的边缘概率密度函数;
μY(y)表示Y的边缘概率密度函数;
利用公式(1)计算得出带钢厚度影响因素与互信息值,然后根据步骤2.2.2),2.2.3)选择参数作为实验的数据集;
2.2)预测模型输入参数特征提取:
设输入参数向量为X={X1,X2,...,XN},N表示向量维数,带钢厚度为Y;
2.2.1)计算Xi与Y的互信息值I(Xi;Y),i=1,2,...,N;
2.2.2)设置相关性阈值α,α∈[0,1],设置为α=1/N;
2.2.3)选择互信息值I(Xi;Y)>α的参数Xi,对最终选取的影响参数组合为新的数据集作为带钢厚度预测的实验数据集;
2.2.4)选择min-max方法对数据归一化处理:利用线性变换方法将数据的值转换为[0,1]之间的数,其线性变换公式如(2)所示:
其中:
max和min表示数据集中X的最大值和最小值;
当样本数据集发生变化时,重新计算max和min的值。
3.根据权利要求1所述的一种混合蛙跳反馈极限学习机带钢厚度预测方法,其特征在于:所述的步骤3.5)中,子群组中Pworst的更新方法为:
Pj=2(n+1-j)/[n(n+1)] (11)
其中,j为群组中第j个青蛙;
Pj为第j个青蛙划分到子群组的概率;
n为群组中青蛙的数量;
W=Rand()×(Pbest-Pworst) (12)
newPworst=Pworst+W (13)
-Wmax≤W≤Wmax (14)其中:W为每只青蛙局部搜索的跳跃距离;
Rand()为[0,1]之间的随机数;
Wmax为青蛙个体的最大允许跳跃距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910385160.5A CN110110447B (zh) | 2019-05-09 | 2019-05-09 | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910385160.5A CN110110447B (zh) | 2019-05-09 | 2019-05-09 | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110110447A CN110110447A (zh) | 2019-08-09 |
CN110110447B true CN110110447B (zh) | 2023-04-18 |
Family
ID=67489119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910385160.5A Active CN110110447B (zh) | 2019-05-09 | 2019-05-09 | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110110447B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111581829A (zh) * | 2020-05-11 | 2020-08-25 | 辽宁大学 | 一种改进差分灰狼算法优化支持向量回归的带钢厚度预测方法 |
CN112084703B (zh) * | 2020-08-18 | 2023-08-25 | 温州大学 | 基于变种洗牌蛙跳算法对光伏电池系统模型参数辨识方法 |
CN112487700B (zh) * | 2020-09-15 | 2022-04-19 | 燕山大学 | 一种基于nsga与felm的冷轧轧制力预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200268A (zh) * | 2014-09-03 | 2014-12-10 | 辽宁大学 | 一种基于粒子群优化极限学习机的带钢出口厚度预测方法 |
CN104657602A (zh) * | 2015-02-02 | 2015-05-27 | 北京科技大学 | 一种热连轧生产过程中带钢厚度预测方法及系统 |
CN107274016A (zh) * | 2017-06-13 | 2017-10-20 | 辽宁大学 | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 |
CN107729943A (zh) * | 2017-10-23 | 2018-02-23 | 辽宁大学 | 信息反馈极限学习机优化估值的缺失数据模糊聚类算法及其应用 |
-
2019
- 2019-05-09 CN CN201910385160.5A patent/CN110110447B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200268A (zh) * | 2014-09-03 | 2014-12-10 | 辽宁大学 | 一种基于粒子群优化极限学习机的带钢出口厚度预测方法 |
CN104657602A (zh) * | 2015-02-02 | 2015-05-27 | 北京科技大学 | 一种热连轧生产过程中带钢厚度预测方法及系统 |
CN107274016A (zh) * | 2017-06-13 | 2017-10-20 | 辽宁大学 | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 |
CN107729943A (zh) * | 2017-10-23 | 2018-02-23 | 辽宁大学 | 信息反馈极限学习机优化估值的缺失数据模糊聚类算法及其应用 |
Non-Patent Citations (5)
Title |
---|
Fault Detection using hybrid of KF-ELM for Wireless Sensor Networks;Pialy Biswas等,;《2019 3rd International Conference on Trends in Electronics and Informatics (ICOEI)》;20190425;第746-750页 * |
Predicting strip thickness of hot rolled sheet based on the combination of correlation analysis and Extreme Learning Machine;Zhang Dezheng等,;《2015 IEEE 10th Conference on Industrial Electronics and Applications (ICIEA)》;20150617;第477-482页 * |
不完备数据的反馈式极限学习机填充算法;牛明航;《电子技术与软件工程》;20190201(第3期);第145页 * |
极限学习机优化不完备数据模糊聚类算法研究;潘辉,;《中国优秀硕士学位论文全文数据库》;20180315;第3.2-3.3节,图3-1,图3-2 * |
随机蛙跳优化的对称极限学习机算法研究;张士强,;《中国优秀硕士学位论文全文数据库》;20170215;第2-5章,图2-1-图2-5,图3-1-图3-3,图4-1-图4-5,图5-1-图5-14 * |
Also Published As
Publication number | Publication date |
---|---|
CN110110447A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107578124B (zh) | 基于多层改进gru神经网络的短期电力负荷预测方法 | |
CN110110447B (zh) | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 | |
CN107992976B (zh) | 热点话题早期发展趋势预测系统及预测方法 | |
CN112434848B (zh) | 基于深度信念网络的非线性加权组合风电功率预测方法 | |
CN111861013B (zh) | 一种电力负荷预测方法及装置 | |
CN112989635B (zh) | 基于自编码器多样性生成机制的集成学习软测量建模方法 | |
CN111738477B (zh) | 基于深层特征组合的电网新能源消纳能力预测方法 | |
CN115099519B (zh) | 一种基于多机器学习模型融合的油井产量预测方法 | |
Navgaran et al. | Evolutionary based matrix factorization method for collaborative filtering systems | |
CN107274016A (zh) | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 | |
CN113128124B (zh) | 基于改进神经网络的多牌号C-Mn钢力学性能预测方法 | |
CN116526450A (zh) | 计及误差补偿的两阶段短期电力负荷组合预测方法 | |
CN116187835A (zh) | 一种基于数据驱动的台区理论线损区间估算方法及系统 | |
CN115510322A (zh) | 一种基于深度学习的多目标优化推荐方法 | |
CN111832817A (zh) | 基于mcp罚函数的小世界回声状态网络时间序列预测方法 | |
CN113887694A (zh) | 一种注意力机制下基于特征表征的点击率预估模型 | |
CN117369378A (zh) | 基于蒙特卡洛树搜索算法的混流制造车间调度方法及系统 | |
CN110991604A (zh) | 一种基于小波循环神经网络的时序金融数据预测方法 | |
CN115619028A (zh) | 一种基于聚类算法融合的电力负荷精准预测方法 | |
CN116089801A (zh) | 一种基于多重置信度的医疗数据缺失值修复的方法 | |
CN115394381A (zh) | 一种基于机器学习和两步法数据扩充的高熵合金硬度预测方法及装置 | |
CN111563767A (zh) | 股票价格预测方法及装置 | |
Sallehuddin et al. | Forecasting small data set using hybrid cooperative feature selection | |
CN113392958A (zh) | 一种模糊神经网络fnn的参数优化及应用方法与系统 | |
CN111382391A (zh) | 一种用于多目标回归的目标相关特征构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |