CN107274016A - 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 - Google Patents

随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 Download PDF

Info

Publication number
CN107274016A
CN107274016A CN201710442183.6A CN201710442183A CN107274016A CN 107274016 A CN107274016 A CN 107274016A CN 201710442183 A CN201710442183 A CN 201710442183A CN 107274016 A CN107274016 A CN 107274016A
Authority
CN
China
Prior art keywords
mrow
msub
learning machine
extreme learning
frog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710442183.6A
Other languages
English (en)
Inventor
张利
孔簇簇
张世强
唐佳莹
王军
赵中洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning University
Original Assignee
Liaoning University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning University filed Critical Liaoning University
Priority to CN201710442183.6A priority Critical patent/CN107274016A/zh
Publication of CN107274016A publication Critical patent/CN107274016A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Control Of Metal Rolling (AREA)

Abstract

随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,先在传统的极限学习机中加入对称性先验信息,使得改进后的极限学习机能够对包含对称特性的一类数据进行处理,提出对称极限学习机,对改进后的Sym‑ELM算法进一步的优化,用随机蛙跳算法来选取Sym‑ELM算法的输入权值和隐含层偏置值,并将优化的极限学习机用于带钢出口厚度预测,对于对称极限学习机算法的优化不仅使均方根误差值最小,还要考虑隐含层输出矩阵的范式条件数。通过实验表明,相对于传统的极限学习,本发明提高传统的极限学习机处理包含对称性信息的带钢数据的预测性能,减小模型的预测误差,提高模型的泛化性能。

Description

随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法
技术领域
本发明涉及随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,属于带钢出口厚度预测技术领域。
背景技术
在钢铁工业的轧制生产中,带钢的出口厚度的精度是带钢质量的重要评价标准。因此,控制带钢厚度,提高带钢厚度精度成为国内外冶金行业普遍关注的重要课题。在实际钢铁轧制过程中,带钢的出口厚度精度会受到钢板原材料入口厚度、硬度、热膨胀、轧辊偏心等多方面的影响。通过对带钢轧制数据的数据特点进行分析,发现影响带钢的出口厚度的各个因素的实际值总是波动在一段区间内。换句活说,影响带钢出口厚度的各个因素在这段区间之内是满足对称规律的,而传统意义上的建模方式往往都无法有效的利用这些对称性信息。
近年来,极限学习机算法也逐渐应用于轧钢厚度预测中,由于初始网络参数的随机给定能够在一定的程度上使得网络的训练速度和学习能力得到一定的提升,但是同样是由于初始网络参数的随机给定,极限学习机的初始参数如果选择的不够合理,将使极限学习机需要更多的隐含层节点,影响其泛化性。
发明内容
本发明创造的目的是对传统的极限学习机进行改进和优化,在提高改进后的极限学习机训练和学习速度的同时,又不影响其泛化性能。本发明将随机蛙跳优化对称极限学习机算法应用在工业轧制中的带钢出口厚度预测中,使得带钢出口厚度的预测精确度得到提高。
为了实现上述目的,本发明采用的技术方案是:随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于,其步骤为:
步骤一)、分析采集的带钢数据信号:利用数据处理软对带钢数据信号进行分析,选出对带钢出口厚度敏感的轧制力,辊缝,轧制速度,电机电流4个参数作为极限学习机的输入变量;
步骤二)、提出对称极限学习机:对传统的极限学习机中加入对称性的先验信息,初步简化极限学习机的网络结构,从而减少ELM的隐含层节点数目,其称极限学习机公式为:
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成。
步骤三)、用随机蛙跳算法对步骤二)中的对称极限学习机的输入权值和隐含层偏置值进行选择,运用广义逆法分析决定输出权值,得到具有最小范数值的输出权值矩阵,以此得到最优的极限学习机参数;
步骤四)、对步骤三)中的对称极限学习机建立模型:首先建立三层的改进极限学习机的网络模型,其输入层有4个节点表示输入参数,输出层有一个节点表示对带钢出口厚度的预测结果,隐含层节点数是30个,极限学习机各层节点之间的权值通过步骤三)中的优化计算得出。
步骤五)、将步骤一)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
所述的步骤二)中具体为:
2.1)、把极限学习机模型的公式(1):
的隐含层神经元的激活函数g(x)进行对称性改进,具体的改进如公式(2)所示:
g(x)是极限学习机在改进之前的隐含层神经元激活函数,当θ=+1时,改进后的隐含层神经元的激活函数为偶函数;当θ=-1时,为奇函数;
2.2)经过对称性的改进之后,新的极限学习机的输出函数f(x)为公式(3):
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成;
由此把加入对称性先验信息的极限学习机命名为对称极限学习机。
所述的步骤三)中具体为:
3.1)随机初始化蛙群:采用蛙群算法对步骤二)对称极限学习机中的参数进行优化,蛙群中的每个青蛙个体Pi都由一系列极限学习机的输入权值ωj和隐含层偏移值bj构成。每个青蛙个体可以表示为公式(4):
Pi=[ω11,ω12,...,ω1H,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH] (4)
ωj为极限学习机的输入权值,bj为隐含层偏移值,公式(4)中所有参数都被初始化为处于[0,1]范围内的随机数。
3.2)适应度值的确定:首先将带钢数据集分成训练样本集,校验样本集和测试样本集;应用均方根误差值RMSE和输出矩阵的条件范数K(H)来对适应度值进行评价:
均方根误差值的计算方法如公式(5)所示:
nv为校验样本数,βig(wi*xj+bi)为隐含层计算公式,tj为每个样本期望输出值,RMSE的值越小,代表算法的预测精度越高;
输出矩阵的条件范数K(H)的计算方法如公式(6)所示:
ωmin为矩阵HTH的最小特征值,ωmax为矩阵HTH的最大特征值;K(H)的值是一个大于1的数,K(H)越接近1,表示极限学习机泛化性能也会越好;K(H)的值越大,模型的泛化性能降低;
适应度值的计算方式如公式(7)所示:
RMSE为公式(5)中的均方根误差值,K(H)为公式(6)中的输出矩阵的条件范数;根据适应度函数计算每个青蛙个体的适应值,之后根据计算出来的适应度值的大小来对青蛙个体进行从大到小的顺序排列,并记录下具有全局最优适应度值的青蛙个体;
3.3)蛙群组中划分子蛙群组:根据公式(8)划分子群组:
j为群组中的第j只青蛙个体被选入子群组的概率,Pj为第j只青蛙个体被选入子群组的概率;
3.4)计算最差青蛙个体的更新:在子群组划分完毕之后,在青蛙子群组内进行局部搜索的过程中,需要根据适应度函数值的大小来对各个青蛙个体进行排序,记录下具有全局最优适应度值的青蛙个体Pbest,并改进最差青蛙个体Pworst,计算最差青蛙的位置公式为(9) 和(10):
W=Rand()×(Pbest-Pworst) (9)
newPworst=Pworst+W (10)
Rand()的作用是在[0,1]之间取随机数;W表示青蛙个体每次搜索时候移动的步长, -Wmax≤W≤Wmax。newPworst表示更新后的最差青蛙;
3.5)不断重复4)中的局部搜索策略,直到达到事先设定好的局部搜索的迭代次数,之后继续重复3)、4)的过程,直到选取全局最优解Pbest中的输入权值和偏置值,对带钢的测试样本集数据进行预测
本发明创造带来的有益效果为:
本发明采用上述优化方法,先在传统的极限学习机中加入对称性先验信息,使得改进后的极限学习机能够对包含对称特性的一类数据进行处理,提出对称极限学习机,对改进后的 Sym-ELM算法进一步的优化,用随机蛙跳算法来选取Sym-ELM算法的输入权值和隐含层偏置值,并将优化的极限学习机用于带钢出口厚度预测,对于对称极限学习机算法的优化不仅使均方根误差值最小,还要考虑隐含层输出矩阵的范式条件数。通过实验表明,相对于传统的极限学习,本发明提高传统的极限学习机在处理包含对称性信息的带钢数据的预测性能,减小模型的预测误差,提高模型的泛化性能。
附图说明
图1是实施例1中轧制力与带钢出口厚度的关系图。
图2是实施例1中是辊缝与带钢出口厚度的关系图。
图3是实施例1中电机电流与带钢出口厚度的关系图。
图4是实施例1中轧制速度与带钢出口厚度的关系图。
图5是实施例1中本发明预测结果图。
图6是实施例1中传统极限学习机预测结果图。
图7是极限学习机的网络结构图。
具体实施方式
一种随机蛙跳优化对称极限学习机带钢出口厚度预测方法,其步骤如下:
(1)分析采集的带钢数据信号:利用数据处理软件ibaAnalyzer对带钢轧制工业中采集到的信号数据进行综合的分析,选择出与带钢出口厚度相关性较大的轧制力、轧制速度、辊缝以及电流四个因素作为预测模型的输入特征值。
(2)提出对称极限学习机(Sym-ELM):利用先验信息的对称性对传统极限学习机的激活函数进行改进,使得改进后的模型能够对包含对称信息的带钢数据进行处理和学习。
(3)随机蛙跳算法优化对称极限学习机(SFLASym-ELM):主要是针对极限学习机输入权值和隐含层偏置值的随机选取问题。优化的过程中充分考虑隐含层输出矩阵的范式条件数。最终实现对对称极限学习机的参数优化。
(4)建立优化的极限学习机模型:首先建立三层的改进极限学习机的网络模型,设置输入层、隐含层、输出层节点,极限学习机各层节点之间的权值通过步骤(3)优化计算得出。
(5)将步骤(1)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
步骤(2)中传统极限学习机改进成对称极限学习机(Sym-ELM)过程如下:
1)传统极限学习机的模型为公式(1):
如果中所有的gi(x)部具有相同的对称性质,则f(x)也必然具有相同的对称性。
2)把极限学习机算法的隐含层神经元的激活函数g(x)进行对称性改进,具体的改进如公式(2)所示:
其中,g(x)是极限学习机在改进之前的隐含层神经元激活函数。当θ=+1时,改进后的隐含层神经元的激活函数为偶函数;当θ=-1时,为奇函数。
3)经过对称性的改进之后,新的极限学习机的输出函数f(x)为公式(3):
其中,为公式(2)中的激活函数,(ai,bi)为样本集中随机生成,把加入对称性先验信息的极限学习机命名为对称极限学习机(Symmetry Extreme Learning Machine,Sym- ELM)。
步骤(3)中随机蛙跳算法优化对称极限学习机的过程如下:
1)随机初始化蛙群。采用蛙群算法对对称极限学习机中的参数进行优化,蛙群中的每个青蛙个体Pi都由一系列极限学习机的输入权值ωj和隐含层偏移值bj构成。每个青蛙个体可以表示为公式(4):
Pi=[ω11,ω12,...,ω1H,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH] (4)
其中,ωj为极限学习机的输入权值,bj为隐含层偏移值,公式(4)中所有参数都被初始化为处于[0,1]范围内的随机数。
2)适应度值的确定。首先将带钢数据集分成训练样本集,校验样本集和测试样本集。在这里应用两个指标来对适应度值进行评价,一个是均方根误差值,另一个是输出矩阵的条件范数。
其中,均方根误差值的计算方法如公式(5)所示:
其中,nv为校验样本数,βig(wi*xj+bi)为隐含层计算公式,tj为每个样本期望输出值。在公式(5)中,均方根误差值RMSE的值应保证尽可能的小。RMSE的值越小,代表算法的预测精度越高。
输出矩阵的条件范数的计算方法如公式(6)所示:
其中,ωmin为矩阵HTH的最小特征值,ωmax为矩阵HTH的最大特征值,K(H)的值是一个大于1的数,K(H)越接近1,表示极限学习机泛化性能也会越好,反之,K(H)的值越大,会导致模型的泛化性能降低。
本发明选取均方根误差值(RMSE)和隐含层输出矩阵H的条件范数值作为随机蛙跳算法的适应度值来对青蛙个体进行评价。均方根误差值(RMSE)和隐含层输出矩阵H的条件范数值都需要在校验样本集上计算而得到。适应度值的计算方式如公式(7)所示:
其中,RMSE为公式(5)中的均方根误差值,K(H)为公式(6)中的输出矩阵的条件范数。根据适应度函数计算每个青蛙个体的适应值,根据计算出来的适应度值的大小来对青蛙个体进行从大到小的顺序排列,并记录下具有全局最优适应度值的青蛙个体。
3)蛙群组中划分子蛙群组。根据公式(8)划分子群组:
其中,j为群组中的第j只青蛙个体被选入子群组的概率。Pj为第j只青蛙个体被选入子群组的概率。
4)计算最差青蛙个体的更新。在子群组划分完毕之后,在进行青蛙子群组内局部搜索的过程中,需要根据适应度函数值的大小来对各个青蛙个体进行排序,记录下具有全局最优适应度值的青蛙个体Pbest,并更新最差青蛙个体Pworst
计算最差青蛙的位置公式为(9)和(10)。
W=Rand()×(Pbest-Pworst) (9)
newPworst=Pworst+W (10)
其中,Rand()的作用是在[0,1]之间取随机数。W表示青蛙个体每次搜索时候移动的步长,-Wmax≤W≤Wmax。newPworst是最差的青蛙更新之后的表示方法。
5)不断重复4)中的局部搜索策略,直到达到事先设定好的局部搜索的迭代次数,之后继续重复3)、4)的过程,直到选取全局最优解Pbest中的输入权值和偏置值,对带钢的测试样本集数据进行预测。
步骤(4)建立优化的极限学习机模型过程如下:首先建立SFLASym-ELM模型,其输入层节点数为4个,表示输入参数,隐含层节点数设置为30个,表示对称极限学习机各层节点之间的权值,由步骤(3)优化计算得出。输出层节点为1个,表示带钢出口厚度的预测结果。
步骤(5)将步骤一)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
本发明的理论依据:
1、极限学习机的提出
极限学习机是一种特殊的单隐层前馈神经网络的学习算法,在2004年由黄广斌提出,主要由输入层、隐含层以及输出层三个部分组成。其网络结构图如7所示。
其中,ωi=[ω1i,ω2i,...,ωmi]表示连接极限学习机的输入层节点与极限学习机的第i个隐层节点的输入权值向量,在初始状态下是随机选定的;βi=[βi1,βi2,...,βin]T表示连接极限学习机的第i个隐层节点与极限学习机的输出层节点的输出权值向量,通过计算得到的一个最小二乘解;oi=[oi1,oi2,...,oin]T表示极限学习机的输出值。激活函数g(·)主要有线性函数、非线性函数、Sigmoid函数以及高斯函数等类型。
给定一个训练数据集L={(x(n),t(n)),n=1,2,...,N},其中x(n)=(x1(n),...,xd(n))T∈Rd, t(n)=(t1(n),...,tm(n))T∈Rm。一个具有激活函数g(·)和H个隐含层神经元节点的极限学习机可以表示为公式(11):
公式(11)也可以以矩阵的方式表示如公式(12)和(13)所示:
Hβ=T (12)
其中,
其中,ωj=(ωj1,...,ωjd)T∈Rd是连接极限学习机的输入层和极限学习机的第j个隐含层神经元节点的输入权值向量,bj是极限学习机的第j个隐含层神经元的偏置值,βj=(βj1,...,βjm)T是连接极限学习机的第j个隐含层神经元节点和极限学习机的输出层的输出权值向量。
所以,在计算极限学习机的输出权值时,需要找出给定的线性系统的最小二乘解。一个具有最小范数值的线性系统的最小二乘解可以表示为(14):
其中是矩阵H的广义逆。通常情况下,一个给定的线性系统的最小二乘解有且仅有一个,并在所有的最小二乘解中具有最小的条件范数值。通过矩阵的广义逆的运用,极限学习机可以极大的提高进行训练和学习的速度,同时还能够达到所要求的泛化性能。
2、随机蛙跳算法:
随机蛙跳算法是一种以种群为基础的搜索算法,在2003年由Eusuff和Lansey为解决组合优化问题提出。随机蛙跳算法(SFLA)的实现过程,则是对自然界中青蛙群体进行觅食行为的一种仿生模拟。
首先产生F只青蛙组成蛙群,每只蛙表示解空间的一个解X=(x1,x1,...,xs),其中s表示变量的数量。然后将蛙群内的青蛙个体按照适应值进行降序排列,找到全局最好解Pbest
将蛙群分成m个族群,每个族群包含n只青蛙,满足关系F=m×n。其中第1只蛙进入第 1个族群,第2只蛙进入第2个族群,第m只蛙进入第m个族群,第m+1只蛙进入第1个族群,…,直至所有蛙进入指定位置。根据公式(15),随机从族群中选择q个个体进入子族群并将子族群进行排序。
pj=2(n+1-j)/[n(n+1)],j=1,...,n (15)
其中,j为第j只蛙,pj表示第j只蛙被选中的概率。
然后找出子族群中的最好解Pbest和最差解Pworst,按照式(16)和式(17)对每个子族群进行局部深度搜索。
S=Rand()×(Pbest-Pworst) (16)
NewPworst=Pworst+S,-Smax≤S≤Smax (17)
其中,Rand()表示在0到1之间进行取值的随机数,S表示青蛙的跳动步长,NewPworst表示更新后的Pworst。如果NewPworst是处于可行解空间中,计算NewPworst对应的适值。如果 NewPworst所对应的适值次于Pworst所对应的适值,则采用Px代替式(16)中的Pbest重新更新 Pworst;如果仍然没有改进,则随机产生一个新的蛙来代替Pworst。否则就重复更新过程,直到达到预先设定的局部迭代次数。完成所有族群的深度搜索后,将所有蛙群中的青蛙进行重新混合和排序,之后再将蛙群分成族群和子族群,继续进行局部搜索,直到任何一个预先设定的算法停止条件得到满足为止。
实施例1:
将本发明随机蛙跳优化对称极限学习机用于带钢出口厚度的预测中,并与传统的极限学习机进行结果对比,以此验证本发明的有效性,具体步骤如下:
1、分析采集的带钢数据信号。带钢实验数据来自国内的某钢厂在实际的带钢轧制过程中实时采集到的信号数据。在进行带钢轧制的过程中,轧制带钢的机组一共有9个轧制机架组成,每个机架的各种参数都会对带钢的出口厚度产生一定的作用。原始带钢数据是以信号的形式存储的,使用ibaAnalyzer数据分析软件对其有影响的轧制力,轧制速度,电机电流,轧制力,辊缝等数据信号进行分析。提取到几个能对带钢出口厚度产生影响的主要因素,并将可用的数据导入到excel中筛选使用。
数据的采集由九个机架的数据组成,从时间上看,第九个机架的的数据信号与带钢出口厚度的时间序列大致相同。其他八个机架的数据信号与出口厚度存在一定的延迟。所以选择第九个机架的相关数据信号进行实验。
由于样本数据在带钢出口厚度的预测中作用重大,所以样本数据的选择必须覆盖整个数据空间并具有代表性。为了保证数据集选择的合理性,将带钢的出口厚度和其他的数据信号进行对比,对比关系曲线图如图1到图4所示。其中带钢出口厚度受到轧制力,辊缝,轧制速度,电机电流的影响较大,所以将对出口厚度较为敏感的轧制力,辊缝,轧制速度,电机电流4个参数作为极限学习机的输入变量。
2、利用先验信息的对称性对传统极限学习机的激活函数进行改进,使得改进后的模型能够对包含对称信息的带钢数据进行处理和学习。
3、用随机蛙跳算法对对称极限学习机的输入权值和隐含层偏置值进行优化选择,以得到具有最小范数值的输出权值矩阵。
4、将步骤1的4个参数输入步骤3所得出的优化的对称极限学习机中,用于带钢出口厚度的预测中,并与传统的极限学习机进行结果对比,以此验证本发明的有效性。
4.1)实验初始化。随机蛙跳优化对称极限学习机的带钢出口厚度预测算法(SFLASym- ELM)与传统的极限学习机进行对比实验,实验结果的评价性能除了由均方根误差 (RMSE)和条件范数值K(H)的大小来衡量极限学习机的性能之外,还制定一个评价SFLASym-ELM模型预测精度的标准预测拟合度S和评价模型过拟合度的指标C。
在样本数据数的选取中,运用ibaAnalyzer软件将取样区间设定为0.2s所导出的样本数足够反映轧机的状况。经过数据的筛选,最终选取400个数据进行实验。传统的极限学习机算法则各选取200个作为训练样本集和测试样本集。SFLASym-ELM预测算法中,青蛙个体属设置为60个,青蛙群组的个数设置为6个,每个群组中有10个青蛙个体,蛙群每次进行移动的最大步长设置为4,最大的搜索次数设置为90次。SFLASym-ELM模型的输入层节点数为4个,隐含层节点数设置为30个,输出层节点为1个,各选取200个作为训练样本集和测试样本集。
4.2)实验结果分析。将轧制力,辊缝,轧制速度和电机电流输入极限学习机中得到带钢出口厚度的预测值,为了便于分析实验结果,传统的极限学习机和SFLASym-ELM的带钢出口厚度预测结果曲线如图5,6所示。图6为传统的极限学习机算法对应模型的预测结果。图5为SFLASym-ELM算法对应模型的预测结果,SFLASym-ELM算法与传统的极限学习机(ELM)算法相比,预测的精度更高,预测误差更小,从而验证SFLASym-ELM算法的有效性。
为了验证本发明算法的预测精度和鲁棒性,在对极限学习机的隐含层节点数进行选择的时候,采用的是多次实验的方法试凑出一个最优的隐含层节点数,对比实验的结果如表1所示,在隐含层节点数为30个的时候,无论是本发明的SFLASym-ELM模型还是传统的极限学习机模型,部达到比较小的均方根误差值和较好的条件范数值K(H)。通过表2所示,SFLASym-ELM算法在预测拟合度方面比传统的极限学习机要好很多,做到与传统的极限学习机差持平的情况下,改善网络的结构,提高预测的精度,并且更不容易产生过拟合现象,所以本方法具有较高的预测精度和较好的鲁棒性。
表1两种算法实验对比结果
表2两种算法实验对比结果

Claims (3)

1.随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于,其步骤为:
步骤一)、分析采集的带钢数据信号:利用数据处理软对带钢数据信号进行分析,选出对带钢出口厚度敏感的轧制力,辊缝,轧制速度,电机电流4个参数作为极限学习机的输入变量;
步骤二)、提出对称极限学习机:对传统的极限学习机中加入对称性的先验信息,初步简化极限学习机的网络结构,从而减少ELM的隐含层节点数目,其对称极限学习机公式为:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <msub> <mover> <mi>g</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mover> <mi>g</mi> <mo>~</mo> </mover> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成。
步骤三)、用随机蛙跳算法对步骤二)中的对称极限学习机的输入权值和隐含层偏置值进行选择,运用广义逆法分析决定输出权值,得到具有最小范数值的输出权值矩阵,以此得到最优的极限学习机参数;
步骤四)、对步骤三)中的对称极限学习机建立模型:首先建立三层的改进极限学习机的网络模型,其输入层有4个节点表示输入参数,输出层有一个节点表示对带钢出口厚度的预测结果,隐含层节点数是30个,极限学习机各层节点之间的权值通过步骤三)中的优化计算得出。
步骤五)、将步骤一)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
2.根据权利要求1所述的随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于,所述的步骤二)中具体为:
2.1)、把极限学习机模型的公式(1):
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <msub> <mi>g</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
的隐含层神经元的激活函数g(x)进行对称性改进,具体的改进如公式(2)所示:
<mrow> <msub> <mover> <mi>g</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>g</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;theta;g</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
g(x)是极限学习机在改进之前的隐含层神经元激活函数,当θ=+1时,改进后的隐含层神经元的激活函数为偶函数;当θ=-1时,为奇函数;
2.2)经过对称性的改进之后,新的极限学习机的输出函数f(x)为公式(3):
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <msub> <mover> <mi>g</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mover> <mi>g</mi> <mo>~</mo> </mover> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成;
由此把加入对称性先验信息的极限学习机命名为对称极限学习机。
3.根据权利要求1所述的随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于:所述的步骤三)中具体为:
3.1)随机初始化蛙群:采用蛙群算法对步骤二)对称极限学习机中的参数进行优化,蛙群中的每个青蛙个体Pi都由一系列极限学习机的输入权值ωj和隐含层偏移值bj构成。每个青蛙个体可以表示为公式(4):
Pi=[ω1112,…,ω1H2122,…,ω2H,…,ωd1d2,…,ωdH,b1,b2,…,bH] (4)
ωj为极限学习机的输入权值,bj为隐含层偏移值,公式(4)中所有参数都被初始化为处于[0,1]范围内的随机数。
3.2)适应度值的确定:首先将带钢数据集分成训练样本集,校验样本集和测试样本集;
应用均方根误差值RMSE和输出矩阵的条件范数K(H)来对适应度值进行评价:
均方根误差值的计算方法如公式(5)所示:
<mrow> <mi>R</mi> <mi>M</mi> <mi>S</mi> <mi>E</mi> <mo>=</mo> <msqrt> <mfrac> <mrow> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>n</mi> <mi>v</mi> </msub> </msubsup> <mo>|</mo> <mo>|</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>H</mi> </msubsup> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mi>i</mi> </msub> <mo>*</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>t</mi> <mi>j</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow> <msub> <mi>n</mi> <mi>v</mi> </msub> </mfrac> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
nv为校验样本数,βig(wi*xj+bi)为隐含层计算公式,tj为每个样本期望输出值,RMSE的值越小,代表算法的预测精度越高;
输出矩阵的条件范数K(H)的计算方法如公式(6)所示:
<mrow> <mi>K</mi> <mrow> <mo>(</mo> <mi>H</mi> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mfrac> <msub> <mi>&amp;omega;</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>&amp;omega;</mi> <mi>min</mi> </msub> </mfrac> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
ωmin为矩阵HTH的最小特征值,ωmax为矩阵HTH的最大特征值;K(H)的值是一个大于1的数,K(H)越接近1,表示极限学习机泛化性能也会越好;K(H)的值越大,模型的泛化性能降低;
适应度值的计算方式如公式(7)所示:
<mrow> <mi>f</mi> <mo>=</mo> <mfrac> <mrow> <mi>R</mi> <mi>M</mi> <mi>S</mi> <mi>E</mi> <mo>+</mo> <mi>K</mi> <mrow> <mo>(</mo> <mi>H</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>R</mi> <mi>M</mi> <mi>S</mi> <mi>E</mi> <mo>&amp;times;</mo> <mi>K</mi> <mrow> <mo>(</mo> <mi>H</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
RMSE为公式(5)中的均方根误差值,K(H)为公式(6)中的输出矩阵的条件范数;
根据适应度函数计算每个青蛙个体的适应值,之后根据计算出来的适应度值的大小来对青蛙个体进行从大到小的顺序排列,并记录下具有全局最优适应度值的青蛙个体;
3.3)蛙群组中划分子蛙群组:根据公式(8)划分子群组:
<mrow> <msub> <mi>P</mi> <mi>j</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <mrow> <mo>(</mo> <mi>n</mi> <mo>+</mo> <mn>1</mn> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>n</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
j为群组中的第j只青蛙个体被选入子群组的概率,Pj为第j只青蛙个体被选入子群组的概率;
3.4)计算最差青蛙个体的更新:在子群组划分完毕之后,在青蛙子群组内进行局部搜索的过程中,需要根据适应度函数值的大小来对各个青蛙个体进行排序,记录下具有全局最优适应度值的青蛙个体Pbest,并改进最差青蛙个体Pworst,计算最差青蛙的位置公式为(9)和(10):
W=Rand()×(Pbest-Pworst) (9)
newPworst=Pworst+W (10)
Rand()的作用是在[0,1]之间取随机数;W表示青蛙个体每次搜索时候移动的步长,-Wmax≤W≤Wmax。newPworst表示更新后的最差青蛙;
3.5)不断重复4)中的局部搜索策略,直到达到事先设定好的局部搜索的迭代次数,之后继续重复3)、4)的过程,直到选取全局最优解Pbest中的输入权值和偏置值,对带钢的测试样本集数据进行预测。
CN201710442183.6A 2017-06-13 2017-06-13 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 Pending CN107274016A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710442183.6A CN107274016A (zh) 2017-06-13 2017-06-13 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710442183.6A CN107274016A (zh) 2017-06-13 2017-06-13 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法

Publications (1)

Publication Number Publication Date
CN107274016A true CN107274016A (zh) 2017-10-20

Family

ID=60066208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710442183.6A Pending CN107274016A (zh) 2017-06-13 2017-06-13 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法

Country Status (1)

Country Link
CN (1) CN107274016A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729943A (zh) * 2017-10-23 2018-02-23 辽宁大学 信息反馈极限学习机优化估值的缺失数据模糊聚类算法及其应用
CN108198134A (zh) * 2017-12-29 2018-06-22 天津科技大学 基于组合平均极限学习机的单图像超分辨率重建方法
CN110110447A (zh) * 2019-05-09 2019-08-09 辽宁大学 一种混合蛙跳反馈极限学习机带钢厚度预测方法
CN112170501A (zh) * 2020-09-16 2021-01-05 太原理工大学 一种轧辊磨损凸度和热凸度的预测方法
CN112729826A (zh) * 2020-12-21 2021-04-30 湘潭大学 一种人工鱼群-蛙跳优化极限学习机的轴承故障诊断方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014113522A1 (en) * 2013-01-16 2014-07-24 Assurerx Health, Inc. Methods for pharmacogenomic classification
CN104200268A (zh) * 2014-09-03 2014-12-10 辽宁大学 一种基于粒子群优化极限学习机的带钢出口厚度预测方法
CN104537033A (zh) * 2014-12-23 2015-04-22 清华大学 基于贝叶斯网络和极限学习机的区间型指标预报方法
CN104657602A (zh) * 2015-02-02 2015-05-27 北京科技大学 一种热连轧生产过程中带钢厚度预测方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014113522A1 (en) * 2013-01-16 2014-07-24 Assurerx Health, Inc. Methods for pharmacogenomic classification
CN104200268A (zh) * 2014-09-03 2014-12-10 辽宁大学 一种基于粒子群优化极限学习机的带钢出口厚度预测方法
CN104537033A (zh) * 2014-12-23 2015-04-22 清华大学 基于贝叶斯网络和极限学习机的区间型指标预报方法
CN104657602A (zh) * 2015-02-02 2015-05-27 北京科技大学 一种热连轧生产过程中带钢厚度预测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张士强: "随机蛙跳优化的对称极限学习机算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729943A (zh) * 2017-10-23 2018-02-23 辽宁大学 信息反馈极限学习机优化估值的缺失数据模糊聚类算法及其应用
CN108198134A (zh) * 2017-12-29 2018-06-22 天津科技大学 基于组合平均极限学习机的单图像超分辨率重建方法
CN108198134B (zh) * 2017-12-29 2022-01-18 天津科技大学 基于组合平均极限学习机的单图像超分辨率重建方法
CN110110447A (zh) * 2019-05-09 2019-08-09 辽宁大学 一种混合蛙跳反馈极限学习机带钢厚度预测方法
CN110110447B (zh) * 2019-05-09 2023-04-18 辽宁大学 一种混合蛙跳反馈极限学习机带钢厚度预测方法
CN112170501A (zh) * 2020-09-16 2021-01-05 太原理工大学 一种轧辊磨损凸度和热凸度的预测方法
CN112170501B (zh) * 2020-09-16 2022-05-27 太原理工大学 一种轧辊磨损凸度和热凸度的预测方法
CN112729826A (zh) * 2020-12-21 2021-04-30 湘潭大学 一种人工鱼群-蛙跳优化极限学习机的轴承故障诊断方法

Similar Documents

Publication Publication Date Title
CN107274016A (zh) 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法
CN104200268B (zh) 一种基于粒子群优化极限学习机的带钢出口厚度预测方法
Han et al. Information-utilization-method-assisted multimodal multiobjective optimization and application to credit card fraud detection
CN106650920A (zh) 一种基于优化极限学习机的预测模型
CN112989635B (zh) 基于自编码器多样性生成机制的集成学习软测量建模方法
CN110473592A (zh) 基于图卷积网络的有监督的多视角人类协同致死基因预测方法
CN110619084B (zh) 一种根据图书馆读者借阅行为进行图书推荐的方法
CN110083125A (zh) 一种基于深度学习的机床热误差建模方法
CN112464996B (zh) 基于LSTM-XGBoost的智能电网入侵检测方法
CN113128124B (zh) 基于改进神经网络的多牌号C-Mn钢力学性能预测方法
CN112414715B (zh) 基于混合特征与改进灰度共生算法的轴承故障诊断方法
CN110110447B (zh) 一种混合蛙跳反馈极限学习机带钢厚度预测方法
CN109492748A (zh) 一种基于卷积神经网络的电力系统的中长期负荷预测模型建立方法
CN112634019A (zh) 基于细菌觅食算法优化灰色神经网络的违约概率预测方法
CN112527993A (zh) 一种跨媒体层次化深度视频问答推理框架
CN104732067A (zh) 一种面向流程对象的工业过程建模预测方法
CN117313795A (zh) 一种基于改进dbo-lstm的智慧楼宇能耗预测方法
CN112529684A (zh) 一种基于fwa_dbn的客户信用评估方法及系统
Sun Application of GA-BP neural network in online education quality evaluation in colleges and universities
CN115062759A (zh) 一种基于改进型长短记忆神经网络的故障诊断方法
Chai et al. Production Forecast of Coalbed Methane Based on GA Optimized BP Neural Network
CN115099519B (zh) 一种基于多机器学习模型融合的油井产量预测方法
Wang Intelligent Malfunction Identification Method in Mechanical Manufacturing Process Based on Multisensor Data
CN116467636A (zh) 一种基于数据增强的学生成绩预测方法
Su et al. Machine learning based wordle difficulty analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171020