CN109242194B - 一种基于混合模型的浓密机底流浓度预测方法 - Google Patents

一种基于混合模型的浓密机底流浓度预测方法 Download PDF

Info

Publication number
CN109242194B
CN109242194B CN201811114507.4A CN201811114507A CN109242194B CN 109242194 B CN109242194 B CN 109242194B CN 201811114507 A CN201811114507 A CN 201811114507A CN 109242194 B CN109242194 B CN 109242194B
Authority
CN
China
Prior art keywords
model
layer
output
hidden layer
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811114507.4A
Other languages
English (en)
Other versions
CN109242194A (zh
Inventor
肖冬
江隆强
单丰
刘新新
付晓锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201811114507.4A priority Critical patent/CN109242194B/zh
Publication of CN109242194A publication Critical patent/CN109242194A/zh
Application granted granted Critical
Publication of CN109242194B publication Critical patent/CN109242194B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明提供了一种基于混合模型的浓密机底流浓度预测方法,针对湿法冶金浓密洗涤过程底流浓度难以在线测量的问题,在深入分析浓密洗涤过程特点的基础上,利用机理建模与基于整体分布优化算法改进的三层ELM误差补偿模型相结合的混合建模方法实现浓密洗涤过程底流浓度的精准测量。

Description

一种基于混合模型的浓密机底流浓度预测方法
背景技术:
随着湿法冶金工业生产的大型化、集中化和连续化,迫切要求高效、稳定的自动化生产线。而我国湿法冶金生产过程自动化总体水平较低,而其自动化技术极大地制约着我国湿法冶金工业的发展。当前某精矿浓密机底流浓度难以检测,操作工靠生产经验来进行放矿,导致下游压滤工序生产急剧波动滤饼产品水分难以达标。尾矿浓密机靠操作工人经验进行控制,随意性大,如能做好优化控制,将减小尾矿库压力,提高生产效率。
浓密机由于其具有占地面积小、能耗低、效率高等优点,在国内外湿法冶金、煤炭、污水处理等行业得到广泛的应用,尤其在我国选矿厂得到普遍使用。目前,浓密机在我国选矿厂应用过程中大多存在以下问题:生产过程中的许多关键变量仍未能实现在线检测;浓密机生产过程仍处于人工操作状态,生产人员大多凭借自身经验和感觉来判断生产情况,从而进行操作;浓密机的工作负荷、底流水的浓度、溢流水的浊度等关键环节都不能得到有效的控制,导致其浓度和流量波动都比较大,对后续选矿过程的生产指标造成严重影响,同时很可能会增加后续浮选工序的药剂用量,增大了选矿的成本,严重制约了浓密机生产效率的提高。随着计算机和自动化技术的发展,迫切需要将计算机控制系统引入全流程,形成全流程自动化控制与资源共享,从而提高生产率,提升企业竞争力。
近几十年来,固液分离技术有了很大的发展,但对浓密洗涤过程的数学模型的研究却远远不够。浓密洗涤过程的数学模型有助于描述和理解沉降过程的反应机理,对系统设计及设备选型提供理论指导,有助于研究污泥产量的变化,模拟沉降过程的动态变化,可以指导实际生产。随着固液分离技术的发展,必须开展数学模型的研究,从而更深刻地认识固液分离的现象和规律。但是目前仍没有能够应用于优化控制的精确的浓密洗涤过程模型,浓密洗涤过程的模型研究仍处于探索阶段。
本发明是针对湿法冶金浓密洗涤过程底流浓度难以在线测量的问题,在深入分析浓密洗涤过程特点的基础上,利用机理建模与基于整体分布优化算法(EntireDistribution Optimization,EDO)改进的三层ELM(Three hidden layers ExtremeLearning Machine,TELM)误差补偿模型相结合的混合建模方法实现浓密洗涤过程底流浓度的精准测量。ELM与EDO算法是两种机制不同的优化算法,它们表现出不同的优化特性并适用于不同的优化问题,从而有可能将二者结合起来,融合二者的长处构建更为有效的优化方法。混合模型实现了用改进的EDO-TELM算法作为误差补偿模型去补偿机理模型未建模部分的误差,对模型的不确定部分给予了合理的估计,显著减小了模型误差,从理论上提高了模型的预测精度。浓密机机理模型的建模精度要求高,并且数据量较大,该混合模型的建模方法为浓密机底流浓度的预测提供了一个不错的方法。最后通过Matlab软件仿真结果分析,混合模型的预测精度比机理模型和数据模型的测量精度得到了明显的提高,能够适应工业现场的测量需求。
机理建模的优点是反映过程的规律,可靠性高,外推性好,具有可解释性,缺点是建模过程比较繁琐,依赖于先验知识,对于一些复杂过程而言,需要通过合理假设得到被控过程的简化机理模型,然而简化后的机理模型的精度不能得到保证。数据建模的优点是可以根据过程的输入输出数据直接建立过程模型,无需过程对象的先验知识,避免了复杂机理的分析,缺点是模型推广性能差、不具有可解释性、容易造成过拟合现象,甚至可能将噪声也拟合进来,造成模型的不稳定。因此,本专利提出了一种将机理模型和基于数据驱动的建模方法相结合的方法,使得机理模型和数据模型可以互为补充。机理模型可以为数据模型提供先验知识,从而可以节省训练样本,降低了对样本数据的要求,而基于数据驱动的模型又能补偿机理模型的未建模特性,使模型不仅具有局部逼近特性,而且具有全局逼近特性,广泛应用于各种复杂工业过程。
发明内容:
针对现有技术问题,提出一种基于混合模型的浓密机底流浓度预测方法,包括以下步骤:
步骤1:机理建模
步骤1.1机理模型的建立
由于浓密过程是基于重力沉降作用的,则矿浆浓度是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中设置z轴竖直向下为正方向,t为浓密过程时间,进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,通过一维沉降模型捕获过程基本特性,沉降过程的质量守恒关系由偏微分方程来描述:
Figure BDA0001810153480000041
其中vs≥0是矿浆向下沉降速率,方程中包含两个未知量矿浆浓度C和沉降速率vs,因此求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系;
在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量
Figure BDA0001810153480000042
减去z2高度流出的流量
Figure BDA0001810153480000043
再加上间隔内产生的流量,表达式为:
Figure BDA0001810153480000044
其中Qf为进料流量;为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为其中:
Figure BDA0001810153480000045
其中:
Figure BDA0001810153480000046
Figure BDA0001810153480000047
采用分层思想将浓密机内部细分为n层,则每层的高度为Δz=(B+H)/n,设层与层之间的分界线,每层分界线的高度通过计算得到,公式为:
z:=iΔz-H,i=0,...N
则溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层;在仿真系统中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度;因此,计算区域由n+4个长度为Δz的区间组成,确保精确;
对于每一层,可以重新写一个精确版本的质量守恒方程如下式:
Figure BDA0001810153480000051
Figure BDA0001810153480000058
Figure BDA0001810153480000052
其中
Figure BDA0001810153480000053
是压缩系数;
由于精确版本的质量守恒方程的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:
在沉降区,第i=2,...,m-1层:
Figure BDA0001810153480000054
第i=m,进料层:
Figure BDA0001810153480000055
对于底流层:
Figure BDA0001810153480000056
其中Cf是进料浓度;
Figure BDA0001810153480000057
是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式所示;
Figure BDA0001810153480000061
基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,同时忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:
Figure BDA0001810153480000062
步骤1.2:辅助变量选择:对浓密洗涤过程的关键变量底流浓度进行预测,确定软测量模型的主导变量为底流浓度,对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究;
步骤1.3.数据预处理:在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,把这样的数据称为异常值,对于异常值通常可以采用3σ原则进行处理;对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除,实现方法为:
对于测量数据[x1,x2,x3,x4],首先根据公式计算其平均值,再根据式计算标准差的估计值:
Figure BDA0001810153480000063
Figure BDA0001810153480000064
假设对于任意数据点xd,若满足
Figure BDA0001810153480000065
则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除;再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止;
步骤2:基于三层极限学习机算法的数据模型建立:
步骤2.1:ELM算法:极限学习机的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数一般都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中;
ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的,输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量;
设输入层与隐含层之间的连接权值矩阵w为:
Figure BDA0001810153480000071
其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值;
设隐含层与输出层间的连接权值β为:
Figure BDA0001810153480000072
其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值;
设隐含层神经元的阈值为:
Figure BDA0001810153480000081
假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q);
Figure BDA0001810153480000082
Figure BDA0001810153480000083
隐含层神经元的激活函数为g(x),则ELM网络的输出T为:
T=[t1 t2 … tQ]m×Q,j=1,2,…,Q
其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T
上式也可以表示如下:
Hβ=T'
其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置;
其中H为:
Figure BDA0001810153480000085
提高网络的泛化能力,使网络预测输出更加稳定,在β的求解过程中加入正则化项,而且与ELM中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
Figure BDA0001810153480000091
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
Figure BDA0001810153480000092
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
β=H+T
其中H+是输出矩阵H的Moore-Penrose广义逆;
则求出ELM网络的输出:y=Hβ;
步骤2.2:常见的激活函数以及隐含层节点个数的选择:ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,合适的激活函数可以提高模型的精确度和稳定性,激活函数要满足非线性、可微性、单调性等特征;
对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定;在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准;
步骤2.3:三隐含层ELM算法:三隐含层网络结构的极限学习机,是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的;同时该TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型;
假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本;且所有的隐含层都具有相同的隐含层节点数目;根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层,且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵,由ELM算法可以得知,第三个隐含层的期望输出为:
H3*=Tβnew +
其中,
Figure BDA0001810153480000101
是βnew的广义逆矩阵;
把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:
H3=g(W2H2+B2)
其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵;
为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*
假设矩阵WHE1=[B2 W2],第三个隐含层的权值W2和阈值B2可以求解得:
WHE1=g-1(H3*)HE1 +
其中,
Figure BDA0001810153480000102
是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数;
当以上隐含层的参数全部求解过后,更新第三个隐含层的预测输出H4
H4=g(W2H2+B2)=g(WHE1HE1)
提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,一般可以再βnew的更新求解过程中加入正则化项;而且与TELM算法中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
Figure BDA0001810153480000111
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
Figure BDA0001810153480000112
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
βnew1=H4 +T
则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:
f(x)=H4βnew1
步骤2.4数据模型的建立:
数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式;
步骤3:机理模型与数据补偿模型建立混合模型:
数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系;将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型;将机理模型与补偿器的预测值相加作为模型的预估值;实现用EDO-TELM来逼近实际系统和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度;
浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:
Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4)
式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值;
步骤3.1:整体分布优化算法优化三层极限学习机:
在整体分布优化算法优化三层极限学习机(EDO-TELM)的过程中,EDO算法中每个粒子的位置向量对应极限学习机的输入权重和偏置向量,粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好;粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量;
利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:
步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;
步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍;柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;
步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度;
判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;
步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变;迭代次数减1;
步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;
步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。
有益效果
在本发明中,我们将基于机理模型与数据补偿模型建立的混合模型应用到了某精矿浓密机底流浓度的软测量方法中,开创了新型混合模型的建模思路并取得了不错的改进效果。首先从一些相关背景知识介绍,逐步了解并分析了浓密机机理模型的建模到优化过程,并将浓密机机理模型的参数进行RLS辨识预测浓密机底流浓度。同时通过采集的数据结合TELM算法建立数据模型并预测底流浓度。经比较辨识后的浓密机机理模型预测输出和数据模型预测输出与实际值的差异,从实际效果可以看出机理模型和数据模型均对过程的趋势有较好的预测效果,但是预测值与实际值之间仍存在较大的偏差。最后提出了一种基于数据补偿模型的浓密机混合模型,混合模型实现了用改进的EDO-TELM算法作为误差补偿模型去补偿机理模型未建模部分的误差,对模型的不确定部分给予了合理的估计,显著减小了模型误差,从理论上提高了模型的预测精度。通过仿真分析该混合模型减小了机理模型和数据模型预测误差,混合模型的预测精度更为准确。
附图说明:
图1浓密机内部作业空间分布
图2分层结构图
图3 ELM神经网络结构
图4TELM的工作流程
图5TELM的网络结构
图6浓密洗涤过程混合模型结构
图7整体分布优化算法的程序流程图
图8优化模型
图9机理模型底流浓度预测误差比较
图10底流浓度预测效果比较
图11 TELM测试集预测误差
图12 TELM测试集输出结果比较
图13混合模型底流浓度预测误差
图14混合模型底流浓度预测效果的比较
具体实施例
一种基于混合模型的软测量方法研究并提高底流浓度预测精度的处理方法
步骤1:机理建模:
步骤1.1机理模型的建立:
浓密过程是基于重力沉降作用的,显而易见,矿浆浓度必是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中z轴向下为正方向,t为浓密过程时间,如图1所示。我们进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,因此一维沉降模型可以很好的捕获过程基本特性。沉降过程的质量守恒关系可由式(1)的偏微分方程来描述:
Figure BDA0001810153480000141
其中vs≥0是矿浆向下沉降速率。方程中包含两个未知量矿浆浓度C和沉降速率vs,因此要求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系。
在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量
Figure BDA0001810153480000151
减去z2高度流出的流量
Figure BDA0001810153480000152
再加上间隔内产生的流量,表达式如式(2)所示。
Figure BDA0001810153480000153
其中Qf为进料流量;为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为
Figure BDA0001810153480000154
其中:
其中
Figure BDA0001810153480000155
Figure BDA0001810153480000156
采用分层思想将浓密机内部细分为n层,于是每层的高度为Δz=(B+H)/n。设层与层之间的分界线位置如图2所示,每层分界线的高度可由式(6)计算得到。
z:=iΔz-H,i=0,...N (6)
因此,溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层。在仿真方案中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度。因此,计算区域由n+4个长度为Δz的区间组成,对于一个精确的仿真实施过程这四层是十分必要的。
对于每一层,方程(2)可以重新写为一个精确版本的质量守恒方程如下式:
Figure BDA0001810153480000161
Figure BDA0001810153480000162
Figure BDA0001810153480000163
其中
Figure BDA0001810153480000164
是压缩系数。
由于式(7)的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:
在沉降区,第i=2,...,m-1层:
Figure BDA0001810153480000165
第i=m,进料层:
Figure BDA0001810153480000166
对于底流层:
Figure BDA0001810153480000167
其中Cf是进料浓度;
Figure BDA0001810153480000168
是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式(11)所示。
Figure BDA0001810153480000169
基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,为后续的数据处理带来了很大的方便。同时再忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:
Figure BDA0001810153480000171
步骤1.2:辅助变量选择:辅助变量的选择包括变量类型、变量数目和监测点位置的选择,是建立过程数据模型的第一步,这一步确定了软测量模型的输入信息矩阵,因而直接决定了过程模型的结构和输出,对建模的成功与否至为关键。辅助变量的选择一般是通过机理分析,明确软测量模型的任务,确定主导变量,并在此基础上从影响主导变量的可测变量中挑选主要影响因素。本文机理模型的任务是对浓密洗涤过程的关键变量底流浓度进行预测,从而确定软测量模型的主导变量为底流浓度。对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究。辅助变量如下表1所示:
表1变量表
Figure BDA0001810153480000172
基于RLS参数辨识的机理模型的底流浓度预测
为了进行下一步仿真分析,给出浓密洗涤过程机理模型模型参数,见表2。
表2浓密机机理模型参数
Figure BDA0001810153480000181
RLS优化浓密机机理模型如图8所示:
对建立浓密机机理模型进行参数改进:
Figure BDA0001810153480000191
其中A为浓密机的横截面积,H为澄清区的高度,B为沉降区的深度,Δz=(B+H)/n为每层的高度,Qe为顶层体积流量,Qf为进料流量,Qu底流体积密度,
Figure BDA0001810153480000192
是压缩系数包含矿浆浓度和密度,Gi由式3.24可知,包含沉降速度模型v。
从现场实测的190组数据中随机选择50组数据进行RLS辨识浓密机机理模型参数辨识,辨识后机理模型参数为表3所述:
表3 RLS参数辨识结果
参数 γ<sub>1</sub> γ<sub>2</sub> γ<sub>3</sub> γ<sub>4</sub> γ<sub>5</sub>
辨识结果 0.2327 0.0293 0.2585 0.7427 0.5155
带入辨识后的参数,得到RLS算法辨识后的机理模型为:
Figure BDA0001810153480000193
RLS参数辨识的机理模型预测输出仿真结果如图9:
由图9可知,RLS参数辨识的机理模型预测值与实际值之间仍存在一定的误差,因此需要进一步的修正,使机理模型预测值与实际值更接近。
由图10可知,参数辨识的机理模型虽然对过程的趋势有较好的预测效果,但实际的工业过程往往比较复杂,过程中的某些因素在不断变化,而其变化难以精确描述,导致预测值与实际值之间仍存在较大的偏差,无法适用于工业现场数据的实时监测,因此需要进一步的修正,得到更精确的预测效果。
通过对浓密洗涤过程工艺进行深入分析的基础上,从矿浆沉降原理出发,依据固体通量理论和质量守恒理论建立浓密洗涤过程矿浆浓度分布的机理模型。然后引用流体力学的伯努利原理将现场仪表测得的压力数据转换成适用于机理模型的流速,为后续的数据处理带来了很大的方便。最后采用RLS算法参数辨识机理模型,通过对参数辨识的机理模型进行仿真,找出了影响浓密洗涤过程的主要因素,取得了机理模型测量底流浓度带来的一定的效果,为后续的优化提供了方向。
步骤1.3:数据预处理
在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,通常把这样的数据成为异常值。对于异常值通常可以采用3σ原则进行处理。一般的,对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除。具体实现方法为:
对于测量数据[x1,x2,x3,x4],首先根据公式(12)计算其平均值,再根据式(13)计算标准差的估计值。
Figure BDA0001810153480000211
Figure BDA0001810153480000212
假设对于任意数据点xd,若满足
Figure BDA0001810153480000213
则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除。再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止。
步骤2:基于三层极限学习机(TELM)算法的数据模型建立:
步骤2.1:ELM算法:极限学习机(Extreme Learning Machine,ELM)是针对单隐含层前馈神经网络(single-hidden layer feed-forward neural networks,SLFNs)提出的一种新型的学习算法。它的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数一般都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中去。
图3为ELM神经网络结构图,从图中可以看出ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的。在图中显示的是输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量(例如在分类问题中,有几种类别就有几个神经元节点)。
设输入层与隐含层之间的连接权值矩阵w为:
Figure BDA0001810153480000221
其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值。
设隐含层与输出层间的连接权值β为:
Figure BDA0001810153480000222
其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值。
设隐含层神经元的阈值为:
Figure BDA0001810153480000231
假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q)。
Figure BDA0001810153480000232
隐含层神经元的激活函数为g(x)。则ELM网络的输出T为:
T=[t1 t2 … tQ]m×Q
Figure BDA0001810153480000234
其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T
式(18)也可以表示如下:
Hβ=T' (19)
其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置。
其中H为:
Figure BDA0001810153480000235
为了更好地提高网络的泛化能力,使网络预测输出更加稳定,一般可以在β的求解过程中加入正则化项。而且与ELM中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
Figure BDA0001810153480000241
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
Figure BDA0001810153480000242
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
β=H+T (22)
其中H+是输出矩阵H的Moore-Penrose广义逆。
则求出ELM网络的输出:y=Hβ。
步骤2.2:常见的激活函数以及隐含层节点个数的选择
在人工神经网络中,激活函数异常的重要,选择合适的激活函数对模型的影响也是非常巨大的。有时候,一个合适的激活函数,可以把模型的精确度提高到一个新的档次。由于神经网络处理的数据集可能非线性度比较低,影响模型的训练,因此就需要加入激活函数用以提高模型的非线性。在人工神经网络中,当激活函数为线性函数的时,那么最终输出与输入必然也是线性的关系,这样的话网络中的隐含层就没有体现其隐含层的价值,因此激活函数必然需要非线性的函数来进行表示;同时也可以当线性数据的表达能力较弱时,通过加入激活函数引入非线性因素,提高模型的表达能力。
同理,ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,一个合适的激活函数可以提高模型的精确度和稳定性。激活函数一定要满足一下的条件,非线性、可微性、单调性等特征。
下面本文列出了一些大家在人工神经网络的学习过程中经常会用到的激活函数和其数学表达式:
sigmoid函数:g(x)=1/(1+e-x)
线性函数:g(x)=kx+c
ReLU:g(x)=max(x,0)
正弦函数:g(x)=sin(x)
log函数:g(x)=ln(x)
双曲正切函数:
Figure BDA0001810153480000251
hardlim函数:
Figure BDA0001810153480000252
多项式函数:g(x)=0.1×(ex+x2cos(x2)+x2)
radbas函数:
Figure BDA0001810153480000253
satlin函数:
Figure BDA0001810153480000254
对于一个人工神经网络究竟应该选择多少个隐含层节点数目,至今为止,依然没有定论,大多数学者都是根据自己以往的经验,进行许多组不同的实验,择优选择隐含层节点数目。在本专利中,对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定。在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准。
步骤2.3:三隐含层ELM算法:
三隐含层网络结构的极限学习机(TELM),该结构是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的。同时该TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,通过引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型。该方法可以有效的避免部分隐含层节点失效的情况,通过不同隐含层之间网络参数的逐层优化、传递、最后得到的输出结果更加的接近于实际的结果相较于传统的ELM模型,同时也继承了传统极限学习机泛化能力好的优点。
三隐含层ELM(TELM)流程图4和结构图5:
假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本。且所有的隐含层都具有相同的隐含层节点数目。根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层(两个隐含层分别表示:第一个隐含层独立代表一个隐含层,后面两个隐含层看作为一个隐含层),且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵。由ELM算法可以得知,第三个隐含层的期望输出为:
H3*=Tβnew + (23)
其中,
Figure BDA0001810153480000271
是βnew的广义逆矩阵。
现在,则要把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:
H3=g(W2H2+B2) (24)
其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵。
为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*
现在我们假设矩阵WHE1=[B2 W2],因此第三个隐含层的权值W2和阈值B2可以求解得:
WHE1=g-1(H3*)HE1 + (25)
其中,
Figure BDA0001810153480000272
是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数。
当以上隐含层的参数全部求解过后,我们可以更新第三个隐含层的预测输出H4
H4=g(W2H2+B2)=g(WHE1HE1) (26)
为了更好地提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,一般可以再βnew的更新求解过程中加入正则化项。而且与TELM算法中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
Figure BDA0001810153480000281
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
Figure BDA0001810153480000282
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
βnew1=H4 +T (29)
则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:
f(x)=H4βnew1 (30)
步骤2.4:数据模型的建立:
数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式。数据建模不要求知道对象的工艺过程以及复杂的实际构造,避免了复杂机理的分析,只需确定模型的输入输出,求解模型相对比较方便。
将从工业现场采集的数据进行处理后,从190组数据中随机选取140组作为训练集,另外50组数据作为测试集,通过TELM算法仿真出数据模型的输出误差和结果。
从图11可以看出,简单的通过数据模型产生的预测值误差与实际值仍然存在一定的偏差,达不到工业现场实际测量的需求,需要对数据模型的结构进行优化和提高。
图12显示的是数据模型的预测值与实际值的比较,可以发现数据模型的预测输出与实际值拟合的效果也存在一定的偏差。正由于数据模型只依赖于过程数据,信息来源单一,不能反映过程特性,数据模型的结构具有很大的主观性,造成推广性差,并且模型不具有解释性,容易造成过拟合现象,预测输出的不准确性。
通过对工艺现场采集的数据经过预处理后,选取数据进行数据模型的训练和测试,通过仿真分析可知,数据模型的建立虽然避免了复杂机理的分析,只需确定模型的输入输出变量,求解模型非常方便。但由于只依赖过程数据,数据来源单一,仿真结果与实际仍存在一定的偏差,不能满足工业现场的测量需求,但为接下来的混合模型的建立与优化提供了明确的方向。
步骤3:机理模型与数据补偿模型建立混合模型:
机理建模的优点是反映过程的规律,可靠性高,外推性好,具有可解释性,缺点是建模过程比较繁琐,依赖于先验知识,对于一些复杂过程而言,需要通过合理假设得到被控过程的简化机理模型,然而简化后的机理模型的精度不能得到保证。数据建模的优点是可以根据过程的输入输出数据直接建立过程模型,无需过程对象的先验知识,避免了复杂机理的分析,缺点是模型推广性能差、不具有可解释性、容易造成过拟合现象,甚至可能将噪声也拟合进来,造成模型的不稳定。综上所述,单独使用机理模型或是单独使用数据模型在建模过程中都有很大的弊端。因此,本文提出了一种将机理建模和基于数据驱动的建模相结合的方法,使得机理模型和数据模型可以互为补充。
数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,如图6所示。该模型以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系。将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型。将机理模型与补偿器的预测值相加作为模型的预估值。从而实现用EDO-TELM来逼近实际系统和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度。
浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:
Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4) (35)
式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值。
整体分布优化算法介绍:粒子群(PSO)算法作为一种有效的优化算法,已经在智能优化算法中得到了广泛应用。整体分布优化算法(EDO)是一种衍生于PSO算法的新优化算法,是在总结PSO算法的种群分布规律的基础上提出来的。与PSO算法比较,具有实现简单、收敛速度快、鲁棒性强等特点。具体的计算过程如图7所示:
步骤3.1:整体分布优化算法优化三层极限学习机:
ELM与EDO算法是两种机制不同的优化算法,它们表现出不同的优化特性并适用于不同的优化问题。但这两种优化方法都是通过模拟或揭示自然界中的某些现象或过程发展起来的,因此二者之间必然存在某种共性,从而有可能将二者结合起来,融合二者的长处构建更为有效的优化方法。
在整体分布优化算法优化三层极限学习机(EDO-TELM)的过程中,EDO算法中每个粒子的位置向量对应极限学习机的输入权重和偏置向量,粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好。粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量。
本文利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:
步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;
步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍。柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;
步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度。
判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;
步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变。迭代次数减1。
步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;
步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。
选取现场实测输入变量x1,x2,x3,x4(即Qe,Qf,Qu,v)进行机理模型、数据模型以及混合模型的预测输出比较,预测结果是底流浓度,比较的是预测值与实际值的误差和误差率。以下三张表是选取实验结果的部分数据的数值比较。
表4机理模型预测输出与实际值比较
实际值 783 796 619 615 568 576 633 666 678 646 568 547 666 564
预测值 823.6 841.9 654.2 650.8 613.3 616.6 689.6 733.5 712.3 690.1 613.3 584.5 733.5 615.1
误差 40.6 45.9 35.2 35.8 45.3 40.6 56.6 67.5 34.3 44.1 45.3 37.5 67.5 51.1
误差率 0.052 0.058 0.057 0.058 0.08 0.071 0.089 0.101 0.051 0.068 0.074 0.064 0.092 0.083
表5数据模型预测输出与实际值比较
实际值 783 796 619 615 568 576 633 666 678 646 568 547 666 564
预测值 823.6 841.9 654.2 650.8 613.3 616.6 689.6 733.5 712.3 690.1 613.3 584.5 733.5 615.1
误差 40.6 45.9 35.2 35.8 45.3 40.6 56.6 67.5 34.3 44.1 45.3 37.5 67.5 51.1
误差率 0.052 0.058 0.057 0.058 0.08 0.071 0.089 0.101 0.051 0.068 0.074 0.064 0.092 0.083
表6混合模型预测输出与实际值比较
Figure BDA0001810153480000331
Figure BDA0001810153480000341
结果分析:表4,表5,表6分别是部分机理模型预测值与实际值的误差及误差率,数据模型预测值与实际值的误差及误差率,混合模型预测值与实际值的误差及误差率。由表3可知,通过参数辨识后的机理模型预测值与实际值的误差较大,最大误差率达到10%及以上,进一步说明纯机理模型不适合复杂的工业过程,需要与其他建模方法相结合。由表4可知,数据模型的预测误差率也比较大,无法适应工业现场测量需求。而表5数据显示表明,通过基于数据补偿模型的机理模型混合建模后,混合模型的预测值与实际值接近,误差率在5%左右,比机理模型的预测输出准确率提高了5个百分点,适合复杂的工业现场测量需求。进一步证明将机理模型和基于数据驱动的建模方法相结合的方法是正确的。
为了验证建立的混合模型的预测效果,运用机理模型生成的190数据,其中140组为训练样本,50组为测试样本,仿真结果如图13所示:
图13是混合模型对底流浓度预测误差的仿真结果,容易发现混合模型的底流浓度度的测量误差在2%以下,明显的提高了浓密机底流浓度的测量精度。分析比较可知,混合模型的测量误差比机理模型和单一的数据模型的测量误差显著的降低了。
图14是混合模型浓密机底流浓度预测与实际值的比较,从仿真结果可知,混合模型的预测输出与实际值非常接近。可以看出混合模型能够补偿机理模型的偏差,预测效果更好,精度更高,能够达到复杂的工业过程测量的要求。
为了解决实际浓密洗涤过程中底流浓度的预测问题,本专利提出利用并行混合建模的方法建立浓密洗涤过程的软测量模型,该模型由优化的机理模型与数据补偿模型共同组成。浓密过程优化的机理模型用以描述浓密洗涤过程的整体趋势,降低模型的运算量;补偿模型用以补偿机理模型的预测误差。考虑到浓密洗涤过程的非线性特性,对机理模型进行了参数辨识,以此提高机理模型建模的准确性,数据补偿模型采用改进的EDO-TELM算法。在优化机理模型的基础上,分别对机理模型和混合模型的预测输出进行了仿真分析,仿真结果表明与机理模型和数据模型相比,混合模型的预测效果更好,提高了模型的预测精度。

Claims (1)

1.一种基于混合模型的浓密机底流浓度预测方法,其特征在于,包括以下步骤:
步骤1:机理建模
步骤1.1机理模型的建立
由于浓密过程是基于重力沉降作用的,则矿浆浓度是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中设置z轴竖直向下为正方向,t为浓密过程时间,进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,通过一维沉降模型捕获过程基本特性,沉降过程的质量守恒关系由偏微分方程来描述:
Figure FDA0003276188200000011
其中vs≥0是矿浆向下沉降速率,方程中包含两个未知量矿浆浓度C和沉降速率vs,因此求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系;
在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量
Figure FDA0003276188200000012
减去z2高度流出的流量
Figure FDA0003276188200000013
再加上间隔内产生的流量,表达式为:
Figure FDA0003276188200000014
其中Qf为进料流量;A为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为其中:
Figure FDA0003276188200000015
其中:
Figure FDA0003276188200000016
Figure FDA0003276188200000017
采用分层思想将浓密机内部细分为n层,则每层的高度为Δz=(B+H)/n,设层与层之间的分界线,每层分界线的高度通过计算得到,公式为:
z:=iΔz-H,i=0,...N
则溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层;在仿真系统中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度;因此,计算区域由n+4个长度为Δz的区间组成,确保精确;
对于每一层,可以重新写一个精确版本的质量守恒方程如下式:
Figure FDA0003276188200000021
Figure FDA0003276188200000022
Figure FDA0003276188200000023
其中
Figure FDA0003276188200000024
是压缩系数;
由于精确版本的质量守恒方程的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:
在沉降区,第i=2,...,m-1层:
Figure FDA0003276188200000025
第i=m,进料层:
Figure FDA0003276188200000026
对于底流层:
Figure FDA0003276188200000027
其中Cf是进料浓度;
Figure FDA0003276188200000028
是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式所示;
Figure FDA0003276188200000029
基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,同时忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:
Figure FDA00032761882000000210
步骤1.2:辅助变量选择:对浓密洗涤过程的关键变量底流浓度进行预测,确定软测量模型的主导变量为底流浓度,对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究;步骤1.3.数据预处理:在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,把这样的数据称为异常值,对于异常值采用3σ原则进行处理;对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除,实现方法为:
对于测量数据[x1,x2,x3,x4],首先根据公式计算其平均值,再根据式计算标准差的估计值:
Figure FDA0003276188200000031
Figure FDA0003276188200000032
假设对于任意数据点xd,若满足
Figure FDA0003276188200000033
则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除;再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止;
步骤2:基于三层极限学习机算法的数据模型建立:
步骤2.1:ELM算法:极限学习机的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中;
ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的,输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量;
设输入层与隐含层之间的连接权值矩阵w为:
Figure FDA0003276188200000034
其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值;
设隐含层与输出层间的连接权值β为:
Figure FDA0003276188200000035
其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值;
设隐含层神经元的阈值为:
Figure FDA0003276188200000041
假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q);
Figure FDA0003276188200000042
隐含层神经元的激活函数为g(x),则ELM网络的输出T为:
T=[t1 t2 … tQ]m×Q
Figure FDA0003276188200000043
其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T
上式也可以表示如下:
Hβ=T'
其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置;
其中H为:
Figure FDA0003276188200000044
提高网络的泛化能力,使网络预测输出更加稳定,在β的求解过程中加入正则化项,而且与ELM中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
Figure FDA0003276188200000045
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
Figure FDA0003276188200000046
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
β=H+T
其中H+是输出矩阵H的Moore-Penrose广义逆;
则求出ELM网络的输出:y=Hβ;
步骤2.2:常见的激活函数以及隐含层节点个数的选择:
ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,合适的激活函数可以提高模型的精确度和稳定性;
对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定;在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准;
步骤2.3:三隐含层ELM算法:三隐含层网络结构的极限学习机,是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的;同时TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型;其中,TELM网络算法表示三隐含层ELM算法;
假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本;且所有的隐含层都具有相同的隐含层节点数目;根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层,且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵,由ELM算法可以得知,第三个隐含层的期望输出为:
H3*=Tβnew +
其中,
Figure FDA0003276188200000051
是βnew的广义逆矩阵;
把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:
H3=g(W2H2+B2)
其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵;
为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*
假设矩阵WHE1=[B2 W2],第三个隐含层的权值W2和阈值B2可以求解得:
WHE1=g-1(H3*)HE1 +
其中,
Figure FDA0003276188200000052
是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数;
当以上隐含层的参数全部求解过后,更新第三个隐含层的预测输出H4
H4=g(W2H2+B2)=g(WHE1HE1)
提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,在βnew的更新求解过程中加入正则化项;而且与TELM算法中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
Figure FDA0003276188200000053
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
Figure FDA0003276188200000061
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
βnew1=H4 +T
则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:
f(x)=H4βnew1
步骤2.4数据模型的建立:
数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式;
步骤3:机理模型与数据补偿模型建立混合模型:
数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系;将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型;将机理模型与补偿器的预测值相加作为模型的预估值;实现用EDO-TELM来逼近实际系统和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度;
浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:
Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4)
式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值;
步骤3.1:整体分布优化算法优化三层极限学习机:
在整体分布优化算法优化三层极限学习EDEDO-TELM的位置向量对应极限学习机的输入权重和偏置向粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好;粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量;
利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:
步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;
步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍;柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;
步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度;
判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;
步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变;迭代次数减1;
步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;
步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。
CN201811114507.4A 2018-09-25 2018-09-25 一种基于混合模型的浓密机底流浓度预测方法 Active CN109242194B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811114507.4A CN109242194B (zh) 2018-09-25 2018-09-25 一种基于混合模型的浓密机底流浓度预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811114507.4A CN109242194B (zh) 2018-09-25 2018-09-25 一种基于混合模型的浓密机底流浓度预测方法

Publications (2)

Publication Number Publication Date
CN109242194A CN109242194A (zh) 2019-01-18
CN109242194B true CN109242194B (zh) 2022-01-14

Family

ID=65056093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811114507.4A Active CN109242194B (zh) 2018-09-25 2018-09-25 一种基于混合模型的浓密机底流浓度预测方法

Country Status (1)

Country Link
CN (1) CN109242194B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709998A (zh) * 2019-03-18 2020-09-25 长春工业大学 一种tof相机深度数据测量误差校正的elm空间配准模型方法
CN109933031B (zh) * 2019-03-26 2021-08-31 沈阳铝镁设计研究院有限公司 一种根据化验数据自动校正软测量仪表的系统及方法
CN110095995A (zh) * 2019-04-16 2019-08-06 杭州坤天自动化系统有限公司 基于工业大数据和机理混合建模的仿真方法及装置
CN110196358B (zh) * 2019-06-11 2021-08-10 东华大学 基于极限学习机的混纺型金属纤维织物屏蔽效能预测方法
CN110276128B (zh) * 2019-06-21 2023-04-07 东北大学 一种基于dajypls算法的浓密机底流浓度预测方法
CN110334452B (zh) * 2019-07-09 2021-03-16 中南大学 一种智慧农业大气污染物浓度分层次预警方法
CN110837886A (zh) * 2019-10-28 2020-02-25 北京工业大学 一种基于elm-sl0神经网络的出水nh4-n软测量方法
CN112445136B (zh) * 2020-12-16 2022-02-22 北京科技大学 一种基于连续时间神经网络的浓密机预测控制方法及系统
CN114110939B (zh) * 2021-09-13 2022-10-11 上海交通大学 一种便携式集中空调系统综合性能及健康评估装置
CN117193025B (zh) * 2023-11-07 2024-02-02 矿冶科技集团有限公司 加药机控制方法、装置、电子设备及存储介质
CN117852418B (zh) * 2024-03-07 2024-05-14 中国科学院地理科学与资源研究所 基于地理集成机器学习的海洋中深层流速数据重构方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105092509B (zh) * 2015-08-20 2017-09-22 东北大学 一种基于pcr‑elm算法的样品成份测定方法
JP2020506961A (ja) * 2017-01-24 2020-03-05 フラグシップ パイオニアリング イノベーションズ ブイ,インコーポレーテッド 農業のための組成物及び関連する方法
CN108490154A (zh) * 2018-03-05 2018-09-04 沈阳工程学院 基于主成分分析与在线极限学习机的混合选别系统的精矿品位软测量方法及系统

Also Published As

Publication number Publication date
CN109242194A (zh) 2019-01-18

Similar Documents

Publication Publication Date Title
CN109242194B (zh) 一种基于混合模型的浓密机底流浓度预测方法
CN111079906B (zh) 基于长短时记忆网络的水泥成品比表面积预测方法及系统
CN104537415B (zh) 一种基于压缩感知和dros‑elm的非线性过程工业故障预测及识别方法
CN108595803B (zh) 基于递归神经网络的页岩气井生产压力预测方法
CN108536979B (zh) 一种基于浓密机机理模型的底流浓度预测方法
CN102004444A (zh) 稀土萃取过程组分含量多模型预测控制方法
CN111340110A (zh) 一种基于工业过程运行状态趋势分析的故障预警方法
CN114862267A (zh) 一种输油气管道报警管理体系的评价方法及系统
CN113607601B (zh) 基于辨识模型与深度学习相结合的矿浆浓度智能检测方法
CN111047476A (zh) 基于rbf神经网络的大坝结构安全监控精确预测方法及系统
CN101285816A (zh) 铜锍吹炼的过程参数软测量仪表及其软测量方法
CN114330089B (zh) 一种稀土元素含量变化预测方法及系统
CN115034140A (zh) 一种基于关键控制因子的地表水水质变化趋势预测方法
Premier et al. A comparison of the ability of black box and neural network models of ARX structure to represent a fluidized bed anaerobic digestion process
CN112990601B (zh) 基于数据挖掘的蜗轮加工精度自愈系统及方法
Xing-yu et al. Autoencoder-based fault diagnosis for grinding system
CN111062118B (zh) 一种基于神经网络预测分层的多层软测量建模系统及方法
Chi et al. Calculation method of probability integration method parameters based on MIV-GP-BP model
Juuso et al. Intelligent analysers and dynamic simulation in a biological water treatment process
Tie et al. A hybrid intelligent soft-sensor model for dynamic particle size estimation in grinding circuits
Kulakova et al. Comparison of intelligent control methods for the ore jigging process
CN116562094B (zh) 一种基于pinn模型的auv编队流场预测方法
Ujević Optimizing configurable parameters of model structure using genetic algorithms
CN113609772B (zh) 基于卷积准循环神经网络的水泥成品比表面积预测方法
CN113222324B (zh) 一种基于pls-pso-rbf神经网络模型的污水质量监测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant