CN107944607A - 一种基于时间序列的抽油井停井时间集成预测方法 - Google Patents

一种基于时间序列的抽油井停井时间集成预测方法 Download PDF

Info

Publication number
CN107944607A
CN107944607A CN201711121615.XA CN201711121615A CN107944607A CN 107944607 A CN107944607 A CN 107944607A CN 201711121615 A CN201711121615 A CN 201711121615A CN 107944607 A CN107944607 A CN 107944607A
Authority
CN
China
Prior art keywords
mrow
msub
esn
msubsup
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711121615.XA
Other languages
English (en)
Other versions
CN107944607B (zh
Inventor
李琨
韩莹
张志强
张爱华
于震
宿文肃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bohai University
Original Assignee
Bohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bohai University filed Critical Bohai University
Priority to CN201711121615.XA priority Critical patent/CN107944607B/zh
Publication of CN107944607A publication Critical patent/CN107944607A/zh
Application granted granted Critical
Publication of CN107944607B publication Critical patent/CN107944607B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Development Economics (AREA)
  • Biomedical Technology (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Primary Health Care (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明属于石油技术领域,具体提供了一种基于时间序列的抽油井停井时间集成预测方法,包括如下步骤:1)利用历史抽油井停井时间数据集;2)将抽油井停井时间数据集{xi}进行相空间重构,得到时间序列模型;3)采用集成预测方法,即分别由基于ELM方法、ESN方法和LSSVM方法以并行的方式同时对抽油井停井时间的时间序列模型进行预测;4)对于抽油井停井时间的时间序列,由三种方法所得到的预测值求平均值,得到最终结果。本发明所提出的方法,可以降低油藏条件变化、人力干扰等对抽油井生产过程的影响,原理简单,计算复杂性低,准确度高,可以有效降低模型参数不确定性对预测结果的影响。

Description

一种基于时间序列的抽油井停井时间集成预测方法
技术领域
本发明属于石油生产技术领域,具体涉及一种基于时间序列的抽油井停井时间集成预测方法。
背景技术
间歇性采油方式是保证抽油井产量稳定和降低系统能耗的有效手段,但抽油井停井时间的控制,只有使抽油井的井下油液面在合理的停井时间内恢复正常,才能使间歇生产的效率最大化。
目前,抽油井的停井时间控制主要包括以下几种方式:(1)人工间抽方法,对所抽出油液进行人工取样分析,判断是否启停井;(2)限时间抽方法,由人工控制,采用固定的停井时间;(3)井下动液面监测方法,定时测量井下动液面,控制停井时间。
以上方式各存在一定缺陷,方式(1)科学性低且具有一定的随机性;方式(2)由于不区分每口井的实际工况,科学性较低;方式(3)由于每次测量都需要停井操作,生产成本较高。
发明内容
本发明的目的是克服现有技术的缺陷,提供一种基于时间序列的抽油井停井时间集成预测方法,能够解决抽油井停井时间的预测问题,可以由已有的过去一段时期的抽油井停井时间数据预测下一个时间点的抽油井停井时间。
为此,本发明提供了一种基于时间序列的抽油井停井时间集成预测方法,包括如下步骤:
1)利用历史抽油井停井时间数据集为{xi,i=1,2,...,n},n为数据点的个数;
2)将抽油井停井时间数据集{xi}进行相空间重构,得到时间序列模型,输入表示为:Xt=[xt,xt+τ,…,xt+(m-1)τ],其中,t=1,2,...,M,m为嵌入维数,τ为延迟时间,M=n-(m-1)τ,n为数据集中数据的个数;将每个时间序列的输出表示为:Yt=xt+1+(m-1)τ
3)采用集成预测方法,即分别由基于极限学习机(Extreme Learning Machine,ELM)的方法即ELM方法、基于回声状态网络(Echo State Network,ESN)的方法即ESN方法和基于最小二乘支持向量机(Least Squares Support Vector Machine,LSSVM)的方法即LSSVM方法,以并行的方式同时对抽油井停井时间的时间序列模型进行预测;
4)对于抽油井停井时间的时间序列,由三种方法所得到的预测值求平均值,得到最终结果;计算公式如下:
其中,表示由ELM方法得到的预测值;表示由ESN方法得到的预测值;表示由LSSVM方法得到的预测值。
进一步地,根据ELM方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt;ELM方法的基本原理如下:
设有W个训练样本其中uq为输入向量,vq为输出向量;设定包含L个隐含层,激活函数为f(·)以及模型的训练输出表示为Q=[g1,g2,…,gq]T,那么ELM模型可以由如下方程组进行描述:
其中,βlq为第l个隐含层神经元与第q个输出神经元之间的连接权值;ωl为隐含层神经元与输入神经元之间的连接权值;bl为第l个隐含层神经元的偏置;
如果训练模型能以零误差逼近W个训练样本,即有那么对于式(1)有下式成立,
那么ELM模型的数学描述可以改写成如下矩阵形式:
Hβ=V (3)
式(3)中,有:
H为隐含层输出矩阵,ω和b在初始化时已随机给定;那么,ELM模型的训练可以转化成一个求解非线性方程最小值的问题,即:
输出权值矩阵β*可以由下式求出,
β*=H+V (6)
其中,H+为隐含层输出矩阵H的Moore-Penrose广义逆;
那么,ELM的训练过程可以归纳为如下最优化问题:
其中,G(·)表示由ω和b所决定的函数,G(ω,b)表示当ω和b分别取不同值时的函数输出值;
对于激活函数f(·)的选择,采用高斯函数,定义如下:
其中,z表示输入向量,σ2为高斯函数的宽度参数。
进一步地,所述基于ELM方法建立时间序列模型的计算步骤如下:
初始化,随机生成隐含层输入权值ω,隐含层神经元的偏置b,高斯函数的宽度参数σ2
根据公式(4)计算隐含层输出矩阵H;
根据公式(6)计算输出权值矩阵β*
根据公式(7)计算函数输出值。
进一步地,由ELM方法建立时间序列模型的过程中,m、τ、ω、b和σ2的取值决定了ELM模型的计算精度,采用一种改进的果蝇优化算法(IFOA,Improved Fruit OptimizationAlgorithm)对m、τ、ω、b和σ2的取值进行优化选取;果蝇优化算法的数学描述如下:
(1)设定果蝇群体的位置区间[plow,pup],在位置区间内随机给定每个果蝇的初始位置Axis_xi和Axis_yi如下:
Axis_xi=plow+rand1·(pup-plow) (9)
Axis_yi=plow+rand2·(pup-plow) (10)
其中,i=1,2,...,sizepop,sizepop为果蝇群体中果蝇的个数;rand1和rand2分别为[0,1]区间内的随机数;
(2)果蝇个体利用嗅觉搜寻食物,每个个体的位置更新公式如下:
其中,Axis_Xi和AxisYi表示第i个果蝇个体移动后的位置坐标;BestAxis_x和BestAxis_y表示当前最优个体的位置坐标;Ite和Itemax分别表示当前迭代次数和最大迭代次数;rand3和rand4分别为[-1,1]区间内的随机数;rand5为[0,1]区间内的随机数;
(3)计算果蝇个体与原点的距离,如下:
(4)计算味道浓度判定值,如下:
(5)由果蝇个体的味道浓度判定值计算每个果蝇个体的味道浓度值,如下:
Smellt=fitness(St) (15)
其中,fitness为适应度函数,用以评价待优化参数的取值;
(6)找到果蝇群体中的最优个体,如下:
[bestSmell bestIndex]=min/max(Smell) (16)
其中,bestSmell表示最优的味道浓度值,bestIndex表示最优味道浓度值对应的果蝇个体的序号;min/max表示最小或最大。
进一步地,所述果蝇优化算法的计算步骤如下:
步骤(1)、产生初始的与待优化参数数量相同的果蝇群体,根据待优化参数的取值范围设定每个果蝇群体的位置区间[plow,pup],根据公式(9)和(10)得到每个果蝇群体中每个果蝇的初始位置;
步骤(2)、根据公式(13)和(14)分别计算每个果蝇群体中每个果蝇个体的味道浓度判定值;
步骤(3)、根据公式(15)分别计算每个果蝇群体中每个果蝇个体的味道浓度值;
步骤(4)、根据公式(16)找到每个果蝇群体中的最优果蝇个体,并记录它们的位置[BestAxis_x,BestAxis_y],定义变量Pop_local记录每一次迭代中每个果蝇群体中的最优果蝇个体的位置,定义变量Pop_global记录所有次迭代中每个果蝇群体中的最优果蝇个体的位置;
步骤(5)、根据公式(11)和(12)更新每个果蝇群体中每个果蝇的位置,重复步骤(2)到步骤(4);
步骤(6)、如果达到最大迭代次数,停止迭代,分别输出Pop_local和Pop_global中的果蝇个体的位置,并输出其味道浓度判定值;否则返回步骤(5)重新迭代。
进一步地,对于建立的抽油井停井时间的时间序列模型,在采用ELM方法建立模型的同时,由果蝇优化算法对ELM计算过程中所涉及的m、τ、ω、b和σ2进行优化选取,计算步骤如下:
步骤3.1.1初始化,产生初始5个果蝇群体,分别指派给m、τ、ω、b和σ2,设定m、τ、ω、b和σ2的取值范围;
步骤3.1.2将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.1.3对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、ω、b和σ2
步骤3.1.4对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和ELM模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
进一步地,根据回声状态网络(ESN)方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt,ESN方法的基本原理如下:
ESN模型可以表示为:
其中,u(t)、x(t)和y(t)分别为输入单元、内部状态单元和输出单元在时刻t的值;Mesn、Nesn和Kesn分别为输入单元、内部状态单元和输出单元的数量;
ESN模型的学习方式可以由如下公式进行描述:
其中,xesn(t+1)和yesn(t+1)分别为内部状态单元和输出单元在时刻t+1的值;f(·)和fout(·)分别为内部单元和输出单元的激活函数:为输入层到内部单元的连接权值矩阵;为内部单元的连接权值矩阵;为输出层反馈到内部单元的连接权值矩阵;为内部单元到输出层的连接权值矩阵;
由如下公式进行计算:
其中,yesn(t)为模型期望输出,yesn(t)为模型实际输出;wout为权值,是的元素;
ESN模型的求解可以转化为如下的优化求解问题:
其中,Pesn和mesn分别表示时间点;
可以归结为如下矩阵求逆问题:
其中,Besn构成的矩阵;Lesn构成的列矩阵。
进一步地,由ESN方法建立时间序列模型的过程中,ESN模型中有6个参数决定了模型的计算精度,分别为:m、τ、连接权值矩阵Wesn的绝对值最大的特征值SResn、Nesn、输入与内部单元相互连接的尺度因子ISesn和内部单元中相互连接的单元数与总单元数的比值SDesn;采用果蝇优化算法对m、τ、SResn、Nesn、ISesn和SDesn的取值进行优化选取;对于建立的抽油井停井时间的时间序列模型,在采用ESN方法建立模型的同时,由果蝇优化算法对ESN计算过程中所涉及的m、τ、SResn、Nesn、ISesn和SDesn进行优化选取,计算步骤如下:
步骤3.2.1初始化,产生初始6个果蝇群体,分别指派给m、τ、SResn、Nesn、ISesn和SDesn,设定m、τ、SResn、Nesn、ISesn和SDesn的取值范围;
步骤3.2.2将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.2.3对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、SResn、Nesn、ISesn和SDesn
步骤3.2.4对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和ESN模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
进一步地,根据最小二乘支持向量机(LSSVM)方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt;LSSVM方法的基本原理如下:
给定数据集{(xi,yi)},其中:i=1,2,...,Llssvm,Llssvm为数据集中样本的数量,x和y分别表示输入向量和输出向量。LSSVM方法采用如下函数进行计算:
其中,Φ(·)为非线性映射函数,ωlssvm为高维空间的向量,blssvm为实数;
根据结构风险最小化原则,构造如下优化问题:
其中,J(·)为优化函数,γ为折衷因子,elssvm为松弛因子;
建立拉格朗日等式,将公式(23)所描述的约束优化问题转化为无约束优化问题,如下:
其中,ψ(·)为拉格朗日函数,αlssvm为拉格朗日因子;。
进行如下所示计算:
定义核函数Ω(·)如下:
Ω(xi,xj)=ΦT(xi)·Φ(xj) (26)
由公式(25)和(26)可以得到:
由最小二乘法求解公式(27),得到如下结果:
对于核函数Ω(·),本发明专利采用高斯函数,定义如下:
其中,zlssvm表示输入向量,为宽度参数。
进一步地,由LSSVM方法建立时间序列模型的过程中,LSSVM模型中有4个参数决定了模型的计算精度,分别为:m、τ、γ和采用果蝇优化算法对m、τ、γ和的取值进行优化选取;对于建立的抽油井停井时间的时间序列模型,在采用LSSVM方法建立模型的同时,由果蝇优化算法对LSSVM计算过程中所涉及的m、τ、γ和进行优化选取,计算步骤如下:
步骤3.3.1初始化,产生初始4个果蝇群体,分别指派给m、τ、γ和设定m、τ、γ和的取值范围;
步骤3.3.2将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.3.3对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、γ和
步骤3.3.4对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和LSSVM模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
进一步地,所采用的集成预测方法,其中所涉及的三种方法为并行计算方式,当预测开始时,三种方法同时启动运行。
进一步地,隐含层数量L的取值一般为30-60个。
进一步地,果蝇优化算法中的最大迭代次数一般取300次。
进一步地,果蝇优化算法中的果蝇群体中果蝇的个数一般取20-30个;所述m、τ、ω、b、σ2、SResn、Nesn、ISesn、SDesn、γ和的取值范围分别为:m∈[1,30],τ∈[1,10],ω∈[0,1],b∈[0,10],σ2∈[0.01,1000],SResn∈[0.1,1),Nesn∈[10,150),ISesn∈[0.01,1),SDesn∈[0.01,1),γ∈[0.01,1000],
本发明的有益效果:本发明所提出的一种基于时间序列的抽油井停井时间集成预测方法,通过过去一段时间生产工况的变化规律预测未来时间点的值,从数据本身的特性找到其变化趋势,可以降低油藏条件变化、人力干扰等对抽油井生产过程的影响,对油田企业进行高效、稳定的生产具有一定的实际意义;原理简单,计算复杂性低,准确度高;采用三种方法进行预测,将预测值取平均值,可以有效提高预测的稳定性;采用群智能优化方法合理选取模型参数,可以有效降低模型参数不确定性对预测结果的影响。
附图说明
图1是本实施例所提供抽油井停井时间数据集示意图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明。
实施例:
抽油井是国内外油田生产中的主要生产方式,井下油液被提出井口后,如果地层压力不够,井下液面无法及时恢复平衡,井下供液不足使得井口不能连续正常出液,造成采油设备部分时间内在无功状态下运行,会加剧抽油杆、抽油泵、井筒等设备的磨损,产生能耗高、效率低的问题。间歇性采油方式是保证抽油井产量稳定和降低系统能耗的有效手段,关键问题是对停井时间的准确控制。对停井时间进行准确预测,对合理评价油井生产状况、及时调整抽汲参数和开采方案等都具有重要的意义。
本实施例提供一种基于时间序列的抽油井停井时间集成预测方法,包括如下步骤:
1)利用历史抽油井停井时间数据集为{xi,i=1,2,...,182},单位为小时,数据集{xi}如图1所示;
2)将抽油井停井时间数据集进行相空间重构,得到抽油井停井时间的时间序列模型,输入表示为:Xt=[xt,xt+τ,…,xt+(m-1)τ],其中,t=1,2,...,M,m为嵌入维数,τ为延迟时间,M=182-(m-1)τ;输出表示为:Yt=xt+1+(m-1)τ
3)采用集成预测方法,即分别由基于极限学习机(Extreme Learning Machine,ELM)的方法即ELM方法、基于回声状态网络(Echo State Network,ESN)的方法即ESN方法和基于最小二乘支持向量机(Least Squares Support Vector Machine,LSSVM)的方法即LSSVM方法以并行的方式同时对抽油井停井时间的时间序列模型进行预测;
在本实施例中,根据极限学习机(ELM)方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt。ELM方法的基本原理如下:
设有W个训练样本其中uq为输入向量,vq为输出向量。设定包含50个隐含层,激活函数为f(·)以及模型的训练输出表示为Q=[g1,g2,…,gq]T,那么ELM模型可以由如下方程组进行描述:
其中,βlq为第l个隐含层神经元与第q个输出神经元之间的连接权值;ωl为隐含层神经元与输入神经元之间的连接权值;bl为第l个隐含层神经元的偏置。
如果训练模型能以零误差逼近W个训练样本,即有那么对于式(1)有下式成立,
那么ELM模型的数学描述可以改写成如下矩阵形式:
Hβ=V (3)
式(3)中,有:
H为隐含层输出矩阵,ω和b在初始化时已随机给定。那么,ELM模型的训练可以转化成一个求解非线性方程最小值的问题,即:
输出权值矩阵β*可以由下式求出,
β*=H+V (6)
其中,H+为隐含层输出矩阵H的Moore-Penrose广义逆。
那么,ELM的训练过程可以归纳为如下最优化问题:
其中,G(·)表示由ω和b所决定的函数,G(ω,b)表示当ω和b分别取不同值时的函数输出值。ELM训练的目的就是找到最优的β*,使模型的训练输出值gq和真实值vq之间的误差最小。
对于激活函数f(·)的选择,本发明专利采用高斯函数,定义如下:
其中,z表示输入向量,σ2为高斯函数的宽度参数。
ELM的计算步骤如下:
初始化,随机生成隐含层输入权值ω,隐含层神经元的偏置b,高斯函数的宽度参数σ2
根据公式(4)计算隐含层输出矩阵H;
根据公式(6)计算输出权值矩阵β*
根据公式(7)计算函数输出值;
在本实施例中,由ELM方法建立时间序列模型的过程中,m、τ、ω、b和σ2的取值决定了ELM模型的计算精度,本实施例采用一种改进的果蝇优化算法(IFOA,Improved FruitOptimization Algorithm)对m、τ、ω、b和σ2的取值进行优化选取。IFOA算法的数学描述如下:
(1)设定果蝇群体的位置区间[plow,pup],在位置区间内随机给定每个果蝇的初始位置Axis_xi和Axis_yi如下:
Axis_xi=plow+rand1·(pup-plow) (9)
Axis_yi=plow+rand2·(pup-plow) (10)
其中,设定果蝇群体中果蝇的个数为30,有:i=1,2,...,30;rand1和rand2分别为[0,1]区间内的随机数。
(2)果蝇个体利用嗅觉搜寻食物,每个个体的位置更新公式如下:
其中,Axis_Xi和Axis_Yi表示第i个果蝇个体移动后的位置坐标;BestAxis_x和BestAxis_y表示当前最优个体的位置坐标;Ite和Itemax分别表示当前迭代次数和最大迭代次数,Itemax=300;rand3和rand4分别为[-1,1]区间内的随机数;rand5为[0,1]区间内的随机数。
(3)计算果蝇个体与原点的距离,如下:
(4)计算味道浓度判定值,如下:
(5)由不同果蝇群体中果蝇个体的味道浓度判定值计算每个果蝇个体的味道浓度值(适应度函数值),如下:
其中,为第Num个果蝇群体中第i个果蝇个体的味道浓度判定值,Num为果蝇群体的数量;yi表示第i个数据的实际输出值,表示第i个数据的模型预测值。
(6)找到果蝇群体中的最优个体,如下:
[bestSmell bestIndex]=min(Smell) (16)
其中,bestSmell表示最优的味道浓度值,bestIndex表示最优味道浓度值对应的果蝇个体的序号。
IFOA的计算步骤如下:
步骤(1)产生初始的与待优化参数数量相同的果蝇群体,根据待优化参数的取值范围设定每个果蝇群体的位置区间[plow,pup],根据公式(9)和(10)得到每个果蝇群体中每个果蝇的初始位置;
步骤(2)根据公式(13)和(14)分别计算每个果蝇群体中每个果蝇个体的味道浓度判定值;
步骤(3)根据公式(15)分别计算每个果蝇群体中每个果蝇个体的味道浓度值;
步骤(4)根据公式(16)找到每个果蝇群体中的最优果蝇个体,并记录它们的位置[BestAxis_x,BestAxis_y],定义变量Pop_local记录每一次迭代中每个果蝇群体中的最优果蝇个体的位置,定义变量Pop_global记录所有次迭代中每个果蝇群体中的最优果蝇个体的位置;
步骤(5)根据公式(11)和(12)更新每个果蝇群体中每个果蝇的位置,重复步骤(2)到步骤(4);
步骤(6)如果达到最大迭代次数,停止迭代,分别输出Pop_local和Pop_global中的果蝇个体的位置,并输出其味道浓度判定值;否则返回步骤(6)重新迭代。
本实施例中,对于抽油井停井时间的时间序列模型,在采用ELM方法建立模型的同时,由本实施例IFOA方法对ELM计算过程中所涉及的m、τ、ω、b和σ2进行优化选取,计算步骤如下:
步骤3.1.1初始化,产生初始5个果蝇群体,分别指派给m、τ、ω、b和σ2,设定m、τ、ω、b和σ2的取值范围,m∈[1,30],τ∈[1,10],ω∈[0,1],b∈[0,10],σ2∈[0.01,1000];
步骤3.1.2将抽油井停井时间数据集中的数据分别归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.1.3对于待建立模型,在训练过程的每一次迭代中将5个果蝇群体的味道浓度判定值分别代入相空间重构后的时间序列模型和ELM模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、ω、b和σ2
步骤3.1.4对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和ELM模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
在本实施例中,根据回声状态网络(ESN)方法分别建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt。ESN方法的基本原理如下:
ESN模型可以表示为:
其中,u(t)、x(t)和y(t)分别为输入单元、内部状态单元和输出单元在时刻t的值;Mesn、Nesn和Kesn分别为输入单元、内部状态单元和输出单元的数量。
ESN模型的学习方式可以由如下公式进行描述:
其中,xesn(t+1)和yesn(t+1)分别为内部状态单元和输出单元在时刻t+1的值;f(·)和fout(·)分别为内部单元和输出单元的激活函数;为输入层到内部单元的连接权值矩阵;Wesn为内部单元的连接权值矩阵;为输出层反馈到内部单元的连接权值矩阵;为内部单元到输出层的连接权值矩阵。
由如下公式进行计算:
其中,yesn(t)为模型期望输出,yesn(t)为模型实际输出;wout为权值,是的元素。
ESN模型的求解可以转化为如下的优化求解问题:
其中,Pesn和mesn分别表示时间点。
可以归结为如下矩阵求逆问题:
其中,Besn构成的矩阵;Lesn构成的列矩阵。
在本实施例中,由ESN方法建立时间序列模型的过程中,ESN模型中有6个参数决定了模型的计算精度,分别为:m、τ、连接权值矩阵Wesn的绝对值最大的特征值SResn、Nesn、输入与内部单元相互连接的尺度因子ISesn和内部单元中相互连接的单元数与总单元数的比值SDesn。本发明专利采用发明内容3.1.2中的IFOA方法对m、τ、SResn、Nesn、ISesn和SDesn的取值进行优化选取。对于建立的抽油井停井时间的时间序列模型,在采用发明内容3.2.1中的ESN方法建立模型的同时,由发明内容3.1.2中的IFOA方法对ESN计算过程中所涉及的m、τ、SResn、Nesn、ISesn和SDesn进行优化选取,计算步骤如下:
步骤3.2.1初始化,产生初始6个果蝇群体,分别指派给m、τ、SResn、Nesn、ISesn和SDesn,设定m、τ、SResn、Nesn、ISesn和SDesn的取值范围,m∈[1,30],τ∈[1,10],SResn∈[0.1,1),Nesn∈[10,150),ISesn∈[0.01,1),SDesn∈[0.01,1);
步骤3.2.2将抽油井停井时间数据集中的数据分别归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.2.3对于待建立模型,在训练过程的每一次迭代中将6个果蝇群体的味道浓度判定值分别代入相空间重构后的时间序列模型和ESN模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、SResn、Nesn、ISesn和SDesn
步骤3.2.4对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和ESN模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
在本实施例中,根据最小二乘支持向量机(LSSVM)方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt。LSSVM方法的基本原理如下:
给定数据集{(xi,yi)},其中:i=1,2,...,Llssvm,Llssvm为数据集中样本的数量,x和y分别表示输入向量和输出向量。LSSVM方法采用如下函数进行计算:
其中,Φ(·)为非线性映射函数,ωlssvm为高维空间的向量,blssvm为实数。
根据结构风险最小化原则,构造如下优化问题:
其中,J(·)为优化函数,γ为折衷因子,elssvm为松弛因子。
建立拉格朗日等式,将公式(23)所描述的约束优化问题转化为无约束优化问题,如下:
其中,ψ(·)为拉格朗日函数,αlssvm为拉格朗日因子。
进行如下所示计算:
定义核函数Ω(·)如下:
Ω(xi,xj)=ΦT(xi)·Φ(xj) (26)
由公式(25)和(26)可以得到:
由最小二乘法求解公式(27),得到如下结果:
对于核函数Ω(·),本发明专利采用高斯函数,定义如下:
其中,zlssvm表示输入向量,为宽度参数。
在本实施例中,由LSSVM方法建立时间序列模型的过程中,LSSVM模型中有4个参数决定了模型的计算精度,分别为:m、τ、γ和本实施例采用果蝇优化算法方法对m、τ、γ和的取值进行优化选取。对于建立的抽油井停井时间的时间序列模型,在采用LSSVM方法建立模型的同时,由果蝇优化算法对LSSVM计算过程中所涉及的m、τ、γ和进行优化选取,计算步骤如下:
步骤3.3.1初始化,产生初始4个果蝇群体,分别指派给m、τ、γ和设定m、τ、γ和的取值范围,m∈[1,30],τ∈[1,10],γ∈[0.01,1000],
步骤3.3.2将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.3.3对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、γ和
步骤3.3.4对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和LSSVM模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
4)对于抽油井停井时间的时间序列,由ELM方法得到的预测结果为:128.5;由ESN方法得到的预测结果为:143.8;由LSSVM方法得到的预测结果为:130.2。
由公式(30)计算得到最终预测结果为:134.2。
以上例举仅仅是对本发明的举例说明,并不构成对本发明的保护范围的限制,凡是与本发明相同或相似的设计均属于本发明的保护范围之内。

Claims (10)

1.一种基于时间序列的抽油井停井时间集成预测方法,其特征在于,包括如下步骤:
1)利用历史抽油井停井时间数据集为{xi,i=1,2,...,n},n为数据点的个数;
2)将抽油井停井时间数据集{xi}进行相空间重构,得到时间序列模型,输入表示为:Xt=[xt,xt+τ,…,xt+(m-1)τ],其中,t=1,2,...,M,m为嵌入维数,τ为延迟时间,M=n-(m-1)τ,n为数据集中数据的个数;将每个时间序列的输出表示为:Yt=xt+1+(m-1)τ
3)采用集成预测方法,即分别由基于ELM方法、ESN方法和LSSVM方法以并行的方式同时对抽油井停井时间的时间序列模型进行预测;
4)对于抽油井停井时间的时间序列,由三种方法所得到的预测值求平均值,得到最终结果;计算公式如下:
<mrow> <mi>Y</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mn>3</mn> </mfrac> <mo>&amp;CenterDot;</mo> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>E</mi> <mi>L</mi> <mi>M</mi> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>E</mi> <mi>S</mi> <mi>N</mi> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>L</mi> <mi>S</mi> <mi>S</mi> <mi>V</mi> <mi>M</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>30</mn> <mo>)</mo> </mrow> </mrow>
其中,表示由ELM方法得到的预测值;表示由ESN方法得到的预测值;表示由LSSVM方法得到的预测值。
2.如权利要求1所述的方法,其特征在于:根据ELM方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt;ELM方法的基本原理如下:
设有W个训练样本其中uq为输入向量,vq为输出向量;设定包含L个隐含层,激活函数为f(·)以及模型的训练输出表示为Q=[g1,g2,…,gq]T,那么ELM模型可以由如下方程组进行描述:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>g</mi> <mn>1</mn> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <msub> <mi>&amp;beta;</mi> <mn>11</mn> </msub> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>u</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>g</mi> <mn>2</mn> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <msub> <mi>&amp;beta;</mi> <mn>12</mn> </msub> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>u</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>g</mi> <mi>q</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <msub> <mi>&amp;beta;</mi> <mrow> <mi>l</mi> <mi>q</mi> </mrow> </msub> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>l</mi> </msub> <mo>,</mo> <msub> <mi>u</mi> <mi>q</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>l</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,βlq为第l个隐含层神经元与第q个输出神经元之间的连接权值;ωl为隐含层神经元与输入神经元之间的连接权值;bl为第l个隐含层神经元的偏置;
如果训练模型能以零误差逼近W个训练样本,即有那么对于式(1)有下式成立,
<mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>L</mi> </munderover> <msub> <mi>&amp;beta;</mi> <mrow> <mi>l</mi> <mi>q</mi> </mrow> </msub> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mi>l</mi> </msub> <mo>,</mo> <msub> <mi>u</mi> <mi>q</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>l</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>v</mi> <mi>q</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
那么ELM模型的数学描述可以改写成如下矩阵形式:
Hβ=V (3)
式(3)中,有:
H为隐含层输出矩阵,ω和b在初始化时已随机给定;那么,ELM模型的训练可以转化成一个求解非线性方程最小值的问题,即:
<mrow> <mo>|</mo> <mo>|</mo> <msup> <mi>H&amp;beta;</mi> <mo>*</mo> </msup> <mo>-</mo> <mi>V</mi> <mo>|</mo> <mo>|</mo> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>&amp;beta;</mi> </munder> <mo>|</mo> <mo>|</mo> <mi>H</mi> <mi>&amp;beta;</mi> <mo>-</mo> <mi>V</mi> <mo>|</mo> <mo>|</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
输出权值矩阵β*可以由下式求出,
β*=H+V (6)
其中,H+为隐含层输出矩阵H的Moore-Penrose广义逆;
那么,ELM的训练过程可以归纳为如下最优化问题:
<mrow> <mi>G</mi> <mrow> <mo>(</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>q</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>w</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>v</mi> <mi>q</mi> </msub> <mo>-</mo> <msub> <mi>g</mi> <mi>q</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
其中,G(·)表示由ω和b所决定的函数,G(ω,b)表示当ω和b分别取不同值时的函数输出值;
对于激活函数f(·)的选择,采用高斯函数,定义如下:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mo>&amp;CenterDot;</mo> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <mi>z</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
其中,z表示输入向量,σ2为高斯函数的宽度参数。
3.如权利要求2所述的方法,其特征在于:所述基于ELM方法建立时间序列模型的计算步骤如下:
初始化,随机生成隐含层输入权值ω,隐含层神经元的偏置b,高斯函数的宽度参数σ2
根据公式(4)计算隐含层输出矩阵H;
根据公式(6)计算输出权值矩阵β*
根据公式(7)计算函数输出值。
4.如权利要求3所述的方法,其特征在于:由ELM方法建立时间序列模型的过程中,m、τ、ω、b和σ2的取值决定了ELM模型的计算精度,采用一种改进的果蝇优化算法对m、τ、ω、b和σ2的取值进行优化选取;果蝇优化算法的数学描述如下:
(1)设定果蝇群体的位置区间[plow,pup],在位置区间内随机给定每个果蝇的初始位置Axis_xi和Axis_yi如下:
Axis_xi=plow+rand1·(pup-plow) (9)
Axis_yt=plow+rand2·(pup-plow) (10)
其中,i=1,2,...,sizepop,sizepop为果蝇群体中果蝇的个数;rand1和rand2分别为[0,1]区间内的随机数;
(2)果蝇个体利用嗅觉搜寻食物,每个个体的位置更新公式如下:
<mrow> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>=</mo> <mi>B</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <mi>x</mi> <mo>+</mo> <mo>|</mo> <mo>|</mo> <mi>B</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <mi>x</mi> <mo>-</mo> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;CenterDot;</mo> <msup> <mi>e</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mfrac> <mrow> <mi>I</mi> <mi>t</mi> <mi>e</mi> </mrow> <mrow> <msub> <mi>Ite</mi> <mi>max</mi> </msub> </mrow> </mfrac> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>rand</mi> <mn>3</mn> </msub> </mrow> </msup> <mo>&amp;CenterDot;</mo> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mn>2</mn> <mi>&amp;pi;</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>rand</mi> <mn>4</mn> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>rand</mi> <mn>5</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <msub> <mi>Y</mi> <mi>i</mi> </msub> <mo>=</mo> <mi>B</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <mi>y</mi> <mo>+</mo> <mo>|</mo> <mo>|</mo> <mi>B</mi> <mi>e</mi> <mi>s</mi> <mi>t</mi> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <mi>y</mi> <mo>-</mo> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;CenterDot;</mo> <msup> <mi>e</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mfrac> <mrow> <mi>I</mi> <mi>t</mi> <mi>e</mi> </mrow> <mrow> <msub> <mi>Ite</mi> <mi>max</mi> </msub> </mrow> </mfrac> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>rand</mi> <mn>3</mn> </msub> </mrow> </msup> <mo>&amp;CenterDot;</mo> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <mn>2</mn> <mi>&amp;pi;</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>rand</mi> <mn>4</mn> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>rand</mi> <mn>5</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
其中,Axis_Xi和Axis_Yi表示第i个果蝇个体移动后的位置坐标;BestAxis_x和BestAxis_y表示当前最优个体的位置坐标;Ite和Itemax分别表示当前迭代次数和最大迭代次数;rand3和rand4分别为[-1,1]区间内的随机数;rand5为[0,1]区间内的随机数;
(3)计算果蝇个体与原点的距离,如下:
<mrow> <msub> <mi>dist</mi> <mi>i</mi> </msub> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>A</mi> <mi>x</mi> <mi>i</mi> <mi>s</mi> <mo>_</mo> <msub> <mi>Y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>
(4)计算味道浓度判定值,如下:
<mrow> <msub> <mi>S</mi> <mi>i</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msub> <mi>dist</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
(5)由果蝇个体的味道浓度判定值计算每个果蝇个体的味道浓度值,如下:
Smelli=fitness(Si) (15)
其中,fitness为适应度函数,用以评价待优化参数的取值;
(6)找到果蝇群体中的最优个体,如下:
[bestSmell bestIndex]=min/max(Smell) (16)
其中,bestSmell表示最优的味道浓度值,bestIndex表示最优味道浓度值对应的果蝇个体的序号;min/max表示最小或最大。
5.如权利要求4所述的方法,其特征在于:所述果蝇优化算法的计算步骤如下:
步骤(1)、产生初始的与待优化参数数量相同的果蝇群体,根据待优化参数的取值范围设定每个果蝇群体的位置区间[plow,pup],根据公式(9)和(10)得到每个果蝇群体中每个果蝇的初始位置;
步骤(2)、根据公式(13)和(14)分别计算每个果蝇群体中每个果蝇个体的味道浓度判定值;
步骤(3)、根据公式(15)分别计算每个果蝇群体中每个果蝇个体的味道浓度值;
步骤(4)、根据公式(16)找到每个果蝇群体中的最优果蝇个体,并记录它们的位置[BestAxis_x,BestAxis_y],定义变量Pop_local记录每一次迭代中每个果蝇群体中的最优果蝇个体的位置,定义变量Pop_global记录所有次迭代中每个果蝇群体中的最优果蝇个体的位置;
步骤(5)、根据公式(11)和(12)更新每个果蝇群体中每个果蝇的位置,重复步骤(2)到步骤(4);
步骤(6)、如果达到最大迭代次数,停止迭代,分别输出Pop_local和Pop_global中的果蝇个体的位置,并输出其味道浓度判定值;否则返回步骤(5)重新迭代。
6.如权利要求5所述的方法,其特征在于:对于建立的抽油井停井时间的时间序列模型,在采用ELM方法建立模型的同时,由果蝇优化算法对ELM计算过程中所涉及的m、τ、ω、b和σ2进行优化选取,计算步骤如下:
步骤3.1.1 初始化,产生初始5个果蝇群体,分别指派给m、τ、ω、b和σ2,设定m、τ、ω、b和σ2的取值范围;
步骤3.1.2 将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.1.3 对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、ω、b和σ2
步骤3.1.4 对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和ELM模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
7.如权利要求6所述的方法,其特征在于:根据ESN方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt,ESN方法的基本原理如下:
ESN模型可以表示为:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>u</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>u</mi> <mn>1</mn> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <msubsup> <mi>u</mi> <mn>2</mn> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>u</mi> <msub> <mi>M</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>x</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>x</mi> <mn>1</mn> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <msubsup> <mi>x</mi> <mn>2</mn> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>x</mi> <msub> <mi>N</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>y</mi> <mn>1</mn> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <msubsup> <mi>y</mi> <mn>2</mn> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>y</mi> <msub> <mi>K</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mi>T</mi> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>17</mn> <mo>)</mo> </mrow> </mrow>
其中,u(t)、x(t)和y(t)分别为输入单元、内部状态单元和输出单元在时刻t的值;Mesn、Nesn和Kesn分别为输入单元、内部状态单元和输出单元的数量;
ESN模型的学习方式可以由如下公式进行描述:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>x</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mrow> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mo>&amp;CenterDot;</mo> <msup> <mi>u</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>W</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mo>&amp;CenterDot;</mo> <msup> <mi>x</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>W</mi> <mrow> <mi>b</mi> <mi>a</mi> <mi>c</mi> <mi>k</mi> </mrow> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mo>&amp;CenterDot;</mo> <msup> <mi>y</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>f</mi> <mrow> <mi>o</mi> <mi>u</mi> <mi>t</mi> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mrow> <mi>o</mi> <mi>u</mi> <mi>t</mi> </mrow> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mo>&amp;CenterDot;</mo> <mo>(</mo> <msup> <mi>u</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>,</mo> <msup> <mi>x</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>18</mn> <mo>)</mo> </mrow> </mrow>
其中,xesn(t+1)和yesn(t+1)分别为内部状态单元和输出单元在时刻t+1的值;f(·)和fout(·)分别为内部单元和输出单元的激活函数;为输入层到内部单元的连接权值矩阵;Wesn为内部单元的连接权值矩阵;为输出层反馈到内部单元的连接权值矩阵;为内部单元到输出层的连接权值矩阵;
由如下公式进行计算:
<mrow> <msub> <mi>y</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;ap;</mo> <msubsup> <mi>y</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>K</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> </munderover> <msubsup> <mi>w</mi> <mrow> <mi>o</mi> <mi>u</mi> <mi>t</mi> </mrow> <mi>i</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>19</mn> <mo>)</mo> </mrow> </mrow>
其中,yesn(t)为模型期望输出,y’esn(t)为模型实际输出;wout为权值,是的元素;
ESN模型的求解可以转化为如下的优化求解问题:
<mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mfrac> <mn>1</mn> <mrow> <msub> <mi>P</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>m</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <msub> <mi>m</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> </mrow> <msub> <mi>P</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>K</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> </munderover> <msubsup> <mi>w</mi> <mrow> <mi>o</mi> <mi>u</mi> <mi>t</mi> </mrow> <mi>i</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>20</mn> <mo>)</mo> </mrow> </mrow>
其中,Pesn和mesn分别表示时间点;
可以归结为如下矩阵求逆问题:
<mrow> <msubsup> <mi>W</mi> <mrow> <mi>o</mi> <mi>u</mi> <mi>t</mi> </mrow> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msubsup> <mo>=</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>B</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>&amp;times;</mo> <msub> <mi>L</mi> <mrow> <mi>e</mi> <mi>s</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>21</mn> <mo>)</mo> </mrow> </mrow>
其中,Besn构成的矩阵;Lesn构成的列矩阵。
8.如权利要求7所述的方法,其特征在于:由ESN方法建立时间序列模型的过程中,ESN模型中有6个参数决定了模型的计算精度,分别为:m、τ、连接权值矩阵Wesn的绝对值最大的特征值SResn、Nesn、输入与内部单元相互连接的尺度因子ISesn和内部单元中相互连接的单元数与总单元数的比值SDesn;采用果蝇优化算法对m、τ、SResn、Nesn、ISesn和SDesn的取值进行优化选取;对于建立的抽油井停井时间的时间序列模型,在采用ESN方法建立模型的同时,由果蝇优化算法对ESN计算过程中所涉及的m、τ、SResn、Nesn、ISesn和SDesn进行优化选取,计算步骤如下:
步骤3.2.1 初始化,产生初始6个果蝇群体,分别指派给m、τ、SResn、Nesn、ISesn和SDesn,设定m、τ、SResn、Nesn、ISesn和SDesn的取值范围;
步骤3.2.2 将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.2.3 对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、SResn、Nesn、ISesn和SDesn
步骤3.2.4 对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和ESN模型,由输入Xt的值计算输出Yt的值并进行反归一化处理。
9.如权利要求8所述的方法,其特征在于:根据LSSVM方法建立抽油井停井时间数据集的时间序列模型;模型的输入和输出分别为Xt和Yt;LSSVM方法的基本原理如下:
给定数据集{(xi,yi)},其中:i=1,2,...,Llssvm,Llssvm为数据集中样本的数量,x和y分别表示输入向量和输出向量;LSSVM方法采用如下函数进行计算:
<mrow> <msub> <mi>f</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> <mi>T</mi> </msubsup> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>22</mn> <mo>)</mo> </mrow> </mrow>
其中,Φ(·)为非线性映射函数,ωlssvm为高维空间的向量,blssvm为实数;
根据结构风险最小化原则,构造如下优化问题:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mi> </mi> <mi>J</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msubsup> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> <mi>T</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msub> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>+</mo> <mfrac> <mi>&amp;gamma;</mi> <mn>2</mn> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </munderover> <msubsup> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> <mn>2</mn> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> <mi>T</mi> </msubsup> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>+</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>23</mn> <mo>)</mo> </mrow> </mrow>
其中,J(·)为优化函数,γ为折衷因子,elssvm为松弛因子;
建立拉格朗日等式,将公式(23)所描述的约束优化问题转化为无约束优化问题,如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>&amp;Psi;</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>J</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </munderover> <msub> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <mo>{</mo> <msubsup> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> <mi>T</mi> </msubsup> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>+</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>}</mo> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>24</mn> <mo>)</mo> </mrow> </mrow>
其中,Ψ(·)为拉格朗日函数,αlssvm为拉格朗日因子;
进行如下所示计算:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>&amp;Psi;</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;RightArrow;</mo> <msub> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </munderover> <msub> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>&amp;Psi;</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;RightArrow;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </munderover> <msub> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>&amp;Psi;</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;RightArrow;</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>=</mo> <mi>&amp;gamma;</mi> <mo>&amp;CenterDot;</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>&amp;Psi;</mi> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&amp;RightArrow;</mo> <msubsup> <mi>&amp;omega;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> <mi>T</mi> </msubsup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>+</mo> <msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>25</mn> <mo>)</mo> </mrow> </mrow>
定义核函数Ω(·)如下:
Ω(xi,xj)=ΦT(xi)·Φ(xj) (26)
由公式(25)和(26)可以得到:
由最小二乘法求解公式(27),得到如下结果:
<mrow> <msub> <mi>f</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> </munderover> <msub> <mrow> <mo>(</mo> <msub> <mi>&amp;alpha;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <mi>&amp;Omega;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>b</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>28</mn> <mo>)</mo> </mrow> </mrow>
对于核函数Ω(·),本发明专利采用高斯函数,定义如下:
<mrow> <mi>&amp;Omega;</mi> <mrow> <mo>(</mo> <mo>&amp;CenterDot;</mo> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> </msub> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>l</mi> <mi>s</mi> <mi>s</mi> <mi>v</mi> <mi>m</mi> </mrow> <mn>2</mn> </msubsup> </mrow> </mfrac> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>29</mn> <mo>)</mo> </mrow> </mrow>
其中,zlssvm表示输入向量,为宽度参数。
10.如权利要求9所述的方法,其特征在于:由LSSVM方法建立时间序列模型的过程中,LSSVM模型中有4个参数决定了模型的计算精度,分别为:m、τ、γ和采用果蝇优化算法对m、τ、γ和的取值进行优化选取;对于建立的抽油井停井时间的时间序列模型,在采用LSSVM方法建立模型的同时,由果蝇优化算法对LSSVM计算过程中所涉及的m、τ、γ和进行优化选取,计算步骤如下:
步骤3.3.1 初始化,产生初始4个果蝇群体,分别指派给m、τ、γ和设定m、τ、γ和的取值范围;
步骤3.3.2 将抽油井停井时间数据集中的数据归一化到[0,1]区间内,确定待建立模型的输入和输出分别为Xt和Yt
步骤3.3.3 对于待建立模型,由果蝇优化算法得到最优的味道浓度判定值,分别对应m、τ、γ和
步骤3.3.4 对于待建立模型,将得到的最优参数值分别代入相空间重构后的时间序列模型和LSSVM模型,由输入Xt的值计算输出Yt的值并进行反归一化处理;
所述m、τ、ω、b、σ2、SResn、Nesn、ISesn、SDesn、γ和的取值范围分别为:m∈[1,30],τ∈[1,10],ω∈[0,1],b∈[0,10],σ2∈[0.01,1000],SResn∈[0.1,1),Nesn∈[10,150),ISesn∈[0.01,1),SDesn∈[0.01,1),γ∈[0.01,1000],
CN201711121615.XA 2017-11-03 2017-11-03 一种基于时间序列的抽油井停井时间集成预测方法 Active CN107944607B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711121615.XA CN107944607B (zh) 2017-11-03 2017-11-03 一种基于时间序列的抽油井停井时间集成预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711121615.XA CN107944607B (zh) 2017-11-03 2017-11-03 一种基于时间序列的抽油井停井时间集成预测方法

Publications (2)

Publication Number Publication Date
CN107944607A true CN107944607A (zh) 2018-04-20
CN107944607B CN107944607B (zh) 2022-01-18

Family

ID=61934006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711121615.XA Active CN107944607B (zh) 2017-11-03 2017-11-03 一种基于时间序列的抽油井停井时间集成预测方法

Country Status (1)

Country Link
CN (1) CN107944607B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805215A (zh) * 2018-06-19 2018-11-13 东北大学 基于改进果蝇算法的有杆泵抽油井动态液位软测量方法
CN109630092A (zh) * 2018-11-14 2019-04-16 渤海大学 一种基于数据的抽油井泵效多模型软测量方法
CN113496066A (zh) * 2020-03-18 2021-10-12 中国石油天然气股份有限公司 抽油泵漏失量分析方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104091216A (zh) * 2014-07-29 2014-10-08 吉林大学 基于果蝇优化最小二乘支持向量机的交通信息预测方法
US20150112900A1 (en) * 2013-10-23 2015-04-23 Honda Motor Co., Ltd. Time-series data prediction device, time-series data prediction method, and program
CN105023071A (zh) * 2015-08-14 2015-11-04 中国科学院重庆绿色智能技术研究院 一种基于高斯云变换和模糊时间序列的水质预测方法
CN105243428A (zh) * 2015-09-07 2016-01-13 天津市市政工程设计研究院 基于蝙蝠算法优化支持向量机预测公交车到站时间的方法
CN105631554A (zh) * 2016-02-22 2016-06-01 渤海大学 一种基于时间序列的油井油液含水率多模型预测方法
CN106228030A (zh) * 2016-08-31 2016-12-14 广东旭诚科技有限公司 一种基于小波变换的精细粒度自学习集成预测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150112900A1 (en) * 2013-10-23 2015-04-23 Honda Motor Co., Ltd. Time-series data prediction device, time-series data prediction method, and program
CN104091216A (zh) * 2014-07-29 2014-10-08 吉林大学 基于果蝇优化最小二乘支持向量机的交通信息预测方法
CN105023071A (zh) * 2015-08-14 2015-11-04 中国科学院重庆绿色智能技术研究院 一种基于高斯云变换和模糊时间序列的水质预测方法
CN105243428A (zh) * 2015-09-07 2016-01-13 天津市市政工程设计研究院 基于蝙蝠算法优化支持向量机预测公交车到站时间的方法
CN105631554A (zh) * 2016-02-22 2016-06-01 渤海大学 一种基于时间序列的油井油液含水率多模型预测方法
CN106228030A (zh) * 2016-08-31 2016-12-14 广东旭诚科技有限公司 一种基于小波变换的精细粒度自学习集成预测方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805215A (zh) * 2018-06-19 2018-11-13 东北大学 基于改进果蝇算法的有杆泵抽油井动态液位软测量方法
CN108805215B (zh) * 2018-06-19 2021-06-11 东北大学 基于改进果蝇算法的有杆泵抽油井动态液位软测量方法
CN109630092A (zh) * 2018-11-14 2019-04-16 渤海大学 一种基于数据的抽油井泵效多模型软测量方法
CN113496066A (zh) * 2020-03-18 2021-10-12 中国石油天然气股份有限公司 抽油泵漏失量分析方法及装置
CN113496066B (zh) * 2020-03-18 2022-11-04 中国石油天然气股份有限公司 抽油泵漏失量分析方法及装置

Also Published As

Publication number Publication date
CN107944607B (zh) 2022-01-18

Similar Documents

Publication Publication Date Title
CN109543828B (zh) 一种基于小样本条件下的吸水剖面预测方法
CN105510546B (zh) 一种基于自组织递归rbf神经网络的生化需氧量bod智能检测方法
CN108448610A (zh) 一种基于深度学习的短期风功率预测方法
CN108843312B (zh) 油田储层层内非均质性综合评价方法
CN110029986B (zh) 基于粒子群极限学习机的游梁式抽油机的动液面预测方法
CN107944607A (zh) 一种基于时间序列的抽油井停井时间集成预测方法
CN104732303A (zh) 一种基于动态径向基函数神经网络的油田产量预测方法
CN106677763B (zh) 一种基于动态集成建模的油井动液面预测方法
CN103226741A (zh) 城市供水管网爆管预测方法
CN103198354B (zh) 一种利用bp神经网络与非支配排序遗传算法nsga2实现油田抽油机采油节能增产优化方法
CN110070715A (zh) 一种基于Conv1D-NLSTMs神经网络结构的道路交通流预测方法
Niu et al. Model turbine heat rate by fast learning network with tuning based on ameliorated krill herd algorithm
Ghorbani et al. A hybrid artificial neural network and genetic algorithm for predicting viscosity of Iranian crude oils
CN109828089A (zh) 一种基于dbn-bp的水质参数亚硝酸氮的在线预测方法
CN112989711B (zh) 基于半监督集成学习的金霉素发酵过程软测量建模方法
US20230358123A1 (en) Reinforcement learning-based decision optimization method of oilfield production system
CN107782857A (zh) 基于改进cs‑bpnn的食用菌发酵过程关键参量的软测量方法
CN105320987A (zh) 一种基于bp神经网络的卫星遥测数据智能判读方法
CN115375031A (zh) 一种产油量预测模型建立方法、产能预测方法及存储介质
CN112541571A (zh) 基于双并联神经网络的机器学习的注采连通性确定方法
CN107909202A (zh) 一种基于时间序列的油井产液量集成预测方法
CN112766608A (zh) 一种基于极限学习机的水泥磨系统电耗指标预测方法
CN109188903A (zh) 基于记忆增强优化的cnn加热炉操作变量的软测量方法
CN115310348A (zh) 基于Stacking的灌浆量集成代理预测模型及预测方法
CN104123348B (zh) 一种基于arx的供水管网在线建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant