CN112668812A - 产量确定方法、确定装置、计算机可读存储介质和处理器 - Google Patents
产量确定方法、确定装置、计算机可读存储介质和处理器 Download PDFInfo
- Publication number
- CN112668812A CN112668812A CN202110278652.1A CN202110278652A CN112668812A CN 112668812 A CN112668812 A CN 112668812A CN 202110278652 A CN202110278652 A CN 202110278652A CN 112668812 A CN112668812 A CN 112668812A
- Authority
- CN
- China
- Prior art keywords
- wide
- deep
- variable
- model
- deep model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种产量确定方法、确定装置、计算机可读存储介质和处理器,该确定方法包括:采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,第一权重矩阵为连接任意两个相邻网络层的权重矩阵;根据权重矩阵计算得到变量的敏感性;根据敏感性确定敏感变量,敏感变量为敏感性大于或者等于预定值的变量;将敏感变量输入Wide&Deep模型的Deep端,将变量输入Wide&Deep模型的Wide端,得到天然气产量,Wide端为线性模型,Deep端为DNN神经网络。该确定方法提升了Wide&Deep模型的性能,提高了确定方法的精度。
Description
技术领域
本申请涉及天然气产量预测技术领域,具体而言,涉及一种产量确定方法、确定装置、计算机可读存储介质和处理器。
背景技术
伴随着大数据、机器学习、人工智能等技术的发展,利用机器学习或深度学习的相关算法去分析油气数据已成为研究热点。产量预测是油气数据分析的重要内容,已经有许多学者在该方面进行了研究。油气田数据有来源各异、数据量大且类型多、冗余和缺失数据多等特点,传统机器学习算法如线性回归、支持向量机、随机森林等由于模型复杂度较低,对于此类数据的信息表达有所欠缺。
近年来,深度学习方法在该问题上获得了广泛应用。全连接神经网络FCNN及其改进方法已广泛应用于油气产量的预测。该类方法使用全连接神经网络FCNN去挖掘数据之间的关系,又在训练网络的各个阶段引入其它算法进一步优化模型。其中引入的算法主要有遗传算法、蚁群优化算法、自适应阈值去噪算法、贝叶斯优化算法等。与基于统计的传统油藏工程和机器学习方法相比,该类方法应用范围更广且预测效果更好。使用长短时记忆神经网络(LSTM)进行油气产量预测也是研究热点,该类方法弥补了全连接神经网络FCNN无法描述时间序列数据的缺点。但由于引入了大量参数,使得计算成本大大增加。对于非时间序列的数据全连接神经网络FCNN更具优势,但处理长尾数据的能力较弱,容易造成过度泛化,并且记忆能力较弱。
Wide&Deep模型以对线性模型(Wide端)和DNN模型(Deep端,也是一个全连接神经网络)进行联合训练的方式来平衡模型的记忆能力和泛化能力,弥补了全连接神经网络FCNN的不足,但该模型在并行连接Wide端和Deep端时,既增加了模型参数,也带来了两个部分的输入变量该如何确定的问题。
在背景技术部分中公开的以上信息只是用来加强对本文所描述技术的背景技术的理解,因此,背景技术中可能包含某些信息,这些信息对于本领域技术人员来说并未形成在本国已知的现有技术。
发明内容
本申请的主要目的在于提供一种产量确定方法、确定装置、计算机可读存储介质和处理器,以解决现有技术中天然气产量确定方法的精度低的问题。
根据本发明实施例的一个方面,提供了一种天然气产量确定方法,包括:采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,所述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,所述训练数据包括历史天然气产量和对应的历史变量数据,所述历史变量数据为天然气产量对应的变量的历史数据; 根据所述权重矩阵计算得到所述变量的敏感性;根据所述敏感性确定敏感变量,所述敏感变量为所述敏感性大于或者等于预定值的所述变量;将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量,所述Wide端为线性模型,所述Deep端为DNN神经网络。
可选地,根据所述权重矩阵计算得到所述变量的敏感性,包括:利用所述权重矩阵和Garson算法,计算得到所述敏感性。
可选地,在根据所述敏感性确定敏感变量之后,在将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量之前,所述方法还包括:采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型。
可选地,采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型,包括:步骤S1,将所述敏感变量对应的所述历史变量数据输入所述Deep端,将所述历史变量数据输入所述Wide端,得到训练结果,所述训练结果为所述Wide&Deep模型输出的天然气产量;步骤S2,根据所述训练结果和对应的所述历史天然气产量计算得到误差;步骤S3,根据所述误差更新所述预备Wide&Deep模型的参数;步骤S4,重复所述步骤S1至所述步骤S3,直至所述误差与上一个所述误差的差值小于预定值或者重复次数等于预定次数,得到所述Wide&Deep模型。
可选地,在采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型之后,所述方法还包括:根据所述误差计算均方根百分比误差;根据所述均方根百分比误差对所述Wide&Deep模型进行评价。
可选地,在采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型之后,所述方法还包括:根据所述误差计算决定系数;根据所述决定系数对所述Wide&Deep模型进行评价。
可选地,在将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量之前,所述方法还包括:对所述变量的数据进行预处理。
根据本发明实施例的另一方面,还提供了一种天然气产量确定装置,包括:训练单元,用于采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,所述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,所述训练数据包括历史天然气产量和对应的历史变量数据,所述历史变量数据为天然气产量对应的变量的历史数据; 计算单元,用于根据所述权重矩阵计算得到所述变量的敏感性;第一确定单元,用于根据所述敏感性确定敏感变量,所述敏感变量为所述敏感性大于或者等于预定值的所述变量;第二确定单元,用于将所述敏感变量输入Wide&Deep模型的Wide端,将所述变量输入所述Wide&Deep模型的Deep端,得到天然气产量,所述Deep端为线性模型,所述Wide端为DNN神经网络。
根据本发明实施例的再一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的程序,其中,所述程序执行任意一种所述的方法。
根据本发明实施例的又一方面,还提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任意一种所述的方法。
在本发明实施例中,上述产量确定方法中,首先,采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;然后,根据上述权重矩阵计算得到上述变量的敏感性;之后,根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;最后,将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。该确定方法通过计算输入的变量经过神经网络对输出的敏感性,减少其它敏感性较低的变量对Deep端的影响,并且Wide端输入全部的变量,来保证模型的记忆能力,从而提升Wide&Deep模型的性能,提高天然气产量确定方法的精度,解决了现有技术中天然气产量确定方法的精度低的问题。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1示出了根据本申请实施例的天然气产量确定方法的流程示意图;
图2示出了根据本申请实施例的天然气产量确定装置的示意图;
图3示出了根据本申请实施例的三层全连接神经网络FCNN和四层全连接神经网络FCNN的神经元点数与均方根误差的关系曲线图;
图4示出了根据本申请实施例的三层全连接神经网络FCNN的神经元点数与均方根误差的关系曲线图;
图5示出了根据本申请实施例的变量的敏感性的柱状图;
图6示出了根据本申请实施例的敏感变量数量与的均方根误差的关系曲线图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应该理解的是,当元件(诸如层、膜、区域、或衬底)描述为在另一元件“上”时,该元件可直接在该另一元件上,或者也可存在中间元件。而且,在说明书以及权利要求书中,当描述有元件“连接”至另一元件时,该元件可“直接连接”至该另一元件,或者通过第三元件“连接”至该另一元件。
正如背景技术中所说的,现有技术中天然气产量确定方法的精度低,为了解决上述问题,本申请的一种典型的实施方式中,提供了一种产量确定方法、确定装置、计算机可读存储介质和处理器。
根据本申请的实施例,提供了一种产量确定方法。
图1是根据本申请实施例的产量确定方法的流程图。如图1所示,该方法包括以下步骤:
步骤S101,采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;
步骤S102,根据上述权重矩阵计算得到上述变量的敏感性;
步骤S103,根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;
步骤S104,将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。
上述产量确定方法中,首先,采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;然后,根据上述权重矩阵计算得到上述变量的敏感性;之后,根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;最后,将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。该确定方法通过计算输入的变量经过神经网络对输出的敏感性,减少其它敏感性较低的变量对Deep端的影响,并且Wide端输入全部的变量,来保证模型的记忆能力,从而提升Wide&Deep模型的性能,提高天然气产量确定方法的精度,解决了现有技术中天然气产量确定方法的精度低的问题。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请的一种实施例中,根据上述权重矩阵计算得到上述变量的敏感性,包括:利用上述权重矩阵和Garson算法,计算得到上述敏感性。具体地,将上述权重矩阵输入Garson算法即可得到各变量的敏感性,即Garson算法是利用训练后神经网络的权重矩阵进行敏感性分析,筛选出敏感变量时不仅可以分析该变量与预测值的关系,还可以保证该关系可以被神经网络学习到,以进一步保证天然气产量确定方法的精度。
本申请的一种实施例中,在根据上述敏感性确定敏感变量之后,在将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量之前,上述方法还包括:采用上述训练数据对预备Wide&Deep模型进行训练,得到上述Wide&Deep模型。具体地,采用上述训练数据对预备Wide&Deep模型进行训练,已调整预备Wide&Deep模型的超参数,以提高训练得到的Wide&Deep模型的预测精度。
本申请的一种实施例中,采用上述训练数据对预备Wide&Deep模型进行训练,得到
上述Wide&Deep模型,包括:步骤S1,将上述敏感变量对应的上述历史变量数据输入上述
Deep端,将上述历史变量数据输入上述Wide端,得到训练结果,上述训练结果为上述Wide&
Deep模型输出的天然气产量;步骤S2,根据上述训练结果和对应的上述历史天然气产量计
算得到误差;步骤S3,根据上述误差更新上述预备Wide&Deep模型的参数;步骤S4,重复上述
步骤S1至上述步骤S3,直至上述误差与上一个上述误差的差值小于预定值或者重复次数等
于预定次数,得到上述Wide&Deep模型。具体地,根据上述误差调整上述预备Wide&Deep模型
的参数,即更新Wide端的参数和第二权重矩阵,上述第二权重矩阵为上述Wide端的权重矩
阵,上述Wide端的预测值y计算公式为,其中,和b为Wide端的参数,上述第二
权重矩阵为上述Deep端的权重矩阵,上述第二权重矩阵的计算公式为,l
为层号,f为激活函数,Wl为第l层的权重矩阵,al为上述Deep端的第l层的神经元节点的值,
al+1为上述Deep端的第l+1层的神经元节点的值,bl为偏置,经过多次调整预备Wide&Deep模
型的超参数,直至上述误差与上一个上述误差的差值小于预定值或者重复次数等于预定次
数,得到上述Wide&Deep模型,以保证Wide&Deep模型的预测精度,上述预定值和上述预定次
数可以根据实际情况进行选择,以进一步保证Wide&Deep模型的预测精度。
本申请的一种实施例中,在采用上述训练数据对预备Wide&Deep模型进行训练,得
到上述Wide&Deep模型之后,上述方法还包括:根据上述误差计算均方根百分比误差;根据
上述均方根百分比误差对上述Wide&Deep模型进行评价。具体地,上述均方根百分比误差
RMSPE的计算公式为,其中,为天然气的真实产量,为天然气的预测产量,均方根百分比误差也就是相对误差,具有可以比较不同单位的
数据的特点,反映的是真实值与预测值之间相差了多少个均方根百分比,即可根据上述均
方根百分比误差对上述Wide&Deep模型进行评价。
需要说明的是,根据上述均方根误差也可以对上述Wide&Deep模型进行评价,上述
均方根误差RMSE的计算公式为,其中,为天然气的
真实产量,为天然气的预测产量,上述均方根误差RMSE反映的是真实值与预测值之间
实际的差值。
本申请的一种实施例中,在采用上述训练数据对预备Wide&Deep模型进行训练,得
到上述Wide&Deep模型之后,上述方法还包括:根据上述误差计算决定系数;根据上述决定
系数对上述Wide&Deep模型进行评价。具体地,上述决定系数R2的计算公式为,其中,为天然气的真实产量,为天然气的预测产量,为天然气的真实产量的均值,决定系数描述的是真实值和预测值之间的拟合程度,
即可根据上述决定系数对上述Wide&Deep模型进行评价。
本申请的一种实施例中,在将上述敏感变量输入Wide&Deep模型的Deep端,将上述
变量输入上述Wide&Deep模型的Wide端,得到天然气产量之前,上述方法还包括:对上述变
量的数据进行预处理。具体地,对数据进行了标准化处理,标准化公式为,其中,
为处理后的数据,x为待处理的数据,xp为待处理的数据的均值,为待处理的数据的标准
差,消除各个变量之间量纲不同带来的影响。
本申请实施例还提供了一种产量确定装置,需要说明的是,本申请实施例的产量确定装置可以用于执行本申请实施例所提供的用于产量确定方法。以下对本申请实施例提供的产量确定装置进行介绍。
图2是根据本申请实施例的产量确定装置的示意图。如图2所示,该装置包括:
训练单元10,用于采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;
计算单元20,用于根据上述权重矩阵计算得到上述变量的敏感性;
第一确定单元30,用于根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;
第二确定单元40,用于将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。
上述产量确定装置中,训练单元采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;计算单元根据上述权重矩阵计算得到上述变量的敏感性;第一确定单元根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;第二确定单元将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。该确定装置通过计算输入的变量经过神经网络对输出的敏感性,减少其它敏感性较低的变量对Deep端的影响,并且Wide端输入全部的变量,来保证模型的记忆能力,从而提升Wide&Deep模型的性能,提高天然气产量确定方法的精度,解决了现有技术中天然气产量确定方法的精度低的问题。
本申请的一种实施例中,上述计算单元包括第一计算模块,上述第一计算模块用于利用上述权重矩阵和Garson算法,计算得到上述敏感性。具体地,将上述权重矩阵输入Garson算法即可得到各变量的敏感性,即Garson算法是利用训练后神经网络的权重矩阵进行敏感性分析,筛选出敏感变量时不仅可以分析该变量与预测值的关系,还可以保证该关系可以被神经网络学习到,以进一步保证天然气产量确定方法的精度。
本申请的一种实施例中,上述装置还包括训练单元,上述训练单元用于在根据上述敏感性确定敏感变量之后,在将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量之前,采用上述训练数据对预备Wide&Deep模型进行训练,得到上述Wide&Deep模型。具体地,采用上述训练数据对预备Wide&Deep模型进行训练,已调整预备Wide&Deep模型的超参数,以提高训练得到的Wide&Deep模型的预测精度。
本申请的一种实施例中,上述训练单元包括第一处理模块、第二计算模块、调整模
块和第二处理模块,其中,上述第一处理模块用于执行步骤S1,将上述敏感变量对应的上述
历史变量数据输入上述Deep端,将上述历史变量数据输入上述Wide端,得到训练结果,上述
训练结果为上述Wide&Deep模型输出的天然气产量;上述第二计算模块用于执行步骤S2,根
据上述训练结果和对更新上述预备Wide&Deep模型的参数;上述第二处理模块用于执行步
骤S4,重复上述步骤S1至上述步骤S3,直至上述误差与上一个上述误差的差值小于预定值
或者重复次数等于预定次数,得到上述Wide&Deep模型。具体地,根据上述误差调整上述预
备Wide&Deep模型的超参数,即更新Wide端的参数和第二权重矩阵,上述第二权重矩阵为上
述Wide端的权重矩阵,上述Wide端的预测值y计算公式为,其中,z为上述Wide
端输入数据,和b为Wide端的参数,上述第二权重矩阵为上述Deep端的权重矩阵,上述第
二权重矩阵的计算公式为,l为层号,f为激活函数,Wl为第l层的权重矩阵,
al为上述Deep端的第l层的神经元节点的值,al+1为上述Deep端的第l+1层的神经元节点的
值,bl为偏置,经过多次调整预备Wide&Deep模型的超参数,直至上述误差与上一个上述误
差的差值小于预定值或者重复次数等于预定次数,得到上述Wide&Deep模型,以保证Wide&
Deep模型的预测精度,上述预定值和上述预定次数可以根据实际情况进行选择,以进一步
保证Wide&Deep模型的预测精度。
本申请的一种实施例中,上述装置还包括第一评价单元,上述第一评价单元包括
第三计算模块和第一评价模块,其中,上述第三计算模块用于在采用上述训练数据对预备
Wide&Deep模型进行训练,得到上述Wide&Deep模型之后,根据上述误差计算均方根百分比
误差;上述第一评价模块用于根据上述均方根百分比误差对上述Wide&Deep模型进行评价。
具体地,上述均方根百分比误差RMSPE的计算公式为,其
中,为天然气的真实产量,为天然气的预测产量,均方根百分比误差也就是相对误
差,具有可以比较不同单位的数据的特点,反映的是真实值与预测值之间相差了多少个均
方根百分比,即可根据上述均方根百分比误差对上述Wide&Deep模型进行评价。
需要说明的是,根据上述均方根误差也可以对上述Wide&Deep模型进行评价,上述
均方根误差RMSE的计算公式为,其中,为天然气的真实产
量,为天然气的预测产量,上述均方根误差RMSE反映的是真实值与预测值之间实际的
差值。
本申请的一种实施例中,上述装置还包括第二评价单元,上述第二评价单元包括
第四计算模块和第二评价模块,其中,上述第四计算模块用于在采用上述训练数据对预备
Wide&Deep模型进行训练,得到上述Wide&Deep模型之后,根据上述误差计算决定系数;上述
第二评价模块用于根据上述决定系数对上述Wide&Deep模型进行评价。具体地,上述决定系
数R2的计算公式为,其中,为天然气的真实产量,为天然
气的预测产量,为天然气的真实产量的均值,决定系数描述的是真实值和预测值之间
的拟合程度,即可根据上述决定系数对上述Wide&Deep模型进行评价。
本申请的一种实施例中,上述装置还包括处理单元,上述处理单元用于在将上述
敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得
到天然气产量之前,对上述变量的数据进行预处理。具体地,对数据进行了标准化处理,标
准化公式为,其中, 为处理后的数据,x为待处理的数据,xp为待处理的数据的均
值,为待处理的数据的标准差,消除各个变量之间量纲不同带来的影响。
为了使得本领域技术人员能够更加清楚地了解本申请的技术方案,以下将结合具体的实施例来说明本申请的技术方案。
实施例1
确定全连接神经网络FCNN的结构的过程中,首先设置全连接神经网络FCNN的层数为3和4,设置每层神经元节点数为{5,10,15,⋯50}来确定隐藏层层数和神经元节点数的大致范围,实验结果如图3所示。从图上可以看出3层的网络比4层的网络效果更好,且模型结果更稳定。对于3层的全连接神经网络FCNN,当神经元节点数为30时平均RMSE最小,则可以确定最优的神经元节点数在30左右,为了进一步确定神经元节点数的具体值,设置神经元节点数为{25,26,27,⋯35}重新进行实验。实验结果如图4所示,从图上可以看出神经元节点数为32时网络的平均RMSE最小,即网络的稳定性最佳,因此确定神经元节点数为32。
上述天然气产量对应的变量包括顶界深度、层厚、孔隙度、渗透率、含气量、总液量、50-100目石英砂、20-40目石英砂、覆膜石英砂、总砂量、破裂压力、延伸压力施工排量、停泵压力、最高砂比和平均砂比,采用这些变量的历史数据和对应的历史天然气产量对上述全连接神经网络FCNN进行训练,得到全连接神经网络FCNN的最优结构后,在该结构下重新进行训练,为了让模型得到较为稳定的权重矩阵,这里选择均匀分布初始化方法(RandomUniform)对全连接神经网络FCNN的权重矩阵进行初始化。然后得到了16×32的输入层-隐藏层的权重矩阵以及32×1的隐藏层-输出层的权重矩阵,最后将得到的权重矩阵输入Garson算法,得到各个变量对神经网络输出(即预测产量)的相对敏感性,如图5所示。
对于预备Wide&Deep模型的结构,Wide端直接连接到输出层,Deep端的结构参考全连接神经网络FCNN,即采用三层的神经网络,且隐藏层神经元节点数设置为32。对于输入变量,Wide端输入所有变量以保证模型的记忆能力,Deep端则只输入敏感变量。将所有变量按照敏感性从高到低进行排序,然后取前个敏感性最高的变量进行实验,其中,实验结果如图6所示。由图5可知,当输入前10个敏感性最高的变量时,模型的效果最好。这10个变量分别是孔隙度,含气量,破裂压力,停泵压力,层厚,平均砂比,总液量,总砂量,20-40目石英砂,施工排量。
将所有变量的历史数据输入预备Wide&Deep模型的Wide端,将上述10个敏感变量的历史数据预备Wide&Deep模型的Deep端进行训练,从而训练得到第一Wide&Deep模型。
对比例1
将所有变量的历史数据输入预备Wide&Deep模型的Wide端和Deep端进行训练,从而训练得到第二Wide&Deep模型。
对比例2
采用所有变量的历史数据输入全连接神经网络FCNN进行训练,从而训练得到FCNN模型。
上述第一Wide&Deep模型、上述第二Wide&Deep模型和上述FCNN模型的预测精度的评价结果如表1所示。
由表1可知,第一Wide&Deep模型在测试集上的均方根误差和均方根百分比误差均低于其它两种模型,决定系数达到了0. 8816,高于其它两种模型,即第一Wide&Deep模型预测的更准确。因为本文对实际产量也进行了标准化处理,所以训练过程中均方根误差的计算用的是标准化后的数据。在评估模型时,为了体现模型实际的预测效果,先对模型输出进行反标准化处理得到预测产量,再用预测产量与实际产量计算均方根误差、均方根百分比误差和决定系数。FCNN模型、第二Wide&Deep、第一Wide&Deep三个模型的平均迭代次数分别为155.3、82.7、54.0,后两种模型迭代次数更少,表明Wide&Deep模型收敛速度更快。第一Wide&Deep模型由于减少了部分低敏感性变量的影响,使得模型收敛速度进一步提升,可见,第一Wide&Deep模型在预测精度和训练性能上都优于传统的FCNN模型和第二Wide&Deep模型。
上述产量确定装置包括处理器和存储器,上述训练单元、计算单元、第一确定单元和第二确定单元等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来解决现有技术中天然气产量确定方法的精度低的问题。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现上述确定方法。
本发明实施例提供了一种处理器,上述处理器用于运行程序,其中,上述程序运行时执行上述确定方法。
本发明实施例提供了一种设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现至少以下步骤:
步骤S101,采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;
步骤S102,根据上述权重矩阵计算得到上述变量的敏感性;
步骤S103,根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;
步骤S104,将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。
本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有至少如下方法步骤的程序:
步骤S101,采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;
步骤S102,根据上述权重矩阵计算得到上述变量的敏感性;
步骤S103,根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;
步骤S104,将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例上述方法的全部或部分步骤。而前述的计算机可读存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
从以上的描述中,可以看出,本申请上述的实施例实现了如下技术效果:
1)、本申请的产量确定方法中,首先,采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;然后,根据上述权重矩阵计算得到上述变量的敏感性;之后,根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;最后,将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。该确定方法通过计算输入的变量经过神经网络对输出的敏感性,减少其它敏感性较低的变量对Deep端的影响,并且Wide端输入全部的变量,来保证模型的记忆能力,从而提升Wide&Deep模型的性能,提高天然气产量确定方法的精度,解决了现有技术中天然气产量确定方法的精度低的问题。
2)、本申请的产量确定装置中,训练单元采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,上述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,上述训练数据包括历史天然气产量和对应的历史变量数据,上述历史变量数据为天然气产量对应的变量的历史数据;计算单元根据上述权重矩阵计算得到上述变量的敏感性;第一确定单元根据上述敏感性确定敏感变量,上述敏感变量为上述敏感性大于或者等于预定值的上述变量;第二确定单元将上述敏感变量输入Wide&Deep模型的Deep端,将上述变量输入上述Wide&Deep模型的Wide端,得到天然气产量,上述Wide端为线性模型,上述Deep端为DNN神经网络。该确定装置通过计算输入的变量经过神经网络对输出的敏感性,减少其它敏感性较低的变量对Deep端的影响,并且Wide端输入全部的变量,来保证模型的记忆能力,从而提升Wide&Deep模型的性能,提高天然气产量确定方法的精度,解决了现有技术中天然气产量确定方法的精度低的问题。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种产量确定方法,其特征在于,包括:
采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,所述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,所述训练数据包括历史天然气产量和对应的历史变量数据,所述历史变量数据为天然气产量对应的变量的历史数据;
根据所述权重矩阵计算得到所述变量的敏感性;
根据所述敏感性确定敏感变量,所述敏感变量为所述敏感性大于或者等于预定值的所述变量;
将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量,所述Wide端为线性模型,所述Deep端为DNN神经网络。
2.根据权利要求1所述的方法,其特征在于,根据所述权重矩阵计算得到所述变量的敏感性,包括:
利用所述权重矩阵和Garson算法,计算得到所述敏感性。
3.根据权利要求1所述的方法,其特征在于,在根据所述敏感性确定敏感变量之后,在将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量之前,所述方法还包括:
采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型。
4.根据权利要求3所述的方法,其特征在于,采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型,包括:
步骤S1,将所述敏感变量对应的所述历史变量数据输入所述Deep端,将所述历史变量数据输入所述Wide端,得到训练结果,所述训练结果为所述Wide&Deep模型输出的天然气产量;
步骤S2,根据所述训练结果和对应的所述历史天然气产量计算得到误差;
步骤S3,根据所述误差更新所述预备Wide&Deep模型的参数;
步骤S4,重复所述步骤S1至所述步骤S3,直至所述误差与上一个所述误差的差值小于预定值或者重复次数等于预定次数,得到所述Wide&Deep模型。
5.根据权利要求4所述的方法,其特征在于,在采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型之后,所述方法还包括:
根据所述误差计算均方根百分比误差;
根据所述均方根百分比误差对所述Wide&Deep模型进行评价。
6.根据权利要求4所述的方法,其特征在于,在采用所述训练数据对预备Wide&Deep模型进行训练,得到所述Wide&Deep模型之后,所述方法还包括:
根据所述误差计算决定系数;
根据所述决定系数对所述Wide&Deep模型进行评价。
7.根据权利要求1所述的方法,其特征在于,在将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量之前,所述方法还包括:
对所述变量的数据进行预处理。
8.一种产量确定装置,其特征在于,包括:
训练单元,用于采用训练数据对全连接神经网络进行训练,得到多个第一权重矩阵,所述第一权重矩阵为连接任意两个相邻网络层的权重矩阵,所述训练数据包括历史天然气产量和对应的历史变量数据,所述历史变量数据为天然气产量对应的变量的历史数据;
计算单元,用于根据所述权重矩阵计算得到所述变量的敏感性;
第一确定单元,用于根据所述敏感性确定敏感变量,所述敏感变量为所述敏感性大于或者等于预定值的所述变量;
第二确定单元,用于将所述敏感变量输入Wide&Deep模型的Deep端,将所述变量输入所述Wide&Deep模型的Wide端,得到天然气产量,所述Wide端为线性模型,所述Deep端为DNN神经网络。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的程序,其中,所述程序执行权利要求1至7中任意一项所述的方法。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110278652.1A CN112668812B (zh) | 2021-03-16 | 2021-03-16 | 产量确定方法、确定装置、计算机可读存储介质和处理器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110278652.1A CN112668812B (zh) | 2021-03-16 | 2021-03-16 | 产量确定方法、确定装置、计算机可读存储介质和处理器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112668812A true CN112668812A (zh) | 2021-04-16 |
CN112668812B CN112668812B (zh) | 2021-06-01 |
Family
ID=75399501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110278652.1A Active CN112668812B (zh) | 2021-03-16 | 2021-03-16 | 产量确定方法、确定装置、计算机可读存储介质和处理器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112668812B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537587A (zh) * | 2018-04-03 | 2018-09-14 | 广州优视网络科技有限公司 | 流失用户预警方法、装置、计算机可读存储介质和服务器 |
CN108564376A (zh) * | 2018-04-20 | 2018-09-21 | 阿里巴巴集团控股有限公司 | 风险控制方法、装置、服务器及可读存储介质 |
CN108647251A (zh) * | 2018-04-20 | 2018-10-12 | 昆明理工大学 | 基于宽深度门循环联合模型的推荐排序方法 |
CN112328899A (zh) * | 2020-11-27 | 2021-02-05 | 京东数字科技控股股份有限公司 | 信息处理方法、信息处理装置、存储介质与电子设备 |
-
2021
- 2021-03-16 CN CN202110278652.1A patent/CN112668812B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537587A (zh) * | 2018-04-03 | 2018-09-14 | 广州优视网络科技有限公司 | 流失用户预警方法、装置、计算机可读存储介质和服务器 |
CN108564376A (zh) * | 2018-04-20 | 2018-09-21 | 阿里巴巴集团控股有限公司 | 风险控制方法、装置、服务器及可读存储介质 |
CN108647251A (zh) * | 2018-04-20 | 2018-10-12 | 昆明理工大学 | 基于宽深度门循环联合模型的推荐排序方法 |
CN112328899A (zh) * | 2020-11-27 | 2021-02-05 | 京东数字科技控股股份有限公司 | 信息处理方法、信息处理装置、存储介质与电子设备 |
Non-Patent Citations (2)
Title |
---|
LEI REN等: "A Wide-Deep-Sequence Model-Based Quality Prediction Method in Industrial Process Analysis", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》 * |
吕海灿等: "基于Wide&Deep-LSTM模型的短期台区负荷预测", 《电网技术》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112668812B (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889547B (zh) | 一种作物生育期预测方法及装置 | |
CN110119447A (zh) | 自编码神经网络处理方法、装置、计算机设备及存储介质 | |
CN109741098A (zh) | 宽带离网预测方法、设备及存储介质 | |
CN107977748B (zh) | 一种多变量扭曲时间序列预测方法 | |
CN114492211B (zh) | 一种基于自回归网络模型的剩余油分布预测方法 | |
CN109543818A (zh) | 一种基于深度学习模型的链路评估方法和系统 | |
CN112668812B (zh) | 产量确定方法、确定装置、计算机可读存储介质和处理器 | |
CN110533109A (zh) | 一种喷涂生产监测数据的存储及特征分析方法及其装置 | |
CN111292121A (zh) | 一种基于园区画像的园区负荷预测方法及系统 | |
CN106934373A (zh) | 一种图书馆图书损坏评定方法及系统 | |
CN107133377A (zh) | 螺栓连接的建模方法和装置 | |
KR20230086956A (ko) | 항공기 소음도를 평가하기 위한 방법 및 컴퓨터 프로그램 | |
CN107038450A (zh) | 基于深度学习的无人机警察系统 | |
CN115935761B (zh) | 设备的可靠性仿真方法、装置、计算机设备和存储介质 | |
Gopakumar et al. | Hydrologic data exploration and river flow forecasting of a humid tropical river basin using artificial neural networks | |
CN116911178A (zh) | 一种基于气象预报的中小型水库容量预测方法及系统 | |
CN114444676A (zh) | 模型通道剪枝方法、装置、计算机设备和存储介质 | |
CN111711530A (zh) | 基于社区拓扑结构信息的链接预测算法 | |
CN113869350B (zh) | 基于空间特征差异的海流预测方法以及系统 | |
CN115983366A (zh) | 面向联邦学习的模型剪枝方法及系统 | |
Burghardt et al. | Introduction of artificial neural networks in EMC | |
CN109359850A (zh) | 一种生成风险评估量表的方法及装置 | |
CN109858520A (zh) | 一种多层半监督分类方法 | |
CN108334935A (zh) | 精简输入的深度学习神经网络方法、装置和机器人系统 | |
CN111723526A (zh) | 动态回归委员会机器测井储层参数预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |