CN114300068A - 油干点预测计算方法、装置、计算机设备和存储介质 - Google Patents

油干点预测计算方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN114300068A
CN114300068A CN202111402467.5A CN202111402467A CN114300068A CN 114300068 A CN114300068 A CN 114300068A CN 202111402467 A CN202111402467 A CN 202111402467A CN 114300068 A CN114300068 A CN 114300068A
Authority
CN
China
Prior art keywords
matrix
model
neural network
preset
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111402467.5A
Other languages
English (en)
Inventor
朱宏韬
郑文刚
周建华
田健辉
吴奕琛
赵毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Petro CyberWorks Information Technology Co Ltd
Original Assignee
Petro CyberWorks Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Petro CyberWorks Information Technology Co Ltd filed Critical Petro CyberWorks Information Technology Co Ltd
Priority to CN202111402467.5A priority Critical patent/CN114300068A/zh
Publication of CN114300068A publication Critical patent/CN114300068A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种油干点预测计算方法、装置、计算机设备和存储介质,该方法包括获取样本数据;将样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;对神经网络模型各隐含层使用预设矩阵进行变换,生成代理模型;将代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;将预设建模程序中的预设组分值输入至预测模块计算,得到干点预测值。采用大量的样本数据结合神经网络的算法来生成神经网络模型后,然后基于神经网络模型生成参数开发对应的代理模型,基于代理模型开发对应的在线优化软件的模块,从而实现对干点值的精确计算和预测。

Description

油干点预测计算方法、装置、计算机设备和存储介质
技术领域
本发明涉及炼油技术领域,特别涉及一种油干点预测计算方法、装置、计算机设备和存储介质。
背景技术
“干点”即当油品蒸馏到最后达到最高汽相温度称为终馏点或干点。装置物流产品的“干点”性质通常通过现场测试获得,而在线优化系统则通过软件内部的物性计算得到。
目前连续重整装置在线优化(RTO)领域中的商品化建模软件在“干点”的计算上都普遍存在计算不准确的局限,主要原因是同分异构体的性质相差很大,尤其是流程模拟软件在经过复杂分馏计算后很多物性匹配工作效果并不理想,以重整装置的模拟为例其重整生成油的干点,计算值普遍与真实值测量值之间的差距很大,其误差程度已经失去了参考与预测的意义。但是在在线优化的过程中,需要相对准确的干点值,因此需要针对目前流程模拟软件的缺陷进行改良。
发明内容
基于此,有必要针对上述技术问题,提供一种油干点预测计算方法、装置、计算机设备和存储介质。
一种油干点预测计算方法,包括:
获取样本数据;
将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
在其中一个实施例中,所述对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型的步骤包括:
获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
在其中一个实施例中,所述对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型的步骤包括:
采用第一矩阵,对各所述隐含层的各个组分的权值进行变换,得到变换后的所述第一矩阵;
采用第二矩阵,对各所述隐含层的各个组分的截距和变换后的所述第一矩阵进行变换,得到变换后的所述第二矩阵;
采用第三矩阵,对变换后的所述第二矩阵进行变换,生成所述代理模型,其中,所述第三矩阵包括逻辑回归模型分类函数。
在其中一个实施例中,所述对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型的步骤中,依次采用所述第一矩阵、所述第二矩阵和所述第三矩阵进行循环迭代变换两次,生成所述代理模型。
在其中一个实施例中,所述逻辑回归模型分类函数为sigmoid函数。
在其中一个实施例中,所述神经网络模型的隐含层数量为两个。
一种油干点预测计算装置,包括:
样本数据获取单元,用于获取样本数据;
神经网络模型生成单元,用于将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
代理模型生成单元,用于对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
预测模块获得单元,用于将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
干点预测值获得单元,用于将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
在其中一个实施例中,所述代理模型生成单元包括:
权值和截距获取子单元,用于获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
代理模型生成子单元,用于对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现以下步骤:
获取样本数据;
将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取样本数据;
将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
上述油干点预测计算方法、装置、计算机设备和存储介质,采用大量的样本数据结合神经网络的算法来生成神经网络模型后,然后基于神经网络模型生成参数开发对应的代理模型,,基于代理模型开发对应的在线优化软件的模块,从而实现对干点值的精确计算和预测。
附图说明
图1为一个实施例中油干点预测计算方法的流程示意图;
图2为一个实施例中油干点预测计算装置的结构框图;
图3为一个实施例中计算机设备的内部结构图;
图4为另一个实施例中油干点预测计算方法的流程示意图;
图5为一个实施例中的神经网络模型的示意图;
图6为预测模块及组态图标外形界面示意图;
图7为预测模块及组态外形界面示意图;
图8为预测模块的内部参数界面中样本最小值范围统计界面示意图;
图9为预测模块的内部参数界面-样本最大值范围统计界面示意图;
图10为预测模块的内部参数界面-微调参数界面示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
实施例一
本实施例中,如图1所示,提供了一种油干点预测计算方法,其包括:
步骤110,获取样本数据。
本实施例中,样本数据额为LIMS数据,用于作为神经网络模型的样本。本实施例中,首先对LIMS数据进行筛选,筛选出合适的数据,随后对筛选出来的数据进行整理,从而获得样本数据。
步骤120,将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型。
本步骤中,根据样本应用神经网络算法,生成神经网络模型。本实施例中,样本数据为油气的组分,神经网络模型输入的是组分,输出的是干点温度。该神经网络模型的具体计算过程为在输入端输入全部对应的16个组分的同一时间节点的测量值,则输出端计算得到对应的那个时间节点的干点温度值。
步骤130,对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型。
本实施例中,对所述神经网络模型各所述隐含层的参数,利用预设矩阵进行迭代变换,生成代理模型。
步骤140,将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块。
本实施例中,预设建模程序即预设建模软件,该预设建模程序可以是现有的预设建模软件,比如RoMeo软件,也可以是其他的预设建模程序软件。本实施例中,代理模型计算的结果封装进RoMeo软件制作成预测干点的预测模块。
步骤150,将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
本实施例中,预设组分值为RoMeo重整油分馏塔底计算的组分值。具体地,预测模块在训练的时候,用现场数据作为输入,将现场数据输入预测模块,生成个隐含层权值和其他参数;在优化系统使用时,预测模块输入为RoMeo重整油分馏塔底计算的组分值,即将RoMeo重整油分馏塔底计算的组分值输入至所述预测模块,则输出为对应的预测值。这样可以把大数据模型和机理模型统一起来。
在一个实施例中,所述对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型的步骤包括:获取所述神经网络模型各所述隐含层的各个组分的权值和截距;对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。在一个实施例中,所述神经网络模型的隐含层数量为两个。
本实施例中,神经网络模型包括两个隐含层,因此,可顺序得到各隐含层的对应的各个组分的权值和截距。利用预设矩阵,将两个隐含层的各个组分的权值和截距输入至预设矩阵计算,从而得到所述代理模型。
在一个实施例中,所述对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型的步骤包括:采用第一矩阵,对各所述隐含层的各个组分的权值进行变换,得到变换后的所述第一矩阵;采用第二矩阵,对各所述隐含层的各个组分的截距和变换后的所述第一矩阵进行变换,得到变换后的所述第二矩阵;采用第三矩阵,对变换后的所述第二矩阵进行变换,生成所述代理模型,其中,所述第三矩阵包括逻辑回归模型分类函数。
本实施例中,代理模型的生成规则为对神经网络模型的两个隐含层迭代使用第一矩阵、第二矩阵以及第三矩阵进行变换:
其中,第一矩阵为矩阵1,第二矩阵为矩阵2,第三矩阵为矩阵3,
Figure BDA0003364566960000061
Figure BDA0003364566960000062
矩阵3=F(矩阵2),这样,通过矩阵1、矩阵2和矩阵3的交换,生成代理模型。
在一个实施例中,所述逻辑回归模型分类函数为sigmoid函数。
本实施例中,矩阵3=F(矩阵2)中,F为sigmoid函数即在机器学习中可用在分类问题上,比如,逻辑回归模型分类器,将输出值映射到(0,1);总和为1,可以从概率角度理解,则输出时选择值最大的(概率最大)作为预测值。即变换为:
Figure BDA0003364566960000063
在一个实施例中,所述对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型的步骤中,依次采用所述第一矩阵、所述第二矩阵和所述第三矩阵进行循环迭代变换两次,生成所述代理模型。
本实施例中,利用矩阵1、矩阵2和矩阵3依次循环迭代2次,最终迭代后可以得到对应的干点值。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
实施例二
应该理解的是,在线优化是全流程优化控制技术发展到现阶段最先进的优化技术,其把最优化技术应用于过程控制,在满足各项生产技术指标的条件下,寻求使目标函数达到最优的一组操作参数,并将该组参数用于装置的实际控制。
在线优化技术可以在不修改工艺流程、不增加生产设备的情况下,仅通过调整操作参数,使生产过程处于最佳运行状态。在线优化技术可设定效益最大化,高附加值收率等为目标函数,在不修改工艺流程、不增加或减少生产设备的情况下,仅通过调整压力、温度、负荷等参数,使生产过程处于最佳运行状态,获得最高的期望值。也就是说,在不增加重大设备投资的情况下,充分发挥了现有生产装置的运行潜力,主要技术经济指标达到或超过了同类装置的国际先进水平,有效实现了增产、节能、降耗的目标,为企业创造新增利税。
而支持上述这些功能的核心是在线优化系统是基于一个严格机理的装置模型的计算结果和优化结果。目前能支持在线优化的机理模型软件只有ROMEO和ASPEN PLUS两个平台。
以现有重整装置的在线优化软件ROMEO为例,其模型是由若干子模块拼装组态,然后再结合专业技术人员结合重整工艺知识统一配置调试而成。
鉴于目前用机理的方式难以准确的预测流股“干点”性质的原因与现状上文已有表述,因此,本申请拟采用其他方法来预测“干点”。
但目前的研究仅限于用神经网络或大数据的方法来生成神经网络模型,用单独的模型本身进行单变量的简单预测。但是无法和流程模拟软件结合进行装置级多参数整体的预算。因为无法达到装置级优化的效果。
本申请采用的大数据结合神经网络的算法来生成模型后,然后基于神经网络模型生成参数开发对应的代理模型,代理模型采用神经网络模型的参数。最后基于代理模型开发对应的在线优化软件的模块。如图4所示:
步骤一,根据现场1年半的LIMS数据进行数据筛选,和数据整理,生成神经网络样本。
步骤二,根据样本应用神经网络算法,生成神经网络模型。
此神经网络模型输入是组分,输出是干点温度。
神经网络模型的使用步骤就是在输入端输入全部对应的16个组分的同一时间节点的测量值,则输出端算出对应的那个时间节点的干点温度值。
对应于测试样本此神经网络模型计算准确准确率99.9%,对于新样本,神经网络模型预测的准确率96%。
步骤三,生成代理模型。
由图5可知,神经网络模型为2个隐含层。可顺序得到各隐含层的对应的各个组分的权值和截距。
则代理模型的生成规则为对2个隐含层,迭代使用下面矩阵1到矩阵3的变换。
Figure BDA0003364566960000081
Figure BDA0003364566960000082
矩阵3=F(矩阵2)F为sigmoid函数即在机器学习中可用在分类问题上,如逻辑回归模型分类器,将输出值映射到(0,1);总和为1,可以从概率角度理解,则输出时选择值最大的(概率最大)作为预测值。
即为变换:
Figure BDA0003364566960000083
矩阵1->矩阵3的步骤循环迭代2次。最终迭代后可以得到对应的干点值。
代理模型计算的结果封装进RoMeo软件制作成预测干点的预测模块。模块在训练的时候,用现场数据作为输入生成个隐含层权值和其他参数;在优化系统使用时,模块输入为RoMeo重整油分馏塔底计算的组分值,输出为此时的预测值。这样可以把大数据模型和机理模型统一起来。获得的预测模块如图6至图9所示。
其中,图6为预测模块及组态图标外形界面示意图;
图7为预测模块及组态外形界面示意图;
图8为预测模块的内部参数界面中样本最小值范围统计界面示意图;
图9为预测模块的内部参数界面-样本最大值范围统计界面示意图;
图10为预测模块的内部参数界面-微调参数界面示意图。
微调参数作用为此模块部署在工控网,而LIMS原始数据则在管理网中,因此实时更新隐含层参数并不现实,所以当现场的实际情况和神经网络原始的参数有较大差距,而客户又不想立刻更新所有参数的时候,可以手动微调以上参数,进行干点计算值和现场值之间的误差消除工作。
实施例三
本实施例中,如图2所示,提供一种油干点预测计算装置,包括:
样本数据获取单元,用于获取样本数据;
神经网络模型生成单元,用于将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
代理模型生成单元,用于对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
预测模块获得单元,用于将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
干点预测值获得单元,用于将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
在一个实施例中,所述代理模型生成单元包括:
权值和截距获取子单元,用于获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
代理模型生成子单元,用于对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
在一个实施例中,所述代理模型生成子单元还用于采用第一矩阵,对各所述隐含层的各个组分的权值进行变换,得到变换后的所述第一矩阵;采用第二矩阵,对各所述隐含层的各个组分的截距和变换后的所述第一矩阵进行变换,得到变换后的所述第二矩阵;采用第三矩阵,对变换后的所述第二矩阵进行变换,生成所述代理模型,其中,所述第三矩阵包括逻辑回归模型分类函数。
所述代理模型生成子单元还用于依次采用所述第一矩阵、所述第二矩阵和所述第三矩阵进行循环迭代变换两次,生成所述代理模型。
在一个实施例中,所述逻辑回归模型分类函数为sigmoid函数。
在一个实施例中,所述神经网络模型的隐含层数量为两个。
关于油干点预测计算装置的具体限定可以参见上文中对于油干点预测计算方法的限定,在此不再赘述。上述油干点预测计算装置中的各个单元可全部或部分通过软件、硬件及其组合来实现。上述各单元可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个单元对应的操作。
实施例四
本实施例中,提供了计算机设备。其内部结构图可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序,且该非易失性存储介质部署有数据库,该数据库用于存储样本数据和神经网络模型。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与部署了应用软件的其他计算机设备通信。该计算机程序被处理器执行时以实现一种油干点预测计算方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取样本数据;
将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
采用第一矩阵,对各所述隐含层的各个组分的权值进行变换,得到变换后的所述第一矩阵;
采用第二矩阵,对各所述隐含层的各个组分的截距和变换后的所述第一矩阵进行变换,得到变换后的所述第二矩阵;
采用第三矩阵,对变换后的所述第二矩阵进行变换,生成所述代理模型,其中,所述第三矩阵包括逻辑回归模型分类函数。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
依次采用所述第一矩阵、所述第二矩阵和所述第三矩阵进行循环迭代变换两次,生成所述代理模型。
在一个实施例中,所述逻辑回归模型分类函数为sigmoid函数。
在一个实施例中,所述神经网络模型的隐含层数量为两个。
实施例五
本实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取样本数据;
将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
采用第一矩阵,对各所述隐含层的各个组分的权值进行变换,得到变换后的所述第一矩阵;
采用第二矩阵,对各所述隐含层的各个组分的截距和变换后的所述第一矩阵进行变换,得到变换后的所述第二矩阵;
采用第三矩阵,对变换后的所述第二矩阵进行变换,生成所述代理模型,其中,所述第三矩阵包括逻辑回归模型分类函数。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
依次采用所述第一矩阵、所述第二矩阵和所述第三矩阵进行循环迭代变换两次,生成所述代理模型。
在一个实施例中,所述逻辑回归模型分类函数为sigmoid函数。
在一个实施例中,所述神经网络模型的隐含层数量为两个。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种油干点预测计算方法,其特征在于,包括:
获取样本数据;
将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
2.根据权利要求1所述的方法,其特征在于,所述对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型的步骤包括:
获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
3.根据权利要求2所述的方法,其特征在于,所述对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型的步骤包括:
采用第一矩阵,对各所述隐含层的各个组分的权值进行变换,得到变换后的所述第一矩阵;
采用第二矩阵,对各所述隐含层的各个组分的截距和变换后的所述第一矩阵进行变换,得到变换后的所述第二矩阵;
采用第三矩阵,对变换后的所述第二矩阵进行变换,生成所述代理模型,其中,所述第三矩阵包括逻辑回归模型分类函数。
4.根据权利要求3所述的方法,其特征在于,所述对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型的步骤中,依次采用所述第一矩阵、所述第二矩阵和所述第三矩阵进行循环迭代变换两次,生成所述代理模型。
5.根据权利要求3或4所述的方法,其特征在于,所述逻辑回归模型分类函数为sigmoid函数。
6.根据权利要求1-4任一项中所述的方法,其特征在于,所述神经网络模型的隐含层数量为两个。
7.一种油干点预测计算装置,其特征在于,包括:
样本数据获取单元,用于获取样本数据;
神经网络模型生成单元,用于将所述样本数据输入至预设的神经网络算法,生成具有至少一隐含层的神经网络模型;
代理模型生成单元,用于对所述神经网络模型各所述隐含层使用预设矩阵进行变换,生成代理模型;
预测模块获得单元,用于将所述代理模型的计算结果输入至预设建模程序中进行封装,得到预测干点的预测模块;
干点预测值获得单元,用于将预设建模程序中的预设组分值输入至所述预测模块计算,得到干点预测值。
8.根据权利要求7所述的装置,其特征在于,所述代理模型生成单元包括:
权值和截距获取子单元,用于获取所述神经网络模型各所述隐含层的各个组分的权值和截距;
代理模型生成子单元,用于对各所述隐含层的各个组分的权值和截距使用预设矩阵进行变换,生成所述代理模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
CN202111402467.5A 2021-11-19 2021-11-19 油干点预测计算方法、装置、计算机设备和存储介质 Pending CN114300068A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111402467.5A CN114300068A (zh) 2021-11-19 2021-11-19 油干点预测计算方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111402467.5A CN114300068A (zh) 2021-11-19 2021-11-19 油干点预测计算方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN114300068A true CN114300068A (zh) 2022-04-08

Family

ID=80965863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111402467.5A Pending CN114300068A (zh) 2021-11-19 2021-11-19 油干点预测计算方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN114300068A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114740159A (zh) * 2022-04-14 2022-07-12 成都秦川物联网科技股份有限公司 一种天然气能量计量组分获取方法和物联网系统
US11979697B2 (en) 2021-07-26 2024-05-07 Chengdu Qinchuan Iot Technology Co., Ltd. Methods and internet of things systems for obtaining natural gas energy metering component

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880905A (zh) * 2011-07-15 2013-01-16 中国石油天然气股份有限公司 一种常顶油干点在线软测量方法
CN108205056A (zh) * 2016-12-20 2018-06-26 中国石油天然气股份有限公司 常一线油干点在线软测量方法
US20210089925A1 (en) * 2019-09-24 2021-03-25 Vahid PARTOVI NIA Training method for quantizing the weights and inputs of a neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880905A (zh) * 2011-07-15 2013-01-16 中国石油天然气股份有限公司 一种常顶油干点在线软测量方法
CN108205056A (zh) * 2016-12-20 2018-06-26 中国石油天然气股份有限公司 常一线油干点在线软测量方法
US20210089925A1 (en) * 2019-09-24 2021-03-25 Vahid PARTOVI NIA Training method for quantizing the weights and inputs of a neural network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11979697B2 (en) 2021-07-26 2024-05-07 Chengdu Qinchuan Iot Technology Co., Ltd. Methods and internet of things systems for obtaining natural gas energy metering component
CN114740159A (zh) * 2022-04-14 2022-07-12 成都秦川物联网科技股份有限公司 一种天然气能量计量组分获取方法和物联网系统
CN114740159B (zh) * 2022-04-14 2023-09-19 成都秦川物联网科技股份有限公司 一种天然气能量计量组分获取方法和物联网系统

Similar Documents

Publication Publication Date Title
CN112434448B (zh) 基于多点加点的代理模型约束优化方法和装置
CN111126668B (zh) 基于图卷积网络的Spark作业时间预测方法和装置
CN114300068A (zh) 油干点预测计算方法、装置、计算机设备和存储介质
CN110826774B (zh) 母线负荷预测方法、装置、计算机设备及存储介质
US20230195986A1 (en) Method for predicting delay at multiple corners for digital integrated circuit
CN105320805B (zh) 一种皮卫星多源可靠性信息融合方法
CN109636243A (zh) 模型故障检测方法、装置、计算机设备以及存储介质
Ghosh et al. A Novel Model Based on Nonlinear Manifold Detection for Software Defect Prediction
CN113657661A (zh) 一种企业碳排放预测方法、装置、计算机设备和存储介质
CN114297779A (zh) 一种飞行器气动力系数快速预测方法、系统及设备
CN113110961B (zh) 设备异常检测方法、装置、计算机设备及可读存储介质
CN114048544A (zh) 飞行器结构响应特性预示方法、装置、设备和介质
CN113328467A (zh) 一种概率电压稳定性评估方法、系统、终端设备及介质
Han et al. A kriging-based active learning algorithm for contour estimation of integrated response with noise factors
Stratigopoulos et al. Multidimensional analog test metrics estimation using extreme value theory and statistical blockade
CN111949530B (zh) 测试结果的预测方法、装置、计算机设备及存储介质
US20240103920A1 (en) Method and system for accelerating the convergence of an iterative computation code of physical parameters of a multi-parameter system
CN113779498A (zh) 离散傅里叶矩阵重构方法、装置、设备和存储介质
Pankratova et al. Digital Twin Simulation for Cyber-Physical Systems on Electric Heater Example
CN102708296A (zh) 一种基于灰色多因素预测模型的能源供需预测方法
US20230169240A1 (en) Computing device and method generating optimal input data
Ghiasi et al. Combining thermodynamics-based model of the centrifugal compressors and active machine learning for enhanced industrial design optimization
CN115392594B (zh) 一种基于神经网络和特征筛选的用电负荷模型训练方法
Rauch et al. Dynamic load balancing for CAFE multiscale modelling methods for heterogeneous hardware infrastructure
KR102531291B1 (ko) 건물의 에너지 소비량 예측 방법 및 상기 방법을 수행하는 컴퓨팅 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination