CN109359768A - 一种数据处理方法、服务器及电子设备 - Google Patents
一种数据处理方法、服务器及电子设备 Download PDFInfo
- Publication number
- CN109359768A CN109359768A CN201811115128.7A CN201811115128A CN109359768A CN 109359768 A CN109359768 A CN 109359768A CN 201811115128 A CN201811115128 A CN 201811115128A CN 109359768 A CN109359768 A CN 109359768A
- Authority
- CN
- China
- Prior art keywords
- sample
- training
- status information
- training sample
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 627
- 238000000034 method Methods 0.000 claims abstract description 101
- 230000000306 recurrent effect Effects 0.000 claims abstract description 97
- 230000008569 process Effects 0.000 claims abstract description 83
- 230000015654 memory Effects 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 126
- 238000003062 neural network model Methods 0.000 claims description 76
- 241001269238 Data Species 0.000 claims description 19
- 230000010354 integration Effects 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 12
- 210000005036 nerve Anatomy 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 abstract description 35
- 230000007787 long-term memory Effects 0.000 abstract description 16
- 230000000694 effects Effects 0.000 abstract description 10
- 238000006243 chemical reaction Methods 0.000 description 15
- 238000011069 regeneration method Methods 0.000 description 15
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 239000012141 concentrate Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000008929 regeneration Effects 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003208 petroleum Substances 0.000 description 2
- 230000001172 regenerating effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Marketing (AREA)
- Biophysics (AREA)
- General Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Tourism & Hospitality (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Manufacturing & Machinery (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供的一种数据处理方法、服务器及电子设备,可利用循环神经网络训练一预测模型,该预测模型用于对预定设备的目标指标进行预测。在训练预测模型时,除了以训练样本为模型输入,还引入了待预测指标所对应的所述预定设备的设备状态信息,并具体以第一训练样本的上一样本在训练过程中输出的第一设备状态信息作为第一训练样本在进行训练时的状态输入信息,这就使得设备状态信息能够按各样本的训练次序在各样本的训练过程中进行传递,相对应地能够使得所得的预测模型达到对设备状态信息的长时记忆效果,后续在利用该预测模型进行预测时,能够结合预测样本的数据及记忆的设备状态信息对目标指标进行预测,从而可使得预测结果具备较高的准确率。
Description
技术领域
本发明属于大数据分析预测技术领域,尤其涉及一种数据处理方法、服务器及电子设备。
背景技术
在以石化行业为代表的流程制造行业中,准确的预测其目标产出物(例如石化行业中的汽油、液化气等)的收率,对于指导生产过程,实现经济效益最大化是非常关键的。
由于流程制造行业所涉及的流程繁多,工艺复杂,且各个流程间往往存在复杂的相互影响,从而会导致准确预测其目标产出物的收率较为困难。因此,对于流程制造行业而言,提供一种解决方案以能够有效、高准确率地预测诸如目标产出物收率等指标的指标数据十分必要。
发明内容
有鉴于此,本发明的目的在于提供一种数据处理方法、服务器及电子设备,以能够有效、高准确率地预测诸如目标产出物收率等指标的指标数据。
为此,本发明公开如下技术方案:
一种数据处理方法,用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,所述方法包括:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
上述方法,优选的,所述利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,包括:
对所述第一训练样本的相应样本数据及所述第一设备状态信息进行整合处理,得到第一训练样本对应的整合样本;
利用循环神经网络模型,对所述整合样本进行模型训练处理,得到模型输出的对应于所述第一训练样本的目标指标预测值以及第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本的目标指标预测值以及第一训练样本对应的目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
上述方法,优选的,每个训练样本对应的一组时序数据包括所述至少一个采集指标在预定数量的历史时序点中各个历史时序点的指标数据;每个历史时序点的指标数据对应一目标指标实际值;
所述利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,包括:
利用循环神经网络模型,基于所述第一设备状态信息,对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息;
若第一训练样本中存在未被处理的时序点样本数据,则利用循环神经网络模型,基于第一训练样本中相邻的上一个时序点样本数据对应得到的设备状态信息,对该未被处理的时序点样本数据进行模型训练处理,得到该未被处理的时序点样本数据所对应的目标指标预测值及设备状态信息;
将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本中的最后一个时序点样本数据对应的目标指标预测值以及目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
上述方法,优选的,所述获得多个训练样本,包括:
按时间顺序获得所述至少一个采集指标在多个历史时序点的指标数据及每个历史时序点的指标数据对应的目标指标实际值;
采用一滑动窗口以预定步长对所述多个历史时序点的指标数据及其对应的目标指标实际值进行滑动处理,滑动过程中每一个窗口内对应包括的采集指标的一组时序数据及目标指标实际值作为一个训练样本,得到多个训练样本;所述滑动窗口的时序点长度为所述预定数量。
上述方法,优选的,在所述采用一滑动窗口以预定步长对所述多个历史时序点的指标数据进行滑动处理之前,还包括:
对所述多个历史时序点的采集指标的指标数据进行筛选处理,得到所述多个历史时序点的符合预定条件的指标数据。
上述方法,优选的,还包括:
利用预测模型对待处理的预测样本进行预测处理,得到所述预测样本对应的目标指标预测值;
所述预测样本对应的目标指标预测值的生成,利用了所述预测模型在训练阶段所涉及的所述预定设备的所有历史状态信息以及在对所述待处理的预测样本处理之前的预测阶段所涉及的所述预定设备的所有历史状态信息。
一种服务器,用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,所述服务器包括:
存储器,用于至少存储一组指令集;
处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下操作:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
上述服务器,优选的,所述处理器利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,具体包括:
对所述第一训练样本的相应样本数据及所述第一设备状态信息进行整合处理,得到第一训练样本对应的整合样本;
利用循环神经网络模型,对所述整合样本进行模型训练处理,得到模型输出的对应于所述第一训练样本的目标指标预测值以及第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本的目标指标预测值以及第一训练样本对应的目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
上述服务器,优选的,所述每个训练样本对应的一组时序数据包括所述至少一个采集指标在预定数量的历史时序点中各个历史时序点的指标数据;每个历史时序点的指标数据对应一目标指标实际值;
所述处理器利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,包括:
利用循环神经网络模型,基于所述第一设备状态信息,对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息;
若第一训练样本中存在未被处理的时序点样本数据,则利用循环神经网络模型,基于第一训练样本中相邻的上一个时序点样本数据对应得到的设备状态信息,对该未被处理的时序点样本数据进行模型训练处理,得到该未被处理的时序点样本数据所对应的目标指标预测值及设备状态信息;
将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本中的最后一个时序点样本数据对应的目标指标预测值以及目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
一种电子设备,用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,所述电子设备包括:
存储器,用于至少存储一组指令集;
处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下操作:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
根据以上方案可知,本申请提供的数据处理方法、服务器及电子设备,可利用循环神经网络训练一预测模型,该预测模型用于对预定设备的目标指标进行数据预测。在训练预测模型时,除了以训练样本的样本数据为模型输入,还引入了待预测指标所对应设备(即所述预定设备)的设备状态信息,并具体以第一训练样本的上一样本在训练过程中输出的第一设备状态信息作为第一训练样本在进行模型训练时的状态输入信息,这就使得设备状态信息能够按各样本的训练次序在各样本的训练过程中进行传递,相对应地能够使得训练所得的预测模型达到对训练过程中所涉及的设备状态信息的长时记忆效果,后续在利用该预测模型进行数据预测时,能够结合预测样本的样本数据以及记忆的设备状态信息对目标指标进行预测,从而可使得最终的预测结果与设备状态更加相符、具备较高的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本申请提供的一种数据处理方法实施例一的流程图;
图2是本申请提供的一种数据处理方法实施例二的流程图;
图3是本申请实施例二提供的获得训练样本集的处理过程流程图;
图4是循环神经网络的基本模型结构示意图;
图5是本申请实施例二提供的长时记忆神经网络的基本模型结构示意图;
图6是本申请实施例三提供的获得训练样本集的处理过程流程图;
图7是本申请提供的一种数据处理方法实施例四的流程图;
图8是本申请实施例四提供的基于构建预测模型并利用预测模型对目标指标进行预测的整体逻辑框架示意图;
图9是本申请提供的一种服务器实施例五的结构示意图;
图10是本申请提供的一种电子设备实施例九的结构示意图。
具体实施方式
为了引用和清楚起见,下文中使用的技术名词、简写或缩写总结解释如下:
收率:也称作反应收率,一般用于化学及工业生产,是指在化学反应或相关的化学工业生产中,投入单位数量原料获得的实际生产的产品产量与理论计算的产品产量的比值。同样的一个化学反应在不同的压力、温度下会有不同的收率。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在以石化行业为代表的流程制造行业中,准确的预测其目标产出物的收率,对于指导生产过程,实现经济效益最大化是非常关键的。发明人经研究发现,实际生产环境中某一时刻的目标产出物收率会受历史各时刻的设备(即生产出目标产出物的过程中所使用的设备)状态的影响,如某时刻汽油收率会受历史各时刻反应再生系统的设备状态(可以将反应再生系统理解为一个整体设备,其设备状态可基于反应塔的相应温度值、再生器的相应温度值、再生器的相应风量值等来体现)的影响等,这就需要在对目标产出物的收率进行预测时,能够记忆历史各时刻的设备状态信息,进而基于记忆的设备状态信息进行收率预测。
然而,现有的预测方案均无法达到该效果或未考虑历史各时刻设备状态信息对目标产出物收率的影响,鉴于此,本申请提供了一种数据处理方法、服务器及电子设备,以通过对待预测指标所对应设备的设备状态信息进行长时记忆进而基于长时记忆的设备状态信息对目标指标进行数据预测,来实现高准确率地预测诸如目标产出物收率等目标指标的指标数据。以下将通过多个实施例对本申请的数据处理方法、服务器及电子设备进行说明。
参考图1,是本申请提供的一种数据处理方法实施例一的流程图,该数据处理方法用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,该数据处理方法可应用于能够提供数据处理服务的本地/网络端服务器或服务器集群中,或者还可以应用于智能手机、平板电脑、台式机、笔记本、一体机等各类型终端设备中。如图1所示,本实施例中,所述数据处理方法包括如下步骤:
步骤101、获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值。
本申请将主要以流程制造行业中目标产出物(如石化行业中的汽油、液化气等)的收率预测所需的预测模型为例,对本申请方案进行阐述。
所述获得多个训练样本,即指获得训练样本集,以预测模型所需预测的目标指标为汽油、液化气等产出物的收率为例,训练样本集可以包括反应再生系统在各历史时刻的反应塔温度、再生器温度、再生器风量等一系列采集指标的指标数据(这些指标数据能够体现反应再生系统整体设备的设备运行状态),其中,每个训练样本可包括各采集指标的一组时序数据,例如,每个训练样本具体包括反应再生系统在预定数量的时序点所对应的各采集指标的指标数据等,该预定数量的时序点所对应的各采集指标的指标数据即构成该训练样本所对应的一组采集指标时序数据。
除了各采集指标的指标数据,训练样本中还应包括各采集指标的指标数据所对应的目标指标实际值,也就是说,训练样本应同时包括采集指标的指标数据及其对应的目标指标实际值,以目标指标为汽油收率为例,所述训练样本则具体可以包括反应塔温度、再生器温度、再生器风量等一系列采集指标的指标数据及这些指标数据对应的汽油实际收率值。
针对待处理的第一训练样本,执行以下的预定处理:
步骤102、获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息。
所述第一训练样本,是指所获得的训练样本集中除第一个参与模型训练的样本之外的其他样本中的任意一个训练样本,也就是说,所述第一训练样本在训练样本集中至少对应一个在其前参与模型训练的训练样本。
所述第一设备状态信息具体是指在对所述第一训练样本的上一个训练样本进行模型训练处理时模型所输出的设备状态信息,该设备状态信息为待预测的目标指标所对应设备的状态信息,以目标指标为汽油收率为例,则该设备状态信息为反应再生系统所对应的整体设备的设备运行状态信息。
步骤103、将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型。
与传统的模型训练过程中仅以训练样本的样本数据为模型输入相区别,本申请是将第一训练样本的样本数据,以及在对第一训练样本的上一个训练样本进行模型训练处理时所输出的所述第一设备状态信息均作为模型的输入信息,即,这两种信息均参与针对第一训练样本的模型训练过程。
本申请具体基于循环神经网络进行模型训练,从而模型训练过程中,可将待处理的第一训练样本的样本数据以及所获得的所述第一设备状态信息输入当前训练时刻所得的循环神经网络模型中,以进行模型训练。
步骤104、利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
在获得所输入的第一训练样本的样本数据以及所述第一设备状态信息后,循环神经网络模型基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
由于循环神经网络模型基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,从而在对第一训练样本进行模型训练处理时,引入了设备状态信息,考虑了设备状态信息对预测结果的影响,从而,可使得训练所得的预测模型在预测准确率方面具备较好的性能。
这里,需要说明的是,对于训练样本集中第一个参与模型训练的训练样本而言,由于不存在在其之前参与训练的样本,从而相对应地无法获得其上一个训练样本在训练过程中输出的第一设备状态信息,针对该情况,可基于人工设置等方式,为其在进行模型训练时所需输入的设备状态信息赋予一初始值,该初始值可由所属领域的技术人员根据业务经验设定,例如将其设置为0或非0的其他数值等。
根据以上方案可知,本实施例提供的数据处理方法,在利用循环神经网络训练预测模型时,除了以训练样本的样本数据为模型输入,还引入了待预测指标所对应设备(即所述预定设备)的设备状态信息,并具体以第一训练样本的上一样本在训练过程中输出的第一设备状态信息作为第一训练样本在进行模型训练时的状态输入信息,这就使得设备状态信息能够按各样本的训练次序在各样本的训练过程中进行传递,相对应地能够使得训练所得的预测模型达到对训练过程中所涉及的设备状态信息的长时记忆效果,后续在利用该预测模型进行数据预测时,能够结合预测样本的样本数据以及记忆的设备状态信息对目标指标进行预测,从而可使得最终的预测结果与设备状态更加相符、具备较高的准确率。
以下通过另一实施例继续对上述实施例中的数据处理方法进行进一步详述,参考图2,是本申请提供的一种数据处理方法实施例二的流程图,本实施例二中,所述数据处理方法可以通过如下的处理过程实现:
步骤201、获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值。
本实施例中,每个训练样本对应的一组时序数据包括所述至少一个采集指标在预定数量的历史时序点中各个历史时序点的指标数据;每个历史时序点的指标数据对应一目标指标实际值。
参考图3,本步骤可通过以下的处理过程来获得多个训练样本,也即获得训练样本集:
步骤301、按时间顺序获得所述至少一个采集指标在多个历史时序点的指标数据及每个历史时序点的指标数据对应的目标指标实际值;
步骤302、采用一滑动窗口以预定步长对所述多个历史时序点的指标数据及其对应的目标指标实际值进行滑动处理,滑动过程中每一个窗口内对应包括的采集指标的一组时序数据及目标指标实际值作为一个训练样本,得到多个训练样本;所述滑动窗口的时序点长度为所述预定数量。
以下以最终构建的预测模型所需预测的目标指标为流程制造行业的目标产出物收率为例,对上述的训练样本集获取过程进行详述。
具体以汽油收率为例,可从目标石化企业的数据库(如IP21实时数据库)中按时间顺序获取反应塔温度、再生器温度、再生器风量等各采集指标在多个历史时序点的指标数据,以及每个历史时序点的采集指标数据所对应的汽油收率;优选地,在获得多个历史时序点的采集指标数据及其对应的目标产出物收率时,任意相邻时序点间的时间间隔相同,当然,实际应用中并不以此为限。
假设从数据库中采集了M(M>1,且M为自然数)个历史时序点的采集指标数据及其对应的目标指标实际值,其中采集指标的个数为n(n≥1,且n为自然数),则具体可将采集的M个时序点的采集指标数据及其对应的目标指标实际值表示为以下的表1:
表1
时间 | X1 | X2 | … | Xn | Y |
T1 | x1_1 | X2_1 | … | Xn_1 | Y_1 |
T2 | x1_2 | X2_2 | … | Xn_2 | Y_2 |
T3 | x1_3 | X2_3 | … | Xn_3 | Y_3 |
T4 | x1_4 | X2_4 | … | Xn_4 | Y_4 |
… | … | … | … | … | … |
TM | x1_M | X2_M | Xn_M | Y_M |
在上述的表1中,Ti(1≤i≤M,i为自然数)表示第i个时序点对应的时间,Xj(1≤j≤n,j为自然数)表示第j个采集指标,Xj_i表示第j个采集指标在第i个时序点的指标数据,Y_i表示第i个时序点的采集指标数据所对应的目标指标(如汽油收率)实际值。
由于本申请中每个训练样本均包括采集指标的一组时序数据(同时也是循环神经网络所要求的样本形式),从而在获得上述多个历史时序点的采集指标数据及其对应的目标指标实际值后,需继续对其进行时序化处理。
具体地,可采用一滑动窗口以预定步长对所述至少一个采集指标在多个历史时序点的指标数据及其对应的目标指标实际值进行滑动处理,滑动过程中每一个窗口内对应包括的采集指标的一组时序数据及其对应的目标指标实际值作为一个训练样本,得到多个训练样本;所述滑动窗口的时序点长度为所述预定数量。
参考以下的表2,假设所述滑动窗口的时序点长度为3,滑动步长为1,则如表2所示,在滑动窗口所处的第一个窗口内包括T1-T3这3个时序点,从而T1-T3这3个时序点的采集样本数据及其对应的目标指标实际值构成第一个训练样本Sample1,相对应的,在滑动窗口所处的第二个窗口内包括T2-T4这3个时序点,从而T2-T4这3个时序点的采集样本数据及其对应的目标指标实际值构成第二个训练样本Sample2,……,在滑动窗口所处的最后一个窗口内包括T(M-2)-TM这3个时序点,从而T(M-2)-TM这3个时序点的采集样本数据及其对应的目标指标实际值构成第(M-2)个训练样本Sample(M-2),从而最终得到包括(M-2)个训练样本的训练样本集:Train_Set=[Sample1,Sample2,...,Sample(M-2)]。其中,训练样本中所包括的采集指标的指标数据用于作为样本的特征,而目标指标实际值则用于作为样本的标签。
表2
针对待处理的第一训练样本,执行以下的预定处理:
步骤202、获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息。
本申请利用循环神经网络来训练预测模型,参考图4示出的循环神经网络的基本模型结构,其中,该图4具体以循环神经网络包括3个时序单元(下文简称时序单元为CELL,循环神经网络包括3个时序单元相对应地要求其训练样本包括3个时序点的样本数据)为例,示出了其所对应的模型结构,图中的三个CELL具体是同一个CELL在不同时序上的展开,训练该“循环神经网络”以得到预测模型的过程,就是不断调整所述CELL的CELL参数(模型参数)的过程。
现有技术中,针对每个训练样本,如图4所示,对该训练样本中第一个时序点样本数据的处理,都是将第一个时序点的样本数据以及人工设定的初始状态信息(如图4中的S0,该值一般设定为0)共同作为模型的输入,即将这两种信息共同传入CELL以得到第一个时序点的目标指标输出值(对应图4中的V1_t1)及状态信息输出值(对应图4中的S1);而之后的时序点样本数据的训练,则是以该之后时序点的样本数据及其上一个相邻时序点的状态信息输出值为模型输入,将这两种信息共同传入CELL来得到该时序点的目标指标输出值及状态输出值,以图4中训练样本的第三个时序点为例,其是将第三个时序点的样本数据R1_t3以及第二时序点对应输出的状态信息S2共同传入CELL,并得到该第三个时序点的目标指标输出值V1_t3,及状态输出值S3,直至当前训练样本中最后一个时序点样本数据的训练过程结束,会基于最后一个时序点样本数据对应的目标指标输出值及目标指标实际值来调整模型参数,即调整所述CELL的CELL参数。
需要说明的是,现有技术中,训练样本的最后一个时序点对应的状态输出值(如图4中的S3)在模型训练过程中不起任何作用,会将其直接丢弃。在当前训练样本的训练过程结束之后,会继续下一个训练样本的训练过程,其中对于每一个训练样本都需要人工设定其第一个时序点样本数据对应所需的状态输入值(一般将其初始化为0)。
现有循环神经网络的上述特点,使得循环神经网络仅能在样本内部针对同一样本包括的各个时序点样本数据进行状态信息记忆(如目标指标所对应设备的设备状态等),无法达到长时记忆效果,为解决该问题,本申请提出了在训练样本间进行状态信息传递的技术构思。
如图5所示,对于当前样本的最后一个时序点所对应的状态输出值(如图5中R1_t3对应的S3),本申请并不将其丢弃,而是将其作为对下一个训练样本中第一个时序点样本数据进行训练时的状态输入信息,将其与所述下一个训练样本中第一个时序点的样本数据共同输入模型。
鉴于此,本步骤中,获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息,具体是指获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所述上一个训练样本的最后一个时序点的样本数据对应输出的设备状态信息。例如,假设所述第一训练样本为图5中的sample2,则所述第一状态信息即为图5中的sample1的最后一个时序点的样本数据R1_t3对应输出的设备状态信息S3。
步骤203、将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型。
本步骤中将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型,具体可以包括将第一训练样本的上一个训练样本的最后一个时序点样本数据对应输出的设备状态信息(即所述第一设备状态信息),以及所述第一训练样本的第一个时序点的样本数据共同输入循环神经网络模型,以实现在对第一训练样本进行训练处理时,首先对第一训练样本的第一个时序点的样本数据进行模型训练处理。
步骤204、利用循环神经网络模型,基于所述第一设备状态信息,对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息。
循环神经网络模型在对第一训练样本的第一个时序点的样本数据进行模型训练处理时,具体基于所述第一设备状态信息(即所述上一个训练样本的最后一个时序点的样本数据在训练时对应输出的设备状态信息),对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,并得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息。
仍以图5为例,假设第一训练样本为图5中的所述sample2,则sample2的第一个时序点的样本数据R2_t1所对应的第一设备状态信息S0’即为sample1的最后一个时序点的样本数据在训练时对应输出的设备状态信息S3,从而对于sample2,会将所述S3及sample2的第一个时序点的样本数据R2_t1共同输入神经网络模型的CELL,进而神经网络模型的CELL基于S3对第一个时序点的样本数据R2_t1进行模型训练处理,并输出该第一个时序点的样本数据R2_t1所对应的目标指标预测值V2_t2及设备状态信息S1’,所输出的设备状态信息S1’用于作为下一个时序点的样本数据的状态输入信息。
循环神经网络在基于输入的所述第一设备状态信息,对第一训练样本进行模型训练处理时,会通过对所述第一训练样本的相应样本数据及所述第一设备状态信息进行整合处理,来得到第一训练样本对应的整合样本;进而通过对所述整合样本进行模型训练处理,得到模型输出的对应于所述第一训练样本的目标指标预测值以及第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息,用于作为下一个训练样本的状态输入信息。
具体地,对于第一训练样本的第一个时序点的样本数据来说,循环神经网络相应地会将该第一训练样本的上一个样本的最后一个时序点对应的状态输出信息(即所述第一设备状态信息),与该时序点的样本数据进行整合,并对整合后所得的整合样本进行模型训练处理。
步骤205、若第一训练样本中存在未被处理的时序点样本数据,则利用循环神经网络模型,基于第一训练样本中相邻的上一个时序点样本数据对应得到的设备状态信息,对该未被处理的时序点样本数据进行模型训练处理,得到该未被处理的时序点样本数据所对应的目标指标预测值及设备状态信息。
在对第一训练样本的第一个时序点的样本数据进行训练处理的基础上,若第一训练样本中还存在未被处理的其他时序点样本数据,则循环神经网络会将该未被处理时序点的上一个时序点的状态输出信息(为一设备状态信息)与该时序点的样本数据进行整合,并对整合后所得的整合样本进行模型训练处理,直至完成对该第一训练样本的最后一个时序点样本数据的训练处理后,对该第一训练样本的训练过程结束。
步骤206、将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出;所述第二设备状态信息为所述预定设备的状态信息。
且具体地,在完成对该第一训练样本的最后一个时序点样本数据的训练处理后,循环神经网络会将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出。
以使得后续基于该第一训练样本的目标指标预测值通过反向传播来实现对模型参数(CELL参数)的调整,所述第二设备状态信息则具体用于作为所述第一训练样本的下一个样本中第一个时序点的状态输入信息,参与其下一个样本中第一个时序点的样本数据的训练。
步骤207、基于第一训练样本中的最后一个时序点样本数据对应的目标指标预测值以及目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
在基于第一训练样本的目标指标预测值通过反向传播来实现对模型参数(CELL参数)的调整时,具体可基于第一训练样本中最后一个时序点样本数据对应的目标指标预测值以及该最后一个时序点样本数据对应的目标指标实际值,对循环神经网络模型的模型参数进行调整,也即对循环神经网络模型中CELL的CELL参数进行调整。
具体地,循环神经网络模型中CELL的CELL参数可以包括对应于所输入的设备状态信息的状态权重,以及对应于所输入的样本特征(每一个采集指标值可作为训练样本的一个样本特征)的特征权重,从而对循环神经网络模型的训练本质上是指对其CELL中状态权重和特征权重的训练。
在完成对训练样本集中所有样本的训练处理后,可得到最终的能够对目标设备的目标指标(如汽油收率)进行数据预测的预测模型。
利用本申请方案,当在对训练样本集中的样本进行训练时,仅需针对参与训练的第一个样本的第一个时序点样本数据,为其设定一个状态输入(即需输入的设备状态信息)的初始值,该初始值可由所属领域的技术人员根据业务经验设定,例如将其设置为0或非0的其他数值等。在后续的训练过程中,每一个样本内部及不同样本之间均按时序对设备状态信息(对目标指标的影响)进行了传递,不需再针对其他任何样本进行其状态输入值的初始化设定。
这里,需要说明的是,虽然从形式上来说,在对第一训练样本进行训练时,仅将在对第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息(而非第一训练样本之前的所有样本对应的设备状态信息),以及第一训练样本的样本数据作为模型输入,共同参与了对第一训练样本的训练过程,然而,从模型训练的整体角度而言,每一个第一训练样本在训练时都引入了其上一个训练样本在训练过程中所输出的设备状态信息,并通过对上一个训练样本的状态输出信息与当前样本的整合样本进行处理,来得到当前样本的目标指标预测值及状态输出,这就使得训练模型过程中所涉及的各个历史设备状态信息得以传递,相应地,使得循环神经网络达到了对历史训练过程中所涉及的所有设备状态信息的长时记忆效果,从而,本质上来说,本申请通过训练所得的所述预测模型,为在循环神经网络基础上所得的一长时记忆神经网络模型、
在利用本实施例构建的预测模型进行数据预测时,能够结合预测样本的样本数据以及长时记忆的设备状态信息对目标指标进行数据预测,可使得最终的预测结果与设备状态更加相符,进而可使得预测结果具备较高的准确率。
在接下来的实施三中,继续对上一实施例中获得多个训练样本(即获得训练样本集)的部分进行进一步说明,本实施例中,参考图6示出的获得多个训练样本的流程示意图,在获得多个训练样本时,还可以包括以下步骤:
步骤601、对所述多个历史时序点的采集指标的指标数据进行筛选处理,得到所述多个历史时序点的符合预定条件的指标数据。
实际应用中,在所获得的采集指标的指标数据中,可能存在某些采集指标与待预测的目标指标高相关、而另一些采集指标则与待预测的目标指标低相关或不相关的情况,例如,在汽油收率预测中,反应塔温度及再生塔温度这些采集指标均与汽油收率高相关,而再生器风量等采集指标则与汽油收率低相关,针对该情况,可以对所采集的多个历史时序点的指标数据进行筛选处理,以滤除掉其中的与目标指标低相关和/或不相关的采集指标的指标数据,从而使得所保留的各个采集指标的指标数据均与目标指标间具备较高的相关性。
在对所述多个历史时序点的指标数据进行筛选处理后,可继续基于筛选处理后所得的指标数据进行窗口滑动处理,以得到时序数据形式的各个训练样本。
本实施例通过对采集的多个历史时序点的指标数据进行筛选处理,可有效滤除掉其中的与目标指标低相关和/或不相关的采集指标数据,从而可使得所得的训练样本数据能够保持与目标指标的高相关性,进而可使得模型训练过程更为有效。
参考图7,是本申请提供的一种数据处理方法实施例四的流程图,本实施例中,所述数据处理方法还可以包括以下步骤:
步骤105、利用预测模型对待处理的预测样本进行预测处理,得到所述预测样本对应的目标指标预测值;
所述预测样本对应的目标指标预测值的生成,利用了所述预测模型在训练阶段所涉及的所述预定设备的所有历史状态信息以及在对所述待处理的预测样本处理之前的预测阶段所涉及的所述预定设备的所有历史状态信息。
在基于训练样本集进行模型训练,从而得到相对应的预测模型后,可利用所得的预测模型对待处理的预测样本进行预测处理,以得到所述预测样本所对应的目标指标预测值。
参考图8示出的基于构建预测模型并利用预测模型对目标指标进行预测的整体逻辑框架示意图,对目标指标的数据预测可以通过以下的处理过程实现:
1)预测样本的准备:
对于待预测时刻(作为一个时序点),可获得该时刻对应的各采集指标的指标数据,并同时获得该时刻之前相邻的(p-1)个历史时序点处各采集指标的指标数据,将该待预测时刻对应的各采集指标的指标数据以及其之前相邻的(p-1)个历史时序点处各采集指标的指标数据,按时序整合为当前待预测的预测样本,其中,P为训练样本/预测样本的一组时序数据所对应的时序点个数,该数值也即在通过窗口滑动方式获得训练样本时滑动窗口的窗口长度。
2)预测目标指标的指标数据:
对于当前待处理的预测样本,可将该预测样本的第一个时序点的样本数据以及所述预测模型最近输出的设备状态信息共同作为预测模型的输入,预测模型在获得这两种输入信息后,会对两种输入信息进行整合,并对整合后所得的整合样本进行预测处理,从而输出该第一个时序点的样本数据对应的目标指标预测值及设备状态信息;
其中,对于利用预测模型预测的第一个预测样本来说,所述预测模型最近输出的设备状态信息(作为该预测样本预测时的输入状态信息)为最后一个训练样本的最后一个时序点对应输出的设备状态信息,而对于其他预测样本,所述预测模型最近输出的设备状态信息则为其上一个预测样本的最后一个时序点对应输出的设备状态信息。
在对待处理的预测样本的第一个时序点的样本数据进行预测处理的基础上,若该预测样本中还存在未被处理的其他时序点样本数据,则预测模型会将该未被处理时序点的上一个时序点的状态输出值与该未被处理时序点的样本数据进行整合,并对整合后所得的整合样本进行模型训练处理,直至完成对该预测样本的最后一个时序点样本数据的预测处理后,对该预测样本的预测过程结束。
其中,该预测样本所对应的目标指标预测值,即为该预测样本的最后一个时序点样本数据对应的目标指标预测值,而该预测样本中其他时序点样本数据对应的目标指标预测值则丢弃,且模型对应于该预测样本的最后一个时序点样本数据所输出的设备状态信息,用于作为下一个预测样本的第一个时序点样本数据的输入状态信息,也即,在预测过程中每一个预测样本内部及不同预测样本之间同样均按时序对设备状态信息进行了传递,不需针对任意的预测样本进行其输入状态信息的初始化设定。
这就使得预测样本对应的目标指标预测值的生成,不仅利用了所述预测模型在训练阶段所涉及的所述预定设备的所有历史状态信息,还利用了在对所述待处理的预测样本处理之前的预测阶段所涉及的所述预定设备的所有历史状态信息。从而,可使得最终的预测结果与设备状态更加符合,进而可使得预测结果具备较高的准确率。
与上述的数据处理方法相对应,本申请还提供一种服务器,所述服务器可以是本地/网络端单独部署的服务器,或者本地/网络端的服务器集群中的服务器,参考图9,是本申请提供的一种服务器实施例五的结构示意图,所述服务器包括:
存储器901,用于至少存储一组指令集。
所述存储器901可以是具备数据存储功能的各类型存储器件,如ROM(Read OnlyMemory,只读存储器),FLASH,光盘,硬盘等,所存储的所述指令集用于指示处理器902执行如下文所述的相应数据处理操作,该指令集可以以程序形式存储于所述存储器901中。
处理器902,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下操作:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
本申请将主要以流程制造行业中目标产出物(如石化行业中的汽油、液化气等)的收率预测所需的预测模型为例,对本申请方案进行阐述。
所述获得多个训练样本,即指获得训练样本集,以预测模型所需预测的目标指标为汽油、液化气等产出物的收率为例,训练样本集可以包括反应再生系统在各历史时刻的反应塔温度、再生器温度、再生器风量等一系列采集指标的指标数据(这些指标数据能够体现反应再生系统整体设备的设备运行状态),其中,每个训练样本可包括各采集指标的一组时序数据,例如,每个训练样本具体包括反应再生系统在预定数量的时序点所对应的各采集指标的指标数据等,该预定数量的时序点所对应的各采集指标的指标数据即构成该训练样本所对应的一组采集指标时序数据。
除了各采集指标的指标数据,训练样本中还应包括各采集指标的指标数据所对应的目标指标实际值,也就是说,训练样本应同时包括采集指标的指标数据及其对应的目标指标实际值,以目标指标为汽油收率为例,所述训练样本则具体可以包括反应塔温度、再生器温度、再生器风量等一系列采集指标的指标数据及这些指标数据对应的汽油实际收率值。
所述第一训练样本,是指所获得的训练样本集中除第一个参与模型训练的样本之外的其他样本中的任意一个训练样本,也就是说,所述第一训练样本在训练样本集中至少对应一个在其前参与模型训练的训练样本。
所述第一设备状态信息具体是指在对所述第一训练样本的上一个训练样本进行模型训练处理时模型所输出的设备状态信息,该设备状态信息为待预测的目标指标所对应设备的状态信息,以目标指标为汽油收率为例,则该设备状态信息为反应再生系统所对应的整体设备的设备运行状态信息。
与传统的模型训练过程中仅以训练样本的样本数据为模型输入相区别,本申请是将第一训练样本的样本数据,以及在对第一训练样本的上一个训练样本进行模型训练处理时所输出的所述第一设备状态信息均作为模型的输入信息,即,这两种信息均参与针对第一训练样本的模型训练过程。
本申请具体基于循环神经网络进行模型训练,从而模型训练过程中,可将待处理的第一训练样本的样本数据以及所获得的所述第一设备状态信息输入当前训练时刻所得的循环神经网络模型中,以进行模型训练。
在获得所输入的第一训练样本的样本数据以及所述第一设备状态信息后,循环神经网络模型基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
由于循环神经网络模型基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,从而在对第一训练样本进行模型训练处理时,引入了设备状态信息,考虑了设备状态信息对预测结果的影响,从而,可使得训练所得的预测模型在预测准确率方面具备较好的性能。
这里,需要说明的是,对于训练样本集中第一个参与模型训练的训练样本而言,由于不存在在其之前参与训练的样本,从而相对应地无法获得其上一个训练样本在训练过程中输出的第一设备状态信息,针对该情况,可基于人工设置等方式,为其在进行模型训练时所需输入的设备状态信息赋予一初始值,该初始值可由所属领域的技术人员根据业务经验设定,例如将其设置为0或非0的其他数值等。
根据以上方案可知,本实施例提供的服务器,在利用循环神经网络训练预测模型时,除了以训练样本的样本数据为模型输入,还引入了待预测指标所对应设备(即所述预定设备)的设备状态信息,并具体以第一训练样本的上一样本在训练过程中输出的第一设备状态信息作为第一训练样本在进行模型训练时的状态输入信息,这就使得设备状态信息能够按各样本的训练次序在各样本的训练过程中进行传递,相对应地能够使得训练所得的预测模型达到对训练过程中所涉及的设备状态信息的长时记忆效果,后续在利用该预测模型进行数据预测时,能够结合预测样本的样本数据以及记忆的设备状态信息对目标指标进行预测,从而可使得最终的预测结果与设备状态更加相符、具备较高的准确率。
在接下来的实施例六中,继续对上述服务器中处理器902的数据处理功能进行进一步详述。本实施例中,所述处理器902具体可通过执行以下处理实现其数据处理功能:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于所述第一设备状态信息,对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息;
若第一训练样本中存在未被处理的时序点样本数据,则利用循环神经网络模型,基于第一训练样本中相邻的上一个时序点样本数据对应得到的设备状态信息,对该未被处理的时序点样本数据进行模型训练处理,得到该未被处理的时序点样本数据所对应的目标指标预测值及设备状态信息;
将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出所述第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本中的最后一个时序点样本数据对应的目标指标预测值以及目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
本实施例中,每个训练样本对应的一组时序数据包括所述至少一个采集指标在预定数量的历史时序点中各个历史时序点的指标数据;每个历史时序点的指标数据对应一目标指标实际值。
具体地可通过以下的处理过程来获得多个训练样本,也即获得训练样本集:
1)按时间顺序获得所述至少一个采集指标在多个历史时序点的指标数据及每个历史时序点的指标数据对应的目标指标实际值;
2)采用一滑动窗口以预定步长对所述多个历史时序点的指标数据及其对应的目标指标实际值进行滑动处理,滑动过程中每一个窗口内对应包括的采集指标的一组时序数据及目标指标实际值作为一个训练样本,得到多个训练样本;所述滑动窗口的时序点长度为所述预定数量。
以下以最终构建的预测模型所需预测的目标指标为流程制造行业的目标产出物收率为例,对上述的训练样本集获取过程进行详述。
具体以汽油收率为例,可从目标石化企业的数据库(如IP21实时数据库)中按时间顺序获取反应塔温度、再生器温度、再生器风量等各采集指标在多个历史时序点的指标数据,以及每个历史时序点的采集指标数据所对应的汽油收率;优选地,在获得多个历史时序点的采集指标数据及其对应的目标产出物收率时,任意相邻时序点间的时间间隔相同,当然,实际应用中并不以此为限。
假设从数据库中采集了M(M>1,且M为自然数)个历史时序点的采集指标数据及其对应的目标指标实际值,其中采集指标的个数为n(n≥1,且n为自然数),则具体可将采集的M个时序点的采集指标数据及其对应的目标指标实际值表示为以下的表1:
表1
在上述的表1中,Ti(1≤i≤M,i为自然数)表示第i个时序点对应的时间,Xj(1≤j≤n,j为自然数)表示第j个采集指标,Xj_i表示第j个采集指标在第i个时序点的指标数据,Y_i表示第i个时序点的采集指标数据所对应的目标指标(如汽油收率)实际值。
由于本申请中每个训练样本均包括采集指标的一组时序数据(同时也是循环神经网络所要求的样本形式),从而在获得上述多个历史时序点的采集指标数据及其对应的目标指标实际值后,需继续对其进行时序化处理。
具体地,可采用一滑动窗口以预定步长对所述至少一个采集指标在多个历史时序点的指标数据及其对应的目标指标实际值进行滑动处理,滑动过程中每一个窗口内对应包括的采集指标的一组时序数据及其对应的目标指标实际值作为一个训练样本,得到多个训练样本;所述滑动窗口的时序点长度为所述预定数量。
参考以下的表2,假设所述滑动窗口的时序点长度为3,滑动步长为1,则如表2所示,在滑动窗口所处的第一个窗口内包括T1-T3这3个时序点,从而T1-T3这3个时序点的采集样本数据及其对应的目标指标实际值构成第一个训练样本Sample1,相对应的,在滑动窗口所处的第二个窗口内包括T2-T4这3个时序点,从而T2-T4这3个时序点的采集样本数据及其对应的目标指标实际值构成第二个训练样本Sample2,……,在滑动窗口所处的最后一个窗口内包括T(M-2)-TM这3个时序点,从而T(M-2)-TM这3个时序点的采集样本数据及其对应的目标指标实际值构成第(M-2)个训练样本Sample(M-2),从而最终得到包括(M-2)个训练样本的训练样本集:Train_Set=[Sample1,Sample2,...,Sample(M-2)]。其中,训练样本中所包括的采集指标的指标数据用于作为样本的特征,而目标指标实际值则用于作为样本的标签。
表2
针对待处理的第一训练样本,执行以下的预定处理:
本申请利用循环神经网络来训练预测模型,参考图4示出的循环神经网络的基本模型结构,其中,该图4具体以循环神经网络包括3个时序单元(下文简称时序单元为CELL,循环神经网络包括3个时序单元相对应地要求其训练样本包括3个时序点的样本数据)为例,示出了其所对应的模型结构,图中的三个CELL具体是同一个CELL在不同时序上的展开,训练该“循环神经网络”以得到预测模型的过程,就是不断调整所述CELL的CELL参数(模型参数)的过程。
现有技术中,针对每个训练样本,如图4所示,对该训练样本中第一个时序点样本数据的处理,都是将第一个时序点的样本数据以及人工设定的初始状态信息(如图4中的S0,该值一般设定为0)共同作为模型的输入,即将这两种信息共同传入CELL以得到第一个时序点的目标指标输出值(对应图4中的V1_t1)及状态信息输出值(对应图4中的S1);而之后的时序点样本数据的训练,则是以该之后时序点的样本数据及其上一个相邻时序点的状态信息输出值为模型输入,将这两种信息共同传入CELL来得到该时序点的目标指标输出值及状态输出值,以图4中训练样本的第三个时序点为例,其是将第三个时序点的样本数据R1_t3以及第二时序点对应输出的状态信息S2共同传入CELL,并得到该第三个时序点的目标指标输出值V1_t3,及状态输出值S3,直至当前训练样本中最后一个时序点样本数据的训练过程结束,会基于最后一个时序点样本数据对应的目标指标输出值及目标指标实际值来调整模型参数,即调整所述CELL的CELL参数。
需要说明的是,现有技术中,训练样本的最后一个时序点对应的状态输出值(如图4中的S3)在模型训练过程中不起任何作用,会将其直接丢弃。在当前训练样本的训练过程结束之后,会继续下一个训练样本的训练过程,其中对于每一个训练样本都需要人工设定其第一个时序点样本数据对应所需的状态输入值(一般将其初始化为0)。
现有循环神经网络的上述特点,使得循环神经网络仅能在样本内部针对同一样本包括的各个时序点样本数据进行状态信息记忆(如目标指标所对应设备的设备状态等),无法达到长时记忆效果,为解决该问题,本申请提出了在训练样本间进行状态信息传递的技术构思。
如图5所示,对于当前样本的最后一个时序点所对应的状态输出值(如图5中R1_t3对应的S3),本申请并不将其丢弃,而是将其作为对下一个训练样本中第一个时序点样本数据进行训练时的状态输入信息,将其与所述下一个训练样本中第一个时序点的样本数据共同输入模型。
鉴于此,获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息,具体是指获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所述上一个训练样本的最后一个时序点的样本数据对应输出的设备状态信息。例如,假设所述第一训练样本为图5中的sample2,则所述第一状态信息即为图5中的sample1的最后一个时序点的样本数据R1_t3对应输出的设备状态信息S3。
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型,具体可以包括将第一训练样本的上一个训练样本的最后一个时序点样本数据对应输出的设备状态信息(即所述第一设备状态信息),以及所述第一训练样本的第一个时序点的样本数据共同输入循环神经网络模型,以实现在对第一训练样本进行训练处理时,首先对第一训练样本的第一个时序点的样本数据进行模型训练处理。
循环神经网络模型在对第一训练样本的第一个时序点的样本数据进行模型训练处理时,具体基于所述第一设备状态信息(即所述上一个训练样本的最后一个时序点的样本数据在训练时对应输出的设备状态信息),对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,并得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息。
仍以图5为例,假设第一训练样本为图5中的所述sample2,则sample2的第一个时序点的样本数据R2_t1所对应的第一设备状态信息S0’即为sample1的最后一个时序点的样本数据在训练时对应输出的设备状态信息S3,从而对于sample2,会将所述S3及sample2的第一个时序点的样本数据R2_t1共同输入神经网络模型的CELL,进而神经网络模型的CELL基于S3对第一个时序点的样本数据R2_t1进行模型训练处理,并输出该第一个时序点的样本数据R2_t1所对应的目标指标预测值V2_t2及设备状态信息S1’,所输出的设备状态信息S1’用于作为下一个时序点的样本数据的状态输入信息。
循环神经网络在基于输入的所述第一设备状态信息,对第一训练样本进行模型训练处理时,会通过对所述第一训练样本的相应样本数据及所述第一设备状态信息进行整合处理,来得到第一训练样本对应的整合样本;进而通过对所述整合样本进行模型训练处理,得到模型输出的对应于所述第一训练样本的目标指标预测值以及第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息,用于作为下一个训练样本的状态输入信息。
具体地,对于第一训练样本的第一个时序点的样本数据来说,循环神经网络相应地会将该第一训练样本的上一个样本的最后一个时序点对应的状态输出信息(即所述第一设备状态信息),与该时序点的样本数据进行整合,并对整合后所得的整合样本进行模型训练处理。
在对第一训练样本的第一个时序点的样本数据进行训练处理的基础上,若第一训练样本中还存在未被处理的其他时序点样本数据,则循环神经网络会将该未被处理时序点的上一个时序点的状态输出信息(为一设备状态信息)与该时序点的样本数据进行整合,并对整合后所得的整合样本进行模型训练处理,直至完成对该第一训练样本的最后一个时序点样本数据的训练处理后,对该第一训练样本的训练过程结束。
且具体地,在完成对该第一训练样本的最后一个时序点样本数据的训练处理后,循环神经网络会将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出。
以使得后续基于该第一训练样本的目标指标预测值通过反向传播来实现对模型参数(CELL参数)的调整,所述第二设备状态信息则具体用于作为所述第一训练样本的下一个样本中第一个时序点的状态输入信息,参与其下一个样本中第一个时序点的样本数据的训练。
在基于第一训练样本的目标指标预测值通过反向传播来实现对模型参数(CELL参数)的调整时,具体可基于第一训练样本中最后一个时序点样本数据对应的目标指标预测值以及该最后一个时序点样本数据对应的目标指标实际值,对循环神经网络模型的模型参数进行调整,也即对循环神经网络模型中CELL的CELL参数进行调整。
具体地,循环神经网络模型中CELL的CELL参数可以包括对应于所输入的设备状态信息的状态权重,以及对应于所输入的样本特征(每一个采集指标值可作为训练样本的一个样本特征)的特征权重,从而对循环神经网络模型的训练本质上是指对其CELL中状态权重和特征权重的训练。
在完成对训练样本集中所有样本的训练处理后,可得到最终的能够对目标设备的目标指标(如汽油收率)进行数据预测的预测模型。
利用本申请方案,当在对训练样本集中的样本进行训练时,仅需针对参与训练的第一个样本的第一个时序点样本数据,为其设定一个状态输入(即需输入的设备状态信息)的初始值,该初始值可由所属领域的技术人员根据业务经验设定,例如将其设置为0或非0的其他数值等。在后续的训练过程中,每一个样本内部及不同样本之间均按时序对设备状态信息(对目标指标的影响)进行了传递,不需再针对其他任何样本进行其状态输入值的初始化设定。
这里,需要说明的是,虽然从形式上来说,在对第一训练样本进行训练时,仅将在对第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息(而非第一训练样本之前的所有样本对应的设备状态信息),以及第一训练样本的样本数据作为模型输入,共同参与了对第一训练样本的训练过程,然而,从模型训练的整体角度而言,每一个第一训练样本在训练时都引入了其上一个训练样本在训练过程中所输出的设备状态信息,并通过对上一个训练样本的状态输出信息与当前样本的整合样本进行处理,来得到当前样本的目标指标预测值及状态输出,这就使得训练模型过程中所涉及的各个历史设备状态信息得以传递,相应地,使得循环神经网络达到了对历史训练过程中所涉及的所有设备状态信息的长时记忆效果,从而,本质上来说,本申请通过训练所得的所述预测模型,为在循环神经网络基础上所得的一长时记忆神经网络模型、
在利用本实施例构建的预测模型进行数据预测时,能够结合预测样本的样本数据以及长时记忆的设备状态信息对目标指标进行数据预测,可使得最终的预测结果与设备状态更加相符,进而可使得预测结果具备较高的准确率。
在接下来的实施七中,继续对上一实施例中获得多个训练样本(即获得训练样本集)的部分进行进一步说明,本实施例中,在获得多个训练样本时,所述服务器中的处理器902还可以通过调用存储器901中指令集中的相应指令,执行以下操作:
对所述多个历史时序点的指标数据进行筛选处理,得到所述多个历史时序点的符合预定条件的指标数据。
实际应用中,在所获得的采集指标的指标数据中,可能存在某些采集指标与待预测的目标指标高相关、而另一些采集指标则与待预测的目标指标低相关或不相关的情况,例如,在汽油收率预测中,反应塔温度及再生塔温度这些采集指标均与汽油收率高相关,而再生器风量等采集指标则与汽油收率低相关,针对该情况,可以对所采集的多个历史时序点的指标数据进行筛选处理,以滤除掉其中的与目标指标低相关和/或不相关的采集指标的指标数据,从而使得所保留的各个采集指标的指标数据均与目标指标间具备较高的相关性。
在对所述多个历史时序点的指标数据进行筛选处理后,可继续基于筛选处理后所得的指标数据进行窗口滑动处理,以得到时序数据形式的各个训练样本。
本实施例通过对采集的多个历史时序点的指标数据进行筛选处理,可有效滤除掉其中的与目标指标低相关和/或不相关的采集指标数据,从而可使得所得的训练样本数据能够保持与目标指标的高相关性,进而可使得模型训练过程更为有效。
在接下来的实施八中,所述服务器中的处理器902还可以通过调用存储器901中指令集中的相应指令,执行以下操作:
利用预测模型对待处理的预测样本进行预测处理,得到所述预测样本对应的目标指标预测值。
所述预测样本对应的目标指标预测值的生成,利用了所述预测模型在训练阶段所涉及的所述预定设备的所有历史状态信息以及在对所述待处理的预测样本处理之前的预测阶段所涉及的所述预定设备的所有历史状态信息。
在基于训练样本集进行模型训练,从而得到相对应的预测模型后,可利用所得的预测模型对待处理的预测样本进行预测处理,以得到所述预测样本所对应的目标指标预测值。
参考图8示出的基于构建预测模型并利用预测模型对目标指标进行预测的整体逻辑框架示意图,对目标指标的数据预测可以通过以下的处理过程实现:
1)预测样本的准备:
对于待预测时刻(作为一个时序点),可获得该时刻对应的各采集指标的指标数据,并同时获得该时刻之前相邻的(p-1)个历史时序点处各采集指标的指标数据,将该待预测时刻对应的各采集指标的指标数据以及其之前相邻的(p-1)个历史时序点处各采集指标的指标数据,按时序整合为当前待预测的预测样本,其中,P为训练样本/预测样本的一组时序数据所对应的时序点个数,该数值也即在通过窗口滑动方式获得训练样本时滑动窗口的窗口长度。
2)预测目标指标的指标数据:
对于当前待处理的预测样本,可将该预测样本的第一个时序点的样本数据以及所述预测模型最近输出的设备状态信息共同作为预测模型的输入,预测模型在获得这两种输入信息后,会对两种输入信息进行整合,并对整合后所得的整合样本进行预测处理,从而输出该第一个时序点的样本数据对应的目标指标预测值及设备状态信息;
其中,对于利用预测模型预测的第一个预测样本来说,所述预测模型最近输出的设备状态信息(作为该预测样本预测时的输入状态信息)为最后一个训练样本的最后一个时序点对应输出的设备状态信息,而对于其他预测样本,所述预测模型最近输出的设备状态信息则为其上一个预测样本的最后一个时序点对应输出的设备状态信息。
在对待处理的预测样本的第一个时序点的样本数据进行预测处理的基础上,若该预测样本中还存在未被处理的其他时序点样本数据,则预测模型会将该未被处理时序点的上一个时序点的状态输出值与该未被处理时序点的样本数据进行整合,并对整合后所得的整合样本进行模型训练处理,直至完成对该预测样本的最后一个时序点样本数据的预测处理后,对该预测样本的预测过程结束。
其中,该预测样本所对应的目标指标预测值,即为该预测样本的最后一个时序点样本数据对应的目标指标预测值,而该预测样本中其他时序点样本数据对应的目标指标预测值则丢弃,且模型对应于该预测样本的最后一个时序点样本数据所输出的设备状态信息,用于作为下一个预测样本的第一个时序点样本数据的输入状态信息,也即,在预测过程中每一个预测样本内部及不同预测样本之间同样均按时序对设备状态信息进行了传递,不需针对任意的预测样本进行其输入状态信息的初始化设定。
这就使得预测样本对应的目标指标预测值的生成,不仅利用了所述预测模型在训练阶段所涉及的所述预定设备的所有历史状态信息,还利用了在对所述待处理的预测样本处理之前的预测阶段所涉及的所述预定设备的所有历史状态信息。从而,可使得最终的预测结果与设备状态更加符合,进而可使得预测结果具备较高的准确率。
与上述的数据处理方法相对应,本申请还提供一种电子设备,所述电子设备可以是但不限于智能手机、平板电脑、台式机、笔记本、一体机等各类型终端设备,参考图10,是本申请提供的一种电子设备实施例九的结构示意图,所述电子设备包括:
存储器1001,用于至少存储一组指令集。
所述存储器1001可以是具备数据存储功能的各类型存储器件,如ROM(Read OnlyMemory,只读存储器),FLASH,光盘,硬盘等,所存储的所述指令集用于指示处理器1002执行如下文所述的相应数据处理操作,该指令集可以以程序形式存储于所述存储器1001中。
处理器1002,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下操作:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
本申请将主要以流程制造行业中目标产出物(如石化行业中的汽油、液化气等)的收率预测所需的预测模型为例,对本申请方案进行阐述。
所述获得多个训练样本,即指获得训练样本集,以预测模型所需预测的目标指标为汽油、液化气等产出物的收率为例,训练样本集可以包括反应再生系统在各历史时刻的反应塔温度、再生器温度、再生器风量等一系列采集指标的指标数据(这些指标数据能够体现反应再生系统整体设备的设备运行状态),其中,每个训练样本可包括各采集指标的一组时序数据,例如,每个训练样本具体包括反应再生系统在预定数量的时序点所对应的各采集指标的指标数据等,该预定数量的时序点所对应的各采集指标的指标数据即构成该训练样本所对应的一组采集指标时序数据。
除了各采集指标的指标数据,训练样本中还应包括各采集指标的指标数据所对应的目标指标实际值,也就是说,训练样本应同时包括采集指标的指标数据及其对应的目标指标实际值,以目标指标为汽油收率为例,所述训练样本则具体可以包括反应塔温度、再生器温度、再生器风量等一系列采集指标的指标数据及这些指标数据对应的汽油实际收率值。
所述第一训练样本,是指所获得的训练样本集中除第一个参与模型训练的样本之外的其他样本中的任意一个训练样本,也就是说,所述第一训练样本在训练样本集中至少对应一个在其前参与模型训练的训练样本。
所述第一设备状态信息具体是指在对所述第一训练样本的上一个训练样本进行模型训练处理时模型所输出的设备状态信息,该设备状态信息为待预测的目标指标所对应设备的状态信息,以目标指标为汽油收率为例,则该设备状态信息为反应再生系统所对应的整体设备的设备运行状态信息。
与传统的模型训练过程中仅以训练样本的样本数据为模型输入相区别,本申请是将第一训练样本的样本数据,以及在对第一训练样本的上一个训练样本进行模型训练处理时所输出的所述第一设备状态信息均作为模型的输入信息,即,这两种信息均参与针对第一训练样本的模型训练过程。
本申请具体基于循环神经网络进行模型训练,从而模型训练过程中,可将待处理的第一训练样本的样本数据以及所获得的所述第一设备状态信息输入当前训练时刻所得的循环神经网络模型中,以进行模型训练。
在获得所输入的第一训练样本的样本数据以及所述第一设备状态信息后,循环神经网络模型基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
由于循环神经网络模型基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,从而在对第一训练样本进行模型训练处理时,引入了设备状态信息,考虑了设备状态信息对预测结果的影响,从而,可使得训练所得的预测模型在预测准确率方面具备较好的性能。
这里,需要说明的是,对于训练样本集中第一个参与模型训练的训练样本而言,由于不存在在其之前参与训练的样本,从而相对应地无法获得其上一个训练样本在训练过程中输出的第一设备状态信息,针对该情况,可基于人工设置等方式,为其在进行模型训练时所需输入的设备状态信息赋予一初始值,该初始值可由所属领域的技术人员根据业务经验设定,例如将其设置为0或非0的其他数值等。
根据以上方案可知,本实施例提供的电子设备,在利用循环神经网络训练预测模型时,除了以训练样本的样本数据为模型输入,还引入了待预测指标所对应设备(即所述预定设备)的设备状态信息,并具体以第一训练样本的上一样本在训练过程中输出的第一设备状态信息作为第一训练样本在进行模型训练时的状态输入信息,这就使得设备状态信息能够按各样本的训练次序在各样本的训练过程中进行传递,相对应地能够使得训练所得的预测模型达到对训练过程中所涉及的设备状态信息的长时记忆效果,后续在利用该预测模型进行数据预测时,能够结合预测样本的样本数据以及记忆的设备状态信息对目标指标进行预测,从而可使得最终的预测结果与设备状态更加相符、具备较高的准确率。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
为了描述的方便,描述以上系统或装置时以功能分为各种模块或单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
最后,还需要说明的是,在本文中,诸如第一、第二、第三和第四等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种数据处理方法,其特征在于,用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,所述方法包括:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
2.根据权利要求1所述的方法,其特征在于,所述利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,包括:
对所述第一训练样本的相应样本数据及所述第一设备状态信息进行整合处理,得到第一训练样本对应的整合样本;
利用循环神经网络模型,对所述整合样本进行模型训练处理,得到模型输出的对应于所述第一训练样本的目标指标预测值以及第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本的目标指标预测值以及第一训练样本对应的目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
3.根据权利要求1所述的方法,其特征在于,每个训练样本对应的一组时序数据包括所述至少一个采集指标在预定数量的历史时序点中各个历史时序点的指标数据;每个历史时序点的指标数据对应一目标指标实际值;
所述利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,包括:
利用循环神经网络模型,基于所述第一设备状态信息,对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息;
若第一训练样本中存在未被处理的时序点样本数据,则利用循环神经网络模型,基于第一训练样本中相邻的上一个时序点样本数据对应得到的设备状态信息,对该未被处理的时序点样本数据进行模型训练处理,得到该未被处理的时序点样本数据所对应的目标指标预测值及设备状态信息;
将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本中的最后一个时序点样本数据对应的目标指标预测值以及目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
4.根据权利要求3所述的方法,其特征在于,所述获得多个训练样本,包括:
按时间顺序获得所述至少一个采集指标在多个历史时序点的指标数据及每个历史时序点的指标数据对应的目标指标实际值;
采用一滑动窗口以预定步长对所述多个历史时序点的指标数据及其对应的目标指标实际值进行滑动处理,滑动过程中每一个窗口内对应包括的采集指标的一组时序数据及目标指标实际值作为一个训练样本,得到多个训练样本;所述滑动窗口的时序点长度为所述预定数量。
5.根据权利要求4所述的方法,其特征在于,在所述采用一滑动窗口以预定步长对所述多个历史时序点的指标数据进行滑动处理之前,还包括:
对所述多个历史时序点的采集指标的指标数据进行筛选处理,得到所述多个历史时序点的符合预定条件的指标数据。
6.根据权利要求1-5任一项所述的方法,其特征在于,还包括:
利用预测模型对待处理的预测样本进行预测处理,得到所述预测样本对应的目标指标预测值;
所述预测样本对应的目标指标预测值的生成,利用了所述预测模型在训练阶段所涉及的所述预定设备的所有历史状态信息以及在对所述待处理的预测样本处理之前的预测阶段所涉及的所述预定设备的所有历史状态信息。
7.一种服务器,其特征在于,用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,所述服务器包括:
存储器,用于至少存储一组指令集;
处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下操作:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
8.根据权利要求7所述的服务器,其特征在于,所述处理器利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,具体包括:
对所述第一训练样本的相应样本数据及所述第一设备状态信息进行整合处理,得到第一训练样本对应的整合样本;
利用循环神经网络模型,对所述整合样本进行模型训练处理,得到模型输出的对应于所述第一训练样本的目标指标预测值以及第二设备状态信息;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本的目标指标预测值以及第一训练样本对应的目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
9.根据权利要求7所述的服务器,其特征在于,所述每个训练样本对应的一组时序数据包括所述至少一个采集指标在预定数量的历史时序点中各个历史时序点的指标数据;每个历史时序点的指标数据对应一目标指标实际值;
所述处理器利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型,包括:
利用循环神经网络模型,基于所述第一设备状态信息,对所述第一训练样本中第一个时序点的样本数据进行模型训练处理,得到第一训练样本中第一个时序点的样本数据所对应的目标指标预测值及设备状态信息;
若第一训练样本中存在未被处理的时序点样本数据,则利用循环神经网络模型,基于第一训练样本中相邻的上一个时序点样本数据对应得到的设备状态信息,对该未被处理的时序点样本数据进行模型训练处理,得到该未被处理的时序点样本数据所对应的目标指标预测值及设备状态信息;
将第一训练样本中最后一个时序点样本数据对应得到的目标指标预测值及设备状态信息,分别作为第一训练样本的目标指标预测值及第二设备状态信息并输出;所述第二设备状态信息为所述预定设备的状态信息;
基于第一训练样本中的最后一个时序点样本数据对应的目标指标预测值以及目标指标实际值,调整所述循环神经网络模型的模型参数,以得到预测模型。
10.一种电子设备,其特征在于,用于训练一预测模型,所述预测模型用于对预定设备的目标指标进行数据预测,所述电子设备包括:
存储器,用于至少存储一组指令集;
处理器,用于调用并执行所述存储器中的所述指令集,通过执行所述指令集进行以下操作:
获得多个训练样本;每个训练样本包括针对所述预定设备的至少一个采集指标所获得的一组时序数据以及该组时序数据对应的目标指标实际值;
针对待处理的第一训练样本,执行以下的预定处理:
获得在对所述第一训练样本的上一个训练样本进行模型训练处理时所输出的第一设备状态信息;所述第一设备状态信息为所述预定设备的状态信息;
将所述第一设备状态信息以及所述第一训练样本包括的一组时序数据输入循环神经网络模型;
利用循环神经网络模型,基于输入的所述第一设备状态信息,对所述第一训练样本进行模型训练处理,以得到预测模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811115128.7A CN109359768B (zh) | 2018-09-25 | 2018-09-25 | 一种数据处理方法、服务器及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811115128.7A CN109359768B (zh) | 2018-09-25 | 2018-09-25 | 一种数据处理方法、服务器及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109359768A true CN109359768A (zh) | 2019-02-19 |
CN109359768B CN109359768B (zh) | 2022-08-19 |
Family
ID=65351428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811115128.7A Active CN109359768B (zh) | 2018-09-25 | 2018-09-25 | 一种数据处理方法、服务器及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109359768B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728041A (zh) * | 2019-09-27 | 2020-01-24 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN111897705A (zh) * | 2020-07-06 | 2020-11-06 | 上海泛微网络科技股份有限公司 | 服务状态处理、模型训练方法、装置、设备和存储介质 |
CN113435662A (zh) * | 2021-07-14 | 2021-09-24 | 中国石油大学(华东) | 水驱油藏产量预测方法、装置及存储介质 |
CN113506167A (zh) * | 2021-07-23 | 2021-10-15 | 北京淇瑀信息科技有限公司 | 基于排序的风险预测方法、装置、设备和介质 |
CN114781280A (zh) * | 2022-06-21 | 2022-07-22 | 烟台国工智能科技有限公司 | 基于循环神经网络的交互式收率优化方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140257526A1 (en) * | 2013-03-07 | 2014-09-11 | General Electric Company | Plant control systems and methods |
CN106202805A (zh) * | 2016-07-25 | 2016-12-07 | 深圳供电局有限公司 | 一种开关设备可靠性评价方法 |
CN107992971A (zh) * | 2017-12-06 | 2018-05-04 | 中建材智慧工业科技有限公司 | 一种水泥厂设备备件寿命的预测方法及系统 |
CN108268935A (zh) * | 2018-01-11 | 2018-07-10 | 浙江工业大学 | 一种基于时序循环神经网络的pm2.5浓度值预测方法及系统 |
-
2018
- 2018-09-25 CN CN201811115128.7A patent/CN109359768B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140257526A1 (en) * | 2013-03-07 | 2014-09-11 | General Electric Company | Plant control systems and methods |
CN106202805A (zh) * | 2016-07-25 | 2016-12-07 | 深圳供电局有限公司 | 一种开关设备可靠性评价方法 |
CN107992971A (zh) * | 2017-12-06 | 2018-05-04 | 中建材智慧工业科技有限公司 | 一种水泥厂设备备件寿命的预测方法及系统 |
CN108268935A (zh) * | 2018-01-11 | 2018-07-10 | 浙江工业大学 | 一种基于时序循环神经网络的pm2.5浓度值预测方法及系统 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728041A (zh) * | 2019-09-27 | 2020-01-24 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN110728041B (zh) * | 2019-09-27 | 2022-03-25 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN111897705A (zh) * | 2020-07-06 | 2020-11-06 | 上海泛微网络科技股份有限公司 | 服务状态处理、模型训练方法、装置、设备和存储介质 |
CN111897705B (zh) * | 2020-07-06 | 2024-03-12 | 上海泛微网络科技股份有限公司 | 服务状态处理、模型训练方法、装置、设备和存储介质 |
CN113435662A (zh) * | 2021-07-14 | 2021-09-24 | 中国石油大学(华东) | 水驱油藏产量预测方法、装置及存储介质 |
CN113506167A (zh) * | 2021-07-23 | 2021-10-15 | 北京淇瑀信息科技有限公司 | 基于排序的风险预测方法、装置、设备和介质 |
CN114781280A (zh) * | 2022-06-21 | 2022-07-22 | 烟台国工智能科技有限公司 | 基于循环神经网络的交互式收率优化方法及系统 |
CN114781280B (zh) * | 2022-06-21 | 2022-09-30 | 烟台国工智能科技有限公司 | 基于循环神经网络的交互式收率优化方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109359768B (zh) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109359768A (zh) | 一种数据处理方法、服务器及电子设备 | |
Murata et al. | Development of Kaizen case-base for effective technology transfer–a case of visual management technology | |
CN107817404B (zh) | 一种便携式计量自动化终端故障诊断装置及其诊断方法 | |
CN110807554B (zh) | 基于风电/光伏经典场景集的生成方法及系统 | |
CN106952193A (zh) | 一种基于模糊深度信念网络的刑事案件辅助决策方法 | |
CN104820905A (zh) | 基于空间轨迹大数据分析的人员管控方法及系统 | |
CN107169598A (zh) | 一种基于深度学习的天气预测方法及系统 | |
CN106202891A (zh) | 一种面向医疗质量评价的大数据挖掘方法 | |
CN104751469B (zh) | 基于核模糊c均值聚类的图像分割方法 | |
CN104408203A (zh) | 一种预测移动对象轨迹终点的方法 | |
CN105046269B (zh) | 一种基于多核融合的多示例多标签场景分类方法 | |
CN107944410A (zh) | 一种基于卷积神经网络的跨领域面部特征解析方法 | |
CN106095812A (zh) | 一种基于相似性度量的智能试卷生成方法 | |
CN105320987B (zh) | 一种基于bp神经网络的卫星遥测数据智能判读方法 | |
CN106097204A (zh) | 一种面向冷启动学生用户的工作推荐系统及推荐方法 | |
CN106296498A (zh) | 数据处理方法及装置 | |
CN104933428A (zh) | 一种基于张量描述的人脸识别方法及装置 | |
CN111723257B (zh) | 基于用水规律的用户画像方法与系统 | |
CN108228674A (zh) | 一种基于dkt的信息处理方法及装置 | |
CN107945534A (zh) | 一种基于gmdh神经网络的交通车流量预测方法 | |
CN104463251A (zh) | 基于集成极端学习机的肿瘤基因表达谱数据识别方法 | |
CN105005711A (zh) | 获取统计线损的方法及装置 | |
CN110751416A (zh) | 一种用水量的预测方法、装置及设备 | |
CN105303268A (zh) | 基于相似度理论的风力发电输出功率预测方法 | |
CN109978074A (zh) | 基于深度多任务学习的图像美感和情感联合分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |