CN110738403B - 一种数据处理方法、设备及计算机存储介质 - Google Patents
一种数据处理方法、设备及计算机存储介质 Download PDFInfo
- Publication number
- CN110738403B CN110738403B CN201910919372.7A CN201910919372A CN110738403B CN 110738403 B CN110738403 B CN 110738403B CN 201910919372 A CN201910919372 A CN 201910919372A CN 110738403 B CN110738403 B CN 110738403B
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- historical
- data
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000003062 neural network model Methods 0.000 claims abstract description 221
- 238000004519 manufacturing process Methods 0.000 claims abstract description 110
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 41
- 238000013480 data collection Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000002994 raw material Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000011112 process operation Methods 0.000 description 3
- 230000001105 regulatory effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
本发明实施例公开了一种数据处理方法,该方法包括:获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型;基于所述多个历史数据采集位置和所述每一历史数据采集位置对应的运行指标类型构建第一神经网络模型;从历史数据库中获取历史样本数据;其中,所述历史样本数据包括每一所述运行指标类型对应的采集数据和所述生产系统的产品收率;采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型。本发明实施例还提供了一种电子设备和计算机可存储介质。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种数据处理方法、设备及计算机存储介质。
背景技术
随着神经网络技术的迅速发展,神经网络技术在生产、生活、娱乐等领域中的应用也越来越广泛。例如在石油化工等流程制造行业中,流程制造生产装置的工艺运行指标类型如温度、压力等直接决定了高价值输出产品的收率。现有技术中,通常采用机器学习算法建立了流程制造生产装置的工艺指标与高价值输出产品收率之间的关系,基于此关系基于高价值产品的收率的最大化可以获得工艺运行指标类型对应的最优工艺指标,并对车间工人提供有效的操作指导,以此提高高价值产品的收率,进一步提高经济效益。
但是在现有石油化工等流程制造行业中,从原料进行生产装置到高价值产品输出的过程为复杂的化学物理变化过程,对应同一时间生产装置的不同位置的相同指标进行测量时,对应的原料不同,而现有技术中为了获得最优工艺指标时,机器学习算法对应的分析样本是直接根据时间对工艺运行指标类型进行对齐得到的,这样,由于每个运行指标类型在不同时间不同位置对应的值不同,即分析样本不合理导致机器学习算法建立的模型的准确性较低。
发明内容
为解决上述技术问题,本发明实施例期望提供一种数据处理方法、设备及计算机存储介质,解决了现有技术中分析样本不合理导致机器学习算法建立的模型的准确较低的问题,建立了符合流程制造行业实际制造流程的模型,提高了模型的准确性。
本发明的技术方案是这样实现的:
第一方面,一种数据处理方法,所述方法包括:
获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型;
基于所述多个历史数据采集位置和所述每一历史数据采集位置对应的运行指标类型构建第一神经网络模型;
从历史数据库中获取历史样本数据;其中,所述历史样本数据包括每一所述运行指标类型对应的采集数据和所述生产系统的产品收率;
采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型。
可选的,所述基于所述多个历史数据采集位置和所述每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,包括:
基于所述多个历史数据采集位置,创建所述第一神经网络模型的层;
基于所述每一历史数据采集位置对应的运行指标类型,创建所述第一神经网络模型每一层的节点,得到所述第一神经网络模型。
可选的,所述基于所述多个历史数据采集位置,创建所述第一神经网络模型的层,包括:
基于所述多个历史数据采集位置在所述生产系统生产流程中的位置顺序,依次创建层,得到所述第一神经网络模型的模型层;其中,所述模型层包括一个输入层和包括至少一个层的第一隐藏层,所述模型层中层数与所述多个历史数据采集位置的数量相同;
获取第一预设数值,并在所述第一隐藏层后创建所述第一预设数值个预设层,得到所述第一神经网络模型的第二隐藏层;
在所述第二隐藏层后创建一个层,得到所述第一神经网络模型的输出层。
可选的,所述基于所述每一历史数据采集位置对应的运行指标类型,创建所述第一神经网络模型每一层的节点,得到所述第一神经网络模型,包括:
确定所述每一历史数据采集位置对应的运行指标类型的第一数量;
在所述每一历史数据采集位置对应的所述模型层的层中创建第二数量个节点;其中,所述第二数量大于或等于对应的所述第一数量;
在所述第二隐藏层的预设层中创建第二预设数值个节点;
在所述输出层中创建输出节点,从而得到所述第一神经网络模型。
可选的,所述采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型,包括:
从所述历史样本数据中获取与所述第一神经网络模型输入层对应的历史数据采集位置的第一采集数据;
输入所述第一采集数据至所述第一神经网络模型进行预测处理,得到第一预测收率;
计算所述第一预测收率与所述历史样本数据中的产品收率之间的第一损失值;其中,所述第一采集数据与所述历史样本数据中的产品收率对应;
计算所述第一隐藏层中的节点的输出值与所述历史样本数据中的第二采集数据之间的第二损失值;其中,所述第二采集数据是所述历史样本数据中除所述第一采集数据外的采集数据;
基于所述第一损失值和所述第二损失值在所述第一神经网络模型中进行反向传播,以持续训练所述第一神经网络模型的参数,从而得到训练成功的所述目标神经网络模型。
可选的,所述计算所述第一隐藏层中的节点的输出值与所述历史样本数据中的第二采集数据之间的第二损失值,包括:
获取所述第一隐藏层的第i-1层中与第i个历史数据采集位置对应的所述第一数量个节点的输出值;其中,i为大于或等于2,且小于或等于所述模型层的层数的正整数;
从所述第二采集数据中获取与所述第i个历史数据采集位置对应的所述第一数量个运行指标类型的子采集数据;
计算所述第一数量个节点的输出值与所述子采集数据之间的子损失值,直至计算得到所述第一隐藏层的最后一层对应的子损失值,并确定所有子损失值为所述第二损失值。
可选的,所述基于所述第一损失值和所述第二损失值在所述第一神经网络模型中进行反向传播,以持续训练所述第一神经网络模型的参数,从而得到训练成功的所述目标神经网络模型,包括:
获取所述历史样本数据中的第一样本数据对应的第一损失值和第二损失值;
若所述第一样本数据对应的第一损失值和第二损失值满足预设条件,确定所述第一神经网络模型为训练成功的所述目标神经网络模型;
若所述第一样本数据对应的第一损失值和第二损失值不满足所述预设条件,基于所述第一样本数据对应的第一损失值和所述第二损失值在所述第一神经网络模型中进行反向传播,以更新所述第一神经网络模型的参数得到第二神经网络模型;
基于所述第二神经网络模型和所述历史样本数据中的第二数据样本,对所述第二神经网络模型进行参数调整,直至得到第一损失值和第二损失值满足所述预设条件的目标神经网络模型。
可选的,所述采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型之后,所述方法还包括:
在所述生产系统生产流程运行中,获取所述目标神经网络模型输入层对应的当前数据采集位置的运行指标类型对应的待预测采集数据;
将所述待预测采集数据输入所述目标神经网络模型的输入层进行预测处理,得到目标预测收率。
第二方面,一种电子设备,所述设备包括:处理器、存储器和通信总线,其中:
所述存储器,用于存储可执行指令;
所述通信总线,用于实现所述处理器和所述存储器之间的通信连接;
所述处理器,用于执行所述存储器中存储的数据处理程序,实现如上述任一项所述的数据处理方法。
第三方面,一种计算机存储介质,所述计算机存储介质上存储有数据处理程序,所述数据处理程序被处理器执行时实现如上述任一项所述的数据处理方法的步骤。
本发明实施例提供了一种数据处理方法、设备及计算机存储介质,获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型,并基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,然后从历史数据库中获取历史样本数据,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。这样,通过历史数据采集位置和每一历史数据采集位置对应的运行指标类型来构建第一神经网络模型,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型,解决了现有技术中分析样本不合理导致机器学习算法建立的模型的准确较低的问题,建立了符合流程制造行业实际制造流程的模型,提高了模型的准确性。
附图说明
图1为本发明实施例提供的一种数据处理方法的流程示意图;
图2为本发明实施例提供的另一种数据处理方法的流程示意图;
图3为本发明实施例提供的一种神经网络模型示意图;
图4为本发明实施例提供的一种历史数据库示意图;
图5为本发明实施例提供的一种历史样本存储示意图;
图6为本发明实施例提供的又一种数据处理方法的流程示意图;
图7为本发明实施例提供的一种电子设备的结构示意图;
图8为本发明实施例提供的一种生产系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明的实施例提供一种数据处理方法,参照图1所示,方法应用于电子设备,该方法包括以下步骤:
步骤101、获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型。
在本发明实施例中,多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型可以是在历史数据库中存储的,运行指标类型可以是指温度、压力等,运行指标类型对应的运行指标参数数据在生产过程中对生产产品的收率具有严重的影响。运行指标类型对应的运行指标参数数据即运行指标类型对应的数值在生产过程中可以根据实际运行情况进行调整。历史数据采集位置可以从生产系统生产流程的进料口开始分布,一直到生产系统生产流程的产品输出出口。每一历史数据采集位置对应的运行指标类型至少包括一种类型。
步骤102、基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型。
在本发明实施例中,基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,即根据实际物料流程的流程设计第一神经网络模型,即第一神经网络模型的层数与生产流程中的历史数据采集位置的总数量有关,第一神经网络模型每一层的节点的数量与该层对应的历史数据采集位置处的运行指标类型的数量有关。
步骤103、从历史数据库中获取历史样本数据。
其中,历史样本数据包括每一运行指标类型对应的采集数据和生产系统的产品收率。
在本发明实施例中,历史数据库可以是生产流程对应的制造企业的数据库,其中设置有体现生产设备的运行状况的历史数据采集位置、每一历史数据采集位置对应的运行指标类型、每一运行指标类型按照预设时间间隔采集的历史采集数据、以及按照预设时间间隔采集的高价值产品的历史收率。历史样本数据库中的历史数据可以是按照采集时间进行存储的,这样,获取历史样本数据时,需对历史样本数据库中的样本数据进行预处理,进行样本构造得到历史样本数据,进行样本构造时不只考虑采集时间,还包括每一历史数据采集位置。需说明的是,高价值产品的收率可以直接通过实现生产流程的生产设备上设置的测量计,例如可以直接读取收率的传感器测量获得;在生产设备上未设置有测量计时,还可以通过其他测量点的值间接计算得到,例如首先根据生产设备的产品输出口设置的传感器检测产物流量,生产设备的进料口设置的传感器检测进料流量,然后根据公式:收率=产物流量/进料流量,“/”在此处表示除号。
步骤104、采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。
在本发明实施例中,将历史样本数据输入第一神经网络模型的输入层,对第一神经网络模型的参数进行调整优化,得到能够进行准确拟合的参数组合,得到目标神经网络模型。
本发明实施例提供了一种数据处理方法,获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型,并基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,然后从历史数据库中获取历史样本数据,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。这样,通过历史数据采集位置和每一历史数据采集位置对应的运行指标类型来构建第一神经网络模型,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型,解决了现有技术中分析样本不合理导致机器学习算法建立的模型的准确较低的问题,建立了符合流程制造行业实际制造流程的模型,提高了模型的准确性。
基于前述实施例,本发明的实施例提供一种数据处理方法,参照图2所示,方法应用于电子设备,该方法包括以下步骤:
步骤201、获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型。
在本发明实施例中,假设生产系统生产流程对应的历史数据采集位置总共有3个,为进料口位置、中间位置和产品输出口位置,其中,进料口位置对应的运行指标类型为X1、X2、X3、X4、X5和X6,中间位置对应的运行指标类型为X7、X8和X9,产品输出口位置对应的运行指标类型为X10、X11和X12。需说明的是,每一历史数据采集位置的运行指标类型部分或全部可以相同,也可以不同,例如每一历史数据采集位置的运行指标类型均可以包括温度指标,压力指标等。
步骤202、基于多个历史数据采集位置,创建第一神经网络模型的层。
在本发明实施例中,多个历史数据采集位置指的是生产流程中的全部历史数据采集位置,统计多个历史数据采集位置的数量,并创建至少多个历史数据采集位置的数量个层,得到第一神经网络模型的层,包括第一神经网络模型的输入层和隐藏层。其中,第一神经网络模型的层用于特征提取。节点由节点组织成,节点也称为神经元或感知器,是具有一个或多个权重输入连接的计算单元,它以某种方式连接输入的转移函数,并且连接输出。
在本发明其他实施例中,步骤202可以由以下步骤a11~步骤a13来实现:
步骤a11、基于多个历史数据采集位置在生产系统生产流程中的位置顺序,依次创建层,得到第一神经网络模型的模型层。
其中,模型层包括一个输入层和包括至少一个层的第一隐藏层,模型层中层数与多个历史数据采集位置的数量相同。
在本发明实施例中,第一神经网络模型的模型层是根据历史数据采集位置得到的,即第一神经网络模型的模型层有多少层,对应的生产流程就有多少个历史数据采集位置。且按照历史数据采集位置在生产流程中的设置顺序,依次设置对应的层。示例性的,第一神经网络模型的模型层中的输入层,对应生产流程中的进料口位置,模型层的第一隐藏层中的第一层对应生产流程中的中间位置,模型层的第一隐藏层中的第二层对应生产流程中的产品输出口位置。
步骤a12、获取第一预设数值,并在第一隐藏层后创建第一预设数值个预设层,得到第一神经网络模型的第二隐藏层。
在本发明实施例中,第一预设数值可以为0,也可以是大于或等于1的正整数。第一预设数值可以是用户自己预先设定的。第一隐藏层和第二隐藏层统称为隐藏层,对应的是神经网络模型中的隐藏层,即对用户不可见。
步骤a13、在第二隐藏层后创建一个层,得到第一神经网络模型的输出层。
在本发明实施例中,第一神经网络模型的输出层对应的是产品收率。
步骤203、基于每一历史数据采集位置对应的运行指标类型,创建第一神经网络模型每一层的节点,得到第一神经网络模型。
在本发明实施例中,统计每一历史数据采集位置对应的运行指标类型的数量,在第一神经网络模型该历史数据采集位置对应的层中创建对应数量个节点。
在本发明其他实施例中,步骤203可以由以下步骤b11~步骤b14来实现:
步骤b11、确定每一历史数据采集位置对应的运行指标类型的第一数量。
在本发明实施例中,例如进料口位置对应的运行指标类型为X1、X2、X3、X4、X5和X6,可以确定进料口位置对应的运行指标类型的第一数量为6;中间位置对应的运行指标类型为X7、X8和X9,可以确定中间位置对应的运行指标类型的第一数量为3;产品输出口位置对应的运行指标类型为X10、X11和X12,可以确定产品输出口位置对应的运行指标类型的第一数量为3。
步骤b12、在每一历史数据采集位置对应的模型层的层中创建第二数量个节点。
其中,第二数量大于或等于对应的第一数量。
在本发明实施例中,第二数量是根据第一数量来确定的。需说明的是,输入层的节点数量第二数量等于输入层对应的运行指标类型的第一数量;第一隐藏层中每一层节点数量第二数量可以大于或等于对应的第一数量。示例性的,如图3所示,A为输入层,对应的节点数量为6个,节点分别用标识有x1、x2、x3、x4、x5、x6的圆圈表示;第一隐藏层B中中间位置B1对应的节点数量第二数量为4,节点分别用标识有h11、h12、h13的圆圈表示,大于中间位置对应的运行指标类型的第一数量3,产品输出口位置B2对应的节点数量第二数量为4,大于产品输出口位置对应的运行指标类型的第一数量3,节点分别用标识有h21、h22、h23的圆圈表示。
步骤b13、在第二隐藏层的预设层中创建第二预设数值个节点。
在本发明实施例中,在第二隐藏层的每一预设层中均创建第二预设数值个节点,第二预设数值为用户预先设置的一个数值,第二预设数值为大于或者等于1的正整数。示例性的,如图3所示,第二隐藏层C的预设层的第一预设数值为1,第二预设数值为3,节点分别用标识有k11、k12、k13的圆圈表示。
步骤b14、在输出层中创建输出节点,从而得到第一神经网络模型。
在本发明实施例中,可以根据实际应用情况设置输出节点,即生产系统的产品输出口输出几种产品,设置几个输出节点,通常一个产品输出口输出一种产品,因此,可以默认输出层中输出节点的数量为1。示例性的,如图3所示,输出层D的输出节点的数量为1,节点用标识有m的圆圈表示。
步骤204、从历史数据库中获取历史样本数据。
其中,历史样本数据包括每一运行指标类型对应的采集数据和生产系统的产品收率。
在本发明实施例中,历史数据库可以如图4所示,图4中的第一行X1、X2、……、Xn为生产系统中的运行指标类型,第一列T1、T2、……、Tm为时间,最后一列Y1、Y2、……、Ym为产品收率,对应的X1_1、X1_2、……、X1_m、……、Xn_m为对应的运行指标类型的参数数据;对历史数据库中的样本数据进行样本构建,得到的历史样本数据包括历史数据采集位置,每一历史数据采集位置对应的运行指标类型,每一历史数据采集位置对应的运行指标类型的参数数据。进一步的,由于从原料进生产设备,到最终产出产品,需经过复杂的化学物理过程,同一时间在装置不同位置测得的指标值,并不对应同一份原料,为了解决该问题,可以确定当前历史采集位置到当前历史位置相邻的下一历史采集位置之间的时间间隔,在对当前历史采集位置对应的运行指标类型的参数数据进行采集之后,间隔确定的时间间隔后,采集当前历史位置相邻的下一历史采集位置对应的运行指标类型的参数数据。示例性的,历史样本数据的格式可以如图5所示,其中,第一列为历史数据采集位置和产品收率,历史数据采集位置包括进料口位置、中间位置和产品输出口位置;第二列为历史数据采集位置上对应的运行指标类型,进料口位置对应的运行指标类型为X1、X2、X3、X4、X5和X6,中间位置对应的运行指标类型为X7、X8和X9,产品输出口位置对应的运行指标类型为X10、X11和X12,表示产品收率的符号Y;第三列及第三列之后的每一列为每一样本对应的运行指标类型的采集数据,假设物料传输时,从进料口位置到中间位置的时间间隔为t1,从中间位置到产品输出口位置的时间间隔为t2,对应的,t时刻在进料口位置采集的运行指标类型的参数数据,并可以记为X1_1、X2_1、X3_1、X4_1、X5_1、X6_1,对应的则在t+t1时刻采集中间位置的运行指标类型的参数数据,并记为X7_1、X8_1、X9_1,对应的在t+t1+t2时刻采集产品输出口位置的运行指标类型的参数数据,并记为X10_1、X11_1和X12_1,以及在t+t1+t2时刻采集产品输出口位置对应的产品收率Y_1,对应的,将X1_1、X2_1、X3_1、X4_1、X5_1、X6_1、X7_1、X8_1、X9_1、X10_1、X11_1和X12_1作为历史样本数据中的一个样本数据。在需说明的是,历史样本数据库中的样本数据也可以直接设置为图5所示的格式,这样,可以直接从历史样本数据库中获取历史样本数据进行模型训练。
步骤205、从历史样本数据中获取与第一神经网络模型输入层对应的历史数据采集位置的第一采集数据。
在本发明实施例中,从图5中获取进料口位置对应的第一采集数据X1_1、X2_1、X3_1、X4_1、X5_1和X6_1。
步骤206、输入第一采集数据至第一神经网络模型进行预测处理,得到第一预测收率。
步骤207、计算第一预测收率与历史样本数据中的产品收率之间的第一损失值。
其中,第一采集数据与历史样本数据中的产品收率对应。
在本发明实施例中,损失值可以是采用损失计算方法来计算的,例如损失计算方法可以是计算第一预测收率与历史样本数据中的产品收率之间的差值,也可以是均方差计算方法。示例性的,基于图5,计算第一预测收率与Y的损失值,得到第一损失值。
步骤208、计算第一隐藏层中的节点的输出值与历史样本数据中的第二采集数据之间的第二损失值。
其中,第二采集数据是历史样本数据中除第一采集数据外的采集数据。
在本发明实施例中,第一损失值和第二损失值的损失计算方法可以相同,也可以不同,具体可以根据实际情况来确定。第二采集数据是指历史样本数据中,除输入层对应的历史数据采集位置的运行指标类型的参数数据外的参数数据,示例性的,基于图5可得第二采集数据为X7_1、X8_1、X9_1、X10_1、X11_1和X12_1。
在本发明其他实施例中,步骤208可以由以下步骤c11~步骤c13来实现:
步骤c11、获取第一隐藏层的第i-1层中与第i个历史数据采集位置对应的第一数量个节点的输出值。
其中,i为大于或等于2,且小于或等于模型层的层数的正整数。
在本发明实施例中,第1历史数据采集位置对应的是输入层,第一隐藏层的第1层对应第2个历史数据采集位置,第一隐藏层的第2层对应第3个历史数据采集位置,等等依次类推。示例性的,获取图3中第一隐藏层第1层与第2个历史数据采集位置即中间位置中3个节点D1、D2和D3的输出值,第一隐藏层第2层与第3个历史数据采集位置即产品输出口位置中3个节点E1、E2和E3的输出值。
步骤c12、从第二采集数据中获取与第i个历史数据采集位置对应的第一数量个运行指标类型的子采集数据。
在本发明实施例中,第二采集数据为X7_1、X8_1、X9_1、X10_1、X11_1和X12_1,从第二采集数据中获取与第2个历史数据采集位置即中间位置对应的3个运行指标类型的子采集数据,得到X7_1、X8_1和X9_1;从第二采集数据中获取与第3个历史数据采集位置即产品输出口位置对应的3个运行指标类型的子采集数据,得到X10_1、X11_1和X12_1。
步骤c13、计算第一数量个节点的输出值与子采集数据之间的子损失值,直至计算得到第一隐藏层的最后一层对应的子损失值,并确定所有子损失值为第二损失值。
在本发明实施例中,计算第一隐藏层的第i-1层对应的第一数量个节点的输出值与第一隐藏层的第i-1层对应的第一数量个运行指标类型的子采集数据之间的子损失值,对应的子损失值为一个损失值集合,每一个节点对应一个子采集数据。示例性的,计算第一隐藏层的第1层的子损失值过程为:分别计算D1的输出值与X7_1的损失值、D2的输出值与X8_1的损失值、和D3的输出值与X9_1的损失值,计算第一隐藏层的第2层的子损失值过程为:分别计算E1的输出值与X10_1的损失值、E2的输出值与X11_1的损失值、和E3的输出值与X12_1的损失值,得到第二损失值为:D1的输出值与X7_1的损失值、D2的输出值与X8_1的损失值、和D3的输出值与X9_1的损失值、E1的输出值与X10_1的损失值、E2的输出值与X11_1的损失值、和E3的输出值与X12_1的损失值。
步骤209、基于第一损失值和第二损失值在第一神经网络模型中进行反向传播,以持续训练第一神经网络模型的参数,从而得到训练成功的目标神经网络模型。
在本发明实施例中,基于第一预测收率与Y的损失值、D1的输出值与X7_1的损失值、D2的输出值与X8_1的损失值、和D3的输出值与X9_1的损失值、E1的输出值与X10_1的损失值、E2的输出值与X11_1的损失值、和E3的输出值与X12_1的损失值在第一神经网络模型中进行反向传播,以持续训练第一神经网络模型的参数,第一神经网络模型的参数包括例如模型中各个神经元即节点的权重矩阵、偏差矩阵等。
在本发明其他实施例中,步骤209可以由以下步骤d11~步骤d14来实现:
步骤d11、获取历史样本数据中的第一样本数据对应的第一损失值和第二损失值。
在本发明实施例中,历史样本数据中的第一样本数据对应的第一损失值和第二损失值,是将第一样本数据输入第一神经网络模型得到的。
步骤d12、若第一样本数据对应的第一损失值和第二损失值满足预设条件,确定第一神经网络模型为训练成功的目标神经网络模型。
在本发明实施例中,预设条件可以是一个阈值,或者阈值范围。
步骤d13、若第一样本数据对应的第一损失值和第二损失值不满足预设条件,基于第一神经网络模型对应第一损失值和第二损失值在第一神经网络模型中进行反向传播,更新第一神经网络模型的参数得到第二神经网络模型。
步骤d14、基于第二神经网络模型和历史样本数据中的第二数据样本,对第二神经网络模型进行参数调整,直至得到第一损失值和第二损失值满足预设条件的目标神经网络模型。
在本发明实施例中,基于第二神经网络模型和历史样本数据中的第二数据样本,对第二神经网络模型进行参数调整的实现方法与基于第一数据样本对第一神经网络模型进行参数调整的实现方法相同,具体可以参见步骤204~208、和步骤d11~d13,将其中的第一神经网络模型和第一数据样本替换为第二神经网络模型和第二数据样本即可,对与第一神经网络模型进行参数更新后的其他中间模型也是如此,此处不再详细赘述。
如图6所示,电子设备执行步骤209后还可以继续执行以下步骤210~211:
步骤210、在生产系统生产流程运行中,获取目标神经网络模型输入层对应的当前数据采集位置的运行指标类型的待预测采集数据。
在本发明实施例中,在生产系统生产流程运行时,可以获取生产系统生产流程的进料口位置处的运行指标类型对应的待预测采集数据,即实际的参数数据。
步骤211、将待预测采集数据输入目标神经网络模型的输入层进行预测处理,得到目标预测收率。
在本发明实施例中,输入待预测采集数据至目标神经网络模型进行预测,得到目标预测收率,看预测收率是否符合预设要求,若符合预设要求,不调整生产系统生产流程的进料口位置处的运行指标类型对应的实际参数数据,若不符合预设要求,对生产系统生产流程的进料口位置处的运行指标类型对应的实际参数数据进行调整。
需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。
本发明实施例提供了一种数据处理方法,获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型,并基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,然后从历史数据库中获取历史样本数据,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。这样,通过历史数据采集位置和每一历史数据采集位置对应的运行指标类型来构建第一神经网络模型,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型,解决了现有技术中分析样本不合理导致机器学习算法建立的模型的准确较低的问题,建立了符合流程制造行业实际制造流程的模型,提高了模型的准确性。
基于前述实施例,本发明的实施例提供一种电子设备,该电子设备可以应用于图1~2、6对应的实施例提供的数据处理方法中,参照图7所示,该电子设备3可以包括:处理器31、存储器32和通信总线33,其中:
通信总线33用于实现处理器31和存储器32之间的通信连接;
处理器31用于执行存储器32中存储的信息处理程序,以实现以下步骤:
获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型;
基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型;
从历史数据库中获取历史样本数据;其中,历史样本数据包括每一运行指标类型对应的采集数据和生产系统的产品收率;
采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。
在本发明的其它实施例中,处理器还用于执行基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,以实现以下步骤:
基于多个历史数据采集位置,创建第一神经网络模型的层;
基于每一历史数据采集位置对应的运行指标类型,创建第一神经网络模型每一层的节点,得到第一神经网络模型。
在本发明的其它实施例中,处理器还用于执行基于多个历史数据采集位置,创建第一神经网络模型的层,以实现以下步骤:
基于多个历史数据采集位置在生产系统生产流程中的位置顺序,依次创建层,得到第一神经网络模型的模型层;其中,模型层包括一个输入层和包括至少一个层的第一隐藏层,模型层中层数与多个历史数据采集位置的数量相同;
获取第一预设数值,并在第一隐藏层后创建第一预设数值个预设层,得到第一神经网络模型的第二隐藏层;
在第二隐藏层后创建一个层,得到第一神经网络模型的输出层。
在本发明的其它实施例中,处理器还用于执行基于每一历史数据采集位置对应的运行指标类型,创建第一神经网络模型每一层的节点,得到第一神经网络模型,以实现以下步骤:
确定每一历史数据采集位置对应的运行指标类型的第一数量;
在每一历史数据采集位置对应的模型层的层中创建第二数量个节点;其中,第二数量大于或等于对应的第一数量;
在第二隐藏层的预设层中创建第二预设数值个节点;
在输出层中创建输出节点,从而得到第一神经网络模型。
在本发明的其它实施例中,处理器还用于执行采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型,以实现以下步骤:
从历史样本数据中获取与第一神经网络模型输入层对应的历史数据采集位置的第一采集数据;
输入第一采集数据至第一神经网络模型进行预测处理,得到第一预测收率;
计算第一预测收率与历史样本数据中的产品收率之间的第一损失值;其中,第一采集数据与历史样本数据中的产品收率对应;
计算第一隐藏层中的节点的输出值与历史样本数据中的第二采集数据之间的第二损失值;其中,第二采集数据是历史样本数据中除第一采集数据外的采集数据;
基于第一损失值和第二损失值在第一神经网络模型中进行反向传播,以持续训练第一神经网络模型的参数,从而得到训练成功的目标神经网络模型。
在本发明的其它实施例中,处理器还用于执行计算第一隐藏层中的节点的输出值与历史样本数据中的第二采集数据之间的第二损失值,以实现以下步骤:
获取第一隐藏层的第i-1层中与第i个历史数据采集位置对应的第一数量个节点的输出值;其中,i为大于或等于2,且小于或等于模型层的层数的正整数;
从第二采集数据中获取与第i个历史数据采集位置对应的第一数量个运行指标类型的子采集数据;
计算第一数量个节点的输出值与子采集数据之间的子损失值,直至计算得到第一隐藏层的最后一层对应的子损失值,并确定所有子损失值为第二损失值。
在本发明的其它实施例中,处理器还用于执行基于第一损失值和第二损失值在第一神经网络模型中进行反向传播,以持续训练第一神经网络模型的参数,从而得到训练成功的目标神经网络模型,以实现以下步骤:
获取历史样本数据中的第一样本数据对应的第一损失值和第二损失值;
若第一样本数据对应的第一损失值和第二损失值满足预设条件,确定第一神经网络模型为训练成功的目标神经网络模型;
若第一样本数据对应的第一损失值和第二损失值不满足预设条件,基于第一样本数据对应的第一损失值和第二损失值在第一神经网络模型中进行反向传播,以更新第一神经网络模型的参数得到第二神经网络模型;
基于第二神经网络模型和历史样本数据中的第二数据样本,对第二神经网络模型进行参数调整,直至得到第一损失值和第二损失值满足预设条件的目标神经网络模型。
在本发明的其它实施例中,处理器还用于执行采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型之后,以实现以下步骤:
在生产系统生产流程运行中,获取目标神经网络模型输入层对应的当前数据采集位置的运行指标类型对应的待预测采集数据;
将待预测采集数据输入目标神经网络模型的输入层进行预测处理,得到目标预测收率。
需要说明的是,本实施例中处理器所执行的步骤的具体实现过程,可以参照图1~2、6对应的实施例提供的数据处理方法中的实现过程,此处不再赘述。
本发明实施例提供了一种电子设备,获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型,并基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,然后从历史数据库中获取历史样本数据,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。这样,通过历史数据采集位置和每一历史数据采集位置对应的运行指标类型来构建第一神经网络模型,并采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型,解决了现有技术中分析样本不合理导致机器学习算法建立的模型的准确较低的问题,建立了符合流程制造行业实际制造流程的模型,提高了模型的准确性。
基于前述实施例,本发明的实施例提供一种生产系统,参照图8所示,该生产系统至少包括图7对应的实施例提供的电子设备和生产设备,其中:
生产设备,用于实现生产流程得到产品;
电子设备,用于获取生产设备每一控制位置对应的待调节数据,并将每一控制位置对应的待调节数据输入目标神经网络模型的输入层进行预测处理,得到目标预测收率,在目标预测收率满足预设收率时,设置生产设备的每一控制位置处的控制数据为待调节数据,以便生产设备得到预设收率的产品。
基于前述实施例,本发明的实施例提供一种计算机可读存储介质,该计算机可读存储介质可以应用于图1~2、6对应的实施例提供的方法中,该计算机可读存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现如下步骤:
获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型;
基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型;
从历史数据库中获取历史样本数据;其中,历史样本数据包括每一运行指标类型对应的采集数据和生产系统的产品收率;
采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型。
在本发明的其它实施例中,处理器还用于执行基于多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型构建第一神经网络模型,以实现以下步骤:
基于多个历史数据采集位置,创建第一神经网络模型的层;
基于每一历史数据采集位置对应的运行指标类型,创建第一神经网络模型每一层的节点,得到第一神经网络模型。
在本发明的其它实施例中,处理器还用于执行基于多个历史数据采集位置,创建第一神经网络模型的层,以实现以下步骤:
基于多个历史数据采集位置在生产系统生产流程中的位置顺序,依次创建层,得到第一神经网络模型的模型层;其中,模型层包括一个输入层和包括至少一个层的第一隐藏层,模型层中层数与多个历史数据采集位置的数量相同;
获取第一预设数值,并在第一隐藏层后创建第一预设数值个预设层,得到第一神经网络模型的第二隐藏层;
在第二隐藏层后创建一个层,得到第一神经网络模型的输出层。
在本发明的其它实施例中,处理器还用于执行基于每一历史数据采集位置对应的运行指标类型,创建第一神经网络模型每一层的节点,得到第一神经网络模型,以实现以下步骤:
确定每一历史数据采集位置对应的运行指标类型的第一数量;
在每一历史数据采集位置对应的模型层的层中创建第二数量个节点;其中,第二数量大于或等于对应的第一数量;
在第二隐藏层的预设层中创建第二预设数值个节点;
在输出层中创建输出节点,从而得到第一神经网络模型。
在本发明的其它实施例中,处理器还用于执行采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型,以实现以下步骤:
从历史样本数据中获取与第一神经网络模型输入层对应的历史数据采集位置的第一采集数据;
输入第一采集数据至第一神经网络模型进行预测处理,得到第一预测收率;
计算第一预测收率与历史样本数据中的产品收率之间的第一损失值;其中,第一采集数据与历史样本数据中的产品收率对应;
计算第一隐藏层中的节点的输出值与历史样本数据中的第二采集数据之间的第二损失值;其中,第二采集数据是历史样本数据中除第一采集数据外的采集数据;
基于第一损失值和第二损失值在第一神经网络模型中进行反向传播,以持续训练第一神经网络模型的参数,从而得到训练成功的目标神经网络模型。
在本发明的其它实施例中,处理器还用于执行计算第一隐藏层中的节点的输出值与历史样本数据中的第二采集数据之间的第二损失值,以实现以下步骤:
获取第一隐藏层的第i-1层中与第i个历史数据采集位置对应的第一数量个节点的输出值;其中,i为大于或等于2,且小于或等于模型层的层数的正整数;
从第二采集数据中获取与第i个历史数据采集位置对应的第一数量个运行指标类型的子采集数据;
计算第一数量个节点的输出值与子采集数据之间的子损失值,直至计算得到第一隐藏层的最后一层对应的子损失值,并确定所有子损失值为第二损失值。
在本发明的其它实施例中,处理器还用于执行基于第一损失值和第二损失值在第一神经网络模型中进行反向传播,以持续训练第一神经网络模型的参数,从而得到训练成功的目标神经网络模型,以实现以下步骤:
获取历史样本数据中的第一样本数据对应的第一损失值和第二损失值;
若第一样本数据对应的第一损失值和第二损失值满足预设条件,确定第一神经网络模型为训练成功的目标神经网络模型;
若第一样本数据对应的第一损失值和第二损失值不满足预设条件,基于第一样本数据对应的第一损失值和第二损失值在第一神经网络模型中进行反向传播,以更新第一神经网络模型的参数得到第二神经网络模型;
基于第二神经网络模型和历史样本数据中的第二数据样本,对第二神经网络模型进行参数调整,直至得到第一损失值和第二损失值满足预设条件的目标神经网络模型。
在本发明的其它实施例中,处理器还用于执行采用历史样本数据对第一神经网络模型进行模型训练,得到目标神经网络模型之后,以实现以下步骤:
在生产系统生产流程运行中,获取目标神经网络模型输入层对应的当前数据采集位置的运行指标类型对应的待预测采集数据;
将待预测采集数据输入目标神经网络模型的输入层进行预测处理,得到目标预测收率。
需要说明的是,本发明实施例中个或者多个程序可被一个或者多个处理器的步骤的解释说明,可以参照图1~2、6对应的实施例提供的方法实现过程,此处不再赘述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
Claims (8)
1.一种数据处理方法,其特征在于,所述方法包括:
获取生产系统生产流程对应的多个历史数据采集位置和每一历史数据采集位置对应的运行指标类型;
基于所述多个历史数据采集位置在所述生产系统生产流程中的位置顺序,依次创建层,得到第一神经网络模型的模型层;其中,所述模型层包括一个输入层和包括至少一个层的第一隐藏层,所述模型层中层数与所述多个历史数据采集位置的数量相同;
获取第一预设数值,并在所述第一隐藏层后创建所述第一预设数值个预设层,得到所述第一神经网络模型的第二隐藏层;
在所述第二隐藏层后创建一个层,得到所述第一神经网络模型的输出层;
基于所述每一历史数据采集位置对应的运行指标类型,创建所述第一神经网络模型每一层的节点,得到所述第一神经网络模型;
从历史数据库中获取历史样本数据;其中,所述历史样本数据包括每一所述运行指标类型按照预设时间间隔采集的历史采集数据和按照所述预设时间间隔采集的所述生产系统的产品收率;其中,所述预设时间间隔为当前历史采集位置与当前历史位置相邻的下一历史采集位置之间的时间间隔;
采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述每一历史数据采集位置对应的运行指标类型,创建所述第一神经网络模型每一层的节点,得到所述第一神经网络模型,包括:
确定所述每一历史数据采集位置对应的运行指标类型的第一数量;
在所述每一历史数据采集位置对应的所述模型层的层中创建第二数量个节点;其中,所述第二数量大于或等于对应的所述第一数量;
在所述第二隐藏层的预设层中创建第二预设数值个节点;
在所述输出层中创建输出节点,从而得到所述第一神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型,包括:
从所述历史样本数据中获取与所述第一神经网络模型输入层对应的历史数据采集位置的第一采集数据;
输入所述第一采集数据至所述第一神经网络模型进行预测处理,得到第一预测收率;
计算所述第一预测收率与所述历史样本数据中的产品收率之间的第一损失值;其中,所述第一采集数据与所述历史样本数据中的产品收率对应;
计算所述第一隐藏层中的节点的输出值与所述历史样本数据中的第二采集数据之间的第二损失值;其中,所述第二采集数据是所述历史样本数据中除所述第一采集数据外的采集数据;
基于所述第一损失值和所述第二损失值在所述第一神经网络模型中进行反向传播,以持续训练所述第一神经网络模型的参数,从而得到训练成功的所述目标神经网络模型。
4.根据权利要求3所述的方法,其特征在于,所述计算所述第一隐藏层中的节点的输出值与所述历史样本数据中的第二采集数据之间的第二损失值,包括:
获取所述第一隐藏层的第i-1层中与第i个历史数据采集位置对应的所述第一数量个节点的输出值;其中,i为大于或等于2,且小于或等于所述模型层的层数的正整数;
从所述第二采集数据中获取与所述第i个历史数据采集位置对应的所述第一数量个运行指标类型的子采集数据;
计算所述第一数量个节点的输出值与所述子采集数据之间的子损失值,直至计算得到所述第一隐藏层的最后一层对应的子损失值,并确定所有子损失值为所述第二损失值。
5.根据权利要求3所述的方法,其特征在于,所述基于所述第一损失值和所述第二损失值在所述第一神经网络模型中进行反向传播,以持续训练所述第一神经网络模型的参数,从而得到训练成功的所述目标神经网络模型,包括:
获取所述历史样本数据中的第一样本数据对应的第一损失值和第二损失值;
若所述第一样本数据对应的第一损失值和第二损失值满足预设条件,确定所述第一神经网络模型为训练成功的所述目标神经网络模型;
若所述第一样本数据对应的第一损失值和第二损失值不满足所述预设条件,基于所述第一样本数据对应的第一损失值和所述第二损失值在所述第一神经网络模型中进行反向传播,以更新所述第一神经网络模型的参数得到第二神经网络模型;
基于所述第二神经网络模型和所述历史样本数据中的第二数据样本,对所述第二神经网络模型进行参数调整,直至得到第一损失值和第二损失值满足所述预设条件的目标神经网络模型。
6.根据权利要求1至2、4至5任一所述的方法,其特征在于,所述采用所述历史样本数据对所述第一神经网络模型进行模型训练,得到目标神经网络模型之后,所述方法还包括:
在所述生产系统生产流程运行中,获取所述目标神经网络模型输入层对应的当前数据采集位置的运行指标类型对应的待预测采集数据;
将所述待预测采集数据输入所述目标神经网络模型的输入层进行预测处理,得到目标预测收率。
7.一种电子设备,其特征在于,所述设备包括:处理器、存储器和通信总线,其中:
所述存储器,用于存储可执行指令;
所述通信总线,用于实现所述处理器和所述存储器之间的通信连接;
所述处理器,用于执行所述存储器中存储的数据处理程序,实现如权利要求1至6中任一项所述的数据处理方法。
8.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有数据处理程序,所述数据处理程序被处理器执行时实现如权利要求1至6中任一项所述的数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910919372.7A CN110738403B (zh) | 2019-09-26 | 2019-09-26 | 一种数据处理方法、设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910919372.7A CN110738403B (zh) | 2019-09-26 | 2019-09-26 | 一种数据处理方法、设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110738403A CN110738403A (zh) | 2020-01-31 |
CN110738403B true CN110738403B (zh) | 2023-11-24 |
Family
ID=69269566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910919372.7A Active CN110738403B (zh) | 2019-09-26 | 2019-09-26 | 一种数据处理方法、设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110738403B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111394117B (zh) * | 2020-03-23 | 2022-08-02 | 北京赛普泰克技术有限公司 | 汽油吸附脱硫的处理方法及处理系统、电子设备、存储介质 |
CN112598259A (zh) * | 2020-12-17 | 2021-04-02 | 上海玑智自动化科技有限公司 | 产能测算方法、装置及计算机可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805259A (zh) * | 2018-05-23 | 2018-11-13 | 北京达佳互联信息技术有限公司 | 神经网络模型训练方法、装置、存储介质及终端设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10243065B4 (de) * | 2002-09-16 | 2004-10-28 | Siemens Ag | System zum Bedienen und Beobachten mit integrierter Historien-Funktionalität |
CN104765346B (zh) * | 2015-03-26 | 2019-03-19 | 华东理工大学 | 一种炼油过程全流程建模方法 |
CN109814513B (zh) * | 2019-03-20 | 2020-12-29 | 广东辛孚科技有限公司 | 一种基于数据模型的催化裂化装置优化方法 |
CN109993358B (zh) * | 2019-03-25 | 2021-07-16 | 联想(北京)有限公司 | 训练收率预测模型的方法和装置 |
-
2019
- 2019-09-26 CN CN201910919372.7A patent/CN110738403B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805259A (zh) * | 2018-05-23 | 2018-11-13 | 北京达佳互联信息技术有限公司 | 神经网络模型训练方法、装置、存储介质及终端设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110738403A (zh) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689965B (zh) | 一种基于深度学习的药物靶点亲和力预测方法 | |
CN109934337B (zh) | 一种基于集成lstm的航天器遥测数据异常的检测方法 | |
US10949740B2 (en) | Machine learning device, numerical controller, machine tool system, manufacturing system, and machine learning method for learning display of operation menu | |
KR20200131549A (ko) | 인공지능 모델을 이용한 상품 판매량 예측 방법, 장치 및 시스템 | |
CN111079836B (zh) | 基于伪标签方法和弱监督学习的过程数据故障分类方法 | |
CN108920888B (zh) | 一种基于深度神经网络的连续搅拌釜式反应过程辨识方法 | |
CN110738403B (zh) | 一种数据处理方法、设备及计算机存储介质 | |
Ren et al. | MCTAN: A novel multichannel temporal attention-based network for industrial health indicator prediction | |
US20190243739A1 (en) | Time series retrieval for analyzing and correcting system status | |
EP2797034A2 (en) | Event analyzer and computer-readable storage medium | |
KR20220117336A (ko) | 소비 전력을 예측하기 위한 방법 및 장치, 디바이스 및 판독 가능한 저장 매체 | |
CN111898867B (zh) | 一种基于深度神经网络的飞机总装生产线产能预测方法 | |
CN116336400B (zh) | 油气集输管道基线检测方法 | |
CN116340726A (zh) | 一种能源经济大数据清洗方法、系统、设备及存储介质 | |
CN113858566B (zh) | 一种基于机器学习的注塑机能耗预测方法及系统 | |
CN115640860A (zh) | 一种工业云服务的机电设备远程维护方法及系统 | |
Jia et al. | Self-tuning final product quality control of batch processes using kernel latent variable model | |
Gao et al. | Dual Channel Feature-Attention-based Approach for RUL Prediction Considering the Spatiotemporal Difference of Multisensor Data | |
CN110110785B (zh) | 一种快件物流过程状态检测分类方法 | |
Rodríguez-Padial et al. | An approach to integrating tactical decision-making in industrial maintenance balance scorecards using principal components analysis and machine learning | |
CN110543869A (zh) | 滚珠丝杠寿命预测方法、装置、计算机设备及存储介质 | |
CN114399064A (zh) | 基于多源传感器数据融合的设备健康指标构建方法 | |
Somathilaka et al. | Revealing gene regulation-based neural network computing in bacteria | |
WO2021024246A4 (en) | Methods and systems for improving asset operation based on identification of significant changes in sensor combinations in related events | |
Mulesa et al. | Devising a method for constructing the optimal model of time series forecasting based on the principles of competition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |