CN112668699B - 一种轧制力的预测方法及装置 - Google Patents
一种轧制力的预测方法及装置 Download PDFInfo
- Publication number
- CN112668699B CN112668699B CN202011610536.7A CN202011610536A CN112668699B CN 112668699 B CN112668699 B CN 112668699B CN 202011610536 A CN202011610536 A CN 202011610536A CN 112668699 B CN112668699 B CN 112668699B
- Authority
- CN
- China
- Prior art keywords
- sample
- training
- network
- data
- independent variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供一种轧制力的预测方法及装置,涉及轧制力的预测技术领域,可提高轧制力的预测精度。该方法包括:获取第一训练集和第二训练集;第一训练集包括第一自变量集,第二训练集包括第二自变量集和第二因变量集;第二因变量集包括一个样本子集;每个样本子集对应一种生产参数的数据集,一个样本子集对应的生产参数为轧制力;根据第一自变量集和第一网络训练得到第一子模型;将第二自变量集输入第一子模型,提取目标特征信息集;根据第二因变量集、目标特征信息集和第一模型训练得到第二子模型;采集待预测样本;根据第一子模型对待预测样本进行处理,得到特征参数,将特征参数输入第二子模型,确定待预测样本的轧制力的预测结果。
Description
技术领域
本申请涉及轧制力的预测技术领域,尤其涉及一种轧制力的预测方法及装置。
背景技术
在轧制生产过程中,轧制力是轧机最重要的设备参数与工艺参数,也是塑性加工工艺、设备优化设计和过程控制的重要依据。轧制力的精度不仅直接影响轧制规程的设定精度,而且对板厚精度及板形质量都产生直接影响,是充分发挥板厚和板形系统调控能力,提高带钢头部命中率的关键。
目前,一般采用浅层神经网络模型对轧制力进行预测。然而,现有的浅层神经网络模型预测的轧制力的精度较低。
发明内容
本申请实施例提供了一种轧制力的预测方法及装置,可以提高轧制力的预测精度。
为达到上述目的,本申请采用如下技术方案:
第一方面,本申请提供一种轧制力的预测方法,包括:
获取第一训练集和第二训练集;第一训练集包括第一自变量集,第二训练集包括第二自变量集和第二因变量集;第一自变量集中包括多个样本子集,第二自变量集中包括多个样本子集,第二因变量集中包括一个样本子集;每个样本子集对应一种生产参数的数据集,一个样本子集对应的生产参数为轧制力;第一自变量集中所有样本子集对应的生产参数的类型,与第二自变量集中所有样本子集对应的生产参数的类型相同;
根据第一自变量集和第一网络,训练得到第一自变量集对应的第一子模型;
将第二自变量集输入第一子模型,提取得到目标特征信息集;目标特征信息集中包括有多个目标特征信息子集,每个目标特征信息子集用于表示一种第二自变量集的深度信息;
根据第二因变量集、目标特征信息集和第一模型训练得到第二子模型;
采集待预测样本;待预测样本包括有多个样本信息,每个样本信息对应一种生产参数的信息;
根据第一子模型对待预测样本进行处理,得到待预测样本的特征参数,将待预测样本的特征参数输入第二子模型,确定待预测样本的轧制力的预测结果;特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息。
由于目标特征信息集中包括有多个目标特征信息子集,且每个目标特征信息子集用于表示一种第二自变量集的深度信息,而本申请提供的轧制力的预测方法中,在采用第一子模型从第二自变量集中提取得到目标特征信息集之后,是基于第二因变量集、目标特征信息集和第一模型训练得到第二子模型的。在得到第二子模型之后,根据第一子模型对待预测样本进行处理,得到待预测样本的特征参数,将待预测样本的特征参数输入第二子模型,确定待预测样本的轧制力的预测结果。可以看出,本申请提供的轧制力的预测方法中,是基于第一子模型和第二子模型确定出待预测样本的预测结果的,而第一子模型可以提取待预测样本的特征参数,由于特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息,所以第一子模型可以对待预测样本的深度信息进行提取。另外,采用的第二子模型是基于第二自变量集的深度信息确定的。所以,采用本申请提供的轧制力的预测方法确定的预测结果,可以提取待预测样本的深度信息,因此确定出的预测结果精度更高。
可选地,获取第一训练集和第二训练集包括:
采集生产线中的样本集;根据第一预设规则从样本集中获取第一训练集和第二训练集,并根据第二预设规则从第一训练集中确定第一自变量集,且从第二训练集中确定第二自变量集和第二因变量集。
可选地,根据第一预设规则从样本集中获取第一训练集和第二训练集,包括:
对样本集进行归一化处理;根据第一预设规则从经过归一化处理之后的样本集中获取第一训练集和第二训练集。
可选地,第一网络为循环自编码网络,循环自编码网络为循环神经网络与自编码器网络的融合网络;根据第一自变量集和第一网络,训练得到第一自变量集对应的第一子模型,包括:
根据第一自变量集和循环自编码网络,训练得到第一自变量集对应的第一子模型。
可选地,循环自编码网络包括第一层子网络、第二层子网络以及第三层子网络;根据第一自变量集和循环自编码网络,训练得到第一自变量集对应的第一子模型,包括:
步骤1,将输入数据和历史特征数据输入第一层子网络进行编码,提取得到第一特征数据;输入数据为第一样本子集中的任一数据,第一样本子集为第一自变量集中的任一样本子集;步骤2,将第一特征数据输入第二层子网络进行编码,提取得到第二特征数据;步骤3,将第二特征数据输入第三层子网络进行解码,重构第三特征数据,将第三特征数据作为新的历史特征数据;步骤4,重复执行步骤1至步骤3,直至遍历完第一样本子集的所有数据;步骤5,对第一自变量集中的每个样本子集均执行步骤1至步骤4,训练得到第一子模型。
可选地,将第二自变量集输入第一子模型,提取得到目标特征信息集,包括:
将第二自变量集输入第一子模型,根据第二自变量集、第一子模型的历史数据集以及第一子模型,提取得到目标特征信息集;提取得到目标特征信息集之后,该预测方法还包括:将目标特征信息集更新至历史数据集中,形成新的历史数据集。
可选地,第一模型为高斯过程回归模型。
第二方面,本申请提供一种轧制力的预测装置,包括:
获取模块,用于获取第一训练集和第二训练集;第一训练集包括第一自变量集,第二训练集包括第二自变量集和第二因变量集;第一自变量集中包括多个样本子集,第二自变量集中包括多个样本子集,第二因变量集中包括一个样本子集;每个样本子集对应一种生产参数的数据集,一个样本子集对应的生产参数为轧制力;第一自变量集中所有样本子集对应的生产参数的类型,与第二自变量集中所有样本子集对应的生产参数的类型相同;
训练模块,用于根据第一网络和获取模块获取的第一自变量集,训练得到第一自变量集对应的第一子模型;
提取模块,用于将获取模块获取的第二自变量集输入训练模块训练的第一子模型,提取得到目标特征信息集;目标特征信息集中包括有多个目标特征信息子集,每个目标特征信息子集用于表示一种第二自变量集的深度信息;
训练模块还用于,根据第一模型、获取模块获取的第二因变量集以及提取模块提取的目标特征信息集,训练得到第二子模型;
采集模块,用于采集待预测样本;待预测样本包括有多个样本信息,每个样本信息对应一种生产参数的信息;
确定模块,用于根据训练模块训练的第一子模型对采集模块采集的待预测样本进行处理,得到待预测样本的特征参数,将待预测样本的特征参数输入训练模块训练的第二子模型,确定待预测样本的轧制力的预测结果;特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息。
可选地,获取模块具体用于:
采集生产线中的样本集;根据第一预设规则从样本集中获取第一训练集和第二训练集,并根据第二预设规则从第一训练集中确定第一自变量集,且从第二训练集中确定第二自变量集和第二因变量集。
可选地,获取模块具体用于:
采集生产线中的样本集;对样本集进行归一化处理;根据第一预设规则从经过归一化处理之后的样本集中获取第一训练集和第二训练集。
可选地,第一网络为循环自编码网络,循环自编码网络为循环神经网络与自编码器网络的融合网络;训练模块具体用于:根据循环自编码网络和获取模块获取的第一自变量集,训练得到第一自变量集对应的第一子模型。
可选地,循环自编码网络包括第一层子网络、第二层子网络以及第三层子网络;
训练模块具体用于执行:步骤1,将输入数据和历史特征数据输入第一层子网络进行编码,提取得到第一特征数据;输入数据为第一样本子集中的任一数据,第一样本子集为第一自变量集中的任一样本子集;步骤2,将第一特征数据输入第二层子网络进行编码,提取得到第二特征数据;步骤3,将第二特征数据输入第三层子网络进行解码,重构第三特征数据,将第三特征数据作为新的历史特征数据;步骤4,重复执行步骤1至步骤3,直至遍历完第一样本子集的所有数据;步骤5,对第一自变量集中的每个样本子集均执行步骤1至步骤4,训练得到第一子模型。
可选地,提取模块具体用于:将第二自变量集输入第一子模型,根据第二自变量集、第一子模型的历史数据集以及第一子模型,提取得到目标特征信息集;预测装置还包括更新模块,更新模块用于:提取模块提取得到目标特征信息集之后,将目标特征信息集更新至历史数据集中,形成新的历史数据集。
可选地,第一模型为高斯过程回归模型。
第三方面,本申请提供一种轧制力的预测装置,包括处理器,处理器用于与存储器耦合,读取并执行存储器中的指令,以实现上述第一方面提供的轧制力的预测方法。
可选地,该轧制力的预测装置还可以包括存储器,该存储器用于保存该轧制力的预测装置的程序指令和数据。进一步可选地,该轧制力的预测装置还可以包括收发器,该收发器用于在轧制力的预测装置的处理器的控制下,执行收发数据、信令或信息的步骤,例如,采集生产线中的样本集。
可选地,该轧制力的预测装置可以是物理机,也可以是物理机中的一部分装置,例如可以是物理机中的芯片系统。该芯片系统用于支持轧制力的预测装置实现第一方面中所涉及的功能,例如,接收,发送或处理上述轧制力的预测方法中所涉及的数据和/或信息。该芯片系统包括芯片,也可以包括其他分立器件或电路结构。
第四方面,本申请提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,当计算机执行该指令时,以实现如第一方面提供的轧制力的预测方法。
第五方面,本申请提供一种计算机程序产品,该计算机程序产品包括计算机指令,当计算机指令在计算机上运行时,使得所述计算机执行如第一方面所述的轧制力的预测方法。
需要说明的是,上述计算机指令可以全部或者部分存储在计算机可读存储介质上。其中,计算机可读存储介质可以与轧制力的预测装置的处理器封装在一起的,也可以与轧制力的预测装置的处理器单独封装,本申请对此不作限定。
本申请中第二方面、第三方面、第四方面以及第五方面的描述,可以参考第一方面的详细描述;并且,第二方面、第三方面、第四方面、以及第五方面的描述的有益效果,可以参考第一方面的有益效果分析,此处不再赘述。
在本申请中,上述轧制力的预测装置的名字对设备或功能模块本身不构成限定,在实际实现中,这些设备或功能模块可以以其他名称出现。只要各个设备或功能模块的功能和本发明类似,属于本申请权利要求及其等同技术的范围之内。
本申请的这些方面或其他方面在以下的描述中会更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本发明,并不构成对本申请的不当限定。在附图中:
图1是本申请实施例提供的一种轧制力的预测系统的架构示意图;
图2是本申请实施例提供的一种轧制力的预测方法的流程示意图;
图3是本申请实施例提供的一种GRU网络的结构示意图;
图4是本申请实施例提供的一种循环自编码网络的结构示意图;
图5是本申请实施例提供的一种循环自编码网络的时序图;
图6是本申请实施例提供的另一种轧制力的预测方法的流程示意图;
图7是本申请实施例提供的一种轧制力的预测装置的结构示意图;
图8是本申请实施例提供的另一种轧制力的预测装置的结构示意图。
具体实施方式
下面结合附图对本申请实施例提供的轧制力的预测方法及装置进行详细地描述。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
本申请的说明书以及附图中的术语“第一”和“第二”等是用于区别不同的对象,或者用于区别对同一对象的不同处理,而不是用于描述对象的特定顺序。
此外,本申请的描述中所提到的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括其他没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,本申请实施例中,“示例性地”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性地”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性地”或者“例如”等词旨在以具体方式呈现相关概念。
在本申请的描述中,除非另有说明,“多个”的含义是指两个或两个以上。
在轧制生产过程中,轧制力是轧机最重要的设备参数与工艺参数,也是塑性加工工艺、设备优化设计和过程控制的重要依据。轧制力的精度不仅直接影响轧制规程的设定精度,而且对板厚精度及板形质量都产生直接影响,是充分发挥板厚和板形系统调控能力,提高带钢头部命中率的关键。目前,一般采用浅层神经网络模型对轧制力进行预测。然而,现有的浅层神经网络模型预测的轧制力的精度较低。
针对上述现有技术中存在的问题,本申请实施例提供了一种轧制力的预测方法。基于第一子模型和第二子模型确定出待预测样本的预测结果,其中,第一子模型可以提取待预测样本的特征参数,由于特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息,所以第一子模型可以对待预测样本的深度信息进行提取。另外,第二子模型是基于第二自变量集的深度信息确定的。所以,采用本申请实施例提供的轧制力的预测方法确定的预测结果,可以提取待预测样本的深度信息,因此确定出的预测结果精度更高简述方案和效果。
本申请实施例提供的轧制力的预测方法可以适用于轧制力的预测系统。图1示出了该轧制力的预测系统的一种结构。如图1所示,轧制力的预测系统包括轧制力的预测装置02和至少一个生产设备01。轧制力的预测装置02与每个生产设备01连接。
其中,生产设备01可以为轧制生产设备。轧制力的预测装置02可以为物理机(如服务器),也可以为部署在物理机上的虚拟机(virtual machine,VM)。
轧制力的预测装置02用于监控各个生产设备01,以实现对轧制力的预测。本申请实施例中,轧制力的预测装置02是一个独立的物理机或虚拟机。但在其他实施例中,轧制力的预测装置02也可以为多个物理机组成的物理机群,或者多个虚拟机组成的虚拟机群。
下面结合上述图1示出的轧制力的预测系统对本申请实施例提供的轧制力的预测方法进行说明。
参照图2所示,本申请实施例提供的轧制力的预测方法可以包括S101-S106:
S101、轧制力的预测装置获取第一训练集和第二训练集。
其中,第一训练集包括第一自变量集,第二训练集包括第二自变量集和第二因变量集。第一自变量集中包括多个样本子集,第二自变量集中包括多个样本子集,第二因变量集中包括一个样本子集;每个样本子集对应一种生产参数的数据集,一个样本子集对应的生产参数为轧制力。第一自变量集中所有样本子集对应的生产参数的类型,与第二自变量集中所有样本子集对应的生产参数的类型相同。
示例性地,第一训练集中可以包括有9个样本子集,9个样本子集中的8个样本子集为第一自变量集,8个样本子集中每个样本子集对应一种生产参数的数据集。在一种可能的实现方式中,8个样本子集对应的8种生产参数的数据集分别为:原料宽度的数据集、原料厚度的数据集、入口厚度的数据集、出口厚度的数据集、入口张力的数据集、出口张力的数据集、轧辊压扁半径的数据集以及出料带线速度的数据集。
对应地,第二训练集中也可以有9个样本子集,9个样本子集中的8个样本子集为第二自变量集,剩下的一个样本子集为第二因变量集。第二自变量集中所有样本子集对应的生产参数的类型与第一自变量集相同,也即是,第二自变量集中8个样本子集对应的8种生产参数的数据集分别为:原料宽度的数据集、原料厚度的数据集、入口厚度的数据集、出口厚度的数据集、入口张力的数据集、出口张力的数据集、轧辊压扁半径的数据集、出料带线速度的数据集。第二因变量集对应的生产参数的数据集为轧制力的数据集。
需要说明的是,第一训练集中的9个样本子集中的每个样本子集中的每个数据与其他样本子集中的数据是一一映射的关系。若用A表示原料宽度的数据集,B表示原料厚度的数据集,C表示入口厚度的数据集,D表示出口厚度的数据集,E表示入口张力的数据集,F表示出口张力的数据集,G表示轧辊压扁半径的数据集,H表示出料带线速度的数据集,I表示轧制力的数据集。示例性地,若9个样本子集中每个样本子集包含4个数据,则A数据集包含A1、A2、A3和A4,B数据集包含B1、B2、B3和B4,C数据集包含C1、C2、C3和C4,D数据集包含D1、D2、D3和D4,E数据集包含E1、E2、E3和E4,F数据集包含F1、F2、F3和F4,G数据集包含G1、G2、G3和G4,H数据集包含H1、H2、H3和H4,I数据集包含I1、I2、I3和I4。则A1、B1、C1、D1、E1、F1、G1、H1以及I1之间一一对应,A2、B2、C2、D2、E2、F2、G2、H2以及I2之间一一对应,A3、B3、C3、D3、E3、F3、G3、H3以及I3之间一一对应,A4、B4、C4、D4、E4、F4、G4、H4以及I4之间一一对应。同样的,第二训练集中的9个样本子集中的每个样本子集中的每个数据与其他样本子集中的数据是一一映射的关系。
当然,在实际应用中,第二训练集和第一训练集中样本子集的个数还可以为其他数量,本申请实施例对此不做限定。
可以理解的是,本申请实施例中列举的生产参数的类型为在轧制生成过程中预测轧制力时常用的生成参数,在实际应用中,生产参数还可以为其他生产参数,本申请实施例对此不做限定。
可选地,在一种可能的方式中,轧制力的预测装置可以采集生产线中的样本集,之后根据第一预设规则从样本集中获取第一训练集和第二训练集,并根据第二预设规则从第一训练集中确定第一自变量集,且从第二训练集中确定第二自变量集和第二因变量集。
其中,第一预设规则可以是人为事先确定的规则。示例性地,第一预设规则可以是,第一训练集中每个样本子集中的数据的个数和第二训练集中每个样本子集中的数据的个数之比为3比1。比如,生产线中的样本集中每个样本子集中的数据的个数为1000个,则第一训练集中每个样本子集中包含有750个数据,第二训练集中每个样本子集中包含有250个数据。当然,在实际应用中,第一预设规则还可以是其他人为事先确定的规则,本申请实施例对此不做限定。
由于不同生产参数的量纲可能不同,而且不同的生产参数之间可能相差很多倍,直接使用原始数据的话有可能导致某些生产参数被忽视,所以,轧制力的预测装置在采集到生产线中的样本集之后,需要对样本集进行归一化处理,然后根据第一预设规则从经过归一化处理之后的样本集中获取第一训练集和第二训练集。
示例性地,可以采用线性归一化的方法对样本集进行归一化处理,也即是将所有样本集中的数据都转换为0至1的范围之内。另外,进行归一化不但可以提高本申请实施例中第一子模型和第二子模型的收敛速度,而且可以提高第一子模型和第二子模型的精度。
可以理解的是,在实际应用中,还可以采用其他方法对样本集进行归一化处理,本申请实施例对此不作限定。
S102、轧制力的预测装置根据第一自变量集和第一网络,训练得到第一自变量集对应的第一子模型。
在一种可能的实现方式中,第一网络可以为循环自编码网络。循环自编码网络为循环神经网络(Recurrent Neural Network,RNN)与自编码器网络(autoencoder,AE)的融合网络。轧制力的预测装置可以根据第一自变量集和循环自编码网络,训练得到第一自变量集对应的第一子模型。
示例性地,本申请实施例中采用的RNN可以为门控循环单元(Gate RecurrentUnit,GRU)的一种,能够解决RNN只能保存短期记忆和其反向传播过程中梯度消失等问题。GRU的内部结构如图3所示,GRU由更新门和复位门组成。这两个门可以控制隐藏状态下新旧信息的比重。复位门决定了如何将新的输入信息与前面的记忆相结合,更新门定义了前一时刻信息被带入到当前状态中的程度。
如图3所示,更新门Zt可以用表达式(1)表示:
zt=σ(w(z)xt+U(z)ht-1) (1)
其中,xt为当前时间步的输入向量,w(z)为输入向量的权重,ht-1是上一个时间步的隐藏输出,U(z)为隐藏输出的权重,σ是Sigmoid激活函数。复位门rt与更新门zt类似,可以用表达式(2)表示:
rt=σ(w(r)xt+U(r)ht-1) (2)
当前隐藏状态h′t可以用表达式(3)表示:
h′t=tanh(Wxt+rt⊙Uht-1) (3)当前时间步的隐藏状态ht可以用表达式(4)表示:
ht=zt⊙ht-1+(1-zt)h′t (4)
可以理解的是,在实际应用中,本申请实施例还可以采用其他类型的循环神经网络,本申请实施例对此不做限定。
在一种可能的实现方式中,循环自编码网络包括第一层子网络、第二层子网络以及第三层子网络。如图4所示,提供了一种循环自编码网络的结构示意图,该循环自编码网络包括第一层子网络GRU Layer、第二层子网络GRU Layer以及第三层子网络GRU Layer。具体地,训练第一子模型的过程如下:步骤1,将输入数据X和历史特征数据输入第一层子网络GRU Layer进行编码,提取得到第一特征数据Z1;其中,输入数据X为第一样本子集中的任一数据,第一样本子集为第一自变量集中的任一样本子集;步骤2,将第一特征数据Z1输入第二层子网络GRU Layer进行编码,提取得到第二特征数据Z;步骤3,将第二特征数据Z输入第三层子网络GRU Layer进行解码,重构第三特征数据X′,将第三特征数据X′作为新的历史特征数据;步骤4,重复执行步骤1至步骤3,直至遍历完第一样本子集的所有数据;步骤5,对第一自变量集中的每个样本子集均执行步骤1至步骤4,训练得到第一子模型。
循环自编码网络可以通过重构输入而提取中间特征(对应本申请实施例中的第三特征数据X′),输入数据X首先经过第一层子网络GRU Layer和第二层子网络GRU Layer编码得到新特征(对应本申请实施例中的第二特征数据Z),再经过第三层子网络GRU Layer解码来重构输入(对应本申请实施例中的第三特征数据X′)。特征提取的编码过程是在特征之间进行交叉和非线性映射,用来描述序列之间复杂的关系。特征提取的解码过程是利用提取到的新特征(对应本申请实施例中的第二特征数据Z)尽可能的重构输入得到重构数据(对应本申请实施例中的第三特征数据X′),来保证交叉和非线性映射的合理性。另外,为了循环自编码网络能更好的重构输入(对应本申请实施例中的第三特征数据X′),本申请实施例中可以使用均方误差MSE作为网络损失函数,可以采用表达式(5)表示为:
其中,M为输入的样本个数。
如图5所示,本申请实施例还提供了循环自编码网络(相当于图5中的AEGRU)的时序图,可以看出,根据循环自编码网络训练的第一子模型当前时刻提取的特征不仅和当前时刻的输入数据有关,还和网络中保存的历史特征数据有关。当前时刻的特征提取完成后,网络会更新保存的历史特征数据,用于下一时刻,对第一子模型进行及时的在线校正,可以防止模型漂移问题的发生。
S103、轧制力的预测装置将第二自变量集输入第一子模型,提取得到目标特征信息集。
其中,目标特征信息集中包括有多个目标特征信息子集,每个目标特征信息子集用于表示一种第二自变量集的深度信息。
可选地,轧制力的预测装置在提取得到目标特征信息集之后,还可以将目标特征信息集更新至历史数据集中,形成新的历史数据集,用于对第一子模型进行及时的在线校正,可以防止模型漂移问题的发生。
可选地,在采用第一子模型提取目标特征信息集的过程中,为了提升模型的训练速度,可以采用mini-batch梯度下降方法。既保证了训练的速度,又使得模型具有整体性,能够收敛。示例性地,可以将每个小批次训练100代,训练完所有小批次再重新对所有小批次进行训练。
S104、轧制力的预测装置根据第二因变量集、目标特征信息集和第一模型训练得到第二子模型。
可选地,在一种可能的实现方式中,第一模型可以为高斯过程回归(GaussianProcesses Regression,GPR)模型。
GPR模型是基于训练集中大量的自变量Z和因变量Y来训练模型,然后对新的自变量z来预测相应的因变量y。假设数据集是(Z,Y),其中Z∈RN*D,Y∈RN*1,这个数据集总共有N条数据,每条数据有D维输入特征和一维输出。在GPR问题中,由于因变量通常是带噪声的,所以将y建模为一个隐函数f(z)加上一个高斯噪声ε,其中ε也服从正态分布,y可以采用表达式(6)表示为:
对于数据集中的Z,对Y建模,假设Y服从联合正态分布,即:
Y~N(0,K) (7)
其中,K是关于自变量的N*N型协方差矩阵。当有一个新的测试输入z,给定其先验分布为y~N(0,K(z*,z*)),根据训练集和测试集数据来自同一分布,可以得到联合分布为:
其中,K*=K(x*,Z)=[k(z*,z1),k(z*,z2),…,k(z*,zN)],K**=K(z*,z*)。计算出联合分布p(Y,y),确定了先验分布p(Y),则可以根据贝叶斯公式计算后验概率p(y│Y):
S105、轧制力的预测装置采集待预测样本。
其中,待预测样本包括有多个样本信息,每个样本信息对应一种生产参数的信息。
示例性地,待预测样本可以包含8种样本信息,分别对应原料宽度、原料厚度、入口厚度、出口厚度、入口张力、出口张力、轧辊压扁半径以及出料带线速度。
S106、轧制力的预测装置根据第一子模型对待预测样本进行处理,得到待预测样本的特征参数,将待预测样本的特征参数输入第二子模型,确定待预测样本的轧制力的预测结果。
其中,特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息。
可以看出,本申请提供的轧制力的预测方法是结合第一子模型和第二子模型对待预测样本进行预测的。示例性地,参照图6,提供了一种以GPR模型训练的第二子模型,以循环自编码网络训练的第一子模型对待预测样本进行处理的总的流程示意图。如图6所示,对于样本集(M,N),首先确定出第一训练集和第二训练集,然后从第一训练集中确定出第一自变量集M1,从第二训练集中确定出第二自变量集M2和第二因变量集N2。然后,对第一自变量集M1输入循环自编码网络(第一网络)进行训练,得到第一子模型。然后将第二自变量集M2输入第一子模型,提取得到目标特征信息集R。将目标特征信息集R与第二因变量集N2重新组成数据集(R,N2),进行GPR训练,得到第二子模型。最后,将待预测样本输入第一子模型得到特征参数,然后将特征参数输入第二子模型,则可以得到预测结果。
可选地,第一子模型的隐藏层神经元数量为10(即循环自编码网络中提取的新特征Z个数可以为10),GPR模型中添加的高斯噪声为0.001。
本申请实施例提供的轧制力的预测方法中,由于目标特征信息集中包括有多个目标特征信息子集,且每个目标特征信息子集用于表示一种第二自变量集的深度信息,而本申请提供的轧制力的预测方法中,在采用第一子模型从第二自变量集中提取得到目标特征信息集之后,是基于第二因变量集、目标特征信息集和第一模型训练得到第二子模型的。在得到第二子模型之后,根据第一子模型对待预测样本进行处理,得到待预测样本的特征参数,将待预测样本的特征参数输入第二子模型,确定待预测样本的轧制力的预测结果。可以看出,本申请实施例提供的轧制力的预测方法中,是基于第一子模型和第二子模型确定出待预测样本的预测结果的,而第一子模型可以提取待预测样本的特征参数,由于特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息,所以第一子模型可以对待预测样本的深度信息进行提取。另外,采用的第二子模型是基于第二自变量集的深度信息确定的。所以,采用本申请提供的轧制力的预测方法确定的预测结果,可以提取待预测样本的深度信息,因此确定出的预测结果精度更高。
如图7所示,本申请实施例还提供了一种轧制力的预测装置02,该轧制力的预测装置02可以是图1所示的轧制力的预测系统中的轧制力的预测装置02,该轧制力的预测装置02包括:获取模块21、训练模块22、提取模块23、采集模块24以及确定模块25。
其中,获取模块21执行上述方法实施例中的S101,训练模块22执行上述方法实施例中的S102和S104,提取模块23执行上述方法实施例中的S103,采集模块24执行上述方法实施例中的S105,确定模块25执行上述方法实施例中的S106。
具体地,获取模块21,用于获取第一训练集和第二训练集;第一训练集包括第一自变量集,第二训练集包括第二自变量集和第二因变量集;第一自变量集中包括多个样本子集,第二自变量集中包括多个样本子集,第二因变量集中包括一个样本子集;每个样本子集对应一种生产参数的数据集,一个样本子集对应的生产参数为轧制力;第一自变量集中所有样本子集对应的生产参数的类型,与第二自变量集中所有样本子集对应的生产参数的类型相同;
训练模块22,用于根据第一网络和获取模块21获取的第一自变量集,训练得到第一自变量集对应的第一子模型;
提取模块23,用于将获取模块21获取的第二自变量集输入训练模块22训练的第一子模型,提取得到目标特征信息集;目标特征信息集中包括有多个目标特征信息子集,每个目标特征信息子集用于表示一种第二自变量集的深度信息;
训练模块22还用于,根据第一模型、获取模块21获取的第二因变量集以及提取模块23提取的目标特征信息集,训练得到第二子模型;
采集模块24,用于采集待预测样本;待预测样本包括有多个样本信息,每个样本信息对应一种生产参数的信息;
确定模块25,用于根据训练模块22训练的第一子模型对采集模块24采集的待预测样本进行处理,得到待预测样本的特征参数,将待预测样本的特征参数输入训练模块22训练的第二子模型,确定待预测样本的轧制力的预测结果;特征参数包括多个特征信息,每个特征信息用于表征一种待预测样本的深度信息。
可选地,获取模块21具体用于:采集生产线中的样本集;根据第一预设规则从样本集中获取第一训练集和第二训练集,并根据第二预设规则从第一训练集中确定第一自变量集,且从第二训练集中确定第二自变量集和第二因变量集。
可选地,获取模块21具体用于:采集生产线中的样本集;对样本集进行归一化处理;根据第一预设规则从经过归一化处理之后的样本集中获取第一训练集和第二训练集。
可选地,第一网络为循环自编码网络,循环自编码网络为循环神经网络与自编码器网络的融合网络;训练模块22具体用于:根据循环自编码网络和获取模块21获取的第一自变量集,训练得到第一自变量集对应的第一子模型。
可选地,循环自编码网络包括第一层子网络、第二层子网络以及第三层子网络;训练模块22具体用于执行:步骤1,将输入数据和历史特征数据输入第一层子网络进行编码,提取得到第一特征数据;输入数据为第一样本子集中的任一数据,第一样本子集为第一自变量集中的任一样本子集;步骤2,将第一特征数据输入第二层子网络进行编码,提取得到第二特征数据;步骤3,将第二特征数据输入第三层子网络进行解码,重构第三特征数据,将第三特征数据作为新的历史特征数据;步骤4,重复执行步骤1至步骤3,直至遍历完第一样本子集的所有数据;步骤5,对第一自变量集中的每个样本子集均执行步骤1至步骤4,训练得到第一子模型。
可选地,提取模块23具体用于:将第二自变量集输入第一子模型,根据第二自变量集、第一子模型的历史数据集以及第一子模型,提取得到目标特征信息集;预测装置还包括更新模块,更新模块用于:提取模块23提取得到目标特征信息集之后,将目标特征信息集更新至历史数据集中,形成新的历史数据集。
可选地,第一模型为高斯过程回归模型。
可选地,轧制力的预测装置02还包括存储模块。存储模块用于存储该轧制力的预测装置02的程序代码等。
如图8所示,本申请实施例还提供一种轧制力的预测装置,包括存储器31、处理器32、总线33和通信接口34;存储器31用于存储计算机执行指令,处理器32与存储器31通过总线33连接;当轧制力的预测装置运行时,处理器32执行存储器31存储的计算机执行指令,以使轧制力的预测装置执行如上述实施例提供的轧制力的预测方法。
在具体的实现中,作为一种实施例,处理器32(32-1和32-2)可以包括一个或多个中央处理器(central processing unit,CPU),例如图8中所示的CPU0和CPU1。且作为一种实施例,轧制力的预测装置可以包括多个处理器32,例如图8中所示的处理器32-1和处理器32-2。这些处理器32中的每一个CPU可以是一个单核处理器(single-CPU),也可以是一个多核处理器(multi-CPU)。这里的处理器32可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
存储器31可以是只读存储器31(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、只读光盘(compactdisc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器31可以是独立存在,通过总线33与处理器32相连接。存储器31也可以和处理器32集成在一起。
在具体的实现中,存储器31,用于存储本申请中的数据和执行本申请的软件程序对应的计算机执行指令。处理器32可以通过运行或执行存储在存储器31内的软件程序,以及调用存储在存储器31内的数据,轧制力的预测装置的各种功能。
通信接口34,使用任何收发器一类的装置,用于与其他设备或通信网络通信,如控制系统、无线接入网(radio access network,RAN),无线局域网(wireless local areanetworks,WLAN)等。通信接口34可以包括接收单元实现接收功能,以及发送单元实现发送功能。
总线33,可以是工业标准体系结构(industry standard architecture,ISA)总线、外部设备互连(peripheral component interconnect,PCI)总线或扩展工业标准体系结构(extended industry standard architecture,EISA)总线等。该总线33可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
作为一个示例,结合图7,轧制力的预测装置中的获取模块实现的功能与图8中的接收单元实现的功能相同,轧制力的预测装置中的提取模块实现的功能与图8中的处理器实现的功能相同,轧制力的预测装置中的存储模块实现的功能与图8中的存储器实现的功能相同。
本实施例中相关内容的解释可参考上述方法实施例,此处不再赘述。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,当计算机执行该指令时,使得计算机执行上述实施例提供的轧制力的预测方法。
其中,计算机可读存储介质,例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、RAM、ROM、可擦式可编程只读存储器(erasable programmable read only memory,EPROM)、寄存器、硬盘、光纤、CD-ROM、光存储器件、磁存储器件、或者上述的任意合适的组合、或者本领域熟知的任何其它形式的计算机可读存储介质。一种示例性地存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于特定用途集成电路(application specificintegrated circuit,ASIC)中。在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.一种轧制力的预测方法,其特征在于,包括:
获取第一训练集和第二训练集;所述第一训练集包括第一自变量集,所述第二训练集包括第二自变量集和第二因变量集;所述第一自变量集中包括多个样本子集,所述第二自变量集中包括多个样本子集,所述第二因变量集中包括一个样本子集;每个样本子集对应一种生产参数的数据集,所述一个样本子集对应的生产参数为轧制力;所述第一自变量集中所有样本子集对应的生产参数的类型,与所述第二自变量集中所有样本子集对应的生产参数的类型相同;
根据所述第一自变量集和第一网络,训练得到所述第一自变量集对应的第一子模型;
将所述第二自变量集输入所述第一子模型,提取得到目标特征信息集;所述目标特征信息集中包括有多个目标特征信息子集,每个目标特征信息子集用于表示一种所述第二自变量集的深度信息;
根据所述第二因变量集、所述目标特征信息集和第一模型训练得到第二子模型;
采集待预测样本;所述待预测样本包括有多个样本信息,每个样本信息对应一种生产参数的信息;
根据所述第一子模型对所述待预测样本进行处理,得到所述待预测样本的特征参数,将所述待预测样本的特征参数输入第二子模型,确定所述待预测样本的轧制力的预测结果;所述特征参数包括多个特征信息,每个特征信息用于表征一种所述待预测样本的深度信息。
2.根据权利要求1所述的轧制力的预测方法,其特征在于,所述获取第一训练集和第二训练集包括:
采集生产线中的样本集;
根据第一预设规则从所述样本集中获取所述第一训练集和所述第二训练集,并根据第二预设规则从所述第一训练集中确定所述第一自变量集,且从所述第二训练集中确定所述第二自变量集和所述第二因变量集。
3.根据权利要求2所述的轧制力的预测方法,其特征在于,所述根据第一预设规则从所述样本集中获取所述第一训练集和所述第二训练集,包括:
对所述样本集进行归一化处理;
根据第一预设规则从经过归一化处理之后的样本集中获取所述第一训练集和所述第二训练集。
4.根据权利要求1所述的轧制力的预测方法,其特征在于,所述第一网络为循环自编码网络,所述循环自编码网络为循环神经网络与自编码器网络的融合网络;
所述根据所述第一自变量集和第一网络,训练得到所述第一自变量集对应的第一子模型,包括:
根据所述第一自变量集和所述循环自编码网络,训练得到所述第一自变量集对应的第一子模型。
5.根据权利要求4所述的轧制力的预测方法,其特征在于,所述循环自编码网络包括第一层子网络、第二层子网络以及第三层子网络;
所述根据所述第一自变量集和所述循环自编码网络,训练得到所述第一自变量集对应的第一子模型,包括:
步骤1,将输入数据和历史特征数据输入所述第一层子网络进行编码,提取得到第一特征数据;所述输入数据为第一样本子集中的任一数据,所述第一样本子集为所述第一自变量集中的任一样本子集;
步骤2,将所述第一特征数据输入所述第二层子网络进行编码,提取得到第二特征数据;
步骤3,将所述第二特征数据输入所述第三层子网络进行解码,重构第三特征数据,将所述第三特征数据作为新的历史特征数据;
步骤4,重复执行所述步骤1至所述步骤3,直至遍历完所述第一样本子集的所有数据;
步骤5,对所述第一自变量集中的每个样本子集均执行所述步骤1至所述步骤4,训练得到所述第一子模型。
6.根据权利要求1所述的轧制力的预测方法,其特征在于,所述将所述第二自变量集输入所述第一子模型,提取得到目标特征信息集,包括:
将所述第二自变量集输入所述第一子模型,根据所述第二自变量集、所述第一子模型的历史数据集以及所述第一子模型,提取得到所述目标特征信息集;
所述提取得到所述目标特征信息集之后,所述方法还包括:将所述目标特征信息集更新至所述历史数据集中,形成新的历史数据集。
7.根据权利要求1所述的轧制力的预测方法,其特征在于,所述第一模型为高斯过程回归模型。
8.一种轧制力的预测装置,其特征在于,包括:
获取模块,用于获取第一训练集和第二训练集;所述第一训练集包括第一自变量集,所述第二训练集包括第二自变量集和第二因变量集;所述第一自变量集中包括多个样本子集,所述第二自变量集中包括多个样本子集,所述第二因变量集中包括一个样本子集;每个样本子集对应一种生产参数的数据集,所述一个样本子集对应的生产参数为轧制力;所述第一自变量集中所有样本子集对应的生产参数的类型,与所述第二自变量集中所有样本子集对应的生产参数的类型相同;
训练模块,用于根据第一网络和所述获取模块获取的所述第一自变量集,训练得到所述第一自变量集对应的第一子模型;
提取模块,用于将所述获取模块获取的所述第二自变量集输入所述训练模块训练的所述第一子模型,提取得到目标特征信息集;所述目标特征信息集中包括有多个目标特征信息子集,每个目标特征信息子集用于表示一种所述第二自变量集的深度信息;
所述训练模块还用于,根据第一模型、所述获取模块获取的第二因变量集以及所述提取模块提取的所述目标特征信息集,训练得到第二子模型;
采集模块,用于采集待预测样本;所述待预测样本包括有多个样本信息,每个样本信息对应一种生产参数的信息;
确定模块,用于根据所述训练模块训练的所述第一子模型对所述采集模块采集的所述待预测样本进行处理,得到所述待预测样本的特征参数,将所述待预测样本的特征参数输入所述训练模块训练的第二子模型,确定所述待预测样本的轧制力的预测结果;所述特征参数包括多个特征信息,每个特征信息用于表征一种所述待预测样本的深度信息。
9.根据权利要求8所述的轧制力的预测装置,其特征在于,所述第一网络为循环自编码网络,所述循环自编码网络为循环神经网络与自编码器网络的融合网络;
所述训练模块具体用于:根据所述循环自编码网络和所述获取模块获取的所述第一自变量集,训练得到所述第一自变量集对应的第一子模型。
10.根据权利要求9所述的轧制力的预测装置,其特征在于,所述循环自编码网络包括第一层子网络、第二层子网络以及第三层子网络;
所述训练模块具体用于执行:
步骤1,将输入数据和历史特征数据输入所述第一层子网络进行编码,提取得到第一特征数据;所述输入数据为第一样本子集中的任一数据,所述第一样本子集为所述第一自变量集中的任一样本子集;
步骤2,将所述第一特征数据输入所述第二层子网络进行编码,提取得到第二特征数据;
步骤3,将所述第二特征数据输入所述第三层子网络进行解码,重构第三特征数据,将所述第三特征数据作为新的历史特征数据;
步骤4,重复执行所述步骤1至所述步骤3,直至遍历完所述第一样本子集的所有数据;
步骤5,对所述第一自变量集中的每个样本子集均执行所述步骤1至所述步骤4,训练得到所述第一子模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011610536.7A CN112668699B (zh) | 2020-12-30 | 2020-12-30 | 一种轧制力的预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011610536.7A CN112668699B (zh) | 2020-12-30 | 2020-12-30 | 一种轧制力的预测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112668699A CN112668699A (zh) | 2021-04-16 |
CN112668699B true CN112668699B (zh) | 2022-06-17 |
Family
ID=75411054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011610536.7A Active CN112668699B (zh) | 2020-12-30 | 2020-12-30 | 一种轧制力的预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112668699B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360183A (zh) * | 2018-08-20 | 2019-02-19 | 中国电子进出口有限公司 | 一种基于卷积神经网络的人脸图像质量评估方法和系统 |
CN109728939A (zh) * | 2018-12-13 | 2019-05-07 | 杭州迪普科技股份有限公司 | 一种网络流量检测方法及装置 |
CN110569566A (zh) * | 2019-08-19 | 2019-12-13 | 北京科技大学 | 一种板带力学性能预测方法 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
-
2020
- 2020-12-30 CN CN202011610536.7A patent/CN112668699B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN109360183A (zh) * | 2018-08-20 | 2019-02-19 | 中国电子进出口有限公司 | 一种基于卷积神经网络的人脸图像质量评估方法和系统 |
CN109728939A (zh) * | 2018-12-13 | 2019-05-07 | 杭州迪普科技股份有限公司 | 一种网络流量检测方法及装置 |
CN110569566A (zh) * | 2019-08-19 | 2019-12-13 | 北京科技大学 | 一种板带力学性能预测方法 |
Non-Patent Citations (3)
Title |
---|
"Robust state of charge estimation based on a sequence-to-sequence mapping model with process information";Liang Ma 等;《Journal of Power Sources》;20201031;全文 * |
"Underground Cylindrical Objects Detection and Diameter Identification in GPR B-Scans via the CNN-LSTM Framework";Wentai Lei 等;《electronics》;20201031;全文 * |
"基于深度网络训练的铝热轧制力预报";魏立新 等;《中国有色金属学报》;20181031;第28卷(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112668699A (zh) | 2021-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902222B (zh) | 一种推荐方法及装置 | |
Arévalo et al. | High-frequency trading strategy based on deep neural networks | |
CN111275491B (zh) | 一种数据处理方法及装置 | |
CN106971240A (zh) | 一种变量选择与高斯过程回归的短期负荷预测方法 | |
CN108879732B (zh) | 电力系统暂态稳定评估方法及装置 | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
CN112947300A (zh) | 一种加工质量虚拟量测方法、系统、介质及设备 | |
CN111080360A (zh) | 行为预测方法、模型训练方法、装置、服务器及存储介质 | |
CN112365033B (zh) | 一种风电功率区间预测方法、系统及存储介质 | |
CN110738363B (zh) | 一种光伏发电功率预测方法 | |
CN112734106A (zh) | 用于预测能源负荷的方法及装置 | |
CN114490065A (zh) | 一种负载预测方法、装置及设备 | |
CN116307195A (zh) | 一种基于深度学习的带钢精轧宽展预测方法和系统 | |
CN112215398A (zh) | 电力用户负荷预测模型建立方法、装置、设备及存储介质 | |
CN113420722B (zh) | 一种机场安全管理平台的突发事件联动方法及系统 | |
CN112668699B (zh) | 一种轧制力的预测方法及装置 | |
CN111400445B (zh) | 一种基于相似文本的案件繁简分流方法 | |
Yoo et al. | A novel and efficient influence-seeking exploration in deep multiagent reinforcement learning | |
CN117292704A (zh) | 基于扩散模型的语音驱动姿势动作生成方法及装置 | |
CN115907194A (zh) | 一种光伏发电功率预测方法、系统及产品 | |
Ogawa et al. | PV output forecasting by deep Boltzmann machines with SS‐PPBSO | |
CN112419098B (zh) | 基于安全信息熵的电网安全稳定仿真样本筛选扩充方法 | |
CN113222100A (zh) | 神经网络模型的训练方法和装置 | |
CN112766490B (zh) | 特征变量学习方法、装置、设备及计算机可读存储介质 | |
Guo et al. | Data‐driven modeling and prediction on hysteresis behavior of flexure RC columns using deep learning networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |