CN115081633A - 时间序列预测模型的超参数配置方法 - Google Patents

时间序列预测模型的超参数配置方法 Download PDF

Info

Publication number
CN115081633A
CN115081633A CN202110282461.2A CN202110282461A CN115081633A CN 115081633 A CN115081633 A CN 115081633A CN 202110282461 A CN202110282461 A CN 202110282461A CN 115081633 A CN115081633 A CN 115081633A
Authority
CN
China
Prior art keywords
hyper
error
processor
parameter
strategy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110282461.2A
Other languages
English (en)
Inventor
傅大卫
吴信福
陈佩君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inventec Pudong Technology Corp
Inventec Corp
Original Assignee
Inventec Pudong Technology Corp
Inventec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inventec Pudong Technology Corp, Inventec Corp filed Critical Inventec Pudong Technology Corp
Priority to CN202110282461.2A priority Critical patent/CN115081633A/zh
Priority to US17/348,984 priority patent/US20220300765A1/en
Publication of CN115081633A publication Critical patent/CN115081633A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明内容揭露一种时间序列预测模型的超参数配置方法,包括:储存N个产品的N个数据集;决定预测模型;以及执行超参数搜索程序。超参数搜索程序包括:产生M组超参数;应用每一组超参数于预测模型;依据二策略分别对预测模型进行训练及验证以产生二误差阵列,其中该二策略分别以二相异的资料维度从N个数据集中选取训练数据集及验证数据集,依据二权重及二误差阵列进行加权运算或排序操作并搜索目标超参数,目标超参数在二误差阵列中所对应的二误差值为相对最小值。

Description

时间序列预测模型的超参数配置方法
技术领域
本发明关于一种基于机器学习的时间序列预测模型的超参数配置方法。
背景技术
人工智能(artificial intelligence,AI)已经成为我们日常生活中的一部分。人工智能帮助人类理解、推理、计划、交流和感知。尽管人工智能是一项强大的技术,开发模型并不是一件容易的事,因为在「开发」和「部署」阶段之间会存在现实差距。无法缩小该现实差距的模型将产生错误的见解,从而层递误差并提升不必要的风险。因此,确保模型的效能至关重要。
测量或评估人工智能模型通常关联于高精确度。因此,对于人工智能建模人员来说,优化此目标是理所当然的。为此,人工智能建模人员执行超参数调整以获得最佳精确度。在开发阶段,超参数调整在训练集和验证集上被执行。然而,在部署阶段,超参数集被调整后的这个人工智能模型可能在测试集上表现差劲。也就是说,在开发和部署阶段之间经常存在效能(通常以精确度衡量)差距。
在人工智能的众多应用中,其中一者是以预测模型为多个时间序列数据产生预测结果。时间序列是将某一现象的数量变化依时间的先后顺序排列。从时间序列可推导这一现象的发展规律,从而预测现象发展的方向及其数量。举例来说,使用预测模型预测多个城市的每日气温,或是使用预测模型预测多个产品的客户需求量。
为了预测多个时间序列,可以针对每个时间序列采用单独的预测模型,该预测模型例如是神经网络模型。然而,在给定大量要预测的时间序列数据以及对大量预测模型的存储要求下,这种方法由于复杂度高而难以实现。
如果只采用一个预测模型,那么此预测模型将考虑所有时间序列数据。利用这些时间序列数据训练预测模型时,预测模型可能过度拟合(overfitting)训练数据。
当采用传统的时间序列预测模型被应用在多个时间序列时,该模型在开发阶段与部署阶段之间的效能差距通常是因为:该模型无法推广到不同的时间范围;以及在一组时间序列数据上训练的预测模型不适用在另一组时间序列。换言之,传统的预测模型不能处理没有预先训练过的时间范围或产品。
发明内容
有鉴于此,本发明提出一种时间序列预测模型的超参数配置方法,适用于多个产品的时间序列预测模型。
依据本发明一实施例的一种时间序列预测模型的超参数配置方法,包括:储存装置储存分别对应于N个产品的N个数据集,其中每一数据集为时间序列;决定一预测模型;以及处理器执行超参数搜索程序。超参数搜索程序包括:处理器产生对应预测模型的M组超参数;处理器应用每一组超参数于预测模型;处理器依据第一策略及第二策略分别对应用每一组超参数的预测模型进行训练,其中第一策略及第二策略分别以二相异的资料维度从N个数据集中选取一部份作为训练数据集;处理器依据第一策略及第二策略分别对应用每一组超参数的预测模型进行验证以产生二误差阵列,其中第一策略及第二策略分别以该二相异的数据维度从N个数据集中选取另一部份作为验证数据集,且二误差阵列的每一者具有M个误差值;处理器依据第一权重、第二权重及二误差阵列进行加权运算或排序操作;以及处理器在二误差阵列中搜索目标超参数,其中目标超参数为M组超参数中的一者,且目标超参数在二误差阵列中所对应的二误差值为二误差阵列中的相对最小值;当搜索到目标超参数时,处理器输出目标超参数;且当无法搜索到目标超参数时,处理器增加M值并执行超参数搜索程序。
综上所述,本发明提出的时间序列预测模型的超参数配置方法适用于任何基于机器学习的时间序列预测模型。本发明提出的超参数调整方法可找出每个产品时域上的销售模式,并且可找出多个产品之间的连动关系。
以上之关于本揭露内容之说明及以下之实施方式之说明系用以示范与解释本发明之精神与原理,并且提供本发明之专利申请范围更进一步之解释。
附图说明
图1是本发明一实施例的时间序列预测模型的超参数配置方法的流程图;
图2是超参数搜索程序的细部流程图;
图3是第一策略及第二策略的示意图;
图4是图2的步骤S37的一实施例的细部流程图;以及
图5是图2的步骤S37的另一实施例的细部流程图。
元件标号说明
S1~S6…步骤
S31~S37…步骤
S41~S45…步骤
S51~S56…步骤
具体实施方式
以下在实施方式中详细叙述本发明之详细特征以及特点,其内容足以使任何熟习相关技艺者了解本发明之技术内容并据以实施,且根据本说明书所揭露之内容、申请专利范围及图式,任何熟习相关技艺者可轻易地理解本发明相关之构想及特点。以下之实施例系进一步详细说明本发明之观点,但非以任何观点限制本发明之范畴。
举例说明本发明适用的一种状况:考虑开发一个准确的预测模型的任务,该预测模型用于预测未来一年间超过十种产品的月销售额。为了成功做到这一点,预测模型需要找出每个产品内的时间性的销售模式,以及多个产品之间在销售上的连动关系。而一个好的预测模型需要一组好的超参数(hyper-parameter)。
图1是本发明一实施例的时间序列预测模型的超参数配置方法的流程图。
步骤S1系以一储存装置「储存N个产品的N个数据集」,其中每一数据集为一产品的一时间序列(time-series),例如该产品在过去三年之间的每月销售额。
步骤S2是「决定一预测模型」。在本发明一实施例中,该预测模型是长短期记忆(Long Short-Term Memory)模型。LSTM是循环神经网络(Recurrent neural network,RNN)的变体。LSTM可以随着大数据量进行扩展,并且可以采用多个变量作为输入,这有助于预测模型解决物流(logistics)问题。由于其忘记和更新机制,LSTM还可以对长期和短期的相依关系进行建模。本发明一实施例采用LSTM作为时间序列预测模型。
步骤S3~S6描述处理器找出适用于步骤S2的预测模型的一组超参数的流程。
步骤S3是以处理器「执行超参数搜索程序」。步骤S4是判断步骤S3「是否搜索到目标超参数」。若步骤S4的判断为「是」,则执行步骤S5「输出目标超参数」。另一方面,若步骤S4的判断步骤为「否」,则执行步骤S6「增加超参数搜索范围」,然后回到步骤S3再次「执行超参数搜索程序」。
图2是超参数搜索程序的细部流程图。
步骤S31是以处理器「产生对应预测模型的M组超参数」。M为一个相对大的数字,例如1000。实务上,处理器采用随机方式产生M组超参数。每一组超参数中包括多个超参数,例如LSTM所用的超参数包括隐藏层神经元的丢弃率(dropout rate)、卷积核大小(kernelsize)、多层感知机(Multilayer perceptron,MLP)的层数等。轻量级的提升树(LightGradient Boosting,Light GBM)模型所用的超参数包括树叶的数量,树的深度等。
步骤S32是处理器「应用每一组超参数于预测模型」。因此本步骤S32产生了M个预测模型,分别具有不同配置参数。
步骤S33及步骤S34是处理器依据第一策略及第二策略分别对应用每一组超参数的预测模型进行训练。步骤S35及步骤S36是处理器依据第一策略及第二策略分别对应用每一组超参数的预测模型进行验证,并产生二误差阵列。详言之,第一策略及第二策略分别以二相异的资料维度从N个数据集中选取一部份作为训练数据集。第一策略及第二策略分别以该二相异的数据维度从N个数据集中选取另一部份作为一验证数据集。所述二相异的数据维度包括时间序列的维度及产品的维度。
图3是第一策略及第二策略的示意图。为了找出每个产品内的时间性的销售模式,并找出多个产品之间在销售上的连动关系,本发明提出两种交叉验证策略,如图3所示,其中第一策略在时间轴上进行交叉验证,第二策略在产品轴上进行交叉验证。
图3绘示了三种产品做为范例,其中每一横列代表一种产品,训练数据集以着色区域表示、验证数据集以斜线区域标示,原本的数据集中未被使用的部分以空白区域表示。如图3所示,第一策略以时间序列的数据维度(如图3中绘示的横轴)进行K折交叉验证(K-foldcross-verification),本发明并不限制K的数值。在第一策略中,从第1折(fold)至第K折的训练数据集的资料量递增。例如:第1折的训练资料量为1月的每月销售额,第2折的训练资料量为1~2月的每月销售额,…,第10折的训练资料量为1~10月的每月销售额。在第一策略中,从第1折至第K折的验证数据集的数据量固定,且验证数据集在该时间序列中晚于训练数据集。例如第1折的验证数据集为2月的销售额,第2折的验证数据集为3月的销售额,…,第10折的验证数据集为11月的销售额。在第一策略中,训练数据集的数据量大于或等于验证数据集。由于预测模型需预测训练时间框架之后会发生的状况,因此验证时间框架总是紧随训练时间框架之后。须注意的是,届时预测模型适合的预测时间长度即为此时验证数据集取样的时间长度。整体而言,本发明使用第一策略在时间轴上进行交叉验证,该过程必须符合因果关系(causality)约束,也就是训练数据集不能包含来自未来的数据。验证集所属的时间点始终在训练数据集所属的时间点之后。对于每个折,本发明提出不同的训练时间长度从数据集中选取训练数据集。
如图3所示,本发明特别提出的第二策略考虑的是产品的数据维度(如图3中绘示的纵轴),也就是将所有产品划分为训练数据集和验证数据集并进行N折交叉验证。如图3所示,在N折中的每一折包含训练数据集和验证数据集的不同组合。这是为了仿真对一组产品的训练,并预测另一组没见过的产品。换言之,从现有产品之间的关联性,训练预测模型以预测其他产品与现有产品之间的关联性。本发明并不限制N的数值。在另一实施例中,假设有12个产品,则N的数值可设置为12、6、4、3或2,即产品数量的因子。
在步骤S33及步骤S34中被训练好的预测模型在进行N折交叉验证时在每一折都会产生一个误差(loss),其为模型输出的预测值与验证数据集中的实际值两者之间的差值。在步骤S35及步骤S36中,将所有N折的误差加总获得一个总误差值(后文简称误差值)。因此,对M个预测模型分别进行第一策略的验证将获得M个误差值,其组成一误差阵列,对M个预测模型分别进行第二策略的验证也将获得M个误差值,其组成另一误差阵列。简言之,步骤S35及步骤S36将产生二误差阵列,该二误差阵列的每一者具有M个误差值。
请参考图2的步骤S37。步骤S37是以处理器「依据第一权重、第二权重及二误差阵列进行加权运算或排序操作,并在二误差阵列中搜索目标超参数」。目标超参数为M组超参数中的一者,且目标超参数在二误差阵列中所对应的二误差值为二误差阵列中的相对最小值。
图4是图2的步骤S37的一实施例的细部流程图。
步骤S41是处理器「应用第一权重于对应第一策略的误差阵列的每一个误差值」,步骤S42是处理器「应用第二权重于对应第二策略的误差阵列的每一个误差值」,步骤S43是处理器「计算二误差阵列中互相对应的二误差值的多个总和」。
为便于说明,假设第一策略对应的误差阵列为
Figure BDA0002979117610000051
第二策略对应的误差阵列为
Figure BDA0002979117610000052
其中
Figure BDA0002979117610000053
代表第P策略的第i个误差值。假设第一权重为ω1,第二权重为ω2。在执行步骤S41~S43的流程之后,可产生一个新的阵列[E1 E2E3...EM],其包含M个加权误差值,且
Figure BDA0002979117610000054
透过第一权重和第二权重的数值调整,可反映预测模型着重在「时间性的预测准确度」或是「针对未知产品的预测准确度」。
步骤S44是处理器「将多个总和由小到大排序」。即,依据E1,E2,E3,...,EM的数值进行递增排列。步骤S45是处理器「选取多个总和中的最小值所对应的该组超参数作为目标超参数」。即,目标超参数Etarget满足Etarget≤Ei,i∈{1,2,3,...,M}。在步骤S44排序之后,目标超参数Etaraet即为阵列中的第一个元素。
图5是图2的步骤S37的另一实施例的细部流程图。
步骤S51是处理器「由小到大排序对应第一策略的误差阵列的每一个误差值」。步骤S52是处理器「由小到大排序对应第二策略的误差阵列的每一个误差值」。步骤S53是处理器「从二误差阵列的最小索引值开始遍历,检查二误差阵列对应相同索引值的二误差值」。步骤S54是处理器判断是否「二误差值皆对应至同一组超参数」。
当步骤S54的判断结果为「是」,则执行步骤S55,处理器「以该组超参数作为目标超参数」,换言之,当该二误差值皆对应至M组超参数中的同一者时,以该组超参数作为该目标超参数。此时,图1的步骤S4的判断结果为「是」,因此可继续执行步骤S5「输出目标超参数」。
当步骤S54的判断结果为「否」,则执行步骤S56,步骤S56是处理器「递增阵列索引值」。
为便于说明,以下用实际数值说明步骤S51~S56的流程。假设对应第一策略及第二策略的二误差阵列如下表一所示。
表一
Figure BDA0002979117610000061
在处理器完成步骤S51及步骤S52之后,结果如下表二所示:
表二
Figure BDA0002979117610000062
Figure BDA0002979117610000071
按上表二所示的范例,在步骤S53中,误差阵列的最小索引值为1,故处理器首先检查对应该索引值1的二误差值2及4,误差值2对应第9组超参数,误差值4对应第1组超参数。
在步骤S54中,这两个误差值2及4并非对应至同一组超参数(9≠1),因此继续执行步骤S56,将阵列索引值由1递增为2,并且回到步骤S54。上述流程被反复执行,直到索引值为7时,对应索引值7的二误差值69及54皆对应至第8组超参数,因此继续执行步骤S55,以第8组超参数作为目标超参数。
须注意的是,在步骤S54及步骤S56的循环中,可能处理器已遍历(traverse)阵列的所有索引值,但仍找不到对应同一索引值的二误差值亦是对应至同一组超参数。此时,图1的步骤S4的判断结果为「否」,因此将继续执行步骤S6,增加超参数的搜索范围,然后再次执行步骤S3的超参数搜索程序。在一实施例中,可提高M值并重新产生另外M组超参数。在另一实施例中,只增加L个新的超参数,并以L+M个超参数进行图1所示的流程。
为了产生一个将所有时间序列数据都考虑在内而又不过度拟合的单一时间序列预测模型,本发明提出一种基于机器学习的时间序列预测模型的超参数配置方法。好的时间序列预测模型需要一组好的超参数。本发明提出的超参数搜索程序中具有两个良好的交叉验证策略,藉此产生一组良好的超参数。在以通用性(generalization)为核心关注点的现有交叉验证技术的基础上,本发明提出一种时间序列预测模型的超参数配置方法。为此,本发明同时在类内(in-class)和类外(out-class)的数据点上应用两种策略,以确保人工智能模型在类内和类外情况下都能很好地通用化。
综上所述,本发明提出的时间序列预测模型的超参数配置方法适用于任何基于机器学习的时间序列预测模型。本发明提出的超参数调整方法可找出每个产品内的时间性的销售模式,并且可找出多个产品之间在销售上的连动关系。
虽然本发明以前述之实施例揭露如上,然其并非用以限定本发明。在不脱离本发明之精神和范围内,所为之更动与润饰,均属本发明之专利保护范围。关于本发明所界定之保护范围请参考所附之申请专利范围。

Claims (6)

1.一种时间序列预测模型的超参数配置方法,包括:
以一储存装置储存分别对应于N个产品的N个数据集,其中每一该些数据集为一时间序列;
决定一预测模型;以及
以一处理器执行一超参数搜索程序,该超参数搜索程序包括:
以该处理器产生对应该预测模型的M组超参数;
以该处理器应用每一该M组超参数于该预测模型;
以该处理器依据一第一策略及一第二策略分别对应用每一该M组超参数的该预测模型进行训练,其中该第一策略及该第二策略分别以二相异的数据维度从该N个数据集中选取一部份作为一训练数据集;
以该处理器依据该第一策略及该第二策略分别对应用每一该M组超参数的该预测模型进行验证以产生二误差阵列,其中该第一策略及该第二策略分别以该二相异的数据维度从该N个数据集中选取另一部份作为一验证数据集,且该二误差阵列的每一者具有M个误差值;
以该处理器依据一第一权重、一第二权重及该二误差阵列进行一加权运算或一排序操作;以及
以该处理器在该二误差阵列中搜索一目标超参数,其中该目标超参数为该M组超参数中的一者,且该目标超参数在该二误差阵列中所对应的该二误差值为该二误差阵列中的相对最小值;
当搜索到该目标超参数时,以该处理器输出该目标超参数;且
当无法搜索到该目标超参数时,以该处理器增加M值并执行该超参数搜索程序。
2.如权利要求1所述的时间序列预测模型的超参数配置方法,其中该预测模型是长短期记忆(Long Short-Term Memory)模型。
3.如权利要求1所述的时间序列预测模型的超参数配置方法,其中该第一策略以时间序列的数据维度进行K折交叉验证,且该第二策略以产品的数据维度进行N折交叉验证。
4.如权利要求3所述的时间序列预测模型的超参数配置方法,其中在该第一策略中,从第1折至第K折的该训练数据集的资料量递增,从第1折至第K折的该验证数据集的数据量固定,且该验证数据集在该时间序列中晚于该训练数据集。
5.如权利要求1所述的时间序列预测模型的超参数配置方法,
其中以该处理器依据该第一权重、该第二权重及该二误差阵列进行该加权运算或该排序操作包括:
以该处理器应用该第一权重于对应该第一策略的该误差阵列的每一该M个误差值;
以该处理器应用该第二权重于对应该第二策略的该误差阵列的每一该M个误差值;
以该处理器计算该二误差阵列中互相对应的该二误差值的多个总和;
以该处理器将该些总和由小到大排序;以及
以该处理器选取该些总和中的最小值所对应的该组超参数作为该目标。
6.如权利要求1所述的时间序列预测模型的超参数配置方法,
其中以该处理器依据该第一权重、该第二权重及该二误差阵列进行该加权运算或该排序操作包括:
以该处理器由小到大排序对应该第一策略的该误差阵列的每一该M个误差值;及
以该处理器由小到大排序对应该第二策略的该误差阵列的每一该M个误差值;
其中以该处理器在该二误差阵列中搜索该目标超参数包括:
从该二误差阵列的最小索引值开始遍历,以该处理器检查该二误差阵列对应相同索引值的该二误差值;及
当该二误差值皆对应至该M组超参数中的同一者时,以该组超参数作为该目标超参数。
CN202110282461.2A 2021-03-16 2021-03-16 时间序列预测模型的超参数配置方法 Pending CN115081633A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110282461.2A CN115081633A (zh) 2021-03-16 2021-03-16 时间序列预测模型的超参数配置方法
US17/348,984 US20220300765A1 (en) 2021-03-16 2021-06-16 Hyper-parameter configuration method of time series forecasting model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110282461.2A CN115081633A (zh) 2021-03-16 2021-03-16 时间序列预测模型的超参数配置方法

Publications (1)

Publication Number Publication Date
CN115081633A true CN115081633A (zh) 2022-09-20

Family

ID=83246279

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110282461.2A Pending CN115081633A (zh) 2021-03-16 2021-03-16 时间序列预测模型的超参数配置方法

Country Status (2)

Country Link
US (1) US20220300765A1 (zh)
CN (1) CN115081633A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116432542B (zh) * 2023-06-12 2023-10-20 国网江西省电力有限公司电力科学研究院 一种基于误差序列修正的开关柜母排温升预警方法及系统

Also Published As

Publication number Publication date
US20220300765A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
US20170091615A1 (en) System and method for predicting power plant operational parameters utilizing artificial neural network deep learning methodologies
CN110751562A (zh) 一种外汇时间序列预测的训练优化方法
CN105608004A (zh) 一种基于cs-ann的软件缺陷预测方法
CN105956690A (zh) 一种供水预测方法及系统
CN110428015A (zh) 一种模型的训练方法及相关设备
Mahmoodi et al. A developed stock price forecasting model using support vector machine combined with metaheuristic algorithms
Das et al. Prediction of retail sales of footwear using feedforward and recurrent neural networks
KR20230109072A (ko) Cb 사 신용 평가 모델 생성 및 관리 자동화 방법 및 이러한 방법을 수행하는 장치
Pranolo et al. Optimized Three Deep Learning Models Based-PSO Hyperparameters for Beijing PM2. 5 Prediction
Pandey et al. DNNAttention: A deep neural network and attention based architecture for cross project defect number prediction
CN115081633A (zh) 时间序列预测模型的超参数配置方法
KR102480518B1 (ko) 신용평가 모델 업데이트 또는 교체 방법 및 장치
TWI752850B (zh) 時間序列預測模型的超參數配置方法
CN115496290A (zh) 一种“输入-结构-参数”全要素分层组合优选的中长期径流时变概率预测方法
Kim et al. Data-driven prognostics
Khumprom et al. A hybrid evolutionary CNN-LSTM model for prognostics of C-MAPSS aircraft dataset
Zhu Study on exchange rate volatility under cross-border rmb settlement based on multi-layer neural network algorithm
Saen The use of artificial neural networks for technology selection in the presence of both continuous and categorical data
Iqbal et al. Forecasting stock market using machine learning approach encoder-decoder ConvLSTM
Groves Toward automating and systematizing the use of domain knowledge in feature selection
Holderbaum et al. Short Term Load Forecasting (STLF)
WO2024106125A1 (ja) 演算装置、計画立案支援方法及びプログラム
Olanrewaju et al. Comparison of artificial intelligence techniques for energy consumption estimation
CN113379455B (zh) 订单量预测方法和设备
Phoksawat et al. Forecasting smoked rubber sheets price based on a deep learning model with long short-term memory.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination