CN114239718B - 基于多元时序数据分析的高精度长期时间序列预测方法 - Google Patents

基于多元时序数据分析的高精度长期时间序列预测方法 Download PDF

Info

Publication number
CN114239718B
CN114239718B CN202111539166.7A CN202111539166A CN114239718B CN 114239718 B CN114239718 B CN 114239718B CN 202111539166 A CN202111539166 A CN 202111539166A CN 114239718 B CN114239718 B CN 114239718B
Authority
CN
China
Prior art keywords
sequence
features
discrete
encoder
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111539166.7A
Other languages
English (en)
Other versions
CN114239718A (zh
Inventor
王则昊
樊谨
俞晓锋
汪炜杰
孙丹枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202111539166.7A priority Critical patent/CN114239718B/zh
Publication of CN114239718A publication Critical patent/CN114239718A/zh
Application granted granted Critical
Publication of CN114239718B publication Critical patent/CN114239718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种基于多元时序数据分析的高精度长期时间序列预测方法,使用离散网络用于分层平行提取多元时间序列的全局特征和局部特征,在提高多元时间序列预测精度的同时降低了计算复杂度、减少了模型规模并且增加了模型的预测长度。本发明采用分层平行提取多元时间序列的全局特征和局部特征机制,提升了预测精度,降低了模型的内存使用量,利用局部特征提高对多元时间序列的局部细微波动的拟合能力,并且增加了模型的预测长度,大大提升了模型在多元时间序列预测上的效果。

Description

基于多元时序数据分析的高精度长期时间序列预测方法
技术领域
本发明属于时间序列预测领域,具体涉及一种基于多元时序数据分析的高精度长期时间序列预测方法。
背景技术
时间序列预测是时间序列分析领域的一个重要分支,其广泛应用于天气预测、股票预测和异常检测等领域中。时间序列预测方法通过学习过去的时间序列的特征规律,从而预测未来一段时间内的时间序列。随着预测序列长度的增加与单变量时间序列向多变量时间序列的转变,时间序列预测问题的难度相应增加,长时间序列预测问题要求方法具有更长的预测能力和更高的预测精度,而多元变量时间序列预测要求方法可以捕捉到多元变量之间的关系,在这种依赖关系的基础上,同时对多个变量的时间序列进行高精度的预测。
近年来,越来越多的新方法被提出,它们增加了模型在长序列上的预测能力与捕获多元变量间关系的能力。随着时间序列预测问题的要求逐渐增高,众多方法在学习时间序列中存在的长距离依赖关系等问题上越来越乏力,难以取得进一步的突破。直到基于注意力机制(Attention,AT)的Transformer方法被提出,其在提取距离较长的两个元素之间依赖关系问题上有着突破性的提高。近年来,越来越多的方法将Transformer方法或注意力机制用于时间序列预测问题上,取得了较大的进展。但Transformer方法以及注意力机制都有着较高的计算复杂度,使得它们对内存具有很高的要求,从而无法直接用于更长的预测要求。于是,越来越多的模型对Transformer的计算复杂度等问题进行改善,使其在更长的时间序列预测中取得更好的效果。在众多变体模型中,Informer方法在各个方面取得最好的效果。
Informer对Transformer的结构进行了改进,采用多头稀疏自注意力机制(Multi-head Probsparse Self-attention)与自注意力蒸馏机制(Self-attention Distilling),在降低模型计算复杂度至O(N log N)(N为输入序列的长度)的同时还提高了多元变量长时间序列预测的精度。但是它还具有一些问题:1)较高的计算复杂度和较多的内存使用;2)不具备对时间序列的局部细微波动部分的拟合与预测能力,致使预测精度还有提升空间;3)方法中提取出的特征可解释性低;4)预测长度有限,不能满足更长的时间序列预测问题。
发明内容
本发明要解决的技术问题是已有模型精度不足,计算复杂度过高、占用内存规模较大和预测长序列能力不足。本发明提出了一种基于多元时序数据分析的高精度长期时间序列预测方法。经过测试后,对Informer中存在的四个问题均有一定的改善,从而在多元变量时间序列预测问题上取得了更佳的结果。
本发明采用的技术方案是:采用具有分层平行提取特征的离散网络(SeparateNetwork)作为核心模块,整体架构采用分层机制,逐层平行提取多元时间序列的全局特征与局部特征,对所有特征加以分析后,以全局特征为纲,结合各层局部特征来对输入的多元时间序列以及需要预测的部分进行构建,最终输出预测部分。
基于多元时序数据分析的高精度长期时间序列预测方法,步骤如下:
步骤1:数据预处理,获得训练数据集和验证数据集。
步骤2:借助于步骤1得到的训练数据集,每次随机选取32组训练数据,输入到离散框架模型中,每组数据中的历史序列和起始序列分别输入到离散框架模型中的真实编码器和预测编码器中,两个编码器通过离散网络(Separate Network)对输入序列提取全局特征和局部特征。
步骤3:将真实编码器(True Encoder)输出的全局特征和局部特征进行维度变换,将变换后的特征与预测编码器(Pred Encoder)输出的特征进行拼接,作为最终的全局特征和局部特征。
步骤4:将最终的全局特征和局部特征输入至解码器(Decoder)中,通过离散网络(Separate Network)对步骤3最终得到的全局特征与各层局部特征进行重构,从而得到最终的生成预测序列。
步骤5:计算步骤4得到最终的生成预测序列与预测序列之间的均方误差(MSE)和平均绝对误差(MAE),然后通过Adam优化器进行反向传播,更新网络参数。最终得到训练好的离散框架模型。
步骤6:通过验证数据集集对离散框架模型进行测试;
将步骤1得到的验证数据集输入至训练好的离散框架模型中,最终得到基于验证数据集生成的预测序列。
步骤7:计算基于验证数据集生成的预测序列与真实预测序列之间的均方误差(MSE),求得所有组数据的均方误差(MSE)后求均值,得到基于验证数据集的MSE误差。
步骤8:重复步骤2至步骤7,直至步骤7得到的均方误差(MSE)不再减小,说明模型表现无法再变好,则网络参数更新完毕,模型结束训练。
步骤9:将预测任务所给的输入序列输入到步骤8最终得到的训练好的模型中,进行序列预测,输出最终得到的预测序列,完成预测。
进一步的,步骤1具体方法如下:
选取合适的公共时间序列数据集,对其进行分组与分割以适应模型对数据格式的要求。首先根据需求设定每组数据中的历史序列长度、预测序列长度和起始序列长度,这三个长度分别对应每组数据中的三个部分:历史序列、预测序列和起始序列。采用滑窗机制进行分组,窗口长度为历史序列长度与预测序列长度之和,每次窗口移动一位,即相邻两组数据之间只有一位上的不同。在完成数据分组之后,截取70%组数据作为训练数据集,30%组数据作为验证数据集。
进一步的,在长度上,起始序列长度小于等于历史序列长度,在数值上,起始序列与历史序列的后部分相同。历史序列与预测序列在位置上是前后相接的,每组数据的长度为历史序列长度与预测序列长度之和。
进一步的,步骤2所述的离散框架Sepformer模型由真实编码器True Encoder、预测编码器Pred Encoder和一个解码器Decoder构成。真实编码器需要输入每组数据中的历史序列,从中提取序列的历史特征;预测编码器需要输入每组数据中的起始序列,使用起始序列来预测后边预测序列长度的序列;每组数据中的预测序列作为正确的结果与模型最终输出的生成预测序列进行比较,计算二者之间的误差。
进一步的,真实编码器True Encoder和预测编码器Pred Encoder的核心模块都是离散网络(Separate Network,SN)。
离散网络(Separate Network)采用波形提取模块(Waveform Extraction,WE)和离散注意力机制模块(Separate Attention,SA)层层提取全局特征(global feature)和局部特征(local feature)。波形提取模块会对输入序列进行分解,通过滑窗机制遍历整个输入序列求得窗口内均值,得到输入序列的全局趋势,使用输入序列减去得到的全局趋势,得到输入序列的局部波动。波形提取模块(WE)整体公式如下所示:
其中和/>分别表示波形的全局趋势和局部波动,用于作为输入,通过离散注意力模块提取全局特征和局部特征;/>为第l层WE的输入序列;/>为连接符号,用于连接不同的分块;AvgPool函数为均值池化函数,其设定一个滑动窗口,每次滑动一个单元,然后对窗口内的所有元素求均值,将所得数值赋值给当前单元。将进行分块,然后输入AvgPool中,/>表示第i个分块。
离散注意力机制模块(Separate Attention,SA)用于进行特征提取。离散注意力机制模块先将输入序列分割成长度相同的块(Block,B),然后通过共享注意力机制模块(Attention,AT)提取特征,接着通过前馈网络(Feed-Forward Network,FFN)进行维度变换,按比例缩短每个块的长度,最终拼接后输出。离散注意力机制的计算公式如下所示:
其中,为第l层离散注意力模块(SA)的输入序列;B表示输入序列得到的分块(Block);/>分别表示Q、K、V在第l层第i个分块上的可学习权重矩阵;/>Vi l分别表示第l层Q、K、V和B的第i个分块。Q、K和V分别表示分块经过线性变换后得到的问题矩阵(query)、键值矩阵(key)和数值矩阵(value)。其中注意力机制定义为:
其中dmodel表示特征维度。
离散网络整体函数表达式如下所示:
其中Zl表示离散网络第l层的全局特征;Hl表示离散网络第l层的局部特征;XSN表示SN的输入。
进一步的,步骤3具体方法如下:
真实编码器(True Encoder)和预测编码器(Pred Encoder)输出的全局特征和局部特征分别进行拼接,其中真实编码器(True Encoder)输出的两种特征将经过前馈网络(Feed-Forward Network,FFN)进行纬度变换至与预测编码器(Pred Encoder)具有相同的维度,然后对两种特征各自进行拼接,得到整体的全局特征和局部特征。
将真实编码器(True Encoder)输出的全局特征和局部特征进行维度变换,将变换后的特征与预测编码器(Pred Encoder)输出的特征进行拼接,作为最终的全局特征和局部特征。
进一步的,步骤6所述的均方误差(MSE)和平均绝对误差(MAE)公式如下所示:
其中,y为预测值;为真实值;n表示序列的长度。
本发明的有益效果:
本发明使用离散网络(Separate Network)用于分层平行提取多元时间序列的全局特征和局部特征,在提高多元时间序列预测精度的同时降低了计算复杂度、减少了模型规模并且增加了模型的预测长度。
在多元时间序列预测中,预测精度、预测序列长度、对局部细微波动的拟合能力等问题都是影响预测效果的重要因素。本发明采用分层平行提取多元时间序列的全局特征和局部特征机制,提升了预测精度,降低了模型的内存使用量,利用局部特征提高对多元时间序列的局部细微波动的拟合能力,并且增加了模型的预测长度,大大提升了模型在多元时间序列预测上的效果。
附图说明
图1为本发明实施例的整体结构示意图。
图2为本发明实施例的离散框架结构示意图。
图3为本发明实施例离散网络(Separate Network)的结构图。
图4为本发明实施例离散注意力机制模块(Separate Attention)的结构图。
图5是本发明实施例在ETTh1、ETTh2、ETTm1、Weather和ECL五种公开数据集下,与五个已有的方法在均方误差(MSE)上的比较。
图6是相同条件下,本发明离散特征提取方法(Sepformer)与Informer的GPU使用量的比较。
具体实施方式
下面结合附图和具体实施步骤对本发明做了进一步的说明:
一种基于多元时间序列预测的高精度低内存的离散特征提取方法(Sepformer),包括以下步骤:
步骤1:数据预处理,获得训练数据集和验证数据集。
选取合适的公共时间序列数据集,进行分组与分割以适应模型对数据格式的要求。首先根据需求设定每组数据中的历史序列长度、预测序列长度和起始序列长度,这三个长度分别对应每组数据中的三个部分:历史序列、预测序列和起始序列。在长度上,起始序列长度小于等于历史序列长度,在数值上,起始序列与历史序列的后部分相同。历史序列与预测序列在位置上是前后相接的,每组数据的长度为历史序列长度与预测序列长度之和。采用滑窗机制进行分组,窗口长度为历史序列长度与预测序列长度之和,每次窗口移动一位,即相邻两组数据之间只有一位上的不同。在完成数据分组之后,截取70%组数据作为训练数据集,30%组数据作为验证数据集。
离散框架Sepformer由两个编码器(真实编码器True Encoder和预测编码器PredEncoder)和一个解码器Decoder构成。真实编码器需要输入每组数据中的历史序列,从中提取序列的历史特征;预测编码器需要输入每组数据中的起始序列,使用起始序列来预测后边预测序列长度的序列;每组数据中的预测序列作为正确的结果与模型最终输出的生成预测序列进行比较,计算二者之间的误差。
如图1所示,展示了本发明的整体结构。数据处理与分割部分在本发明结构的入口处,负责对原始数据做初步处理,形成预测模型所需的数据结构。
步骤2:借助于步骤1得到的训练数据集,在设备条件允许的情况下,每次随机选取32组训练数据,输入到模型中,每组数据中的历史序列和起始序列分别输入到模型中的真实编码器和预测编码器中,两个编码器通过离散网络(Separate Network)对输入序列提取全局特征和局部特征。
如图2所示,展示了本发明离散特征提取方法(Sepformer)的整体结构,离散框架Sepformer包含两个编码器(Encoder)和一个解码器(Decoder),真实编码器(TrueEncoder)和预测编码器(Pred Encoder)分别接收步骤1中得到的每组数据中的历史序列和预测序列,两个Encoder的核心模块都是离散网络(Separate Network,SN)。
如图3所示,展示了离散网络(Separate Network)的整体结构,离散网络(Separate Network)采用波形提取模块(Waveform Extraction,WE)和离散注意力机制模块(Separate Attention,SA)层层提取全局特征(global feature)和局部特征(localfeature)。波形提取模块会对输入序列进行分解,通过滑窗机制遍历整个输入序列求得窗口内均值,得到输入序列的全局趋势,使用输入序列减去得到的全局趋势,得到输入序列的局部波动。波形提取模块(WE)整体公式如下所示:
其中和/>分别表示波形的全局趋势和局部波动,用于作为输入,通过离散注意力模块提取全局特征和局部特征;/>为第l层WE的输入序列;/>为连接符号,用于连接不同的分块;AvgPool函数为均值池化函数,其设定一个滑动窗口,每次滑动一个单元,然后对窗口内的所有元素求均值,将所得数值赋值给当前单元。将进行分块,然后输入AvgPool中,/>表示第i个分块。
如图4所示,展示了离散注意力机制模块(Separate Attention,SA),该模块用于进行特征提取。离散注意力机制模块先将输入序列分割成长度相同的块(Block,B),然后通过共享注意力机制模块(Attention,AT)提取特征,接着通过前馈网络(Feed-ForwardNetwork,FFN)进行维度变换,按比例缩短每个块的长度,最终拼接后输出。离散注意力机制的计算公式如下所示:
其中,为第l层离散注意力模块(SA)的输入序列;B表示输入序列得到的分块(Block);/>分别表示Q、K、V在第l层第i个分块上的可学习权重矩阵;/>Vi l和/>分别表示第l层Q、K、V和B的第i个分块。Q、K和V分别表示分块经过线性变换后得到的问题矩阵(query)、键值矩阵(key)和数值矩阵(value)。其中注意力机制定义为:
其中dmodel表示特征维度。
离散网络整体函数表达式如下所示:
其中Zl表示离散网络第l层的全局特征;Hl表示离散网络第l层的局部特征;XSN表示SN的输入。
步骤3:将真实编码器(True Encoder)输出的全局特征和局部特征进行维度变换,将变换后的特征与预测编码器(Pred Encoder)输出的特征进行拼接,作为最终的全局特征和局部特征。
如图2所示,真实编码器(True Encoder)和预测编码器(Pred Encoder)输出的全局特征和局部特征分别进行拼接,其中真实编码器(True Encoder)输出的两种特征会经过前馈网络(Feed-Forward Network,FFN)进行纬度变换至与预测编码器(Pred Encoder)具有相同的维度,然后对两种特征各自进行拼接,得到整体的全局特征和局部特征。
步骤4:将步骤3得到的全局特征和局部特征输入至解码器(Decoder),通过离散网络(Separate Network)对输入的全局特征与各层局部特征进行重构,从而得到最终的生成预测序列。
步骤5:计算其步骤4得到的最终的生成预测序列与预测序列之间的均方误差(MSE)和平均绝对误差(MAE),然后通过Adam优化器进行反向传播,更新网络参数。最终得到训练好的离散框架模型。均方误差(MSE)和平均绝对误差(MAE)公式如下所示:
其中,y为预测值;为真实值;n表示序列的长度。
步骤6:通过步骤1得到的验证数据集训练步骤5更新网络参数后的模型,选取32组验证数据作为输入,执行步骤2至步骤4,其中将步骤2中的训练数据替换成选取的32组验证数据。最终得到基于验证数据生成的预测序列。
步骤7:借助于步骤6得到的基于验证数据得到的生成预测序列,计算基于验证数据集生成的预测序列与真实预测序列之间的均方误差(MSE),求得所有组数据的均方误差(MSE)后求均值,得到基于验证数据集的MSE误差。
步骤8:重复步骤2至步骤7,直至步骤7得到的均方误差(MSE)不再减小,说明模型表现无法再变好,则网络参数更新完毕,模型结束训练。
步骤9:将预测任务所给的输入序列输入到步骤8最终得到的训练好的模型中,进行序列预测,输出最终得到的预测序列,完成预测。
图5显示了在相同的实验条件下,Sepformer、Informer、LogTrans、Reformer、LSTMa和LSTnet等六种方法在ETTh1、ETTh2、ETTm1、Weather和ECL等五种数据集上的实验结果,衡量标准为均方误差(MSE)和平方绝对值(MAE)。在每种实验条件下,表现最好的模型的实验结果在表格中加粗表示。从图5表格中可以看到离散特征提取方法(Sepformer)对比其余五种方法有着较大的提升,而对比Informer方法,离散特征提取方法(Sepformer)在五个数据集上分别降低了均方误差(MSE)28.68%、12.66%、26.55%、15.53%和29.23%,平均下降了22.53%。
图6显示了在相同的实验条件下,随着预测序列长度的增加,离散特征提取方法(Sepformer)与Informer在内存使用量上的比较和变化。可以看到随着预测序列长度越来越长,离散特征提取方法在内存使用量上的优势会越来越大。对比Informer,离散特征提取方法在内存使用量上平均降低了27.45%。

Claims (7)

1.基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,步骤如下:
步骤1:数据预处理,获得训练数据集和验证数据集;
步骤2:借助于步骤1得到的训练数据集,每次随机选取32组训练数据,输入到离散框架模型中,每组数据中的历史序列和起始序列分别输入到离散框架模型中的真实编码器和预测编码器中,两个编码器通过离散网络对输入序列提取全局特征和局部特征;
步骤3:将真实编码器输出的全局特征和局部特征进行维度变换,将变换后的特征与预测编码器输出的特征进行拼接,作为最终的全局特征和局部特征;
步骤4:将最终的全局特征和局部特征输入至解码器中,通过离散网络对步骤3最终得到的全局特征与各层局部特征进行重构,从而得到最终的生成预测序列;
步骤5:计算步骤4得到最终的生成预测序列与预测序列之间的均方误差MSE和平均绝对误差MAE,然后通过Adam优化器进行反向传播,更新网络参数;最终得到训练好的离散框架模型;
步骤6:通过验证数据集集对离散框架模型进行测试;
将步骤1得到的验证数据集输入至训练好的离散框架模型中,最终得到基于验证数据集生成的预测序列;
步骤7:计算基于验证数据集生成的预测序列与真实预测序列之间的均方误差MSE,求得所有组数据的均方误差MSE后求均值,得到基于验证数据集的MSE误差;
步骤8:重复步骤2至步骤7,直至步骤7得到的均方误差MSE不再减小,说明模型表现无法再变好,则网络参数更新完毕,模型结束训练;
步骤9:将预测任务所给的输入序列输入到步骤8最终得到的训练好的模型中,进行序列预测,输出最终得到的预测序列,完成预测。
2.根据权利要求1所述的基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,步骤1具体方法如下:
选取合适的公共时间序列数据集,对其进行分组与分割以适应模型对数据格式的要求;首先根据需求设定每组数据中的历史序列长度、预测序列长度和起始序列长度,这三个长度分别对应每组数据中的三个部分:历史序列、预测序列和起始序列;采用滑窗机制进行分组,窗口长度为历史序列长度与预测序列长度之和,每次窗口移动一位,即相邻两组数据之间只有一位上的不同;在完成数据分组之后,截取70%组数据作为训练数据集,30%组数据作为验证数据集。
3.根据权利要求2所述的基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,在长度上,起始序列长度小于等于历史序列长度,在数值上,起始序列与历史序列的后部分相同;历史序列与预测序列在位置上是前后相接的,每组数据的长度为历史序列长度与预测序列长度之和。
4.根据权利要求1所述的基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,步骤2所述的离散框架Sepformer模型由真实编码器True Encoder、预测编码器Pred Encoder和一个解码器Decoder构成;真实编码器需要输入每组数据中的历史序列,从中提取序列的历史特征;预测编码器需要输入每组数据中的起始序列,使用起始序列来预测后边预测序列长度的序列;每组数据中的预测序列作为正确的结果与模型最终输出的生成预测序列进行比较,计算二者之间的误差。
5.根据权利要求4所述的基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,真实编码器True Encoder和预测编码器Pred Encoder的核心模块都是离散网络;
离散网络采用波形提取模块和离散注意力机制模块层层提取全局特征和局部特征;波形提取模块会对输入序列进行分解,通过滑窗机制遍历整个输入序列求得窗口内均值,得到输入序列的全局趋势,使用输入序列减去得到的全局趋势,得到输入序列的局部波动;波形提取模块(WE)整体公式如下所示:
其中和/>分别表示波形的全局趋势和局部波动,用于作为输入,通过离散注意力模块提取全局特征和局部特征;/>为第l层WE的输入序列;/>为连接符号,用于连接不同的分块;AvgPool函数为均值池化函数,其设定一个滑动窗口,每次滑动一个单元,然后对窗口内的所有元素求均值,将所得数值赋值给当前单元;将进行分块,然后输入AvgPool中,/>表示第i个分块;
离散注意力机制模块用于进行特征提取;离散注意力机制模块先将输入序列分割成长度相同的块,然后通过共享注意力机制模块提取特征,接着通过前馈网络进行维度变换,按比例缩短每个块的长度,最终拼接后输出;离散注意力机制的计算公式如下所示:
其中,为第l层离散注意力模块(SA)的输入序列;B表示输入序列得到的分块(Block);/>分别表示Q、K、V在第l层第i个分块上的可学习权重矩阵;/>Vi l分别表示第l层Q、K、V和B的第i个分块;Q、K和V分别表示分块经过线性变换后得到的问题矩阵(query)、键值矩阵(key)和数值矩阵(value);其中注意力机制定义为:
其中dmodel表示特征维度;
离散网络整体函数表达式如下所示:
其中Zl表示离散网络第l层的全局特征;Hl表示离散网络第l层的局部特征;XSN表示SN的输入。
6.根据权利要求1所述的基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,步骤3具体方法如下:
真实编码器和预测编码器输出的全局特征和局部特征分别进行拼接,其中真实编码器输出的两种特征将经过前馈网络进行纬度变换至与预测编码器具有相同的维度,然后对两种特征各自进行拼接,得到整体的全局特征和局部特征;
将真实编码器输出的全局特征和局部特征进行维度变换,将变换后的特征与预测编码器输出的特征进行拼接,作为最终的全局特征和局部特征。
7.根据权利要求1所述的基于多元时序数据分析的高精度长期时间序列预测方法,其特征在于,步骤6所述的均方误差MSE和平均绝对误差MAE公式如下所示:
其中,y为预测值;为真实值;n表示序列的长度。
CN202111539166.7A 2021-12-15 2021-12-15 基于多元时序数据分析的高精度长期时间序列预测方法 Active CN114239718B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111539166.7A CN114239718B (zh) 2021-12-15 2021-12-15 基于多元时序数据分析的高精度长期时间序列预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111539166.7A CN114239718B (zh) 2021-12-15 2021-12-15 基于多元时序数据分析的高精度长期时间序列预测方法

Publications (2)

Publication Number Publication Date
CN114239718A CN114239718A (zh) 2022-03-25
CN114239718B true CN114239718B (zh) 2024-03-01

Family

ID=80756677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111539166.7A Active CN114239718B (zh) 2021-12-15 2021-12-15 基于多元时序数据分析的高精度长期时间序列预测方法

Country Status (1)

Country Link
CN (1) CN114239718B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115034514A (zh) * 2022-07-06 2022-09-09 吉林大学 一种基于元学习的小样本时序预测方法及系统
CN115545361B (zh) * 2022-12-02 2023-05-09 国网湖北省电力有限公司信息通信公司 一种电网传输线路气候环境预测方法、系统及介质
CN116204770B (zh) * 2022-12-12 2023-10-13 中国公路工程咨询集团有限公司 一种用于桥梁健康监测数据异常检测的训练方法及装置
CN118586536A (zh) * 2023-03-03 2024-09-03 华为技术有限公司 时序数据预测方法、装置和存储介质
CN117582222B (zh) * 2024-01-18 2024-03-29 吉林大学 信息化血糖监测系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033776A (zh) * 2021-03-10 2021-06-25 浙大城市学院 一种结合全局空洞卷积与局部辨识表征的时间序列预测方法
CN113177633A (zh) * 2021-04-20 2021-07-27 浙江大学 一种深度解耦时间序列预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783181B2 (en) * 2019-08-27 2023-10-10 Nec Corporation Tensorized LSTM with adaptive shared memory for learning trends in multivariate time series

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033776A (zh) * 2021-03-10 2021-06-25 浙大城市学院 一种结合全局空洞卷积与局部辨识表征的时间序列预测方法
CN113177633A (zh) * 2021-04-20 2021-07-27 浙江大学 一种深度解耦时间序列预测方法

Also Published As

Publication number Publication date
CN114239718A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN114239718B (zh) 基于多元时序数据分析的高精度长期时间序列预测方法
CN112712209B (zh) 水库入库流量预测方法、装置、计算机设备及存储介质
CN111861013B (zh) 一种电力负荷预测方法及装置
CN109787821B (zh) 一种大规模移动客户流量消费智能预测方法
CN114493014A (zh) 多元时间序列预测方法、系统及计算机产品、存储介质
CN112990553A (zh) 使用自注意机制和双线性融合的风电超短期功率预测方法
CN117076931A (zh) 一种基于条件扩散模型的时间序列数据预测方法和系统
CN116596033A (zh) 一种基于窗口注意力和生成器的Transformer臭氧浓度预测方法
CN116911419A (zh) 一种基于趋势相关性特征学习的长时序预测方法
CN114219027A (zh) 一种基于离散小波变换的轻量级时间序列预测方法
CN116665483A (zh) 一种新的预测剩余停车位的方法
CN115953902B (zh) 一种基于多视图时空图卷积网络的交通流预测方法
CN117852686A (zh) 基于多元自编码器的电力负荷预测方法
CN112948462A (zh) 一种基于改进的奇异谱分析和Bp神经网络的超短期风速预测方法
CN115713044B (zh) 一种多工况切换下的机电设备剩余寿命分析方法和装置
CN112232570A (zh) 一种正向有功总电量预测方法、装置及可读存储介质
CN117154680A (zh) 一种基于非平稳Transformer模型的风电功率预测方法
CN117134315A (zh) 一种基于bert算法的配电变压器负荷预测方法及装置
CN116090604A (zh) 一种日前短期光伏功率模型的训练方法、预测方法、装置
CN107563573B (zh) 一种基于自适应学习混合模型的太阳能发电量的预测方法
CN115713155A (zh) 基于多元时序数据分析的交通序列预测方法
CN115496153A (zh) 多头自注意力的深度卷积嵌入聚类风光荷联合场景方法
CN115587625A (zh) 一种在特征空间内进行多维时序数据建模的神经网络方法及装置
CN113537573A (zh) 基于双重时空特征提取的风电功率运行趋势预测方法
CN114186739A (zh) 基于深度学习的台区短期负荷预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant