CN114139677A - 一种基于改进gru神经网络的非等间隔时序数据预测方法 - Google Patents

一种基于改进gru神经网络的非等间隔时序数据预测方法 Download PDF

Info

Publication number
CN114139677A
CN114139677A CN202110885221.1A CN202110885221A CN114139677A CN 114139677 A CN114139677 A CN 114139677A CN 202110885221 A CN202110885221 A CN 202110885221A CN 114139677 A CN114139677 A CN 114139677A
Authority
CN
China
Prior art keywords
model
window
data
prediction
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110885221.1A
Other languages
English (en)
Inventor
孙雁飞
芦奕霏
亓晋
许斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110885221.1A priority Critical patent/CN114139677A/zh
Publication of CN114139677A publication Critical patent/CN114139677A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明揭示了一种基于改进GRU神经网络的非等间隔时序数据预测方法,该方法包括以下步骤:S1:设计连续时间序列下的自适应滑动窗口;S2:面向非等间隔时间序列的GRU模型改进,改进GRU神经网络对划分的序列数据进行预测,并根据S1步骤得到的自适应滑动窗口提供的时间间隔添加调节门,动态调整遗忘信息;S3:引入注意力机制,完成模型训练。本发明设计了一个自适应的滑动窗口,使原来输入的连续时间序列划分为适合模型处理的序列数据,并且实时记录了当前时间步的时间间隔。其次在GRU模型中,本发明针对非等间隔的时间序列做了相应改进,使改进后的模型的预测性能得到一定的提高。

Description

一种基于改进GRU神经网络的非等间隔时序数据预测方法
技术领域
本发明涉及一种基于改进GRU神经网络的非等间隔时序数据预测方 法,可用于数据检测技术领域。
背景技术
多维时序数据指的是在日常生活、工业生产以及科学研究等过程中, 按照时间顺序记录保存的一系列观测数值,它可以反映出动态系统的变化 规律以及潜在特性。通过对多维时序数据的观察以及分析,可以挖掘出其 中一些有价值的潜在信息与知识,根据这些获取到的信息和知识建立描述 数据潜在关系的模型,从而可以对动态系统未来的变化趋势做出科学估计, 这个分析处理的过程称为数据的预测。由于现实生活中的时序数据往往具 有复杂多变的特性,且提取出来的特征变量维度过大,使得对多维时序数 据的精准预测存在着巨大的挑战。
循环卷积网络(Recurrent Neural Network,RNN)最初被提出处理序列 数据,RNN的基本单元间是参数共享的,且对于输入的历史数据具有一定 的记忆性,因此可以对输入序列数据进行特征学习,进而实现数据的预测。 然而在面对较长时序数据的预测时,RNN会出现梯度消失和梯度爆炸等问 题。
为解决RNN面临较长序列预测出现的问题,有人在RNN的基础上提 出了长短期记忆网络(Long Short-Term Memory,LSTM)和门控循环单 元(Gated Recurrent Unit,GRU),两者都可以解决RNN的长期依赖问题, 而相比LSTM,GRU的张量操作少,速度更快。但现有GRU在处理连续 冗长非等间隔时间序列时,由于无法确定输入模型的时序数据的切分长度, 导致其预测时间的不稳定,以及因为无法确定不同时间间隔下重置门遗忘 信息的多少而导致其预测性能不佳。
文献《一种基于模糊控制循环神经网络的时序金融数据预测方法》(申 请号:CN202010016983.3)提供了一种基于模糊控制循环神经网络的时序 金融数据预测方法。该发明将针对金融时序数据中时间间隔非等数据,结 合模糊控制,设计出一种新的循环神经网络模型,最终的模型可以将数据 集中的时间间隔和数据波动水平信息高效的运用于模型的训练以及预测中, 提高模型的预测准确度。
该文献主要针对GRU模型在处理非等间隔时间序列时无法在模型中 体现其时间间隔变化的缺陷,通过模糊控制器使记忆层在保留信息的过程 中能够对当前数据的波动水平有自适应调整,根据前一时间步的信息和当 前时刻到前一时间步的间隔决定记忆层有多少信息从前一时间步保留到当 前时间步。
该文献的不足之处是:文献所假设的场景是划分好的时间序列,而在 实际场景中,时序数据都是一条连续冗长不间断的时间序列,所以该文献 的应用场景受到了极大的限制;其次,该文献利用模糊控制理论确定不同 时间间隔下遗忘信息的多少,但对于时间间隔的获取方法并未给出具体说 明,无法解决时间间隔的实时变化性问题;最后,针对该文献中利用的模 糊控制理论是完全凭经验获得模糊规则及隶属函数即系统的设计办法,导 致了不完善的模糊规则下模型的预测性能将会大大降低。
发明内容
本发明的目的就是为了解决现有技术中存在的上述问题,提出一种基 于改进GRU神经网络的非等间隔时序数据预测方法。
本发明的目的将通过以下技术方案得以实现:一种基于改进GRU神经 网络的非等间隔时序数据预测方法,
该方法包括以下步骤:
S1:设计连续时间序列下的自适应滑动窗口,根据窗口内观测到的数 据个数恒定不变,以自适应调整窗口大小,并采用完全更新的方式更新窗 口内的元素;
S2:面向非等间隔时间序列的GRU模型改进,改进GRU神经网络对 划分的序列数据进行预测,并根据S1步骤得到的自适应滑动窗口提供的时 间间隔添加调节门,动态调整遗忘信息;
S3:引入注意力机制,完成模型训练,从众多信息中选择出对当前任 务目标更关键的信息,有效捕捉数据的动态变化特征,使相关性分析更加 准确,时间序列通过注意力机制后能快速捕捉特定范围数据的动态变化特 征,提高模型的预测精度,进而完成模型的训练。
优选地,所述S1步骤包括以下步骤:
S10:确定滑动窗口的模型;使用基于元素个数的滑动窗口模型,表示 某个时刻窗口内能观测到的数据的个数为恒定,即元素个数守恒;
S11:确定滑动窗口的窗口宽度W;
根据实时传入的数据量的大小xn动态确定窗口的宽度,即根据给定的 元素个数x0自适应调整窗口大小,当xn<x0,增大窗口宽度,以提高预测 的精度,否则,缩小窗口宽度,避免数据量过多导致预测压力过大,预测 模型精度不稳;
S12:确定窗口内元素的更新方式
采用完全更新的方式,当传入的数据量大小xn达到给定的元素个数x0, 计算当前窗口的时间间隔系数δt,其计算公式为:
Figure BDA0003191845800000031
将计算结果与滑动窗口截取的子序列同时传入GRU模型中进行预测, 待预测结束后将窗口内的所有数据完全更新,即下一时间步的数据量大小 xn+1达到给定的元素个数x0
优选地,所述S2步骤包括以下步骤:
S20:将X(t)输入到自适应滑动窗口(ASW)中,将序列进行切分,并从 窗口中获取当前时间步与上一时间步之间的时间间隔系数δt,将其输入调 节门中,由调节门中的失效函数确定遗忘信息的多少,失效函数的参考公 式为:
Invalid(δt)∝1/δt (1)
上式表明失效函数与当前时间步t与上一时间步t-1之间的间隔系数δt成反比;
S21:在记忆层ht-1的信息进入到下个记忆层之前,会通过一个调节门 来决定有多少信息会通过调节门,并使用激活函数tanh将输入映射到输出, 即:
h′t-1=ht-1tanh(1-Invalid(δt)) (2)
式中,h′t-1表示通过调节门处理的前一记忆层信息,ht-1表示处理前 的记忆层信息;
S22:将经过调节的前一记忆层信息输入到重置门rt中,由其确定被写 入到候选集中的信息量,其计算公式为:
rt=σ(Wrxt+Urh′t-1+br) (3)
式中,σ为sigmoid激活函数,xt为经过滑动窗口切分的当前时间步的 序列数据,Wr、Ur、br为重置门的网络参数;
S23:更新门zt用于控制调节后的前一隐藏层信息保留到当前隐藏层的 数量,其计算公式为:
zt=σ(Wzxt+Uzh′t-1+bz) (4)
h′t=tanh(Wxt+U(rt⊙h′t-1)+b) (5)
上式中,zt为更新门的输出,h′t为记忆层候选集的输出,Wz、Uz、bz为更 新门的网络参数,W、U、b为候选集的网络参数;
S24:经过GRU模型的三个单元处理后,得到当前记忆层的输出为:
ht=(1-zt)⊙h′t-1+zt⊙h′t (6)
Ot=f(Woht) (7)
上式中,Ot为输出层的输出,Wo为输出层的网络参数。
优选地,所述S3步骤包括以下步骤:
S30:将query(Q)和每个key(K)通过点积、拼接或感知器等相似 度函数计算得到各时间步的输出层输出结果的权重;
S31:通过softmax函数对得到的权重进行归一化处理;
S32:将权重和与之相对应的value(V)加权求和得出最后的Attention, 其计算公式如下:
Figure BDA0003191845800000054
式中,Q是GRU预测模型中输出层输出Ot的分解向量,
Figure BDA0003191845800000055
是设定的 调节因子;
S33:计算加权后的GRU神经网络模型的预测输出值和实际观测值之 间的均方误差,以最小化模型预测值与实际值为目标,使用优化器优化模 型参数,对模型反向传播训练,在多批次训练后得到最优预测模型。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:本发 明设计了一个自适应的滑动窗口,使原来输入的连续时间序列划分为适合 模型处理的序列数据,并且实时记录了当前时间步的时间间隔。其次在GRU 模型中,本发明针对非等间隔的时间序列做了相应改进,使改进后的预测 模型的预测性能得到一定的提高。
附图说明
图1为本发明的一种基于改进GRU神经网络的非等间隔时序数据预测 模型构建流程示意图。
图2为本发明的面向非等间隔时间序列的改进GRU模型图。
具体实施方式
本发明的目的、优点和特点,将通过下面优选实施例的非限制性说明 进行图示和解释。这些实施例仅是应用本发明技术方案的典型范例,凡采 取等同替换或者等效变换而形成的技术方案,均落在本发明要求保护的范 围之内。
本发明揭示了一种基于改进GRU神经网络的非等间隔时序数据预测方 法,如图1所示,该方法包括以下步骤:
S1:设计连续时间序列下的自适应滑动窗口,根据窗口内观测到的数 据个数恒定不变,以自适应调整窗口大小,并采用完全更新的方式更新窗 口内的元素;
S2:面向非等间隔时间序列的GRU模型改进,改进GRU神经网络对 划分的序列数据进行预测,并根据S1步骤得到的自适应滑动窗口提供的时 间间隔添加调节门,动态调整遗忘信息;
S3:引入注意力机制,完成模型训练,从众多信息中选择出对当前任 务目标更关键的信息,有效捕捉数据的动态变化特征,使相关性分析更加 准确,时间序列通过注意力机制后能快速捕捉特定范围数据的动态变化特 征,提高模型的预测精度,进而完成模型的训练。
在S1步骤中,本技术方案使用基于元素个数的滑动窗口模型,表示某 个时刻窗口内能观测到的数据的个数是恒定的,即元素个数守恒。通过此 模型可以解决非等间隔连续时序数据的分段问题,避免了当某个时间步内 数据量过大或过小导致预测精度不稳定的问题。
具体地,在本技术方案中,所述S1步骤包括以下步骤:
S10:确定滑动窗口的模型;使用基于元素个数的滑动窗口模型,表示 某个时刻窗口内能观测到的数据的个数为恒定,即元素个数守恒;
S11:确定滑动窗口的窗口宽度W;
窗口宽度W对于滑动窗口而言至关重要,W的宽度决定了每次截取到 的数据点的个数,即观测的数据量。根据实时传入的数据量的大小xn动态 确定窗口的宽度,即根据给定的元素个数x0自适应调整窗口大小,当 xn<x0,增大窗口宽度,以提高预测的精度,否则,缩小窗口宽度,避免 数据量过多导致预测压力过大,预测模型精度不稳。
S12:确定窗口内元素的更新方式
采用完全更新的方式,当传入的数据量大小xn达到给定的元素个数x0, 计算当前窗口的时间间隔系数δt,其计算公式为:
Figure BDA0003191845800000071
将计算结果与滑动窗口截取的子序列同时传入GRU模型中进行预测, 待预测结束后将窗口内的所有数据完全更新,即下一时间步的数据量大小 xn+1达到给定的元素个数x0
如图2所示为拟设计的改进GRU模型,图中“+”表示加法运算符,“-” 表示负号,“×”表示乘法运算符,X(t)为输入,经过滑动窗口(ASW模块) 处理后得到时间间隔系数δt和时间序列x(t),ht表示记忆层,既代表当前的 输出,又表示下一层的输入。虚线框中的部分为本发明针对非等间隔时间 序列,在原有的GRU模型上添加了一个调节门(Regulate-gate),具体改进 在以下步骤中陈述。
所述S2步骤包括以下步骤:
S20:将X(t)输入到自适应滑动窗口(ASW)中,将序列进行切分,并从 窗口中获取当前时间步与上一时间步之间的时间间隔系数δt,将其输入调 节门中,由调节门中的失效函数确定遗忘信息的多少,失效函数的参考公 式为:
Invalid(δt)∝1/δt (1)
上述公式表明失效函数与当前时间步t与上一时间步t-1之间的间隔系 数δt成反比;
S21:在记忆层ht-1的信息进入到下个记忆层之前,会通过一个调节门 来决定有多少信息会通过调节门,并使用激活函数tanh将输入映射到输出, 即:
h′t-1=ht-1tanh(1-Invalid(δt)) (2)
式中,h′t-1表示通过调节门处理的前一记忆层信息;ht-1表示处理前 的记忆层信息;
S22:将经过调节的前一记忆层信息输入到重置门rt中,由其确定被写 入到候选集中的信息量,其计算公式为:
rt=σ(Wrxt+Urh′t-1+br) (3)
式中,σ为sigmoid激活函数,xt为经过滑动窗口切分的当前时间步的 序列数据,Wr、Ur、br为重置门的网络参数;
S23:更新门zt用于控制调节后的前一隐藏层信息保留到当前隐藏层的 数量,其计算公式为:
zt=σ(Wzxt+Uzh′t-1+bz) (4)
h′t=tanh(Wxt+U(rt⊙h′t-1)+b) (5)
上式中,zt为更新门的输出,h′t为记忆层候选集的输出,Wz、Uz、bz为更 新门的网络参数,W、U、b为候选集的网络参数;
S24:经过GRU模型的三个单元处理后,得到当前记忆层的输出为:
ht=(1-zt)⊙h′t-1+zt⊙h′t (6)
Ot=f(Woht) (7)
上式中,Ot为输出层的输出,Wo为输出层的网络参数。
注意力机制的本质是一个query(Q)到一系列(key(K)-value(V)) 键值对的映射。通过Query和Key用来计算对应Value的权重系数,对键 值对中元素的Value值进行加权求和得到Attention值,从上述预测模型的 输出中得到预测数据的重要特征,具体步骤如下。
所述S3步骤包括以下步骤:
S30:S30:将query(Q)和每个key(K)通过点积、拼接或感知器等 相似度函数计算得到各时间步的输出层输出结果的权重;
S31:通过softmax函数对得到的权重进行归一化处理;
S32:将权重和与之相对应的value(V)加权求和得出最后的Attention, 其计算公式如下:
Figure BDA0003191845800000093
式中,Q是GRU预测模型中输出层输出Ot的分解向量,
Figure BDA0003191845800000094
是设定的 调节因子,避免因QKT的结果过大导致softmax非零即一的极端情况。
S33:计算加权后的GRU神经网络模型的预测输出值和实际观测值之 间的均方误差,以最小化模型预测值与实际值为目标,使用优化器优化模 型参数,对模型反向传播训练,在多批次训练后得到最优预测模型。
基于改进GRU神经网络模型的非等间隔时序数据预测方法的技术关 键点主要有两部分:连续时间序列下自适应滑动窗口的设计和面向非等间 隔时间序列的GRU模型改进。本技术方案想保护:连续时间序列下自适应 滑动窗口的设计和面向非等间隔时间序列的GRU模型改进。
一种基于改进后的GRU网络构建了一个多维时序数据预测模型图的 具体流程如图1所示,
输入已有的连续时间序列,根据序列数据设计一个基于时间序列特性 的可自适应调整滑动窗口,接收数据的同时,根据时序数据特征,有选择 地改变滑动窗口宽度;同时,记录滑动窗口宽度与时间间隔参数,与切分 后的时序数据一并输入到改进GRU预测模型中,最后依据预测得到的数据 与实际数据设计损失函数,对模型进行多批次反向传播训练,以便更新模 型参数完善模型。
使用基于元素个数的滑动窗口设计方法,根据窗口内观测到的数据个 数恒定不变,以自适应调整窗口大小,更新窗口内的元素。改进GRU神经 网络对切分的序列数据进行预测,并根据自适应滑动窗口提供的时间间隔 添加调节门,动态调整遗忘信息。注意力机制(Attention Mechanism,AM)可 以从众多信息中选择出对当前任务目标更关键的信息,有效捕捉数据的动 态变化特征,使得相关性分析能更加准确,而时间序列通过注意力机制后 能快速捕捉特定范围数据的动态变化特征,提高模型的预测精度,进而完 成模型的训练。
针对输入的数据时间间隔具有不稳定的特性,在输入数据前添加一个 自适应滑动窗口,在自适应切分连续数据的同时获取数据间的时间间隔, 从而解决时间间隔的时变问题,提高预测模型的可用性;其次,为了解决 多维时序数据下遗忘信息的量不确定导致预测性能不可靠的问题,在GRU 原有模型的重置门之前添加一个调节门,根据接收到的数据实时时间间隔, 确定实时状态下的遗忘信息的多少,进而提高模型的预测性能。
本发明可以应用于目前金融领域或者工业领域中实时产生的连续非等 间隔多维时序数据。首先设计一个基于元素个数的自适应滑动窗口,将这 些连续不间断的序列划分为适合模型处理的间断序列,并将当前时间步的 实时时间间隔传入到模型中;其次,GRU模型接收到时间间隔参数,根据 设计的调节门中的调节函数进行处理,明确了前一时间步到当前时间步的 遗忘信息量,从而计算出当前的预测输出值;最后,通过引入注意力机制,为预测的输出值进行权重衡量,获取数据间的依赖关系,与实际观测值进 行误差分析,通过不断更新模型的参数完成预测模型的训练。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细 节,而且在不背离本发明的精神和基本特征的情况下,能够以其他的具体 形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性 的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限 定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括 在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要 求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个 实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清 楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术 方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。 本发明尚有多种实施方式,凡采用等同变换或者等效变换而形成的所有技 术方案,均落在本发明的保护范围之内。

Claims (4)

1.一种基于改进GRU神经网络的非等间隔时序数据预测方法,其特征在于:
该方法包括以下步骤:
S1:设计连续时间序列下的自适应滑动窗口,根据窗口内观测到的数据个数恒定不变,以自适应调整窗口大小,并采用完全更新的方式更新窗口内的元素;
S2:面向非等间隔时间序列的GRU模型改进,改进GRU神经网络对划分的序列数据进行预测,并根据S1步骤得到的自适应滑动窗口提供的时间间隔添加调节门,动态调整遗忘信息;
S3:引入注意力机制,完成模型训练,从众多信息中选择出对当前任务目标更关键的信息,有效捕捉数据的动态变化特征,使相关性分析更加准确,时间序列通过注意力机制后能快速捕捉特定范围数据的动态变化特征,提高模型的预测精度,进而完成模型的训练。
2.根据权利要求1所述的一种基于改进GRU神经网络的非等间隔时序数据预测方法,其特征在于:所述S1步骤包括以下步骤:
S10:确定滑动窗口的模型;使用基于元素个数的滑动窗口模型,表示某个时刻窗口内能观测到的数据的个数为恒定,即元素个数守恒;
S11:确定滑动窗口的窗口宽度W;
根据实时传入的数据量的大小xn动态确定窗口的宽度,即根据给定的元素个数x0自适应调整窗口大小,当xn<x0,增大窗口宽度,以提高预测的精度,否则,缩小窗口宽度,避免数据量过多导致预测压力过大,预测模型精度不稳;
S12:确定窗口内元素的更新方式
采用完全更新的方式,当传入的数据量大小xn达到给定的元素个数x0,计算当前窗口的时间间隔系数δt,其计算公式为:
Figure FDA0003191845790000021
将计算结果与滑动窗口截取的子序列同时传入GRU模型中进行预测,待预测结束后将窗口内的所有数据完全更新,即下一时间步的数据量大小xn+1达到给定的元素个数x0
3.根据权利要求1所述的一种基于改进GRU神经网络的非等间隔时序数据预测方法,其特征在于:
所述S2步骤包括以下步骤:
S20:将X(t)输入到自适应滑动窗口(ASW)中,将序列进行切分,并从窗口中获取当前时间步与上一时间步之间的时间间隔系数δt,将其输入调节门中,由调节门中的失效函数确定遗忘信息的多少,失效函数的参考公式为:
Invalid(δt)∝1/δt (1)
上式表明失效函数与当前时间步t与上一时间步t-1之间的间隔系数δt成反比;
S21:在记忆层的信息进入到下个记忆层之前,会通过一个调节门来决定有多少信息会通过调节门,并使用激活函数tanh将输入映射到输出,即:
h′t-1=ht-1tanh(1-Invalid(δt)) (2)
式中,h′t-1表示通过调节门处理的前一记忆层信息,ht-1表示处理前的记忆层信息;
S22:将经过调节的前一记忆层信息输入到重置门rt中,由其确定被写入到候选集中的信息量,其计算公式为:
rt=σ(Wrxt+Urh′t-1+br) (3)
式中,σ为sigmoid激活函数,xt为经过滑动窗口切分的当前时间步的序列数据,Wr、Ur、br为重置门的网络参数;
S23:更新门用于控制调节后的前一隐藏层信息保留到当前隐藏层的数量,其计算公式为:
zt=σ(Wzxt+Uzh′t-1+bz) (4)
h′t=tanh(Wxt+U(rt⊙h′t-1)+b) (5)
上式中,zt为更新门的输出,h′t为记忆层候选集的输出,Wz、Uz、bz为更新门的网络参数,W、U、b为候选集的网络参数;
S24:经过GRU模型的三个单元处理后,得到处理后的当前记忆层的输出为:
ht=(1-zt)⊙h′t-1+zt⊙h′t (6)
Ot=f(Woht) (7)
上式中,Ot为输出层的输出,WO为输出层的网络参数。
4.根据权利要求1所述的一种基于改进GRU神经网络的非等间隔时序数据预测方法,其特征在于:
所述S3步骤包括以下步骤:
S30:将query(Q)和每个key(K)通过点积、拼接或感知器等相似度函数计算得到各时间步的输出层输出结果的权重;
S31:通过softmax函数对得到的权重进行归一化处理;
S32:将权重和与之相对应的value(V)加权求和得出最后的Attention,其计算公式如下:
Figure FDA0003191845790000031
式中,Q是GRU预测模型中输出层输出Ot的分解向量,
Figure FDA0003191845790000041
是设定的调节因子;
S33:计算加权后的GRU神经网络模型的预测输出值和实际观测值之间的均方误差,以最小化模型预测值与实际值为目标,使用优化器优化模型参数,对模型反向传播训练,在多批次训练后得到最优预测模型。
CN202110885221.1A 2021-08-02 2021-08-02 一种基于改进gru神经网络的非等间隔时序数据预测方法 Pending CN114139677A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110885221.1A CN114139677A (zh) 2021-08-02 2021-08-02 一种基于改进gru神经网络的非等间隔时序数据预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110885221.1A CN114139677A (zh) 2021-08-02 2021-08-02 一种基于改进gru神经网络的非等间隔时序数据预测方法

Publications (1)

Publication Number Publication Date
CN114139677A true CN114139677A (zh) 2022-03-04

Family

ID=80394132

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110885221.1A Pending CN114139677A (zh) 2021-08-02 2021-08-02 一种基于改进gru神经网络的非等间隔时序数据预测方法

Country Status (1)

Country Link
CN (1) CN114139677A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115238753A (zh) * 2022-09-21 2022-10-25 西南交通大学 一种基于局部离群因子的自适应shm数据清洗方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115238753A (zh) * 2022-09-21 2022-10-25 西南交通大学 一种基于局部离群因子的自适应shm数据清洗方法
CN115238753B (zh) * 2022-09-21 2022-12-06 西南交通大学 一种基于局部离群因子的自适应shm数据清洗方法

Similar Documents

Publication Publication Date Title
Zhang et al. At-lstm: An attention-based lstm model for financial time series prediction
Dasgupta et al. Nonlinear dynamic Boltzmann machines for time-series prediction
CN108182259B (zh) 基于深度长短期记忆神经网络对多变量时间序列分类方法
CN108959728B (zh) 基于深度学习的射频器件参数优化方法
CN111563706A (zh) 一种基于lstm网络的多变量物流货运量预测方法
CN110580496A (zh) 一种基于熵最小化的深度迁移学习系统及方法
Dubois et al. Data-driven predictions of the Lorenz system
CN109934158B (zh) 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
Du et al. Exploration of financial market credit scoring and risk management and prediction using deep learning and bionic algorithm
CN108764568B (zh) 一种基于lstm网络的数据预测模型调优方法及装置
CN110471276B (zh) 用于为物理系统创建模型函数的装置
JP6704583B2 (ja) 学習システムおよび学習方法
CN113065703A (zh) 一种结合多种模型的时间序列预测方法
Petelin et al. Control system with evolving Gaussian process models
CN113302605A (zh) 鲁棒且数据效率的黑盒优化
CN115018193A (zh) 基于lstm-ga模型的时间序列风能数据预测方法
CN114358197A (zh) 分类模型的训练方法及装置、电子设备、存储介质
CN112348571A (zh) 基于销售预测系统的组合模型销售预测方法
CN116542701A (zh) 一种基于cnn-lstm组合模型的碳价预测方法及系统
CN114139677A (zh) 一种基于改进gru神经网络的非等间隔时序数据预测方法
US20210166131A1 (en) Training spectral inference neural networks using bilevel optimization
CN114330119A (zh) 一种基于深度学习的抽蓄机组调节系统辨识方法
CN117574776A (zh) 一种面向任务规划的模型自学习优化方法
Springer et al. Robust parameter estimation of chaotic systems
CN114186771B (zh) 一种混合正则化随机配置网络工业过程运行指标估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination