CN113298131A - 一种基于注意力机制的时序数据缺失值插补方法 - Google Patents

一种基于注意力机制的时序数据缺失值插补方法 Download PDF

Info

Publication number
CN113298131A
CN113298131A CN202110533285.5A CN202110533285A CN113298131A CN 113298131 A CN113298131 A CN 113298131A CN 202110533285 A CN202110533285 A CN 202110533285A CN 113298131 A CN113298131 A CN 113298131A
Authority
CN
China
Prior art keywords
time sequence
sequence data
data
value
complete
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110533285.5A
Other languages
English (en)
Other versions
CN113298131B (zh
Inventor
季微
金博斌
李云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110533285.5A priority Critical patent/CN113298131B/zh
Publication of CN113298131A publication Critical patent/CN113298131A/zh
Application granted granted Critical
Publication of CN113298131B publication Critical patent/CN113298131B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于注意力机制的时序数据缺失值的插补方法,其包括:获取有缺失值的时序数据;将有缺失值的时序数据输入训练后的生成器,获取插补后的时序数据;其中,生成器的训练包括:将有缺失值的时序数据输入生成器,基于注意力机制获取完整的时序数据;将有缺失值的时序数据和完整的时序数据输入判别器,基于损失函数,对判别器和生成器进行对抗式训练。本发明能够生成符合原始数据集分布的新时序数据。通过试用注意力机制可以增强特征中重要特征的表达能力,减少不重要特征的表达能力,同时可以提到处理效率。通过上述方法,我们就能提升时间序列缺失值插补的准确率以及提高插补效率。

Description

一种基于注意力机制的时序数据缺失值插补方法
技术领域
本发明涉及一种基于注意力机制的时序数据缺失值插补方法,属于计算机科学技术领域。
背景技术
近年来,随着人工智能技术的发展,时序数据在人类生活中出现的频率也越来越高。时序数据是将同一统计指标的数值按发生的时间先后顺序排列而成的数列,反映了事物及行为随着时间的变化而发生的状态变化和发展规律。常见的时间序列包括一些医疗数据,如一天中糖尿病人的血糖值随时间发生的变化,还包括网站访问量、道路交通量等在不同时间的变化等。
由于数据采集设备的不稳定性或者被干扰等原因,常常导致采集到的数据发生缺失。时间序列数据的缺失会给数据的分析建模和实际应用造成一定的困难。例如,根据历史天气状况预测未来的天气情况时,如果历史数据有缺失,将会影响到预测的准确率。因此,需要寻找一种准确有效的方法对不完整的数据集进行缺失值插补,以得到完整的能无限接近真实数据的数据集。
近年来,深度学习在人工智能领域取得了巨大的成功,并迅速成为人工智能领域的主导技术。深度学习预测模型需要基于完整的数据集开展网络训练以及参数优化,以学习数据的历史变化规律。数据集缺失的部分往往隐含着数据的历史变化规律,由于这部分的缺失将导致模型无法被完全驱动,最终训练得到的参数也会与最佳参数有较大的差异。因此,时间序列数据缺失值的有效处理技术具有很好的研究意义和实际用途。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种基于注意力机制的时序数据缺失值插补方法,解决传统的生成对抗网络结构中,生成器的输入是一个随机向量,直接用它来进行时序数据缺失值的填充,需要耗费大量的时间来为每条时序数据寻找最优的输入向量,从而导致时序数据缺失值的插补效率大大降低的技术问题。
为达到上述目的,本发明是采用下述技术方案实现的:
本发明提供了一种基于注意力机制的时序数据缺失值插补方法,包括以下步骤:
获取有缺失值的时序数据;
将有缺失值的时序数据输入训练后的生成器,获取插补后的时序数据;
其中,生成器的训练包括:
将有缺失值的时序数据输入生成器,基于注意力机制获取完整的时序数据;
将有缺失值的时序数据和完整的时序数据输入判别器,基于损失函数,对判别器和生成器进行对抗式训练。
进一步的,所述生成器为包括编码器单元和解码器单元的降噪自编码器。
进一步的,所述获取完整的时序数据包括:
编码器单元根据输入的预设长度为m且有缺失值的原始时序数据x和随机噪声向量η,输出原始时序数据x的隐藏向量H;
解码器单元根据原始时序数据x和隐藏向量H结合注意力机制对原始时序数据x的缺失值进行插补,获取完整的时序数据
Figure BDA0003068725750000021
进一步的,所述对原始时序数据x的缺失值进行插补,获取完整的时序数据
Figure BDA0003068725750000031
包括:
根据第n时刻的原始时序数据Sn-1与每一时刻的隐藏向量H结合注意力机制,获取每个时刻的权重因子α;
根据每个时刻的权重因子α对所有隐藏向量H作加权平均;
将加权平均的结果带入双曲正切函数得到第n时刻的原始时序数据的完整值Sn
将第n时刻的原始时序数据的完整值Sn作为第n+1时刻的原始时序数据带入上述步骤,循环计算得到所有时刻的原始时序数据的完整值S;
根据上述所有时刻的原始时序数据的完整值S获取完整的时序数据
Figure BDA0003068725750000034
其中,H={H1,H2,H3,…,Hi,…,Hm},Hi为第i时刻的隐藏向量,α={α1,α2,α3,…,αi,…,αm},αi为第i时刻的权重因子,S={S1,S2,S3,…,Sn,…,Sm},Sn为第n时刻的原始时序数据的完整值,S0=Hm,即解码器的初始输入向量为S0
进一步的,所述获得每个时刻的权重因子α包括:
Ki=Wk·Hi
Qn-1=Wq·Sn-1
其中,Ki为注意力机制中第i个key值,Hi为第i时刻的隐藏向量;Qn-1为注意力机制中第n-1个query值,Sn-1为第n-1时刻的原始时序数据;Wk和Wq是从训练数据中学习得到的参数矩阵,Wk和Wq的初始值由随机初始化参数矩阵获得,并通过生成对抗网络的损失函数和反向传播算法进行更新;
令:
Figure BDA0003068725750000032
其中,
Figure BDA0003068725750000033
为矩阵Ki的转置矩阵;
Figure BDA0003068725750000041
其中,αi为第i时刻的权重因子,softmax函数为归一化指数函数,用于将输入的
Figure BDA0003068725750000042
值映射成0-1之间的正数输出,且其所有输出的权重因子α之和为1。
进一步的,所述将加权平均的结果带入双曲正切函数得到第n时刻的原始时序数据的完整值Sn包括:
加权平均值的结果为:
Cn-1=α1H12H2+…+αiHi+…+αmHm
令:
Figure BDA0003068725750000043
其中,tanh函数是双曲正切函数,其表达式如下:
Figure BDA0003068725750000044
ωn和bn是从训练数据中学习得到的参数,ωn和bn的初始值由随机初始化参数获得,并通过生成对抗网络的损失函数和反向传播算法进行更新。
进一步的,所述对判别器和生成器进行对抗式训练包括:
利用损失函数训练判别器:
Figure BDA0003068725750000045
其中,D(x)是判别器对输入的原始时序数据x判定为真的概率值,
Figure BDA0003068725750000046
为判别器对输入的完整的时序数据
Figure BDA0003068725750000047
判定为真的概率值;
利用损失函数训练生成器:
Figure BDA0003068725750000048
其中,λ为超参数,重复多次,直至判别器输出的概率接近0.5停止训练。
与现有技术相比,本发明所达到的有益效果:
本发明的一种基于注意力机制的时序数据缺失值插补方法,利用生成对抗网络,结合注意力机制,提出了一种基于注意力机制的时序数据缺失值填充方法。经过对抗式训练,该方法能够生成符合原始数据集分布的新时序数据。通过试用注意力机制可以增强特征中重要特征的表达能力,减少不重要特征的表达能力,同时可以提到处理效率。通过上述方法,我们就能提升时间序列缺失值插补的准确率以及提高插补效率。
附图说明
图1是本发明实施例中生成对抗网络生成器的具体结构图;
图2是本发明实施例中生成对抗网络判别器的具体结构图;
图3是本发明实施例中时序数据缺失值插补过程流程图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明以数据集KDD CUP 2018Dataset(后文简称KDD)为例,详细说明该方法在其上进行缺失值插补的步骤。该数据集是一个来自于KDD杯2018挑战赛的气象数据集。该数据集包含了北京的历史气象数据,由分处北京各地的多个气象观测站的数据组成。本文选择了其中11个气象观测站的数据,每个气象观测站的数据都包含了从2017年1月1日到2017年12月30日的每隔一小时的气象与空气质量数据的记录。具体记录了包括PM2.5,PM10,一氧化碳和温度等12个属性。
如图3所示:
步骤1:按照图1搭建生成对抗网络的生成器,其中生成器是一个降噪自编码器,包含编码器和解码器两个部分。将长度为m的原始时间序列x(有缺失,图1中用X表示缺失的数据)和随机噪声向量η输入降噪自编码器的编码器部分输出隐藏向量Hm,即
Hm=Encoder(x+η)
编码器和解码器均由循环神经网络(Recurrent Neural Network,RNN)单元构成。为与原始数据具有一定程度的差异性,在降噪自编码器编码器单元重构数据的过程中,我们加入了随机噪声η,以减少过拟合现象的发生,重构出更加准确的数据。
步骤1.1:把原始的带有缺失的时间序列按时间顺序输入到图1所示的编码器中。
步骤1.2:在原始时序数据x(有缺失)中添加随机噪声η。
步骤1.3:由降噪自编码器的编码器部分完成编码过程,
原始时间序列的长度为m。编码器总共有m个RNN隐藏层输出,分别为H1,H2,H3,...,Hm。图1中以一个时间长度为4,属性数也为4的时间序列来举例说明,每一行代表一个属性,每一列代表一个时刻,所以是一个4×4的矩阵形式,RNN最后的隐藏层输出也就是H4
步骤2:通过步骤1我们得到了编码器部分RNN单元的每一个隐藏层的输出,但是最终我们输入进解码器部分的只是最后一个隐藏层的输出Hm。令S0=Hm,即解码器的初始输入向量为S0,它包含了输入的原始时间列的信息。降噪自编码器的解码器按照时间顺序一步步输出完整的插补过后的时间序列数据。下面对每一个时刻的数据插补分解为子步骤进行说明。
步骤2.1:首先我们要进行初始时刻t1的数据插补,我们需要计算解码器的初始输入向量S0与编码器每一时刻输出的隐含向量H1,H2,H3,...,Hm等的相关性,得到权重记作αi,1≤i≤m。α1到αm都是介于0到1之间的实数。下面具体说明α1到αm的计算流程。
步骤2.1.1:根据步骤1中各个隐藏层的输出计算参数
Ki=Wk·Hi,i=1,2,3,...,m
Q0=Wq·S0
其中,Ki即注意力机制里面的key值,Q0即注意力机制里面的query值,下标代表第几个值。“.”表示乘法运算。Wk和Wq是从训练数据中学习得到的参数矩阵,我们先随机初始化参数矩阵Wk和Wq,然后进行更新,参数矩阵的更新要借助生成对抗网络的损失函数和反向传播算法,生成对抗网络的损失函数在后续步骤3中有介绍。
Figure BDA0003068725750000071
其中,“T”表示转置运算,
Figure BDA0003068725750000072
即矩阵Ki的转置矩阵。
S0与编码器RNN单元前m-1个时刻的隐藏状态的权重为
Figure BDA0003068725750000073
其中,softmax函数又称归一化指数函数,将输入的
Figure BDA0003068725750000074
Figure BDA0003068725750000075
值映射成0到1之间的正数,且输出结果值的和相加起来等于1。
步骤2.1.2:利用步骤2.1.1所得的权重因子αi,对步骤1中编码器所有历史隐藏向量H作加权平均,得:
C0=α1H1+…+αmHm
进一步,令
Figure BDA0003068725750000081
tanh函数是双曲正切函数,它的定义式为:
Figure BDA0003068725750000082
ω1和b1是从训练数据中学习得到的参数,我们先随机初始化参数ω1和b1,然后进行更新,参数的更新依然是借助步骤三中生成对抗网络的损失函数和反向传播算法。
这样就得到解码器RNN第一个单元的输出S1,即初始时刻t1的完整数据值。至此,初始时刻t1的数据插补已经完成,接下来进入下一时刻t2的数据插补。
步骤2.2:重新计算当前状态S1与编码器m个H状态的权重,记作α1,α2,…,αm,值得注意的是虽然之前已经计算过了权重α,但是此时由于S状态从S0更新到S1,所以新的权重α并不能直接使用之前计算的,新的权重α代表的是当前状态S1与编码器m个H之间的关系。新的α的计算方法和之前的区别在于这里是参数Q是Q1,即:
Ki=Wk·Hi,i=1,2,3,...,m
Q1=Wq·S1
Figure BDA0003068725750000083
Figure BDA0003068725750000084
通过公式计算出向量C1
C1=α1H1+…+αmHm
通过公式:
Figure BDA0003068725750000091
得到解码器RNN第二个单元的输出S2,即时刻t2的完整数据值。至此,时刻t2的数据插补已经完成,接下来进入后续时刻的数据插补。
步骤2.3、按照上述方法依次进行,每一时刻都要按步骤2.2中的公式更新参数Qi,αi,Ci,通过更新后的参数计算时刻ti的输出Si,即时刻ti的时序数据值,在最末时刻tm停止,tm时刻的输出是Sm,即时刻m的时序数据值。最后能得到完整的插补过后的时间序列数据。
步骤3、将生成器生成后的完整的时间序列和原始时间序列输入到判别器,判别器的结构如附图2所示,通过判别器输出一个概率值,该值代表生成的序列为真实序列的概率。通过对判别器和生成器的对抗式的训练可以得到插补后的完整时间数据。具体的训练方法是先固定住生成器,利用损失函数:
Figure BDA0003068725750000092
训练判别器,D(x)是判别器对输入的真实的原始缺失时序数据判定为真的概率值(图2中的P真),
Figure BDA0003068725750000093
代表假的生成的完整时序数据,
Figure BDA0003068725750000094
是判别器对输入的假的生成的完整时序数据判定为真的概率值。然后利用损失函数:
Figure BDA0003068725750000095
训练生成器,λ是超参数,重复多次,直到判别器输出的概率接近0.5停止训练。
综上所述,本发明所提的时间序列缺失值插补方法以生成对抗网络作为基本框架。传统的生成对抗网络结构中,生成器的输入是一个随机向量,直接用它来进行时序数据缺失值的填充,需要耗费大量的时间来为每条时序数据寻找最优的输入向量,从而导致时序数据缺失值的插补效率大大降低。
本发明所提的时间序列缺失值插补方法舍弃了传统生成对抗网络框架中需要对每条时序数据寻找最优输入向量的步骤,而是通过采用降噪自编码器得到时序数据的低维特征表达向量,然后利用该低维特征表达向量来重构完整的时序数据,从而节省了大量的训练时间。
本发明使用的生成对抗网络的生成器部分采用了降噪自编码器。降噪自编码器是一种利用反向传播算法使得输出值等于输入值的神经网络。降噪自编码器包含一个编码器和一个解码器,它先将输入压缩成潜在空间表征,然后通过这种表征来重构输出。降噪自编码器与人眼的感知机制类似,当人眼在观测物体时,即便物体的部分轮廓没有进入视野,人眼也可以识别出物体的种类,因而降噪自编码器不但能够学习输入数据的低维特征表达向量,也能用于修复丢失的数据。正由于其输入数据本来就不是完整的,因而可以很自然地被应用于缺失值填充算法当中。
利用降噪自编码器的编码器部分自动为每条带有缺失值的原始时序数据生成对应的低维度向量,然后将生成的低维度向量作为降噪自编码器解码器部分的输入,解码器按时序数据的时间顺序对其进行插补,在当前时刻插补完成后进入下一时刻,整个网络基于注意力机制自动分配权重,利用这些权重我们可以得到编码器各个隐藏向量的加权平均,可使编码器输出的低维特征向量更适合用于当前时刻的数据插补,从而解决长时间序列的信息遗忘问题,提高插补精确度。
将生成器生成的完整的时序数据和原始数据集中有缺失的时序数据,一同输入到判别器中,完成对生成器和判别器的对抗式训练后,可以认为生成器能够根据原始时序数据x生成符合原始数据集分布的新样本,即缺失值插补后的原始时序数据。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (7)

1.一种基于注意力机制的时序数据缺失值插补方法,其特征在于,包括以下步骤:
获取有缺失值的时序数据;
将有缺失值的时序数据输入训练后的生成器,获取插补后的时序数据;
其中,生成器的训练包括:
将有缺失值的时序数据输入生成器,基于注意力机制获取完整的时序数据;
将有缺失值的时序数据和完整的时序数据输入判别器,基于损失函数,对判别器和生成器进行对抗式训练。
2.根据权利要求1所述的一种基于注意力机制的时序数据缺失值插补方法,其特征在于,所述生成器为包括编码器单元和解码器单元的降噪自编码器。
3.根据权利要求2所述的一种基于注意力机制的时序数据缺失值插补方法,其特征在于,所述获取完整的时序数据包括:
编码器单元根据输入的预设长度为m且有缺失值的原始时序数据x和随机噪声向量η,输出原始时序数据x的隐藏向量H;
解码器单元根据原始时序数据x和隐藏向量H结合注意力机制对原始时序数据x的缺失值进行插补,获取完整的时序数据
Figure FDA0003068725740000011
4.根据权利要求3所述的一种基于注意力机制的时序数据缺失值插补方法,其特征在于,所述对原始时序数据x的缺失值进行插补,获取完整的时序数据
Figure FDA0003068725740000012
包括:
根据第n时刻的原始时序数据Sn-1与每一时刻的隐藏向量H结合注意力机制,获取每个时刻的权重因子α;
根据每个时刻的权重因子α对所有隐藏向量H作加权平均;
将加权平均的结果带入双曲正切函数得到第n时刻的原始时序数据的完整值Sn
将第n时刻的原始时序数据的完整值Sn作为第n+1时刻的原始时序数据带入上述步骤,循环计算得到所有时刻的原始时序数据的完整值S;
根据上述所有时刻的原始时序数据的完整值S获取完整的时序数据
Figure FDA0003068725740000021
其中,H={H1,H2,H3,…,Hi,…,Hm},Hi为第i时刻的隐藏向量,α={α1,α2,α3,…,αi,…,αm},αi为第i时刻的权重因子,S={S1,S2,S3,…,St,…,Sm},St为第t时刻的原始时序数据的完整值,S0=Hm,即解码器的初始输入向量为S0
5.根据权利要求4所述的一种基于注意力机制的时序数据缺失值插补方法,其特征在于,所述获得每个时刻的权重因子α包括:
Ki=Wk·Hi
Qn-1=Wq·Sn-1
其中,Ki为注意力机制中第i个key值,Hi为第i时刻的隐藏向量;Qn-1为注意力机制中第n-1个query值,Sn-1为第n-1时刻的原始时序数据;Wk和Wq是从训练数据中学习得到的参数矩阵,Wk和Wq的初始值由随机初始化参数矩阵获得,并通过生成对抗网络的损失函数和反向传播算法进行更新;
令:
Figure FDA0003068725740000022
其中,
Figure FDA0003068725740000023
为矩阵Ki的转置矩阵;
Figure FDA0003068725740000024
其中,αi为第i时刻的权重因子,softmax函数为归一化指数函数,用于将输入的
Figure FDA0003068725740000031
值映射成0-1之间的正数输出,且其所有输出的权重因子α之和为1。
6.根据权利要求4所述的一种基于注意力机制的时序数据缺失值插补方法,其特征在于,所述将加权平均的结果带入双曲正切函数得到第n时刻的原始时序数据的完整值Sn包括:
加权平均值的结果为:
Cn-1=α1H12H2+…+αiHi+…+αmHm
令:
Figure FDA0003068725740000032
其中,tanh函数是双曲正切函数,其表达式如下:
Figure FDA0003068725740000033
ωn和bn是从训练数据中学习得到的参数,ωn和bn的初始值由随机初始化参数获得,并通过生成对抗网络的损失函数和反向传播算法进行更新。
7.根据权利要求3所述的一种基于注意力机制的时序数据缺失值插补方法,其特征在于,所述对判别器和生成器进行对抗式训练包括:
利用损失函数训练判别器:
Figure FDA0003068725740000034
其中,D(x)是判别器对输入的原始时序数据x判定为真的概率值,
Figure FDA0003068725740000035
为判别器对输入的完整的时序数据
Figure FDA0003068725740000036
判定为真的概率值;
利用损失函数训练生成器:
Figure FDA0003068725740000037
其中,λ为超参数,重复多次,直至判别器输出的概率接近0.5停止训练。
CN202110533285.5A 2021-05-17 2021-05-17 一种基于注意力机制的时序数据缺失值插补方法 Active CN113298131B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110533285.5A CN113298131B (zh) 2021-05-17 2021-05-17 一种基于注意力机制的时序数据缺失值插补方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110533285.5A CN113298131B (zh) 2021-05-17 2021-05-17 一种基于注意力机制的时序数据缺失值插补方法

Publications (2)

Publication Number Publication Date
CN113298131A true CN113298131A (zh) 2021-08-24
CN113298131B CN113298131B (zh) 2022-08-05

Family

ID=77322360

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110533285.5A Active CN113298131B (zh) 2021-05-17 2021-05-17 一种基于注意力机制的时序数据缺失值插补方法

Country Status (1)

Country Link
CN (1) CN113298131B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469189A (zh) * 2021-09-02 2021-10-01 国网江西省电力有限公司供电服务管理中心 一种用电采集数据缺失值填充方法、系统及装置
CN117373375A (zh) * 2023-10-25 2024-01-09 昊天智显科技有限公司 一种板载led互动系统及其控制方法
WO2024087129A1 (zh) * 2022-10-24 2024-05-02 大连理工大学 针对航空发动机数据重构的生成对抗多头注意力神经网络自学习方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090558A (zh) * 2018-01-03 2018-05-29 华南理工大学 一种基于长短期记忆网络的时间序列缺失值自动填补方法
CN112465150A (zh) * 2020-12-02 2021-03-09 南开大学 基于真实数据增强的多元时序数据填充方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090558A (zh) * 2018-01-03 2018-05-29 华南理工大学 一种基于长短期记忆网络的时间序列缺失值自动填补方法
CN112465150A (zh) * 2020-12-02 2021-03-09 南开大学 基于真实数据增强的多元时序数据填充方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469189A (zh) * 2021-09-02 2021-10-01 国网江西省电力有限公司供电服务管理中心 一种用电采集数据缺失值填充方法、系统及装置
WO2024087129A1 (zh) * 2022-10-24 2024-05-02 大连理工大学 针对航空发动机数据重构的生成对抗多头注意力神经网络自学习方法
CN117373375A (zh) * 2023-10-25 2024-01-09 昊天智显科技有限公司 一种板载led互动系统及其控制方法

Also Published As

Publication number Publication date
CN113298131B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN113298131B (zh) 一种基于注意力机制的时序数据缺失值插补方法
CN108763377B (zh) 基于卫星故障诊断多源遥测大数据特征提取预处理方法
CN110138595A (zh) 动态加权网络的时间链路预测方法、装置、设备及介质
CN111582610A (zh) 基于卷积神经网络对家庭能量分解的预测方法
CN112884236B (zh) 一种基于vdm分解与lstm改进的短期负荷预测方法及系统
CN115511177A (zh) 基于ingo-swgmn混合模型的超短期风速预测方法
CN112365033B (zh) 一种风电功率区间预测方法、系统及存储介质
CN114694379B (zh) 一种基于自适应动态图卷积的交通流预测方法及系统
CN111461455A (zh) 一种基于关联周期注意力机制的行为预测方法
US20240115170A1 (en) Two-stage blood glucose prediction method based on pre-training and data decomposition
CN113128666A (zh) 基于Mo-S-LSTMs模型的时间序列多步预测方法
CN115766125A (zh) 一种基于lstm和生成对抗网络的网络流量预测方法
CN116702831A (zh) 一种考虑数据大量丢失的混合短期风电功率预测方法
CN114139783A (zh) 基于非线性加权组合的风电短期功率预测方法及装置
CN115687860A (zh) 融合神经微分方程的对抗自编码器不完备数据预测方法
CN114037143A (zh) 一种短期风电功率组合预测方法
CN116737943A (zh) 面向新闻领域的时序知识图谱链路预测方法
CN117094431A (zh) 一种多尺度熵门控的DWTformer气象数据时序预测方法及设备
CN116050478A (zh) 基于注意力机制的时间序列填补方法
CN116563524A (zh) 一种基于多视觉记忆单元的扫视路径预测方法
CN114611134A (zh) 基于负数据库和深度学习的多元时序数据隐私保护方法
CN113537573B (zh) 基于双重时空特征提取的风电功率运行趋势预测方法
AL-ASADI Interval-valued data analysis: a review
Kunqiao et al. Short-term load forecasting based on ELM combined model
CN118364500A (zh) 一种具有差分隐私的条件wgan-gp的数据隐私保护方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Ji Wei

Inventor after: Jin Bobin

Inventor after: Li Yun

Inventor before: Ji Wei

Inventor before: Jin Bobin

Inventor before: Li Yun

GR01 Patent grant
GR01 Patent grant