CN112712117A - 一种基于全卷积注意力的多元时间序列分类方法及系统 - Google Patents

一种基于全卷积注意力的多元时间序列分类方法及系统 Download PDF

Info

Publication number
CN112712117A
CN112712117A CN202011601945.0A CN202011601945A CN112712117A CN 112712117 A CN112712117 A CN 112712117A CN 202011601945 A CN202011601945 A CN 202011601945A CN 112712117 A CN112712117 A CN 112712117A
Authority
CN
China
Prior art keywords
time
variable
attention
vector
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011601945.0A
Other languages
English (en)
Other versions
CN112712117B (zh
Inventor
金佳佳
韩潇
丁锴
王开红
李建元
陈涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Enjoyor Co Ltd
Original Assignee
Enjoyor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Enjoyor Co Ltd filed Critical Enjoyor Co Ltd
Priority to CN202011601945.0A priority Critical patent/CN112712117B/zh
Publication of CN112712117A publication Critical patent/CN112712117A/zh
Application granted granted Critical
Publication of CN112712117B publication Critical patent/CN112712117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于全卷积注意力的多元时间序列分类方法及系统,本发明利用图像领域中全卷积的设计思路,使用2D卷积滤波器捕获多元时间序列局部变量特征以学习相邻变量之间的联动关系,同时使用2D卷积滤波器捕获多元时间序列局部时间特征以学习相邻时间之间的趋势信息,减弱突变信息对结果的影响;采用卷积加自注意力模型,多核卷积获取多种局部特征,自注意力模型计算多种局部特征和非局部特征的权重,提供了不同的视角去审视多元时间序列数据;采用注意力模型分别融合对应视角的变量和时间特征,同时学习到变量的全局依赖关系以及时间的全局依赖关系;采用权重矩阵方法融合多视角的特征,学习更全面更准确的时间变量交互特征。

Description

一种基于全卷积注意力的多元时间序列分类方法及系统
技术领域
本发明涉及一种分装盒,尤其涉及一种基于全卷积注意力的多元时间序列分类方法及系统。
背景技术
时间序列是按照时间排序的一组随机变量,它通常是在相等间隔的时间段内依照给定的采样率对某种潜在过程进行观测的结果。时间序列数据本质上反映的是某个或者某些随机变量随时间不断变化的趋势,而时间序列分类方法的核心就是从数据中挖掘出这种规律,并利用其对将来的数据做出类别预测。现实生活中,在一系列时间点上观测数据是司空见惯的活动,在农业、商业、气象、军事和医疗等研究领域都包含大量的时间序列数据。总之,目前时间序列数据正以不可预测的速度几乎产生于现实生活中的每一个应用领域。
多元时间序列数据分析是指对多变量时间序列的研究,实际中很多序列的变化规律都会受到其他序列的影响。例如,在工程上要研究电流与电压同时随时间变化的情况;在化学变化中要分析压力、温度和体积的变化关系;在气象预报分析时需要同时考虑该地区的雨量、气温和气压等记录资料。不仅要把他们各分量看做单变量过程来研究,而且要研究各分量之间的关系及变化规律,从而对时间序列做出预报和控制。多元时间序列数据的特点使多元时间序列分类存在以下两个难点:1、多元时间序列中的多元存在较强的局部关联性,同时也存在全局关联性,需要学习到多元之间局部与全局的信息;2、多元时间序列中的时间存在局部趋势性与全局趋势性,局部趋势信息可以减弱数据的突变对预测结果的影响维度,全局趋势信息结合局部趋势信息可以更准确的进行预测。
随着时间序列分类的应用不断扩大,一些研究人员针对时间序列分类技术做了大量探索和实践。专利申请号CN 202010638794.X提出了一种用于异常金融账号检测的金融时间序列分类方法及应用,通过自注意力可以同时提取到金融时间序列的全局序列模式,提高了分类准确率。专利申请号CN 201910136093.3提出了一种基于多头自注意力机制的卷积回声状态网络时序分类方法,通过多头自注意力机制对回声状态网络时序编码,再由一个浅层的卷积神经网络进行解码以实现高效分类。以上针对的是时间序列分类技术研究,针对多元时间序列分类技术的研究较少,时间序列分类技术无法解决多变量之间的依赖关系。
发明内容
本发明为克服上述的不足之处,目的在于提供一种基于全卷积注意力的多元时间序列分类方法及系统,本发明包括利用全卷积神经网络提取多变量的局部依赖关系;利用全卷积神经网络提取时间序列的局部依赖关系;利用多核卷积输出多种局部特征;利用自注意力模型计算不同视角的权重;利用注意力模型融合各视角的时间变量特征;利用权重矩阵融合多视角特征;以及多元时间序列分类模型训练。本发明可减弱突变信息对结果的影响;同时提供了不同的视角去审视多元时间序列数据;本发明还可以学习更全面更准确的时间变量交互特征。
本发明是通过以下技术方案达到上述目的:一种基于全卷积注意力的多元时间序列分类方法,包括如下步骤:
(1)对多元时间序列数据预处理,利用全卷积神经网络分别提取局部与非局部变量特征、局部与非局部时间特征,得到不同视角特征;
(2)利用自注意力模型分别计算变量不同视角的自注意力权重和时间不同视角的自注意力权重,分别得到变量不同视角的自注意力向量和时间不同视角的自注意力向量;
(3)利用注意力模型分别融合各视角的时间特征和变量特征,计算得到不同视角融合时间信息的变量向量和不同视角融合变量信息的时间向量;
(4)利用权重矩阵分别计算融合多视角的变量向量和融合多视角的时间向量,得到融合多视角的时间变量向量;
(5)基于得到的融合多视角的时间变量向量,训练得到多元时间序列分类模型,利用该模型实现多元时间序列分类。
作为优选,所述步骤(1)具体如下:
(1.1)将收集的多元时间序列数据预处理为多元时间序列向量X∈RN×V×M,其对应的标签为Y∈RN,其中N为收集数据的总数,V为收集数据的变量数,M为收集数据的时间步;一个多元时间序列实例为
Figure BDA0002871757320000031
其中
Figure BDA0002871757320000032
表示第V个变量在第M时间步的值;
(1.2)根据步骤(1.1)输出的多元时间序列向量X,将任意一个多元时间序列实例x∈RV×M输入到变量2D卷积层中,利用滤波器对某时间相邻变量做卷积计算,则滤波器大小为hV×1,其中hV为卷积核窗口中的变量数,即学习hV个相邻变量信息,则卷积操作后输出特征
Figure BDA0002871757320000041
为:
Figure BDA0002871757320000042
其中bV∈R为偏差项,
Figure BDA0002871757320000043
为卷积核的权重矩阵,f是卷积核函数,
Figure BDA0002871757320000044
为多元时间序列向量在时间维度第j维以及变量维度第i维到第i+hV-1维的二维向量;在卷积过程中允许卷积核超出原始向量边界,并使得卷积后结果的大小与原来的一致,该滤波器应用于一个多元时间序列实例得到局部变量特征v_T为:
Figure BDA0002871757320000045
(1.3)输出多种局部变量特征:根据步骤(1.2)的变量2D卷积计算过程,初始化C个滤波器应用于一个多元时间序列实例,得到多种局部变量特征TV为:
TV=[v_T1,v_T2,Λ,v_TC]∈RV×M×C
(1.4)基于步骤(1.3)输出的多种局部变量特征和步骤(1.1)输出的多元时间序列实例,采用增加卷积通道的方式得到局部与非局部变量特征TV':
TV'=[TV,x]∈RV×M×(C+1)
(1.5)根据步骤(1.1)输出的多元时间序列向量X,将任意一个多元时间序列实例x∈RV×M输入到时间2D卷积层中,利用滤波器对某变量相邻时间做卷积计算,则滤波器大小为1×hM,其中hM为卷积核窗口中的时间数,即学习变量在hM个相邻时间趋势变化信息,减弱突变信息对结果的干扰,则卷积操作后输出特征
Figure BDA0002871757320000051
为:
Figure BDA0002871757320000052
其中bM∈R为偏差项,
Figure BDA0002871757320000053
为卷积核的权重矩阵,f是卷积核函数,
Figure BDA0002871757320000054
为多元时间序列向量在变量维度第i维以及时间维度第j维到第j+hM-1维的二维向量;卷积过程中允许卷积核超出原始向量边界,并使得卷积后结果的大小与原来的一致,该滤波器应用于一个多元时间序列实例得到特征m_T为:
Figure BDA0002871757320000055
(1.6)根据步骤(1.6)的时间2D卷积计算过程,初始化C个滤波器应用于一个多元时间序列实例,得到多种局部时间特征TM为:
TM=[m_T1,m_T2,Λ,m_TC]∈RV×M×C
(1.7)基于步骤(1.6)输出的多种局部时间特征和步骤(1.1)输出的多元时间序列实例,采用增加卷积通道的方式得到局部与非局部时间特征T'M
T'M=[TM,x]∈RV×M×(C+1)
作为优选,所述步骤(2)步骤如下:
(2.1)根据步骤(1.4)输出的局部与非局部变量特征T′V∈RV×M×(C+1),每个变量都有C+1个不同的视角;以第一个变量为例,输出第一个变量不同视角向量v_1∈R(C+1)×M
(2.2)根据步骤(2.1)输出的第一个变量的不同视角向量v_1∈R(C+1)×M,初始化三个变量Wq∈RM×M,Wk∈RM×M,Wv∈RM×M,分别与v_1进行点乘:
q=v_1×Wq=[q1 q2 Λ q(C+1)]∈R(C+1)×M
k=v_1×Wk=[k1 k2 Λ k(C+1)]∈R(C+1)×M
v=v_1×Wv=[v1 v2 Λ v(C+1)]∈R(C+1)×M
首先计算第一个变量第一个视角与其他视角的注意力,第一个得分
Figure BDA0002871757320000061
第二个得分
Figure BDA0002871757320000062
以此类推第(C+1)个得分
Figure BDA0002871757320000063
Figure BDA0002871757320000064
进行softmax使分数得到标准化;该softmax分数确定第一个变量的第一个视角在各个视角表达的程度;显然,标准化后的
Figure BDA0002871757320000065
将具有最高的softmax分数,即
Figure BDA0002871757320000066
为第一个变量第一个视角的自我关注度;以此类推计算第一个变量各个视角与其他视角的注意力,得到第一个变量每个视角的自注意力权重
Figure BDA0002871757320000067
(2.3)将步骤(2.2)输出的第一个变量每个视角的自我关注度
Figure BDA0002871757320000068
与步骤(2.1)输出的第一个变量不同视角向量v_1∈R(C+1)×M相乘,得到第一个变量不同视角自注意力向量v_attention1=v_w1×v_1∈R(C+1)×M,同理计算得到局部与非局部变量特征T′V∈RV×M×(C+1)中每个变量在不同视角的自注意力权重,并输出变量不同视角自注意力向量TV_attention∈RV×M×(C+1)
(2.4)根据步骤(1.7)输出的局部与非局部时间特征T'M∈RV×M×(C+1),每个时间都有C+1个不同的视角;以第一个时间为例,输出第一个时间不同视角向量m_1∈R(C+1)×V
(2.5)根据步骤(2.4)输出的第一个时间不同视角向量m_1∈R(C+1)×V,初始化三个变量Wq'∈RV×V,Wk'∈RV×V,Wv'∈RV×V,分别与m_1进行点乘得到q',k',v',依次计算第一个时间第一个视角与其他视角的注意力,并进行softmax标准化得到第一个时间第一个视角的自我关注度,以此类推计算第一个时间各个视角与其他视角的注意力,得到第一个时间不同视角的自注意力权重
Figure BDA0002871757320000071
(2.6)将步骤(2.5)输出的第一个时间每个视角的自我关注度
Figure BDA0002871757320000072
与步骤(2.4)输出的第一个时间不同视角向量m_1∈R(C+1)×V相乘,得到第一个时间不同视角自注意力向量m_attention1=m_w1×,m_1∈R(C+1)×V,同理计算得到局部与非局部变量特征T'M∈RV×M×(C+1)中每个时间在不同视角的自注意力权重,并输出时间不同视角自注意力向量TM_attention1∈RV×M×(C+1)
作为优选,所述步骤(3)具体如下:
(3.1)根据步骤(2.3)输出的变量不同视角自注意力向量TV_attention∈RV ×M×(C+1),得到第一个视角的变量向量为TV_attention1∈RV×M;根据步骤(2.6)输出的时间不同视角自注意力向量TM_attention1∈RV×M(C+1),得到第一个视角的变量时间向量为TM_attention1∈RV×M
(3.2)分别将步骤(3.1)输出的第一个视角的变量时间向量TV_attention1∈RV×M和TM-attention1∈RV×M进行点乘,输出第一个视角的变量注意力向量TVM1和时间注意力向量TMV1,公式如下:
TVM1=TV_attention1·[TM_attention1]T∈RV×V
TMV1=[TV-attentionl]T·TM-attenti·on1∈RM×M
(3.3)将步骤(3.2)输出的第一个视角变量注意力向量TVM1与步骤
(3.1)输出的第一个视角变量向量为TV-attention1∈RV×M相乘输出第一个视角融合时间信息的变量向量TV'M1=TVM1×TV_attention1∈RV×M
(3.4)根据步骤(3.3)的计算过程,以此类推计算步骤(2.3)输出的变量不同视角自注意力向量TV-attention∈RV×M×(C+1)中每个视角融合时间信息的变量向量,输出不同视角融合时间信息的变量向量T′VM∈RV×M×(C+1)
(3.5)将步骤(3.2)输出的第一个视角时间注意力向量TMV1与步骤(3.1)输出的第一个视角时间向量为TM-attention1∈RV×M相乘输出第一个视角融合变量信息的时间向量T'MV1=TM_attention1×TMV1∈RV×M
(3.6)根据步骤(3.5)的计算过程,以此类推计算步骤(2.6)输出的时间不同视角自注意力向量TM_attention∈RV×M×(C+1)中每个视角融合变量信息的时间向量,输出不同视角融合变量信息的时间向量T'MV∈RV×M×(C+1)
作为优选,所述步骤(4)具体如下:
(4.1)根据步骤(3.4)输出的不同视角融合时间信息的变量向量TV'M∈RV×M×(C+1),在变量维度上拼接各个视角的特征输出不同视角的变量向量TVMC∈R(V×(C+1))×M
(4.2)初始化变量权重矩阵WVC∈RV×((C+1)×V),将变量权重矩阵乘以步骤(4.1)输出的不同视角的变量向量TVMC∈R(V×(C+1))×M,以融合各个视角的变量特征的方式输出融合多视角的变量向量T′VMC∈RV×M
(4.3)根据步骤(3.6)输出的不同视角融合变量信息的时间向量T'MV∈RV×M×(C+1),在时间维度上拼接各个视角的特征输出不同视角的时间向量TMVC∈RV×(M×(C+1))
(4.4)初始化时间权重矩阵WMC∈R((C+1)×M)×M,将步骤(4.3)输出的不同视角的时间向量TMVC∈RV×(M×(C+1))乘以时间权重矩阵,以融合各个视角的时间特征的方式输出融合多视角的时间向量T'MVC∈RV×M
(4.5)基于步骤(4.2)输出的融合多视角的变量向量T′VMC∈RV×M与步骤(4.4)输出的融合多视角的时间向量T'MVC∈RV×M在时间维度上拼接输出时间变量向量T″VM∈RV×2M,初始化时间变量权重矩阵WMVC∈R2M×2M,将时间变量向量与时间变量权重矩阵相乘,以融合各个视角的时间变量特征输出融合多视角的时间变量向量T″MVC∈RV×2M
作为优选,所述步骤(5)具体如下:
(5.1)将步骤(4.5)输出的融合多视角的时间变量向量T″MVC∈RV×2M输入到全连接层中,即对向量进行降维,输出向量P∈R1×label,其中label为多元时间序列数据的类别数,公式如下:
P=WP×T″MVC×WL
其中WP∈R1×V,WL∈R2M×label
(5.2)将步骤(5.1)输出的向量P进行softmax标准化,输出向量P',softmax公式如下:
Figure BDA0002871757320000091
其中Pi表示向量P在维度i处的值,αi表示Pi标准化后的值;
(5.3)将步骤(5.2)输出的标准化向量P'与数据标签对齐,计算其损失值;其中在训练过程中,基于交叉熵训练目标函数,通过梯度下降算法计算样本的误差,并以反馈传播的方式更新网络结构的超参数集合,最终预训练模型保存为modelp
(5.4)加载步骤(5.3)输出的预训练模型modelp,将待预测的多元时间序列数据D∈RV×M输入到模型中,预测其类别。
一种基于全卷积注意力的多元时间序列分类系统,包括多元时间序列预处理单元、多元时间序列特征提取单元和多元时间序列分类单元;
多元时间序列预处理单元,用于将多元时间序列数据预处理为多元时间序列向量;
多元时间序列特征提取单元,用于利用全卷积神经网络和注意力模型提取并融合多元时间序列向量的多视角特征,得到融合多视角的时间变量向量;具体包括全卷积神经网络模块、变量注意力模块、时间注意力模块、权重矩阵模块;
所述的全卷积神经网络模块用于提取局部与非局部变量特征、局部与非局部时间特征,得到不同视角特征;全卷积神经网络模块还用于训练得到多元时间序列分类模型;
所述的变量注意力模块用于计算变量不同视角的自注意力权重,得到变量不同视角的自注意力向量;并融合各视角的时间特征,计算得到不同视角融合时间信息的变量向量;
所述的时间注意力模块用于计算时间不同视角的自注意力权重,得到时间不同视角的自注意力向量;并融合各视角的变量特征,计算得到不同视角融合变量信息的时间向量;
所述的权重矩阵模块用于计算融合多视角的变量向量和融合多视角的时间向量,得到融合多视角的时间变量向量。
多元时间序列分类单元,用于预测多元时间序列的类别。
本发明的有益效果在于:(1)本发明利用图像领域中全卷积的设计思路,使用2D卷积滤波器捕获多元时间序列局部变量特征以学习相邻变量之间的联动关系,同时使用2D卷积滤波器捕获多元时间序列局部时间特征以学习相邻时间之间的趋势信息,减弱突变信息对结果的影响;(2)本发明采用卷积加自注意力模型,多核卷积获取多种局部特征,自注意力模型计算多种局部特征和非局部特征的权重,提供了不同的视角去审视多元时间序列数据;(3)本发明采用注意力模型分别融合对应视角的变量和时间特征,同时学习到变量的全局依赖关系以及时间的全局依赖关系;采用权重矩阵方法融合多视角的特征,学习更全面更准确的时间变量交互特征。
附图说明
图1是本发明的算法结构示意图;
图2是本发明的方法流程示意图。
具体实施方式
下面结合具体实施例对本发明进行进一步描述,但本发明的保护范围并不仅限于此:
实施例:如图1所示,一种基于全卷积注意力的多元时间序列分类系统包括多元时间序列预处理单元、多元时间序列特征提取单元和多元时间序列分类单元。
多元时间序列预处理单元,用于将多元时间序列数据预处理为多元时间序列向量。
多元时间序列特征提取单元,用于利用全卷积神经网络和注意力模型提取并融合多元时间序列向量的多视角特征,得到融合多视角的时间变量向量;具体包括:全卷积神经网络模块、变量注意力模块、时间注意力模块、权重矩阵模块;
所述的全卷积神经网络模块用于提取局部与非局部变量特征、局部与非局部时间特征,得到不同视角特征;全卷积神经网络模块还用于训练得到多元时间序列分类模型;
所述的变量注意力模块用于计算变量不同视角的自注意力权重,得到变量不同视角的自注意力向量;并融合各视角的时间特征,计算得到不同视角融合时间信息的变量向量;
所述的时间注意力模块用于计算时间不同视角的自注意力权重,得到时间不同视角的自注意力向量;并融合各视角的变量特征,计算得到不同视角融合变量信息的时间向量;
所述的权重矩阵模块用于计算融合多视角的变量向量和融合多视角的时间向量,得到融合多视角的时间变量向量。
多元时间序列分类单元,用于预测多元时间序列的类别。
如图2所示,一种基于全卷积注意力的多元时间序列分类方法,具体包括如下步骤:
(1)利用全卷积神经网络提取不同视角特征:
(1.1)多元时间序列数据预处理:本实施例收集的多元时间序列数据为开源的Auslan(澳大利亚手语)样本,其包含N=2565个样本,V=22个变量数,M=57个时间步,整理为多元时间序列向量X∈R2565×22×57,对应的标签为Y∈R2565。一个多元时间序列实例为
Figure BDA0002871757320000121
其中
Figure BDA0002871757320000122
表示第22个变量在第57时间步的值。
(1.2)变量2D卷积层:根据步骤1.1输出的多元时间序列向量X,以一个多元时间序列实例x∈R22×57为例,输入到变量2D卷积层中,利用滤波器对某时间相邻变量做卷积计算,本实施例通过测试hV=3时效果最好,则滤波器大小为3×1,其中hV为卷积核窗口中的变量数,即学习hV=3个相邻变量信息,则卷积操作后输出特征
Figure BDA0002871757320000131
为:
Figure BDA0002871757320000132
其中bV∈R为偏差项,WV∈R3×1为卷积核的权重矩阵,f是卷积核函数,
Figure BDA0002871757320000133
为多元时间序列向量在时间维度第j维以及变量维度第i维到第i+2维的二维向量;卷积过程中允许卷积核超出原始向量边界,并使得卷积后结果的大小与原来的一致,该滤波器应用于一个多元时间序列实例得到局部变量特征v_T为:
Figure BDA0002871757320000134
(1.3)输出多种局部变量特征:根据步骤1.2的变量2D卷积计算过程,本实施例初始化C=64个滤波器应用于一个多元时间序列实例,得到多种局部变量特征TV为:
TV=[v_T1,v_T2,Λ,v_T64]∈R22×57×64
(1.4)输出局部与非局部变量特征:为了防止原信息非局部特征丢失,故采用增加卷积通道的形式在步骤1.3输出的多种局部变量特征加上步骤1.1输出的多元时间序列实例,得到局部与非局部变量特征T′V
T′V=[TV,x]∈R22×57×65
(1.5)时间2D卷积层:根据步骤1.1输出的多元时间序列向量X,以一个多元时间序列实例x∈R22×57为例,输入到时间2D卷积层中,利用滤波器对某变量相邻时间做卷积计算,本实施例通过测试hM=3时效果最佳,则滤波器大小为1×3,其中hM为卷积核窗口中的时间数,即学习变量在3个相邻时间趋势变化信息,减弱突变信息对结果的干扰,则卷积操作后输出特征
Figure BDA0002871757320000141
为:
Figure BDA0002871757320000142
其中bM∈R为偏差项,WM∈R1×3为卷积核的权重矩阵,f是卷积核函数,
Figure BDA0002871757320000143
为多元时间序列向量在变量维度第i维以及时间维度第j维到第j+2维的二维向量;卷积过程中允许卷积核超出原始向量边界,并使得卷积后结果的大小与原来的一致,该滤波器应用于一个多元时间序列实例得到特征m_T为:
Figure BDA0002871757320000144
(1.6)输出多种局部时间特征:根据步骤1.5的时间2D卷积计算过程,初始化C=64个滤波器应用于一个多元时间序列实例,得到多种局部时间特征TM为:
TM=[m_T1,m_T2,Λ,m_T64]∈R22×57×64
(1.7)输出局部与非局部时间特征:为了防止原信息非局部特征丢失,故采用增加卷积通道的形式在步骤1.6输出的多种局部时间特征处加上步骤1.1输出的多元时间序列实例,得到局部与非局部时间特征T'M
T'M=[TM,x]∈R22×57×65
(2)利用自注意力模型计算不同视角的权重:
(2.1)输出第一个变量不同视角向量:根据步骤1.4输出的局部与非局部变量特征T′V,每个变量都有65个不同的视角;以第一个变量为例,存在不同视角的第一个变量向量v_1∈R65×57
(2.2)计算第一个变量不同视角的自注意力权重:根据步骤2.1输出的第一个变量不同视角向量v_1,初始化三个变量Wq∈R57×57,Wk∈R57×57,Wv∈R57×57,分别与v_1进行点乘:
q=v_1×Wq=[q1 q2 Λ q65]∈R65×57
k=v_1×Wk=[k1 k2 Λ k65]∈R65×57
v=v_1×Wv=[v1 v2 Λ v65]∈R65×57
首先计算第一个变量第一个视角与其他视角的注意力,第一个得分
Figure BDA0002871757320000151
第二个得分
Figure BDA0002871757320000152
以此类推第(C+1)个得分
Figure BDA0002871757320000153
Figure BDA0002871757320000154
进行softmax使分数得到标准化;该softmax分数确定第一个变量的第一个视角在各个视角表达的程度;显然,标准化后的
Figure BDA0002871757320000155
将具有最高的softmax分数,即
Figure BDA0002871757320000156
为第一个变量第一个视角的自我关注度;以此类推计算第一个变量各个视角与其他视角的注意力,得到第一个变量每个视角的自注意力权重
Figure BDA0002871757320000157
(2.3)将步骤(2.2)输出的第一个变量每个视角的自我关注度
Figure BDA0002871757320000158
与步骤(2.1)输出的第一个变量不同视角向量v_1∈R(C+1)×M相乘,得到第一个变量不同视角自注意力向量v_attention1=v_w1×v_1∈R(C+1)×M,同理计算得到局部与非局部变量特征T′V∈RV×M×(C+1)中每个变量在不同视角的自注意力权重,并输出变量不同视角自注意力向量TV_attention∈RV×M×(C+1)
(2.4)根据步骤(1.7)输出的局部与非局部时间特征T'M∈RV×M×(C+1),每个时间都有C+1个不同的视角;以第一个时间为例,输出第一个时间不同视角向量m_1∈R(C+1)×V
(2.5)根据步骤(2.4)输出的第一个时间不同视角向量m_1∈R(C+1)×V,初始化三个变量Wq'∈RV×V,Wk'∈RV×V,Wv'∈RV×V,分别与m_1进行点乘得到q',k',v',依次计算第一个时间第一个视角与其他视角的注意力,并进行softmax标准化得到第一个时间第一个视角的自我关注度,以此类推计算第一个时间各个视角与其他视角的注意力,得到第一个时间不同视角的自注意力权重
Figure BDA0002871757320000161
(2.6)将步骤(2.5)输出的第一个时间每个视角的自我关注度
Figure BDA0002871757320000162
与步骤(2.4)输出的第一个时间不同视角向量m_1∈R(C+1)×V相乘,得到第一个时间不同视角自注意力向量m_attention1=m_w1×,m_1∈R(C+1)×V,同理计算得到局部与非局部变量特征T'M∈RV×M×(C+1)中每个时间在不同视角的自注意力权重,并输出时间不同视角自注意力向量TM_attention∈RV×M×(C+1)
(3)利用注意力模型融合各视角的时间特征、变量特征:
(3.1)根据步骤(2.3)输出的变量不同视角自注意力向量TV_attention∈RV ×M×(C+1),得到第一个视角的变量向量为TV_attention1∈RV×M;根据步骤(2.6)输出的时间不同视角自注意力向量TM_attention∈RV×M×(C+1),得到第一个视角的变量时间向量为TM_attention1∈RV×M
(3.2)分别将步骤(3.1)输出的第一个视角的变量时间向量TV_attention1∈RV×M和TM_attention1∈RV×M进行点乘,输出第一个视角的变量注意力向量TVM1和时间注意力向量TMV1,公式如下:
TVM1=TV_attention1·[TM_attention1]T∈RV×V
TMVl=[TV-attention1]T·TM-attention1∈RM×M
(3.3)将步骤(3.2)输出的第一个视角变量注意力向量TVM1与步骤(3.1)输出的第一个视角变量向量为TV_attention1∈RV×M相乘输出第一个视角融合时间信息的变量向量T′VM1=TVM1×TV_attention1∈RV×M
(3.4)根据步骤(3.3)的计算过程,以此类推计算步骤(2.3)输出的变量不同视角自注意力向量TV-attention∈RV×M×(C+1)中每个视角融合时间信息的变量向量,输出不同视角融合时间信息的变量向量T′VM∈RV×M×(C+1)
(3.5)将步骤(3.2)输出的第一个视角时间注意力向量TMV1与步骤(3.1)输出的第一个视角时间向量为TM-attention1∈RV×M相乘输出第一个视角融合变量信息的时间向量T'MV1=TM_attention1×TMV1∈RV×M
(3.6)根据步骤(3.5)的计算过程,以此类推计算步骤(2.6)输出的时间不同视角自注意力向量TM_attention∈RV×M×(C+1)中每个视角融合变量信息的时间向量,输出不同视角融合变量信息的时间向量T'MV∈RV×M×(C+1)
(4)利用权重矩阵融合多视角特征:
(4.1)输出不同视角的变量向量:根据步骤3.4输出的不同视角融合时间信息的变量向量T′VM,在变量维度上拼接各个视角的特征输出不同视角的变量向量TVMC∈R(22×65)×57
(4.2)输出融合多视角的变量向量:初始化变量权重矩阵WVC∈R22×(65×22),将变量权重矩阵乘以步骤4.1输出的不同视角的变量向量TVMC∈R(22×65)×57,以融合各个视角的变量特征输出融合多视角的变量向量T′VMC∈R22×57
(4.3)输出不同视角的时间向量:根据步骤3.6输出的不同视角融合变量信息的时间向量T′MV,在时间维度上拼接各个视角的特征输出不同视角的时间向量TMVC∈R22×(57×65)
(4.4)输出融合多视角的时间向量:初始化时间权重矩阵WMC∈R(65×57)×57,将步骤4.3输出的不同视角的时间向量TMVC∈R22×(57×65)乘以时间权重矩阵,以融合各个视角的时间特征输出融合多视角的时间向量T'MVC∈R22×57
(4.5)输出融合多视角的时间变量向量:将步骤4.2输出的融合多视角的变量向量T′VMC与步骤4.4输出的融合多视角的时间向量T'MVC在时间维度上拼接输出时间变量向量T″VM∈R22×114,初始化时间变量权重矩阵WMVC∈R114×114,将时间变量向量乘以时间变量权重矩阵,以融合各个视角的时间变量特征输出融合多视角的时间变量向量T”MVC∈R22×114
(5)多元时间序列分类模型训练:
(5.1)全连接层:将步骤4.5输出的融合多视角的时间变量向量T″MVC输入到全连接层中,即对向量进行降维,输出向量P∈R1×95,其中label=95为多元时间序列数据的类别数,公式如下:
P=WP×T″MVC×WL
其中WP∈R1×22,WL∈R114×95
(5.2)softmax层:将步骤5.1输出的向量P进行softmax标准化,输出向量P',softmax公式如下:
Figure BDA0002871757320000191
其中Pi表示向量P在维度i处的值,αi表示Pi标准化后的值。
(5.3)损失更新优化:将步骤5.2输出的标准化向量P'与数据标签对齐,计算其损失值。在训练过程中,基于交叉熵训练目标函数,通过梯度下降算法计算样本的误差,并以反馈传播的方式更新网络结构的超参数集合,最终预训练模型保存为modelp
(5.4)模型预测:加载步骤5.3输出的预训练模型modelp,将待预测的多元时间序列数据D∈R22×57输入到模型中并预测其类别。
以上的所述乃是本发明的具体实施例及所运用的技术原理,若依本发明的构想所作的改变,其所产生的功能作用仍未超出说明书及附图所涵盖的精神时,仍应属本发明的保护范围。

Claims (10)

1.一种基于全卷积注意力的多元时间序列分类方法,其特征在于,包括如下步骤:
(1)对多元时间序列数据预处理,利用全卷积神经网络分别提取局部与非局部变量特征、局部与非局部时间特征,得到不同视角特征;
(2)利用自注意力模型分别计算变量不同视角的自注意力权重和时间不同视角的自注意力权重,分别得到变量不同视角的自注意力向量和时间不同视角的自注意力向量;
(3)利用注意力模型分别融合各视角的时间特征和变量特征,计算得到不同视角融合时间信息的变量向量和不同视角融合变量信息的时间向量;
(4)利用权重矩阵分别计算融合多视角的变量向量和融合多视角的时间向量,得到融合多视角的时间变量向量;
(5)基于得到的融合多视角的时间变量向量,训练得到多元时间序列分类模型,利用该模型实现多元时间序列分类。
2.根据权利要求1所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(1)具体如下:
(1.1)将收集的多元时间序列数据预处理为多元时间序列向量X∈RN×V×M,其对应的标签为Y∈RN,其中N为收集数据的总数,V为收集数据的变量数,M为收集数据的时间步;一个多元时间序列实例为
Figure FDA0002871757310000011
其中
Figure FDA0002871757310000012
表示第V个变量在第M时间步的值;
(1.2)根据步骤(1.1)输出的多元时间序列向量X,将任意一个多元时间序列实例x∈RV ×M输入到变量2D卷积层中,利用滤波器对某时间相邻变量做卷积计算,则滤波器大小为hV×1,其中hV为卷积核窗口中的变量数,即学习hV个相邻变量信息,则卷积操作后输出特征
Figure FDA0002871757310000021
为:
Figure FDA0002871757310000022
其中bV∈R为偏差项,
Figure FDA0002871757310000023
为卷积核的权重矩阵,f是卷积核函数,
Figure FDA0002871757310000024
为多元时间序列向量在时间维度第j维以及变量维度第i维到第i+hV-1维的二维向量;在卷积过程中允许卷积核超出原始向量边界,并使得卷积后结果的大小与原来的一致,该滤波器应用于一个多元时间序列实例得到局部变量特征v_T为:
Figure FDA0002871757310000025
(1.3)输出多种局部变量特征:根据步骤(1.2)的变量2D卷积计算过程,初始化C个滤波器应用于一个多元时间序列实例,得到多种局部变量特征TV为:
TV=[v_T1,v_T2,Λ,v_TC]∈RV×M×C
(1.4)基于步骤(1.3)输出的多种局部变量特征和步骤(1.1)输出的多元时间序列实例,采用增加卷积通道的方式得到局部与非局部变量特征T′V
T′V=[TV,x]∈RV×M×(C+1)
3.根据权利要求2所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(1)还包括如下步骤:
(1.5)根据步骤(1.1)输出的多元时间序列向量X,将任意一个多元时间序列实例x∈RV ×M输入到时间2D卷积层中,利用滤波器对某变量相邻时间做卷积计算,则滤波器大小为1×hM,其中hM为卷积核窗口中的时间数,即学习变量在hM个相邻时间趋势变化信息,减弱突变信息对结果的干扰,则卷积操作后输出特征
Figure FDA0002871757310000031
为:
Figure FDA0002871757310000032
其中bM∈R为偏差项,
Figure FDA0002871757310000033
为卷积核的权重矩阵,f是卷积核函数,
Figure FDA0002871757310000034
为多元时间序列向量在变量维度第i维以及时间维度第j维到第j+hM-1维的二维向量;卷积过程中允许卷积核超出原始向量边界,并使得卷积后结果的大小与原来的一致,该滤波器应用于一个多元时间序列实例得到特征m_T为:
Figure FDA0002871757310000035
(1.6)根据步骤(1.6)的时间2D卷积计算过程,初始化C个滤波器应用于一个多元时间序列实例,得到多种局部时间特征TM为:
TM=[m_T1,m_T2,Λ,m_TC]∈RV×M×C
(1.7)基于步骤(1.6)输出的多种局部时间特征和步骤(1.1)输出的多元时间序列实例,采用增加卷积通道的方式得到局部与非局部时间特征T′M
T′M=[TM,x]∈RV×M×(C+1)
4.根据权利要求1所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(2)步骤如下:
(2.1)根据步骤(1.4)输出的局部与非局部变量特征T′V∈RV×M×(C+1),每个变量都有C+1个不同的视角;以第一个变量为例,输出第一个变量不同视角向量v_1∈R(C+1)×M
(2.2)根据步骤(2.1)输出的第一个变量的不同视角向量v_1∈R(C+1)×M,初始化三个变量Wq∈RM×M,Wk∈RM×M,Wv∈RM×M,分别与v_1进行点乘:
q=v_1×Wq=[q1 q2 Λ q(C+1)]∈R(C+1)×M
k=v_1×Wk=[k1 k2 Λ k(C+1)]∈R(C+1)×M
v=v_1×Wv=[v1 v2 Λ v(C+1)]∈R(C+1)×M
首先计算第一个变量第一个视角与其他视角的注意力,第一个得分
Figure FDA0002871757310000041
第二个得分
Figure FDA0002871757310000042
以此类推第(C+1)个得分
Figure FDA0002871757310000043
Figure FDA0002871757310000044
进行softmax使分数得到标准化;该softmax分数确定第一个变量的第一个视角在各个视角表达的程度;显然,标准化后的
Figure FDA0002871757310000045
将具有最高的softmax分数,即
Figure FDA0002871757310000046
为第一个变量第一个视角的自我关注度;以此类推计算第一个变量各个视角与其他视角的注意力,得到第一个变量每个视角的自注意力权重
Figure FDA0002871757310000047
(2.3)将步骤(2.2)输出的第一个变量每个视角的自我关注度
Figure FDA0002871757310000048
与步骤(2.1)输出的第一个变量不同视角向量v_1∈R(C+1)×M相乘,得到第一个变量不同视角自注意力向量v_attention1=v_w1×v_1∈R(C+1)×M,同理计算得到局部与非局部变量特征T′V∈RV×M×(C+1)中每个变量在不同视角的自注意力权重,并输出变量不同视角自注意力向量TV_attention∈RV×M×(C+1)
5.根据权利要求4所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(2)还包括如下步骤:
(2.4)根据步骤(1.7)输出的局部与非局部时间特征T′M∈RV×M×(C+1),每个时间都有C+1个不同的视角;以第一个时间为例,输出第一个时间不同视角向量m_1∈R(C+1)×V
(2.5)根据步骤(2.4)输出的第一个时间不同视角向量m_1∈R(C+1)×V,初始化三个变量Wq'∈RV×V,Wk'∈RV×V,Wv'∈RV×V,分别与m_1进行点乘得到q',k',v',依次计算第一个时间第一个视角与其他视角的注意力,并进行softmax标准化得到第一个时间第一个视角的自我关注度,以此类推计算第一个时间各个视角与其他视角的注意力,得到第一个时间不同视角的自注意力权重
Figure FDA0002871757310000051
(2.6)将步骤(2.5)输出的第一个时间每个视角的自我关注度
Figure FDA0002871757310000052
与步骤(2.4)输出的第一个时间不同视角向量m_1∈R(C+1)×V相乘,得到第一个时间不同视角自注意力向量m_attention1=m_w1×,m_1∈R(C+1)×V,同理计算得到局部与非局部变量特征T′M∈RV×M×(C+1)中每个时间在不同视角的自注意力权重,并输出时间不同视角自注意力向量TM_attention∈RV×M×(C+1)
6.根据权利要求1所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(3)具体如下:
(3.1)根据步骤(2.3)输出的变量不同视角自注意力向量TV_attention∈RV×M×(C+1),得到第一个视角的变量向量为TV_attention1∈RV×M;根据步骤(2.6)输出的时间不同视角自注意力向量TM_attention∈RV×M×(C+1),得到第一个视角的变量时间向量为TM_attention1∈RV×M
(3.2)分别将步骤(3.1)输出的第一个视角的变量时间向量TV_attention1∈RV×M和TM_attention1∈RV×M进行点乘,输出第一个视角的变量注意力向量TVM1和时间注意力向量TMV1,公式如下:
TVM1=TV_attention1·[TM_attention1]T∈RV×V
TMV1=[TV_attention1]T·TM_attention1∈RM×M
(3.3)将步骤(3.2)输出的第一个视角变量注意力向量TVM1与步骤(3.1)输出的第一个视角变量向量为TV_attention1∈RV×M相乘输出第一个视角融合时间信息的变量向量T′VM1=TVM1×TV_attention1∈RV×M
(3.4)根据步骤(3.3)的计算过程,以此类推计算步骤(2.3)输出的变量不同视角自注意力向量TV_attention∈RV×M×(C+1)中每个视角融合时间信息的变量向量,输出不同视角融合时间信息的变量向量T′VM∈RV×M×(C+1)
(3.5)将步骤(3.2)输出的第一个视角时间注意力向量TMV1与步骤(3.1)输出的第一个视角时间向量为TM_attention1∈RV×M相乘输出第一个视角融合变量信息的时间向量T'MV1=TM_attention1×TMV1∈RV×M
(3.6)根据步骤(3.5)的计算过程,以此类推计算步骤(2.6)输出的时间不同视角自注意力向量TM_attention∈RV×M×(C+1)中每个视角融合变量信息的时间向量,输出不同视角融合变量信息的时间向量T'MV∈RV×M×(C+1)
7.根据权利要求1所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(4)具体如下:
(4.1)根据步骤(3.4)输出的不同视角融合时间信息的变量向量T′VM∈RV×M×(C+1),在变量维度上拼接各个视角的特征输出不同视角的变量向量TVMC∈R(V×(C+1))×M
(4.2)初始化变量权重矩阵WVC∈RV×((C+1)×V),将变量权重矩阵乘以步骤(4.1)输出的不同视角的变量向量TVMC∈R(V×(C+1))×M,以融合各个视角的变量特征的方式输出融合多视角的变量向量T′VMC∈RV×M
(4.3)根据步骤(3.6)输出的不同视角融合变量信息的时间向量T′MV∈RV×M×(C+1),在时间维度上拼接各个视角的特征输出不同视角的时间向量TMVC∈RV×(M×(C+1))
(4.4)初始化时间权重矩阵WMC∈R((C+1)×M)×M,将步骤(4.3)输出的不同视角的时间向量TMVC∈RV×(M×(C+1))乘以时间权重矩阵,以融合各个视角的时间特征的方式输出融合多视角的时间向量T′MVC∈RV×M
(4.5)基于步骤(4.2)输出的融合多视角的变量向量T′VMC∈RV×M与步骤(4.4)输出的融合多视角的时间向量T′MVC∈RV×M在时间维度上拼接输出时间变量向量T″VM∈RV×2M,初始化时间变量权重矩阵WMVC∈R2M×2M,将时间变量向量与时间变量权重矩阵相乘,以融合各个视角的时间变量特征输出融合多视角的时间变量向量T″MVC∈RV×2M
8.根据权利要求1所述的一种基于全卷积注意力的多元时间序列分类方法,其特征在于:所述步骤(5)具体如下:
(5.1)将步骤(4.5)输出的融合多视角的时间变量向量T″MVC∈RV×2M输入到全连接层中,即对向量进行降维,输出向量P∈R1×label,其中label为多元时间序列数据的类别数,公式如下:
P=WP×T″MVC×WL
其中WP∈R1×V,WL∈R2M×label
(5.2)将步骤(5.1)输出的向量P进行softmax标准化,输出向量P',softmax公式如下:
Figure FDA0002871757310000081
其中Pi表示向量P在维度i处的值,αi表示Pi标准化后的值;
(5.3)将步骤(5.2)输出的标准化向量P'与数据标签对齐,计算其损失值;其中在训练过程中,基于交叉熵训练目标函数,通过梯度下降算法计算样本的误差,并以反馈传播的方式更新网络结构的超参数集合,最终预训练模型保存为modelp
(5.4)加载步骤(5.3)输出的预训练模型modelp,将待预测的多元时间序列数据D∈RV×M输入到模型中,预测其类别。
9.一种基于全卷积注意力的多元时间序列分类系统,其特征在于,包括多元时间序列预处理单元、多元时间序列特征提取单元和多元时间序列分类单元;
所述多元时间序列预处理单元,用于将多元时间序列数据预处理为多元时间序列向量;
所述多元时间序列特征提取单元,用于利用全卷积神经网络和注意力模型提取并融合多元时间序列向量的多视角特征,得到融合多视角的时间变量向量;
所述多元时间序列分类单元,用于预测多元时间序列的类别。
10.根据权利要求9所述的一种基于全卷积注意力的多元时间序列分类系统,其特征在于,所述多元时间序列特征提取单元包括全卷积神经网络模块、变量注意力模块、时间注意力模块、权重矩阵模块;
所述的全卷积神经网络模块用于提取局部与非局部变量特征、局部与非局部时间特征,得到不同视角特征;
所述的变量注意力模块用于计算变量不同视角的自注意力权重,得到变量不同视角的自注意力向量;并融合各视角的时间特征,计算得到不同视角融合时间信息的变量向量;
所述的时间注意力模块用于计算时间不同视角的自注意力权重,得到时间不同视角的自注意力向量;并融合各视角的变量特征,计算得到不同视角融合变量信息的时间向量;
所述的权重矩阵模块用于计算融合多视角的变量向量和融合多视角的时间向量,得到融合多视角的时间变量向量。
CN202011601945.0A 2020-12-30 2020-12-30 一种基于全卷积注意力的多元时间序列分类方法及系统 Active CN112712117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011601945.0A CN112712117B (zh) 2020-12-30 2020-12-30 一种基于全卷积注意力的多元时间序列分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011601945.0A CN112712117B (zh) 2020-12-30 2020-12-30 一种基于全卷积注意力的多元时间序列分类方法及系统

Publications (2)

Publication Number Publication Date
CN112712117A true CN112712117A (zh) 2021-04-27
CN112712117B CN112712117B (zh) 2024-03-26

Family

ID=75546849

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011601945.0A Active CN112712117B (zh) 2020-12-30 2020-12-30 一种基于全卷积注意力的多元时间序列分类方法及系统

Country Status (1)

Country Link
CN (1) CN112712117B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239784A (zh) * 2021-05-11 2021-08-10 广西科学院 一种基于空间序列特征学习的行人重识别系统及方法
CN113705715A (zh) * 2021-09-04 2021-11-26 大连钜智信息科技有限公司 一种基于lstm和多尺度fcn的时间序列分类方法
CN114547017A (zh) * 2022-04-27 2022-05-27 南京信息工程大学 一种基于深度学习的气象大数据融合方法
CN114758360A (zh) * 2022-04-24 2022-07-15 北京医准智能科技有限公司 一种多模态图像分类模型训练方法、装置及电子设备
CN114870416A (zh) * 2022-04-28 2022-08-09 福建德尔科技股份有限公司 用于电子级一氟甲烷制备的精馏控制系统及精馏控制方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182260A (zh) * 2018-01-03 2018-06-19 华南理工大学 一种基于语义选择的多变量时间序列分类方法
CN109919205A (zh) * 2019-02-25 2019-06-21 华南理工大学 基于多头自注意力机制的卷积回声状态网络时序分类方法
CN110415022A (zh) * 2019-07-05 2019-11-05 阿里巴巴集团控股有限公司 处理用户行为序列的方法及装置
CN110825845A (zh) * 2019-10-23 2020-02-21 中南大学 一种基于字符与自注意力机制的层次文本分类方法及中文文本分类方法
US20200074274A1 (en) * 2018-08-28 2020-03-05 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for multi-horizon time series forecasting with dynamic temporal context learning
CN111241996A (zh) * 2020-01-09 2020-06-05 桂林电子科技大学 一种用于识别视频中人物动作的方法
CN111352977A (zh) * 2020-03-10 2020-06-30 浙江大学 基于自注意力双向长短期记忆网络的时序数据监测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182260A (zh) * 2018-01-03 2018-06-19 华南理工大学 一种基于语义选择的多变量时间序列分类方法
US20200074274A1 (en) * 2018-08-28 2020-03-05 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for multi-horizon time series forecasting with dynamic temporal context learning
CN109919205A (zh) * 2019-02-25 2019-06-21 华南理工大学 基于多头自注意力机制的卷积回声状态网络时序分类方法
CN110415022A (zh) * 2019-07-05 2019-11-05 阿里巴巴集团控股有限公司 处理用户行为序列的方法及装置
CN110825845A (zh) * 2019-10-23 2020-02-21 中南大学 一种基于字符与自注意力机制的层次文本分类方法及中文文本分类方法
CN111241996A (zh) * 2020-01-09 2020-06-05 桂林电子科技大学 一种用于识别视频中人物动作的方法
CN111352977A (zh) * 2020-03-10 2020-06-30 浙江大学 基于自注意力双向长短期记忆网络的时序数据监测方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239784A (zh) * 2021-05-11 2021-08-10 广西科学院 一种基于空间序列特征学习的行人重识别系统及方法
CN113705715A (zh) * 2021-09-04 2021-11-26 大连钜智信息科技有限公司 一种基于lstm和多尺度fcn的时间序列分类方法
CN113705715B (zh) * 2021-09-04 2024-04-19 大连钜智信息科技有限公司 一种基于lstm和多尺度fcn的时间序列分类方法
CN114758360A (zh) * 2022-04-24 2022-07-15 北京医准智能科技有限公司 一种多模态图像分类模型训练方法、装置及电子设备
CN114758360B (zh) * 2022-04-24 2023-04-18 北京医准智能科技有限公司 一种多模态图像分类模型训练方法、装置及电子设备
CN114547017A (zh) * 2022-04-27 2022-05-27 南京信息工程大学 一种基于深度学习的气象大数据融合方法
CN114547017B (zh) * 2022-04-27 2022-08-05 南京信息工程大学 一种基于深度学习的气象大数据融合方法
CN114870416A (zh) * 2022-04-28 2022-08-09 福建德尔科技股份有限公司 用于电子级一氟甲烷制备的精馏控制系统及精馏控制方法
CN114870416B (zh) * 2022-04-28 2023-01-24 福建德尔科技股份有限公司 用于电子级一氟甲烷制备的精馏控制系统及精馏控制方法

Also Published As

Publication number Publication date
CN112712117B (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
CN112712117A (zh) 一种基于全卷积注意力的多元时间序列分类方法及系统
Denœux Logistic regression, neural networks and Dempster–Shafer theory: A new perspective
CN112446591B (zh) 一种用于学生综合能力评价的零样本评价方法
Wen et al. Preparing lessons: Improve knowledge distillation with better supervision
Dreyfus Neural networks: methodology and applications
CN108846413B (zh) 一种基于全局语义一致网络的零样本学习方法
Ragab et al. Attention-based sequence to sequence model for machine remaining useful life prediction
CN106845530A (zh) 字符检测方法和装置
Lei et al. A novel self-supervised deep LSTM network for industrial temperature prediction in aluminum processes application
Ayodeji et al. Causal augmented ConvNet: A temporal memory dilated convolution model for long-sequence time series prediction
Yang et al. Active matting
Chen Model reprogramming: Resource-efficient cross-domain machine learning
Yao et al. Unsupervised transfer learning for spatiotemporal predictive networks
Jia et al. Fault diagnosis of industrial process based on the optimal parametric t-distributed stochastic neighbor embedding
Zhu et al. Parallel interaction spatiotemporal constrained variational autoencoder for soft sensor modeling
CN110263808B (zh) 一种基于lstm网络和注意力机制的图像情感分类方法
Tandale et al. Physics-based self-learning recurrent neural network enhanced time integration scheme for computing viscoplastic structural finite element response
Fu et al. MCA-DTCN: A novel dual-task temporal convolutional network with multi-channel attention for first prediction time detection and remaining useful life prediction
CN114580262A (zh) 一种锂离子电池健康状态估计方法
Zhu et al. Multi-scale Transformer-CNN domain adaptation network for complex processes fault diagnosis
CN116306681A (zh) 基于事实场景的可解释性视觉问答模型构建方法与系统
Lang et al. Multi-stage and multi-branch network with similar expressions label distribution learning for facial expression recognition
Jain et al. Flynet–Neural Network Model for Automatic Building Detection from Satellite Images
CN115761654B (zh) 一种车辆重识别方法
CN111626332B (zh) 一种基于图卷积极限学习机的快速半监督分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Country or region after: China

Address after: 310012 floor 1, building 1, No. 223, Yile Road, Xihu District, Hangzhou City, Zhejiang Province

Applicant after: Yinjiang Technology Co.,Ltd.

Address before: 310012 1st floor, building 1, 223 Yile Road, Hangzhou City, Zhejiang Province

Applicant before: ENJOYOR Co.,Ltd.

Country or region before: China

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant