CN112766360A - 一种基于时序二维化和宽度学习的时间序列分类方法和系统 - Google Patents

一种基于时序二维化和宽度学习的时间序列分类方法和系统 Download PDF

Info

Publication number
CN112766360A
CN112766360A CN202110053327.5A CN202110053327A CN112766360A CN 112766360 A CN112766360 A CN 112766360A CN 202110053327 A CN202110053327 A CN 202110053327A CN 112766360 A CN112766360 A CN 112766360A
Authority
CN
China
Prior art keywords
width learning
sub
data
learning system
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110053327.5A
Other languages
English (en)
Inventor
宣琦
冯婷婷
项靖阳
徐东伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110053327.5A priority Critical patent/CN112766360A/zh
Publication of CN112766360A publication Critical patent/CN112766360A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种基于时序二维化和宽度学习的时间序列分类方法,包括以下步骤:1)对输入数据进行归一化处理,得到X;2)利用四个子宽度学习系统和宽度学习对X进行特征提取,得到深度级联式宽度学习系统的输入U;3)深度级联式宽度学习系统对输入数据U进行分类。本发明将宽度学习和时序二维化相结合,提出了一种特征提取方式,不仅能充分地提取出时间序列的特征,而且能够起到降维的效果,提取出更适合深度级联式宽度学习系统的数据。特征提取完成后再利用深度级联式宽度学习系统进行分类,能够显著地减少时间成本和计算成本。本发明还提供一种基于时序二维化和宽度学习的时间序列分类的系统。

Description

一种基于时序二维化和宽度学习的时间序列分类方法和系统
技术领域
本发明属于时间序列数据分类领域,具体而言,是一种基于时序二维化和宽度学习的时间序列分类方法和系统。
背景技术
时间序列数据是按时间顺序进行观测的的观测值集合,是序列数据中一类重要数据对象,时间序列数据的特点包括数据量大、维度高等。分类和预测是数据挖掘领域的经典问题,然而由于时间序列数据的复杂性,在过去的研究中,时间序列数据分类预测已成为分类研究中的特殊挑战。大量工作致力于时间序列预测的开发和改进,包括从单变量到多变量、从离线到在线、从线性到非线性、从短时间序列到长时间序列等。
不同的任务使用不同的技术处理。例如,单变量时间序列使用Kolmogorov-Smirnov统计假设检验,而多变量时间序列则使用Hotelling T-squared统计假设检验。基于统计和人工智能的方法是时间序列预测的两种主要技术,包括自回归模型、神经网络、支持向量回归、高斯过程、模糊系统等等。在这些方法中,神经网络是使用最广泛的模型,尤其是在深度神经网络问世之后。2006年,Hinton等人提出深层结构具有更好的性能,重新引起了研究人员对神经网络的兴趣。时至今日,已经开发了许多类型的深度神经网络。深度神经网络在发现高维数据中的复杂结构方面非常强大,但是当所有参数都通过反向传播算法进行调整时,就会遇到时间成本高和梯度爆炸或消失的问题。
申请号为201910836145.8的专利所公开的技术方案,一种基于改进脉冲神经网络的时间序列分类方法。此方法使用脉冲神经网络对时间序列信号进行分类,可以实现无监督学习,从而降低了对训练数据的要求。针对脉冲神经网络容易陷入局部最优的问题,使用循环学习率法确定学习率的上下限,使得学习率在合理的范围内循环变化,有效地提升了网络的全局寻优能力。该项技术应用于时间序列分类,然而脉冲神经网络训练时间长,即使能获得较好的识别率,但所需的时间成本、计算成本都成倍增加。本项专利提出的一种基于多种时序二维化方式和宽度学习的时间序列分类方法和系统具有快速学习的能力,并且利用多种时序二维化方式与宽度学习结合的特征提取方式,充分地提取出时间序列数据的特征,提升分类性能。
发明内容
本发明为了缓解时间序列数据分类困难和深度学习分类方法时间成本、计算成本高的问题,提供了一种基于时序二维化和宽度学习的时间序列分类方法和系统。
本发明将宽度学习和时序二维化相结合,提出了一种特征提取方式,不仅能充分地提取出时间序列的特征,而且能够起到降维的效果,提取出更适合深度级联式宽度学习系统的数据。特征提取完成后再利用本发明中提出的深度级联式宽度学习系统进行分类,能够显著地减少时间成本和计算成本。
本发明实现上述发明目的所采用的技术方案如下:
一种基于时序二维化和宽度学习的时间序列分类方法,包括以下步骤:
S1:对输入数据进行归一化处理,得到X∈RN×d,其中,N是样本数量,d是每个样本的维数;
S2:利用四个子宽度学习系统和宽度学习对X进行特征提取,得到深度级联式宽度学习系统的输入U;
S3:深度级联式宽度学习系统对输入数据U进行分类。
进一步的,所述步骤S1具体包括:
S1.1:使用公开时间序列数据集UCR作为样本数据,读取样本数据;
S1.2:对样本数据进行归一化处理,将样本数据范围归一化到[-1,1],将样本数据记为x,则经过归一化后的数据X可表示为:
Figure BDA0002899945630000031
其中,xmin、xmax分别表示x的最小值和最大值,而axis=0表示是对样本数据的每一列求最值。
进一步的,所述步骤S2具体包括:
S2.1:对X进行时序二维化转换:
S2.1.1:第一个子宽度学习系统的数据编码方式为递归图(Recurrence Plot,RP),将X转化为二维纹理图数据,再展平得到H∈RN×h,其中h是RP转化完成后每个样本的维数;
S2.1.2:第二个子宽度学习系统的编码方式为格拉姆角求和场(Gramian AngularSummation Field,GASF),将X转化为二维纹理图数据,再展平得到K∈RN×k,其中k是GASF转化完成后每个样本的维数;
S2.1.3:第三个子宽度学习系统的编码方式为格拉姆角求差场(Gramian AngularDifference Field,GADF),将X转化为二维纹理图数据,再展平得到S∈RN×s,其中s是GADF转化完成后每个样本的维数;
S2.1.4:第四个子宽度学习系统的编码方式为马尔可夫域(MarkovTransitionFields,MTF),将X转化为二维纹理图数据,再展平得到J∈RN×j,其中j是MTF转化完成后每个样本的维数;
S2.2:将步骤S2.1得到的数据H、K、S、J作为相应子宽度学习系统中宽度学习部分的输入,宽度学习部分训练网络的第一层是特征节点和增强节点,第二层是输出层,其中特征节点全连接到增强节点,然后特征节点和增强节点又拼接在一起全连接到输出层。训练完成后,把四个子宽度学习系统中宽度学习部分的输出记为UH、UK、US、UJ
S2.2.1:将第一个子宽度学习系统中时序二维化后的输出H映射为特征节点,对应特征节点输出为:
ZH=ΦZH(HWZHZH) (2)
S2.2.2:再将特征节点映射为增强节点,对应的增强节点输出为:
HH=ΦHH(ZHWHHHH) (3)
其中WEH、WHH是映射权重,βZH、βHH是偏置项,映射权重和偏置项都是随机生成的,ΦZH、ΦHH是任意激活函数;
S2.2.3:第一个子宽度学习系统的输出为:
UH=AHWH (4)
其中,AH=[ZH,HH],WH通过求解伪逆得到的,目标函数如下:
Figure BDA0002899945630000041
其中,Y是类别标签集合,λH是对WH进行进一步约束的超参数,这种求伪逆的方法等效于岭回归算法。从而得到:
Figure BDA0002899945630000042
其中,I为单位矩阵;
S2.2.4:第二个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UK
S2.2.5:第三个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为US
S2.2.6:第四个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UJ
S2.3:将四个子宽度学习系统的最终输出拼接,记为:
Z=[UH,UK,US,UJ] (7)
S2.4:对Z进行一次宽度学习得到深度级联式宽度学习系统的输入U。
进一步的,所述步骤S3具体包括:
S3.1:深度级联式宽度学习系统是由n个宽度学习串联而成,上一个宽度学习的输出作为下一个宽度学习的输入,将最后一个宽度学习的输出作为深度级联式宽度学习系统的分类结果。深度级联式宽度学习系统中的每个宽度学习训练过程与步骤S2.2.1~S2.2.3中所述的宽度学习训练过程一致,步骤S2.4中得到的U作为第一个宽度学习BLS1的输入,BLS1的输出作为BLS2的输入,以此类推。最后,将第n个宽度学习BLSn输出的概率分布矩阵转化成标签集合
Figure BDA0002899945630000051
并计算出识别率作为整个系统的评价指标;
S3.2:通过不断调整深度级联式宽度学习系统中宽度学习的个数n,达到系统的最优识别率。
本发明还提供一种基于时序二维化和宽度学习的时间序列分类的系统,包括包括依次连接并进行单向数据馈送的数据处理模块、特征提取模块、分类模块。
本发明的技术构思为:基于时序二维化和宽度学习的时间序列分类方法,对时间序列数据集进行特征提取,特征提取具体步骤为:利用RP、GASF、GADF、MTF四种时序二维化的方式对时间序列数据集进行转换,得到四种二维纹理图数据H、K、S、J;然后,将四种纹理图数据分别进行一次宽度学习,得到对应的概率分布矩阵UH、UK、US、UJ;最后,将四个概率分布矩阵拼接后的数据Z=[US,UK,US,UJ]再进行一次宽度学习,得到概率分布矩阵U。至此,特征提取过程完成,将U作为深度级联式宽度学习系统的输入。调整深度级联式宽度学习系统中的宽度学习系统的数量n,直到系统达到最佳识别率。
本发明的有益效果:1)深度学习方法原本就存在的时间成本和计算成本高的问题,在处理时间序列这种高维度、复杂数据时,时间成本、计算成本也成倍增加。所以,在本发明中提出一种由多个宽度学习系统串联的深度级联式宽度学习分类方法和系统。宽度学习因为其简单的扁平式结构而具有快速学习的能力,适当地增加网络深度则是为了寻求更好的分类效果。这种方法所需要的时间成本只占深度学习方法的一部分,分类效果却与深度学习方法相当,甚至超过深度学习的分类效果;2)由于时间序列数据的复杂性导致时间序列的分类任务难度大,而且传统的分类方法直接对时间序列数据进行分类,忽略了时间序列的非线性、时序性等特征的问题。在本发明中,利用RP、GASF、GADF、MTF四种时序二维化的方式将时间序列转换成二维纹理图数据,保留了原始时间序列的时间依赖性和相关性。从已有的宽度学习成果来看,宽度学习在小型数据集上有较好的分类性能,但由于其浅层的结构在复杂数据集上表现不好。所以,在本发明中,提出在进行分类任务之前把宽度学习作为一种特征提取方式,对时序二维化后的数据再进行一次特征提取,然后将四个子系统特征提取后的数据拼接在一起,这样每个样本的数据不仅包含了四种二维纹理图的信息,而且是更适合宽度学习的低维、简单数据。而对拼接后的数据所做的宽度学习训练则能够有效地提高深度级联式宽度学习系统的分类精度。
附图说明
图1为本发明方法中的包含四个子宽度学习系统的特征提取过程。
图2为本发明方法中的宽度学习的训练过程。
图3为本发明方法中的深度级联式宽度学习系统结构。
图4为本发明方法的流程示意图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细描述。
参照图1~图4,基于时序二维化和宽度学习的时间序列分类方法,步骤如下:
1)对输入数据进行归一化处理,得到X∈RN×d,其中,N是样本数量,d是每个样本的维数:
1.1)使用公开时间序列数据集UCR作为样本数据,读取样本数据:
本发明中使用的UCR数据集包含85个单变量时间序列数据集,时间序列长度、类别数、样本数量各不相同,能够很充分地检验时间序列分类算法的效果;
1.2)对样本数据进行归一化处理,将样本数据范围归一化到[-1,1],将样本数据记为x,则经过归一化后的数据X可表示为:
Figure BDA0002899945630000071
其中,xmin、xmax分别表示x的最小值和最大值,而axis=0表示是对样本数据的每一列求最值,这样才符合应用实际。
2)如图1所示,利用四个子宽度学习系统和宽度学习对X进行特征提取,得到深度级联式宽度学习系统的输入U:
2.1)对X进行时序二维化转换:
本发明中包括四个子宽度学习系统对应四种不同的时序二维化方式,四种时序二维化方式分别为:格拉姆角求和场(Gramian Angular Summation Field,GASF)、格拉姆角求差场(Gramian Angular Difference Field,GADF)、马尔可夫域(MarkovTransitionFields,MTF)和递归图(Recurrence Plot,RP)。每个子宽度学习系统包括时序二维化部分和宽度学习部分,都是先将时间序列数据转化成成二维纹理图像数据,再经过宽度学习得到相应的概率分布矩阵。各个子宽度学习系统因转化方式各不相同,所以得到的二维数据也各不相同;
2.1.1)第一个子宽度学习系统的数据编码方式为RP,将X转化为二维纹理图数据,再展平得到H∈RN×h,其中h是RP转化完成后每个样本的维数;
2.1.2)第二个子宽度学习系统的编码方式为GASF,将X转化为二维纹理图数据,再展平得到K∈RN×k,其中k是GASF转化完成后每个样本的维数;
2.1.3)第三个子宽度学习系统的编码方式为GADF,将X转化为二维纹理图数据,再展平得到S∈RN×s,其中s是GADF转化完成后每个样本的维数;
2.1.4)第四个子宽度学习系统的编码方式为MTF,将X转化为二维纹理图数据,再展平得到J∈RN×j,其中j是MTF转化完成后每个样本的维数;
2.2)将步骤2.1)得到的数据H、K、S、J作为相应子宽度学习系统中宽度学习部分的输入,宽度学习部分训练网络的第一层是特征节点和增强节点,第二层是输出层,其中特征节点全连接到增强节点,然后特征节点和增强节点又拼接在一起全连接到输出层。训练完成后,把四个子宽度学习系统中宽度学习部分的输出记为UH、UK、US、UJ
2.2.1)将第一个子宽度学习系统中时序二维化后的输出H映射为特征节点,对应特征节点输出为:
ZH=ΦZH(HWZHZH) (2)
2.2.2)再将特征节点映射为增强节点,对应的增强节点输出为:
HH=ΦHH(ZHWHHHH) (3)
其中WEH、WHH是映射权重,βZH、βHH是偏置项,映射权重和偏置项都是随机生成的,ΦZH、ΦHH是任意激活函数;
2.2.3)第一个子宽度学习系统的输出为:
UH=AHWH (4)
其中,AH=[ZH,HH],WH通过求解伪逆得到的,目标函数如下:
Figure BDA0002899945630000091
其中,Y是类别标签集合,λH是对WH进行进一步约束的超参数,这种求伪逆的方法等效于岭回归算法。从而得到:
Figure BDA0002899945630000092
其中,I为单位矩阵;
2.2.4)第二个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UK,;
2.2.5)第三个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为US,;
2.2.6)第四个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UJ
在本方法中所提到的所有宽度学习的训练过程和2.2.1)~2.2.3)中所提到的都是一致的,如图2所示,只存在所起作用以及输入输出的不同。而在每个子宽度学习系统中的宽度学习部分都是起到了特征提取和降维的作用,是为了生成更适合深度级联式宽度学习系统的数据,减少学习时间和学习难度,提升分类性能;
2.3)将四个子宽度学习系统的最终输出拼接,记为:
Z=[UH,UK,US,UJ] (7)
2.4)对Z进行一次宽度学习得到深度级联式宽度学习系统的输入U,此处宽度学习也是起到了特征提取和降维的作用。
3)深度级联式宽度学习系统对输入数据U进行分类,如图3所示:
3.1)深度级联式宽度学习系统是由n个宽度学习串联而成,上一个宽度学习的输出作为下一个宽度学习的输入,将最后一个宽度学习的输出作为深度级联式宽度学习系统的分类结果。深度级联式宽度学习系统中的每个宽度学习训练过程与2.2.1)~2.2.3)中所述的宽度学习训练过程一致,步骤2.4)中得到的U作为第一个宽度学习BLS1的输入,BLS1的输出作为BLS2的输入,以此类推。由公式(4)可知,每个宽度学习的输出都是概率分布矩阵,最后将第n个宽度学习BLSn输出的概率分布矩阵转化成标签集合
Figure BDA0002899945630000101
并计算出识别率作为整个系统的评价指标;
3.2)通过不断调整深度级联式宽度学习系统中宽度学习的个数n,达到系统的最优识别率。
一种基于时序二维化和宽度学习的时间序列分类的系统,包括包括依次连接并进行单向数据馈送的数据处理模块、特征提取模块、分类模块;
数据处理模块,对输入数据进行归一化处理,得到X∈RN×d,其中,N是样本数量,d是每个样本的维数。具体包括:
S1.1:使用公开时间序列数据集UCR作为样本数据,读取样本数据;
S1.2:对样本数据进行归一化处理,将样本数据范围归一化到[-1,1],将样本数据记为x,则经过归一化后的数据X可表示为:
Figure BDA0002899945630000102
其中,xmin、xmax分别表示x的最小值和最大值,而axis=0表示是对样本数据的每一列求最值。
特征提取模块,利用四个子宽度学习系统和宽度学习对X进行特征提取,得到深度级联式宽度学习系统的输入U,具体包括:
S2.1:对X进行时序二维化转换:
S2.1.1:第一个子宽度学习系统的数据编码方式为递归图(Recurrence Plot,RP),将X转化为二维纹理图数据,再展平得到H∈RN×h,其中h是RP转化完成后每个样本的维数;
S2.1.2:第二个子宽度学习系统的编码方式为格拉姆角求和场(Gramian AngularSummation Field,GASF),将X转化为二维纹理图数据,再展平得到K∈RN×k,其中k是GASF转化完成后每个样本的维数;
S2.1.3:第三个子宽度学习系统的编码方式为格拉姆角求差场(Gramian AngularDifference Field,GADF),将X转化为二维纹理图数据,再展平得到S∈RN×s,其中s是GADF转化完成后每个样本的维数;
S2.1.4:第四个子宽度学习系统的编码方式为马尔可夫域(MarkovTransitionFields,MTF),将X转化为二维纹理图数据,再展平得到J∈RN×j,其中j是MTF转化完成后每个样本的维数;
S2.2:将步骤S2.1得到的数据H、K、S、J作为相应子宽度学习系统中宽度学习部分的输入,宽度学习部分训练网络的第一层是特征节点和增强节点,第二层是输出层,其中特征节点全连接到增强节点,然后特征节点和增强节点又拼接在一起全连接到输出层。训练完成后,把四个子宽度学习系统中宽度学习部分的输出记为UH、UK、US、UJ
S2.2.1:将第一个子宽度学习系统中时序二维化后的输出H映射为特征节点,对应特征节点输出为:
ZH=ΦZH(HWZHZH) (2)
S2.2.2:再将特征节点映射为增强节点,对应的增强节点输出为:
HH=ΦHH(ZHWHHHH) (3)
其中WEH、WHH是映射权重,βZH、βHH是偏置项,映射权重和偏置项都是随机生成的,ΦZH、ΦHH是任意激活函数;
S2.2.3:第一个子宽度学习系统的输出为:
UH=AHWH (4)
其中,AH=[ZH,HH],WH通过求解伪逆得到的,目标函数如下:
Figure BDA0002899945630000121
其中,Y是类别标签集合,λH是对WH进行进一步约束的超参数,这种求伪逆的方法等效于岭回归算法。从而得到:
Figure BDA0002899945630000122
其中,I为单位矩阵;
S2.2.4:第二个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UK
S2.2.5:第三个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为US
S2.2.6:第四个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UJ
S2.3:将四个子宽度学习系统的最终输出拼接,记为:
Z=[UH,UK,US,UJ] (7)
S2.4:对Z进行一次宽度学习得到深度级联式宽度学习系统的输入U。
分类模块,深度级联式宽度学习系统对输入数据U进行分类。具体包括:
S3.1:深度级联式宽度学习系统是由n个宽度学习串联而成,上一个宽度学习的输出作为下一个宽度学习的输入,将最后一个宽度学习的输出作为深度级联式宽度学习系统的分类结果。深度级联式宽度学习系统中的每个宽度学习训练过程与步骤S2.2.1~S2.2.3中所述的宽度学习训练过程一致,步骤S2.4中得到的U作为第一个宽度学习BLS1的输入,BLS1的输出作为BLS2的输入,以此类推。最后,将第n个宽度学习BLSn输出的概率分布矩阵转化成标签集合
Figure BDA0002899945630000131
并计算出识别率作为整个系统的评价指标;
S3.2:通过不断调整深度级联式宽度学习系统中宽度学习的个数n,达到系统的最优识别率。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (5)

1.一种基于时序二维化和宽度学习的时间序列分类方法,包括如下步骤:
S1:对输入数据进行归一化处理,得到X∈RN×d,其中,N是样本数量,d是每个样本的维数;
S2:利用四个子宽度学习系统和宽度学习对X进行特征提取,得到深度级联式宽度学习系统的输入U;
S3:深度级联式宽度学习系统对输入数据U进行分类。
2.如权利要求1所述的一种基于时序二维化和宽度学习的时间序列分类方法,其特征在于:所述步骤S1具体包括:
S1.1:使用公开时间序列数据集UCR作为样本数据,读取样本数据:
S1.2:对样本数据进行归一化处理,将样本数据范围归一化到[-1,1],将样本数据记为x,则经过归一化后的数据X可表示为:
Figure FDA0002899945620000011
其中,xmin、xmax分别表示x的最小值和最大值,而axis=0表示是对样本数据的每一列求最值。
3.如权利要求1所述的一种基于时序二维化和宽度学习的时间序列分类方法,其特征在于:所述步骤S2具体包括:
S2.1:对X进行时序二维化转换:
S2.1.1:第一个子宽度学习系统的数据编码方式为递归图(Recurrence Plot,RP),将X转化为二维纹理图数据,再展平得到H∈RN×h,其中h是RP转化完成后每个样本的维数;
S2.1.2:第二个子宽度学习系统的编码方式为格拉姆角求和场(Gramian AngularSummation Field,GASF),将X转化为二维纹理图数据,再展平得到K∈RN×k,其中k是GASF转化完成后每个样本的维数;
S2.1.3:第三个子宽度学习系统的编码方式为格拉姆角求差场(Gramian AngularDifference Field,GADF),将X转化为二维纹理图数据,再展平得到S∈RN×s,其中s是GADF转化完成后每个样本的维数;
S2.1.4:第四个子宽度学习系统的编码方式为马尔可夫域(MarkovTransitionFields,MTF),将X转化为二维纹理图数据,再展平得到J∈RN×j,其中j是MTF转化完成后每个样本的维数;
S2.2:将步骤S2.1得到的数据H、K、S、J作为相应子宽度学习系统中宽度学习部分的输入,宽度学习部分训练网络的第一层是特征节点和增强节点,第二层是输出层,其中特征节点全连接到增强节点,然后特征节点和增强节点又拼接在一起全连接到输出层;训练完成后,把四个子宽度学习系统中宽度学习部分的输出记为UH、UK、US、UJ
S2.2.1:将第一个子宽度学习系统中时序二维化后的输出H映射为特征节点,对应特征节点输出为:
ZH=ΦZH(HWZHZH) (2)
S2.2.2:再将特征节点映射为增强节点,对应的增强节点输出为:
HH=ΦHH(ZHWHHHH) (3)
其中WEH、WHH是映射权重,βZH、βHH是偏置项,映射权重和偏置项都是随机生成的,ΦZH、ΦHH是任意激活函数;
S2.2.3:第一个子宽度学习系统的输出为:
UH=AHWH (4)
其中,AH=[ZH,HH],WH通过求解伪逆得到的,目标函数如下:
Figure FDA0002899945620000021
其中,Y是类别标签集合,λH是对WH进行进一步约束的超参数,这种求伪逆的方法等效于岭回归算法;从而得到:
Figure FDA0002899945620000031
其中,I为单位矩阵;
S2.2.4:第二个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UK
S2.2.5:第三个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为US
S2.2.6:第四个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UJ
S2.3:将四个子宽度学习系统的最终输出拼接,记为:
Z=[UH,UK,US,UJ] (7)
S2.4:对Z进行一次宽度学习得到深度级联式宽度学习系统的输入U。
4.如权利要求1所述的一种基于时序二维化和宽度学习的时间序列分类方法,其特征在于:所述步骤S3具体包括:
S3.1:深度级联式宽度学习系统是由n个宽度学习串联而成,上一个宽度学习的输出作为下一个宽度学习的输入,将最后一个宽度学习的输出作为深度级联式宽度学习系统的分类结果;深度级联式宽度学习系统中的每个宽度学习训练过程与步骤S2.2.1~S2.2.3中所述的宽度学习训练过程一致,步骤S2.4中得到的U作为第一个宽度学习BLS1的输入,BLS1的输出作为BLS2的输入,以此类推;最后,将第n个宽度学习BLSn输出的概率分布矩阵转化成标签集合
Figure FDA0002899945620000032
并计算出识别率作为整个系统的评价指标;
S3.2:通过不断调整深度级联式宽度学习系统中宽度学习的个数n,达到系统的最优识别率。
5.一种基于时序二维化和宽度学习的时间序列分类的系统,其特征在于:包括依次连接并进行单向数据馈送的数据处理模块、特征提取模块、分类模块;
数据处理模块,对输入数据进行归一化处理,得到X∈RN×d,其中,N是样本数量,d是每个样本的维数;具体包括:
S1.1:使用公开时间序列数据集UCR作为样本数据,读取样本数据;
S1.2:对样本数据进行归一化处理,将样本数据范围归一化到[-1,1],将样本数据记为x,则经过归一化后的数据X可表示为:
Figure FDA0002899945620000041
其中,xmin、xmax分别表示x的最小值和最大值,而axis=0表示是对样本数据的每一列求最值;
特征提取模块,利用四个子宽度学习系统和宽度学习对X进行特征提取,得到深度级联式宽度学习系统的输入U,具体包括:
S2.1:对X进行时序二维化转换:
S2.1.1:第一个子宽度学习系统的数据编码方式为递归图(Recurrence Plot,RP),将X转化为二维纹理图数据,再展平得到H∈RN×h,其中h是RP转化完成后每个样本的维数;
S2.1.2:第二个子宽度学习系统的编码方式为格拉姆角求和场(Gramian AngularSummation Field,GASF),将X转化为二维纹理图数据,再展平得到K∈RN×k,其中k是GASF转化完成后每个样本的维数;
S2.1.3:第三个子宽度学习系统的编码方式为格拉姆角求差场(Gramian AngularDifference Field,GADF),将X转化为二维纹理图数据,再展平得到S∈RN×s,其中s是GADF转化完成后每个样本的维数;
S2.1.4:第四个子宽度学习系统的编码方式为马尔可夫域(MarkovTransitionFields,MTF),将X转化为二维纹理图数据,再展平得到J∈RN×j,其中j是MTF转化完成后每个样本的维数;
S2.2:将步骤S2.1得到的数据H、K、S、J作为相应子宽度学习系统中宽度学习部分的输入,宽度学习部分训练网络的第一层是特征节点和增强节点,第二层是输出层,其中特征节点全连接到增强节点,然后特征节点和增强节点又拼接在一起全连接到输出层;训练完成后,把四个子宽度学习系统中宽度学习部分的输出记为UH、UK、US、UJ
S2.2.1:将第一个子宽度学习系统中时序二维化后的输出H映射为特征节点,对应特征节点输出为:
ZH=ΦZH(HWZHZH) (2)
S2.2.2:再将特征节点映射为增强节点,对应的增强节点输出为:
HH=ΦHH(ZHWHHHH) (3)
其中WEH、WHH是映射权重,βZH、βHH是偏置项,映射权重和偏置项都是随机生成的,ΦZH、ΦHH是任意激活函数;
S2.2.3:第一个子宽度学习系统的输出为:
UH=AHWH (4)
其中,AH=[ZH,HH],WH通过求解伪逆得到的,目标函数如下:
Figure FDA0002899945620000051
其中,Y是类别标签集合,λH是对WH进行进一步约束的超参数,这种求伪逆的方法等效于岭回归算法;从而得到:
Figure FDA0002899945620000052
其中,I为单位矩阵;
S2.2.4:第二个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UK
S2.2.5:第三个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为US
S2.2.6:第四个子宽度学习系统的宽度学习的训练过程与第一个子宽度学习系统的宽度学习的训练过程相同,系统输出记为UJ
S2.3:将四个子宽度学习系统的最终输出拼接,记为:
Z=[UH,UK,US,UJ] (7)
S2.4:对Z进行一次宽度学习得到深度级联式宽度学习系统的输入U;
分类模块,深度级联式宽度学习系统对输入数据U进行分类,具体包括:
S3.1:深度级联式宽度学习系统是由n个宽度学习串联而成,上一个宽度学习的输出作为下一个宽度学习的输入,将最后一个宽度学习的输出作为深度级联式宽度学习系统的分类结果;深度级联式宽度学习系统中的每个宽度学习训练过程与步骤S2.2.1~S2.2.3中所述的宽度学习训练过程一致,步骤S2.4中得到的U作为第一个宽度学习BLS1的输入,BLS1的输出作为BLS2的输入,以此类推;最后,将第n个宽度学习BLSn输出的概率分布矩阵转化成标签集合
Figure FDA0002899945620000061
并计算出识别率作为整个系统的评价指标;
S3.2:通过不断调整深度级联式宽度学习系统中宽度学习的个数n,达到系统的最优识别率。
CN202110053327.5A 2021-01-15 2021-01-15 一种基于时序二维化和宽度学习的时间序列分类方法和系统 Withdrawn CN112766360A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110053327.5A CN112766360A (zh) 2021-01-15 2021-01-15 一种基于时序二维化和宽度学习的时间序列分类方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110053327.5A CN112766360A (zh) 2021-01-15 2021-01-15 一种基于时序二维化和宽度学习的时间序列分类方法和系统

Publications (1)

Publication Number Publication Date
CN112766360A true CN112766360A (zh) 2021-05-07

Family

ID=75700823

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110053327.5A Withdrawn CN112766360A (zh) 2021-01-15 2021-01-15 一种基于时序二维化和宽度学习的时间序列分类方法和系统

Country Status (1)

Country Link
CN (1) CN112766360A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113098910A (zh) * 2021-05-13 2021-07-09 福州大学 基于时空粒度和三宽度学习的网络入侵检测方法及系统
CN113283530A (zh) * 2021-06-08 2021-08-20 重庆大学 基于级联特征块的图像分类系统
CN113657479A (zh) * 2021-08-12 2021-11-16 广东省人民医院 一种新型多尺度深宽结合的病理图片分类方法、系统及介质
CN115063978A (zh) * 2022-07-27 2022-09-16 武汉微晶石科技股份有限公司 一种基于数字孪生的公交到站时间预测方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113098910A (zh) * 2021-05-13 2021-07-09 福州大学 基于时空粒度和三宽度学习的网络入侵检测方法及系统
CN113283530A (zh) * 2021-06-08 2021-08-20 重庆大学 基于级联特征块的图像分类系统
CN113283530B (zh) * 2021-06-08 2022-11-15 重庆大学 基于级联特征块的图像分类系统
CN113657479A (zh) * 2021-08-12 2021-11-16 广东省人民医院 一种新型多尺度深宽结合的病理图片分类方法、系统及介质
CN113657479B (zh) * 2021-08-12 2022-12-06 广东省人民医院 一种新型多尺度深宽结合的病理图片分类方法、系统及介质
CN115063978A (zh) * 2022-07-27 2022-09-16 武汉微晶石科技股份有限公司 一种基于数字孪生的公交到站时间预测方法

Similar Documents

Publication Publication Date Title
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN112766360A (zh) 一种基于时序二维化和宽度学习的时间序列分类方法和系统
CN111414461B (zh) 一种融合知识库与用户建模的智能问答方法及系统
CN112364779A (zh) 信号处理与深-浅网络多模型融合的水声目标识别方法
CN112765352A (zh) 基于具有自注意力机制的图卷积神经网络文本分类方法
CN111008224B (zh) 一种基于深度多任务表示学习的时间序列分类和检索方法
CN111400494B (zh) 一种基于GCN-Attention的情感分析方法
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN113240683B (zh) 基于注意力机制的轻量化语义分割模型构建方法
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
CN114488069A (zh) 基于图神经网络的雷达高分辨率距离像识别方法
CN111859936B (zh) 一种基于深度混合网络的面向跨域立案的法律文书专业管辖权识别方法
CN115482575A (zh) 一种基于标记分布学习的面部表情识别方法
CN115100694A (zh) 一种基于自监督神经网络的指纹快速检索方法
CN115564721A (zh) 基于局部信息增强的高光谱图像变化检测方法
CN112966544A (zh) 一种采用ICGAN与ResNet网络的雷达辐射源信号分类识别方法
Qi et al. A network pruning method for remote sensing image scene classification
Ge et al. Multi-grained cascade adaboost extreme learning machine for feature representation
CN110188692A (zh) 一种有效目标快速识别的强化循环级联方法
CN111259658B (zh) 一种基于类别稠密向量表示的通用文本分类方法及系统
CN114625871B (zh) 一种基于注意力位置联合编码的三元组分类方法
CN113837048B (zh) 基于少样本注意力的车辆重识别方法
CN114496303B (zh) 一种基于多通道神经网络的抗癌药物筛选方法
CN113111774B (zh) 一种基于主动增量式微调的雷达信号调制方式识别方法
Gopalakrishnan Vector Spaces for Multiple Modal Embeddings

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210507