CN113035361A - 一种基于数据增强的神经网络时间序列分类方法 - Google Patents
一种基于数据增强的神经网络时间序列分类方法 Download PDFInfo
- Publication number
- CN113035361A CN113035361A CN202110179057.2A CN202110179057A CN113035361A CN 113035361 A CN113035361 A CN 113035361A CN 202110179057 A CN202110179057 A CN 202110179057A CN 113035361 A CN113035361 A CN 113035361A
- Authority
- CN
- China
- Prior art keywords
- time series
- lstm
- fcn
- sample
- equal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 34
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims abstract description 4
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 4
- 238000012360 testing method Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 101150049349 setA gene Proteins 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000002759 z-score normalization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 5
- 238000013145 classification model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于数据增强的神经网络时间序列分类方法,首先,对时间序列数据集进行预处理;其次,选择合适的参数α对训练数据进行Mixup数据增强,增强后的数据用于模型训练;接着,构建LSTM‑FCN时间序列分类网络模型;最后,以交叉熵函数作为损失函数,使用反向传播和梯度下降算法Adam训练LSTM‑FCN网络。本发明的基于数据增强的时间序列分类方法有效提高了神经网络的时间序列分类性能。
Description
技术领域
本发明属于时间序列分类领域,尤其涉及一种基于数据增强的神经网络时间序列分类方法。
背景技术
时间序列数据广泛地存在于生产生活中,例如股票的走向趋势、天气的温度、患者的心电图等,分析这些时序数据,并从中挖掘出重要信息对指导人们生产生活具有重大意义。时间序列分类是时间序列问题中比较重要且具有挑战性的任务,传统的时间序列分类方法,往往依靠人工设计特征,计算过程繁琐且时间复杂度高。而基于深度学习的方法,则需要大量的训练数据保证模型的泛化能力,以避免过拟合和欠拟合,这种方法在数据量小的情况下,难以发挥作用。
目前时间序列分类方法大致可分为基于距离的方法、基于特征的方法和基于深度学习的方法。基于距离的方法以欧氏距离或动态时间规整距离等,使用最近邻分类器以距离关系做分类;基于特征的方法,通过人工设计以形状,频率,统计学参数等作为特征,训练分类模型(如支持向量机、随机森林等);基于深度学习的方法,通过设计神经网络结构,直接输入原始数据训练模型,实现了端到端的训练过程。为了训练出高准确率的模型,深度学习方法通常需要大量数据,但在现实世界中很难获取充足的数据集供模型使用,因此存在一定局限性。
数据增强作为一种有效提高模型泛化能力、提升模型分类精度的技术手段,已经被广泛应用于深度学习模型的训练过程中。该技术通过对数据进行一定变换,得到新数据,这些新数据可作为对原始数据集的补充,帮助模型训练,提高模型性能。本发明利用Mixup数据增强技术训练神经网络模型,可有效提高网络模型性能,提高分类准确率;本发明可操作性,通用性较强,适用于各种基于深度学习的时间序列分类模型。
发明内容
本发明要解决的技术问题是,提供一种基于数据增强的神经网络时间序列分类方法,克服训练数据集不足的问题。本发明通过Mixup数据增强技术扩展数据集,使训练好的神经网络模型更具鲁棒性,从而提高网络对时间序列数据的分类能力。
为实现上述目的,本发明采用如下的技术方案:
一种基于数据增强的神经网络时间序列分类方法,包括以下步骤:
步骤1:对包含N个样本的时间序列数据集D={(x1,y1),(x2,y2),...,(xN,yN)}进行预处理;预处理步骤包括:
步骤1.1:使用z-score标准化方法对时间序列数据集D进行标准化处理,标准化公式为:
其中,xi表示第i(1≤i≤N)个时间序列样本,μ表示时间序列样本均值,σ表示时间序列样本方差,xi′表示标准化后的第i(1≤i≤N)个时间序列样本;
步骤1.2:将时间序列样本类别标签yi(1≤i≤N)转换为独热编码y′i(1≤i≤N),其中,y′i为具有C个元素的一维向量,C为时间序列样本类别数量,转换公式为:
其中,j∈[0,C),且j属于整数;
步骤1.3:将数据集D以8:2划分为训练集Dtrain(包含Ntrain个时间序列样本)和测试集Dtest(包含Ntest个时间序列样本)。
步骤2:对训练集Dtrain进行数据增强,具体步骤包括:
步骤2.1:根据Mixup公式,首先选择参数α:
其中,(x′p,y′p)和(x′q,y′q)(1≤p≤Ntrain,1≤q≤Ntrain,p,q∈N+)为两个不同的时间序列样本,为生成的时间序列样本,λ~Beta(α,α),α∈(0,∞),选择参数α,并从Beta(α,α)分布中产生随机数λ;
步骤2.2:从训练集Dtrain中依次选择M(1≤M≤Ntrain)个样本,得到时间序列样本集Dp={(x′p1,y′p1),(x′p2,y′p2),...,(x′pM,y′pM)},对样本集Dp随机排列,得到时间序列样本集Dq={(x′q1,y′q1),(x′q2,y′q2),...,(x′qM,y′qM)},其中pm≠qm(1≤m≤M);
步骤3:构建LSTM-FCN模型,LSTM-FCN中有两个并行分支:LSTM和FCN,LSTM由一个LSTM单元组成,隐含状态个数为8,最后是丢弃率为0.8的丢弃层;FCN由3个一维卷积层组成,分别具有{7×1,5×1,3×1}的卷积核和{128,256,128}个通道,卷积步长均为1,每个卷积层后都有一个块归一化层和修正线性单元,FCN的最后一层为全局平均池化层;对于第i个输入时间序列样本,LSTM-FCN首先分别使用LSTM和FCN提取特征fLSTM和fFCN,然后将特征fLSTM、fFCN在特征维度上进行拼接,最后使用Softmax对拼接的特征进行分类。
步骤4:选择迭代次数、学习率参数,每次迭代按照步骤2.2,步骤2.3生成训练集Dmixup训练LSTM-FCN模型,以交叉熵函数作为损失函数,使用反向传播和梯度下降算法Adam训练网络,并保存训练好的网络,交叉熵函数公式为:
步骤5:在测试集Dtest上测试训练好的LSTM-FCN网络,计算时间序列的分类准确率。
与现有技术相比,本发明具有哪些有益效果,可以结合技术原理进行下相关描述。
附图说明
图1为本发明的基本方法流程示意图。
图2为时间序列数据样本。
图3为实例的神经网络LSTM-FCN模型结构。
图4为实例的测试准确率结果。
具体实施方式
本发明实施例提供一种基于数据增强的神经网络时间序列分类方法,下面结合相关附图对本发明进行解释和阐述:
本发明在Mixup数据增强基础上,数据集使用单变量时间序列数据CinCECGTorso,CinCECGTorso数据集包含了4种类别,共有1420个样本,序列长度为1639。采用LSTM-FCN网络作为分类模型。
本发明的实施方案流程如下:
步骤1:对具有1420个样本的CinCECGTorso时间序列数据集D={(x1,y1),(x2,y2),...,(x1420,y1420)}进行预处理;具体步骤包括:
步骤1.1:使用z-score标准化方法对数据集D进行标准化处理,标准化公式为:
其中,xi表示第i(1≤i≤1420)个样本,μ表示样本均值,σ表示样本方差,xi′表示标准化后的第i(1≤i≤1420)个样本;
步骤1.2:将样本类别标签yi(1≤i≤1420)转换为独热编码y′i(1≤i≤1420),其中,y′i为具有4个元素的一维向量,转换公式为:
其中,j∈{0,1,2,3};
步骤1.3:将数据集CinCECGTorso按照8:2划分为训练集Dtrain和测试集Dtest,其中,训练集Dtrain共有1136个样本,测试集Dtest共有284个样本,部分训练集样本如图2所示;
步骤2:对训练集Dtrain进行数据增强,具体步骤包括:
步骤2.1:根据Mixup公式,首先选择参数α:
其中,(x′p,y′p)和(x′q,y′q)(1≤p≤1136,1≤q≤1136,p,q∈N+)为两个不同的样本,为生成的样本,λ~Beta(α,α),α∈(0,∞),选择参数α=0.2,并从Beta(0.2,0.2)分布中产生随机数λ;
步骤2.2:从训练集Dtrain中依次选择64个样本,得到样本集Dp={(x′p1,y′p1),(x′p2,y′p2),...,(x′p64,y′p64)},对样本集Dp随机排列,得到样本集Dq={(x′q1,y′q1),(x′q2,y′q2),...,(x′q64,y′q64)},其中pm≠qm(1≤m≤64);
步骤3:构建LSTM-FCN模型,其结构如图3所示,LSTM-FCN中有两个并行分支:LSTM和FCN,LSTM由一个LSTM单元组成,隐含状态个数为8,最后是丢弃率为0.8的丢弃层;FCN由3个一维卷积层组成,分别具有{7×1,5×1,3×1}的卷积核和{128,256,128}个通道,卷积步长均为1,每个卷积层后都有一个块归一化层和修正线性单元,FCN的最后一层为全局平均池化层;对于第i个输入样本,LSTM-FCN首先分别使用LSTM和FCN提取特征fLSTM和fFCN,然后将特征fLSTM、fFCN在特征维度上进行拼接,最后使用Softmax对拼接的特征进行分类;
步骤4:选择迭代次数900次、学习率0.0001,每次迭代按照步骤2.2,步骤2.3生成训练集Dmixup训练LSTM-FCN模型,以交叉熵函数作为损失函数,使用反向传播和梯度下降算法Adam训练网络,并保存训练好的网络,交叉熵函数公式为:
步骤5:在测试集Dtest上测试训练好的LSTM-FCN网络,计算分类准确率,测试结果见图4。
以上实例仅用于描述本发明,而非限制本发明所描述的技术方案。因此,一切不脱离本发明精神和范围的技术方案及其改进,均应涵盖在本发明的权利要求范围中。
Claims (3)
1.一种基于数据增强的神经网络时间序列分类方法,其特征在于:包括以下步骤:
步骤1:对包含N个样本的时间序列数据集D={(x1,y1),(x2,y2),...,(xN,yN)}进行预处理;
步骤2:对训练集Dtrain进行数据增强;
步骤3:构建LSTM-FCN模型,LSTM-FCN中有两个并行分支:LSTM和FCN,LSTM由一个LSTM单元组成,隐含状态个数为8,最后是丢弃率为0.8的丢弃层;FCN由3个一维卷积层组成,分别具有{7×1,5×1,3×1}的卷积核和{128,256,128}个通道,卷积步长均为1,每个卷积层后都有一个块归一化层和修正线性单元,FCN的最后一层为全局平均池化层;对于第i个输入时间序列样本,LSTM-FCN首先分别使用LSTM和FCN提取特征fLSTM和fFCN,然后将特征fLSTM、fFCN在特征维度上进行拼接,最后使用Softmax对拼接的特征进行分类;
步骤4:选择迭代次数、学习率参数,每次迭代按照生成训练集Dmixup训练LSTM-FCN模型,以交叉熵函数作为损失函数,使用反向传播和梯度下降算法Adam训练网络,并保存训练好的网络,交叉熵函数公式为:
步骤5:在测试集Dtest上测试训练好的LSTM-FCN网络,计算时间序列的分类准确率。
3.根据权利要求1所述的一种基于数据增强的神经网络时间序列分类方法,其特征在于:步骤2包括:
步骤2.1:根据Mixup公式,首先选择参数α:
其中,(x′p,y′p)和(x′q,y′q)为两个不同的时间序列样本,为生成的时间序列样本,λ~Beta(α,α),α∈(0,∞),选择参数α,并从Beta(α,α)分布中产生随机数λ;1≤p≤Ntrain,1≤q≤Ntrain,p,q∈N+;
步骤2.2:从训练集Dtrain中依次选择M个样本,1≤M≤Ntrain,得到时间序列样本集Dp={(x′p1,y′p1),(x′p2,y′p2),...,(x′pM,y′pM)},对样本集Dp随机排列,得到时间序列样本集Dq={(x′q1,y′q1),(x′q2,y′q2),...,(x′qM,y′qM)},其中pm≠qm,1≤m≤M;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110179057.2A CN113035361A (zh) | 2021-02-09 | 2021-02-09 | 一种基于数据增强的神经网络时间序列分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110179057.2A CN113035361A (zh) | 2021-02-09 | 2021-02-09 | 一种基于数据增强的神经网络时间序列分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113035361A true CN113035361A (zh) | 2021-06-25 |
Family
ID=76460887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110179057.2A Pending CN113035361A (zh) | 2021-02-09 | 2021-02-09 | 一种基于数据增强的神经网络时间序列分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113035361A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705715A (zh) * | 2021-09-04 | 2021-11-26 | 大连钜智信息科技有限公司 | 一种基于lstm和多尺度fcn的时间序列分类方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275113A (zh) * | 2020-01-20 | 2020-06-12 | 西安理工大学 | 基于代价敏感混合网络的偏斜类时间序列异常检测方法 |
CN111833906A (zh) * | 2020-07-25 | 2020-10-27 | 江南大学 | 基于多路声学特征数据增强的声场景分类方法 |
CN112168138A (zh) * | 2019-07-02 | 2021-01-05 | 爱科维申科技(天津)有限公司 | 基于fcn和gru的鸡蛋胚胎成活性分类方法 |
-
2021
- 2021-02-09 CN CN202110179057.2A patent/CN113035361A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112168138A (zh) * | 2019-07-02 | 2021-01-05 | 爱科维申科技(天津)有限公司 | 基于fcn和gru的鸡蛋胚胎成活性分类方法 |
CN111275113A (zh) * | 2020-01-20 | 2020-06-12 | 西安理工大学 | 基于代价敏感混合网络的偏斜类时间序列异常检测方法 |
CN111833906A (zh) * | 2020-07-25 | 2020-10-27 | 江南大学 | 基于多路声学特征数据增强的声场景分类方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705715A (zh) * | 2021-09-04 | 2021-11-26 | 大连钜智信息科技有限公司 | 一种基于lstm和多尺度fcn的时间序列分类方法 |
CN113705715B (zh) * | 2021-09-04 | 2024-04-19 | 大连钜智信息科技有限公司 | 一种基于lstm和多尺度fcn的时间序列分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376242B (zh) | 基于循环神经网络变体和卷积神经网络的文本分类方法 | |
Han et al. | Autoencoder inspired unsupervised feature selection | |
CN107832663B (zh) | 一种基于量子理论的多模态情感分析方法 | |
CN109271522B (zh) | 基于深度混合模型迁移学习的评论情感分类方法及系统 | |
CN112818861B (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN110046671A (zh) | 一种基于胶囊网络的文本分类方法 | |
CN111144448A (zh) | 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 | |
CN111666406B (zh) | 基于自注意力的单词和标签联合的短文本分类预测方法 | |
CN108038492A (zh) | 一种基于深度学习的感性词向量及情感分类方法 | |
CN112560432A (zh) | 基于图注意力网络的文本情感分析方法 | |
Peng et al. | Markov random field based convolutional neural networks for image classification | |
CN112115265A (zh) | 文本分类中的小样本学习方法 | |
CN116311483B (zh) | 基于局部面部区域重构和记忆对比学习的微表情识别方法 | |
CN113673242A (zh) | 一种基于k邻近结点算法和对比学习的文本分类方法 | |
CN114925205B (zh) | 基于对比学习的gcn-gru文本分类方法 | |
Lin et al. | A deep clustering algorithm based on gaussian mixture model | |
Huang et al. | Deep clustering based on embedded auto-encoder | |
CN113392191B (zh) | 一种基于多维度语义联合学习的文本匹配方法和装置 | |
Xhaferra et al. | Classification of standard fashion MNIST dataset using deep learning based CNN algorithms | |
CN113035361A (zh) | 一种基于数据增强的神经网络时间序列分类方法 | |
Ma et al. | Multi-scale cooperative multimodal transformers for multimodal sentiment analysis in videos | |
Tang et al. | A multi-scale convolutional attention based GRU network for text classification | |
Marconi et al. | Hyperbolic manifold regression | |
CN112381108A (zh) | 一种基于图卷积神经网络深度学习的枪弹痕迹相似度识别方法和系统 | |
CN115905545A (zh) | 一种基于变分自编码器的无监督读者书评情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |