CN116401537A - 基于多任务的网络多元时间流量序列异常检测方法及装置 - Google Patents
基于多任务的网络多元时间流量序列异常检测方法及装置 Download PDFInfo
- Publication number
- CN116401537A CN116401537A CN202111579302.5A CN202111579302A CN116401537A CN 116401537 A CN116401537 A CN 116401537A CN 202111579302 A CN202111579302 A CN 202111579302A CN 116401537 A CN116401537 A CN 116401537A
- Authority
- CN
- China
- Prior art keywords
- sequence
- window
- data
- dimension
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 31
- 230000002159 abnormal effect Effects 0.000 claims abstract description 15
- 230000005856 abnormality Effects 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 32
- 238000009826 distribution Methods 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000015654 memory Effects 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 2
- 238000003860 storage Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- RTZKZFJDLAIYFH-UHFFFAOYSA-N ether Substances CCOCC RTZKZFJDLAIYFH-UHFFFAOYSA-N 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开一种基于多任务的网络多元时间流量序列异常检测方法及装置,包括:对待测网络多元时间流量序列依据时间窗口进行切分,获取若干窗口序列;分别编码窗口序列与,得到潜在表示;基于潜在表示分别进行重建与预测,得到重建序列与预测序列;根据窗口序列与重建序列及窗口序列与预测序列在每一维度上的评分误差分数,获取异常检测结果。本发明采用多任务多结构的训练模型,减少由于单任务检测的不确定性因素导致的检测误报,解决了许多异常检测场景中固有的可解释性、规模、精度和复杂性等关键挑战,可识别最有可能在时间序列中导致异常的维度,减少了大量人力和计算资源。
Description
技术领域
本发明涉及深度学习领域,具体来说是一种基于多任务的网络多元时间流量序列异常检测方法及装置。
背景技术
近年来,深度学习技术取得了突飞猛进的进展。本质上说,深度学习是多层的神经网络,对输入进行了层级的非线性表示,来自大量实验表明,深度网络的层级表示在语义上从底层到高层不断递进。尽管在过去几年中利用深度学习在异常检测上取得了丰硕的进展,但在无监督的情况下对多元或者高维数据进行异常检测仍然是一项具有挑战性的任务。网络多元时间流量序列异常检测是一个活跃的话题。监督学习方法需要标记数据用于模型训练,并且只能识别已知异常类型的异常数据。因此,有监督的方法用途有限,无监督的方法更能适用于当前复杂的系统应用中。近年来多元时间序列异常检测的最先进的无监督解决方案可分为以下类型:
一种传统类型是距离方法。例如,KNN算法根据每个数据样本到其k个最近邻居的平均距离计算异常分数。类似地,聚类模型对不同的数据样本进行聚类,并通过预定义的异常值分数发现异常。此外,分类方法,例如One-Class SVM,对训练数据的密度分布进行建模,并将新数据分类为正常或异常。尽管这些方法已经在各种应用中证明了它们的有效性,但它们在多元时间序列上可能效果不佳,因为它们无法更好地捕获数据之间的时间依赖性。
除了传统方法之外,基于深度学习的无监督异常检测算法最近也获得了很多关注,主要有如下几种:首先是基于LSTM的编码器-解码器方案,用于多传感器时间序列中的异常检测。编码器学习输入时间序列的矢量表示,解码器使用该表示来重建时间序列。经过训练的基于LSTM的编码器-解码器可以重建“正常”时间序列的实例,而目标时间序列就是输入时间序列本身,然后,将使用任何将来时间实例的重建误差来计算该点出现异常的可能性。其次是还有人提出了一个多尺度卷积递归编译码器,通过构建多尺度特征矩阵,以表征不同时间步长上的多级系统状态,使用卷积编码器对时间序列相关模式进行编码,利用对传感器间相关性和时间信息进行编码的特征映射,使用卷积解码器来重构特征矩阵,并且进一步利用剩余特征矩阵来检测和诊断异常。此外,还有人提出了一种基于深度自动编码器的方法,以便联合学习降维和聚类组件。它通过一个称为估计网络的子网络,该子网络评估由其压缩网络产生的低维空间中的样本密度,它降低输入观测值的维数,得到潜在的表征,通过预测样本混合隶属度并利用GMM估计表征的密度。然而,这种方法是为多元变量而不是多元时间序列设计的,忽略了时间序列固有的时间依赖性。
发明内容
为了克服上述问题,本发明公开了一种基于多任务的网络多元时间流量序列异常检测方法及装置,开发了一个多任务的异常检测模型,采用多任务训练模型,一部分是生成网络,用来根据当前时间的多元时序数据进行数据的异常估计,另一部分是预测网络,根据当前时间点之前的一些信息,预测当前的数据状态,将两个网络的结果进行融合评估进而进行异常数据的判断。
为了实现上述目的,本发明的技术内容包括:
一种基于多任务的网络多元时间流量序列异常检测方法,其步骤包括:
对待测网络多元时间流量序列依据时间窗口进行切分,获取若干窗口序列Wt;
分别编码窗口序列Wt-1与窗口序列Wt,得到潜在表示Zt-1与潜在表示Zt;
基于潜在表示Zt与潜在表示Zt-1分别进行重建与预测,得到重建序列W′t与预测序列W″t;
根据窗口序列Wt与重建序列W′t及窗口序列Wt与预测序列W″t在每一维度上的评分误差分数,获取异常检测结果。
进一步地,编码窗口序列Wt之前,通过Min-Max归一化方法,对窗口序列Wt中各维度数据进行预处理。
进一步地,通过以下步骤得到潜在表示Zt:
1)将窗口序列Wt输入LSTM层,得到表示ht;
2)利用全连接层计算表示ht的均值与标准差;
3)基于所述均值与标准差,得到潜在表示Zt。
进一步地,所述全连接层中的正太分布函数为后验分布。
进一步地,通过以下步骤得到重建序列W′t:
1)将潜在表示Zt与时间t-1处的变量dt-1输入LSTM单元,得到变量dt;
2)将变量dt输入一全连接层,得到重建序列W′t。
进一步地,得到预测序列W″t的方法包括:使用一个基于RNN改进的LSTM神经网络。
进一步地,基于生成器的损失函数LossA、预测器的损失函数LossB与整体任务损失函数L进行训练,其中所述生成器用以重建,所述预测器用以预测,所述损失函数 所述损失函数 所述损失函数L=∑i′wi′·Li′,n为训练流量序列的长度,Wi为真实数据,W′i为重建数据,θ函数代表欧氏距离的聚类算法,表示ht基于该训练流量与一LSTM层得到,W″i为预测数据,wi′为权重参数,Li′为每个任务i′的损失。
进一步地,通过以下步骤得到异常检测结果:
1)根据窗口序列Wt与重建序列W′t及窗口序列Wt与预测序列W″t在每一维度上的评分误差分数,获取各维度评分误差分数;
2)将各维度评分误差分数与一阈值进行比较,基于差值获取各维度数据的异常贡献度;
3)将各维度数据的异常贡献度作为异常检测结果。
一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行以上所述方法。
一种电子装置,包括存储器和处理器,其中存储器存储执行以上所述方法的程序。
与现有技术相比,本发明具有以下优点:
(1)采用多任务多结构的训练模型,减少由于单任务检测的不确定性因素导致的检测误报,同时解决了许多异常检测场景中固有的可解释性、规模、精度和复杂性等关键挑战。
(2)与通常的异常检测方法相比,该模型具有异常诊断的功能,即给出检测结果,识别最有可能在时间序列中导致异常的维度。
(3)由于异常多样性和缺乏训练标签,本发明的方法是一种无监督的方法。并且是对整体维度检测实体异常,因为为每个维度指标训练和维护单独的异常检测模型是一项劳动密集型的工作,会耗费大量人力和计算资源。
附图说明
图1为网络多元时间流量序列异常检测的流程图。
图2为模型训练阶段总体示意图。
图3为任务一训练示意图。
图4为任务二训练示意图。
图5为异常分数检测示意图。
图6为IND数据集实验结果图。
图7为PFD数据集实验结果。
图8为消融实验结果图。
具体实施方式
下面将结合本发明实施方式,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本发明特定实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
网络多元时间流量序列通常是指在网络中连续观察的相等时间间隔收集的多个维度的KPI数据。在本发明中,定义原始时间序列T中每一维度下的数据x={x1,x2,...,xN},其中N是x的长度,xt是一个观测值(其中xt∈RM),即在t(t≤N)时间点的M维向量:
将原始时间序列T转换为窗口序列Wt={Xt-K+1,…,Xt-1,Xt}用作训练输入,K为给定时间长度。给定一个二元变量y∈[0,1],异常检测的目标是计算一个未知窗口Wt(t>T)的标签yt来指示在时间点t检测到的异常,即通过yt=1或yt=0判断窗口的异常情况。
本发明整体结构由两部分组成:离线训练和在线检测。数据预处理是离线训练和在线检测共享的模块。在数据预处理过程中,数据集通过数据标准化进行转换,然后将多元时间序列分割成长度为K的滑动窗口。经过预处理后,训练一个多元时间序列,通常跨越一段时间(例如,一周或者一个月),被发送到模型训练模块以学习一个模型,该模型捕获多元时间序列的正常模式并为每个观察输出异常分数。阈值选择模块使用这些异常分数来按照阈值选择方法自动选择异常阈值。该离线培训程序可以定期进行,例如每周或每月一次。具体流程如图1所示。
本发明提出的网络整体结构如图2所示,它由编码器(Encoder),生成器和预测器三部分组成,Encoder利用VAE模型将一个高维输入Wt表示为一个降维的潜在表示Zt,生成器通过将t时刻的压缩潜在变量和先前的一些信息进行重建得到W′t,预测器通过利用t-1时刻的压缩潜在变量来预测t时刻的序列得到W″t。其主要作用是对历史链路流量进行有损压缩和有损恢复,进而获得输入数据中最重要和最稳定的信息。
步骤1:数据的特征提取。首先会将异常检测的数据流按照时间点转化成长度为K的滑动窗口,即Wt={Xt-K+1,…,Xt-1,Xt},这些滑动窗口会批量进行训练,但是因为数据集中所有维度的数值较大,且不同维度间的数据的数量级不同,这会造成某些指标被忽视,模型在收敛过程中不易找到全局最优解。为了使所有不同维度的特征处于同一量纲,因此对数据进行操作之前,本发明需要对数据集中的数据进行特征缩放,特征缩放会使得模型在寻优过程中变得平缓,最后更容易收敛到模型的最优解。本发明使用的是Min-Max归一化也叫离差归一化,具体公式见公式(1),max和min分别指该维度下的最大值和最小值,newX代表新的数据特征:
步骤2:特征压缩。任务一对时间序列的重建主要利用VAE模型,VAE是一种深度贝叶斯模型,它已成功应用于时间序列的异常检测中。VAE将一个高维输入Wt表示为一个降维的潜在表示Zt,然后通过Zt重构Wt。在整个VAE模型中,本发明并没有去使用pθ(Wt|Zt)(先验分布)是正态分布的假设,而用的是假设pθ(Zt|Wt)(后验分布)是正态分布。Wt从后验分布pθ(Zt|Wt)中采样,此外,为了防止噪声为零,同时保证模型具有生成能力,VAE还让所有的pθ(Zt|Wt)都向标准正态分布看齐,所有的pθ(Zt|Wt)都向着标准正态分布接近,如式(2)所示。
在VAE中,它的Encoder有两个,一个用来计算均值,一个用来计算标准差,它本质上就是在常规的自编码器的基础上,对Encoder的结果(在VAE中对应着计算均值的网络)加上了“高斯噪声”,使得结果Decoder能够对噪声有鲁棒性,而另外一个Encoder(对应着计算标准差的网络)的作用是用来动态调节噪声的强度的。
在Encoder的过程中,ht是经过LSTM层输出的结果,相比于GRU,虽然结构上较为复杂,但具有更为强大的记忆功能。表示具有ReLU激活函数的全连接层,Nμ表示一个计算正太分布的函数,/>代表通过一个全连接层计算均值,学习非高斯后验分布。通过全连接层后计算出一个标准差和均值,通过变化得到压缩的潜在变量,如式(3)所示:
步骤3:生成器对多元流量序列重建,具体过程见图3所示。在生成器中,用Encoder输出的对角高斯分布Zt重构W′t。本发明利用线性高斯SSM来“连接”压缩空间产的空间变量并使它们在时间上依赖。在时间t处,Zt与时间t-1处的变量dt-1一起通过LSTM单元后产生确定性变量dt。然后通过一个全连接层进一步处理dt,对产生的结果同样计算其标准差和均值从而恢复重建的序列,如式(4)所示。
步骤4:预测器对多元流量序列进行预测,具体过程见图4所示。在预测器中,基于RNN改进的LSTM神经网络模型在处理时间序列数据时具有比较好的效果,并且被广泛使用。LSTM神经网络模型的输出信息由当前时刻的输入信息、当前时刻的短期记忆和当前时刻的细胞状态(长期记忆)决定,因此在序列预测问题上得到了广泛的应用,同时也被应用于多元时序的预测。
用Zt-1预测时间t时刻的多元序列,利用双层的LSTM进行数据的预测,LSTM网络层的主要作用是在已构建的数据特征之上,完成对网络流量的预测,把输入通过修改后的网络前向传播,得到的损失结果再通过修改的网络反向传播。为了有效缓解过拟合现象的发生,会添加Dropout层,在一定程度上达到正则化的效果。采用Dropout层的网络计算公式如式(5-6)。
rt=Bernoulli(p) (5)
上面公式中Bernoulli函数是为了生成概率向量,也就是随机生成一个0、1的向量rt,意味着随机删掉网络中一半的隐藏神经元,输入输出神经元保持不变,代表t-1时刻神经元的状态,/>代表待训练的参数,/>代表偏置项,f函数即为激活函数,最后通过一个全连接层进行t时刻输入维度的序列W″t预测,建立全连接层的主要是通过降维的方式输出预测结果。
步骤5:计算损失函数和异常分数。在损失函数方面也需要同时设置两个不同的Loss Function,通过损失值的大小对自身的网络进行局部的优化。
在生成器中,损失函数可以表示为式(7),训练数据集中每个输入序列数据的长度为n,前一项是均方误差,后一项则是高斯分布的标准差,其中ht代表t时刻的向量,θ函数代表欧氏距离的聚类算法,M代表维度:
在预测器中,损失函数可以表示为式(8),均方误差是真实值与预测值之间的误差平方的期望值,其中Wi是真实数据,W′i、W″i是拟合数据,n为样本个数。
模型中的生成器和预测器通过调整网络参数同时进行训练,在网络结构优化上,因为是多任务训练的网络结构,会有多个输出,所以需要设置不同输出Loss的权重来决定训练过程,整体的Loss来源于不同任务Loss之和。这种Loss计算方式的不合理之处是显而易见的,不同任务Loss的量级很有可能不一样,Loss直接相加的方式有可能会导致多任务的学习被某个任务所主导或学偏。当模型倾向于去拟合某个任务时,其他任务的效果往往可能受到负面影响,效果会相对变差,所以本发明对Loss函数进行简单的调整,对每个任务的损失Li配置一个固定的权重参数wi,那么总的Loss函数变为式(9)所示:
系统的性能强烈依赖于每个任务损失之间的相对权重,为此提出了一个原则的方法,结合多个损失函数,同时学习多个目标利用损失的不确定性。本发明将损失的不确定性解释为任务相关的加权,针对异常分数,本发明通过设置不同的输出的权重来计算异常分数,见图5,总的异常分数Score可表示为式(10):
Score=αScoreA+βScoreB (10)
其中α和β代表两个损失函数值的权重,前后两个部分分别对应着重建序列、预测序列与原始序列的评分误差分数,其中ScoreA和ScoreB的计算方式如式(11),函数U和J代表损失值的计算函数。
此外,在训练中需要对自身的局部结构自适应调整的其权重和Loss weight。随着学习的进行,这两个损失函数减小的速度很可能不一致,往往是一项减小的非常快,另一项减小的超级快,针对该问题,可以自适应的对不用的损失项设置不同的学习率,对于更新快的方向,使用小一点的学习率,对于更新慢的方向,使用大一点的学习率,事实证明,这样可以使神经网络有更好的映射效果。
步骤6:阈值计算。为了获得更准确的阈值设定,本发明在测试阶段将最小异常分数emin与最大异常分数emax的差值划分成k组,对每组设定的异常分数计算相关结果,与实际结果进行比较保存最佳阈值e设定。
e=argmax(P(emin+kΔe)) (13)
其中,公式(13)代表根据不同的k计算阈值差获取最佳结果的阈值,P(emin+kΔe)是根据阈值计算其F1分数。公式(14)用来计算分阶阈值,m代表划分阶级的数量,
步骤7:异常诊断。针对异常时刻的序列xt,本发明通过估计xt每个维度贡献的异常分数来解释它,对重建的阈值差即/>代表每个维度的异常分数与阈值的差,按降序排序形成列表Lt。对于/>在Lt中排名越高,/>对t时间内造成的贡献越大,因此该维度序列造成异常原因的可能性就越大。
实验数据
本发明使用的数据主要分为两种。一种数据是来自某研究所的网络科研流量数据集(Institute Network flow Dataset IND)。这是一个检测网络流量数据包指标的数据集。它主要统计的是由snmp-exporter工具监控的多个维度的网络流量数据包的指标信息,这些信息表示总共m=9的连续变量。为了获得我们的训练集,选择了连续几天没有发生任何重大事件的时期,因此,我们能够获得的训练集,基本上是正常的。测试集是选择了一段有异常事件发生的时期,经专业运维人员和专家一起标记的数据集。另一类数据集是网络公开的数据集(Public Flow Dataset PFD),同样也是由snmp-exporter工具监控的多维度网络流量数据包序列,它包含了m=22的连续变量,其异常包含了多种洪泛攻击的情况,具有已标注好的标签。两种类型的数据集的主要特征见表1。
表1基准数据集
为了证明本发明的整体性能,将其与检测多元时间序列异常的五种无监督方法进行了比较。这些是:USAD、自动编码器(AE)、LSTM-VAE、DAGMM、MSCRED。由于并非所有用于比较的异常检测方法都提供了选择异常阈值的机制,发明人测试了每个模型的可能异常阈值。通过两类不同的数据集,可以进行全面的可行性评估。实验结果如图6和图7所示,可以看到在实际的数据集上,本发明的网络结构有较好的检测效果,在两类数据集上,其精确度,召回率和F1分数上都有着不错地表现结果。总体而言,这些实验结果证明了,与现有的算法相比,基于多任务的异常检测方法的优越性。
消融实验
使用IND和PFD两个数据集,调查了两个部分的训练的效果。图8显示了使用组合、仅进行生成器训练和仅进行预测器训练时F1分数的性能比较。可以看到,将两个任务相融合的情况下,性能方面都有所提高,例如使用IND数据集上,多任务处理后的性能达到了97.06%,而在仅仅使用任务一阶段的情况下相比,性能提高了1.48%,相比之下,仅仅使用任务二的情况下,F1分数提高了0.38%。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于多任务的网络多元时间流量序列异常检测方法,其步骤包括:
对待测网络多元时间流量序列依据时间窗口进行切分,获取若干窗口序列Wt;
分别编码窗口序列Wt-1与窗口序列Wt,得到潜在表示Zt-1与潜在表示Zt;
基于潜在表示Zt与潜在表示Zt-1分别进行重建与预测,得到重建序列W′t与预测序列W″t;
根据窗口序列Wt与重建序列W′t及窗口序列Wt与预测序列W″t在每一维度上的评分误差分数,获取异常检测结果。
2.如权利要求1所述的方法,其特征在于,编码窗口序列Wt之前,通过Min-Max归一化方法,对窗口序列Wt中各维度数据进行预处理。
3.如权利要求1所述的方法,其特征在于,通过以下步骤得到潜在表示Zt:
1)将窗口序列Wt输入LSTM层,得到表示ht;
2)利用全连接层计算表示ht的均值与标准差;
3)基于所述均值与标准差,得到潜在表示Zt。
4.如权利要求3所述的方法,其特征在于,所述全连接层中的正太分布函数为后验分布。
5.如权利要求1所述的方法,其特征在于,通过以下步骤得到重建序列W′t:
1)将潜在表示Zt与时间t-1处的变量dt-1输入LSTM单元,得到变量dt;
2)将变量dt输入一全连接层,得到重建序列W′t。
6.如权利要求1所述的方法,其特征在于,得到预测序列W″t的方法包括:使用一个基于RNN改进的LSTM神经网络。
8.如权利要求1所述的方法,其特征在于,通过以下步骤得到异常检测结果:
1)根据窗口序列Wt与重建序列W′t及窗口序列Wt与预测序列W″t在每一维度上的评分误差分数,获取各维度评分误差分数;
2)将各维度评分误差分数与一阈值进行比较,基于差值获取各维度数据的异常贡献度;
3)将各维度数据的异常贡献度作为异常检测结果。
9.一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行如权利要求1-8中任一所述方法。
10.一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行如权利要求1-8中任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111579302.5A CN116401537A (zh) | 2021-12-22 | 2021-12-22 | 基于多任务的网络多元时间流量序列异常检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111579302.5A CN116401537A (zh) | 2021-12-22 | 2021-12-22 | 基于多任务的网络多元时间流量序列异常检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116401537A true CN116401537A (zh) | 2023-07-07 |
Family
ID=87010982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111579302.5A Pending CN116401537A (zh) | 2021-12-22 | 2021-12-22 | 基于多任务的网络多元时间流量序列异常检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116401537A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117556311A (zh) * | 2024-01-11 | 2024-02-13 | 电子科技大学 | 一种基于多维特征融合的无监督时间序列异常检测方法 |
-
2021
- 2021-12-22 CN CN202111579302.5A patent/CN116401537A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117556311A (zh) * | 2024-01-11 | 2024-02-13 | 电子科技大学 | 一种基于多维特征融合的无监督时间序列异常检测方法 |
CN117556311B (zh) * | 2024-01-11 | 2024-03-19 | 电子科技大学 | 一种基于多维特征融合的无监督时间序列异常检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Multivariate time-series anomaly detection via graph attention network | |
Reddy et al. | A deep neural networks based model for uninterrupted marine environment monitoring | |
Guo et al. | Multidimensional time series anomaly detection: A gru-based gaussian mixture variational autoencoder approach | |
Guo et al. | Unsupervised anomaly detection in IoT systems for smart cities | |
Angelov et al. | Autonomous learning multimodel systems from data streams | |
Yu et al. | Policy-based reinforcement learning for time series anomaly detection | |
US20230094389A1 (en) | Quantum computing based deep learning for detection, diagnosis and other applications | |
Du et al. | GAN-based anomaly detection for multivariate time series using polluted training set | |
Basak et al. | Mechanisms for integrated feature normalization and remaining useful life estimation using lstms applied to hard-disks | |
Challu et al. | Deep generative model with hierarchical latent factors for time series anomaly detection | |
Zhang et al. | An intrusion detection method based on stacked sparse autoencoder and improved gaussian mixture model | |
Zhu et al. | Adversarial training of LSTM-ED based anomaly detection for complex time-series in cyber-physical-social systems | |
Xu et al. | Generative adversarial networks with AdaBoost ensemble learning for anomaly detection in high-speed train automatic doors | |
CN116401537A (zh) | 基于多任务的网络多元时间流量序列异常检测方法及装置 | |
Atashgahi et al. | Memory-free online change-point detection: A novel neural network approach | |
Sheng et al. | Network traffic anomaly detection method based on chaotic neural network | |
Qin et al. | Remaining useful life prediction using temporal deep degradation network for complex machinery with attention-based feature extraction | |
Zhao et al. | One-step predictive encoder-gaussian segment model for time series anomaly detection | |
Njoya et al. | Data prediction based encoder-decoder learning in wireless sensor networks | |
Sayed-Mouchaweh | Learning from Data Streams in Evolving Environments: Methods and Applications | |
AL-ASADI | Interval-valued data analysis: a review | |
Helmi et al. | Effect the Graph Metric to Detect Anomalies and Non-Anomalies on Facebook Using Machine Learning Models | |
Guo et al. | H-Gdn: Hierarchical Graph Deviation Network for Multivariate Time Series Anomaly Detection in Iot | |
Cai et al. | CD-BTMSE: A Concept Drift detection model based on Bidirectional Temporal Convolutional Network and Multi-Stacking Ensemble learning | |
Anh et al. | A novel approach for anomaly detection in automatic meter intelligence system using machine learning and pattern recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |