CN116483624A - 监测数据恢复模型训练方法、恢复方法、设备及存储介质 - Google Patents
监测数据恢复模型训练方法、恢复方法、设备及存储介质 Download PDFInfo
- Publication number
- CN116483624A CN116483624A CN202310408939.0A CN202310408939A CN116483624A CN 116483624 A CN116483624 A CN 116483624A CN 202310408939 A CN202310408939 A CN 202310408939A CN 116483624 A CN116483624 A CN 116483624A
- Authority
- CN
- China
- Prior art keywords
- matrix
- measurement event
- node
- target
- event data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011084 recovery Methods 0.000 title claims abstract description 98
- 238000012544 monitoring process Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000012549 training Methods 0.000 title claims abstract description 40
- 239000011159 matrix material Substances 0.000 claims abstract description 207
- 238000005259 measurement Methods 0.000 claims abstract description 186
- 238000000605 extraction Methods 0.000 claims abstract description 55
- 239000013598 vector Substances 0.000 claims description 87
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 239000010410 layer Substances 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 15
- 230000002776 aggregation Effects 0.000 claims description 11
- 238000004220 aggregation Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 239000002356 single layer Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 241000006302 Usnea Species 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000005070 sampling Methods 0.000 description 12
- ZEFNOZRLAWVAQF-UHFFFAOYSA-N Dinitolmide Chemical compound CC1=C(C(N)=O)C=C([N+]([O-])=O)C=C1[N+]([O-])=O ZEFNOZRLAWVAQF-UHFFFAOYSA-N 0.000 description 10
- 230000000295 complement effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013024 troubleshooting Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100136092 Drosophila melanogaster peng gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013035 low temperature curing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1464—Management of the backup or restore process for networked environments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
- H04L41/0654—Management of faults, events, alarms or notifications using network fault recovery
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种监测数据恢复模型训练方法、恢复方法、设备及存储介质,所述方法包括获取N轮历史测量事件数据,选取连续的K轮历史测量事件数据构建历史测量事件数据集,得到N-K+1个历史测量事件数据集;对前K‑1轮历史测量事件数据构建二分图,从而得到每个历史测量事件数据集的二分图序列,将第K轮历史测量事件数据转换成目标矩阵;构建流式网络监测数据恢复模型;以二分图序列作为模型的上下文信息提取模块的输入,以第K轮历史测量时间数据作为模型的事件编码模块的输入,以对应的目标矩阵作为模型输出,对流式网络监测数据恢复模型进行训练。本发明可以实时、逐事件实现在线数据恢复。
Description
技术领域
本发明属于数据恢复技术领域,尤其涉及一种基于实时事件的流式网络监测数据恢复模型训练方法(Real-Time Event-based Streaming Network Monitoring MatrixFilling,缩写为ResNMMF)、流式网络监测数据恢复方法、设备及存储介质。
背景技术
网络监控是网络运行和管理的关键,它对于异常检测、网络路由规划、拥塞控制和网络故障排除等相关任务是必不可少的。然而,监测整个网络也是困难的,原因如下:
首先,对于一个包含N个节点的网络,在一轮测量中测量所有端到端源(Origin)-目的(Destination)对(即OD对)的时间复杂度为O(N2);当一个网络需要多轮测量时,累积的复杂性是不可接受的。
其次,网络测量不可避免地会带来额外的开销,这可能会影响网络系统的性能,从而导致观察者效应。可以减少用于网络监控的数据包,以减轻由观察者效应所带来的不可靠的测量结果。因此,通常采用一种只测量所有OD对的一个子集的稀疏采样机制。为了在一个测量轮中记录整个网络的稀疏采样网络监测数据,形成了一个稀疏网络监测矩阵(NMM),其行和列分别为原点和目的地。随着稀疏重建技术的进步,提出通过低秩矩阵补全的NMM恢复;然而,基于矩阵补全的方法侧重于单一的NMM,没有考虑时间动态,因此,恢复精度可能受损。最近的研究由按照时间顺序编排的一系列NMM,形成一个高阶阵列(亦称张量),并应用张量补全方法来恢复缺失的项,以提取更复杂的相关性,包括时间相关性。因此,基于张量的方法通常比基于矩阵的方法获得更好的精度。
有人提出了利用网络数据的低秩属性来恢复丢失的条目。基于矩阵补全的算法无法捕获时间动态,因此数据恢复精度不足。引入张量补全方法能更好地利用稀疏收集的网络监控数据中的隐式时空相关性。LTC(参见Xie K,Wang X,Wang X,et al.Accuraterecovery of missing network measurement data with localized tensor completion[J].IEEE/ACM Transactions on Networking,2019,27(6):2222-2235.)通过局部敏感散列对张量进行拆分,构建多个具有强内相关性的低秩子张量,从而提高精度。Reshape-Align(参见Xie K,Peng C,Wang X,et al.Accurate recovery of internet trafficdata under variable rate measurements[J].IEEE/ACM transactions on networking,2018,26(3):1137-1150.)提出用可变测量率重塑测量矩阵,并将它们组合成时间对齐的规则张量,以实现更实用和准确的缺失数据插补。张量补全的主要缺点是尽管精度很高,但计算复杂度很高。一些工作专注于使用GPU(即图形处理器)加速矩阵/张量完成。但是,仍然无法在毫秒级恢复丢失的条目。此外,GPU加速方法需要硬件支持并且不节能。
随着深度学习的进步,有人提出了基于神经网络的数据补全算法。DMF(参见Xue HJ,Dai X,Zhang J,et al.Deep matrix factorization models for recommendersystems[C]//IJCAI.2017,17:3203-3209.)提出使用神经网络来改进用户和项目嵌入以实现准确的推荐;DLMC(参见Fan J,Chow T.Deep learning based matrix completion[J].Neurocomputing,2017,266:540-549.)应用编码器-解码器架构来恢复丢失的条目;GAIN(参见Yoon J,Jordon J,Schaar M.Gain:Missing data imputation using generativeadversarial nets[C]//International conference on machine learning.PMLR,2018:5689-5698.)表明生成对抗网络也是稀疏矩阵插补的潜在且强大的工具。为了充分利用神经网络的非线性表达能力探索非线性数据相关性,CoSTCo(参见Liu H,Li Y,Tsang M,etal.Costco:A neural tensor completion model for sparse tensors[C]//Proceedingsof the 25th ACM SIGKDD International Conference on Knowledge Discovery&DataMining.2019:324-334.)和NTC(参见Xie K,Lu H,Wang X,et al.Neural tensorcompletion for accurate network monitoring[C]//IEEE INFOCOM 2020-IEEEConference on Computer Communications.IEEE,2020:1688-1697.)利用卷积神经网络(CNN)设计更好的交互函数来填充稀疏张量。然而,神经网络通常接受固定大小的历史数据的训练。如果没有高效和有效的更新算法,即使考虑在线学习策略,也无法支持实时数据恢复任务。
事实上,网络测量事件可以被视为一个元组,描述了该次测量的起点、终点、测量开始的时间、以及测量结果。目前的方案通常将这些事件转换为稀疏矩阵,或假设稀疏矩阵中观察到的条目同时到达,然后应用矩阵补全来恢复缺失的数据。张量补全算法的处理方式也是类似的。由于这些方法在批处理中的时间间隔内收集事件,忽略了事件数据的低延迟特性,将矩阵/张量补全方法称为基于批处理的网络监控。在基于流事件的网络监控系统中应用矩阵或张量补全存在计算浪费和高延迟问题。当事件不断到达时,NMM中的条目将被更改,尽管只有少数条目发生了变化,但矩阵/张量补全模型需要花费很长时间来重新训练,而不是仅仅计算这些变化。因此,目前基于矩阵的建模不适用于实时数据恢复任务、时间敏感的网络应用,如网络异常检测和自动网络故障排除,因为这些任务需要完整的NMM数据参与实时决策。
目前,没有其他算法能够以实时、逐事件处理的算法,实现在线数据恢复。
名词解释:流式是指测量事件以数据流的形式不断到来。
发明内容
本发明的目的在于提供一种监测数据恢复模型训练方法、恢复方法、设备及存储介质,以解决传统算法无法以实时、逐事件处理方式来实现网络监测数据在线恢复的问题。
本发明是通过如下的技术方案来解决上述技术问题的:一种流式网络监测数据恢复模型训练方法,所述方法包括:
获取N轮历史测量事件数据,其中每轮历史测量事件数据包括n个历史测量事件,每个历史测量事件包括源节点ID、目标节点ID、时间戳和测量结果;
从N轮历史测量事件数据中选取连续的K轮历史测量事件数据构建一历史测量事件数据集,从而得到N-K+1个历史测量事件数据集;
对每个所述历史测量事件数据集中的前K-1轮历史测量事件数据分别构建二分图,从而得到每个所述历史测量事件数据集的二分图序列;将每个所述历史测量事件数据集中的第K轮历史测量事件数据转换成目标矩阵;
构建流式网络监测数据恢复模型,所述流式网络监测数据恢复模型包括上下文信息提取模块、事件编码模块和数据恢复模块;所述上下文信息提取模块、事件编码模块分别与数据恢复模块连接;
以每个所述历史测量事件数据集的二分图序列作为上下文信息提取模块的输入,以对应历史测量事件数据集的第K轮历史测量时间数据作为事件编码模块的输入,以对应的目标矩阵作为模型输出,对所述流式网络监测数据恢复模型进行训练,得到目标流式网络监测数据恢复模型。
进一步地,对每个所述历史测量事件数据集中的前K-1轮历史测量事件数据分别构建二分图,具体包括:
对于第k轮历史测量事件数据,在每个历史测量事件的源节点与目标节点之间创建一条无向边,所述无向边的取值为该历史测量事件的测量结果,由此得到第k轮历史测量事件数据的二分图;其中k=1,2,…,K-1。
进一步地,对所述流式网络监测数据恢复模型进行训练的具体实现过程包括:
利用所述上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量;
利用所述事件编码模块对对应的第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量;
利用所述数据恢复模块对源节点上下文特征向量和源节点状态向量、目标节点上下文特征向量和目标节点状态向量进行深度特征提取,得到第K轮历史测量事件数据的状态预测矩阵;
根据所述状态预测矩阵和目标矩阵构建损失函数,以损失函数最小化为目标调整所述流式网络监测数据恢复模型的参数,实现模型训练。
进一步地,利用所述上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量,具体包括:
对于所述二分图序列中的每个二分图,根据二分图对应的源节点数量随机生成源节点初始嵌入矩阵根据二分图对应的目标节点数量随机生成目标节点初始嵌入矩阵其中,|S|为源节点数量,|D|为目标节点数量,dim为嵌入维度,R为实数空间;
基于源节点初始嵌入矩阵和目标节点初始嵌入矩阵对二分图进行特征提取,得到源节点因子矩阵和目标节点因子矩阵;
对所述二分图序列的所有源节点因子矩阵进行特征提取,得到源节点上下文特征向量Actx;对所述二分图序列的所有目标节点因子矩阵进行特征提取,得到目标节点上下文特征向量Bctx,具体公式为:
Actx=GRU({S1,S2,…,S(K-2),S(K-1)})
Bctx=GRU({D1,D2,…,D(K-2),D(K-1)})
其中,S1,S2,…,S(K-2),S(K-1)分别为二分图G1,G2,…,G(K-2),G(K-1)的源节点因子矩阵,D1,D2,…,D(K-2),D(K-1)分别为二分图G1,G2,…,G(K-2),G(K-1)的目标节点因子矩阵,GRU表示循环神经网络。
进一步地,基于源节点初始嵌入矩阵和目标节点初始嵌入矩阵对二分图进行特征提取,得到源节点因子矩阵和目标节点因子矩阵,具体包括:
对于二分图的任意边(s,d),取源节点初始嵌入矩阵的第s行作为初始嵌入特征s(0),取目标节点初始嵌入矩阵的第d行作为初始嵌入特征d(0);其中,s为边(s,d)的起始节点ID,d为边(s,d)的终点节点ID;
对二分图的边(s,d)的初始嵌入特征s(0)进行特征编码、特征聚合,得到边(s,d)的起始节点的嵌入特征;对二分图的边(s,d)的初始嵌入特征d(0)进行特征编码、特征聚合,得到边(s,d)的终点节点的嵌入特征;进而得到二分图每条边的起始节点的嵌入特征和终点节点的嵌入特征;具体公式为:
其中,r(L)为节点r在第L层的嵌入特征,r(L-1)为节点r在第L-1层的嵌入特征,g()为可训练的线性变换函数,为所有指向节点r的节点集合,为中间特征编码向量,W为可训练的权重矩阵,b为可训练的偏置矩阵,u(L-1)为节点u在第L-1层的嵌入特征,eur为边(u,r)的取值;
采用二分图的所有起始节点在第L层的嵌入特征替代所述源节点初始嵌入矩阵的对应行,得到源节点因子矩阵,采用二分图的所有终点节点在第L层的嵌入特征替代所述目标节点初始嵌入矩阵的对应行,得到目标节点因子矩阵。
进一步地,利用所述事件编码模块对对应的第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量,具体实现过程包括:
根据第K轮历史测量事件数据的源节点数量随机生成源节点初始学习矩阵根据第K轮历史测量事件数据的目标节点数量随机生成目标节点初始学习矩阵其中,|S|为源节点数量,|D|为目标节点数量,dim为嵌入维度,R为实数空间;
定义源节点记忆矩阵MS和目标节点记忆矩阵MD,源节点记忆矩阵MS的行数和列数与源节点初始学习矩阵相同,目标节点记忆矩阵MD的行数和列数与目标节点初始学习矩阵相同,且将源节点记忆矩阵MS和目标节点记忆矩阵MD初始化为0;
对于第K轮历史测量事件数据中的测量事件e=(p,q,t,v),取源节点初始学习矩阵的第p行作为P,取目标节点初始学习矩阵的第q行作为Q;其中,p为源节点ID,q为目标节点ID,t为时间戳,v为测量结果;
对源节点记忆矩阵MS和目标节点记忆矩阵MD进行更新,具体更新公式为:
其中,Updaterk(·)为单层网络,Updaterk(x)=ReLU(Wkx+bk),Wk和bk为可学习参数,ReLU(x)=max(x,0);h=[P;Q;v];为第i次更新后的源节点记忆矩阵MS,为第i次更新后的目标节点记忆矩阵MD,i=1,2,…,M,更新次数M为第K轮历史测量事件数据中的测量事件数;
利用最大池化层对更新后的源节点记忆矩阵和目标节点记忆矩阵进行处理,得到源节点状态向量Acurr和目标节点状态向量Bcurr,具体公式为:
其中,MaxPooling()为最大池化层。
进一步地,所述损失函数的具体表达式为:
其中,为损失函数,为状态预测矩阵,XΩ为目标矩阵,|Ω|为目标矩阵XΩ中非0元素的数量,||·||F表示弗罗贝尼乌斯范数,λ为常数。
基于同一构思,本发明还提供一种流式网络监测数据恢复方法,包括以下步骤:
获取前K-1轮网络测量事件数据和当前轮网络测量事件数据;
对前K-1轮网络测量事件数据中的每轮网络测量事件数据构建二分图;
调用目标流式网络监测数据恢复模型,所述目标流式网络监测数据恢复模型根据如上所述流式网络监测数据恢复模型训练方法训练得到;
基于所述目标流式网络监测数据恢复模型,对当前轮网络测量事件数据进行数据恢复,得到当前轮网络测量事件数据的状态预测矩阵,所述状态预测矩阵即为恢复后的网络监测数据。
基于同一构思,本发明提供一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述流式网络监测数据恢复模型训练方法或流式网络监测数据恢复方法。
基于同一构思,本发明提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述流式网络监测数据恢复模型训练方法或流式网络监测数据恢复方法。
有益效果
与现有技术相比,本发明的优点在于:
本发明提出了在线处理(上下文信息提取模块)和离线处理(事件编码模块)相结合的异步处理思想,上下文信息提取模块能够捕捉稀疏数据的时空关联信息,事件编码模块处理顺序不敏感的测量事件数据,使在线处理和离线处理分开,提高了部署在测量场景下运行时的模型响应速度。相对于传统在线学习技术,本发明无需进行在线梯度下降,从而大大降低了处理延迟,提升了可并行性;相对于传统张量填充和矩阵填充只能关注现有数据的特性,本发明无需重新训练模型来处理新数据,本发明从历史数据中学习到相应的特征能够直接适应于未学习的特征。本发明能够以实时、逐事件处理方式进行网络监测数据的在线恢复。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一个实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中流式网络监测数据恢复模型训练方法流程图;
图2是本发明实施例中ResNMMF模型与数学低秩张量填充算法在不同的数据集上的比较结果;
图3是本发明实施例中ResNMMF模型与神经网络张量填充算法在不同的数据集上的比较结果;
图4是本发明实施例中ResNMMF模型与STF在不同的数据集上的比较结果。
具体实施方式
下面结合本发明实施例中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面以具体地实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
实施例1
如图1所示,本发明实施例所提供的一种流式网络监测数据恢复模型训练方法,包括以下步骤:
步骤1:获取N轮历史测量事件数据。
每轮历史测量事件数据包括n个历史测量事件,每个历史测量事件包括源节点ID、目标节点ID、时间戳和测量结果,每个历史测量事件使用四元组表示,记为e=(p,q,t,v),其中,p为源节点ID,q为目标节点ID,t为时间戳,v为测量结果。
假设网络测量或网络监测为1分钟进行一轮,则N轮历史测量事件数据为过去N分钟的测量事件数据,每分钟的测量事件数据包括n个测量事件。
步骤2:构建历史测量事件数据集。
从N轮历史测量事件数据中选取连续的K轮历史测量事件数据构建一历史测量事件数据集,从而得到N-K+1个历史测量事件数据集,K<N。
为了捕获随着时间变化的网络状态信息,按照每个测量事件的时间戳t划分为多个历史测量事件数据集,每个历史测量事件数据集包括K轮历史测量事件数据,每轮历史测量事件数据用E表示,其上标表示测量轮次,则一个历史测量事件数据集记为:
{E1,E2,…,E(K-2),E(K-1),E(K)}
对于一个历史测量事件数据集,E1,E2,…,E(K-2),E(K-1)为前K-1轮历史测量事件数据,E(K)为第K轮历史测量事件数据。
步骤3:数据处理
在ResNMMF模型的具体应用时,为了提高ResNMMF模型的在线处理能力,将输入划分为两部分,一部分用于离线处理,一部分用于在线处理,因此在训练时同样将每个历史测量事件数据集中的数据划分为两部分,其中前K-1轮历史测量事件数据用于离线处理,第K轮历史测量事件数据用于在线处理。
对于每个历史测量事件数据集,将前K-1轮历史测量事件数据中的每轮历史测量事件数据(例如第k轮历史测量事件数据,k=1,2,…,K-1)转换成二分图,具体实现过程为:
在每个历史测量事件的源节点p与目标节点q之间创建一条无向边,无向边的取值epq为该历史测量事件的测量结果v,由此得到第k轮历史测量事件数据的二分图G(k),由此得到每个历史测量事件数据集的二分图序列,记为{G1,G2,…,G(K-2),G(K-1)}。
对于每个历史测量事件数据集,将第K轮历史测量事件数据转换成目标矩阵,具体实现过程为:
第K轮历史测量事件数据包括n个历史测量事件,设矩阵的第p行第q列的数值为v,由此得到目标矩阵,其中p为源节点ID,q为目标节点ID。
步骤4:构建流式网络监测数据恢复模型。
流式网络监测数据恢复模型包括上下文信息提取模块、事件编码模块和数据恢复模块。对于一个历史测量事件数据集,上下文信息提取模块的输入为二分图序列,事件编码模块的输入为第K轮历史测量事件数据。
为了克服固有的数据稀疏性并逐节点提取,引入图神经网络来生成源节点因子矩阵和目标节点因子矩阵,为了通过图神经网络的输出(即源节点因子矩阵和目标节点因子矩阵)来学习节点级的时间动态,采用循环神经网络生成用于后续矩阵填充任务的源节点上下文特征向量Actx和目标节点上下文特征向量Bctx。因此上下文信息提取模块包括图神经网络和循环神经网络,利用图神经网络对二分图序列进行特征提取,得到源节点因子矩阵和目标节点因子矩阵;利用循环神经网络对二分图序列的所有源节点因子矩阵进行特征提取,得到源节点上下文特征向量Actx,对二分图序列的所有目标节点因子矩阵进行特征提取,得到目标节点上下文特征向量Bctx。
事件编码模块是对输入顺序不敏感的排列不变流事件编码器,用于对第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量。
数据恢复模块用于对源节点上下文特征向量Actx和源节点状态向量Acurr、目标节点上下文特征向量Bctx和目标节点状态向量Bcurr进行深度特征提取,得到第K轮历史测量事件数据的状态预测矩阵
步骤5:对流式网络监测数据恢复模型进行训练,得到目标流式网络监测数据恢复模型。
以每个历史测量事件数据集的第K轮历史测量时间数据、二分图序列作为输入,以对应的目标矩阵作为输出,对流式网络监测数据恢复模型进行训练,具体实现过程包括:
步骤5.1:利用上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量;
步骤5.2:利用事件编码模块对对应的第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量;
步骤5.3:利用数据恢复模块对源节点上下文特征向量和源节点状态向量、目标节点上下文特征向量和目标节点状态向量进行深度特征提取,得到第K轮历史测量事件数据的状态预测矩阵;
步骤5.4:根据所述状态预测矩阵和目标矩阵构建损失函数,以损失函数最小化为目标调整所述流式网络监测数据恢复模型的参数,实现模型训练。
在步骤5.1中,利用上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量,具体包括:
步骤5.11:对于二分图序列中的每个二分图,根据二分图对应的源节点数量随机生成源节点初始嵌入矩阵根据二分图对应的目标节点数量随机生成目标节点初始嵌入矩阵其中,|S|为源节点数量,|D|为目标节点数量,dim为嵌入维度,R为实数空间。
嵌入维度dim根据经验设置,本实施例中,dim=32。
步骤5.12:基于源节点初始嵌入矩阵和目标节点初始嵌入矩阵对二分图进行特征提取,得到源节点因子矩阵和目标节点因子矩阵。
在步骤5.12中,得到源节点因子矩阵和目标节点因子矩阵的具体实现过程包括:
步骤5.121:对于二分图的任意边(s,d),取源节点初始嵌入矩阵的第s行作为初始嵌入特征s(0),取目标节点初始嵌入矩阵的第d行作为初始嵌入特征d(0);其中,s为边(s,d)的起始节点ID,d为边(s,d)的终点节点ID。
步骤5.122:对二分图的边(s,d)的初始嵌入特征s(0)进行特征编码、特征聚合,得到每条边的起始节点的嵌入特征;对二分图的边(s,d)的初始嵌入特征d(0)进行特征编码、特征聚合,得到每条边的终点节点的嵌入特征。
对于二分图的任意边(s,d),将从s到d的消息定义为:ms→d=fmsg(s(0),d(0),esd),其中fmsg(·)为特征编码函数,特征编码函数以初始嵌入特征s(0)、初始嵌入特征d(0)和边的取值esd(即测量结果)作为输入进行特征编码来得到中间特征编码向量ms→d,fmsg(s(0),d(0),esd)=W[s(0);d(0);esd]+b),其中,W为可训练的权重矩阵,b为可训练的偏置矩阵,[.;.]为向量拼接运算。
对二分图中的所有边均进行特征编码,即可得到对应的中间特征编码向量,特征沿着二分图的边进行编码和传播。当一个节点有多条边时,将收到多条特征,因此需要进行特征聚合操作,以终点节点d为例,特征聚合通过以下公式来实现:
其中,为所有指向节点d的节点集合,g()为可训练的线性变换函数。特征编码和特征聚合准确地显示了特征是如何传播到一阶邻域的;如果重复特征传播,则可以探索捕获二分图上的高阶特征。在多层图神经网络中,终点节点d被递归地更新,具体公式为:
其中,d(L)为终点节点d在第L层的嵌入特征,d(L-1)为终点节点d在第L-1层的嵌入特征;u(L-1)为节点u在第L-1层的嵌入特征。
同理,对于边(s,d),可以得到起始节点s在第L层的嵌入特征。重复步骤5.121和5.122,对于二分图中的每条边均可以得到该边的起始节点在第L层的嵌入特征、终点节点在第L层的嵌入特征。
步骤5.123:采用二分图的所有起始节点在第L层的嵌入特征替代所述源节点初始嵌入矩阵的对应行,得到源节点因子矩阵,采用二分图的所有终点节点在第L层的嵌入特征替代所述目标节点初始嵌入矩阵的对应行,得到目标节点因子矩阵。
重复步骤5.11~5.12,得到每个二分图对应的源节点因子矩阵和目标节点因子矩阵。
步骤5.13:对二分图序列的所有源节点因子矩阵进行特征提取,得到源节点上下文特征向量Actx;对二分图序列的所有目标节点因子矩阵进行特征提取,得到目标节点上下文特征向量Bctx,具体公式为:
其中,S1,S2,…,S(K-2),S(K-1)分别为二分图G1,G2,…,G(K-2),G(K-1)的源节点因子矩阵,D1,D2,…,D(K-2),D(K-1)分别为二分图G1,G2,…,G(K-2),G(K-1)的目标节点因子矩阵,GRU表示门控循环神经网络。
在步骤5.2中,利用事件编码模块对对应的第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量,具体实现过程包括:
步骤5.21:根据第K轮历史测量事件数据的源节点数量随机生成源节点初始学习矩阵根据第K轮历史测量事件数据的目标节点数量随机生成目标节点初始学习矩阵
嵌入维度dim根据经验设置,本实施例中,dim=32。
步骤5.22:定义源节点记忆矩阵MS和目标节点记忆矩阵MD,源节点记忆矩阵MS的行数和列数与源节点初始学习矩阵相同,目标节点记忆矩阵MD的行数和列数与目标节点初始学习矩阵相同,当新一轮测量开始时,将源节点记忆矩阵MS和目标节点记忆矩阵MD初始化为0。
步骤5.23:对于第K轮历史测量事件数据中的某个测量事件e=(p,q,t,v),取源节点初始学习矩阵的第p行作为P,取目标节点初始学习矩阵的第q行作为Q;其中,p为源节点ID,q为目标节点ID,t为时间戳,v为测量结果。
步骤5.23:对源节点记忆矩阵MS和目标节点记忆矩阵MD进行更新,具体更新公式为:
其中,Updaterk(·)为单层网络,Updaterk(x)=ReLU(Wkx+bk),Wk和bk为可学习参数,ReLU(x)=max(x,0);将测量事件编码为:h=[P;Q;v];为第i次更新后的源节点记忆矩阵MS,为第i次更新后的目标节点记忆矩阵MD,i=1,2,…,M,更新次数M为第K轮历史测量事件数据中的测量事件数。
步骤5.24:利用最大池化层对更新后的源节点记忆矩阵和目标节点记忆矩阵进行处理,得到源节点状态向量Acurr和目标节点状态向量Bcurr,具体公式为:
其中,MaxPooling()为最大池化层。为了捕获跨节点的表征,在当前测量轮次中,通过源节点记忆矩阵目标节点记忆矩阵的最大池化来维护。
在步骤5.3中,利用数据恢复模块对源节点上下文特征向量和源节点状态向量、目标节点上下文特征向量和目标节点状态向量进行深度特征提取,得到第K轮历史测量事件数据的状态预测矩阵,具体公式为:
其中,为状态预测矩阵,MLP为多层感知机模型;
在步骤5.4中,损失函数的具体表达式为:
其中,为损失函数,为状态预测矩阵,XΩ为目标矩阵,|Ω|为目标矩阵XΩ中非0元素的数量,||·||F表示弗罗贝尼乌斯范数,λ为常数,本实施中,λ取值为0.1。为第K轮历史测量事件数据的预测矩阵的位置(i,j)的值,为第K轮历史测量事件数据的目标矩阵XΩ的位置(i,j)的值。
为了衡量流式网络监测数据恢复模型的精度,定义两个指标(越小越好):归一化平均绝对误差NMAE和归一化均方根误差NRMSE,具体公式为:
将本发明ResNMMF模型与数学低秩张量填充算法(FaLRTC、HaLRTC、TNCP、CP-als)在不同的数据集(Seattle、NYC Taxi、GEANT、Abilene)上进行比较,比较结果如图2所示。图2中,FaLRTC表示Fast Low Rank Tensor Completion(参考文献:Liu J,Musialski P,Wonka P,et al.Tensor completion for estimating missing values in visual data[J].IEEE transactions on pattern analysis and machine intelligence,2012,35(1):208-220.),HaLRTC表示High Accuracy Low Rank Tensor Completion(参考文献:LiuJ,Musialski P,Wonka P,et al.Tensor completion for estimating missing valuesin visual data[J].IEEE transactions on pattern analysis and machineintelligence,2012,35(1):208-220.),TNCP表示Trace Norm Regularized CANDECOMP/PARAFAC Decomposition(参考文献Liu Y,Shang F,Jiao L,et al.Trace normregularized CANDECOMP/PARAFAC decomposition with missing data[J].IEEEtransactions on cybernetics,2014,45(11):2437-2448.),CP-als表示CANDECOMP/PARAFAC Decomposition with alternative least square。图2中的图(a)为ResNMMF模型与数学低秩张量填充算法在数据集Abilene上不同采样率对应的NMAE和NRMSE指标值,图2中的图(b)为ResNMMF模型与数学低秩张量填充算法在数据集GEANT上不同采样率对应的NMAE和NRMSE指标值,图2中的图(c)为ResNMMF模型与数学低秩张量填充算法在数据集NYCTaxi上不同采样率对应的NMAE和NRMSE指标值,图2中的图(d)为ResNMMF模型与数学低秩张量填充算法在数据集Seattle上不同采样率对应的NMAE和NRMSE指标值。由图2可知,ResNMMF模型比数学低秩张量填充算法,在精度上更具优势,这是因为ResNMMF模型采用神经网络以恢复缺失值,相比于数学低秩张量填充算法较低的表达能力,神经网络具有更强的表达能力,体现在两个误差指标上取得更低的值。本发明应用到的数据集为:Seattle表示西雅图路网速度数据集、NYC Taxi表示纽约市出租车数据集、GEANT数据集和Abilene数据集,这四个数据集的来源可参见
https://github.com/MerrillLi/TensorDataset/releases/tag/v1。
将本发明ResNMMF模型与神经网络张量填充算法(CoSTCo、NTM、NTC)在不同的数据集(Seattle、NYC Taxi、GEANT、Abilene)上进行比较,比较结果如图3所示。图3中,CoSTCo表示Convolution Sparse Tensor Completion(参考文献:Liu H,Li Y,Tsang M,etal.Costco:A neural tensor completion model for sparse tensors[C]//Proceedingsof the 25th ACM SIGKDD International Conference on Knowledge Discovery&DataMining.2019:324-334.),NTM表示Neural Tensor Model(参考文献:Chen H,Li J.Neuraltensor model for learning multi-aspect factors in recommender systems[C]//International Joint Conference on Artificial Intelligence(IJCAI).2020,2020.),NTC表示Neural Tensor Completion(参考文献Xie K,Lu H,Wang X,et al.Neural tensorcompletion for accurate network monitoring[C]//IEEE INFOCOM 2020-IEEEConference on Computer Communications.IEEE,2020:1688-1697.)。图3中的图(a)为ResNMMF模型与神经网络张量填充算法在数据集Abilene上不同采样率对应的NMAE和NRMSE指标值,图3中的图(b)为ResNMMF模型与神经网络张量填充算法在数据集GEANT上不同采样率对应的NMAE和NRMSE指标值,图3中的图(c)为ResNMMF模型与神经网络张量填充算法在数据集NYC Taxi上不同采样率对应的NMAE和NRMSE指标值,图3中的图(d)为ResNMMF模型与神经网络张量填充算法在数据集Seattle上不同采样率对应的NMAE和NRMSE指标值。由图3可知,ResNMMF模型比神经网络张量填充算法,在大部分情况下,精度上更具优势。这是因为ResNMMF模型采用滑动窗口的设计,更能充分利用网络状态的强局部性关联,因此,在采样率较低的情况下效果比较理想。然而,当采样率偏高的情况下,ResNMMF模型相比于神经网络张量填充算法,在精度上的优势不明显,甚至处于劣势,这是因为事件编码模块的编码能力存在局限性,无法捕捉过多的事件。即便在精度上存在一定的劣势,ResNMMF模型是实时填充,具备其他张量填充算法不可比拟的在线运行速度与实时填充特性。
将本发明ResNMMF模型与基于在线学习的张量填充算法STF(参考文献Ahn D,KimS,Kang U.Accurate online tensor factorization for temporal tensor streamswith missing values[C]//Proceedings of the 30th ACM International Conferenceon Information&Knowledge Management.2021:2822-2826.)在不同的数据集(GEANT、Abilene)上进行比较,比较结果如图4所示。图4中的图(a)为ResNMMF模型与STF在数据集Abilene上不同时间槽对应的NRMSE指标值,图4中的图(b)为ResNMMF模型与STF在数据集GEANT上不同时间槽对应的NRMSE指标值,图4中的图(c)为ResNMMF模型与STF在数据集Abilene上不同时间槽对应的NMAE指标值,图4中的图(d)为ResNMMF模型与STF在数据集GEANT上不同时间槽对应的NMAE指标值。由图4可知,在GEANT和Abilene数据集上,ResNMMF模型在精度指标(越小越好)上具有一定的优势,这是因为ResNMMF模型采用神经网络,具有更强的表达能力。
如表1所示,ResNMMF模型对比STF,在四个公开的数据集上,事件编码模块的速度更快,耗时更短。表1中的数字表示处理一轮历史测量事件数据的平均时间,单位为ms。
表1 ResNMMF模型与STF在四个数据集上的对比
数据集/模型 | ResNMMF模型 | STF |
Seattle | 14.2 | 33.1 |
NYC Taxi | 0.37 | 4.42 |
GEANT | 0.24 | 3.47 |
Abilene | 0.14 | 3.31 |
本发明ResNMMF模型与基于在线学习的张量填充算法STF相比,在实时填充的场景下具有更优的精度和更快的处理速度。
本发明ResNMMF模型各个部分的推理时间(训练期)如表2所示:
表2中,Dataset表示数据集,Sampling Rate表示采样率,Total表示总推理时间,Stage表示ResNMMF模型不同的运算阶段:GNN阶段(从二分图序列转化为源节点因子矩阵序列和目标节点因子矩阵序列的过程)、RNN阶段(将因子矩阵序列转化为Actx和Bctx的过程)、Streaming表示事件编码模块在线处理的时间、Inference表示数据恢复模块的处理时间,时间的单位均为ms(毫秒)。
实施例2
基于同一构思,本发明实施例还提供一种流式网络监测数据恢复方法,包括以下步骤:
步骤1:获取前K-1轮网络测量事件数据和当前轮网络测量事件数据;
步骤2:对前K-1轮网络测量事件数据中的每轮网络测量事件数据构建二分图;
步骤3:调用目标流式网络监测数据恢复模型,所述目标流式网络监测数据恢复模型根据如上所述流式网络监测数据恢复模型训练方法训练得到;
步骤4:基于所述目标流式网络监测数据恢复模型,对当前轮网络测量事件数据进行数据恢复,得到当前轮网络测量事件数据的状态预测矩阵,所述状态预测矩阵即为恢复后的网络监测数据。
在步骤2中,对每轮网络测量事件数据构建二分图的具体实现过程为:
在每轮网络测量事件数据中的每个测量事件的源节点p与目标节点q之间创建一条无向边,无向边的取值epq为该测量事件的测量结果v,由此得到该轮测量事件数据的二分图G(k),由此得到前K-1轮网络测量事件数据的二分图序列,记为{G1,G2,…,G(K-2),G(K-1)}。
在步骤4中,对当前轮网络测量事件数据进行数据恢复的具体实现过程为:
步骤4.1:利用目标流式网络监测数据恢复模型的上下文信息提取模块对步骤2中的二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量;
步骤4.2:利用目标流式网络监测数据恢复模型的事件编码模块对当前轮网络测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量;
步骤4.3:利用目标流式网络监测数据恢复模型的数据恢复模块对源节点上下文特征向量和源节点状态向量、目标节点上下文特征向量和目标节点状态向量进行深度特征提取,得到当前轮网络测量事件数据的状态预测矩阵,即恢复后的网络监测数据。
在步骤4.1中,利用上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量,具体包括:
步骤4.11:对于二分图序列中的每个二分图,根据二分图对应的源节点数量随机生成源节点初始嵌入矩阵根据二分图对应的目标节点数量随机生成目标节点初始嵌入矩阵其中,|S|为源节点数量,|D|为目标节点数量,dim为嵌入维度,R为实数空间。
步骤4.12:基于源节点初始嵌入矩阵和目标节点初始嵌入矩阵对二分图进行特征提取,得到源节点因子矩阵和目标节点因子矩阵。
在步骤4.12中,得到源节点因子矩阵和目标节点因子矩阵的具体实现过程包括:
步骤4.121:对于二分图的任意边(s,d),取源节点初始嵌入矩阵的第s行作为初始嵌入特征s(0),取目标节点初始嵌入矩阵的第d行作为初始嵌入特征d(0);其中,s为边(s,d)的起始节点ID,d为边(s,d)的终点节点ID。
步骤4.122:对二分图的边(s,d)的初始嵌入特征s(0)进行特征编码、特征聚合,得到每条边的起始节点的嵌入特征;对二分图的边(s,d)的初始嵌入特征d(0)进行特征编码、特征聚合,得到每条边的终点节点的嵌入特征,如公式(1)和(2)所示。
步骤4.123:采用二分图的所有起始节点在第L层的嵌入特征替代所述源节点初始嵌入矩阵的对应行,得到源节点因子矩阵,采用二分图的所有终点节点在第L层的嵌入特征替代所述目标节点初始嵌入矩阵的对应行,得到目标节点因子矩阵。
重复步骤4.11~4.12,得到每个二分图对应的源节点因子矩阵和目标节点因子矩阵。对应每个二分图序列,由所有二分图的源节点因子矩阵构成源节点因子矩阵序列,由所有二分图的目标节点因子矩阵构成目标节点因子矩阵序列。
步骤4.13:对二分图序列的所有源节点因子矩阵进行特征提取,得到源节点上下文特征向量Actx;对二分图序列的所有目标节点因子矩阵进行特征提取,得到目标节点上下文特征向量Bctx,如公式(3)所示。
在步骤4.2中,利用事件编码模块对当前轮网络测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量,具体实现过程包括:
步骤4.21:根据当前轮网络测量事件数据的源节点数量随机生成源节点初始学习矩阵根据当前轮网络测量事件数据的目标节点数量随机生成目标节点初始学习矩阵
步骤4.22:定义源节点记忆矩阵MS和目标节点记忆矩阵MD,源节点记忆矩阵MS的行数和列数与源节点初始学习矩阵相同,目标节点记忆矩阵MD的行数和列数与目标节点初始学习矩阵相同,将源节点记忆矩阵MS和目标节点记忆矩阵MD初始化为0。
步骤4.23:对于当前轮网络测量事件数据中的某个测量事件e=(p,q,t,v),取源节点初始学习矩阵的第p行作为P,取目标节点初始学习矩阵的第q行作为Q;其中,p为源节点ID,q为目标节点ID,t为时间戳,v为测量结果。
步骤4.23:对源节点记忆矩阵MS和目标节点记忆矩阵MD进行更新,具体更新公式如式(4)所示。
步骤4.24:利用最大池化层对更新后的源节点记忆矩阵和目标节点记忆矩阵进行处理,得到源节点状态向量Acurr和目标节点状态向量Bcurr。
在步骤4.3中,利用数据恢复模块对源节点上下文特征向量和源节点状态向量、目标节点上下文特征向量和目标节点状态向量进行深度特征提取,得到当前轮网络测量事件数据的状态预测矩阵,如式(6)所示。
本发明提出了在线处理(上下文信息提取模块)和离线处理(事件编码模块)相结合的异步处理思想,使这两部分可以分开处理,提高了部署在测量场景下运行时的模型响应速度;本发明的事件编码模块能够在推理计算时比基于循环神经网络的事件处理更快速,在模型训练上所消耗的计算资源和时间开销也更小;同时事件编码模块还拥有循环神经网络RNN不具备的集合不变性,保证了计算结果与事件到达顺序无关,只与所收到的测量事件有关。
基于同一构思,本发明实施例还提供一种电子设备,包括:处理器和存储有计算机程序的存储器,所述处理器被配置为执行所述计算机程序时实现如上所述流式网络监测数据恢复模型训练方法或流式网络监测数据恢复方法。
尽管未示出,所述电子设备包括处理器,其可以根据存储在只读存储器(ROM)中的程序和/或数据或者从存储部分加载到随机访问存储器(RAM)中的程序和/或数据而执行各种适当的操作和处理。处理器可以是一个多核的处理器,也可以包含多个处理器。在一些实施例中,处理器可以包含一个通用的主处理器以及一个或多个特殊的协处理器,例如,中央处理器(CPU)、图形处理器(GPU)、神经网络处理器(NPU)、数字信号处理器(DSP)等等。在RAM中,还存储有电子设备操作所需的各种程序和数据。处理器、ROM以及RAM通过总线彼此相连。输入/输出(I/O)接口也连接至总线。
上述处理器与存储器共同用于执行存储在存储器中的程序,所述程序被计算机执行时能够实现上述各实施例描述的方法、步骤或功能。
尽管未示出,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述流式网络监测数据恢复模型训练方法或流式网络监测数据恢复方法。
在本发明的实施例的存储介质包括永久性和非永久性、可移动和非可移动的可以由任何方法或技术来实现信息存储的物品。存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
以上所揭露的仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或变型,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种流式网络监测数据恢复模型训练方法,其特征在于,所述方法包括:
获取N轮历史测量事件数据,其中每轮历史测量事件数据包括n个历史测量事件,每个历史测量事件包括源节点ID、目标节点ID、时间戳和测量结果;
从N轮历史测量事件数据中选取连续的K轮历史测量事件数据构建一历史测量事件数据集,从而得到N-K+1个历史测量事件数据集;
对每个所述历史测量事件数据集中的前K-1轮历史测量事件数据分别构建二分图,从而得到每个所述历史测量事件数据集的二分图序列;将每个所述历史测量事件数据集中的第K轮历史测量事件数据转换成目标矩阵;
构建流式网络监测数据恢复模型,所述流式网络监测数据恢复模型包括上下文信息提取模块、事件编码模块和数据恢复模块;所述上下文信息提取模块、事件编码模块分别与数据恢复模块连接;
以每个所述历史测量事件数据集的二分图序列作为上下文信息提取模块的输入,以对应历史测量事件数据集的第K轮历史测量时间数据作为事件编码模块的输入,以对应的目标矩阵作为模型输出,对所述流式网络监测数据恢复模型进行训练,得到目标流式网络监测数据恢复模型。
2.根据权利要求1所述的流式网络监测数据恢复模型训练方法,其特征在于,对每个所述历史测量事件数据集中的前K-1轮历史测量事件数据分别构建二分图,具体包括:
对于第k轮历史测量事件数据,在每个历史测量事件的源节点与目标节点之间创建一条无向边,所述无向边的取值为该历史测量事件的测量结果,由此得到第k轮历史测量事件数据的二分图;其中k=1,2,…,K-1。
3.根据权利要求1所述的流式网络监测数据恢复模型训练方法,其特征在于,对所述流式网络监测数据恢复模型进行训练的具体实现过程包括:
利用所述上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量;
利用所述事件编码模块对对应的第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量;
利用所述数据恢复模块对源节点上下文特征向量和源节点状态向量、目标节点上下文特征向量和目标节点状态向量进行深度特征提取,得到第K轮历史测量事件数据的状态预测矩阵;
根据所述状态预测矩阵和目标矩阵构建损失函数,以损失函数最小化为目标调整所述流式网络监测数据恢复模型的参数,实现模型训练。
4.根据权利要求3所述的流式网络监测数据恢复模型训练方法,其特征在于,利用所述上下文信息提取模块对二分图序列进行特征提取,得到源节点上下文特征向量和目标节点上下文特征向量,具体包括:
对于所述二分图序列中的每个二分图,根据二分图对应的源节点数量随机生成源节点初始嵌入矩阵根据二分图对应的目标节点数量随机生成目标节点初始嵌入矩阵其中,|S|为源节点数量,|D|为目标节点数量,dim为嵌入维度,R为实数空间;
基于源节点初始嵌入矩阵和目标节点初始嵌入矩阵对二分图进行特征提取,得到源节点因子矩阵和目标节点因子矩阵;
对所述二分图序列的所有源节点因子矩阵进行特征提取,得到源节点上下文特征向量Actx;对所述二分图序列的所有目标节点因子矩阵进行特征提取,得到目标节点上下文特征向量Bctx,具体公式为:
Actx=GRU({S1,S2,…,S(K-2),S(K-1)})
Bctx=GRU({D1,D2,…,D(K-2),D(K-1)})
其中,S1,S2,…,S(K-2),S(K-1)分别为二分图G1,G2,…,G(K-2),G(K-1)的源节点因子矩阵,D1,D2,…,D(K-2),D(K-1)分别为二分图G1,G2,…,G(K-2),G(K-1)的目标节点因子矩阵,GRU表示循环神经网络。
5.根据权利要求4所述的流式网络监测数据恢复模型训练方法,其特征在于,基于源节点初始嵌入矩阵和目标节点初始嵌入矩阵对二分图进行特征提取,得到源节点因子矩阵和目标节点因子矩阵,具体包括:
对于二分图的任意边(s,d),取源节点初始嵌入矩阵的第s行作为初始嵌入特征s(0),取目标节点初始嵌入矩阵的第d行作为初始嵌入特征d(0);其中,s为边(s,d)的起始节点ID,d为边(s,d)的终点节点ID;
对二分图的边(s,d)的初始嵌入特征s(0)进行特征编码、特征聚合,得到边(s,d)的起始节点的嵌入特征;对二分图的边(s,d)的初始嵌入特征d(0)进行特征编码、特征聚合,得到边(s,d)的终点节点的嵌入特征;进而得到二分图每条边的起始节点的嵌入特征和终点节点的嵌入特征;具体公式为:
其中,r(L)为节点r在第L层的嵌入特征,r(L-1)为节点r在第L-1层的嵌入特征,g()为可训练的线性变换函数,为所有指向节点r的节点集合,为中间特征编码向量,W为可训练的权重矩阵,b为可训练的偏置矩阵,u(L-1)为节点u在第L-1层的嵌入特征,eur为边(u,r)的取值;
采用二分图的所有起始节点在第L层的嵌入特征替代所述源节点初始嵌入矩阵的对应行,得到源节点因子矩阵,采用二分图的所有终点节点在第L层的嵌入特征替代所述目标节点初始嵌入矩阵的对应行,得到目标节点因子矩阵。
6.根据权利要求3所述的流式网络监测数据恢复模型训练方法,其特征在于,利用所述事件编码模块对对应的第K轮历史测量事件数据进行特征提取,得到源节点状态向量和目标节点状态向量,具体实现过程包括:
根据第K轮历史测量事件数据的源节点数量随机生成源节点初始学习矩阵根据第K轮历史测量事件数据的目标节点数量随机生成目标节点初始学习矩阵其中,|S|为源节点数量,|D|为目标节点数量,dim为嵌入维度,R为实数空间;
定义源节点记忆矩阵MS和目标节点记忆矩阵MD,源节点记忆矩阵MS的行数和列数与源节点初始学习矩阵相同,目标节点记忆矩阵MD的行数和列数与目标节点初始学习矩阵相同,且将源节点记忆矩阵MS和目标节点记忆矩阵MD初始化为0;
对于第K轮历史测量事件数据中的测量事件e=(p,q,t,v),取源节点初始学习矩阵的第p行作为P,取目标节点初始学习矩阵的第q行作为Q;其中,p为源节点ID,q为目标节点ID,t为时间戳,v为测量结果;
对源节点记忆矩阵MS和目标节点记忆矩阵MD进行更新,具体更新公式为:
其中,Updaterk(·)为单层网络,Updaterk(x)=ReLU(Wkx+bk),Wk和bk为可学习参数,ReLU(x)=max(x,0);h=[P;Q;v];为第i次更新后的源节点记忆矩阵MS,为第i次更新后的目标节点记忆矩阵MD,i=1,2,…,M,更新次数M为第K轮历史测量事件数据中的测量事件数;
利用最大池化层对更新后的源节点记忆矩阵和目标节点记忆矩阵进行处理,得到源节点状态向量Acurr和目标节点状态向量Bcurr,具体公式为:
其中,MaxPooling()为最大池化层。
7.根据权利要求3所述的流式网络监测数据恢复模型训练方法,其特征在于,所述损失函数的具体表达式为:
其中,为损失函数,为状态预测矩阵,XΩ为目标矩阵,|Ω|为目标矩阵XΩ中非0元素的数量,||·||F表示弗罗贝尼乌斯范数,λ为常数。
8.一种流式网络监测数据恢复方法,包括以下步骤:
获取前K-1轮网络测量事件数据和当前轮网络测量事件数据;
对前K-1轮网络测量事件数据中的每轮网络测量事件数据构建二分图;
调用目标流式网络监测数据恢复模型,所述目标流式网络监测数据恢复模型根据如权利要求1~7中任一项所述流式网络监测数据恢复模型训练方法训练得到;
基于所述目标流式网络监测数据恢复模型,对当前轮网络测量事件数据进行数据恢复,得到当前轮网络测量事件数据的状态预测矩阵,所述状态预测矩阵即为恢复后的网络监测数据。
9.一种电子设备,其特征在于,所述设备包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1~7中任一项所述流式网络监测数据恢复模型训练方法或权利要求8所述的流式网络监测数据恢复方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1~7中任一项所述流式网络监测数据恢复模型训练方法或权利要求8所述的流式网络监测数据恢复方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310408939.0A CN116483624A (zh) | 2023-04-17 | 2023-04-17 | 监测数据恢复模型训练方法、恢复方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310408939.0A CN116483624A (zh) | 2023-04-17 | 2023-04-17 | 监测数据恢复模型训练方法、恢复方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116483624A true CN116483624A (zh) | 2023-07-25 |
Family
ID=87220701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310408939.0A Pending CN116483624A (zh) | 2023-04-17 | 2023-04-17 | 监测数据恢复模型训练方法、恢复方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116483624A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116775622A (zh) * | 2023-08-24 | 2023-09-19 | 中建五局第三建设有限公司 | 一种结构数据生成方法、装置、设备及存储介质 |
-
2023
- 2023-04-17 CN CN202310408939.0A patent/CN116483624A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116775622A (zh) * | 2023-08-24 | 2023-09-19 | 中建五局第三建设有限公司 | 一种结构数据生成方法、装置、设备及存储介质 |
CN116775622B (zh) * | 2023-08-24 | 2023-11-07 | 中建五局第三建设有限公司 | 一种结构数据生成方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114818515A (zh) | 一种基于自注意力机制和图卷积网络的多维时序预测方法 | |
US20160140434A1 (en) | Method for pseudo-recurrent processing of data using a feedforward neural network architecture | |
CN110138595A (zh) | 动态加权网络的时间链路预测方法、装置、设备及介质 | |
CN113313947A (zh) | 短期交通预测图卷积网络的路况评估方法 | |
CN114493014B (zh) | 多元时间序列预测方法、系统及计算机产品、存储介质 | |
CN111260124A (zh) | 一种基于注意力机制深度学习的混沌时间序列预测方法 | |
Song et al. | Online traffic flow prediction for edge computing-enhanced autonomous and connected vehicles | |
Challu et al. | Deep generative model with hierarchical latent factors for time series anomaly detection | |
CN114926770A (zh) | 视频动作识别方法、装置、设备和计算机可读存储介质 | |
CN113935489A (zh) | 基于量子神经网络的变分量子模型tfq-vqa及其两级优化方法 | |
CN115862319A (zh) | 一种面向时空图自编码器的交通流量预测方法 | |
CN115051929A (zh) | 基于自监督目标感知神经网络的网络故障预测方法及装置 | |
CN116483624A (zh) | 监测数据恢复模型训练方法、恢复方法、设备及存储介质 | |
CN111460275B (zh) | 一种面向社交网络的动态网络表示学习方法及系统 | |
CN114925270B (zh) | 一种会话推荐方法和模型 | |
CN115983497A (zh) | 一种时序数据预测方法和装置、计算机设备、存储介质 | |
Yuan et al. | Multimodal reward shaping for efficient exploration in reinforcement learning | |
Basterrech et al. | Echo state queueing networks: a combination of reservoir computing and random neural networks | |
CN114625969A (zh) | 一种基于交互近邻会话的推荐方法 | |
Yang et al. | Host load prediction based on PSR and EA-GMDH for cloud computing system | |
Chakraborty et al. | Brain-inspired spiking neural network for online unsupervised time series prediction | |
CN112396166A (zh) | 基于混合粒度聚合器的图卷积神经网络训练方法及装置 | |
CN116484016B (zh) | 一种基于时序路径自动维护的时序知识图谱推理方法和系统 | |
Alippi et al. | Model ensemble for an effective on-line reconstruction of missing data in sensor networks | |
CN116166937A (zh) | 用于泛在电力物联网的电能质量数据的修复方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |