CN114124654B - 告警合并方法、装置、计算设备及计算机存储介质 - Google Patents
告警合并方法、装置、计算设备及计算机存储介质 Download PDFInfo
- Publication number
- CN114124654B CN114124654B CN202010795566.3A CN202010795566A CN114124654B CN 114124654 B CN114124654 B CN 114124654B CN 202010795566 A CN202010795566 A CN 202010795566A CN 114124654 B CN114124654 B CN 114124654B
- Authority
- CN
- China
- Prior art keywords
- alarm
- target
- training
- merging
- network node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 260
- 239000011159 matrix material Substances 0.000 claims abstract description 154
- 238000003062 neural network model Methods 0.000 claims abstract description 88
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000004891 communication Methods 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 18
- 238000005096 rolling process Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 description 23
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
- H04L41/0631—Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
Abstract
本发明实施例涉及通信技术领域,公开了一种告警合并方法、装置、计算设备及计算机存储介质,该方法包括:获取目标告警拓扑图,目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系,每一个网络节点中存储有该网络节点生成的目标告警信息;根据目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵;对目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵;将目标邻接矩阵和目标特征矩阵输入预先训练好的告警合并模型中以得到目标合并告警信息;其中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练编解码神经网络模型得到的。通过上述方式,本发明实施例实现了告警合并。
Description
技术领域
本发明实施例涉及通信技术领域,具体涉及一种告警合并方法、装置、计算设备及计算机存储介质。
背景技术
随着网络技术的发展,网络的复杂度越来越高,网络中网元个数越来越多。在网络发生故障时,网络中产生的告警是海量的。海量告警中包含很多相同的告警或者由于同一根因造成的告警。在处理告警之前,将海量告警合并,以便于对告警进行分析。
现有技术中,通过人工筛查的方式对海量告警进行合并,造成告警合并效率低。
发明内容
鉴于上述问题,本发明实施例提供了一种告警合并方法、装置、计算设备及计算机存储介质,用于解决现有技术中存在的人工进行告警合并效率低的问题。
根据本发明实施例的一个方面,提供了一种告警合并方法,所述方法包括:
获取目标告警拓扑图,所述目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系,每一个网络节点中存储有该网络节点生成的目标告警信息;
根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵;所述目标邻接矩阵的行数和列数均与所述目标告警拓扑中网络节点的个数相同;所述目标邻接矩阵中第i行第j列的元素表征网络节点Vi和网络节点Vj之间的连接关系;其中,i和j均为大于0的自然数;
对所述目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵;所述目标特征矩阵中的行数与所述目标告警拓扑图中网络节点的个数相同,所述目标特征矩阵的每一行表征一个网络节点生成的目标告警信息进行序列化处理后的操作;
将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中以得到目标合并告警信息;其中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练编解码神经网络模型得到的,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;所述训练告警拓扑图和所述目标告警拓扑图中包含的多个网络节点相同,各网络节点之间的连接关系也相同;所述训练合并告警序列是由所述训练告警拓扑图对应的训练合并告警信息进行序列化处理后得到的;所述训练合并告警信息是训练告警拓扑图中各网络节点生成的训练告警信息合并后得到的。
可选的,所述根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵,包括:
计算所述目标告警拓扑图中网络节点的总数,将所述网络节点的总数分别作为所述目标邻接矩阵的行数和列数;
如果所述网络节点Vi和所述网络节点Vj在所述目标告警拓扑图中存在连接关系,则所述目标邻接矩阵中的第i行第j列的元素为第一数值;
否则,所述目标邻接矩阵中的第i行第j列的元素为第二数值。
可选的,所述对所述目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵,进一步包括:
对各网络节点生成的目标告警信息分别进行分词,得到各网络节点对应的多个目标分词;
在预先设置的告警词典中查找各网络节点的多个目标分词对应的编码,得到各网络节点对应的目标序列;其中,所述预先设置的告警词典中存储有分词和编码之间的对应关系;
对各网络节点对应的目标序列分别进行长度扩充,得到各网络节点对应的第一目标序列;其中,各网络节点对应的第一目标序列的长度相同;
将各网络节点对应的第一目标序列作为矩阵的一行得到所述目标特征矩阵。
可选的,所述将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中以得到目标合并告警信息,包括:
将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中,以使所述告警合并模型根据所述目标邻接矩阵和所述目标特征矩阵进行特征计算,得到目标合并告警序列;
对所述目标合并告警序列进行反序列化处理,得到目标合并告警信息。
可选的,所述获取目标告警拓扑图之前,所述方法还包括:
配置编解码神经网络模型;
获取多个历史告警拓扑图及各历史告警拓扑图对应的训练合并告警信息;
根据所述历史告警拓扑图得到多组训练数据;其中,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;
对所述训练合并告警信息进行序列化处理,得到各历史告警拓扑图对应的训练合并告警序列;
根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型。
可选的,所述根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型,包括:
将所述多组训练数据输入所述编解码神经网络模型,输出所述多组训练数据对应的输出合并告警序列;
根据所述输出合并告警序列及所述训练合并告警序列计算预设损失函数的损失值;
根据所述损失值调整所述编解码神经网络模型的权重,并将所述多组训练数据输入调整权重后的编解码神经网络模型继续训练,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述编解码神经网络模型的权重,得到所述告警合并模型。
可选的,所述编解码神经网络模型包括编码器和解码器,所述编码器包括图卷积神经网络模型,所述解码器包括长短期记忆神经网络模型;
所述将所述多组训练数据输入所述编解码神经网络模型,输出所述多组训练数据对应的输出合并告警序列,包括:
将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的训练图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络模型中相邻的两层图卷积层的训练图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组训练数据中目标训练数据对应的训练图卷积结果,所述目标训练数据为所述多组训练数据中的任意一组训练数据;X1为所述目标训练数据;/>I为单位矩阵,A1为所述目标训练数据对应的训练邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;
将所述图卷积结果输入所述长短期记忆神经网络模型,输出所述多组训练数据对应的输出合并告警序列。
根据本发明实施例的另一方面,提供了一种告警合并装置,所述装置包括:
获取模块,用于获取目标告警拓扑图,所述目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系,每一个网络节点中存储有该网络节点生成的目标告警信息;
确定模块,用于根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵;所述目标邻接矩阵的行数和列数均与所述目标告警拓扑中网络节点的个数相同;所述目标邻接矩阵中第i行第j列的元素表征网络节点Vi和网络节点Vj之间的连接关系;其中,i和j均为大于0的自然数;
序列化模块,用于对所述目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵;所述目标特征矩阵中的行数与所述目标告警拓扑图中网络节点的个数相同,所述目标特征矩阵的每一行表征一个网络节点生成的目标告警信息进行序列化处理后的操作;
输入模块,用于将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中,以得到目标合并告警信息;其中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练得到的,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;所述训练告警拓扑图和所述目标告警拓扑图中包含的多个网络节点相同,各网络节点之间的连接关系也相同;所述训练合并告警序列是由所述训练告警拓扑图对应的训练合并告警信息进行序列化处理后得到的;所述训练合并告警信息是训练告警拓扑图中各网络节点生成的训练告警信息合并后得到的。,所述方法包括:
根据本发明实施例的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述的一种告警合并方法对应的操作。
根据本发明实施例的又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使计算设备/装置执行上述的一种告警合并方法对应的操作。
本发明实施例从目标告警拓扑图中得到目标邻接矩阵和目标特征矩阵,将目标邻接矩阵和目标特征矩阵作为告警合并模型的输入,得到目标告警拓扑图对应的合并告警信息,相较于现有技术中人工进行告警信息合并的方式,本发明实施例大大缩短了告警信息的合并过程,提高了告警信息的合并效率。通过告警信息的合并,避免了网络运维人员对相同的告警信息或同一根因造成的告警信息进行重复处理,提高了网络运维的可靠性;此外,本发明实施例中的告警合并模型是根据多组训练数据训练得到的,告警信息合并的准确性更高。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种告警合并方法的流程示意图;
图2示出了本发明实施例提供的一种告警合并方法中目标告警拓扑图的示意图;
图3示出了本发明实施例提供的一种告警合并方法中告警合并模型的结构示意图;
图4示出了本发明实施例中LSTM神经元的结构示意图;
图5示出了本发明另一个实施例的一种告警合并方法中告警合并模型的训练流程图;
图6示出了本发明实施例的一种告警合并装置的功能框图;
图7示出了本发明实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。
图1示出了本发明实施例的一种告警合并方法的流程图。如图1所示,该方法包括以下步骤:
步骤110:获取目标告警拓扑图。
在本步骤中,目标告警拓扑图是发生告警的通信网络对应的拓扑图。其中,本发明实施例中的通信网络可以是任意一种通信网络,例如,5G切片网络。图2示出了目标告警拓扑图的示意图,如图2所示,用一个方框表示一个网络节点,目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系。在告警拓扑图中每一个网络节点中存储有该网网络节点生成的目标告警信息。本发明实施例中目标告警信息的具体形式可以为任意一种形式,例如,目标告警信息是由中文单词和/或英文单词组成的短句。
步骤120:根据目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵。
在本步骤中,目标邻接矩阵的行数和列数与目标告警拓扑中网络节点的个数相同,目标邻接矩阵中第i行第j列的元素表征网络节点Vi和网络节点Vj之间的连接关系。其中,i和j均为大于0的自然数。在本发明实施例中,计算目标告警拓扑图中网络节点的总数,将得到的目标告警拓扑图中网络节点的总数作为目标邻接矩阵的行数和列数。
如果任意两个网络节点Vi和Vj在目标告警拓扑图中存在连接关系,则目标节点邻接矩阵中第i行第j列的元素为第一数值。如果网络节点Vi和Vj在目标告警拓扑图中不存在连接关系,则目标节点邻接矩阵中第i行第j列的元素为第二数值。第一数值和第二数值为不同数值,具体值不限。优选的,第一数值为1,第二数值为0,以便于后续计算。用V1~VN表示通信网络中的N个网络节点,则目标节点邻接矩阵可以表示为:
其中,eN1~eNN表示网络节点VN与网络节点V1~VN之间的连接关系,VN节点自身必然不存在边关系,因此,目标节点邻接矩阵的对角线上的元素均为第二数值。
步骤130:对目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,以得到目标特征矩阵。
在本步骤中,对各目标告警信息进行序列化后得到各目标告警信息对应的序列,对目标告警信息进行序列化处理的方式可以为任意一种,本发明实施例并不限定具体的序列化方法,例如,在一些实施方式中,使用现有的序列化工具对目标告警信息进行序列化。例如,在一种具体的实施方式中,序列化工具为python中的tokenize模块将目标告警信息进行序列化。在另外一些实施例中,预先设置有告警词典,告警词典中存储有分词和编码之间的对应关系。告警词典中的分词包含各种类型的告警信息中出现的分词。
以通过告警词典对目标告警信息进行序列化处理为例,首先对各网络节点生成的目标告警信息进行分词,得到各网络节点对应的多个目标分词。在预先设置的告警词典中查找各网络节点的多个目标分词对应的编码,得到各网络节点对应的目标序列。应理解,得到的目标序列中包含多个数值,各个数值分别对应一个目标分词,各个数值之间的顺序关系与各个目标分词之间的顺序关系相同。对各网络节点对应的目标序列分别进行长度扩充,得到各网络节点对应的第一目标序列。其中,各个网络节点对应的第一目标序列的长度相同。在对各网络节点对应的目标序列进行长度扩充时,扩充的长度与训练告警合并模型时训练数据中的训练特征矩阵的长度相同。在对目标序列进行扩充时,扩充的元素为0,以便于计算。例如,在一种具体的实施方式中,网络节点的个数为3个,3个网络节点对应的目标序列长度分别为4、5、6,则在进行扩充时,扩充后的第一目标序列的长度为8。则各网络节点分别在相应的目标序列后补零的个数为4个、3个和2个。
用V1~VN表示通信网络中的N个网络节点,用M表示各个网络节点对应的第一目标序列的长度,则得到的目标告警特征矩阵可以表示为:
步骤140:将目标邻接矩阵和目标特征矩阵输入预先训练好的告警合并模型中以得到目标合并告警信息。
在本步骤中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练编解码神经网络模型得到的。每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵。训练告警拓扑图的目标告警拓扑图中包含的多个网络节点相同,即,网络节点的数量和网络节点的类别相同。训练告警拓扑图中各网络节点之间的连接关系也相同。训练合并告警序列是由训练告警拓扑图对应的训练合并告警信息进行序列化处理后得到的。训练告警拓扑图对应的训练合并告警信息是预先进行人工合并后的合并告警信息。序列化处理的方式与步骤130中对目标告警信息进行序列化处理的方式相同,请参阅步骤130中对目标告警信息进行序列化处理的过程,为了描述简洁,在此不做赘述。
告警合并模型的具体结构与用于训练告警合并模型的编解码神经网络模型的结构相同,在对编解码神经网络模型进行训练时,根据输入的训练数据及训练数据对应的训练合并告警序列迭代调整编解码神经网络模型的权重,得到告警合并模型。告警合并模型的具体训练过程在下一个实施例中进行说明,请参阅下一个实施例的具体描述。
在将目标邻接矩阵和目标特征矩阵输入预先训练好的告警合并模型中后,告警合并模型根据目标邻接矩阵和目标特征矩阵进行特征计算,得到目标合并告警序列,对目标合并告警序列进行反序列化处理,得到目标合并告警信息。反序列化处理的具体操作方式与训练合并告警信息进行序列化得到训练合并告警序列的方式有关。例如,在一种实施方式中,训练合并告警序列是通过训练合并告警信息进行分词后在告警词典中匹配得到的,则在对目标合并告警序列进行反序列化时,将目标合并告警序列中的各个数值在告警词典中匹配相应的分词,得到合并告警信息。
编解码神经网络模型包括编码器和解码器,编码器用于从目标邻接矩阵和目标特征矩阵中进行特征提取,解码层用于对编码器提取的特征进一步进行特征提取,得到目标合并告警序列。以编码器为图卷积神经网络模型、解码器为长短期记忆(long short-termmemory,LSTM)神经网络模型为例,在一种具体的实施方式中,告警合并模型的具体结构如图3所示,在图3中,图卷积神经网络模型包括三层依次连接的图卷积层,LSTM神经网络模型包括三层依次连接的LSTM层和一层全连接层,图卷积神经网络模型的输出结果为LSTM神经网络模型的输入。图卷积神经网络模型和LSTM神经网络模型中相互连接的图卷积层和LSTM层的神经元个数。例如,在一种具体的实施方式中,三层依次连接的图卷积层的神经元个数分别为256个、128个和64个,三层依次连接的LSTM层的神经元个数分别为64个、128个和256个。应理解,图3中给出的告警合并模型的架构只是一种具体实施方式中的模型架构,并不构成对告警合并模型的架构的限定。例如,在其他实施例中,图卷积神经网络模型可以包括两层依次连接的图卷积层,LSTM神经网络模型可以包括四层依次连接的LSTM层和一层全连接层。
在将目标邻接矩阵和目标特征矩阵输入图卷积神经网络模型后,图卷积神经网络模型根据公式计算目标图卷积结果,目标图卷积结果为根据目标邻接矩阵和目标特征矩阵提取的特征表示。在上述公式中,l的取值为1~L,其中,L为图卷积神经网络模型中图卷积层的层数,H(1)=X,H(L)为目标邻接矩阵和目标特征矩阵对应的目标图卷积结果。/>I为单位矩阵,A为目标节点邻接矩阵;/>是/>的度矩阵,/>为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数,在一种具体的实施方式中,每一层图卷积层的非线性激活函数均为“relu”函数。
在得到目标图卷积结果后,将目标图卷积结果输入LSTM神经网络模型,LSTM层对目标图卷积结果进一步进行特征提取。LSTM神经网络中的第一层LSTM层中的每一个LSTM神经元均按照目标图卷积结果中各元素的排列顺序接收目标图卷积结果,并对其进行特征提取。以其中一个LSTM神经元接收到的一个输入信息的提取为例对LSTM神经元的特征提取过程进行说明。
图4示出了本发明实施例中LSTM神经元的结构示意图。如图4所示,LSTM神经元包括遗忘门、输入门及输出门,LSTM神经元对输入的元素进行特征提取后的输出存储在该LSTM神经元的缓存中,当下一个时间步该神经元有数据输入时,存在缓存中的数据会被当做输入的一部分,在每一个时间步,LSTM神经元的输出都会被放到缓存中去,在下一个时间步,缓存中存储的信息更新。在本发明实施例中,目标图卷积结果中各个元素输入LSTM神经元的时间间隔为一个时间步。遗忘门决定了上一时间步存储的信息ht-1中丢弃和保留的信息,其计算公式为:ft=σ(Wf·[ht-1,xt]+bf),其中,xt表示输入信息,bf为输入层偏置向量,σ表示sigmoid函数,Wf表示遗忘门的权重,遗忘门的输出结果是一个介于0至1之间的数,1表示“完全保留该信息”,0表示“完全丢弃该信息”。输入门决定上一时刻神经元状态Ct-1中需要更新的信息,其计算公式为:it=σ(Wi·[ht-1,xt]+bi), 其中,Ct表示当前时间步神经元的状态,Wi、Wc分别表示输入门的权重,bi和bc分别为输入门偏置向量。输入门的输出包含两个部分,一部分是全部输出,用于输出至与其连接的下一层LSTM层;一部分是用于输入该层与其连接的下一个LSTM神经元。全部输出的计算公式为:ot=σ(Wo[ht-1,xt]+bo),用于输入与其连接的下一LSTM神经元的输出的计算公式为:ht=ot*tanh(Ct),其中,Wo为输出门权重,bo为输出门偏置向量。在得到全部输出ot后,对ot去归一化即可得到该LSTM神经元的输出结果,该输出结果表示对目标图卷积结果进行进一步特征提取的结果。
LSTM神经网络模型的全连接层包含的神经元个数与训练合并告警序列的长度相同。全连接层根据公式计算得到目标告警拓扑图对应的目标合并告警序列。其中,/>为全连接层的权重,/>为偏置值。
本发明实施例从目标告警拓扑图中得到目标邻接矩阵和目标特征矩阵,将目标邻接矩阵和目标特征矩阵作为告警合并模型的输入,得到目标告警拓扑图对应的合并告警信息,相较于现有技术中人工进行告警信息合并的方式,本发明实施例大大缩短了告警信息的合并过程,提高了告警信息的合并效率。通过告警信息的合并,避免了网络运维人员对相同的告警信息或同一根因造成的告警信息进行重复处理,提高了网络运维的可靠性;此外,本发明实施例中的告警合并模型是根据多组训练数据训练得到的,告警信息合并的准确性更高。
图5示出了本发明另一个实施例的一种告警合并方法中告警合并模型的训练流程图。该如图5所示,该方法包括以下步骤:
步骤210:配置编解码神经网络模型。
在本步骤中,对编解码神经网络模型的配置包括确定编解码神经网络模型的架构以及确定编解码神经网络模型中各神经元之间的初始权重。本发明实施例中构建的编解码神经网络模型的架构与上一实施例中训练得到的告警合并模型的结构相同。具体的架构可以参阅步骤140的具体说明以及图3给出的具体架构,在此不做赘述。各神经元之间的初始权重可以设置为非零的随机数值,也可以全部都设置为1,本发明实施例并不对初始权重的具体数值进行限定。
步骤220:获取多个历史告警拓扑图及各历史告警拓扑图对应的训练合并告警信息。
在本步骤中,历史告警拓扑图是通信网络发生告警时通信网络的拓扑图。在本发明实施例中,各个历史告警拓扑图的结构和上一实施例中的目标告警拓扑图的结构相同。具体历史告警拓扑图的结构可以参阅附图2中给出的具体示例。训练合并告警信息是预先进行人工合并后的合并告警信息。
步骤230:根据历史告警拓扑图得到多组训练数据。
在本步骤中,每一组训练数据包括根据一个历史告警拓扑图得到的一个训练邻接矩阵和一个训练特征矩阵。根据历史告警拓扑图得到训练邻接矩阵和的方式与步骤120中根据目标告警拓扑图得到目标邻接矩阵的方式相同。同样的,根据历史告警拓扑图得到训练特征矩阵的方式与步骤130中根据目标告警拓扑图得到目标特征矩阵的方式相同。请参阅步骤120和步骤130的具体说明,在此不做赘述。
步骤240:对训练合并告警信息进行序列化处理,得到各历史告警拓扑图对应的训练合并告警序列。
在本步骤中,对训练合并告警信息进行序列化处理的方式与步骤130中对目标告警信息进行序列化处理的方式相同,请参阅步骤130中对目标告警信息进行序列化处理的过程,为了描述简洁,在此不做赘述。
步骤250:根据多组训练数据及相应的训练合并告警序列训练编解码神经网络模型,得到训练好的告警合并模型。
在本步骤中,编解码神经网络模型包括编码器和解码器,编码器用于从目标邻接矩阵和目标特征矩阵中进行特征提取,解码层用于对编码器提取的特征进一步进行特征提取,得到目标合并告警序列。以编码器为图卷积神经网络模型、解码器为LSTM神经网络模型为例,图卷积神经网络模型和LSTM神经网络模型分别按照步骤140中的计算过程对输入的一组训练数据进行特征计算,得到该组训练数据对应的输出合并告警序列。具体的,将多组训练数据中的每一组分别作为目标训练数据输入图卷积神经网络模型,根据公式得到各组训练数据对应的训练图卷积结果;其中,H1 (l)与H1 (l+1)分别为图卷积神经网络模型中相邻的两层图卷积层的训练图卷积结果,l的取值为1~L,其中,L为图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为目标训练数据对应的训练图卷积结果;X1为目标训练数据;/>I为单位矩阵,A1为目标训练数据对应的训练邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;将目标训练数据对应的训练图卷积结果输入长短期记忆神经网络模型,输出目标训练数据对应的输出合并告警序列。
根据每一次输入的目标训练数据对应的输出合并告警序列和相应的训练合并告警序列计算预设损失函数值,根据损失函数值调整编解码神经网络模型的权重,更新目标训练数据,并根据调整后的权重继续进行迭代训练,知道达到预设迭代次数。将达到所述预设迭代次数时,使损失函数的损失值最小的权重作为编解码神经网络模型的权重,得到所述告警合并模型。其中,预设损失函数可以是任意一种损失函数,本发明实施例并不对损失函数的类型进行限定,例如,在一种具体的实施方式中,损失函数为多类对数损失函数。在进行权重调整时,可以使用任一种优化算法进行调整,例如,梯度下降法。
本发明实施例根据获取的多个历史告警拓扑图得到多组训练数据及相应的训练合并告警序列,根据多组训练数据及相应的训练合并告警序列训练得到告警合并模型,通过上述训练方式可以学习训练数据和合并告警序列之间的映射关系,便于进行自动化告警信息合并。
图6示出了本发明实施例的一种告警合并装置的功能框图。如图6所示,该装置包括:获取模块310、确定模块320、序列化模块330和输入模块340。
获取模块310,用于获取目标告警拓扑图,所述目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系,每一个网络节点中存储有该网络节点生成的目标告警信息。
确定模块320,用于根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵;所述目标邻接矩阵的行数和列数均与所述目标告警拓扑中网络节点的个数相同;所述目标邻接矩阵中第i行第j列的元素表征网络节点Vi和网络节点Vj之间的连接关系;其中,i和j均为大于0的自然数。
序列化模块330,用于对所述目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵;所述目标特征矩阵中的行数与所述目标告警拓扑图中网络节点的个数相同,所述目标特征矩阵的每一行表征一个网络节点生成的目标告警信息进行序列化处理后的操作。
输入模块340,用于将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中,以得到目标合并告警信息;其中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练得到的,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;所述训练告警拓扑图和所述目标告警拓扑图中包含的多个网络节点相同,各网络节点之间的连接关系也相同;所述训练合并告警序列是由所述训练告警拓扑图对应的训练合并告警信息进行序列化处理后得到的;所述训练合并告警信息是训练告警拓扑图中各网络节点生成的训练告警信息合并后得到的。
在一种可选的方式中,确定模块320进一步用于:
计算所述目标告警拓扑图中网络节点的总数,将所述网络节点的总数分别作为所述目标邻接矩阵的行数和列数;
如果所述网络节点Vi和所述网络节点Vj在所述目标告警拓扑图中存在连接关系,则所述目标邻接矩阵中的第i行第j列的元素为第一数值;
否则,所述目标邻接矩阵中的第i行第j列的元素为第二数值。
在一种可选的方式中,序列化模块330进一步用于:
对各网络节点生成的目标告警信息分别进行分词,得到各网络节点对应的多个目标分词;
在预先设置的告警词典中查找各网络节点的多个目标分词对应的编码,得到各网络节点对应的目标序列;其中,所述预先设置的告警词典中存储有分词和编码之间的对应关系;
对各网络节点对应的目标序列分别进行长度扩充,得到各网络节点对应的第一目标序列;其中,各网络节点对应的第一目标序列的长度相同;
将各网络节点对应的第一目标序列作为矩阵的一行得到所述目标特征矩阵。
在一种可选的方式中,输入模块340进一步用于:
将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中,以使所述告警合并模型根据所述目标邻接矩阵和所述目标特征矩阵进行特征计算,得到目标合并告警序列;
对所述目标合并告警序列进行反序列化处理,得到目标合并告警信息。
在一种可选的方式中,上述装置还包括:
配置模块350,用于配置编解码神经网络模型。
第一获取模块360,用于获取多个历史告警拓扑图及各历史告警拓扑图对应的训练合并告警信息。
第一确定模块370,用于根据所述历史告警拓扑图得到多组训练数据;其中,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵。
第一序列化模块380,用于对所述训练合并告警信息进行序列化处理,得到各历史告警拓扑图对应的训练合并告警序列。
训练模块390,用于根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型。
在一种可选的方式中,训练模块390进一步用于:
将所述多组训练数据输入所述编解码神经网络模型,输出所述多组训练数据对应的输出合并告警序列;
根据所述输出合并告警序列及所述训练合并告警序列计算预设损失函数的损失值;
根据所述损失值调整所述编解码神经网络模型的权重,并将所述多组训练数据输入调整权重后的编解码神经网络模型继续训练,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述编解码神经网络模型的权重,得到所述告警合并模型。
在一种可选的方式中,所述编解码神经网络模型包括编码器和解码器,所述编码器包括图卷积神经网络模型,所述解码器包括长短期记忆神经网络模型;训练模块390进一步用于:
将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的训练图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络模型中相邻的两层图卷积层的训练图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组训练数据中目标训练数据对应的训练图卷积结果,所述目标训练数据为所述多组训练数据中的任意一组训练数据;X1为所述目标训练数据;/>I为单位矩阵,A1为所述目标训练数据对应的训练邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;
将所述图卷积结果输入所述长短期记忆神经网络模型,输出所述多组训练数据对应的输出合并告警序列。
本发明实施例从目标告警拓扑图中得到目标邻接矩阵和目标特征矩阵,将目标邻接矩阵和目标特征矩阵作为告警合并模型的输入,得到目标告警拓扑图对应的合并告警信息,相较于现有技术中人工进行告警信息合并的方式,本发明实施例大大缩短了告警信息的合并过程,提高了告警信息的合并效率。通过告警信息的合并,避免了网络运维人员对相同的告警信息或同一根因造成的告警信息进行重复处理,提高了网络运维的可靠性;此外,本发明实施例中的告警合并模型是根据多组训练数据训练得到的,告警信息合并的准确性更高。
图7示出了本发明实施例的一种计算设备结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图7所示,该计算设备可以包括:处理器(processor)402、通信接口(Communications Interface)404、存储器(memory)406、以及通信总线408。
其中:处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。处理器402,用于执行程序410,具体可以执行上述用于告警合并方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机可执行指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以被处理器402调用使计算设备执行图1中的步骤110~步骤140,图5中的步骤210~步骤250,或者用于实现图6中的模块310~模块390的功能。
本发明实施例提供了一种计算机可读存储介质,本发明实施例中的计算机可读存储介质是非易失性的。所述存储介质存储有至少一可执行指令,该可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行上述任意方法实施例中的告警合并方法。
本发明实施例提供了一种计算机程序,所述计算机程序可被处理器调用使计算设备执行上述任意方法实施例中的告警合并方法。
本发明实施例提供了一种计算机程序产品,计算机程序产品包括存储在计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令在计算机上运行时,使得所述计算机执行上述任意方法实施例中的告警合并方法。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (8)
1.一种告警合并方法,其特征在于,所述方法包括:
获取目标告警拓扑图,所述目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系,每一个网络节点中存储有该网络节点生成的目标告警信息;
根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵;所述目标邻接矩阵的行数和列数均与所述目标告警拓扑中网络节点的个数相同;所述目标邻接矩阵中第i行第j列的元素表征网络节点Vi和网络节点Vj之间的连接关系;其中,i和j均为大于0的自然数;
对所述目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵,包括:对各网络节点生成的目标告警信息分别进行分词,得到各网络节点对应的多个目标分词;在预先设置的告警词典中查找各网络节点的多个目标分词对应的编码,得到各网络节点对应的目标序列;其中,所述预先设置的告警词典中存储有分词和编码之间的对应关系;对各网络节点对应的目标序列分别进行长度扩充,得到各网络节点对应的第一目标序列;其中,各网络节点对应的第一目标序列的长度相同;将各网络节点对应的第一目标序列作为矩阵的一行得到所述目标特征矩阵;所述目标特征矩阵中的行数与所述目标告警拓扑图中网络节点的个数相同,所述目标特征矩阵的每一行表征一个网络节点生成的目标告警信息进行序列化处理后的操作;
将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中以得到目标合并告警信息;其中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练编解码神经网络模型得到的,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;所述训练告警拓扑图和所述目标告警拓扑图中包含的多个网络节点相同,各网络节点之间的连接关系也相同;所述训练合并告警序列是由所述训练告警拓扑图对应的训练合并告警信息进行序列化处理后得到的;所述训练合并告警信息是训练告警拓扑图中各网络节点生成的训练告警信息合并后得到的;
根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型,包括:将所述多组训练数据输入所述编解码神经网络模型,输出所述多组训练数据对应的输出合并告警序列;根据所述输出合并告警序列及所述训练合并告警序列计算预设损失函数的损失值;根据所述损失值调整所述编解码神经网络模型的权重,并将所述多组训练数据输入调整权重后的编解码神经网络模型继续训练,直至达到预设迭代次数;将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述编解码神经网络模型的权重,得到所述告警合并模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵,包括:
计算所述目标告警拓扑图中网络节点的总数,将所述网络节点的总数分别作为所述目标邻接矩阵的行数和列数;
如果所述网络节点Vi和所述网络节点Vj在所述目标告警拓扑图中存在连接关系,则所述目标邻接矩阵中的第i行第j列的元素为第一数值;
否则,所述目标邻接矩阵中的第i行第j列的元素为第二数值。
3.根据权利要求1所述的方法,其特征在于,所述将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中以得到目标合并告警信息,包括:
将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中,以使所述告警合并模型根据所述目标邻接矩阵和所述目标特征矩阵进行特征计算,得到目标合并告警序列;
对所述目标合并告警序列进行反序列化处理,得到目标合并告警信息。
4.根据权利要求1所述的方法,其特征在于,所述获取目标告警拓扑图之前,所述方法还包括:
配置编解码神经网络模型;
获取多个历史告警拓扑图及各历史告警拓扑图对应的训练合并告警信息;
根据所述历史告警拓扑图得到多组训练数据;其中,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;
对所述训练合并告警信息进行序列化处理,得到各历史告警拓扑图对应的训练合并告警序列;
根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型。
5.根据权利要求1所述的方法,其特征在于,所述编解码神经网络模型包括编码器和解码器,所述编码器包括图卷积神经网络模型,所述解码器包括长短期记忆神经网络模型;
所述根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型,包括:
将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的训练图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络模型中相邻的两层图卷积层的训练图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组训练数据中目标训练数据对应的训练图卷积结果,所述目标训练数据为所述多组训练数据中的任意一组训练数据;X1为所述目标训练数据;/>I为单位矩阵,A1为所述目标训练数据对应的训练邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;
将所述图卷积结果输入所述长短期记忆神经网络模型,输出所述多组训练数据对应的输出合并告警序列。
6.一种告警合并装置,其特征在于,所述装置包括:
获取模块,用于获取目标告警拓扑图,所述目标告警拓扑图包括多个网络节点及各网络节点之间的连接关系,每一个网络节点中存储有该网络节点生成的目标告警信息;
确定模块,用于根据所述目标告警拓扑图中各网络节点之间的连接关系得到目标邻接矩阵;所述目标邻接矩阵的行数和列数均与所述目标告警拓扑中网络节点的个数相同;所述目标邻接矩阵中第i行第j列的元素表征网络节点Vi和网络节点Vj之间的连接关系;其中,i和j均为大于0的自然数;
序列化模块,用于对所述目标告警拓扑图中各网络节点生成的目标告警信息进行序列化处理,得到目标特征矩阵,包括:对各网络节点生成的目标告警信息分别进行分词,得到各网络节点对应的多个目标分词;在预先设置的告警词典中查找各网络节点的多个目标分词对应的编码,得到各网络节点对应的目标序列;其中,所述预先设置的告警词典中存储有分词和编码之间的对应关系;对各网络节点对应的目标序列分别进行长度扩充,得到各网络节点对应的第一目标序列;其中,各网络节点对应的第一目标序列的长度相同;将各网络节点对应的第一目标序列作为矩阵的一行得到所述目标特征矩阵;所述目标特征矩阵中的行数与所述目标告警拓扑图中网络节点的个数相同,所述目标特征矩阵的每一行表征一个网络节点生成的目标告警信息进行序列化处理后的操作;
输入模块,用于将所述目标邻接矩阵和所述目标特征矩阵输入预先训练好的告警合并模型中,以得到目标合并告警信息;其中,预先训练好的告警合并模型是根据多组训练数据及相应的训练合并告警序列训练编解码神经网络模型得到的,每一组训练数据均包括一个训练告警拓扑图对应的训练邻接矩阵和训练特征矩阵;所述训练告警拓扑图和所述目标告警拓扑图中包含的多个网络节点相同,各网络节点之间的连接关系也相同;所述训练合并告警序列是由所述训练告警拓扑图对应的训练合并告警信息进行序列化处理后得到的;所述训练合并告警信息是训练告警拓扑图中各网络节点生成的训练告警信息合并后得到的;其中,根据所述多组训练数据及相应的训练合并告警序列训练所述编解码神经网络模型,得到训练好的告警合并模型,包括:将所述多组训练数据输入所述编解码神经网络模型,输出所述多组训练数据对应的输出合并告警序列;根据所述输出合并告警序列及所述训练合并告警序列计算预设损失函数的损失值;根据所述损失值调整所述编解码神经网络模型的权重,并将所述多组训练数据输入调整权重后的编解码神经网络模型继续训练,直至达到预设迭代次数;将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述编解码神经网络模型的权重,得到所述告警合并模型。
7.一种计算设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-5任意一项所述的一种告警合并方法对应的操作。
8.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行如权利要求1-5任意一项所述的一种告警合并方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010795566.3A CN114124654B (zh) | 2020-08-10 | 2020-08-10 | 告警合并方法、装置、计算设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010795566.3A CN114124654B (zh) | 2020-08-10 | 2020-08-10 | 告警合并方法、装置、计算设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114124654A CN114124654A (zh) | 2022-03-01 |
CN114124654B true CN114124654B (zh) | 2023-10-27 |
Family
ID=80373600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010795566.3A Active CN114124654B (zh) | 2020-08-10 | 2020-08-10 | 告警合并方法、装置、计算设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114124654B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115766401B (zh) * | 2023-01-09 | 2023-04-21 | 北京安帝科技有限公司 | 工业告警信息解析方法、装置、电子设备与计算机介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6253339B1 (en) * | 1998-10-28 | 2001-06-26 | Telefonaktiebolaget Lm Ericsson (Publ) | Alarm correlation in a large communications network |
WO2012068808A1 (zh) * | 2010-11-25 | 2012-05-31 | 中兴通讯股份有限公司 | 一种告警信息处理上报的方法及设备 |
CN105677759A (zh) * | 2015-12-30 | 2016-06-15 | 国家电网公司 | 一种信息通信网络中的告警关联性分析方法 |
CN105827422A (zh) * | 2015-01-06 | 2016-08-03 | 中国移动通信集团上海有限公司 | 一种确定网元告警关联关系的方法及装置 |
CN109919296A (zh) * | 2017-12-12 | 2019-06-21 | 杭州海康威视数字技术股份有限公司 | 一种深度神经网络训练方法、装置及计算机设备 |
CN109993189A (zh) * | 2018-01-02 | 2019-07-09 | 中国移动通信有限公司研究院 | 一种网络故障预警方法、装置和介质 |
US10402726B1 (en) * | 2018-05-03 | 2019-09-03 | SparkCognition, Inc. | Model building for simulation of one or more target features |
CN110730100A (zh) * | 2019-10-21 | 2020-01-24 | 中国民航信息网络股份有限公司 | 一种告警信息处理方法、装置及服务器 |
CN110943857A (zh) * | 2019-11-20 | 2020-03-31 | 国网湖北省电力有限公司信息通信公司 | 基于卷积神经网络的电力通信网故障分析及定位方法 |
CN111352808A (zh) * | 2020-03-03 | 2020-06-30 | 腾讯云计算(北京)有限责任公司 | 告警数据处理方法、装置、设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3582935B2 (ja) * | 1996-07-10 | 2004-10-27 | 株式会社ノエビア | 皮膚外用剤 |
US9245396B2 (en) * | 2014-03-17 | 2016-01-26 | Hti Ip, Llc | Method and system for providing intelligent alerts |
TWI783037B (zh) * | 2017-09-25 | 2022-11-11 | 美商應用材料股份有限公司 | 使用機器學習方式以產生製程控制參數的半導體製造 |
-
2020
- 2020-08-10 CN CN202010795566.3A patent/CN114124654B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6253339B1 (en) * | 1998-10-28 | 2001-06-26 | Telefonaktiebolaget Lm Ericsson (Publ) | Alarm correlation in a large communications network |
WO2012068808A1 (zh) * | 2010-11-25 | 2012-05-31 | 中兴通讯股份有限公司 | 一种告警信息处理上报的方法及设备 |
CN105827422A (zh) * | 2015-01-06 | 2016-08-03 | 中国移动通信集团上海有限公司 | 一种确定网元告警关联关系的方法及装置 |
CN105677759A (zh) * | 2015-12-30 | 2016-06-15 | 国家电网公司 | 一种信息通信网络中的告警关联性分析方法 |
CN109919296A (zh) * | 2017-12-12 | 2019-06-21 | 杭州海康威视数字技术股份有限公司 | 一种深度神经网络训练方法、装置及计算机设备 |
CN109993189A (zh) * | 2018-01-02 | 2019-07-09 | 中国移动通信有限公司研究院 | 一种网络故障预警方法、装置和介质 |
US10402726B1 (en) * | 2018-05-03 | 2019-09-03 | SparkCognition, Inc. | Model building for simulation of one or more target features |
CN110730100A (zh) * | 2019-10-21 | 2020-01-24 | 中国民航信息网络股份有限公司 | 一种告警信息处理方法、装置及服务器 |
CN110943857A (zh) * | 2019-11-20 | 2020-03-31 | 国网湖北省电力有限公司信息通信公司 | 基于卷积神经网络的电力通信网故障分析及定位方法 |
CN111352808A (zh) * | 2020-03-03 | 2020-06-30 | 腾讯云计算(北京)有限责任公司 | 告警数据处理方法、装置、设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
Jiandong Wang,Fan Yang.An Overview of Industrial Alarm Systems:Main Causes for Alarm Overloading,Research Status,and Open Problems.IEEE Transactions on Automation Science and Engineering.2015,第13卷(第2期),全文. * |
Jun Chen,Bin Zhang.Network Topology Constraint Based Transaction Separation and Mining Algorithm of Telecom Alarm.2008 IEEE International Symposium on Knowledge Acquisition and Model Workshop.2009,全文. * |
贾博,张波.水电站二次系统网络威胁感知技术研究.第三届智能电网会议论文集.2018,全文. * |
邹磊.基于聚类的移动互联网热点分析与告警压缩研究.中国优秀硕士学位论文数据库.2020,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114124654A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11531889B2 (en) | Weight data storage method and neural network processor based on the method | |
CN107526785B (zh) | 文本分类方法及装置 | |
Pang et al. | Deep convolutional extreme learning machine and its application in handwritten digit classification | |
CN109284406B (zh) | 基于差异循环神经网络的意图识别方法 | |
CN110750965B (zh) | 英文文本序列标注方法、系统及计算机设备 | |
CN113220876B (zh) | 一种用于英文文本的多标签分类方法及系统 | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
CN111475622A (zh) | 一种文本分类方法、装置、终端及存储介质 | |
CN110766070A (zh) | 一种基于循环自编码器的稀少信号识别方法及装置 | |
CN111582396A (zh) | 一种基于改进卷积神经网络的故障诊断方法 | |
CN113065525A (zh) | 年龄识别模型训练方法、人脸年龄识别方法及相关装置 | |
CN111259157A (zh) | 一种基于混合双向循环胶囊网络模型的中文文本分类方法 | |
CN114124654B (zh) | 告警合并方法、装置、计算设备及计算机存储介质 | |
Ibragimovich et al. | Effective recognition of pollen grains based on parametric adaptation of the image identification model | |
CN115496983A (zh) | 一种受语义知识指导的类增量学习方法及系统 | |
CN111144500A (zh) | 基于解析高斯机制的差分隐私深度学习分类方法 | |
CN110795937A (zh) | 信息处理方法、装置及存储介质 | |
CN108496174B (zh) | 用于面部识别的方法和系统 | |
CN113824575B (zh) | 故障节点识别的方法、装置、计算设备及计算机存储介质 | |
US20220188605A1 (en) | Recurrent neural network architectures based on synaptic connectivity graphs | |
CN111737470B (zh) | 文本分类方法 | |
CN111309923B (zh) | 对象向量确定、模型训练方法、装置、设备和存储介质 | |
CN112445914A (zh) | 文本分类方法、装置、计算机设备和介质 | |
CN116306951A (zh) | 一种量子计算方法和装置、电子设备和存储介质 | |
CN113825148B (zh) | 网络节点告警等级的确定方法、装置及计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |