CN113825148B - 网络节点告警等级的确定方法、装置及计算设备 - Google Patents
网络节点告警等级的确定方法、装置及计算设备 Download PDFInfo
- Publication number
- CN113825148B CN113825148B CN202010558926.8A CN202010558926A CN113825148B CN 113825148 B CN113825148 B CN 113825148B CN 202010558926 A CN202010558926 A CN 202010558926A CN 113825148 B CN113825148 B CN 113825148B
- Authority
- CN
- China
- Prior art keywords
- alarm
- training data
- target
- graph
- network node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
- H04L41/0604—Management of faults, events, alarms or notifications using filtering, e.g. reduction of information by using priority, element types, position or time
- H04L41/0609—Management of faults, events, alarms or notifications using filtering, e.g. reduction of information by using priority, element types, position or time based on severity or priority
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
- H04L41/0631—Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/10—Scheduling measurement reports ; Arrangements for measurement reports
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明实施例涉及通信技术领域,公开了一种网络节点告警等级的确定方法、装置及计算设备,该方法包括:获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图;在预先设定的告警集合中确定所述目标告警信息对应的目标告警编码;根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵;根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵;将所述目标告警特征矩阵和所述目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到所述各网络节点的告警等级。通过上述方式,本发明实施例实现了各网络节点的告警等级的确定。
Description
技术领域
本发明实施例涉及通信技术领域,具体涉及一种网络节点告警等级的确定方法、装置及计算设备。
背景技术
目前,5G网络切片节点的告警等级直接沿用各个子切片原有的告警等级。但是由于切片网络结果的复杂性以及各个节点之间调用关系的多样性,导致原有的告警等级并能够准确表示所有场景下各切片节点的告警等级。例如,在一些业务场景下,高重要等级的切片节点需要调用低重要等级的切片节点,高重要等级的切片节点的运作依赖于低重要等级的切片节点。当低重要等级的切片节点故障时,其告警等级需要升级。
现有技术中,在各个业务场景下,各切片节点的调用关系不同,切片节点的告警等级的调整依赖于人工,调整效率低,且人力资源成本高。
发明内容
鉴于上述问题,本发明实施例提供了一种网络切片节点告警等级的确定方法、装置及计算设备,用于解决现有技术中存在的人为调整切片节点的告警等级效率低且人力资源成本高的问题。
根据本发明实施例的一个方面,提供了一种网络节点告警等级的确定方法,所述方法包括:
获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图;
在预先设定的告警集合中确定所述目标告警信息对应的目标告警编码;
根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵;
根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵;
将所述目标告警特征矩阵和所述目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到所述各网络节点的告警等级;所述预先训练好的告警等级确定模型是根据多组训练数据及对应的标签向量训练得到的,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度。
在一种可选的方式中,所述根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵,进一步包括:
根据所述目标告警编码得到第一告警特征矩阵;
将所述第一告警特征矩阵与所述各网络节点的预设维度的属性特征组合,得到所述目标告警特征矩阵。
在一种可选的方式中,所述根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵,包括:
计算所述目标告警拓扑图中网络节点的总数,将所述网络节点的总数分别作为所述目标节点邻接矩阵的行数和列数;
如果所述网络节点Vi和所述网络节点Vj在所述目标告警拓扑图中存在连接关系,则所述目标节点邻接矩阵中的第i行第j列的元素为第一数值,否则,所述目标节点邻接矩阵中的第i行第j列的元素为第二数值,其中,i和j均为正整数。
在一种可选的方式中,所述获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图之前,所述方法还包括:
获取多组训练数据,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M的告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度;
对各组训练数据分别进行标注,得到每一组训练数据对应的N×1的标签向量,所述标签向量中的元素表示各个网络节点的告警等级,同一个告警等级的网络节点的标签相同,不同告警等级的网络节点的标签不同;
根据所述多组训练数据和相应的标签向量训练图卷积神经网络模型,得到所述告警等级确定模型。
在一种可选的方式中,所述获取多组训练数据,包括:
获取多个告警信息以及各告警信息对应的告警拓扑图;
根据各个告警信息得到相应的告警特征矩阵,根据所述告警拓扑图得到节点邻接矩阵;
将相对应的一个告警特征矩阵和一个节点邻接矩阵组成一组训练数据,以得到多组训练数据。
在一种可选的方式中,所述根据所述多组训练数据和相应的标签向量训练图卷积神经网络模型,得到所述告警等级确定模型,包括:
将所述多组训练数据输入所述图卷积神经网络模型,输出所述多组训练数据对应的告警等级向量;
根据所述告警等级向量及所述多组训练数据对应的标签向量计算预设损失函数的损失值;
根据所述损失值调整所述图卷积神经网络模型的权重,并将所述多组训练数据输入所述图卷积神经网络模型继续训练,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述图卷积神经网络模型的权重,得到所述告警等级确定模型。
在一种可选的方式中,所述将所述多组训练数据输入所述图卷积神经网络模型,输出所述多组训练数据对应的告警等级向量,包括:
将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络中相邻的两层图卷积层的图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组组训练数据中任意一组训练数据对应的图卷积结果,X1为该组训练数据;/>I为单位矩阵,A1为该组训练数据中的邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;
根据公式f=sigmoid(H(L)WO+b)得到所述多组训练数据对应的告警等级向量,其中,WO为全连接层的权重,b为偏置值。
根据本发明实施例的另一方面,提供了一种网络节点告警等级的确定装置,所述装置包括:
获取模块,用于获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图;
第一确定模块,用于在预先设定的告警集合中确定所述目标告警信息对应的目标告警编码;
构建模块,用于根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵;
第二确定模块,用于根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵;
输入模块,用于将所述目标告警特征矩阵和所述目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到所述各网络节点的告警等级;所述预先训练好的告警等级确定模型是根据多组训练数据及对应的标签向量训练得到的,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度。
根据本发明实施例的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述的一种网络节点告警等级的确定方法的操作。
根据本发明实施例的还一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行上述的一种网络节点告警等级的确定方法的操作。
本发明实施例根据获取的各网络节点的目标告警信息以及各网络节点的目标告警拓扑图得到目标告警特征矩阵和目标节点邻接矩阵,将目标告警特征矩阵和目标节点邻接矩阵输入预先训练好的告警等级模型中,得到各网络节点的告警等级。预先训练好的告警等级模型是根据大量的训练数据训练得到的,包含了各种不同的告警拓扑图及告警信息,因此,得到的告警等级模型可以准确的确定不同的告警信息对应的各网络节点的告警等级。由于训练好的告警等级模型可以看做一个黑盒子,在输入目标告警特征矩阵和目标节点邻接矩阵后,该告警等级模型即可输出在该告警信息下对应的各网络节点的告警等级,因此,相较于现有技术中需要人工确定各网络节点的告警等级,本发明实施例可以大大的提高网络节点的告警等级确定效率,同时明显节省了人力资源成本。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种网络节点告警等级的确定方法的流程图;
图2示出了本发明另一实施例提供的一种网络节点告警等级的确定方法中告警等级确定模型的训练流程图;
图3示出了本发明实施例提供的一种图卷积神经网络模型的结构示意图;
图4示出了本发明实施例提供的一种网络节点告警等级的确定装置的功能框图;
图5示出了本发明实施例提供的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。
本发明实施例的应用场景是网络节点告警等级的确定。本发明实施例中的网络节点是4G网络、5G网络、5G切片网络以及后续随着网络不断迭代新生成的其他通信网络中的网元。网络节点告警等级表示网络出现故障告警时,各节点的告警等级,告警等级越高说明该网络节点的重要程度越高。由于通信网络中的业务繁多,各种业务下各网络节点相互调用关系可能不同,同一个网络节点的告警等级在不同业务场景下也是不相同的,而各网络节点的初始告警等级是在通信网络建设时预先设定的。由于通信网络中的网络节点数量多,且各业务场景的切换速度快,当各网络节点的告警等级需要相应调整时,依靠人为调整各网络节点的告警等级明显会造成效率低,无法保证各网络节点告警等级的正确性。本发明实施例根据各业务场景下的网络拓扑图和各业务场景下的告警信息训练图卷积神经网络,得到训练好的告警等级确定模型。在发生告警时,根据告警信息和告警拓扑图即可得到各网络节点的告警等级,从而节省了人力资源成本,大大提高了各网络节点告警等级确定的效率。在实际业务场景中,由于各网络节点告警等级确定的效率明显提高,因此,在进行通信网络的运维时,可以根据各网络节点的告警等级优先处理告警等级较高的网络节点,以提高通信网络运维的效率。下面对本发明各具体实施方式进行说明。
图1示出了本发明实施例的一种网络节点告警等级的确定方法的流程图。如图1所示,该方法包括以下步骤:
步骤110:获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图。
在本步骤中,各网络节点的目标告警信息是在通信网络发生故障时,各个网络节点发出的告警信息。告警信息的具体形式是在通信网络进行配置时预先设定的。在一种具体的实施方式中,告警信息为一段告警文本。各网络节点的目标告警拓扑图是指在发生告警时,各网络节点之间的调用关系拓扑图。目标告警拓扑图包括网络节点和各网络节点之间的调用关系。在该目标告警拓扑图中,存在直接调用关系的两个网络节点之间存在一条连接这两个网络节点的边,不存在直接调用关系的两个网络节点之间不存在边。各网络节点以及各网络节点之间的边关系构成目标告警拓扑图。应理解,不同业务场景下各网络节点之间的调用关系不同,因此,不同业务场景下的目标告警拓扑图也不相同。同一种业务场景下的告警拓扑图相同,但是告警信息可能相同,也可能不相同。
步骤120:在预先设定的告警集合中确定目标告警信息对应的目标告警编码。
在本步骤中,预先设定的告警集合是一个预先设置的数据库,该数据库中存储有告警信息和告警编码之间的对应关系。告警编码为一串阿拉伯数字,每一个数字对应告警信息中的一个字段。以告警信息为一句英文短句为例,在预先设置的数据库中,可以事先存储各英文短句对应的告警编码,也可以在预先设置的数据库中事先存储各英文单词对应的告警编码。当预先设置的数据库中存储各英文短句对应的告警编码时,在获取到目标告警信息后,根据目标告警信息可以直接匹配到相应的告警编码。当预先设置的数据库中存储各英文单词对应的告警编码时,将获取到的英文短句分词,每一个英文单词为一个分词,每一个分词按照顺序匹配相应的告警编码,所有分词对应的告警编码按照分词顺序组合,得到告警信息对应的告警编码。
步骤130:根据目标告警编码构建网络节点的目标告警特征矩阵。
在本步骤中,目标告警编码中的每一个编码为目标告警特征矩阵的一个维度。例如,某一个网络节点对应的目标告警编码为123456,则该目标告警编码为目标告警特征矩阵中该网络节点对应的六维特征数据。应理解,同一种业务场景下,各网络节点发出的告警信息格式是一致的,在很多情况下,发出告警信息的网络节点的告警信息是相同的,因此,各网络节点对应的目标告警编码在目标告警特征矩阵中的维度是相同的。对于未发出告警的网络节点,其对应的目标告警编码为0,在目标告警特征矩阵中相应的维度也是0。
将目标告警编码与各网络节点预设维度的属性特征组合,得到目标告警特征矩阵。其中,各网络节点预设维度的属性相同,各属性特征的种类可以由本领域技术人员根据通信网络的特点设定,本发明实施例并不以此为限。例如,在5G切片网络中,预设维度为两维,每一维表示一个属性特征,其中一维属性特征为网络节点所归属的子切片网络,另外一维表示网络节点的重要等级。例如,子切片网络共有三种,分别为无线网子切片、传输网子切片和核心网子切片分别用编码1、2、3表示,根据各网络节点所属的子切片网络可以匹配到其对应的编码,该编码即为该网络节点在相应维度的取值。重要等级的编码方式与所属的子切片网络的编码方式相同,在此不做赘述。
用V1~VN表示通信网络中的N个网络节点,用F表示目标告警编码的维度,用M表示目标告警特征矩阵的维度,则得到的目标告警特征矩阵可以表示为:
其中,目标告警特征矩阵的每一行表示一个网络节点对应的M个维度的值。
步骤140:根据目标告警拓扑图确定各网络节点的目标节点邻接矩阵。
在本步骤中,目标告警拓扑图中网络节点的总数为目标节点邻接矩阵的行数和列数。即,目标节点邻接矩阵的行数与列数相同,均为网络节点总数。如果任意两个网络节点Vi和Vj在目标告警拓扑图中存在边关系,则目标节点邻接矩阵中第i行第j列的元素为第一数值。如果网络节点Vi和Vj在目标告警拓扑图中不存在边关系,则目标节点邻接矩阵中第i行第j列的元素为第二数值。其中,i和j均为正整数。第一数值和第二数值为不同数值,具体值不限。优选的,第一数值为1,第二数值为0,以便于后续计算。用V1~VN表示通信网络中的N个网络节点,则目标节点邻接矩阵可以表示为:
其中,eN1~eNN表示网络节点VN与网络节点V1~VN之间的边关系,VN节点自身必然不存在边关系,因此,目标节点邻接矩阵的对角线上的元素均为0。
步骤150:将目标告警特征矩阵和目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到各网络节点的告警等级。
在本步骤中,将目标告警特征矩阵和目标节点邻接矩阵输入预先训练好的告警等级确定模型中,预先训练好的告警等级模型首先根据公式计算告警等级模型的图卷积结果,然后根据公式/>计算得到各网络节点的告警等级。l的取值为1~L,其中,L为告警等级模型的层数,H(1)=X,H(L)为各网络节点的告警等级。/>I为单位矩阵,A为目标节点邻接矩阵;/>是/>的度矩阵,/>为第l层图卷积层的权重,σ是每一层的非线性激活函数;/>为全连接层的权重,/>为偏置值。告警等级模型是根据多组训练数据及对应的标签向量训练得到的,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M告警特征矩阵,N为网络节点的个数,M为一个网络节点的特征维度。告警等级模型的训练在下面的实施例中进行说明,请参阅下一个实施例的具体描述,在此不作赘述。
本发明实施例根据获取的各网络节点的目标告警信息以及各网络节点的目标告警拓扑图得到目标告警特征矩阵和目标节点邻接矩阵,将目标告警特征矩阵和目标节点邻接矩阵输入预先训练好的告警等级模型中,得到各网络节点的告警等级。预先训练好的告警等级模型是根据大量的训练数据训练得到的,包含了各种不同的告警拓扑图及告警信息,因此,得到的告警等级模型可以准确的确定不同的告警信息对应的各网络节点的告警等级。由于训练好的告警等级模型可以看做一个黑盒子,在输入目标告警特征矩阵和目标节点邻接矩阵后,该告警等级模型即可输出在该告警信息下对应的各网络节点的告警等级,因此,相较于现有技术中需要人工确定各网络节点的告警等级,本发明实施例可以大大的提高网络节点的告警等级确定效率,同时明显节省了人力资源成本。
在一些实施例中,在执行图1所示的步骤之前,获取多组训练数据,并对各组训练数据分别进行标注,得到各组训练数据对应的标签向量,根据多组训练数据和标签向量训练图卷积神经网络,得到告警等级确定模型。其中,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M的告警特征矩阵,N为网络节点的个数,M为一个网络节点的特征维度。对各组训练数据进行标注,得到每一组训练数据对应的N×1的标签向量。标签向量中的元素表示各个网络节点的告警等级,同一个告警等级的网络节点的标签相同,不同告警等级的网络节点的标签不同。各网络节点的标签是人为调整后的各网络节点的实际告警等级,而不是初始告警等级。在一种实施方式中,各网络节点的标签可以用阿拉伯数字表示,每一个阿拉伯数字对应一个告警等级。阿拉伯数字的大小和告警等级的高低存在相关性。例如,阿拉伯数字越小标识告警等级越高,或者,阿拉伯数字越大,表示告警等级越高。
图2示出了本发明另一个实施例的一种网络节点告警等级的确定方法中告警等级确定模型的训练流程图。如图2所示,该方法包括以下步骤:
步骤210:获取多个告警信息以及各告警信息对应的告警拓扑图。
在本步骤中,告警信息是通信网络中产生的历史告警信息。各告警信息对应的告警拓扑图是指各告警信息产生时,通信网络中的网络节点和各网络节点之间的调用关系生成的告警拓扑图。
步骤220:根据各个告警信息得到相应的告警特征矩阵,根据告警拓扑图得到节点邻接矩阵。
在本步骤中,根据各个告警信息得到相应的告警特征矩阵的方法与图1中步骤130的方法相同,请参阅图1中步骤130的具体说明,在此不做赘述。根据告警拓扑图得到节点邻接矩阵的方法与图1中步骤140的方法相同,请参阅图1中步骤140的具体说明,在此不做赘述。
步骤230:将相对应的一个告警特征矩阵和一个节点邻接矩阵组成一组训练数据,以得到多组训练数据。
在本步骤中,相对应的一个告警特征矩阵和一个节点邻接矩阵是指一条告警信息对应的告警特征矩阵和生成该告警信息时,相应的告警拓扑图生成的节点邻接矩阵。一组训练数据中包含一个告警特征矩阵和一个节点邻接矩阵。
步骤240:将多组训练数据输入图卷积神经网络,输出多组训练数据对应的告警等级向量。
图3示出了本发明实施例中的图卷积神经网络模型的结构。如图3所示,该图卷积神经网络模型包括三层依次连接的图卷积层、两组全连接层和一层输出层。其中,每一组全连接层均包括依次连接的一层全连接层和一层舍弃层。图卷积层的输出结果作为全连接层的输入,全连接层的输出结果为输出层的输入。图卷积层用于从训练数据中提取特征,全连接层用于将图卷积层中各个神经元提取到的特征进行加权计算,得到加权结果。舍弃层用于以预设概率舍弃神经元,以避免图卷积神经网络模型过拟合。输出层用于通过softmax函数输出各个网络节点所属的告警等级。
将多组组训练输入输入图卷积神经网络模型中,图卷积层根据公式得到多组训练数据对应的图卷积结果;其中,H1 (l)与H1 (l+1)分别为图卷积神经网络中相邻的两层图卷积层的图卷积结果,l的取值为1~L,其中,L为图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为多组组训练数据中任意一组训练数据对应的图卷积结果。其中,X1为该组训练数据。例如,图3示出的图卷积神经网络模型中包括三层图卷积层,则L=3,H1 (3)为图卷积神经网络模型中图卷积层的输出结果。/>I为单位矩阵,A1为该组训练数据中的邻接矩阵,/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数。本发明实施例不限定各层图卷积层的神经元个数及相应的激活函数,在一种实施方式中,第一层图卷积层的神经元个数为256个,第二层图卷积层的神经元个数为128个,第三层图卷积层的神经元个数为64个,每一层图卷积层的非线性激活函数均为“relu”函数。
将图卷积层的输出结果H1 (L)输入全连接层,全连接层对输出结果H1 (L)进行加权,然后由输出层根据公式f=sigmoid(H(L)WO+b)得到多组训练数据对应的告警等级向量。其中,WO为全连接层的权重,b为偏置值。在图3示出的图卷积神经网络模型中,全连接层有两层,每一层均根据f的计算公式得到输出结果,第一层全连接层的输出结果在经过舍弃层后输入至第二层全连接层,第二层全连接层的输出结果为输出层的输入。输出层的神经元个数与网络节点的个数相同,每一个神经元的输出结果为一个网络节点所属的告警等级。本发明实施例并不限定各全连接层的神经元个数。在一种具体的实施方式中,第一层全连接层的神经元个数为64个,与第一层全连接层连接的舍弃层的舍弃概率为0.2,即第一层全连接层的所有神经元的计算结果中,有20%的神经元的计算结果不会输入第二层全连接层,以避免过拟合。第二层全连接层的神经元个数为128个,与第二层相连的舍弃层的舍弃概率为0.2。
步骤250:根据告警等级向量及多组训练数据对应的标签向量计算预设损失函数的损失值。
在本步骤中,预设损失函数可以是任意一种损失函数。在一种实施方式中,损失函数为多类对数损失函数,即“categorical_crossentropy”损失函数。将多组组训练数据中每一组训练数据的告警等级向量和标签向量输入该损失函数中得到损失函数值。
步骤260:根据损失值调整图卷积神经网络模型的权重,并将多组训练数据输入图卷积神经网络模型继续训练,直至达到预设迭代次数。
在本步骤中,通过梯度下降法调整图卷积神经网络模型的权重,得到新的权重。
步骤270:将达到预设迭代次数时,使损失函数值最小的权重作为图卷积神经网络模型的权重,得到告警等级确定模型。
在本步骤中,将使损失函数值最小的权重作为最终图卷积神经网络模型的权重,即为告警等级确定模型。
本发明实施例通过多组训练数据训练图卷积神经网络模型得到告警等级确定模型,图卷积神经网络模型可以对告警拓扑图进行训练,告警拓扑图不同得到网络节点特征也不同,即通过图卷积神经网络训练得到的告警等级确定模型可以根据不同的告警拓扑图和告警信息得到相应的各网络节点的告警等级。且,本发明实施例中的训练数据包含历史告警信息和历史告警网络拓扑,因此,通过大量数据训练得到的告警等级确定模型包含了各种告警信息对应的各网络节点的特征,训练好的告警等级确定模型对输入的告警信息及告警拓扑图进行计算,得到的各网络节点的告警等级更加准确。
图4示出了本发明实施例的一种网络节点告警等级的确定装置的结构示意图。如图4所示,该装置包括:获取模块410、第一确定模块420、构建模块430、第二确定模块440和输入模块450。获取模块410用于获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图。第一确定模块420,用于在预先设定的告警集合中确定所述目标告警信息对应的目标告警编码。构建模块430用于根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵。第二确定模块440用于根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵。输入模块450用于将所述目标告警特征矩阵和所述目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到所述各网络节点的告警等级;所述预先训练好的告警等级确定模型是根据多组训练数据及对应的标签向量训练得到的,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度。
在一种可选的方式中,构建模块430进一步用于:
根据所述目标告警编码得到第一告警特征矩阵;
将所述第一告警特征矩阵与所述各网络节点的预设维度的属性特征组合,得到所述目标告警特征矩阵。
在一种可选的方式中,第二确定模块440进一步用于:
计算所述目标告警拓扑图中网络节点的总数,将所述网络节点的总数分别作为所述目标节点邻接矩阵的行数和列数;
如果所述网络节点Vi和所述网络节点Vj在所述目标告警拓扑图中存在连接关系,则所述目标节点邻接矩阵中的第i行第j列的元素为第一数值,否则,所述目标节点邻接矩阵中的第i行第j列的元素为第二数值,其中,i和j均为正整数。
在一种可选的方式中,所述装置还包括:第一获取模块460、标注模块470和训练模块480。
第一获取模块460,用于获取多组训练数据,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M的告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度。
标注模块470,用于对各组训练数据分别进行标注,得到每一组训练数据对应的N×1的标签向量,所述标签向量中的元素表示各个网络节点的告警等级,同一个告警等级的网络节点的标签相同,不同告警等级的网络节点的标签不同。
训练模块480,用于根据所述多组训练数据和相应的标签向量训练图卷积神经网络模型,得到所述告警等级确定模型。
在一种可选的方式中,所述第一获取模块460进一步用于:
获取多个告警信息以及各告警信息对应的告警拓扑图;
根据各个告警信息得到相应的告警特征矩阵,根据所述告警拓扑图得到节点邻接矩阵;
将相对应的一个告警特征矩阵和一个节点邻接矩阵组成一组训练数据,以得到多组训练数据。
在一种可选的方式中,训练模块480进一步用于:
将所述多组训练数据输入所述图卷积神经网络模型,输出所述多组训练数据对应的告警等级向量;
根据所述告警等级向量及所述多组训练数据对应的标签向量计算预设损失函数的损失值;
根据所述损失值调整所述图卷积神经网络模型的权重,并将所述多组训练数据输入所述图卷积神经网络模型继续训练,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述图卷积神经网络模型的权重,得到所述告警等级确定模型。
在一种可选的方式中,训练模块480进一步用于:
将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络中相邻的两层图卷积层的图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组组训练数据中任意一组训练数据对应的图卷积结果,X1为该组训练数据;/>I为单位矩阵,A1为该组训练数据中的邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;
根据公式f=sigmoid(H(L)WO+b)得到所述多组训练数据对应的告警等级向量,其中,WO为全连接层的权重,b为偏置值。
本发明实施例通过多组训练数据训练图卷积神经网络模型得到告警等级确定模型,图卷积神经网络模型可以对告警拓扑图进行训练,告警拓扑图不同得到网络节点特征也不同,即通过图卷积神经网络训练得到的告警等级确定模型可以根据不同的告警拓扑图和告警信息得到相应的各网络节点的告警等级。且,本发明实施例中的训练数据包含历史告警信息和历史告警网络拓扑,因此,通过大量数据训练得到的告警等级确定模型包含了各种告警信息对应的各网络节点的特征,训练好的告警等级确定模型对输入的告警信息及告警拓扑图进行计算,得到的各网络节点的告警等级更加准确。
图5示出了本发明实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图5所示,该计算设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。处理器502,用于执行程序510,具体可以执行上述用于网络节点告警等级的确定方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机可执行指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以被处理器502调用使计算设备执行图1中的步骤110~步骤150,图2中的步骤210~步骤270,或者实现图4中的模块410~模块480的功能。
本发明实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一可执行指令,该可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行上述任意方法实施例中的网络节点告警等级的确定方法。
本发明实施例提供了一种计算机程序,所述计算机程序可被处理器调用使计算设备执行上述任意方法实施例中的网络节点告警等级的确定方法。
本发明实施例提供了一种计算机程序产品,计算机程序产品包括存储在计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令在计算机上运行时,使得所述计算机执行上述任意方法实施例中的网络节点告警等级的确定方法。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (7)
1.一种网络节点告警等级的确定方法,其特征在于,所述方法包括:
获取多组训练数据,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M的告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度;
对各组训练数据分别进行标注,得到每一组训练数据对应的N×1的标签向量,所述标签向量中的元素表示各个网络节点的告警等级,同一个告警等级的网络节点的标签相同,不同告警等级的网络节点的标签不同;
根据所述多组训练数据和相应的标签向量训练图卷积神经网络模型,得到所述告警等级确定模型;
所述根据所述多组训练数据和相应的标签向量训练图卷积神经网络模型,得到所述告警等级确定模型,包括:将所述多组训练数据输入所述图卷积神经网络模型,输出所述多组训练数据对应的告警等级向量,具体包括:将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络中相邻的两层图卷积层的图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组组训练数据中任意一组训练数据对应的图卷积结果,X1为该组训练数据;/>I为单位矩阵,A1为该组训练数据中的邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;根据公式f=sigmoid(H(L)WO+b)得到所述多组训练数据对应的告警等级向量,其中,WO为全连接层的权重,b为偏置值;
根据所述告警等级向量及所述多组训练数据对应的标签向量计算预设损失函数的损失值;
根据所述损失值调整所述图卷积神经网络模型的权重,并将所述多组训练数据输入所述图卷积神经网络模型继续训练,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述图卷积神经网络模型的权重,得到所述告警等级确定模型;
获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图;
在预先设定的告警集合中确定所述目标告警信息对应的目标告警编码;
根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵;
根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵;
将所述目标告警特征矩阵和所述目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到所述各网络节点的告警等级;所述预先训练好的告警等级确定模型是根据多组训练数据及对应的标签向量训练得到的,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵,进一步包括:
根据所述目标告警编码得到第一告警特征矩阵;
将所述第一告警特征矩阵与所述各网络节点的预设维度的属性特征组合,得到所述目标告警特征矩阵。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵,包括:
计算所述目标告警拓扑图中网络节点的总数,将所述网络节点的总数分别作为所述目标节点邻接矩阵的行数和列数;
如果所述网络节点Vi和所述网络节点Vj在所述目标告警拓扑图中存在连接关系,则所述目标节点邻接矩阵中的第i行第j列的元素为第一数值,否则,所述目标节点邻接矩阵中的第i行第j列的元素为第二数值,其中,i和j均为正整数。
4.根据权利要求1所述的方法,其特征在于,所述获取多组训练数据,包括:
获取多个告警信息以及各告警信息对应的告警拓扑图;
根据各个告警信息得到相应的告警特征矩阵,根据所述告警拓扑图得到节点邻接矩阵;
将相对应的一个告警特征矩阵和一个节点邻接矩阵组成一组训练数据,以得到多组训练数据。
5.一种网络节点告警等级的确定装置,其特征在于,所述装置包括:
第一获取模块,用于获取多组训练数据,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M的告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度;
标注模块,用于对各组训练数据分别进行标注,得到每一组训练数据对应的N×1的标签向量,所述标签向量中的元素表示各个网络节点的告警等级,同一个告警等级的网络节点的标签相同,不同告警等级的网络节点的标签不同;
训练模块,用于根据所述多组训练数据和相应的标签向量训练图卷积神经网络模型,得到所述告警等级确定模型;
所述训练模块,进一步用于:
将所述多组训练数据输入所述图卷积神经网络模型,输出所述多组训练数据对应的告警等级向量,具体包括:将所述多组训练数据输入所述图卷积神经网络模型,根据公式得到所述多组训练数据对应的图卷积结果;其中,H1 (l)与H1 (l+1)分别为所述图卷积神经网络中相邻的两层图卷积层的图卷积结果,l的取值为1~L,其中,L为所述图卷积神经网络模型中图卷积层的层数,H1 (1)=X1,H1 (L)为所述多组组训练数据中任意一组训练数据对应的图卷积结果,X1为该组训练数据;/>I为单位矩阵,A1为该组训练数据中的邻接矩阵;/>是/>的度矩阵,W1 (1)为第l层图卷积层的权重,σ是每一层图卷积层的非线性激活函数;根据公式f=sigmoid(H(L)WO+b)得到所述多组训练数据对应的告警等级向量,其中,WO为全连接层的权重,b为偏置值;
根据所述告警等级向量及所述多组训练数据对应的标签向量计算预设损失函数的损失值;
根据所述损失值调整所述图卷积神经网络模型的权重,并将所述多组训练数据输入所述图卷积神经网络模型继续训练,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数的损失值最小的权重作为所述图卷积神经网络模型的权重,得到所述告警等级确定模型;
获取模块,用于获取各网络节点的目标告警信息以及各网络节点的目标告警拓扑图;
第一确定模块,用于在预先设定的告警集合中确定所述目标告警信息对应的目标告警编码;
构建模块,用于根据所述目标告警编码构建所述各网络节点的目标告警特征矩阵;
第二确定模块,用于根据所述目标告警拓扑图确定所述各网络节点的目标节点邻接矩阵;
输入模块,用于将所述目标告警特征矩阵和所述目标节点邻接矩阵输入预先训练好的告警等级确定模型中,得到所述各网络节点的告警等级;所述预先训练好的告警等级确定模型是根据多组训练数据及对应的标签向量训练得到的,每一组训练数据均包括一个N×N的节点邻接矩阵和一个N×M告警特征矩阵,N为所述网络节点的个数,M为一个网络节点的特征维度。
6.一种计算设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-4任意一项所述的一种网络节点告警等级的确定方法的操作。
7.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行如权利要求1-4任意一项所述的一种网络节点告警等级的确定方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010558926.8A CN113825148B (zh) | 2020-06-18 | 2020-06-18 | 网络节点告警等级的确定方法、装置及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010558926.8A CN113825148B (zh) | 2020-06-18 | 2020-06-18 | 网络节点告警等级的确定方法、装置及计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113825148A CN113825148A (zh) | 2021-12-21 |
CN113825148B true CN113825148B (zh) | 2023-08-18 |
Family
ID=78911686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010558926.8A Active CN113825148B (zh) | 2020-06-18 | 2020-06-18 | 网络节点告警等级的确定方法、装置及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113825148B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115617625B (zh) * | 2022-12-15 | 2023-03-28 | 云和恩墨(北京)信息技术有限公司 | 告警规则配置方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108600009A (zh) * | 2018-04-25 | 2018-09-28 | 北京思特奇信息技术股份有限公司 | 一种基于告警数据分析的网络告警根源定位方法 |
CN109558298A (zh) * | 2018-10-12 | 2019-04-02 | 平安科技(深圳)有限公司 | 基于深度学习模型的告警执行频率优化方法及相关设备 |
KR20190132223A (ko) * | 2018-05-18 | 2019-11-27 | 주식회사 케이티 | 네트워크 장애 원인 분석 장치 및 방법 |
CN110795558A (zh) * | 2019-09-03 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 标签获取方法和装置、存储介质及电子装置 |
CN110943857A (zh) * | 2019-11-20 | 2020-03-31 | 国网湖北省电力有限公司信息通信公司 | 基于卷积神经网络的电力通信网故障分析及定位方法 |
CN111274395A (zh) * | 2020-01-19 | 2020-06-12 | 河海大学 | 基于卷积和长短期记忆网络的电网监控告警事件识别方法 |
-
2020
- 2020-06-18 CN CN202010558926.8A patent/CN113825148B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108600009A (zh) * | 2018-04-25 | 2018-09-28 | 北京思特奇信息技术股份有限公司 | 一种基于告警数据分析的网络告警根源定位方法 |
KR20190132223A (ko) * | 2018-05-18 | 2019-11-27 | 주식회사 케이티 | 네트워크 장애 원인 분석 장치 및 방법 |
CN109558298A (zh) * | 2018-10-12 | 2019-04-02 | 平安科技(深圳)有限公司 | 基于深度学习模型的告警执行频率优化方法及相关设备 |
CN110795558A (zh) * | 2019-09-03 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 标签获取方法和装置、存储介质及电子装置 |
CN110943857A (zh) * | 2019-11-20 | 2020-03-31 | 国网湖北省电力有限公司信息通信公司 | 基于卷积神经网络的电力通信网故障分析及定位方法 |
CN111274395A (zh) * | 2020-01-19 | 2020-06-12 | 河海大学 | 基于卷积和长短期记忆网络的电网监控告警事件识别方法 |
Non-Patent Citations (1)
Title |
---|
网络人工智能关键技术与应用研究;徐晓青;《广东通信技术》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113825148A (zh) | 2021-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582409B (zh) | 图像标签分类网络的训练方法、图像标签分类方法及设备 | |
CN111368937B (zh) | 图像分类方法、装置、及其训练方法、装置、设备、介质 | |
CN111695415A (zh) | 图像识别模型的构建方法、识别方法及相关设备 | |
CN113822315A (zh) | 属性图的处理方法、装置、电子设备及可读存储介质 | |
CN113706151A (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
US20230298314A1 (en) | Image clustering method and apparatus, computer device, and storage medium | |
CN111241849A (zh) | 一种文本语义分析方法及系统 | |
CN112598062A (zh) | 一种图像识别方法和装置 | |
CN112232165A (zh) | 一种数据处理方法、装置、计算机及可读存储介质 | |
CN113824575B (zh) | 故障节点识别的方法、装置、计算设备及计算机存储介质 | |
CN113825148B (zh) | 网络节点告警等级的确定方法、装置及计算设备 | |
CN113592041A (zh) | 图像处理方法、装置、设备、存储介质及计算机程序产品 | |
CN110728186B (zh) | 一种基于多网融合的火灾检测方法 | |
CN110795558B (zh) | 标签获取方法和装置、存储介质及电子装置 | |
CN115731422A (zh) | 多标签分类模型的训练方法、分类方法及装置 | |
CN114299304A (zh) | 一种图像处理方法及相关设备 | |
CN116827685B (zh) | 基于深度强化学习的微服务系统动态防御策略方法 | |
CN113825165B (zh) | 基于时间图网络的5g切片网络拥塞预警方法及装置 | |
CN111309923B (zh) | 对象向量确定、模型训练方法、装置、设备和存储介质 | |
CN111582284A (zh) | 用于图像识别的隐私保护方法、装置和电子设备 | |
CN116306951A (zh) | 一种量子计算方法和装置、电子设备和存储介质 | |
CN110555462A (zh) | 基于卷积神经网络的无固定多字符验证码识别方法 | |
CN114124654B (zh) | 告警合并方法、装置、计算设备及计算机存储介质 | |
CN110929118B (zh) | 网络数据处理方法、设备、装置、介质 | |
CN113762978B (zh) | 5g切片用户的投诉定界方法、装置及计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |