CN110333987B - 设备体检报告生成方法、装置、计算机设备和存储介质 - Google Patents
设备体检报告生成方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110333987B CN110333987B CN201910597798.5A CN201910597798A CN110333987B CN 110333987 B CN110333987 B CN 110333987B CN 201910597798 A CN201910597798 A CN 201910597798A CN 110333987 B CN110333987 B CN 110333987B
- Authority
- CN
- China
- Prior art keywords
- data
- node
- equipment
- current node
- thread
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3065—Monitoring arrangements determined by the means or processing involved in reporting the monitored data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/06—Generation of reports
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Debugging And Monitoring (AREA)
Abstract
本申请提供了一种设备体检报告生成方法、装置、计算机设备和存储介质,首先,采用分布式训练模式对LSTM神经网络进行训练,减少了网络链路中构建有LSTM神经网络的节点的数据处理量,提高数据的处理速度,基于网络流量调度方法对分布式训练模式进行优化,减少各节点的通信时间,然后,使用关联分析算法,提取出关键的设备的故障特征,基于这些故障特征,使用基于网络流量调度方法优化后的分布式训练模式进行训练得到的LSTM神经网络进行故障诊断,能够实现对设备故障的准确诊断与预测,最后,使用注意力机制将诊断预测的结果高效生成文本形式的体检报告。
Description
技术领域
本申请涉及故障诊断技术领域,特别是涉及一种设备体检报告生成方法、装置、计算机设备和存储介质。
背景技术
在现代工业中,各种设备朝着极其精确,高效和智能的方向发展。一方面,设备小的性能下降或安全风险可能带来严重后果,拥有有效的故障诊断方法以确保设备的安全运行至关重要。
另一方面,随着设备监测数据的指数增长,设备的故障诊断面临着处理数据量巨大的工业大数据的难题挑战。因此,出现了分布式机器学习的训练方法,通过分布式机器学习训练可以使数据运算更快、收敛性更好、准确度更高。这不仅解决了数据量过大的难题,同时也在很大程度上降低了计算设备的成本。而在分布式机器学习中,不同节点间的通信时间过长成为新的瓶颈。
可见,当前基于分布式机器学习的故障诊断方法其诊断效率较低。
发明内容
基于此,有必要针对传统的设备故障诊断方法效率较低的问题,提供一种高效的设备体检报告生成方法、装置、计算机设备和存储介质。
一种设备体检报告生成方法,方法包括:
获取设备的工况数据;
根据关联分析算法,提取出工况数据中的故障特征集;
根据已训练的长短期记忆LSTM(Long Short-Term Memory,长短期记忆网络)神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到;
基于注意力机制,将诊断预测数据转换为文本数据;
对文本数据进行文本校对,生成设备的体检报告。
在其中一个实施例中,已训练的LSTM神经网络的训练过程包括:
当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和IP(Internet Protocol Address,互联网协议地址),区分当前节点类型;
当当前节点为server节点时,根据与当前节点通信的worker节点的计算能力为worker节点标记不同的优先级,计算能力与优先级呈负相关;
根据优先级,修改当前节点向worker节点发送的数据包的差分服务代码点DSCP(Differentiated Services Code Point,差分服务代码点)值;
当发生网络带宽竞争时,根据DSCP值进行优先级调度优化。
在其中一个实施例中,判断分布式机器学习任务启动包括:
根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体;
对进程结构体中的线程池进行遍历;
当根据线程池中每个线程的可执行文件名匹配到预设线程时,判断分布式机器学习任务启动。
在其中一个实施例中,预设线程为运行gprc任务的线程;通过预设线程所属的进程监听端口号和IP地址,区分节点类型包括:
查找运行gprc任务的线程的接口信息;
根据接口信息,获取与当前节点建联的IP和端口号;
当与当前节点建联的IP和端口号至少为2个时,判断当前节点为server节点;
当与当前节点建联的IP和端口号为1个时,判断当前节点为worker节点。
在其中一个实施例中,诊断预测数据包括设备的故障特征属性和诊断结果;基于注意力机制,将诊断预测数据转换为文本数据包括:
将诊断预测数据输入预设的注意力机制模型,预设的注意力机制模型包含设备的特征属性集和单词集;
计算LSTM神经网络上一时刻的隐藏状态与诊断预测数据的相似度;
基于相似度,从单词集中匹配出与各故障特征属性对应的单词;
根据预设的注意力权重,将各单词与各故障特征属性进行组合,得到故障特征属性的描述文本数据。
在其中一个实施例中,根据关联分析算法,提取出工况数据中的故障特征集之前,还包括:
对工况数据进行预处理,预处理包括数据清洗以及空值填充。
一种设备体检报告生成装置,装置包括:
数据获取模块,用于获取设备的工况数据;
特征提取模块,用于根据预设的关联分析算法,提取出工况数据中的故障特征集;
故障诊断预测模块,用于根据已训练的长短期记忆LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到;
文本转换模块,用于基于注意力机制,将诊断预测数据转换为文本数据;
体检报告生成模块,用于对文本数据进行文本校对,生成设备的体检报告。
在其中一个实施例中,装置还包括:
训练模块,用于当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和互联网协议地址IP,区分当前节点类型,当当前节点是server节点时,根据与当前节点通信的worker节点的计算能力为worker节点标记不同的优先级,计算能力与优先级呈负相关,根据优先级,修改当前节点向worker节点发送的数据包的DSCP值,当发生网络带宽竞争时,根据DSCP值进行优先级调度优化。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
获取设备的工况数据;
根据关联分析算法,提取出工况数据中的故障特征集;
根据已训练的长短期记忆LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的长短期记忆LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到;
基于注意力机制,将诊断预测数据转换为文本数据;
对文本数据进行文本校对,生成设备的体检报告。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取设备的工况数据;
根据关联分析算法,提取出工况数据中的故障特征集;
根据已训练的长短期记忆LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的长短期记忆LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到;
基于注意力机制,将诊断预测数据转换为文本数据;
对文本数据进行文本校对,生成设备的体检报告。
上述设备体检报告生成方法、装置、计算机设备和存储介质,首先,采用分布式训练模式对LSTM神经网络进行训练,减少了网络链路中构建有LSTM神经网络的节点(计算机设备)的数据处理量,提高数据的处理速度,基于网络流量调度方法对分布式训练模式进行优化,减少各节点的通信时间,然后,使用关联分析算法,提取出关键的设备的故障特征,基于这些故障特征,使用基于网络流量调度方法优化后的分布式训练模式进行训练得到的LSTM神经网络进行故障诊断,能够实现对设备故障的准确诊断与预测,最后,使用注意力机制将诊断预测的结果高效生成文本形式的体检报告。
附图说明
图1为一个实施例中设备体检报告生成方法的应用环境图;
图2为一个实施例中设备体检报告生成方法的流程示意图;
图3为另一个实施例中设备体检报告生成方法的详细流程示意图;
图4为一个实施例中LSTM神经网络训练过程的详细流程示意图;
图5为一个实施例中设备体检报告生成装置的结构框图;
图6为另一个实施例中设备体检报告生成装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的设备体检报告生成方法,可应用于如图1所示的应用环境图中,用户想要查看设备的体检报告数据时,于终端102进行生成体检报告的操作,通过终端102发送体检报告生成指令至服务器100,服务器100从数据库中获取由各传感器采集的设备的工况数据,然后,根据关联分析算法,提取出工况数据中的故障特征集,再根据已训练的长短期记忆LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的长短期记忆LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到,基于注意力机制,将诊断预测数据转换为文本数据,最后,对文本数据进行文本校对,生成设备的体检报告。其中,设备可以但不限于是机械设备(如挖掘机)或电子设备等,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器100可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在其中一个实施例中,如图2所示,提供了一种设备体检报告生成方法,以该方法应用于服务器为例进行说明,设备以挖掘机为例进行说明,包括以下步骤:
步骤S100,获取设备的工况数据。
在实际应用中,工作人员在挖掘机的各部件包括发动机发动机、油箱、泵等上装有26个传感器,并设置好传感器采集数据的周期为10秒钟,通过传感器实时监测挖掘机的工作状态。各传感器在挖掘机运行期间,每10秒采集一次挖掘机在运行时的各指标数值即工况数据,如发动机转速,冷却水温度,机油压力以及档位等指标,并将工况数据上传到挖掘机控制器区域网络(CAN),控制器区域网络CAN将工况数据传输到服务器,本实施例中,服务器为中央数据服务器(以下简称服务器)。当服务器接收到体检报告生成指令时,获取挖掘机的工况数据。
步骤S200,根据关联分析算法,提取出工况数据中的故障特征集。
如上述实施例中,获取到挖掘机的工况数据中包含挖掘机很多属性的数据,但并不是每个属性都与挖掘机的健康状况有比较大的联系,因此,需要从工况数据中抽取出与挖掘机发生故障有直接联系的字段属性。具体的是,可以是通过关联分析算法进行特征提取。本实施例中,采用关联分析算法是Apriori关联分析技术,利用Apriori关联分析来抽取特征,是一种揭示不同特征之间关系的有效方法,能够找到最优和最小的特征组合。挖掘机工况数据包括68个属性特征,利用Apriori关联分析技术从工况数据中抽取16个故障特征,形成最佳特征组合。如下表1所示,列举出来的就是抽取出来的16个故障特征。可以理解的是,在其他实施例中,关联分析算法还可以是其他用于数据挖掘或关联分析的算法。
表1为抽取出的故障特征
如图3所示,在其中一个实施例中,根据关联分析算法,提取出工况数据中的故障特征集之前,还包括:步骤S120,对工况数据进行预处理,预处理包括数据清洗以及空值填充。
在实际的数据采集过程中,由于实际环境的复杂性,采集的工况数据集存在各种问题,其中最典型的就是重复采样,遗漏数据等。因此,必须对这些数据集进行预处理。因此,根据挖掘机的工作特性,制定了对应的规则进行数据预处理。具体的,数据预处理包括:数据清洗及空值填充。例如,一些工况数据中指标在较短的时间内相当稳定,缺失点的前一个样本值等于缺失点的下一个样本值。因此,可以采用相邻样本值来填充缺失值;一些工况数据中指标差异较大,故,可以取上一个样本与下一个样本的均值作为缺失点的值。对于重复采样则保留最完整的记录,删除其余相同的记录。本实施例中,对工况数据进行数据预处理,提高了数据的规范性和完整性。
步骤S300,根据已训练的长短期记忆LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的长短期记忆LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到。
LSTM是一种RNN(Recurrent Neural Network,循环神经网络)特殊的类型,LSTM解决了长期依赖的问题。LSTM设置了门控结构(Gate)。LSTM在在每个序列索引位置t的门一般包括遗忘门,输入门和输出门三种,通过所谓“门”的精细结构向细胞状态添加或移除信息。LSTM增加了一个状态c,用于保存长期的状态,称为单元状态。LSTM通过使用三个控制开关来控制长期状态c,这些开关就是使用门(gate)来实现的。基于LSTM的系统可以预测疾病、学习翻译语言、控制机器人以及图像分析等。因为通过传感器采集的数据是时序数据,故,本申请采用LSTM神经网络进行故障诊断与预测。基于抽取的挖掘机故障特征,使用70%的数据作为训练集对LSTM神经网络进行训练,并使用剩余的30%数据集作为测试集进行测试,从而实现对挖掘机故障的诊断与预测,并将故障诊断与预测结果作为体检报告的主要内容。通过使用训练集对LSTM的多次训练,得出LSTM主要参数的最优值如下表2所示。
具体的,LSTM神经网络的故障诊断及预测的学习过程如下:
对于一个输入序列x=(x1,...,xT),LSTM神经网络的网络激活单元迭代地使用以下这些公式计算出对应的输出结果y。
it=σ(Wixxt+Wimmt-1+Wicct-1+bi) (1)
ft=σ(Wfxxt+Wmfmt-1+Wcfct-1+bf) (2)
ct=ft⊙ct-1+it⊙g(Wcxxt+Wcmmt-1+bc) (3)
ot=σ(Woxxt+Wommt-1+Wocct+bo) (4)
mt=ot⊙h(ct) (5)
其中,W表示权值矩阵,例如:Wix表示从输入门到输入的权值矩阵。b是偏差向量,例如:bi是输入门偏差向量。σ是逻辑sigmoid函数,i,f,o,和c分别是输入门,遗忘门,输出门,以及cell激活向量。⊙是向量的元素积,g和h分别是cell输入激活函数和cell输出激活函数。是网络输出激活函数。例如,挖掘机的发动机转速这一故障特征属性,即x为发动机转速,将发动机转速的时序数据输入LSTM,得到最终的诊断预测输出y,本实施例中,输入的是提取出的16个故障特征属性,因此,最终的输出的故障诊断预测结果构成的向量y=(y1,y2,...,ym),且m=16。y=(y1,y2,...,ym)将作为解码器的输入,即R={r1,r2,...,rm}。
表2为LSTM主要参数的最优值
在实际应用中,整个体检系统模型部署在Tensorflow平台上,由于工业大数据呈现爆炸式增长,故,本实施例中采用分布式机器学习的模式对LSTM神经网络进行训练,即将LSTM神经网络分别构建到多个网络节点(以下简称节点)上,使得多个节点共同处理数据,并采用分布式训练模式对LSTM神经网络进行训练。其中,网络节点可以是电脑、服务器以及其他计算机设备。在进行分布式机器学习训练时,通信时间成为了分布式机器学习训练性能的瓶颈。故,本实施例中,从网络流量调度的角度出发,利用内核模块,在不修改算法和分布式架构的前提下,在网络链路中节点的数据包发生带宽竞争时进行调度,让计算能力差的节点在带宽竞争中获胜,优先拿到数据包进入下一轮训练。从而减少节点的等待时间,平衡节点的训练速度,缩减整个训练的通信时间,从而实现性能的优化。
步骤S400,基于注意力机制,将诊断预测数据转换为文本数据。
在计算能力有限情况下,注意力机制(attention mechanism)是解决信息超载问题的主要手段的一种资源分配方案,将计算资源分配给更重要的任务。注意力机制最成功的应用是机器翻译,通过引入注意力机制,将源语言中每个位置的信息都保存下来。在解码过程中生成每一个目标语言的单词时,通过注意力机制直接从源语言的信息中选择相关的信息作为辅助。在本实施例中的文本翻译任务上,使用注意力机制的模型每生成一个词时都会在输入序列中找出一个与之最相关的词集合,之后模型根据当前的上下文向量(context vectors)和所有之前生成出的词来预测下一个目标词。它将输入序列转化为一堆向量的序列并自适应地从中选择一个子集来解码出目标翻译文本。
在其中一个实施例中,诊断预测数据包括设备的故障特征属性和诊断结果;基于注意力机制,将诊断预测数据转换为文本数据包括:步骤S402,将诊断预测数据输入预设的注意力机制模型,预设的注意力机制模型包含设备的特征属性集和单词集,计算LSTM神经网络上一时刻的隐藏状态与诊断预测数据的相似度,基于相似度,从单词集中匹配出与各故障特征属性对应的单词,根据预设的注意力权重,将各单词与各故障特征属性进行组合,得到故障特征属性的描述文本数据。
预设的注意力机制模型可理解为是一个进行文本翻译的解码器,该注意力机制模型分为两层,分别是挖掘机特征属性层和单词层,包括预先嵌入的设备的特征属性集和单词集。上述实施例描述的数据预处理、特征抽取、以及故障诊断与预测可视为编码处阶段所做的处理。将编码阶段的输出将作为解码器的输入,用rm表示第m个故障特征属性的诊断或预测结果。即对于挖掘机来说,与故障紧密相关的故障特征属性有16个,即m=16。因此,故障诊断或预测结果组成了一个集合R={r1,r2,...,rm},作为解码器的输入。文本翻译可以是计算LSTM神经网络上一时刻的隐藏状态与诊断预测数据的相似度,然后基于相似度,从单词集中匹配出与各故障特征属性对应的单词,根据预设的注意力权重,将各单词与各故障特征属性进行组合,得到故障特征属性的描述文本数据。更具体的,结合上述LSTM神经网络的故障诊断及预测的学习过程,文本翻译过程可以如下:
R={r1,r2,…,rm}表示LSTM诊断或预测结果的集合,ht-1表示挖掘机特征属性层LSTM在t-1时的隐藏状态。ht-1和rm的相似度计算如下:
μm=vT tanh(W1·ht-1+W2·rm) (7)
W1,W2∈Rd×d,v∈Rd.对μm进行如下的标准化处理:
αm是t-1个单词与第m个特征属性的注意力权值,它可以被看作是衡量它们之间关系重要性的一个标准。通过加权所有的特征属性,一个上下文向量cm通过下面的公式计算得到:
cm=∑m∈[1,Nm]αmrm (9)
最终,得到的上下文向量C={c1,c2,…,cm},并且m=16,即能够根据上下文向量C,得到挖掘机所有特征属性的相关描述文本,从挖掘机的这些特征属性的文本描述可以初步了解挖掘机的健康状况。
步骤S500,对文本数据进行文本校对,生成设备的体检报告。
在LSTM神经网络输出设备的故障诊断预测数据后,为保证文本数据的正确性,需要对翻译出的文本数据进行文本校对。具体的,可以是对故障诊断预测文本数据进行分词处理,通过将分词后的词语串采用N-gram语言模型进行建模。基于预设的包含故障特征属性和单词的语句库,采用N-gram方法,进行错误字符的定位操作,检测到可能出错的文本字符,将疑错窗口中的字符再通过词性的N-gram方法进行进一步检测,如果检测为不合理,则判定为错误,定义为出错字符串,将出错字符串进行纠错处理,给出最近的相似词语,基于文本校对后的故障诊断预测数据,生成设备的体检报告。可以理解的是,在其他实施例中,文本校对方法还可以是其他方法。
上述设备体检报告生成方法,首先,采用分布式训练模式对LSTM神经网络进行训练,减少了网络链路中构建有LSTM神经网络的节点的数据处理量,提高数据的处理速度,基于网络流量调度方法对分布式训练模式进行优化,减少各节点的通信时间,然后,使用关联分析算法,提取出关键的设备的故障特征,基于这些故障特征,使用基于网络流量调度方法优化后的分布式训练模式进行训练得到的LSTM神经网络进行故障诊断,能够实现对设备故障的准确诊断与预测,最后,使用注意力机制将诊断预测的结果高效生成文本形式的体检报告。
如图4所示,在其中一个实施例中,已训练的长短期记忆LSTM神经网络的训练过程包括:
步骤S302,当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和IP,区分当前节点类型;
步骤S304,当当前节点为server节点时,根据与当前节点通信的worker节点的计算能力为worker节点标记不同的优先级,计算能力与优先级呈负相关;
步骤S306,根据优先级,修改当前节点向worker节点发送的数据包的差分服务代码点DSCP值;
步骤S308,当发生网络带宽竞争时,根据DSCP值进行优先级调度优化。
本实施例中,选择DSCP(differentiated services code point,差分服务代码点)作为优先级载体,DSCP存在于数据包IP头部的服务类型标识TOS字段中,使用TOS字段中已经使用的前六个bit,和没有使用的后2个bit,通过编码值得形式区分优先级,取值范围是0~63。在tensorflow分布式机器学习平台上,不同节点的计算能力是不同的,因此,会导致训练速度存在差异。而在网络中链路是共享的,所以不同的节点之间存在带宽竞争关系,在迭代过程中,由于训练速度差异的原因,会导致节点为了同步参数而产生长时间的通信等待。因此,本实施例中,采用一种基于网络流量调度的方法来减少通信等待时间,从而优化LSTM神经网络的训练性能。具体的,训练过程可以如下:
1)在主机进行通信时,依据“grpc_global_tim”线程是否存在来判断分布式机器学习任务是否启动。如果存在该名称的线程说明分布式机器学习任务启动了,反之则没有启动。
2)在分布式机器学习任务启动的情况下,通过“grpc_global_tim”线程所属的进程监听端口的端口号和IP来判断节点是worker节点还是server节点。
3)如果是server节点,则记录与其通信的worker节点的端口号和IP,然后根据每个worker节点的数据包到达的顺序来计算worker节点的计算能力,再根据计算能力标记优先级。具体的,根据worker节点达到server节点的先后顺序作为判读其计算能力的依据,先到达的worker节点认为其计算能力强,优先级标记为低,后达到的则认为其计算能力弱,优先级标为高。如果是worker节点,由于worker节点只与server节点进行通信,所以不进行任何处理。上述优先级的标记方法方便易控,而且可以根据网络链路的变化和节点计算能力的变化而自动适应。
4)在server节点向worker节点发送数据包时,根据之前标记的优先级,将数据包IP头部的DSCP修改为相应的值,表示不同的优先级。这样数据包在网络中发生带宽竞争时,便依据DSCP值进行优先级调度。优先级高得数据包优先使用带宽,发往对应的worker节点,从而该worker可以优先进入下一轮训练。本实施例中,基于网络流量调度的方法进行使得训练,计算能力弱的worker节点的优先级高,先进行下一轮训练,缩减了计算能力强的worker节点等待的时间,从而提高整个训练的性能。
在其中一个实施例中,判断分布式机器学习任务启动包括:根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体,对进程结构体中的线程池进行遍历,当根据线程池中每个线程的可执行文件名匹配到预设线程时,判断分布式机器学习任务启动。
判断机器学习任务是否启动的关键是寻找是否有gprc任务的线程。本实施例中,将数据包的到来作为一个定时器,因为若启动了gprc服务,一定会有数据包的发送和接收,所以将其作为定时器可以避免相对于启动的延迟。使用list_for_each函数对进程进行遍历,并取出进程结构体,再对结构体里的thread_group线程池进行遍历,将每个线程的可执行文件名和“grpc_global_tim”进行匹配操作,匹配成功说明分布式机器学习任务启动了。本实施例中,根据线程名称与可执行文件名的匹配操作,判断分布式机器学习任务是否启动,简便有效,且能够减少延迟时间。
在其中一个实施例中,预设线程为运行gprc任务的线程;通过预设线程所属的进程监听端口号和IP地址,区分节点类型包括:查找运行gprc任务的线程的接口信息,根据接口信息,获取与当前节点建联的IP和端口号,当与当前节点建联的IP和端口号至少为2个时,判断当前节点为server节点,当与当前节点建联的IP和端口号为1个时,判断当前节点为worker节点。
在实际应用中,Server节点与多个worker节点联系,所以其监听端口会监听多个worker节点。故,可得与server节点端口建联的端口号和IP不是唯一的而是多个。而worker节点只与server节点交互,所以它的监听端口只接收来自server节点的消息,因此和每个worker节点端口建联的端口号和IP只有一个。因此,只需要找到主机上运行该任务的进程,然后找到该进程在网络层的接口(socket)信息,就可以获得建联的地址和IP。通过与节点建联的目的IP和端口号是否多于2个来判断节点类型,如果多于2个,则为server节点,反之则为worker节点。本实施例中,根据与节点建联的IP和端口号的数量来判断节点类型,简单高效。
应该理解的是,虽然图2至图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2至图3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在其中一个实施例中,如图5所示,提供了一种设备体检报告生成装置,包括:数据获取模块410、特征提取模块420、故障诊断预测模块430、文本转换模块440以及体检报告生成模块450,其中:
数据获取模块410,用于获取设备的工况数据。
特征提取模块420,用于根据预设的关联分析算法,提取出工况数据中的故障特征集。
故障诊断预测模块430,用于根据已训练的长短期记忆LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到。
文本转换模块440,用于基于注意力机制,将诊断预测数据转换为文本数据。
体检报告生成模块450,用于对文本数据进行文本校对,生成设备的体检报告。
如图6所示,在其中一个实施例中,设备体检报告生成装置还包括训练模块460,用于当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和互联网协议地址IP,区分当前节点类型,当当前节点是server节点时,根据与当前节点通信的worker节点的计算能力为worker节点标记不同的优先级,计算能力与优先级呈负相关,根据优先级,修改当前节点向worker节点发送的数据包的差分服务代码点DSCP值,当发生网络带宽竞争时,根据DSCP值进行优先级调度优化。
在其中一个实施例中,设备体检报告生成装置还包括数据预处理模块470,用于对工况数据进行预处理,预处理包括数据清洗以及空值填充。
在其中一个实施例中,训练模块460还用于根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体,对进程结构体中的线程池进行遍历,当根据线程池中每个线程的可执行文件名匹配到预设线程时,判断分布式机器学习任务启动。
在其中一个实施例中,训练模块460还用于查找运行gprc任务的线程的接口信息,根据接口信息,获取与当前节点建联的IP和端口号,当与当前节点建联的IP和端口号至少为2个时,判断当前节点为server节点,当与当前节点建联的IP和端口号为1个时,判断当前节点为worker节点。
在其中一个实施例中,文本转换模块440还用于将诊断预测数据输入预设的注意力机制模型,预设的注意力机制模型包含设备的特征属性集和单词集,计算LSTM神经网络上一时刻的隐藏状态与诊断预测数据的相似度,基于相似度,从单词集中匹配出与各故障特征属性对应的单词,根据预设的注意力权重,将各单词与各故障特征属性进行组合,得到故障特征属性的描述文本数据。
关于设备体检报告生成装置的具体限定可以参见上文中对于设备体检报告生成方法的限定,在此不再赘述。上述设备体检报告生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在其中一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储工况数据以及故障诊断预测结果等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种设备体检报告生成方法。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在其中一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取设备的工况数据,根据关联分析算法,提取出工况数据中的故障特征集,根据已训练的LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到,基于注意力机制,将诊断预测数据转换为文本数据,对文本数据进行文本校对,生成设备的体检报告。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和IP,区分当前节点类型,当当前节点为server节点时,根据与当前节点通信的worker节点的计算能力为worker节点标记不同的优先级,计算能力与优先级呈负相关,根据优先级,修改当前节点向worker节点发送的数据包的DSCP值,当发生网络带宽竞争时,根据DSCP值进行优先级调度优化。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体,对进程结构体中的线程池进行遍历,当根据线程池中每个线程的可执行文件名匹配到预设线程时,判断分布式机器学习任务启动。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:查找运行gprc任务的线程的接口信息,根据接口信息,获取与当前节点建联的IP和端口号,当与当前节点建联的IP和端口号至少为2个时,判断当前节点为server节点,当与当前节点建联的IP和端口号为1个时,判断当前节点为worker节点。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:基于注意力机制,将诊断预测数据转换为文本数据包括:将诊断预测数据输入预设的注意力机制模型,预设的注意力机制模型包含设备的特征属性集和单词集,计算LSTM神经网络上一时刻的隐藏状态与诊断预测数据的相似度,基于相似度,从单词集中匹配出与各故障特征属性对应的单词,根据预设的注意力权重,将各单词与各故障特征属性进行组合,得到故障特征属性的描述文本数据。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:对工况数据进行预处理,预处理包括数据清洗以及空值填充。
在其中一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取设备的工况数据,根据关联分析算法,提取出工况数据中的故障特征集,根据已训练的LSTM神经网络,对故障特征集进行故障诊断与预测,输出设备的诊断预测数据,已训练的LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到,基于注意力机制,将诊断预测数据转换为文本数据,对文本数据进行文本校对,生成设备的体检报告。
在其中一个实施例中,计算机程序被处理器执行时还实现以下步骤:当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和IP,区分当前节点类型,当当前节点为server节点时,根据与当前节点通信的worker节点的计算能力为worker节点标记不同的优先级,计算能力与优先级呈负相关,根据优先级,修改当前节点向worker节点发送的数据包的DSCP值,当发生网络带宽竞争时,根据DSCP值进行优先级调度优化。
在其中一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体,对进程结构体中的线程池进行遍历,当根据线程池中每个线程的可执行文件名匹配到预设线程时,判断分布式机器学习任务启动。
在其中一个实施例中,计算机程序被处理器执行时还实现以下步骤:查找运行gprc任务的线程的接口信息,根据接口信息,获取与当前节点建联的IP和端口号,当与当前节点建联的IP和端口号至少为2个时,判断当前节点为server节点,当与当前节点建联的IP和端口号为1个时,判断当前节点为worker节点。
在其中一个实施例中,计算机程序被处理器执行时还实现以下步骤:基于注意力机制,将诊断预测数据转换为文本数据包括:将诊断预测数据输入预设的注意力机制模型,预设的注意力机制模型包含设备的特征属性集和单词集,计算LSTM神经网络上一时刻的隐藏状态与诊断预测数据的相似度,基于相似度,从单词集中匹配出与各故障特征属性对应的单词,根据预设的注意力权重,将各单词与各故障特征属性进行组合,得到故障特征属性的描述文本数据。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:对工况数据进行预处理,预处理包括数据清洗以及空值填充。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种设备体检报告生成方法,其特征在于,所述方法包括:
获取设备的工况数据;
根据关联分析算法,提取出所述工况数据中的故障特征集;
根据已训练的长短期记忆LSTM神经网络,对所述故障特征集进行故障诊断与预测,输出所述设备的诊断预测数据,所述已训练的长短期记忆LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到;
基于注意力机制,将所述诊断预测数据转换为文本数据;
对所述文本数据进行文本校对,生成所述设备的体检报告;
所述已训练的长短期记忆LSTM神经网络的训练过程包括:
当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和互联网协议地址IP,区分当前节点类型;
当所述当前节点为server节点时,根据与当前节点通信的worker节点的计算能力为所述worker节点标记不同的优先级,所述计算能力与所述优先级呈负相关;
根据所述优先级,修改所述当前节点向所述worker节点发送的数据包的差分服务代码点DSCP值;
当发生网络带宽竞争时,根据所述DSCP值进行优先级调度优化。
2.根据权利要求1所述的设备体检报告生成方法,其特征在于,判断分布式机器学习任务启动包括:
根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体;
对所述进程结构体中的线程池进行遍历;
当根据所述线程池中每个线程的可执行文件名匹配到所述预设线程时,判断分布式机器学习任务启动。
3.根据权利要求1所述的设备体检报告生成方法,其特征在于,所述预设线程为运行gprc任务的线程;所述通过预设线程所属的进程监听端口号和IP地址,区分节点类型包括:
查找所述运行gprc任务的线程的接口信息;
根据所述接口信息,获取与当前节点建联的IP和端口号;
当与所述当前节点建联的IP和端口号至少各为2个时,判断所述当前节点为server节点;
当与所述当前节点建联的IP和端口号各为1个时,判断所述当前节点为worker节点。
4.根据权利要求1所述的设备体检报告生成方法,其特征在于,所述诊断预测数据包括所述设备的故障特征属性和诊断结果;所述基于注意力机制,将所述诊断预测数据转换为文本数据包括:
将所述诊断预测数据输入预设的注意力机制模型,所述预设的注意力机制模型包含设备的特征属性集和单词集;
计算所述LSTM神经网络上一时刻的隐藏状态与所述诊断预测数据的相似度;
基于所述相似度,从所述单词集中匹配出与所述各故障特征属性对应的单词;
根据预设的注意力权重,将各单词与所述各故障特征属性进行组合,得到所述故障特征属性的描述文本数据。
5.根据权利要求1所述的设备体检报告生成方法,其特征在于,所述根据关联分析算法,提取出工况数据中的故障特征集之前,还包括:
对所述工况数据进行预处理,所述预处理包括数据清洗以及空值填充。
6.一种设备体检报告生成装置,其特征在于,所述装置包括:
数据获取模块,用于获取设备的工况数据;
特征提取模块,用于根据预设的关联分析算法,提取出所述工况数据中的故障特征集;
故障诊断预测模块,用于根据已训练的长短期记忆LSTM神经网络,对所述故障特征集进行故障诊断与预测,输出所述设备的诊断预测数据,所述LSTM神经网络基于经网络流量调度方法优化后的分布式训练模式训练得到;
文本转换模块,用于基于注意力机制,将所述诊断预测数据转换为文本数据;
体检报告生成模块,用于对所述文本数据进行文本校对,生成所述设备的体检报告;
所述装置还包括训练模块,用于当判断分布式机器学习任务启动时,通过预设线程所属的进程监听端口号和互联网协议地址IP,区分当前节点类型,当所述当前节点是server节点时,根据与当前节点通信的worker节点的计算能力为所述worker节点标记不同的优先级,所述计算能力与所述优先级呈负相关,根据所述优先级,修改所述当前节点向所述worker节点发送的数据包的差分服务代码点DSCP值,当发生网络带宽竞争时,根据所述DSCP值进行优先级调度优化。
7.根据权利要求6所述的设备体检报告生成装置,其特征在于,判断分布式机器学习任务启动包括:根据list_for_each函数,对当前运行的进程进行遍历,取出进程结构体,对所述进程结构体中的线程池进行遍历,当根据所述线程池中每个线程的可执行文件名匹配到所述预设线程时,判断分布式机器学习任务启动。
8.根据权利要求6所述的设备体检报告生成装置,其特征在于,所述预设线程为运行gprc任务的线程;所述通过预设线程所属的进程监听端口号和互联网协议地址IP,区分当前节点类型包括:查找所述运行gprc任务的线程的接口信息,根据所述接口信息,获取与当前节点建联的IP和端口号,当与所述当前节点建联的IP和端口号至少各为2个时,判断所述当前节点为server节点,当与所述当前节点建联的IP和端口号各为1个时,判断所述当前节点为worker节点。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910597798.5A CN110333987B (zh) | 2019-07-04 | 2019-07-04 | 设备体检报告生成方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910597798.5A CN110333987B (zh) | 2019-07-04 | 2019-07-04 | 设备体检报告生成方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110333987A CN110333987A (zh) | 2019-10-15 |
CN110333987B true CN110333987B (zh) | 2020-06-02 |
Family
ID=68144247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910597798.5A Active CN110333987B (zh) | 2019-07-04 | 2019-07-04 | 设备体检报告生成方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110333987B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852445A (zh) * | 2019-10-28 | 2020-02-28 | 广州文远知行科技有限公司 | 分布式机器学习训练方法、装置、计算机设备和存储介质 |
CN111160603B (zh) * | 2019-11-21 | 2022-11-25 | 中国电力科学研究院有限公司 | 一种端到端电力通信业务可靠性保障方法及系统 |
CN112465052B (zh) * | 2020-12-07 | 2023-04-07 | 重庆忽米网络科技有限公司 | 基于卷积神经网络的设备故障诊断报告生成方法与系统 |
CN113887820A (zh) * | 2021-10-20 | 2022-01-04 | 国网浙江省电力有限公司 | 电力现货业务系统故障预测的方法、装置、计算机设备和存储介质 |
CN115906642B (zh) * | 2022-11-28 | 2023-07-28 | 东莞科达五金制品有限公司 | 轴承生产检测控制方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102025620A (zh) * | 2010-12-07 | 2011-04-20 | 南京邮电大学 | 基于业务区分的认知网络QoS保障方法 |
CN107944566A (zh) * | 2017-11-28 | 2018-04-20 | 杭州云脑科技有限公司 | 一种机器学习方法、主节点、工作节点及系统 |
CN109522600A (zh) * | 2018-10-16 | 2019-03-26 | 浙江大学 | 基于组合深度神经网络的复杂装备剩余使用寿命预测方法 |
CN109886492A (zh) * | 2019-02-26 | 2019-06-14 | 浙江鑫升新能源科技有限公司 | 基于Attention LSTM的光伏发电功率预测模型及其构建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104317658B (zh) * | 2014-10-17 | 2018-06-12 | 华中科技大学 | 一种基于MapReduce的负载自适应任务调度方法 |
US10902738B2 (en) * | 2017-08-03 | 2021-01-26 | Microsoft Technology Licensing, Llc | Neural models for key phrase detection and question generation |
-
2019
- 2019-07-04 CN CN201910597798.5A patent/CN110333987B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102025620A (zh) * | 2010-12-07 | 2011-04-20 | 南京邮电大学 | 基于业务区分的认知网络QoS保障方法 |
CN107944566A (zh) * | 2017-11-28 | 2018-04-20 | 杭州云脑科技有限公司 | 一种机器学习方法、主节点、工作节点及系统 |
CN109522600A (zh) * | 2018-10-16 | 2019-03-26 | 浙江大学 | 基于组合深度神经网络的复杂装备剩余使用寿命预测方法 |
CN109886492A (zh) * | 2019-02-26 | 2019-06-14 | 浙江鑫升新能源科技有限公司 | 基于Attention LSTM的光伏发电功率预测模型及其构建方法 |
Non-Patent Citations (1)
Title |
---|
"云计算环境下基于优先级与可靠度的Hadoop作业调度研究";谷连军;《中国优秀硕士学位论文全文数据库(信息科技辑)》;20140815(第08期);I138-23 * |
Also Published As
Publication number | Publication date |
---|---|
CN110333987A (zh) | 2019-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110333987B (zh) | 设备体检报告生成方法、装置、计算机设备和存储介质 | |
US11531824B2 (en) | Cross-lingual information retrieval and information extraction | |
JP7229308B2 (ja) | 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム | |
CN110598206A (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN113094200A (zh) | 一种应用程序的故障预测方法和装置 | |
CN110046706B (zh) | 模型生成方法、装置及服务器 | |
EP3979098A1 (en) | Data processing method and apparatus, storage medium, and electronic apparatus | |
Adhao et al. | Feature selection using principal component analysis and genetic algorithm | |
CN112016318B (zh) | 基于解释模型的分诊信息推荐方法、装置、设备及介质 | |
WO2022057309A1 (zh) | 肺部特征识别方法、装置、计算机设备及存储介质 | |
CN112017742B (zh) | 分诊数据处理方法、装置、计算机设备及存储介质 | |
CN110912908A (zh) | 网络协议异常检测方法、装置、计算机设备和存储介质 | |
CN115630298A (zh) | 基于自注意力机制的网络流量异常检测方法及系统 | |
CN116108363A (zh) | 基于标签引导的不完备多视图多标签分类方法和系统 | |
CN110955765A (zh) | 智能助理的语料构建方法、装置、计算机设备和存储介质 | |
CN114266252A (zh) | 命名实体识别方法、装置、设备及存储介质 | |
US20230410474A1 (en) | Method and apparatus for training relationship recognition model and method and apparatus for analyzing image | |
CN110601909B (zh) | 网络维护方法、装置、计算机设备和存储介质 | |
CN117725458A (zh) | 一种获取威胁情报样本数据生成模型的方法及装置 | |
CN115328753B (zh) | 一种故障预测方法及装置、电子设备、存储介质 | |
CN114580738B (zh) | 一种社交媒体危机事件预测方法及系统 | |
CN116485185A (zh) | 基于比对数据的企业风险分析系统及方法 | |
KR102051085B1 (ko) | 인공 신경망을 이용하여 이름에 대한 국적 정보를 제공하는 장치 및 방법 | |
CN112016297A (zh) | 意图识别模型测试方法、装置、计算机设备和存储介质 | |
CN116521761B (zh) | 基于人工智能的传感器运行行为挖掘方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |