CN114238652A - 一种用于端到端场景的工业故障知识图谱建立方法 - Google Patents

一种用于端到端场景的工业故障知识图谱建立方法 Download PDF

Info

Publication number
CN114238652A
CN114238652A CN202111464757.2A CN202111464757A CN114238652A CN 114238652 A CN114238652 A CN 114238652A CN 202111464757 A CN202111464757 A CN 202111464757A CN 114238652 A CN114238652 A CN 114238652A
Authority
CN
China
Prior art keywords
entity
layer
fault
word
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111464757.2A
Other languages
English (en)
Inventor
冒泽慧
卞嘉楠
马亚杰
姜斌
严星刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202111464757.2A priority Critical patent/CN114238652A/zh
Publication of CN114238652A publication Critical patent/CN114238652A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种用于端到端场景的工业故障知识图谱建立方法,涉及基于人工智能的故障自动化诊断领域,能够在较短的时间内建立出一个质量较高、规模足以支持后续运行推理算法的工业故障知识图谱。本发明包括:采集工业设备故障过程的描述文本,并输入UT‑CRF实体命名识别模型,在执行实体命名识别任务后,所述UT‑CRF实体命名识别模型输出实体抽取结果;从所述实体抽取结果中,提取训练集并训练RCNN实体分类模型;将所述实体抽取结果输入训练后的RCNN实体分类模型,并执行实体分类任务,所述RCNN实体分类模型输出带有实体类别标签的实体文本数据;利用所述带有实体类别标签的实体文本数据,构建工业故障知识图谱。

Description

一种用于端到端场景的工业故障知识图谱建立方法
技术领域
本发明涉及基于人工智能的故障自动化诊断领域,尤其涉及一种用于端到端场景的工业故障知识图谱建立方法。
背景技术
随着人工智能技术的发展,工业领域的运维和故障诊断工作逐渐从传统的手动操作向智能化和自动化方向发展。依据过往运维过程中积累的故障工单,抽取其中的经验和知识,可以为智能故障诊断和运维工作提供数据支撑。由此,很多工业设备的运维和故障诊断问题可以转化为知识抽取等自然语言处理问题。目前,工业领域积累了大量的故障描述数据,其中包含了丰富的历史经验和专家知识,但是在工业设备智能故障诊断方面还未得到充分的应用。因此,研究工业领域的设备维修工单中经验和知识的抽取方法,并将抽取得到的知识和经验以结构化形式存储,对工业设备智能故障诊断的发展具有重要意义。
作为领域知识和经验的结构化存储形式,领域知识图谱具有广阔的应用前景。作为智能运维的数据基础和支撑,工业故障知识图谱在故障定位、原因分析等自动化诊断和运维场景中起着至关重要的作用。研究构建工业故障知识图谱的相关技术,可以将杂乱的工单数据转化为结构化、可视化的知识链条,在后续的运维应用场景中可以快速的辅助故障自动化或半自动化解决,从而提高运维人员的工作效率,并为未来更复杂、要求更高的故障排除工作奠定基础。
但在实际应用中,高质量、大规模的知识图谱构建难度极大,全自动化构建的方法尚未成熟,且所构建的知识图谱质量较差;而全人工构建的方法虽然能够保证质量,但是效率低下,往往需要花费巨大的人力和时间成本。
因此,如何在较短的时间内建立出一个质量较高、规模足以支持后续运行推理算法的工业故障知识图谱,以便于在实际应用中能够兼顾质量、规模和构建效率,成为需要研究的问题。
发明内容
本发明的实施例提供一种用于端到端场景的工业故障知识图谱建立方法,能够在较短的时间内建立出一个质量较高、规模足以支持后续运行推理算法的工业故障知识图谱。
为达到上述目的,本发明的实施例采用如下技术方案:
S1、采集工业设备故障过程的描述文本,并输入UT-CRF实体命名识别模型,在执行实体命名识别任务后,所述UT-CRF实体命名识别模型输出实体抽取结果;
S2、从所述实体抽取结果中,提取训练集并训练RCNN实体分类模型;
S3、将所述实体抽取结果输入训练后的RCNN实体分类模型,并执行实体分类任务,所述RCNN实体分类模型输出带有实体类别标签的实体文本数据;
S4、利用所述带有实体类别标签的实体文本数据,构建工业故障知识图谱。
本发明实施例提供的用于端到端场景的工业故障知识图谱建立方法,通过采用UT-CRF/RCNN模型,实现工业故障知识图谱的端到端构建过程。该方法能够在短时间内实现大规模、高质量工业故障知识图谱的构建,从而减少人工构建的成本,提升构建效率。同时,该方法具有良好的迁移性,在应对不同情境和场景时,只需要对网络的超参数进行微调,同样可以达到较高的构建准确率。进一步的,所构建的知识图谱将助力故障诊断、故障定位、原因分析,以及后续的故障自动化或半自动化解决,从而促进智能故障诊断的发展。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的总体方案流程示意图;
图2为本发明实施例提供的UT-CRF模型结构示意图;
图3为本发明实施例提供的RCNN模型结构示意图;
图4为本发明实施例提供的知识图谱生成规则示意图。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明作进一步详细描述。下文中将详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
目前的研究方向,主要是需要在较短的时间内建立出一个质量较高、规模足以支持后续运行推理算法的工业故障知识图谱,以便于在实际应用中能够兼顾质量、规模和构建效率。因此,如何在准确率和效率之间寻求一个平衡点,使用半自动化的构建思路,在较短的时间内建立出一个质量较高、规模足以支持后续运行推理算法的工业故障知识图谱,是工业智能故障诊断方向的一个巨大挑战。
本实施例的设计目的在于,优化端到端的工业故障知识图谱建立方式。
大致的设计思路是:采用UT-CRF/RCNN(通用深度自注意力网络编码器-线性链条件随机场/循环卷积网络)组合模型实现工业故障知识图谱的端到端建立。其中,获取工业设备故障过程文本描述数据,对部分工单进行词性标注并作为训练语料送入实体命名识别模型,进行参数优化以获取最优模型;将实体命名识别结果中的少部分进行类别标注,送入实体分类模型,进行参数优化以训练模型;将未标注的原始语料送入实体命名识别模型,执行实体抽取任务,所得结果送入实体分类模型,执行实体分类任务,得到带标签的实体文本;基于规则生成RDF三元组,存入图数据库,为后续故障诊断任务提供数据支持。通过使用深度学习方法,可以实现工业故障知识图谱的端到端的建立,有效提升构建效率和准确率,为故障诊断任务提供高质量知识图谱资源。
本发明实施例提供一种用于端到端场景的工业故障知识图谱建立方法,包括:
S1、采集工业设备故障过程的描述文本,并输入UT-CRF实体命名识别模型,在执行实体命名识别任务后,所述UT-CRF实体命名识别模型输出实体抽取结果。
其中,所采集来的工业设备故障过程的描述文本,是一种未经过标注的原始文本数据。将未经过标注的原始文本数据送入模型,经过此向量嵌入、位置嵌入、时间步嵌入和多头注意力机制运算等步骤后,通过条件随机场解码,得到实体命名识别的结果。
本实施例中基于UT-CRF模型的实体命名识别任务可以划分为两个部分。第一部分是训练UT-CRF模型。手工标注部分工业设备故障过程描述文本,作为训练集送入模型,训练UT-CRF实体命名识别模型;第二部分是使用优化完成的UT-CRF模型执行实体命名识别任务。将未标注的语料送入模型,得到实体抽取结果。具体的,可以收集工业故障诊断领域积累的描述故障排除与运维过程的文本数据,送入训练完成的实体命名识别模型,输出实体抽取结果。
S2、从所述实体抽取结果中,提取训练集并训练RCNN实体分类模型。
其中,可以分配少量实体抽取结果,手工标注标签作为训练集,输入RCNN网络,优化参数。针对当前实体样本的特点对超参数进行微调,使模型在当前任务上表现达到最优。具体的,使用优化完成的RCNN模型执行实体分类任务,将语料中抽取出的实体送入模型,得到带有实体类别标签的实体文本数据,用于知识图谱的构建。使用训练完成的模型对剩余无标签的实体数据进行分类,得到带标签的实体文本。
S3、将所述实体抽取结果输入训练后的RCNN实体分类模型,并执行实体分类任务,所述RCNN实体分类模型输出带有实体类别标签的实体文本数据。
其中,可以将RCNN实体分类模型的输入层与UT-CRF模型的输出层进行对接,实现实体抽取到实体分类的链式操作,得到带有标签的实体文本。
S4、利用所述带有实体类别标签的实体文本数据,构建工业故障知识图谱。
本实施例中,采用UT-CRF/RCNN(通用深度自注意力网络编码器-线性链条件随机场/循环卷积网络)组合模型实现工业故障知识图谱的端到端建立。训练并使用UT-CRF模型执行实体命名识别任务,训练并使用RCNN模型执行实体分类任务。对两个不同的深度学习模型使用交替优化参数的训练策略,编写接口将训练完成的模型进行拼接,实现从文本数据到知识图谱的端到端建立。
进一步的,还包括:
在S1之前,建立所述UT-CRF实体命名识别模型。获取所述UT-CRF实体命名识别模型对的训练集数据,并通过所述训练集数据训练所建立的UT-CRF实体命名识别模型。
其中,可以随机初始化模型参数,依据ICTCLAS(汉语词法分析系统)汉语词性标注集中规定的标注规范,手工标注一部分故障工单文本,作为训练集送入模型,经过多轮迭代训练,损失函数趋于收敛,停止训练。所述UT-CRF实体命名识别模型中包括:词向量嵌入层、位置嵌入层、时间步嵌入层、多头注意力层、转换函数层和条件随机场输出层。所述训练集数据中包括:经过词性成分标注的描述故障现象文本,和经过词性成分标注的故障维修过程的文本。其中,“经过词性成分标注的描述故障现象的文本”可以理解为:将描述故障现象的文本按照ICTCLAS汉语词性标注集中规定的标准汉语标注方法进行标注。“经过词性成分标注的故障维修过程的文本”可以理解为:将描述故障维修过程的文本按照ICTCLAS汉语词性标注集中规定的标准汉语标注方法进行标注。具体来说,就是将文本中的各个不同成分标注上相应的记号。
具体的,所述UT-CRF实体命名识别模型由通用深度自注意力网络的编码器和线性链条件随机场解码器构成其中,编码器指的是将文本输入通用深度自注意力网络,得到表示文本的特征向量,因此称之为“通用深度自注意力网络的编码器”;解码器指的是将文本的特征向量输入线性链条件随机场,还原为带有标签的文本,因此称之为“线性链条件随机场解码器”。将描述故障现象和故障维修过程的文本进行词性成分标注后送入模型,初始化模型参数,通过迭代循环不断优化模型参数,得到训练好的模型;
本实施例中,在S1中,所执行的实体命名识别任务包括:
将工业设备故障过程的描述文本输入所述UT-CRF实体命名识别模型,并依次经过词向量嵌入层、位置嵌入层和时间步嵌入层的处理,得到词向量s;其中,通过三重嵌入层的叠加处理,将词向量、位置和时间步三种嵌入模式进行叠加,有助于模型理解每个词的位置以及序列中不同词之间的距离。其中,三重嵌入层的作用是进行词向量嵌入,词向量嵌入是指将字符转换为向量的形式表示,位置嵌入是指将字符在文本序列中的位置用向量的形式表示,时间步嵌入是指将当前网络迭代训练的次数用向量的形式表示,叠加指的是将三个向量执行加法操作。
之后可以将词向量s输入多头注意力层;转换函数层接收所述多头注意力层的输出并进行分离卷积运算;条件随机场输出层中,将所述转换函数层的输出由线性链条件随机场进行解码,所述条件随机场输出层的输出包括:从语句中抽取的实体文本。
具体的,在所述多头注意力层中采用多头注意力机制,由各个自注意力运算单元的运算结果拼接而成:MSA(S)=concat(SA1,...,SAn)W,其中concat为拼接函数,W为多头注意力权重,而Q=SWQuery、K=SWKey、V=SWValue,S表示序列中所有词的词向量拼接而成的矩阵,Q表示对应了S的查询矩阵,K表示键矩阵,V表示值矩阵,WQuery表示查询权重矩阵,WKey表示键权重矩阵,WValue表示值权重矩阵。自注意力运算单元表示为
Figure BDA0003390886220000081
其中,d表示词嵌入的维度。
进一步的,本实施例中,还包括:在S2之前,建立RCNN实体分类模型,其中,所述RCNN实体分类模型中包括:词向量嵌入层、双向循环神经网络、卷积神经网络和输出层。
具体的,在所述双向循环神经网络的运行过程中,包括:
通过所述双向循环神经网络捕获所述实体抽取结果中的实体文本序列的上下文信息;将所述上下文信息中的左右侧语境的编码,与当前词的词向量进行拼接操作,得到当前词的编码;将所述当前词的编码输入所述卷积神经网络进行卷积处理,之后通过输出层输出实体文本数据。从而可以使当前词包含上下文语境,从而有效消除歧义。将当前词的编码送入卷积神经网络,执行卷积,最大池化等操作后计算出实体属于各个实体类别的概率,完成实体分类。例如:
所述上下文信息中的左右侧语境的编码包括:
l(ci)=f(Wleftl(ci-1)+Wleft-embede(ci-1))
r(ci)=f(Wrightl(ci+1)+Wright-embede(ci+1))
其中,实体文本序列的每个字符表示为ci,词向量为e(ci),l(ci)表示ci的左侧语境,r(ci)表示ci的右侧语境,i表示字符在实体文本序列中的位置,Wleft为左侧语境权重矩阵,Wright为右侧语境权重矩阵,Wleft-embed是将当前词的语义与下一个词的左侧语境结合起来的权重矩阵,Wright-embed是将当前词的语义与上一个词的右侧语境结合起来的权重矩阵;所得到的当前词的编码
wi=[l(ci);e(ci);r(ci)]。
进一步的,在S4中,包括:根据所述带有实体类别标签的实体文本数据,构建关联关系;之后将所述带有实体类别标签的实体文本数据和所构建的关联关系,以RDF三元组的形式,存入逗号分隔值文件,并导入Neo4j图形数据库服务器。其中,可以将带有标签的实体基于设计好的规则构建关联关系,具体的知识图谱生成规则如图4所示。实体与实体之间的关系以RDF三元组的形式存入逗号分隔值文件并导入Neo4j图形数据库服务器,完成工业故障知识图谱的建立,使用数据库语言对知识图谱进行进一步修改和完善。
具体举例来说,在本实施例中的实际应用中,也可以划分为3个阶段,其中包括:第一阶段,实体命名识别;第二阶段,实体分类;第三阶段,建立工业故障知识图谱。例如:
第一阶段,1构建UT-CRF模型;2训练UT-CRF模型;3基于UT-CRF模型执行实体命名识别任务;
具体的,所述1构建UT-CRF模型,包括:
该模型主要由词向量嵌入层、位置和时间步嵌入层、多头注意力层、转换函数层和条件随机场输出层组成。
(i)嵌入层:嵌入层将词向量、位置和时间步三种嵌入模式进行叠加,有助于模型理解每个词的位置以及序列中不同词之间的距离。
(ii)多头注意力层:多头注意力层是UT-CRF模型的核心部分。经过(i)中嵌入层的编码,每个词都被表示为词向量s,每个序列则可以用序列中所有词的词向量拼接而成的矩阵S表示。为每个序列矩阵生成一个查询矩阵Q,一个键矩阵K和一个值矩阵V,这三个矩阵是通过序列矩阵与随机初始化的查询权重矩阵WQuery、键权重矩阵WKey和值权重矩阵WValue相乘得到的,具体运算如下:
Q=SWQuery
K=SWKey
V=SWValue
多头注意力机制由多个自注意力运算单元的运算结果拼接而成。自注意力单元在编码某个词时,将所有词的值向量进行加权求和,权重是通过对该词的键向量与被编码词查询向量做点积并通过softmax层得到的。自注意力单元的运算机制如下:
Figure BDA0003390886220000101
其中d表示词嵌入的维度。
多头注意力机制的运算如下:
MSA(S)=concat(SA1,...,SAn)W
其中concat为拼接函数,将多个自注意力运算单元的结果进行拼接操作,W为多头注意力权重。
(iii)转换函数层和条件随机场输出层:转换函数层接收多头注意力层的输出并对其经行分离卷积运算,所得结果由线性链条件随机场进行解码,输出为从每条语句中抽取的实体文本。
具体的,所述2训练UT-CRF模型,包括:
随机初始化模型参数,依据ICTCLAS(汉语词法分析系统)汉语词性标注集中规定的标注规范,手工标注一部分故障工单文本,作为训练集送入模型,经过多轮迭代训练,损失函数趋于收敛,停止训练。
具体的,所述3基于UT-CRF模型执行实体命名识别任务,包括:
收集工业故障诊断领域积累的描述故障排除与运维过程的文本数据,送入训练完成的实体命名识别模型,输出实体抽取结果。
第二阶段,实体分类阶段:4构建RCNN模型;5训练RCNN模型;6基于RCNN模型执行实体分类任务。
具体的,所述4构建RCNN模型,包括:
RCNN实体分类模型主要由词向量嵌入层、双向循环神经网络、卷积神经网络和输出层组成。
双向循环神经网络用于捕获实体文本序列的上下文信息。实体文本序列中的每个字符表示为ci,其词向量为e(ci)。用l(ci)表示ci的左侧语境,r(ci)表示ci的右侧语境,l(ci)和r(ci)的计算方式如下:
l(ci)=f(Wleftl(ci-1)+Wleft-embede(ci-1))
r(ci)=f(Wrightl(ci+1)+Wright-embede(ci+1))
其中为Wleft为左侧语境权重矩阵,Wright为右侧语境权重矩阵,Wleft-embed是将当前词的语义与下一个词的左侧语境结合起来的权重矩阵,Wright-embed是将当前词的语义与上一个词的右侧语境结合起来的权重矩阵。
将左右侧语境的编码与当前词的词向量进行拼接操作,作为当前词的编码wi
wi=[l(ci);e(ci);r(ci)]
通过上述操作,可以使当前词包含上下文语境,从而有效消除歧义。将当前词的编码送入卷积神经网络,执行卷积,最大池化等操作后过softmax层得到实体属于某一个实体类别的概率,完成实体分类。
具体的,所述5训练RCNN模型,包括:
分配少量实体抽取结果,手工标注标签作为训练集,输入RCNN网络,优化参数。针对当前实体样本的特点对超参数进行微调,使模型在当前任务上表现达到最优。
具体的,所述6基于RCNN模型执行实体分类任务,包括:
将RCNN实体分类模型的输入层与UT-CRF模型的输出层进行对接,实现实体抽取到实体分类的链式操作,得到带有标签的实体文本。
第三阶段,工业故障知识图谱建立阶段:7基于6中得到的实体分类结果构建工业故障知识图谱。
具体的,所述7基于6中得到的实体分类结果构建工业故障知识图谱,包括:
将带有标签的实体基于设计好的规则构建关联关系,具体的知识图谱生成规则见附图4。实体与实体之间的关系以RDF三元组的形式存入逗号分隔值文件并导入Neo4j图形数据库服务器,完成工业故障知识图谱的建立,使用数据库语言对知识图谱进行进一步修改和完善。
本实施例提出的一种端到端的工业故障知识图谱建立方法,采用UT-CRF/RCNN(通用深度自注意力网络编码器-线性链条件随机场/循环卷积网络)组合模型,实现工业故障知识图谱的端到端构建过程。该方法能够在短时间内实现大规模、高质量工业故障知识图谱的构建,从而减少人工构建的成本,提升构建效率。同时,该方法具有良好的迁移性,在应对不同情境和场景时,只需要对网络的超参数进行微调,同样可以达到较高的构建准确率。进一步的,所构建的知识图谱将助力故障诊断、故障定位、原因分析,以及后续的故障自动化或半自动化解决,从而促进智能故障诊断的发展。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (8)

1.一种用于端到端场景的工业故障知识图谱建立方法,其特征在于,包括:
S1、采集工业设备故障过程的描述文本,并输入UT-CRF实体命名识别模型,在执行实体命名识别任务后,所述UT-CRF实体命名识别模型输出实体抽取结果;
S2、从所述实体抽取结果中,提取训练集并训练RCNN实体分类模型;
S3、将所述实体抽取结果输入训练后的RCNN实体分类模型,并执行实体分类任务,所述RCNN实体分类模型输出带有实体类别标签的实体文本数据;
S4、利用所述带有实体类别标签的实体文本数据,构建工业故障知识图谱。
2.根据权利要求1所述的方法,其特征在于,还包括:
在S1之前,建立所述UT-CRF实体命名识别模型,其中,所述UT-CRF实体命名识别模型中包括:词向量嵌入层、位置嵌入层、时间步嵌入层、多头注意力层、转换函数层和条件随机场输出层;
获取所述UT-CRF实体命名识别模型对应的训练集数据,并通过所述训练集数据训练所建立的UT-CRF实体命名识别模型,所述训练集数据中包括:经过词性成分标注的描述故障现象文本,和经过词性成分标注的故障维修过程的文本。
3.根据权利要求2所述的方法,其特征在于,S1中,所执行的实体命名识别任务包括:
将工业设备故障过程的描述文本输入所述UT-CRF实体命名识别模型,并依次经过词向量嵌入层、位置嵌入层和时间步嵌入层的处理,得到词向量s;
将词向量s输入多头注意力层;
转换函数层接收所述多头注意力层的输出并进行分离卷积运算;
条件随机场输出层中,将所述转换函数层的输出由线性链条件随机场进行解码,所述条件随机场输出层的输出包括:从语句中抽取的实体文本。
4.根据权利要求3所述的方法,其特征在于,在所述多头注意力层中采用多头注意力机制,由各个自注意力运算单元的运算结果拼接而成:
MSA(S)=concat(SA1,...,SAn)W,其中concat为拼接函数,W为多头注意力权重,而Q=SWQuery、K=SWKey、V=SWValue,S表示序列中所有词的词向量拼接而成的矩阵,Q表示对应了S的查询矩阵,K表示键矩阵,V表示值矩阵,WQuery表示查询权重矩阵,WKey表示键权重矩阵,WValue表示值权重矩阵;
自注意力运算单元表示为
Figure FDA0003390886210000021
其中,d表示词嵌入的维度。
5.根据权利要求1所述的方法,其特征在于,还包括:
在S2之前,建立RCNN实体分类模型,其中,所述RCNN实体分类模型中包括:词向量嵌入层、双向循环神经网络、卷积神经网络和输出层。
6.根据权利要求5所述的方法,其特征在于,在所述双向循环神经网络的运行过程中,包括:
通过所述双向循环神经网络捕获所述实体抽取结果中的实体文本序列的上下文信息;
将所述上下文信息中的左右侧语境的编码,与当前词的词向量进行拼接操作,得到当前词的编码;
将所述当前词的编码输入所述卷积神经网络进行卷积处理,之后通过输出层输出实体文本数据。
7.根据权利要求1所述的方法,其特征在于,所述上下文信息中的左右侧语境的编码包括:
l(ci)=f(Wleftl(ci-1)+Wleft-embede(ci-1))
r(ci)=f(Wrightl(ci+1)+Wright-embede(ci+1))
其中,实体文本序列的每个字符表示为ci,词向量为e(ci),l(ci)表示ci的左侧语境,r(ci)表示ci的右侧语境,i表示字符在实体文本序列中的位置,Wleft为左侧语境权重矩阵,Wright为右侧语境权重矩阵,Wleft-embed是将当前词的语义与下一个词的左侧语境结合起来的权重矩阵,Wright-embed是将当前词的语义与上一个词的右侧语境结合起来的权重矩阵;
所得到的当前词的编码wi=[l(ci);e(ci);r(ci)]。
8.根据权利要求1所述的方法,其特征在于,在S4中,包括:
根据所述带有实体类别标签的实体文本数据,构建关联关系;
之后将所述带有实体类别标签的实体文本数据和所构建的关联关系,以RDF三元组的形式,存入逗号分隔值文件,并导入Neo4j图形数据库服务器。
CN202111464757.2A 2021-12-03 2021-12-03 一种用于端到端场景的工业故障知识图谱建立方法 Pending CN114238652A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111464757.2A CN114238652A (zh) 2021-12-03 2021-12-03 一种用于端到端场景的工业故障知识图谱建立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111464757.2A CN114238652A (zh) 2021-12-03 2021-12-03 一种用于端到端场景的工业故障知识图谱建立方法

Publications (1)

Publication Number Publication Date
CN114238652A true CN114238652A (zh) 2022-03-25

Family

ID=80752876

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111464757.2A Pending CN114238652A (zh) 2021-12-03 2021-12-03 一种用于端到端场景的工业故障知识图谱建立方法

Country Status (1)

Country Link
CN (1) CN114238652A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114691889A (zh) * 2022-04-15 2022-07-01 中北大学 一种道岔转辙机故障诊断知识图谱构建方法
CN115858825A (zh) * 2023-03-02 2023-03-28 山东能源数智云科技有限公司 基于机器学习的设备故障诊断知识图谱构建方法和装置
CN116523212A (zh) * 2023-04-12 2023-08-01 中国科学院软件研究所 一种多星协同语义建模及任务规划方法和系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114691889A (zh) * 2022-04-15 2022-07-01 中北大学 一种道岔转辙机故障诊断知识图谱构建方法
CN114691889B (zh) * 2022-04-15 2024-04-12 中北大学 一种道岔转辙机故障诊断知识图谱构建方法
CN115858825A (zh) * 2023-03-02 2023-03-28 山东能源数智云科技有限公司 基于机器学习的设备故障诊断知识图谱构建方法和装置
CN115858825B (zh) * 2023-03-02 2023-05-16 山东能源数智云科技有限公司 基于机器学习的设备故障诊断知识图谱构建方法和装置
CN116523212A (zh) * 2023-04-12 2023-08-01 中国科学院软件研究所 一种多星协同语义建模及任务规划方法和系统

Similar Documents

Publication Publication Date Title
CN111382565B (zh) 基于多标签的情绪-原因对抽取方法及系统
CN114238652A (zh) 一种用于端到端场景的工业故障知识图谱建立方法
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN110765966A (zh) 一种面向手写文字的一阶段自动识别与翻译方法
CN109063164A (zh) 一种基于深度学习的智能问答方法
CN114254655B (zh) 一种基于提示自监督学习网络安全溯源语义识别方法
CN115964467A (zh) 一种融合视觉情境的富语义对话生成方法
CN113221571B (zh) 基于实体相关注意力机制的实体关系联合抽取方法
CN111026941A (zh) 一种面向装备体系论证评估的智能查询方法
CN113743119B (zh) 中文命名实体识别模块、方法、装置及电子设备
CN114443813B (zh) 一种智能化的在线教学资源知识点概念实体链接方法
CN114239574A (zh) 一种基于实体和关系联合学习的矿工违规行为知识抽取方法
CN115543437A (zh) 一种代码注释生成方法和系统
CN111597816A (zh) 一种自注意力命名实体识别方法、装置、设备及存储介质
CN114691848A (zh) 关系三元组联合提取方法及自动问答系统构建方法
CN114880347A (zh) 一种基于深度学习的自然语言转化为sql语句的方法
CN117292146A (zh) 一种面向工业场景的构建多模态大语言模型的方法、系统和应用方法
CN113656569A (zh) 一种基于上下文信息推理的生成式对话方法
CN113420111A (zh) 一种用于多跳推理问题的智能问答方法及装置
CN114548325B (zh) 基于对偶对比学习的零样本关系抽取方法和系统
CN115545038A (zh) 一种优化网格标签的方面情感分析方法
CN113505207B (zh) 一种金融舆情研报的机器阅读理解方法及系统
CN115221315A (zh) 文本处理方法以及装置、句向量模型训练方法以及装置
CN114297408A (zh) 一种基于级联二进制标注框架的关系三元组抽取方法
CN114648005A (zh) 一种多任务联合学习的多片段机器阅读理解方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination