CN117271701A - 一种基于tggat和cnn的系统运行异常事件关系抽取方法及系统 - Google Patents
一种基于tggat和cnn的系统运行异常事件关系抽取方法及系统 Download PDFInfo
- Publication number
- CN117271701A CN117271701A CN202311178825.8A CN202311178825A CN117271701A CN 117271701 A CN117271701 A CN 117271701A CN 202311178825 A CN202311178825 A CN 202311178825A CN 117271701 A CN117271701 A CN 117271701A
- Authority
- CN
- China
- Prior art keywords
- vector matrix
- matrix
- vector
- extracting
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 title claims description 14
- 239000011159 matrix material Substances 0.000 claims abstract description 82
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 238000012512 characterization method Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 9
- 239000010410 layer Substances 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 239000002356 single layer Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 4
- 230000001419 dependent effect Effects 0.000 description 7
- 230000001364 causal effect Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于TGGAT和CNN的系统运行异常事件关系抽取方法及系统,获取文本数据,并进行预处理;运用BERT模型处理预处理后的文本数据,生成特征向量矩阵;将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征;将特征向量矩阵输入类型引导图注意网络TGGAT,提取句子的全局特征;将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵;使用softmax分类器对加权后的表征向量矩阵进行事件关系分类。通过类型引导图注意网络考虑不同类型依赖关系的不同贡献,捕获长程句法依赖关系同时捕获类型信息,准确捕捉全局事件知识。
Description
技术领域
本发明涉及文本数据识别,具体是涉及一种基于TGGAT和CNN的系统运行异常事件关系抽取方法及系统。
背景技术
事件关系提取是事件知识图谱中的一个重要步骤,它对信息提取、投资策略和问题解答等自然语言处理应用大有裨益。通过捕捉关联关系,相关事件可以相辅相成,充分发挥其价值。
目前,在事件关系提取的任务中,大多数研究集中在提取因果关系和时间关系上。机器学习在提取事件关系的任务中得到了广泛应用。Kruengkrai等人采用多列卷积神经网络处理多个背景知识源,以提取缺乏明确线索表明事件因果关系存在的因果关系。Ning等人结合整数线性规划和常识知识提取时间关系。Hu等人使用预训练的语言模型自适应地聚类化时间关系特征。Jiang等人提出了一种在分类中结合句法树结构的模型。为了提高分类效果,Fan等人提出了一种关系分类模型,利用双线神经网络提取句法信息来完成关系分类任务。人们还提出了处理文档级事件因果关系的不同思路,Trong等人设计了一种强化学习机制来从文档中选择关键上下文。
由于丰富的语言知识包含在句法依赖中,因此有很多基于句法依赖的方法被提出。Aldawsari等人使用依赖树中另一事件的祖先事件,同时融合话语和叙事特征,以获得更丰富的事件表示。Meng等人使用序列编码器对事件之间最短的依赖路径进行编码,以识别它们之间的关系。由于序列编码器不能很好地学习结构信息,因此有人提出了一些基于图的方法来完成这项任务。Wang等人提出了不同的约束条件来提取时间关系和子事件关系。Zhang等人提出使用图转换器来捕捉语法图中的时间知识。Mathur等人和Tran等人在使用句法依赖性的同时,还引入了修辞、话语和语义等其他知识,通过不同图中节点之间的交互来丰富事件的表示。
这些关系抽取模型部分是通用的关系抽取方法,部分用于金融领域的关系抽取模型,并没有针对数据库运维领域设计的关系抽取方法。另外,大多数现有的基于依赖关系的方法在对事件之间的语义上下文进行建模时,通常平等地对待不同类型的依赖关系,导致事件关系提取的性能下降。
发明内容
发明目的:针对以上缺点,本发明提供一种基于TGGAT和CNN的系统运行异常事件关系抽取方法,包括以下步骤:
(1)获取文本数据,并进行预处理;
(2)运用BERT模型处理预处理后的文本数据,生成特征向量矩阵;
(3)将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征;将特征向量矩阵输入类型引导图注意网络TGGAT,提取句子的全局特征;
(4)将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵;
(5)使用softmax分类器对加权后的表征向量矩阵进行事件关系分类。
进一步的,所述步骤(1)中获取数据库系统告警日志文本数据进行预处理:在多个业务系统上的数据库中获取十多年报警日志记录的上万条文本数据。
进一步的,所述步骤(2)中生成的特征向量矩阵V的表达式如下:
其中,t表示序列长度,768表示单词向量的维度,cls表示句子的初始标签,seq表示句子的结尾标签,v表示单词向量矩阵。
进一步的,所述步骤(3)中将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征具体包括:
(3.11)对输入的特征向量矩阵进行一维卷积,形成局部特征向量fi:
fi=ReLu(kivt:t+j-1+b)
其中,v表示输入的单词向量矩阵,j表示卷积核ki的窗口大小,b表示偏置值;
(3.12)针对n个卷积核对输入的特征向量矩阵进行n个卷积运算,形成单词向量vt上下文特征集合的高维向量Ft:
Ft={f1,f2,...,fn}
(3.13)对高维向量Ft进行降低维数的最大池化运算,形成单词向量vt的局部上下文特征Mt:
Mt=max(Ft),
(3.14)对于输入长度为t的特征向量矩阵,使用卷积集K扫描整个文本,形成整个文本的局部特征集S:
S={M1,M2,...,Mt}
进一步的,所述步骤(3)中通过Stanford CoreNLP工具获得输入特征向量矩阵中句子的句法依赖树,通过在句法依赖树中构建输入句子的句法结构,将句子转换为图结构进行表示,其中将单词表示为节点,将句法依赖树构造单词之间的依赖关系表示为边;
将特征向量矩阵输入类型引导图注意网络TGGAT,提取句子的全局特征具体包括:
(3.21)使用TGGAT通过类型引导对句子的句法依赖树进行建模,获得与句子中每个单词相关的句法知识,然后利用依赖路径来转移和聚合句子中的单词信息,得到每个节点和所有相邻单词的注意力值为:
其中,W表示可学习的权重矩阵,a表示单层前馈反馈网络,表示节点i的语义向量,/>表示节点j的语义向量,/>表示节点i和节点j的依赖路径;
(3.22)使用SoftMax函数对注意力值进行归一化,得到注意力系数:
αi,r,j=softmax(di,r,t)
(3.23)通过注意力系数的加权求和,以及将原始节点i的初始信息相加,聚合计算得到节点i的新向量特征
其中,σ表示激活函数,Wr、W0表示可学习的权重,Ni是节点i在句法依赖图中所有邻居节点j的集合,R是节点i在句法依赖图中所有边的集合;
(3.24)句子的全局特征如下:
进一步的,所述步骤(4)中将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵,具体公式如下:
HS=contact(H,S)
Q=Wq·HS
K=Wk·HS
V=Wv·HS
A′=softmax(KT·Q)
O=V·A′
其中,contact表示拼接函数,Q表示查询向量,Wq表示查询矩阵,K表示键向量,Wk表示键矩阵,V表示值向量,Wv表示值矩阵,A′表示对查询向量和键向量计算内积并缩放归一化得到的权重,O表示表征向量矩阵。
进一步的,所述步骤(5)中使用softmax分类器来预测文本中事件对的关系,并输出y以获得事件关系分类:
y=relu(O·w+b)
其中,w和b是全连接层的参数和偏置条目。
本发明还采用一种基于TGGAT和CNN的系统运行异常事件关系抽取系统,包括:
获取模块,用于获取文本数据,并进行预处理;
处理模块,用于运用BERT模型处理预处理后的文本数据,生成特征向量矩阵;将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征;将特征向量矩阵输入类型引导图注意网络TGGAT,提取句子的全局特征;
拼接模块,用于将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵;
分类模块,用于使用softmax分类器对加权后的表征向量矩阵进行事件关系分类。
有益效果:本发明相对于现有技术,其显著优点是通过类型引导图注意网络不仅可以捕获长程句法依赖关系,还可以捕获类型信息,这对于捕获事件的全局上下文语义信息至关重要。事件关系提取任务中的大多数句子属于长程难句,其中两个相关单词可能相距遥远,句法结构复杂,不同类型的依赖关系可能会有不同的贡献,使得仅使用句子的表面信息难以准确捕捉全局事件知识。因此,引入句法信息来整理句子的结构,并对句法中的类型相关知识进行建模,以进一步捕捉全局特征。
附图说明
图1为本发明数据库异常事件关系抽取流程示意图;
图2为本发明事件关系抽取系统结构框图;
图3为本发明示例句子的句法依赖树示意图;
图4为本发明中TGGAT的注意力机制的原理结构图。
具体实施方式
实施例1
如图1所示,本实施例中一种基于TGGAT和CNN的系统运行异常事件关系抽取方法,包括以下步骤:
(1)在多个业务系统上的Oracle数据库中获取十多年报警日志记录的上万条文本数据。
(2)对步骤(1)获取的Oracle数据库日志文本数据进行数据清洗与预处理。数据清洗包括主要包括去除不需要的字段、格式不一致的文本;对清洗后的数据库系统日志文本数据进行预处理,将日告警日志划分为句子,并使用BERT+CRF模型提取触发词。例如“由于事务[等待]资源会导致队列资源[陷入]僵局”,其中“等待”和“陷入”是触发单词。然后,根据事件对的类型、原因、伴随、处置、携带和子事件类别,将其标记为五类,分别用数字0、1、2、3和4表示形成数据集。最后,将数据集按8:1:1的比例划分为训练集、验证集和测试集,用于Oracle数据库事件关系提取的模型训练。
(3)将预处理后的数据输入编码器。运用BERT模型处理预处理后的文本数据。将输入的告警文本语句{w1,w2,…,wt}生成为特征向量矩阵V。特征向量矩阵V的表达式如下:
其中,t是序列长度,768是单词向量的维度,cls是句子的初始标签,seq是句子的结尾标签,v表示单词向量矩阵,并且可以通过Bert模型将输入的每个句子转换为特征向量矩阵。
(4)将步骤(3)中生成的特征向量矩阵V输入到多尺度卷积神经网络CNN层,提取句子的局部特征。使用卷积核K对特征向量矩阵V进行卷积计算,对得到局部特征Ft设计池化层降低其维度,最终得到词向量的句法特征。在事件关系提取任务中,K={k1,k2,…,kn}是卷积核的集合,n是卷积核数。具体包括:
(4.11)对输入的特征向量矩阵进行一维卷积,目标词向量可以形成局部特征向量fi。具体公式如下:
fi=ReLu(kivt:t+j-1+b)
其中,v表示输入的单词向量矩阵,j表示卷积核ki的窗口大小,b表示偏置值。
(4.12)卷积核的整个集合K作用于窗口中心词向量,并形成该词向量vt的不同局部特征,得到单词向量vt上下文特征集合的高维向量Ft。n个卷积运算表示如下:
vt=Ft={f1,f2,...,fn}
其中,Ft是在n次卷积运算之后由目标词vt形成的上下文特征的集合。
(4.13)由于Ft是一个多特征的高维向量,使用池化操作来降低其维数。作为显著特征的因果语义角色词可以使用最大池化运算作为特征保留,其表达式为:
Mt=max(Ft)
(4.14)每个局部特征向量fi在最大池化操作之后保留的特征m被完全连接以固定其维度输出,并最终形成中心词向量vt的局部上下文表示,其表达式为:
Vt=Mt={m1,m2,...,mn}
(4.15)对于输入长度为t的特征向量矩阵,使用卷积集K扫描整个文本,以形成具有以下表达式的整个文本的局部特征集S:
S={V1,V2,...,Vt}={M1,M2,...,Mt}
(5)将步骤(3)中生成的特征向量矩阵V输入到TGGAT模型中,将类型依赖性添加到图注意力机制计算中,聚合文本的关键信息。使用Stanford CoreNLP工具获得输入句子的句法依赖树。例如,“由于事务等待资源会导致队列资源陷入僵局”的句法依赖树如图3所示。引入句法信息来整理句子的结构,并对句法中的类型相关知识进行建模,以进一步捕捉全局特征。在BERT编码层之后,使用TGGAT对句法树进行编码,不仅提取单词的语义特征,还提取句法依赖特征,以增强模型对句子的理解,使关系提取更加准确。
通过在句法依赖树中构建输入句子的句法结构,将单词表示为节点,将句法依赖树构造单词之间的依赖关系表示为边,可以将句子转换为图结构进行表示。也就是说,在图中,本文通过句法依赖树将文本中的类型依赖信息转换为相应的邻接矩阵A。矩阵中的每个元素ai,j表示第i个词和第j个词之间是否存在依赖关系。如果两个单词之间存在依赖关系,则ai,j=1,否则ai,j=0,如图4所示。
将特征向量矩阵输入类型引导图注意网络TGGAT,提取句子的全局特征具体包括:
(5.11)为了充分利用句子的句法信息,使用TGGAT通过类型引导对句子的句法依赖树进行建模,以获得与句子中每个单词相关的句法知识,然后有效地利用依赖路径来转移和聚合句子中的单词信息。从而增强了单词的特征表示。每个节点和所有相邻单词的注意力值为:
其中,W表示可学习的权重矩阵,a表示单层前馈反馈网络,表示节点i的语义向量,/>表示节点j的语义向量,/>表示节点i和节点j的依赖路径。
(5.12)使用SoftMax函数对中心节点和所有相邻实体的注意力值进行归一化,归一化后的注意力权重是最终的注意力系数:
(5.13)节点的新向量表示是计算出的注意力系数的加权求和,并将原始节点的初始信息相加。聚合计算得到节点i的新向量特征
其中,σ表示激活函数,Wr、W0表示可学习的权重,Ni是节点i在句法依赖图中所有邻居节点j的集合,R是节点i在句法依赖图中所有边的集合。
(5.14)为了进一步区分不同语境特征的重要性,本方案增加了多头注意机制。注意机制可以满足区分不同上下文的需要,帮助模型关注句子中的一些重要信息,而忽略不相关的上下文信息:
(5.15)输入文本的全局特征矩阵如下:
(6)将步骤(4)中得到的局部特征向量和步骤(5)中得到的全局特征向量进行拼接,使用自注意力来计算文本中每个单词与其他单词之间的注意力值,使单词之间相互关联,从而使每个单词具有不同的重要性,得到加权后的表征向量矩阵,具体公式如下:
HS=contact(H,S)
Q=Wq·HS
K=Wk·HS
V=Wv·HS
A′=softmax(KT·Q)
O=V·A′
其中,contact表示拼接函数,Q表示查询向量,Wq表示查询矩阵,K表示键向量,Wk表示键矩阵,V表示值向量,Wv表示值矩阵,A′表示对查询向量和键向量计算内积并缩放归一化得到的权重,O表示表征向量矩阵。
(7)使用softmax分类器对加权后的表征向量矩阵进行事件关系分类,输出y以获得事件关系分类:
y=relu(O·w+b)
其中,w和b是全连接层的参数和偏置条目。
实施例2
如图2所示,本实施例中一种基于类型引导图注意网络(type-guided graphattention network,TGGAT)和CNN的系统运行异常事件关系抽取系统,包括获取模块,用于获取文本数据,并进行预处理;处理模块,用于运用BERT模型处理预处理后的文本数据,生成特征向量矩阵;将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征;将特征向量矩阵输入类型引导图注意网络TGGAT,提取句子的全局特征;拼接模块,用于将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵;分类模块,用于使用softmax分类器对加权后的表征向量矩阵进行事件关系分类。
运用BERT模型对输入文本进行编码,得到语义特征向量矩阵。然后,为了提取全局信息,类型引导图注意网络以类型依赖知识为引导信号,对文本的句法依赖树进行编码。同时,CNN用于提取局部信息,以增强文本的代表性。
通过类型引导图注意网络不仅可以捕获长程句法依赖关系,还可以捕获类型信息,这对于捕获事件的全局上下文语义信息至关重要。事件关系提取任务中的大多数句子属于长程难句,其中两个相关单词可能相距遥远,句法结构复杂,使得仅使用句子的表面信息难以准确捕捉全局事件知识。因此,引入句法信息来整理句子的结构,并对句法中的类型相关知识进行建模,以进一步捕捉全局特征。
Claims (10)
1.一种基于TGGATT和CNN的系统运行异常事件关系抽取方法,其特征在于,包括以下步骤:
(1)获取文本数据,并进行预处理;
(2)运用BERT模型处理预处理后的文本数据,生成特征向量矩阵;
(3)将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征;将特征向量矩阵输入类型引导图注意网络TGGATT,提取句子的全局特征;
(4)将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵;
(5)使用softmax分类器对加权后的表征向量矩阵进行事件关系分类。
2.根据权利要求1所述的系统运行异常事件关系抽取方法,其特征在于,所述步骤(1)中获取数据库系统告警日志文本数据进行预处理:在多个业务系统上的数据库中获取十多年报警日志记录的上万条文本数据。
3.根据权利要求1所述的系统运行异常事件关系抽取方法,其特征在于,所述步骤(2)中生成的特征向量矩阵V的表达式如下:
其中,t表示序列长度,768表示单词向量的维度,cls表示句子的初始标签,seq表示句子的结尾标签,v表示单词向量矩阵。
4.根据权利要求3所述的系统运行异常事件关系抽取方法,其特征在于,所述步骤(3)中将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征具体包括:
(3.11)对输入的特征向量矩阵进行一维卷积,形成局部特征向量fi:
fi=ReLu(kivt:t+j-1+b)
其中,v表示输入的单词向量矩阵,j表示卷积核ki的窗口大小,b表示偏置值;
(3.12)针对n个卷积核对输入的特征向量矩阵进行n个卷积运算,形成单词向量vt上下文特征集合的高维向量Ft:
Ft={f1,f2,...,fn}
(3.13)对高维向量Ft进行降低维数的最大池化运算,形成单词向量vt的局部上下文特征Mt:
Mt=max(Ft),
(3.14)对于输入长度为t的特征向量矩阵,使用卷积集K扫描整个文本,形成整个文本的局部特征集S:
S={M1,M2,...,Mt}。
5.根据权利要求4所述的系统运行异常事件关系抽取方法,其特征在于,所述步骤(3)中通过Stanford CoreNLP工具获得输入特征向量矩阵中句子的句法依赖树,通过在句法依赖树中构建输入句子的句法结构,将句子转换为图结构进行表示,其中将单词表示为节点,将句法依赖树构造单词之间的依赖关系表示为边;
将特征向量矩阵输入类型引导图注意网络TGGATT,提取句子的全局特征具体包括:
(3.21)使用TGGATT通过类型引导对句子的句法依赖树进行建模,获得与句子中每个单词相关的句法知识,然后利用依赖路径来转移和聚合句子中的单词信息,得到每个节点和所有相邻单词的注意力值为:
其中,W表示可学习的权重矩阵,a表示单层前馈反馈网络,表示节点i的语义向量,/>表示节点j的语义向量,/>表示节点i和节点j的依赖路径;
(3.22)使用SoftMax函数对注意力值进行归一化,得到注意力系数:
αi,r,j=softmax(di,r,t)
(3.23)通过注意力系数的加权求和,以及将原始节点i的初始信息相加,聚合计算得到节点i的新向量特征
其中,σ表示激活函数,Wr、W0表示可学习的权重,Ni是节点i在句法依赖图中所有邻居节点j的集合,R是节点i在句法依赖图中所有边的集合;
(3.24)句子的全局特征如下:
。
6.根据权利要求5所述的系统运行异常事件关系抽取方法,其特征在于,所述步骤(4)中将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵,具体公式如下:
HS=contact(H,S)
Q=Wq·HS
K=Wk·HS
V=Wv·HS
A′=softmax(KT·Q)
O=V·A′
其中,contact表示拼接函数,Q表示查询向量,Wq表示查询矩阵,K表示键向量,Wk表示键矩阵,V表示值向量,Wv表示值矩阵,A′表示对查询向量和键向量计算内积并缩放归一化得到的权重,O表示表征向量矩阵。
7.根据权利要求6所述的系统运行异常事件关系抽取方法,其特征在于,所述步骤(5)中使用softmax分类器来预测文本中事件对的关系,并输出y以获得事件关系分类:
y=relu(O·w+b)
其中,w和b是全连接层的参数和偏置条目。
8.一种基于TGGAT和CNN的系统运行异常事件关系抽取系统,其特征在于,包括:
获取模块,用于获取文本数据,并进行预处理;
处理模块,用于运用BERT模型处理预处理后的文本数据,生成特征向量矩阵;将特征向量矩阵输入多尺度卷积神经网络CNN,提取句子的局部特征;将特征向量矩阵输入类型引导图注意网络TGGATT,提取句子的全局特征;
拼接模块,用于将局部特征和全局特征进行拼接,然后通过自注意力得到经过注意力值加权后的表征向量矩阵;
分类模块,用于使用softmax分类器对加权后的表征向量矩阵进行事件关系分类。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311178825.8A CN117271701A (zh) | 2023-09-13 | 2023-09-13 | 一种基于tggat和cnn的系统运行异常事件关系抽取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311178825.8A CN117271701A (zh) | 2023-09-13 | 2023-09-13 | 一种基于tggat和cnn的系统运行异常事件关系抽取方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117271701A true CN117271701A (zh) | 2023-12-22 |
Family
ID=89207307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311178825.8A Pending CN117271701A (zh) | 2023-09-13 | 2023-09-13 | 一种基于tggat和cnn的系统运行异常事件关系抽取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117271701A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725468A (zh) * | 2024-02-06 | 2024-03-19 | 四川鸿霖科技有限公司 | 一种智能医用电保障方法及系统 |
-
2023
- 2023-09-13 CN CN202311178825.8A patent/CN117271701A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725468A (zh) * | 2024-02-06 | 2024-03-19 | 四川鸿霖科技有限公司 | 一种智能医用电保障方法及系统 |
CN117725468B (zh) * | 2024-02-06 | 2024-04-26 | 四川鸿霖科技有限公司 | 一种智能医用电保障方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Deshmukh et al. | Towards accurate duplicate bug retrieval using deep learning techniques | |
CN104834747B (zh) | 基于卷积神经网络的短文本分类方法 | |
CN110825877A (zh) | 一种基于文本聚类的语义相似度分析方法 | |
WO2020211720A1 (zh) | 数据处理方法和代词消解神经网络训练方法 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN112232087B (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN107844533A (zh) | 一种智能问答系统及分析方法 | |
CN110175221B (zh) | 利用词向量结合机器学习的垃圾短信识别方法 | |
CN116304748B (zh) | 一种文本相似度计算方法、系统、设备及介质 | |
CN114896388A (zh) | 一种基于混合注意力的层级多标签文本分类方法 | |
CN112000802A (zh) | 基于相似度集成的软件缺陷定位方法 | |
CN104881399B (zh) | 基于概率软逻辑psl的事件识别方法和系统 | |
CN111984791A (zh) | 一种基于注意力机制的长文分类方法 | |
CN113742733A (zh) | 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置 | |
WO2021004118A1 (zh) | 一种相关值确定方法及装置 | |
CN117271701A (zh) | 一种基于tggat和cnn的系统运行异常事件关系抽取方法及系统 | |
CN112559741B (zh) | 核电设备缺陷记录文本分类方法、系统、介质及电子设备 | |
CN111581365B (zh) | 一种谓词抽取方法 | |
CN117436451A (zh) | 基于IDCNN-Attention的农业病虫害命名实体识别方法 | |
CN110377753B (zh) | 基于关系触发词与gru模型的关系抽取方法及装置 | |
CN114372145B (zh) | 一种基于知识图谱平台的运维资源动态分配的调度方法 | |
CN113342964B (zh) | 一种基于移动业务的推荐类型确定方法及系统 | |
CN111767388B (zh) | 一种候选池生成方法 | |
CN114595324A (zh) | 电网业务数据分域的方法、装置、终端和非暂时性存储介质 | |
CN113821571A (zh) | 基于bert和改进pcnn的食品安全关系抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |