CN111461004B - 基于图注意力神经网络的事件检测方法、装置和电子设备 - Google Patents
基于图注意力神经网络的事件检测方法、装置和电子设备 Download PDFInfo
- Publication number
- CN111461004B CN111461004B CN202010246814.9A CN202010246814A CN111461004B CN 111461004 B CN111461004 B CN 111461004B CN 202010246814 A CN202010246814 A CN 202010246814A CN 111461004 B CN111461004 B CN 111461004B
- Authority
- CN
- China
- Prior art keywords
- node
- sentence
- feature vector
- vector
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 83
- 238000001514 detection method Methods 0.000 title claims abstract description 33
- 239000013598 vector Substances 0.000 claims abstract description 161
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000000547 structure data Methods 0.000 claims abstract description 36
- 230000002776 aggregation Effects 0.000 claims abstract description 7
- 238000004220 aggregation Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000010586 diagram Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 5
- 230000007935 neutral effect Effects 0.000 claims 2
- 230000008569 process Effects 0.000 abstract description 17
- 230000008520 organization Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种基于图注意力神经网络的事件检测方法,包括:获取输入句子的图结构数据;将图结构数据的每个该节点输入到预设的图注意力神经网络以更新该节点的特征向量;根据更新后的每个节点的特征向量判定句子的触发词;更新每个节点的特征向量包括:计算当前节点在句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;根据当前节点在句子中的权重,以及当前节点与邻居节点之间的相关系数权重,计算当前节点赋予给邻居节点的注意力分数;根据注意力分数更新当前节点的特征向量。本方案在利用邻居节点的特征聚合更新中心节点的过程中,更加全面的考虑了中心节点对其邻居节点赋予的权重参数问题,大大提高了事件检测的精确率。
Description
技术领域
本申请涉及自然语言处理领域,尤其涉及一种基于图注意力神经网络的事件检测方法、装置和电子设备。
背景技术
目前将图神经网络应用于事件领域的方法主要有两种:一种是利用具有参数感知池的图卷积神经网络进行事件抽取。二是基于注意力的图卷积神网络进行事件抽取。上述的两种方法都是通过利用句子的语法依赖树的边将序列结构的数据转为图结构数据,将序列结构数据的单词分类任务建模成图结构数据的节点分类任务。同时在图结构数据的节点分类问题还有一种利用图注意力网络神经网络进行节点分类的方法。
以上方法通过利用图中一个节点的所有邻居节点的特征对本节点进行信息聚合并更新本节点的特征,使得每个节点具有更加丰富的语义特征,提高节点分类的准确性。
发明内容
有鉴于此,本说明书实施例提供了一种基于图注意力神经网络的事件检测方法、装置和电子设备,用于提高事件检测的准确率。
本申请实施例采用下述技术方案:
本说明书实施例提供了一种基于图注意力神经网络的事件检测方法,所述方法包括:
获取输入句子的图结构数据;
针对图结构数据的任一节点,将所述图结构数据的每个该节点输入到预设的图注意力神经网络以更新该节点的特征向量;
根据更新后的每个节点的特征向量判定所述句子的触发词;
确定触发词的类别,根据触发词类别确定所述句子对应的事件;
其中,更新每个节点的特征向量包括:
计算当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;
根据当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;
根据所述注意力分数更新当前节点的特征向量。
本说明书实施例还提供了一种电子设备,包括:至少一个处理器和存储器,所述存储器存储有程序,并且被配置成由所述至少一个处理器执行上述的事件检测方法。
本说明书实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现上述的事件检测方法。
本说明书实施例还提供了一种图注意力神经网络的事件检测装置,所述装置包括:
获取单元,所述获取单元用于获取输入句子的图结构数据;
更新单元,所述更新单元用于对所述图结构数据的每个节点的特征向量进行更新;
识别单元,所述识别单元用于根据更新后的每个节点的特征向量判定所述句子的触发词;
处理单元,所述处理单元用于确定触发词的类别,以及根据触发词类别确定所述句子对应的事件;
其中,所述更新单元更新每个节点的特征向量,具体包括:
计算当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;
根据当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;
根据所述注意力分数更新当前节点的特征向量。
本说明书实施例还提供了一种图注意力神经网络的事件检测装置,其特征在于,所述装置包括:
特征向量表达模块:所述特征向量表达模块用于获取输入句子中的每个单词的特征向量,得到具有序列结构的第一句子向量;以及,将所述第一句子向量输入到预设神经网络,得到具有序列结构的且具有上下文语义特征的第二句子向量,所述第二句子向量包含若干与所述每个单词的特征向量对应的向量;
数据结构转换模块,所述数据结构转换模块用于将所述第二句子向量的序列结构转换为图结构,其中所述图结构的每个节点的特征向量为所述第二句子向量中的特征向量;
图神经网络计算模块,所述图神经网络计算模块用于计算所述图结构数据的当前节点在所述句子中的权重、当前节点与当前节点的邻居节点之间的相关系数权重;以及根据当前节点在所述句子中的权重、当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;并根据所述注意力分数更新当前节点的特征向量;
处理模块,所述处理模块用于根据更新后的节点的特征向量,判定所述句子的触发词,以及确定所述触发词的类别,并根据触发词类别确定所述句子对应的事件。
本申请的方案通过将序列结构的句子转为图结构数据,并通过一定的权重将邻居节点信息融合到中心节点中,使中心节点拥有更加丰富的语义信息,这个权重参数不仅考虑到中心节点在整个句子中的语义权重信息,还考虑到了中心节点和邻居节点的相关系数权重信息来共同决定最终的权重参数。进一步地,本申请的方案还通过设置级联多头图注意力神经网络来获取更加丰富的语义信息,同时为了让原语义信息在图注意力神经网络中的信息不流失,通过使用残差网络的形式,使得原语义信息无损的向前传播。该机制较之前的图神经网络,在利用邻居节点的特征聚合更新中心节点的过程中,更加全面的考虑了中心节点对其邻居节点赋予的权重参数问题,大大提高了事件检测的精确率,召回率以及F1值。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图:
图1为本说明书实施例的基于图注意力神经网络的事件检测方法的主要流程图;
图2为本说明书实施例的图注意力神经网络的多头组织方式;
图3为本说明书实施例的图注意力神经网络模型;
图4为本说明书实施例的图注意力神经网络的事件检测装置的结构示意图;
图5为本说明书实施例的图注意力神经网络的事件检测装置的结构示意图。
具体实施方式
如背景技术中所述的方法,这些方法在节点更新过程中对邻居节点赋予的权重考虑的不全面,并没有将当前节点的重要性和当前节点与邻居节点的相关性权重共同考虑,从而导致在利用邻居节点信息进行聚合的过程中,每个节点没有获得与之相关的最重要的节点信息,影响节点分类的效果。
图是计算机中的一种数据结构,图的基本构成单元是顶点和边。图神经网络(GNN))是以图结构为基础的,在图上运行的一种神经网络结构。图注意力网络即在图神经网络的基础上引入了注意力机制。
本申请将图注意力神经网络技术引入事件抽取领域。过去基于事件抽取的模型大部分基于序列结构模型,这可能会丢失长距离依赖关系,本申请的方案通过使用图神经网络将序列结构通过语法依赖树的边转为图结构数据,并通过一定的权重将邻居节点信息融合到中心节点中,使中心节点拥有更加丰富的语义信息,这个权重参数不仅考虑到中心节点在整个句子中的语义权重信息,还考虑到了中心节点和邻居节点的相关系数权重信息来共同决定最终的权重参数。进一步地,本申请的方案还通过设置级联多头图注意力神经网络来获取更加丰富的语义信息,同时为了让原语义信息在图注意力神经网络中的信息不流失,通过使用残差网络的形式,使得原语义信息无损的向前传播。该机制较之前的图神经网络,在利用邻居节点的特征聚合更新中心节点的过程中,更加全面的考虑了中心节点对其邻居节点赋予的权重参数问题,大大提高了事件检测的精确率,召回率以及F1值。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
图1为本说明书实施例的基于图注意力神经网络的事件检测方法的主要流程图。本说明书实施例的方法主要包括:
S110:获取输入句子的图结构数据。
在一种具体的实施方式中,获取输入句子的图数据结构之前,先获取具有上下文语义的句子向量。具有上下文语义的句子向量可以按照如下方式获取:
针对输入的句子W,对句子中的每个单词进行编码,将句子中的每个单词wi都转换为特征向量xi;特征向量xi可以包括单词wi的词义特征、字符特征、词性特征、位置特征和实体特征。其中:wi代表句子中第i个单词,xi代表第i个单词转换后的特征向量,i=1,2,3…n,n为正整数。
wi的词义特征:可以使用BERT预训练的向量进行单词词义的特征表示。
wi的字符特征:为了得到更加丰富的单词语义特征,如时态、词缀等,可以通过将字符进行编码,并输入到不同卷积核的卷积神经网络中,使用最大池进行抽取单词中特征最大的部分,作为单词特征向量的一部分特征表示。
wi的词性特征:可以通过查找随机初始化的词性矩阵进行特征表示。
wi的位置特征:可以通过使用句子中的每个单词的绝对位置进行编码,并输入到随机初始化的编码层中进行位置向量的特征表示。
wi的实体特征:可以使用BIO标注格式对识别类型标签,本说明书实施例使用语料库标注的所有的实体标签,并求和所有可能的实体类型特征。
上述对每个单词wi的词义特征、字符特征、词性特征、位置特征和实体特征的获取方式可以是本领域熟知的获取方式,因此本说明书不再进行详细阐述。经过上述操作,把每个单词wi的词义特征、字符特征、词性特征、位置特征和实体特征合并后转换为特征向量xi,然后把句子W转换为序列结构的第一句子向量X=x1,x2,...,xn。进一步地,再将第一句子向量X输入到预设神经网络(可以是双向循环神经网络,如BiLSTM神经网络层),使每个单词的特征向量都具有上下文语义特征,从而得到序列结构的且具有上下文语义的第二句子向量P,其中,第二句子向量表示为:pi即代表第二句子向量中每个单词的特征向量;/>表示实数集。
得到第二句子向量P之后,再执行步骤S110,获取输入句子的图结构数据。在该步骤中,针对第二句子向量P进行数据结构转换,例如可以利用斯坦福自然语言处理工具对句子进行语法依赖树的标注,通过使用依赖树的边将句子的序列结构转换为图结构。其中,所述图结构的每个节点vi的特征向量为所述第二句子向量P中的每个单词的特征向量pi。
具体而言,在进行图结构转换时,通过使用依赖树的边将句子的序列结构转为无向图结构G=(V,ε),其中,V是图结构中的节点,V=v1,v2,...,vn;ε是边集合。在V中的每个节点vi(i=1,…,n)是每个第二句子向量的每个单词在图结构中的节点表示,对于每个边(vi,vj)∈ε代表了存在一条有向语法依赖边从vi指向vj,为了使信息沿着依赖边反向传播,当存在vi到vj的有向边时,再添加从vj到vi的有向边,即(vj,vi)∈ε'。进一步,对于所有的节点,添加自环边即vi到vi的边,即(vi,vi)∈ε”,对于所有的vi∈V。为了简便,本说明书实施例不考虑不同类型的依赖边的权重大小,都将其视为同样的权重1,但是为了说明边的不同指向关系,本说明书实施例设置3种类型的边,用于说明不同的指向关系,3种类型的边如下:
S120:针对图结构数据的任一节点,将所述图结构数据的每个该节点输入到预设的图注意力神经网络以更新该节点的特征向量。
在该步骤中,将所述图结构的每个节点vi输入到预设的图注意力神经网络以更新每个节点vi的特征向量。在计算并更新每个节点vi的特征向量之前,为了得到更加抽象的特征,将第二句子向量 再输入到线性层中,该线性层的公式如下:
H=WpP+bp
其中,H为经过线性层后输出的第三句子向量,Wp为线性层的权重矩阵参数,bp为线性层的偏置项参数,/>P为第二句子向量。
步骤S120中,更新每个节点vi的特征向量包括:
S210:计算节点vi在所述句子中的权重。节点vi在所述句子中的权重的计算公式如下:
其中,vi代表所述图结构数据中的第i个节点,i=1,2,3…n,n为正整数;,为节点vi在所述句子中的权重,/>为线性层的权重矩阵参数,/> 为线性层的偏置项参数,/>σ为非线性激活函数,hi为所述线性层输出的第i个单词的特征向量。
S220:计算节点vi与节点vi的邻居节点vj之间的相关系数权重。
为了计算简便,可以设置共享参数的权重矩阵这个矩阵会应用到每个节点中,其中每个节点vi与节点vi的邻居节点vj之间的相关系数权重的计算公式如下:
其中,为节点vi与节点vi的邻居节点vj之间的相关系数权重,/>为线性层的权重矩阵参数,其维度变化为:/>为线性层的权重矩阵,/>σ为非线性激活函数;hi为线性层输出的第三句子向量中的第i个单词的特征向量;hj为线性层输出的第三句子向量中的第j个单词的特征向量。在图结构中,hi为节点vi的单词的特征向量,hj为节点vj的单词的特征向量。
上述计算节点vi与节点vi的邻居节点vj之间的相关系数权重的公式在实际操作中需要将两个节点的维度进行并列操作,这会占用大量资源,在实际优化中,可以将上述公式修改如下:
其中,vj所述图结构数据中与第i个节点相邻的第j个节点,为相关系数权重,/>为线性层的权重矩阵参数,/> σ为非线性激活函数;hi为线性层输出的第i个单词的特征向量;hj为线性层输出的第j个单词的特征向量。
即,通过加法运算来计算节点vi和邻居节点vj的相关系数。实验证明这两个公式达到的效果是相同的,而第二个计算相关系数权重的公式可以占用更少的计算资源。
在步骤S220中,为了规格化节点在不同类型边对应的每个邻居节点之间的权重参数,对于节点vi的每种类型边的每个邻居节点vj,进行归一化操作,得到归一化后的相关系数权重,其表示如下:
其中,为归一化后的相关系数权重,/>为归一化前的相关系数权重;vk代表节点vi的所有邻居节点。
S230:计算节点vi赋予给vj的注意力分数。
该步骤中,根据上述计算得到的节点vi在所述句子中的权重、节点vi与节点vi的邻居节点vj之间的相关系数权重(上述进行归一化后得到的相关系数权重),进行计算,公式如下:
其中,为节点vi赋予给vj的注意力分数,/>为节点vi在所述句子中的权重,/>为归一化后的节点vi与节点vi的邻居节点vj之间的相关系数权重。
S240:根据所述注意力分数更新节点vi的特征向量。节点vi的特征向量的更新公式如下:
其中,为更新后的节点vi的特征向量,f为激活函数,/>为节点vi赋予给vj的注意力分数,Wh为线性层的权重矩阵,pj为第二句子向量中第j个单词的特征向量。
返回步骤S120,在该步骤中,作为一种具体的示例,为了得到更加丰富的语义表示,预设的图注意力神经网络可以采用多头图注意力神经网络。上述对每个节点vi的特征向量的更新过程为多头图注意力神经网络一个头的更新计算,即上述节点vi的特征向量的更新公式的输出为多头图注意力神经网络单独一个头的输出结果。
参照图2,图2为本说明书实施例的图注意力神经网络的多头组织方式。如图2所示,在本组织方式中,每层多头组织使用3个级联头,下一个头的输入不仅包括前一个头的输出,还包括了前一个头的输入,通过这种方式能够得到更加丰富的语义表示。作为示例,定义为第k个头的输入,/>为第k-1个头的输出,则第k个头的输入/>的公式表示如下:
其中,为第k-1个头的输入。
在进行更新节点vi的特征向量的计算过程中,将多头图注意力神经网络第一个头的输入初始化为第二句子向量,即则第k个头的输出表示为:
其中,f为非线性激活函数,为线性层的权重矩阵,/> 为第k个头中的节点vi赋予给vj的注意力分数;/>为第k个头的输入。
在上述公式中,的计算方式采用即步骤S210-S230的计算过程。
进一步地,将每个头的输出进行联合,其公式表示如下:
其中,||代表连接操作。为了进一步进行信息的聚合再次采用图注意力网络进行信息的聚合,得到最终的节点更新结果,公式如下:
其中:h'i'为最终更新后的节点vi的特征向量,f是非线性激活函数,a'T(vi,vj)是当前头(可以理解为多头组织中的后一个头)中节点vi赋予给vj的注意力分数;Ws为线性层的权重矩阵,h'i为多个头的输出进行联合后的输出。
以上得到的最终的节点更新结果h'i'是一层多头图注意力神经网络的输出向量。此时完成了一层多头图注意力网络模型的计算,即每个节点都获得了其一阶邻居节点的语义信息。进一步,为了防止在图注意力神经网络中的原语义信息节点的丢失,本说明书实施例采用了残差网络的结构,即,对第一层多头组织最终输出的节点更新结果h”i作进一步计算输出其公式表示如下:
其中,pi为第二句子向量中第i个单词的特征向量。
在本说明书实施例中,为了使节点语义更加丰富,加入其阶邻居节点的语义,即使用/>层多头图注意力神经网络模型,这样每个节点就会有/>阶邻居的节点的语义信息。某些情况下,两个单词之间的距离可能会小于/>因此,本说明书实施例采用高速神经网络单元来防止信息的过渡传播。作为示例,在步骤S120中,可以采用两层多头组织。第二层多头组织的输入为Q'(1),其公式表示如下:
t=σ(WwB+bw)
Q'(1)=Q(1)+t⊙f'(WxB+bx)+(1-t)⊙B
其中:σ为非线性激活函数,Ww,Wx为线性层的权重矩阵B为第一句子向量中的词性特征(即使用BERT预训练的向量进行单词词义的特征表示),bw,bx为线性层的偏置项,/> 其中,即上述的第一层多头组织最终输出的节点更新结果通过残差网络后的输出;⊙是元素级别的乘法操作;f'是非线性激活函数。
以上,是采用两层多头图注意力神经网络对输入的图结构数据中每个节点vi的特征向量进行更新的计算过程。本说明书实施例的方案不仅考虑到中心节点在整个句子中的语义权重信息,还考虑到了中心节点和邻居节点的相关性权重信息来共同决定最终的权重参数。不仅如此,本方案还通过设置级联多头图注意力神经网络来获取更加丰富的语义信息,同时为了让原语义信息在图注意网络中的信息不流失,通过使用残差网络的形式来进行使得原语义信息无损的向前传播。该机制较之前的图神经网络,在利用邻居节点的特征聚合更新中心节点的过程中,更加全面的考虑了中心节点对其邻居节点赋予的权重参数问题,大大提高了事件检测的精确率,召回率以及F1值。
S130:根据更新后的每个节点的特征向量判定所述句子的触发词。
S140:确定触发词的类别,根据触发词类别确定所述句子对应的事件。
在该步骤中,将多头图注意力神经网络的输出,输入到线性分类器中进行分类。进一步地,将多头图注意力神经网络的输出和第一句子向量中的词性特征(即使用BERT预训练的向量进行单词词义的特征表示),这样一来,可以提高在触发词分类阶段的性能。因此,本说明书实施例使用的分类器表示如下:
y=softmax(Wt(Q'(l)+B)+bt)
其中,Wt为线性层的权重矩阵,bt为线性层的偏置项,/>Q'(l)为l层的多头图注意力神经网络的输出(即按照上文中第二层多头组织的输入Q'(1)的计算方式得到的多头组织的输出);B为第一句子向量中的词性特征。
综上所述,参照图3,图3为本说明书实施例的图注意力神经网络模型。如图3所示,本说明书实施例提供的方法可以大体总结为三部分,第一部分为图3的左侧部分,该部分能够获得具有上下文语义的句子向量;第二部分为中间的图注意力神经网络层,第一部分经过BiLSTM神经网络层后的向量输入到采用了两层的多头图注意力神经网络中,每层多头图注意力神经网络使用3个级联头,该部分将第一部分输入的向量转换为图结构,并对图结构的每个节点进行更新,最后输出更新后的每个节点的特征向量;第三部分为图3中的右侧部分,第二部分的输出,输入到第三部分以得到每个触发词的类别,即可确定句子对应的事件。
在实际应用的环境中,作为一种具体的实施方式,本说明书方案提供的图注意力神经网络模型,在训练过程中的实验参数可以为:设置的BERT词向量的维度为768维,词性特征维度和实体类型特征维度都为50维,位置特征维度为10维,字符编码的维度为50,BiLSTM的隐藏维度为384,使用两层的多头图注意力神经网络模型,每层使用3个级联头。每个头的隐藏维度为400,句子固定长度设置为50,学习率设置为1e-5。其中训练数据为事件抽取的经典数据集ACE2005的英文语料,该语料按照公认的数据划分方式进行模型的训练和验证以及测试。由于是分类问题,该模型的损失函数为交叉熵损失函数,采用AdaDelta算法进行梯度下降。本说明书实施例不对具体的模型训练过程作详细阐述。
本说明书实施例还提供了一种电子设备,包括:至少一个处理器和存储器,所述存储器存储有程序,并且被配置成由所述至少一个处理器执行上述的事件检测方法。
本说明书实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现上述的事件检测方法。
基于一个总的发明构思,本说明书实施例还提供了一种图注意力神经网络的事件检测装置。参照图4,图4为本说明书实施例的图注意力神经网络的事件检测装置的结构示意图。如图4所示,该装置包括:
获取单元401,获取单元401用于获取输入句子的图结构数据;
更新单元402,更新单元402用于对图结构数据的每个节点的特征向量进行更新;
识别单元403,识别单元403用于根据更新后的每个节点的特征向量判定句子的触发词;
处理单元404,处理单元404用于确定触发词的类别,以及根据触发词类别确定所述句子对应的事件;
其中,更新单元更新每个节点的特征向量,具体包括:
计算当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;
根据当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;
根据所述注意力分数更新当前节点的特征向量。
关于该装置的具体描述参见上文中对图注意力神经网络的事件检测方法的说明,在此不再赘述。
基于一个总的发明构思,本说明书实施例还提供了一种图注意力神经网络的事件检测装置。参照图5,图5为本说明书实施例的图注意力神经网络的事件检测装置的结构示意图。如图5所示,该装置包括:
特征向量表达模块501:特征向量表达模块501用于获取输入句子中的每个单词的特征向量,得到具有序列结构的第一句子向量;以及,将所述第一句子向量输入到预设神经网络,得到具有序列结构的且具有上下文语义特征的第二句子向量,所述第二句子向量包含若干与所述每个单词的特征向量对应的向量;
数据结构转换模块502,数据结构转换模块502用于将所述第二句子向量的序列结构转换为图结构,其中所述图结构的每个节点vi的特征向量为所述第二句子向量中的特征向量;
图神经网络计算模块503,图神经网络计算模块503用于计算所述图结构数据的当前节点在所述句子中的权重、当前节点与当前节点的邻居节点之间的相关系数权重;以及根据当前节点在所述句子中的权重、当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;并根据所述注意力分数更新当前节点的特征向量;
处理模块504,处理模块504用于根据更新后的节点的特征向量,判定所述句子的触发词,以及确定所述触发词的类别,并根据触发词类别确定所述句子对应的事件。
其中,每个单词的特征向量包括:词义特征、字符特征、词性特征、位置特征和实体特征;所示预设神经网络为BiLSTM神经网络层;数据结构转换模块502采用依赖树的边将句子的序列结构转换为图结构;图神经网络计算模块采用两层多头图注意力神经网络。
关于该装置的具体描述参见上文中对图注意力神经网络的事件检测方法的说明,在此不再赘述。
上述对本说明书特定实施例进行了描述,其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,附图中描绘的过程不一定必须按照示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书实施例提供的装置、设备、非易失性计算机可读存储介质与方法是对应的,因此,装置、设备、非易失性计算机存储介质也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置、设备、非易失性计算机存储介质的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field ProgrammableGateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware DescrIP地址tion Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescrIP地址tion Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware DescrIP地址tion Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware DescrIP地址tion Language)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated Circuit Hardware DescrIP地址tion Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、AtmelAT91SAM、MicrochIP地址PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带式磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (17)
1.一种基于图注意力神经网络的事件检测方法,其特征在于,所述方法包括:
获取输入句子的图结构数据;
针对图结构数据的任一节点,将所述图结构数据的每个该节点输入到预设的图注意力神经网络以更新该节点的特征向量;
根据更新后的每个节点的特征向量判定所述句子的触发词;
确定触发词的类别,根据触发词类别确定所述句子对应的事件;
其中,更新每个节点的特征向量包括:
计算当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;
根据当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;
根据所述注意力分数更新当前节点的特征向量。
2.根据权利要求1所述的事件检测方法,其特征在于,在获取输入句子的图结构数据之前,所述方法还包括:
获取输入句子中的每个单词的特征向量,得到具有序列结构的第一句子向量;
将所述第一句子向量输入到预设神经网络,得到具有序列结构的且具有上下文语义特征的第二句子向量,所述第二句子向量包含若干与所述每个单词的特征向量对应的向量。
3.根据权利要求2所述的方法,其特征在于,所述获取输入句子的图结构数据,包括:
针对所述第二句子向量,通过依赖树的边将句子的序列结构转换为图结构;其中,所述图结构的每个节点的特征向量为所述第二句子向量中的特征向量。
4.根据权利要求3所述的方法,其特征在于,在更新每个节点的特征向量之前,所述方法还包括:
将所述第二句子向量输入到线性层,得到第三句子向量;
其中,所述线性层的计算公式如下:
H=WpP+bp
其中,H为经过线性层后输出的第三句子向量,Wp为线性层的权重矩阵参数,其中,/>表示实数集;bp为线性层的偏置项参数,/>P为第二句子向量。
5.根据权利要求4所述的方法,其特征在于,在更新每个节点的特征向量的步骤中,计算节点vi在所述句子中的权重的公式如下:
其中,vi代表所述图结构数据中的第i个节点,i=1,2,3…n,n为正整数;vj为所述图结构数据中与第i个节点相邻的第j个节点,为节点vi在所述句子中的权重,/>为线性层的权重矩阵参数,/> 为线性层的偏置项参数,/>σ为非线性激活函数,hi为所述线性层输出的第i个单词的特征向量。
6.根据权利要求5所述的方法,其特征在于,在更新每个节点vi的特征向量的步骤中,计算节点vi与节点vi的邻居节点vj之间的相关系数权重的公式为:
其中,vj为所述图结构数据中与第i个节点相邻的第j个节点,为相关系数权重,为线性层的权重矩阵参数,/> σ为非线性激活函数;hi为线性层输出的第i个单词的特征向量;hj为线性层输出的第j个单词的特征向量。
7.根据权利要求6所述的方法,其特征在于,更新每个节点vi的特征向量的步骤还包括:
对节点vi与节点vi的邻居节点vj之间的相关系数权重进行归一化操作,得到归一化后的相关系数权重:
其中,为归一化后的相关系数权重,/>为归一化前的相关系数权重;vk代表节点vi的所有邻居节点。
8.根据权利要求7所述的方法,其特征在于,在更新每个节点vi的特征向量的步骤中,计算节点vi赋予给vj的注意力分数,公式如下:
其中,为节点vi赋予给vj的注意力分数,/>为节点vi在所述句子中的权重,/>为归一化后的节点vi与节点vi的邻居节点vj之间的相关系数权重。
9.根据权利要求8所述的方法,其特征在于,在更新每个节点vi的特征向量的步骤中,根据所述注意力分数更新节点vi的特征向量的公式如下:
其中,为更新后的节点vi的特征向量,f为激活函数,/>为节点vi赋予给vj的注意力分数,Wh为线性层的权重矩阵,pj为第二句子向量中第j个单词的特征向量。
10.根据权利要求9所述的方法,其特征在于,所述图注意力神经网络采用多头图注意力神经网络;所述更新每个节点vi的特征向量还包括:
使所述图结构的节点vi的特征向量依次经过所述多头图注意力神经网络的每个头,并通过所述图注意神经网络进行信息聚合后输出更新后的节点vi的特征向量h″i;
其中:f是非线性激活函数,a'T(vi,vj)是当前头中节点vi赋予给vj的注意力分数;Ws为线性层的权重矩阵, ||表示将每个头的输出/>进行联合的连接操作;
每个头的输出的公式如下:
其中,f为非线性激活函数,为线性层的权重矩阵,/> 为第k个头中的节点vi赋予给vj的注意力分数;/>为第k个头的输入,为第k-1个头的输入,/>为第k-1个头的输出。
11.根据权利要求10所述的方法,其特征在于,所述多头图注意力神经网络包括两层;
所述多头图注意力神经网络的第二层的输入为Q'(1),其公式如下:
t=σ(WwB+bw)
Q'(1)=Q(1)+t⊙f'(WxB+bx)+(1-t)⊙B
其中:σ为非线性激活函数,Ww,Wx为线性层的权重矩阵B为第一句子向量中的词性特征,bw,bx为线性层的偏置项,/>⊙是元素级别的乘法操作;f'是非线性激活函数;/>其中,/>h”i为第一层多头图注意力神经网络的输出,pi为第二句子向量中第i个单词的特征向量。
12.根据权利要求11所述的方法,其特征在于,根据更新后的每个节点vi的特征向量检测每个节点的触发词类别,具体包括:
将更新后的每个节点vi的特征向量输入到线性分类器中,所述线性分类器表示如下:
y=softmax(Wt(Q'(l)+B)+bt)
其中,Wt为线性层的权重矩阵,bt为线性层的偏置项,/>Q'l为l层的多头图注意力神经网络的输出;B为第一句子向量中的词性特征。
13.根据权利要求2至12中任一项所述的方法,其特征在于,所述每个单词的特征向量包括:词义特征、字符特征、词性特征、位置特征和实体特征;
和/或,所述预设神经网络为BiLSTM神经网络层。
14.一种电子设备,包括:至少一个处理器和存储器,所述存储器存储有程序,并且被配置成由所述至少一个处理器执行权利要求1至13中任一项所述的事件检测方法。
15.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现权利要求1至13中任一项所述的事件检测方法。
16.一种图注意力神经网络的事件检测装置,其特征在于,所述装置包括:
获取单元,所述获取单元用于获取输入句子的图结构数据;
更新单元,所述更新单元用于对所述图结构数据的每个节点的特征向量进行更新;
识别单元,所述识别单元用于根据更新后的每个节点的特征向量判定所述句子的触发词;
处理单元,所述处理单元用于确定触发词的类别,以及根据触发词类别确定所述句子对应的事件;
其中,所述更新单元更新每个节点的特征向量,具体包括:
计算当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;
根据当前节点在所述句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;
根据所述注意力分数更新当前节点的特征向量。
17.一种图注意力神经网络的事件检测装置,其特征在于,所述装置包括:
特征向量表达模块:所述特征向量表达模块用于获取输入句子中的每个单词的特征向量,得到具有序列结构的第一句子向量;以及,将所述第一句子向量输入到预设神经网络,得到具有序列结构的且具有上下文语义特征的第二句子向量,所述第二句子向量包含若干与所述每个单词的特征向量对应的向量;
数据结构转换模块,所述数据结构转换模块用于将所述第二句子向量的序列结构转换为图结构,其中所述图结构的每个节点的特征向量为所述第二句子向量中的特征向量;
图神经网络计算模块,所述图神经网络计算模块用于计算所述图结构数据的当前节点在所述句子中的权重、当前节点与当前节点的邻居节点之间的相关系数权重;以及根据当前节点在所述句子中的权重、当前节点与当前节点的邻居节点之间的相关系数权重,计算当前节点赋予给当前节点的邻居节点的注意力分数;并根据所述注意力分数更新当前节点的特征向量;
处理模块,所述处理模块用于根据更新后的节点的特征向量,判定所述句子的触发词,以及确定所述触发词的类别,并根据触发词类别确定所述句子对应的事件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010246814.9A CN111461004B (zh) | 2020-03-31 | 2020-03-31 | 基于图注意力神经网络的事件检测方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010246814.9A CN111461004B (zh) | 2020-03-31 | 2020-03-31 | 基于图注意力神经网络的事件检测方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111461004A CN111461004A (zh) | 2020-07-28 |
CN111461004B true CN111461004B (zh) | 2023-08-22 |
Family
ID=71685784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010246814.9A Active CN111461004B (zh) | 2020-03-31 | 2020-03-31 | 基于图注意力神经网络的事件检测方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111461004B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069822B (zh) * | 2020-09-14 | 2024-09-06 | 上海秒针网络科技有限公司 | 一种词向量表示的获取方法、装置、设备及可读介质 |
CN112487143B (zh) * | 2020-11-30 | 2022-11-18 | 重庆邮电大学 | 一种基于舆情大数据分析的多标签文本分类方法 |
CN112507077B (zh) * | 2020-12-15 | 2022-05-20 | 杭州电子科技大学 | 基于关系图注意力神经网络的事件时序关系识别方法 |
CN112668319B (zh) * | 2020-12-18 | 2022-03-25 | 昆明理工大学 | 基于中文信息和越南语句法指导的越南语新闻事件检测方法 |
CN113033194B (zh) * | 2021-03-09 | 2023-10-24 | 北京百度网讯科技有限公司 | 语义表示图模型的训练方法、装置、设备和存储介质 |
CN113157919B (zh) * | 2021-04-07 | 2023-04-25 | 山东师范大学 | 语句文本方面级情感分类方法及系统 |
CN113298116B (zh) * | 2021-04-26 | 2024-04-02 | 上海淇玥信息技术有限公司 | 基于注意力权重的图嵌入特征提取方法、装置及电子设备 |
CN113240089B (zh) * | 2021-05-20 | 2022-11-25 | 北京百度网讯科技有限公司 | 基于图检索引擎的图神经网络模型训练方法和装置 |
CN113469450B (zh) * | 2021-07-14 | 2024-05-10 | 华润数字科技有限公司 | 一种数据分类方法、装置、计算机设备及存储介质 |
CN114116995B (zh) * | 2021-10-11 | 2024-07-26 | 上海交通大学 | 基于增强图神经网络的会话推荐方法、系统及介质 |
CN115062146B (zh) * | 2022-06-07 | 2024-06-28 | 重庆邮电大学 | 基于BiLSTM结合多头注意力的中文重叠事件抽取系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977235A (zh) * | 2019-04-04 | 2019-07-05 | 吉林大学 | 一种触发词的确定方法和装置 |
CN110032641A (zh) * | 2019-02-14 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 计算机执行的、利用神经网络进行事件抽取的方法及装置 |
CN110704598A (zh) * | 2019-09-29 | 2020-01-17 | 北京明略软件系统有限公司 | 一种语句信息的抽取方法、抽取装置及可读存储介质 |
CN110765265A (zh) * | 2019-09-06 | 2020-02-07 | 平安科技(深圳)有限公司 | 信息分类抽取方法、装置、计算机设备和存储介质 |
CN110866190A (zh) * | 2019-11-18 | 2020-03-06 | 支付宝(杭州)信息技术有限公司 | 训练用于表征知识图谱的图神经网络模型的方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220231A (zh) * | 2016-03-22 | 2017-09-29 | 索尼公司 | 用于自然语言处理的电子设备和方法以及训练方法 |
-
2020
- 2020-03-31 CN CN202010246814.9A patent/CN111461004B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032641A (zh) * | 2019-02-14 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 计算机执行的、利用神经网络进行事件抽取的方法及装置 |
CN109977235A (zh) * | 2019-04-04 | 2019-07-05 | 吉林大学 | 一种触发词的确定方法和装置 |
CN110765265A (zh) * | 2019-09-06 | 2020-02-07 | 平安科技(深圳)有限公司 | 信息分类抽取方法、装置、计算机设备和存储介质 |
CN110704598A (zh) * | 2019-09-29 | 2020-01-17 | 北京明略软件系统有限公司 | 一种语句信息的抽取方法、抽取装置及可读存储介质 |
CN110866190A (zh) * | 2019-11-18 | 2020-03-06 | 支付宝(杭州)信息技术有限公司 | 训练用于表征知识图谱的图神经网络模型的方法及装置 |
Non-Patent Citations (1)
Title |
---|
刘竹辰,陈浩,于艳华,李劼.词位置分布加权TextRank 的关键词提取.CNKI.2018,(第9期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111461004A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111461004B (zh) | 基于图注意力神经网络的事件检测方法、装置和电子设备 | |
US11132512B2 (en) | Multi-perspective, multi-task neural network model for matching text to program code | |
CN110309283B (zh) | 一种智能问答的答案确定方法及装置 | |
CN111914067A (zh) | 中文文本匹配方法及系统 | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
WO2023045605A9 (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN111401062B (zh) | 文本的风险识别方法、装置及设备 | |
Fu et al. | Long short-term memory network over rhetorical structure theory for sentence-level sentiment analysis | |
CN113704460A (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
CN112417093B (zh) | 一种模型训练的方法及装置 | |
CN114358243A (zh) | 通用特征提取网络训练方法、装置及通用特征提取网络 | |
CN116205290A (zh) | 一种基于中间特征知识融合的知识蒸馏方法和装置 | |
Verma et al. | Dissecting word embeddings and language models in natural language processing | |
CN117456028A (zh) | 基于文本进行图像生成的方法及装置 | |
CN111339256A (zh) | 用于文本处理的方法和装置 | |
CN117034942B (zh) | 一种命名实体识别方法、装置、设备及可读存储介质 | |
CN116151355B (zh) | 一种模型训练和业务执行的方法、装置、介质及设备 | |
Wakchaure et al. | A scheme of answer selection in community question answering using machine learning techniques | |
CN113704466B (zh) | 基于迭代网络的文本多标签分类方法、装置及电子设备 | |
CN116127316A (zh) | 模型的训练方法、文本摘要生成方法及相关设备 | |
CN116150334A (zh) | 基于UniLM模型和Copy机制的中文共情语句训练方法及系统 | |
Hoojon et al. | BiLSTM with CRF Part-of-Speech Tagging for Khasi language | |
CN114611517B (zh) | 基于深度学习的命名实体识别方法、装置、设备和介质 | |
CN113836289B (zh) | 一种实体演进规律推荐方法及装置 | |
CN117521674B (zh) | 对抗信息的生成方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |