CN112507077A - 基于关系图注意力神经网络的事件时序关系识别方法 - Google Patents

基于关系图注意力神经网络的事件时序关系识别方法 Download PDF

Info

Publication number
CN112507077A
CN112507077A CN202011471742.4A CN202011471742A CN112507077A CN 112507077 A CN112507077 A CN 112507077A CN 202011471742 A CN202011471742 A CN 202011471742A CN 112507077 A CN112507077 A CN 112507077A
Authority
CN
China
Prior art keywords
time sequence
node
event
neural network
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011471742.4A
Other languages
English (en)
Other versions
CN112507077B (zh
Inventor
徐小良
高通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011471742.4A priority Critical patent/CN112507077B/zh
Publication of CN112507077A publication Critical patent/CN112507077A/zh
Application granted granted Critical
Publication of CN112507077B publication Critical patent/CN112507077B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于关系图注意力神经网络的时序关系识别方法,该方法主要包括以下步骤:首先对事件句进行依存关系分析,获取相关的依存树;然后使用一种图递归构建策略将依存树转化为时序图;随后利用关系图注意力神经网络对时序图进行信息更新,获取时序图中每个节点的隐藏状态;最后从节点隐藏状态集合中提取出有关触发词的隐藏状态和句子表示向量,并将其放入到softmax函数中实现事件时序关系识别。本发明能够有效处理长距离非局部语义信息,捕获融合深层次的隐藏信息,显著提升了事件时序关系识别的准确度。

Description

基于关系图注意力神经网络的事件时序关系识别方法
技术领域
本发明涉及自然语言处理领域,具体涉及一种基于关系图注意力神经网络的事件时序关系识别方法。
背景技术
事件时序关系识别是当前颇具挑战的一个自然语言处理任务,它能够帮助我们细致分析一些错综复杂的数据信息,并推动了许多下游任务的发展,比如信息检索、关系预测等。事件时序关系识别任务旨在探究不同事件句中的不同事件间的时序关系,并采用触发词表示被提及的事件。触发词通常是事件句中的一个或者多个连续的动词。下面是取自TimeBank-Dense语料的一个示例,描述了事件时序关系“BEFORE”,即事件“invite”发生在事件“visit”之前。
事件句1:The main positive for Castro to invite the Pope isinternational,this government is not as closed,as intolerant,as totalitarianas some make it out to be。
事件句2:One of the scenarios widely advanced before the visit is thatthrough the Pope,Cuba,still led by Castro,can begin a more productiverelationship with the world。
较早的事件时序关系识别方法普遍采用机器学习的方法,通过人工标注的句法、词性等特征并结合SVM等模型进行时序关系分类。但是频繁的人工标注造成了时间成本骤增,不适合大规模系统的应用。一些知识库的构建降低了时间成本,但识别性能仍得不到本质的提升。
近几年,深度学习技术发展迅猛,CNN和RNN等模型均在不同任务中取得了不错的效果,一些研究者开始将其运用在事件时序关系识别任务中。通过对事件句进行语义依存分析,然后截取最短依存路径,并利用Bi-LSTM等模型进行表示学习,时序关系识别性能得到较高提升。但是当前的大多方法普遍基于顺序模型,不能有效处理长距离非局部语义信息,容易造成部分重要的深层次隐藏语义信息被丢失遗忘,导致事件时序关系整体识别性能的降低。
发明内容
本发明提供了基于关系图注意力神经网络的事件时序关系识别方法,旨在解决当前较多方法存在的难以有效处理长距离非局部语义信息并遗漏丢失部分重要的深层次隐藏语义信息的问题。
本发明的技术方案如下:
Step1:时序图构建。
首先对事件句对进行语义依存分析,获得两个依存树。针对每个依存树,查找触发词所处位置,并以触发词以起点,递归查找它的相邻节点,直到p跳的相邻节点为止,并保留该阶段内被查找的节点,其中p为递归次数。
为了加强事件句对间的语义联系和长距离分词间的语义表示,后期加入了一些人工构造的边。为了简化操作和提升运算能力,本方法放弃了具体定义的依存关系,使用抽象的关系类型表示分词间的联系,定义的关系类型如下:
Depend-Head类型边:通过依存分析工具获得的边。
Head-Depend类型边:新定义的边,与Depend-Head类型边方向相反。
Self-Loop类型边:新定义的边,该边指向分词本身。
Head-Head类型边:新定义的边,边的两端均为触发词。
根据上述的构建规则,可以得到一个时序图G=(U,E),其中,每个节点ui∈U,每个边(ui,uj)∈E。
Step2:时序图学习。
传统的顺序模型不能有效处理图结构数据,本步骤引入关系图注意力神经网络RGAT进行处理,定义每个节点的初始隐藏状态为
Figure BDA0002836102290000021
每个节点的邻居集合为N(ui)。对于时序图G中的每个节点ui,它的第l层的隐藏状态
Figure BDA0002836102290000022
可以通过下述公式进行计算:
Figure BDA0002836102290000023
其中,Nr(ui)表示节点ui在关系类型r∈R下的邻居节点,
Figure BDA0002836102290000031
表示第l-1层的节点ui与节点uj在关系类型r∈R下的的相关度,
Figure BDA0002836102290000032
表示处理在关系r∈R下的第l-1层的邻居节点的权重矩阵,
Figure BDA0002836102290000033
表示第l-1层处理触发词的权重矩阵,R表示关系类型的集合,σ表示激活函数。
不同的邻居节点通常与中心节点存在不同的重要程度,如果对邻居节点按照同等权重进行处理,容易造成一些重要的语义信息被稀释丢失。因此,引入注意力机制对不同的邻居节点进行差异化处理。处于第l层的节点ui与节点uj在关系类型r∈R下的注意力系数
Figure BDA0002836102290000034
的计算方法如下:
Figure BDA0002836102290000035
其中,a表示一个共享的注意力权重矩阵。
然后,根据上述的注意力系数计算处于第l层的不同节点间的相关度
Figure BDA0002836102290000036
计算如下:
Figure BDA0002836102290000037
Step3:时序分类。
每个事件句中均存在对应的触发词,并且触发词通常包含最重要的关于事件的语义信息。因此,首先从隐藏状态集合中提取出触发词的隐藏状态
Figure BDA0002836102290000038
Figure BDA0002836102290000039
然后事件句s1和事件句s2中剩余的隐藏状态信息分别整合为句子表示向量
Figure BDA00028361022900000310
Figure BDA00028361022900000311
计算如下:
Figure BDA00028361022900000312
Figure BDA00028361022900000313
最后,利用前馈神经网络FFNN和softmax函数对上述向量进行计算,预测不同事件间的时序关系,计算如下:
Figure BDA00028361022900000314
本发明的有益效果是:本发明通过一种时序图构建策略将事件句转化为图结构,并利用关系图注意力神经网络对图结构进行语义学习。不同于传统的顺序模型,该方法能够有效捕获长距离非局部的语义信息,当图节点信息更新时,利用注意力机制对其邻居节点进行不同程度的融合操作,进一步获取深层次的隐藏信息。
附图说明
图1是本发明提出的基于关系图注意力神经网络的事件时序关系识别方法的流程图。
图2是本发明提出的基于关系图注意力神经网络的事件时序关系识别方法中的递归1次的时序图示例。
具体实施方式
为了使技术人员更好的理解本发明,下面将结合附图和具体示例对本发明做进一步的解释,具体详细内容如下:
本发明包括如下步骤:
Step1:时序图构建。
首先对事件句对进行语义依存分析,获得两个依存树。针对每个依存树,查找触发词所处位置,并以触发词以起点,递归查找它的相邻节点,直到p跳的相邻节点为止,并保留该阶段内被查找的节点,其中p为递归次数。
为了加强事件句对间的语义联系和长距离分词间的语义表示,后期加入了一些人工构造的边。为了简化操作和提升运算能力,本发明放弃了具体定义的依存关系,使用抽象的关系类型表示分词间的联系,定义的关系类型包括Depend-Head类型、Head-Depend类型、Self-Loop类型和Head-Head类型。上述示例递归1次的时序图如图2所示。对于触发词visit,它与分词advanced和分词before存在Head-Depend类型的边,与分词is存在Depend-Head类型的边,与触发词invite存在Head-Head类型的边,本身也存在一个Self-Loop类型的边。
Step2:时序图学习。
传统的顺序模型不能有效处理图结构数据,本步骤引入关系图注意力神经网络RGAT进行处理,定义每个节点的初始隐藏状态为
Figure BDA0002836102290000041
每个节点的邻居集合为N(ui)。对于时序图G中的每个节点ui,它的第l层的隐藏状态
Figure BDA0002836102290000042
可以通过下述公式进行计算:
Figure BDA0002836102290000051
其中,Nr(ui)表示节点ui在关系类型r∈R下的邻居节点,
Figure BDA0002836102290000052
表示第l-1层的节点ui与节点uj在关系类型r∈R下的相关度,
Figure BDA0002836102290000053
表示处理在关系类型r∈R下的第l-1层的邻居节点的权重矩阵,
Figure BDA0002836102290000054
表示处理第l-1层触发词t的权重矩阵,σ表示激活函数。
不同的邻居节点通常与中心节点存在不同的重要程度,如果对邻居节点按照同等权重进行处理,容易造成一些重要的语义信息被稀释丢失。因此,引入注意力机制对不同的邻居节点进行差异化处理。处于第l层的节点ui与节点uj在关系类型r∈R下的注意力系数
Figure BDA0002836102290000055
的计算如下:
Figure BDA0002836102290000056
其中,a表示一个共享的注意力权重矩阵。
然后,根据上述的注意力系数计算处于第l层的不同节点间的相关度
Figure BDA0002836102290000057
计算如下:
Figure BDA0002836102290000058
例如根据事件句1和事件句2产生的时序图G中,分词visit在第一层信息更新时,会融合邻居节点advanced、before、is和invite的语义信息,并利用注意力机制计算分词visit与不同邻居节点的相关度,分别为
Figure BDA0002836102290000059
Figure BDA00028361022900000510
最后根据邻居节点的语义信息和相关度更新中心节点visit的隐藏状态
Figure BDA00028361022900000511
Step3:时序分类。
每个事件句中均存在对应的触发词,并且触发词通常包含最重要的关于事件的语义信息。因此,首先从隐藏状态集合中提取出触发词的隐藏状态
Figure BDA0002836102290000061
Figure BDA0002836102290000062
然后将事件句s1和事件句s2中剩余的隐藏状态信息分别整合为句子表示向量
Figure BDA0002836102290000063
Figure BDA0002836102290000064
计算如下所示:
Figure BDA0002836102290000065
Figure BDA0002836102290000066
最后,利用前馈神经网络FFNN和softmax函数对上述向量进行计算,预测不同事件间的时序关系,计算如下所示:
Figure BDA0002836102290000067
例如上述的触发词隐藏状态
Figure BDA0002836102290000068
Figure BDA0002836102290000069
句子表示向量
Figure BDA00028361022900000610
Figure BDA00028361022900000611
被放入到softmax函数中预测时序关系,根据结果得知时序关系“BEFORE”的概率最大,所以预测事件“invite”和“visit”的时序关系为“BEFORE”。
实验使用Micro-F1值作为评测标准,并将Cheng(2017)、DBiLSTMs、Bi-LSTM-AM、DSNN等方法作为基准方法,与本发明提出的方法进行性能对比,探究其在TimeBank-Dense语料上的识别性能,实验结果如表1所示。
表1实验对比结果
Figure BDA00028361022900000612
根据表1的实验结果,本发明提出的方法的识别性能最优。Cheng(2017)、DBiLSTMs和Bi-LSTM-AM方法均对事件句的依存树进行裁剪处理,并利用顺序模型Bi-LSTM进行表示学习,取得了不错的效果。但是它们均不能有效处理长距离非局部语义信息,造成部分重要的深层次隐藏信息被丢失遗忘。DSNN方法额外新增了全局约束,纠正部分错误的信息,但也未能有效解决上述问题。本发明提出的方法通过构建图结构数据并引入关系图注意力神经网络进行表示学习,能够有效解决上述问题,时序关系识别性能得到有效提升。
本发明提出的方法将构建的时序图放入到关系图注意力神经网络RGAT中进行信息更新,不同的网络层数会影响方法的时序关系识别性能。因此,本发明设置了三种层数,探究不同层数对识别性能的影响,实验结果如表2所示。
表2网络层数的影响
Figure BDA0002836102290000071
根据表2的实验结果,不同的网络层数会影响方法的时序关系识别性能,当网络层数为2时,识别性能达到最优。当网络层数过低时,容易造成捕获范围过窄,导致部分重要的语义信息被丢失遗忘。当网络层数过高时,容易造成捕获范围过大,导致较多噪声信息被错误捕获,造成事件时序关系识别性能降低。
以上结合附图对本发明的具体实施方法进行了详细解释,但是本发明的具体实现方式并不限于此,其他技术人员在本发明基础所做的修改和替换,均在本发明的保护范围之内。

Claims (3)

1.基于关系图注意力神经网络的事件时序关系识别方法,该方法包含如下步骤:
Step1:时序图构建
首先对事件句对进行语义依存分析,获得两个依存树;针对每个依存树,查找触发词所处位置,并以触发词以起点,递归查找它的相邻节点,直到p跳的相邻节点为止,并保留该阶段内被查找的节点,其中p为递归次数;
使用抽象的关系类型表示分词间的联系,定义的关系类型如下:
Depend-Head类型边:通过依存分析工具获得的边;
Head-Depend类型边:与Depend-Head类型边方向相反;
Self-Loop类型边:该边指向分词本身;
Head-Head类型边:该边两端均为触发词;
由此得到一个时序图G=(U,E),其中每个节点ui∈U,每个边(ui,uj)∈E;
Step2:时序图学习
定义每个节点的初始隐藏状态为
Figure FDA0002836102280000011
每个节点的邻居集合为N(ui);对于时序图G中的每个节点ui,计算它的第l层的隐藏状态
Figure FDA0002836102280000012
利用注意力机制对不同的邻居节点进行差异化处理,以区别不同的邻居节点的权重;
根据注意力机制中的注意力系数计算处于第l层的不同节点间的相关度
Figure FDA0002836102280000013
Step3:时序分类
首先从隐藏状态集合中提取出触发词的隐藏状态
Figure FDA0002836102280000014
Figure FDA0002836102280000015
然后将事件句s1和事件句s2中剩余的隐藏状态信息分别整合为句子表示向量
Figure FDA0002836102280000016
Figure FDA0002836102280000017
最后,利用前馈神经网络FFNN和softmax函数对上述句子表示向量进行计算,预测不同事件间的时序关系。
2.根据权利要求1所述的基于关系图注意力神经网络的事件时序关系识别方法,其特征在于:Step2中时序图G中的每个节点ui的第l层的隐藏状态
Figure FDA0002836102280000021
计算如下:
Figure FDA0002836102280000022
其中,Nr(ui)表示节点ui在关系类型r∈R下的邻居节点,
Figure FDA0002836102280000023
表示第l-1层的节点ui与节点uj在关系类型r∈R下的相关度,Wr l-1表示处理在关系类型r∈R下的第l-1层的邻居节点的权重矩阵,Wt l-1表示处理第l-1层触发词t的权重矩阵,R表示关系类型的集合,σ表示激活函数。
3.根据权利要求2所述的基于关系图注意力神经网络的事件时序关系识别方法,其特征在于:Step3中句子表示向量
Figure FDA0002836102280000024
Figure FDA0002836102280000025
计算如下:
Figure FDA0002836102280000026
Figure FDA0002836102280000027
CN202011471742.4A 2020-12-15 2020-12-15 基于关系图注意力神经网络的事件时序关系识别方法 Active CN112507077B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011471742.4A CN112507077B (zh) 2020-12-15 2020-12-15 基于关系图注意力神经网络的事件时序关系识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011471742.4A CN112507077B (zh) 2020-12-15 2020-12-15 基于关系图注意力神经网络的事件时序关系识别方法

Publications (2)

Publication Number Publication Date
CN112507077A true CN112507077A (zh) 2021-03-16
CN112507077B CN112507077B (zh) 2022-05-20

Family

ID=74973218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011471742.4A Active CN112507077B (zh) 2020-12-15 2020-12-15 基于关系图注意力神经网络的事件时序关系识别方法

Country Status (1)

Country Link
CN (1) CN112507077B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326352A (zh) * 2021-06-18 2021-08-31 哈尔滨工业大学 一种基于异构事件图的子事件关系识别方法
CN113780002A (zh) * 2021-08-13 2021-12-10 北京信息科技大学 基于图表示学习和深度强化学习的知识推理方法及装置
CN114444473A (zh) * 2022-04-11 2022-05-06 江西财经大学 基于多通道层次图注意力网络的开放事件抽取方法与系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069636A (zh) * 2019-05-05 2019-07-30 苏州大学 融合依存关系与篇章修辞关系的事件时序关系识别方法
CN110245269A (zh) * 2019-05-06 2019-09-17 阿里巴巴集团控股有限公司 获取关系网络图中节点的动态嵌入向量的方法和装置
CN111160027A (zh) * 2019-12-23 2020-05-15 杭州电子科技大学 基于语义注意力的循环神经网络事件时序关系识别方法
CN111353306A (zh) * 2020-02-22 2020-06-30 杭州电子科技大学 基于实体关系和依存Tree-LSTM的联合事件抽取的方法
CN111461004A (zh) * 2020-03-31 2020-07-28 北京邮电大学 基于图注意力神经网络的事件检测方法、装置和电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069636A (zh) * 2019-05-05 2019-07-30 苏州大学 融合依存关系与篇章修辞关系的事件时序关系识别方法
CN110245269A (zh) * 2019-05-06 2019-09-17 阿里巴巴集团控股有限公司 获取关系网络图中节点的动态嵌入向量的方法和装置
CN111160027A (zh) * 2019-12-23 2020-05-15 杭州电子科技大学 基于语义注意力的循环神经网络事件时序关系识别方法
CN111353306A (zh) * 2020-02-22 2020-06-30 杭州电子科技大学 基于实体关系和依存Tree-LSTM的联合事件抽取的方法
CN111461004A (zh) * 2020-03-31 2020-07-28 北京邮电大学 基于图注意力神经网络的事件检测方法、装置和电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YIJIE ZHANG等: ""Classifying Temporal Relations Between Events by Deep BiLSTM"", 《2018 INTERNATIONAL CONFERENCE ON ASIAN LANGUAGE PROCESSING》 *
胡伟: ""基于深度学习的事件关系抽取研究"", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326352A (zh) * 2021-06-18 2021-08-31 哈尔滨工业大学 一种基于异构事件图的子事件关系识别方法
CN113780002A (zh) * 2021-08-13 2021-12-10 北京信息科技大学 基于图表示学习和深度强化学习的知识推理方法及装置
CN113780002B (zh) * 2021-08-13 2023-11-28 北京信息科技大学 基于图表示学习和深度强化学习的知识推理方法及装置
CN114444473A (zh) * 2022-04-11 2022-05-06 江西财经大学 基于多通道层次图注意力网络的开放事件抽取方法与系统
CN114444473B (zh) * 2022-04-11 2022-06-21 江西财经大学 基于多通道层次图注意力网络的开放事件抽取方法与系统

Also Published As

Publication number Publication date
CN112507077B (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
CN112507077B (zh) 基于关系图注意力神经网络的事件时序关系识别方法
US7953693B2 (en) Method and apparatus for ontology-based classification of media content
Heck et al. Leveraging knowledge graphs for web-scale unsupervised semantic parsing
CN112507699B (zh) 一种基于图卷积网络的远程监督关系抽取方法
CN112163425B (zh) 基于多特征信息增强的文本实体关系抽取方法
CN110532328B (zh) 一种文本概念图构造方法
CN113761893B (zh) 一种基于模式预训练的关系抽取方法
CN110298395B (zh) 一种基于三模态对抗网络的图文匹配方法
US10528664B2 (en) Preserving and processing ambiguity in natural language
CN102867040A (zh) 一种面向中文搜索引擎混杂语言的查询纠错方法及系统
CN106557777B (zh) 一种基于SimHash改进的Kmeans文档聚类方法
CN112818118B (zh) 基于反向翻译的中文幽默分类模型的构建方法
CN111160027A (zh) 基于语义注意力的循环神经网络事件时序关系识别方法
CN112597285A (zh) 一种基于知识图谱的人机交互方法及系统
CN110134950A (zh) 一种字词结合的文本自动校对方法
CN113988075A (zh) 基于多任务学习的网络安全领域文本数据实体关系抽取法
CN115617956A (zh) 一种基于多模态注意力图谱的专利检索方法及系统
CN115329088A (zh) 图神经网络事件检测模型的鲁棒性分析方法
CN116719936B (zh) 一种基于集成学习的网络不可靠信息早期检测方法
CN116861467B (zh) 一种基于上下文特征的数据库异常查询访问控制方法
CN113656556B (zh) 一种文本特征抽取方法及知识图谱构建方法
CN113434668B (zh) 一种基于模型融合的深度学习文本分类方法及系统
CN111581339B (zh) 基于树状lstm对生物医学文献的基因事件的抽取方法
CN111026659B (zh) 一种基于嵌入表示的移动应用回调分析研究方法
CN114564579A (zh) 一种基于海量知识图谱及图嵌入的实体分类方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant