CN110210019A - 一种基于递归神经网络的事件要素抽取方法 - Google Patents

一种基于递归神经网络的事件要素抽取方法 Download PDF

Info

Publication number
CN110210019A
CN110210019A CN201910425854.7A CN201910425854A CN110210019A CN 110210019 A CN110210019 A CN 110210019A CN 201910425854 A CN201910425854 A CN 201910425854A CN 110210019 A CN110210019 A CN 110210019A
Authority
CN
China
Prior art keywords
vector
word
event argument
event
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910425854.7A
Other languages
English (en)
Inventor
陈兴蜀
蒋梦婷
王海舟
王文贤
殷明勇
唐瑞
蒋术语
马晨曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201910425854.7A priority Critical patent/CN110210019A/zh
Publication of CN110210019A publication Critical patent/CN110210019A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于递归神经网络的事件要素抽取方法,包括以下步骤:步骤1:构建基于递归神经网络的事件要素抽取模型;步骤2:获取语料,训练词向量;步骤3:使用标注的语料训练特征向量,包括词性特征向量、命名实体特征向量、依存关系特征向量;步骤4:构造出训练集中所需的目标向量,将步骤2的词向量和步骤3特征向量训练步骤1构建的事件要素抽取模型;步骤5:采用步骤4训练得到的事件要素抽取模型对测试数据进行事件要素的预测;步骤6:对事件要素抽取模型输出的预测信息进行事件要素的提取。本发明方法对事件要素抽取的准确率较高。

Description

一种基于递归神经网络的事件要素抽取方法
技术领域
本发明涉及事件抽取技术领域,具体涉及一种基于递归神经网络的事件要素抽取方法。
背景技术
事件抽取(Event Extraction,EE)是指从丰富的文本信息中识别出具体类型的事件描述句,并针对这些事件描述句进行事件元素的确定和抽取。事件抽取包括两个主要步骤,一是对事件的检测,二是对检测出的事件进行事件要素的提取。事件检测是事件抽取的基础,而事件触发词是能清晰表示事件发生的词语,所以事件检测就是对事件触发词进行识别的过程。事件要素是描述事件的具体信息,包括时间、地点、人物等,事件要素就是获得事件描述句中某一事件的具体时间要素、地点要素、人物要素、对象要素等。事件要素抽取是在事件触发词识别任务的基础上完成的。事件要素抽取任务同样可以分为两个部分,分别是事件要素的检测和事件要素的分类。
近年来,互联网迅猛发展,我国网民的规模也迅速增长,互联网对人们的生活和社会影响力也日益加深。与传统信息传播媒体相比,网络媒体信息具规模大、传播快、信息丰富、实时性强、参与度高等显著特点。网络媒体每天会产生大量的文本数据,面对日益增长的海量互联网信息,快速定位到公众讨论的具体事件变得至关重要。这不仅可以帮助舆情监管人员快速定位到具体事件,了解事件的具体要素,还可以将事件抽取结果提供给其他自然语言处理任务,以进行更深入的分析和应用。国内针对中文事件要素抽取的研究起步较晚,针对中文的事件要素抽取研究还较少。
发明内容
本发明所要解决的技术问题是提供一种基于递归神经网络的事件要素抽取方法,在事件触发词识别任务的基础上,使用GRU神经网络和词性、命名实体、依存分析等特征,对事件要素进行抽取,识别准确率高。
为解决上述技术问题,本发明采用的技术方案是:
一种基于递归神经网络的事件要素抽取方法,包括以下步骤:
步骤1:构建基于递归神经网络的事件要素抽取模型;
所述事件要素抽取模型包括输入层、隐藏层和输出层;
输入层
事件要素抽取模型包括两个输入层;第一个输入层是将词向量、词性向量、命名实体向量、依存关系向量和触发词类别向量联接起来,作为词序列中每个词的向量表示,完成词序列W={w0,w1,w2,...,wn-1}到实数向量X={x0,x1,x2,...,xn-1}的编码转换,将实数向量X={x0,x1,x2,...,xn-1}作为递归神经网络的输入;第二个输入层是构造的事件触发词类型特征向量D={d0,d1,d2,...,dn-1};
隐藏层
隐藏层为双向GRU递归神经网络,分别捕捉上文特征信息和下文特征信息,为上文特征信息,为下文特征信息;将上下文特征信息融合后,再将第二个输入层中的事件触发词类型输入特征联接起来,将所有特征信息传送到下一层,进行事件要素的检测和分类;
输出层
输出层为前馈式神经网络,使用softmax作为激活函数,得到每个词的类别概率分布Pt arg=Farg(yt),根据概率分布对事件要素的类别进行预测,公式为:type(t)=argmax(Pt arg);
步骤2:获取语料,训练词向量;
将语料经过分句分词后,句子由词序列W={w0,w1,w2,...,wn-1}表示,其中n为句长,wi代表句子中的第i+1个词;词序列中的每个词wi用词向量表示为[ν012,...,νm-1],m为词向量的维度大小;
步骤3:使用标注的语料训练特征向量,包括词性特征向量、命名实体特征向量、依存关系特征向量;
词性特征向量
对分词处理后的词序列进行词性标注,得到句子的词性序列,将词性标签转换为词性向量;
命名实体特征向量
对分词处理后的词序列中的命名实体进行标注,使用BIEO的标注模式,再将进行命名实体标注后的标签序列转换为命名实体向量;
依存关系特征向量
对分词处理后的词序列中的依存关系进行分析,得到一个依存句法关系树,将依存关系特征转换为两种特征向量;
步骤4:构造出训练集中所需的目标向量,将步骤2的词向量和步骤3特征向量训练步骤1构建的事件要素抽取模型;
目标向量代表了事件要素的抽取结果,它的形状为[length,9];其中,length应与输入向量的长度保持一致,即与句子的词序列长度一致;9是每个词对应的向量长度,代表了9种事件要素标签;
步骤5:采用步骤4训练得到的事件要素抽取模型对测试数据进行事件要素的预测;
步骤6:对事件要素抽取模型输出的预测信息进行事件要素的提取。
进一步的,还包括步骤7:将事件要素组成一个描述事件的四元组<时间、地点、参与者、涉及对象>。
进一步的,在所述步骤3中,训练的词性特征向量为:
构建一个长度为25的词性标签字典;每个词对应一个长度为25的向量,向量只有一个1,对应该词的词性在词性字典中的位置,其余位置为0;设词wi对应的词性特征向量为[pos0,pos1,...,posj,...,pos24],posj的设置方式为
进一步的,在所述步骤3中,训练的命名实体特征向量为:
使用一个长度为13的命名实体标签字典,每个词对应一个长度为13的向量,向量只有一个1,对应该词的命名实体标签在命名实体标签字典中的位置,其余位置为0;假设词wi对应的命名实体特征向量为[ner0,ner1,...,nerj,...,ner12],nerj的设置方式为
进一步的,在所述步骤3中,将依存关系特征转换为两种特征向量为:
一是所依赖的父节点向量,每个词对应一个长度为所在句子长度加1的向量,如果当前词wi依赖于词wj,则将向量中词wj所在的位置处设置为1,其余位置为0;假设词wi所依赖的父节点向量为[f0,f1,...,fj,...,fn],fj的设置方式为
二是依存关系类型向量,已知依存关系类型共14种,构建一个长度为14的依存关系字典;每个词对应一个长度为14的向量,向量只有一个1,对应该词的依存关系类型在依存关系字典中的位置,其余位置为0;假设词wi对应的依存关系特征向量为[dep0,dep1,...,depj,...,dep13],为depj的设置方式。
与现有技术相比,本发明的有益效果是:1)利用双向GRU递归神经网络,分别自动学习并捕获句子中上文和下文的特征信息;2)同时使用词性特征、命名实体特征和依存关系特征,提高对事件要素抽取的准确率;3)对事件描述句中包含多个事件时的事件要素抽取的准确率也较高;4)针对性强、识别准确率高。
附图说明
图1是本发明方法流程示意图;
图2是本发明中建立的事件要素抽取模型示意图;
图3是本发明中构建依存关系特征向量的依存语法树示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步详细的说明。如图1所示,一种基于递归神经网络的事件要素抽取方法,包括以下步骤:
步骤1:构建基于递归神经网络的事件要素抽取模型;
事件要素抽取模型包括输入层、隐藏层和输出层;
1、输入层
事件要素抽取模型包括两个输入层。其中,第一个输入层是将词向量、词性向量、命名实体向量、依存关系向量和触发词类别向量联接起来作为词序列中每个词的向量表示,完成词序列W={w0,w1,w2,...,wn-1}到实数向量X={x0,x1,x2,...,xn-1}的编码转换,将实数向量X={x0,x1,x2,...,xn-1}作为递归神经网络的输入。第二个输入层则是构造的事件触发词类型特征向量D={d0,d1,d2,...,dn-1}。
2、隐藏层
隐藏层为双向GRU递归神经网络,分别捕捉上文特征信息和下文特征信息,为上文特征信息,为下文特征信息。将上下文特征信息融合后,再将第二个输入层中的事件触发词类型输入特征联接起来,将所有特征信息传送到下一层,进行事件要素的检测和分类。
yt=[αtt',dt]为隐藏层中生成的所有特征信息。
3、输出层
输出层为前馈式神经网络,使用softmax作为激活函数,得到每个词的类别概率分布Pt arg=Farg(yt),根据概率分布对事件要素的类别进行预测,公式为:type(t)=argmax(Pt arg)。
步骤2:获取语料,训练词向量;
将语料经过分句分词后,句子由词序列W={w0,w1,w2,...,wn-1}表示,其中n为句长,wi代表句子中的第i+1个词。词序列中的每个词wi用词向量表示为[ν012,...,νm-1],m为词向量的维度大小。
步骤3:使用标注的语料训练特征向量(包括词性特征向量、命名实体特征向量、依存关系特征向量);
1、词性特征向量
词性特征是由词性标注得来,词性标注是依据文本的上下文信息,对文本中的每个词作出相应的正确词性标记,即这个词是动词、名词、形容词还是其他词性。本发明对分词处理后的词序列进行词性标注,得到句子的词性序列;最后,将词性标签转换为词性向量。
语料中共使用到了25种词性,可构建一个长度为25的词性标签字典。每个词对应一个长度为25的向量,向量只有一个1,对应该词的词性在词性字典中的位置,其余位置为0。假设词wi对应的词性特征向量为[pos0,pos1,...,posj,...,pos24],posj的设置方式为
例如:“3月18日上午8时30分,兴庆区丽景北街发生一起交通事故”分词之后的结果为“3月\18日\上午\8时\30分\,\兴庆区\丽景北街\发生\一\起\交通事故”,进行词性标注后的标签结果为“[nt,nt,nt,nt,nt,wp,ns,ns,v,m,q,n]”(nt表示时间名词,wp表示标点符号,ns表示地理名词,v表示动词,m表示数字,q表示量词,n表示普通名词),其中,“交通事故”为普通名词(n),那么它的词性向量为[0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。
2、命名实体特征向量
对分词处理后的词序列中的命名实体进行标注,使用BIEO的标注模式,识别出句子中的人名、地名和机构名。再将进行命名实体标注后的标签序列转换为命名实体向量。
使用一个长度为13的命名实体标签字典,每个词对应一个长度为13的向量,向量只有一个1,对应该词的命名实体标签在命名实体标签字典中的位置,其余位置为0。假设词wi对应的命名实体特征向量为[ner0,ner1,...,nerj,...,ner12],nerj的设置方式为
例如:“3月18日上午8时30分,兴庆区丽景北街发生一起交通事故”分词之后的结果为“3月\18日\上午\8时\30分\,\兴庆区\丽景北街\发生\一\起\交通事故”,进行命名实体标注后的标签序列为:“[O,O,O,O,O,O,B-Ns,E-Ns,O,O,O,O]”(B-Ns表示地名的开始,E-Ns表示地名的结束)。最后,将命名实体特征转换为命名实体向量。其中,“兴庆区”的标签为B-Ns,那么它的命名实体向量为[0,1,0,0,0,0,0,0,0,0,0,0,0]。
3、依存关系特征向量
对分词处理后的词序列中的依存关系进行分析,得到一个依存句法关系树。最后,将依存关系特征转换为两种特征向量。
将依存关系特征转换为两种特征向量。一种是所依赖的父节点向量,每个词对应一个长度为所在句子长度加1的向量,如果当前词wi依赖于词wj,那么将向量中词wj所在的位置处设置为1,其余位置为0。假设词wi所依赖的父节点向量为[f0,f1,...,fj,...,fn],fj的设置方式为
另一种是依存关系类型向量,已知依存关系类型共14种,可构建一个长度为14的依存关系字典。每个词对应一个长度为14的向量,向量只有一个1,对应该词的依存关系类型在依存关系字典中的位置,其余位置为0。假设词wi对应的依存关系特征向量为[dep0,dep1,...,depj,...,dep13],为depj的设置方式。
以“3月18日上午8时30分,兴庆区丽景北街发生一起交通事故”的事件句为例,该事件句的依存关系以依存语法树的形式直观展示如图3所示。其中,“交通事故”一词依赖的父节点是“发生”(核心关系),那么该词依赖的父节点向量为[0,0,0,0,0,0,0,0,0,1,0,0,0]。
此外,“交通事故”一词的依存关系类型为VOB(动宾关系),那么它的依存关系向量为[0,0,0,0,0,0,0,1,0,0,0,0,0,0]。
步骤4:构造出训练集中所需的目标向量,将步骤2得到的的词向量和步骤3得到的特征向量训练步骤1构建的事件要素抽取模型;
目标向量代表了事件要素的抽取结果,它的形状应为[length,9]。其中,length应与输入向量的长度保持一致,即与句子的词序列长度一致;9是每个词对应的向量长度,代表了9种事件要素标签。
假设词wi的事件要素类型目标向量为[arg0,arg1,...,argj,...,arg8],为argj的设置方式。
例如,“成都等四川多地也有明显震感”分词后为“成都\等\四川\多地\也\有\明显\震感”,其中“成都等四川多地”是地点要素,那么“成都”对应的目标向量应为[0,0,0,1,0,0,0,0,0],“等”、“四川”、“多地”对应的目标向量都为[0,0,0,0,1,0,0,0,0]。
步骤5:采用步骤4训练得到的事件要素抽取模型对测试数据进行事件要素的预测;
步骤6:对模型输出的预测信息进行事件要素的提取。
表1是使用本发明提出的事件要素抽取模型进行实验,分别得到时间(time)、地点(location)、参与者(participant)和涉及对象(object)四种事件要素抽取结果的准确率、召回率和F值。可以看出,本发明提出的事件要素抽取模型取得了较好的准确率。
表1
表2结合GRU递归神经网络和词性特征、命名实体特征和依存关系特征等分别设计了针对本发明对比实验。将GRU+词向量的模型作为baseline,模型中第一个输入仅包含词向量为128维;然后在baseline的基础上分别添加了词性特征、命名实体特征和依存关系特征,将各个模型中的第一个输入向量维度分别调整为153、141和259;最后添加全部特征后,模型的第一个输入向量维度为297。可以看出,仅仅使用GRU递归神经网络与词向量进行事件要素抽取任务,同时实现事件要素的检测和事件要素的分类,所得到的结果准确率、召回率都较低,要素分类的F值只有57.99%。证明了词性特征、命名实体特征和依存关系特征对事件要素抽取的贡献。最后将三种特征同时加入到模型中进行训练,最后得到的事件要素检测和分类结果的F值均达到了最优。
表2
表3结合LSTM递归神经网络、SVM分类设计针对事件要素抽取模型对比实验,可以看出使用LSTM递归神经网络和GRU递归神经网络的要素检测和要素分类的结果均优于SVM分类的方法,这说明了神经网络方法在事件要素抽取任务中具有一定的优势。其中,GRU神经网络能使该任务能到更好的F值,达到66.77%。基于神经网络的事件要素抽取方法不仅可以自动学习句子中的上下文特征信息,还可以结合本文构造的多种特征和相关的触发词,抽取出与该触发词相关的所有事件要素,并且在时间性能上大大优于SVM分类的方法。
表3
表4验证本发明在事件要素抽取任务上的性能,尤其是在事件描述句中包含多个事件的情况下的性能,可以看出,事件描述句中包含多个事件时的事件要素抽取的准确率、召回率和F值均优于事件描述句中只有一个事件的情况。
表4
可将本发明方法编为程序代码,通过计算机刻度存储介质存储该代码,将程序代码传输给处理器,通过处理器执行本发明方法。
本发明利用双向GRU递归神经网络,分别自动学习并捕获句子中上文和下文的特征信息,同时使用词性特征、命名实体特征和依存关系特征,提高对事件要素抽取的准确率。同时,模型对事件描述句中包含多个事件时的事件要素抽取的准确率也较高。该模型后续可以开展更多的研究。

Claims (5)

1.一种基于递归神经网络的事件要素抽取方法,其特征在于,包括以下步骤:
步骤1:构建基于递归神经网络的事件要素抽取模型;
所述事件要素抽取模型包括输入层、隐藏层和输出层;
输入层
事件要素抽取模型包括两个输入层;第一个输入层是将词向量、词性向量、命名实体向量、依存关系向量和触发词类别向量联接起来,作为词序列中每个词的向量表示,完成词序列W={w0,w1,w2,...,wn-1}到实数向量X={x0,x1,x2,...,xn-1}的编码转换,将实数向量X={x0,x1,x2,...,xn-1}作为递归神经网络的输入;第二个输入层是构造的事件触发词类型特征向量D={d0,d1,d2,...,dn-1};
隐藏层
隐藏层为双向GRU递归神经网络,分别捕捉上文特征信息和下文特征信息,为上文特征信息,为下文特征信息;将上下文特征信息融合后,再将第二个输入层中的事件触发词类型输入特征联接起来,将所有特征信息传送到下一层,进行事件要素的检测和分类;
输出层
输出层为前馈式神经网络,使用softmax作为激活函数,得到每个词的类别概率分布Pt arg=Farg(yt),根据概率分布对事件要素的类别进行预测,公式为:type(t)=arg max(Pt arg);
步骤2:获取语料,训练词向量;
将语料经过分句分词后,句子由词序列W={w0,w1,w2,...,wn-1}表示,其中n为句长,wi代表句子中的第i+1个词;词序列中的每个词wi用词向量表示为[v0,v1,v2,...,vm-1],m为词向量的维度大小;
步骤3:使用标注的语料训练特征向量,包括词性特征向量、命名实体特征向量、依存关系特征向量;
词性特征向量
对分词处理后的词序列进行词性标注,得到句子的词性序列,将词性标签转换为词性向量;
命名实体特征向量
对分词处理后的词序列中的命名实体进行标注,使用BIEO的标注模式,再将进行命名实体标注后的标签序列转换为命名实体向量;
依存关系特征向量
对分词处理后的词序列中的依存关系进行分析,得到一个依存句法关系树,将依存关系特征转换为两种特征向量;
步骤4:构造出训练集中所需的目标向量,将步骤2的词向量和步骤3特征向量训练步骤1构建的事件要素抽取模型;
目标向量代表了事件要素的抽取结果,它的形状为[length,9];其中,length应与输入向量的长度保持一致,即与句子的词序列长度一致;9是每个词对应的向量长度,代表了9种事件要素标签;
步骤5:采用步骤4训练得到的事件要素抽取模型对测试数据进行事件要素的预测;
步骤6:对事件要素抽取模型输出的预测信息进行事件要素的提取。
2.如权利要求1所述的一种基于递归神经网络的事件要素抽取方法,其特征在于,还包括步骤7:将事件要素组成一个描述事件的四元组<时间、地点、参与者、涉及对象>。
3.如权利要求1所述的一种基于递归神经网络的事件要素抽取方法,其特征在于,
在所述步骤3中,训练的词性特征向量为:
构建一个长度为25的词性标签字典;每个词对应一个长度为25的向量,向量只有一个1,对应该词的词性在词性字典中的位置,其余位置为0;设词wi对应的词性特征向量为[pos0,pos1,...,posj,...,pos24],posj的设置方式为
4.如权利要求1所述的一种基于递归神经网络的事件要素抽取方法,其特征在于,
在所述步骤3中,训练的命名实体特征向量为:
使用一个长度为13的命名实体标签字典,每个词对应一个长度为13的向量,向量只有一个1,对应该词的命名实体标签在命名实体标签字典中的位置,其余位置为0;假设词wi对应的命名实体特征向量为[ner0,ner1,...,nerj,...,ner12],nerj的设置方式为
5.如权利要求1所述的一种基于递归神经网络的事件要素抽取方法,其特征在于,
在所述步骤3中,将依存关系特征转换为两种特征向量为:
一是所依赖的父节点向量,每个词对应一个长度为所在句子长度加1的向量,如果当前词wi依赖于词wj,则将向量中词wj所在的位置处设置为1,其余位置为0;假设词wi所依赖的父节点向量为[f0,f1,...,fj,...,fn],fj的设置方式为
二是依存关系类型向量,已知依存关系类型共14种,构建一个长度为14的依存关系字典;每个词对应一个长度为14的向量,向量只有一个1,对应该词的依存关系类型在依存关系字典中的位置,其余位置为0;假设词wi对应的依存关系特征向量为[dep0,dep1,...,depj,...,dep13],为depj的设置方式。
CN201910425854.7A 2019-05-21 2019-05-21 一种基于递归神经网络的事件要素抽取方法 Pending CN110210019A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910425854.7A CN110210019A (zh) 2019-05-21 2019-05-21 一种基于递归神经网络的事件要素抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910425854.7A CN110210019A (zh) 2019-05-21 2019-05-21 一种基于递归神经网络的事件要素抽取方法

Publications (1)

Publication Number Publication Date
CN110210019A true CN110210019A (zh) 2019-09-06

Family

ID=67788034

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910425854.7A Pending CN110210019A (zh) 2019-05-21 2019-05-21 一种基于递归神经网络的事件要素抽取方法

Country Status (1)

Country Link
CN (1) CN110210019A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704598A (zh) * 2019-09-29 2020-01-17 北京明略软件系统有限公司 一种语句信息的抽取方法、抽取装置及可读存储介质
CN110826313A (zh) * 2019-10-31 2020-02-21 北京声智科技有限公司 一种信息提取方法、电子设备及计算机可读存储介质
CN111027309A (zh) * 2019-12-05 2020-04-17 电子科技大学广东电子信息工程研究院 一种基于双向长短期记忆网络的实体属性值的抽取方法
CN111159336A (zh) * 2019-12-20 2020-05-15 银江股份有限公司 一种半监督司法实体及事件联合提取方法
CN111178039A (zh) * 2019-12-18 2020-05-19 北京明略软件系统有限公司 一种模型训练方法、装置、实现文本处理的方法及装置
CN111382575A (zh) * 2020-03-19 2020-07-07 电子科技大学 一种基于联合标注和实体语义信息的事件抽取方法
CN111382333A (zh) * 2020-03-11 2020-07-07 昆明理工大学 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法
CN111581954A (zh) * 2020-05-15 2020-08-25 中国人民解放军国防科技大学 一种基于语法依存信息的文本事件抽取方法及装置
CN111814452A (zh) * 2020-07-13 2020-10-23 四川长虹电器股份有限公司 一种影视领域基于神经网络的依存句法分析方法
CN112347249A (zh) * 2020-10-30 2021-02-09 中科曙光南京研究院有限公司 一种警情要素提取系统及其提取方法
CN112417878A (zh) * 2020-11-24 2021-02-26 北京明略昭辉科技有限公司 实体关系抽取方法、系统、电子设备及存储介质
CN112699677A (zh) * 2020-12-31 2021-04-23 竹间智能科技(上海)有限公司 事件提取方法及装置、电子设备、存储介质
CN112818679A (zh) * 2019-11-15 2021-05-18 阿里巴巴集团控股有限公司 事件类别确定方法、装置及电子设备
CN113434697A (zh) * 2021-06-29 2021-09-24 平安科技(深圳)有限公司 事件要素抽取方法、计算机设备及存储介质
CN114398891A (zh) * 2022-03-24 2022-04-26 三峡智控科技有限公司 基于日志关键词生成kpi曲线并标记波段特征的方法
CN114398898A (zh) * 2022-03-24 2022-04-26 三峡智控科技有限公司 基于日志事件关系生成kpi曲线并标记波段特征的方法
CN115309910A (zh) * 2022-07-20 2022-11-08 首都师范大学 语篇要素和要素关系联合抽取方法、知识图谱构建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239445A (zh) * 2017-05-27 2017-10-10 中国矿业大学 一种基于神经网络的新闻事件抽取的方法及系统
CN109710919A (zh) * 2018-11-27 2019-05-03 杭州电子科技大学 一种融合注意力机制的神经网络事件抽取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239445A (zh) * 2017-05-27 2017-10-10 中国矿业大学 一种基于神经网络的新闻事件抽取的方法及系统
CN109710919A (zh) * 2018-11-27 2019-05-03 杭州电子科技大学 一种融合注意力机制的神经网络事件抽取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
THIEN HUU NGUYEN等: "Joint Event Extraction via Recurrent Neural Networks", 《PROCEEDINGS OF NAACL-HLT》 *
YING ZENG等: "A Convolution BiLSTM Neural Network Model for Chinese Event Extraction", 《LECTURE NOTES IN COMPUTER SCIENCE》 *
马晨曦等: "基于递归神经网络的中文事件检测", 《信息网络安全》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704598A (zh) * 2019-09-29 2020-01-17 北京明略软件系统有限公司 一种语句信息的抽取方法、抽取装置及可读存储介质
CN110704598B (zh) * 2019-09-29 2023-01-17 北京明略软件系统有限公司 一种语句信息的抽取方法、抽取装置及可读存储介质
CN110826313A (zh) * 2019-10-31 2020-02-21 北京声智科技有限公司 一种信息提取方法、电子设备及计算机可读存储介质
CN112818679A (zh) * 2019-11-15 2021-05-18 阿里巴巴集团控股有限公司 事件类别确定方法、装置及电子设备
CN111027309A (zh) * 2019-12-05 2020-04-17 电子科技大学广东电子信息工程研究院 一种基于双向长短期记忆网络的实体属性值的抽取方法
CN111178039A (zh) * 2019-12-18 2020-05-19 北京明略软件系统有限公司 一种模型训练方法、装置、实现文本处理的方法及装置
CN111178039B (zh) * 2019-12-18 2023-05-09 北京明略软件系统有限公司 一种模型训练方法、装置、实现文本处理的方法及装置
CN111159336B (zh) * 2019-12-20 2023-09-12 银江技术股份有限公司 一种半监督司法实体及事件联合提取方法
CN111159336A (zh) * 2019-12-20 2020-05-15 银江股份有限公司 一种半监督司法实体及事件联合提取方法
CN111382333A (zh) * 2020-03-11 2020-07-07 昆明理工大学 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法
CN111382333B (zh) * 2020-03-11 2022-06-21 昆明理工大学 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法
CN111382575A (zh) * 2020-03-19 2020-07-07 电子科技大学 一种基于联合标注和实体语义信息的事件抽取方法
CN111581954A (zh) * 2020-05-15 2020-08-25 中国人民解放军国防科技大学 一种基于语法依存信息的文本事件抽取方法及装置
CN111814452A (zh) * 2020-07-13 2020-10-23 四川长虹电器股份有限公司 一种影视领域基于神经网络的依存句法分析方法
CN112347249A (zh) * 2020-10-30 2021-02-09 中科曙光南京研究院有限公司 一种警情要素提取系统及其提取方法
CN112347249B (zh) * 2020-10-30 2024-02-27 中科曙光南京研究院有限公司 一种警情要素提取系统及其提取方法
CN112417878A (zh) * 2020-11-24 2021-02-26 北京明略昭辉科技有限公司 实体关系抽取方法、系统、电子设备及存储介质
CN112699677B (zh) * 2020-12-31 2023-05-02 竹间智能科技(上海)有限公司 事件提取方法及装置、电子设备、存储介质
CN112699677A (zh) * 2020-12-31 2021-04-23 竹间智能科技(上海)有限公司 事件提取方法及装置、电子设备、存储介质
CN113434697A (zh) * 2021-06-29 2021-09-24 平安科技(深圳)有限公司 事件要素抽取方法、计算机设备及存储介质
CN114398898A (zh) * 2022-03-24 2022-04-26 三峡智控科技有限公司 基于日志事件关系生成kpi曲线并标记波段特征的方法
CN114398891A (zh) * 2022-03-24 2022-04-26 三峡智控科技有限公司 基于日志关键词生成kpi曲线并标记波段特征的方法
CN115309910A (zh) * 2022-07-20 2022-11-08 首都师范大学 语篇要素和要素关系联合抽取方法、知识图谱构建方法

Similar Documents

Publication Publication Date Title
CN110210019A (zh) 一种基于递归神经网络的事件要素抽取方法
Liu et al. Learning to assemble neural module tree networks for visual grounding
Hu et al. In-context learning for few-shot dialogue state tracking
CN106777275B (zh) 基于多粒度语义块的实体属性和属性值提取方法
CN108363743B (zh) 一种智能问题生成方法、装置和计算机可读存储介质
CN106919646B (zh) 中文文本摘要生成系统及方法
CN112329467B (zh) 地址识别方法、装置、电子设备以及存储介质
CN109783657A (zh) 基于受限文本空间的多步自注意力跨媒体检索方法及系统
CN110532554A (zh) 一种中文摘要生成方法、系统及存储介质
CN110134954B (zh) 一种基于Attention机制的命名实体识别方法
CN103870000B (zh) 一种对输入法所产生的候选项进行排序的方法及装置
CN105868184A (zh) 一种基于循环神经网络的中文人名识别方法
CN105589844A (zh) 一种用于多轮问答系统中缺失语义补充的方法
CN103309926A (zh) 基于条件随机场的中英文混合命名实体识别方法及系统
CN110489523B (zh) 一种基于网购评价的细粒度情感分析方法
CN104933039A (zh) 面向资源缺乏语言的实体链接系统
CN113157885B (zh) 一种面向人工智能领域知识的高效智能问答系统
CN107247751B (zh) 基于lda主题模型的内容推荐方法
CN108765383A (zh) 基于深度迁移学习的视频描述方法
Dhingra et al. Linguistic knowledge as memory for recurrent neural networks
Dethlefs et al. Conditional random fields for responsive surface realisation using global features
CN105955953A (zh) 一种分词系统
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN110888989A (zh) 一种智能学习平台及其构建方法
Merkx et al. Learning semantic sentence representations from visually grounded language without lexical knowledge

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190906