CN113705218A - 基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置 - Google Patents

基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置 Download PDF

Info

Publication number
CN113705218A
CN113705218A CN202111031194.8A CN202111031194A CN113705218A CN 113705218 A CN113705218 A CN 113705218A CN 202111031194 A CN202111031194 A CN 202111031194A CN 113705218 A CN113705218 A CN 113705218A
Authority
CN
China
Prior art keywords
event
extraction
model
word
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111031194.8A
Other languages
English (en)
Other versions
CN113705218B (zh
Inventor
陈兴蜀
蒋梦婷
袁磊
刘朋
黄铁脉
廖志红
宋可儿
冯科
王海舟
王文贤
罗永刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202111031194.8A priority Critical patent/CN113705218B/zh
Publication of CN113705218A publication Critical patent/CN113705218A/zh
Application granted granted Critical
Publication of CN113705218B publication Critical patent/CN113705218B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置,方法包括以下步骤:首先构建事件元素抽取基础模型,包括基于BERT的信息预学习表示层、字编码嵌入层、BiGRU双向门控循环神经网络层、自注意力层和CRF条件随机场输出层,并将基础模型按功能细化分为事件触发词抽取、事件论元抽取和事件属性抽取3个网格模块;然后分别对事件触发词抽取模型、事件论元抽取模型和事件属性抽取模型进行抽取优化;最后采用训练得到的事件元素抽取模型对测试数据进行事件元素抽取的预测。本发明方法在事件元素抽取任务中表现良好,获得了较高的准确率。

Description

基于字符嵌入的事件元素网格化抽取方法、存储介质及电子 装置
技术领域
本发明涉及事件抽取技术领域,具体涉及一种基于字符嵌入的事件元素网格化抽取方法、 存储介质及电子装置。
背景技术
信息抽取技术是把关注的非结构化数据信息从海量文本数据中抽取出来,并转换为结构 化的数据。通过信息抽取技术,可以过滤低价值的信息内容,快速获得精准和高质量信息。 事件是信息的一种重要表达形式,信息抽取领域的重点研究方向即为事件抽取。该研究中的 权威学会ACE(Automatic Content Extraction)对事件抽取作了明确定义,事件抽取要求将文 本数据中表征事件信息的非结构化数据转化为结构化、可存储使用的精准知识。
当今社会,在网络新闻媒体上实时推送着各类大大小小的热点事件。面对日益增长的海 量互联网信息,快速定位到公众讨论的具体事件变得至关重要。这不仅可以帮助舆情监管人 员快速定位到具体事件,了解事件的具体要素,还可以将事件抽取结果提供给其他自然语言 处理任务,以进行更深入的分析和应用。因网络和社会因素影响,事件抽取技术研究在国内 外研究热度逐年升高。
发明内容
针对上述问题,本发明的目的在于提供一种基于字符嵌入的事件元素网格化抽取方法、 存储介质及电子装置,事件元素网格化抽取是在事件检测任务的基础上,将模型细化为事件 触发词抽取、事件论元抽取和事件属性抽取3个网格模块,各网格模块既联合共享基础模型 事件语义信息,又独立优化各自元素的抽取性能。技术方案如下:
一种基于字符嵌入的事件元素网格化抽取方法,包括以下步骤:
步骤1:构建事件元素抽取基础模型;
所述基础模型为字符嵌入神经网络深度学习模型,包括基于BERT的信息预学习表示层、 字编码嵌入层、BiGRU双向门控循环神经网络层、自注意力层和CRF条件随机场输出层; 其运行步骤如下:
步骤1.1:基于BERT的信息预学习表示层对样本数据上下文语义特征进行预学习,生成 突发元事件域的文本表示模型;
步骤1.2:字编码嵌入层利用训练好的BERT语言模型中生成的语义表示向量输入到 BiGRU双向门控循环神经网络层;
步骤1.3:BiGRU双向门控循环神经网络层提取输入序列的上下文依赖的长距离深层特 征;
步骤1.4:自注意力层对BiGRU双向门控循环神经网络层学习到的深层特征进行加权变 换,以突出文本序列中重点词汇信息;
步骤1.5:CRF条件随机场输出层将触发词提取转化为序列标注任务,以解决传统词向量 转化为字向量后上下文标注信息问题;
将所述基础模型细化为事件触发词抽取、事件论元抽取和事件属性抽取3个网格模块;
步骤2:对事件触发词抽取模型进行抽取优化:从一个事件句抽取一个主事件触发词作 为事件触发词,多余事件触发词作外部特征,辅助表征主事件;将标注数据中的所有事件触 发词作为知识库,作为事件触发词抽取的先验特征;抽取句子中与知识库内事件触发词匹配 的触发词,并标注出来,与句子BERT语义编码的输出的字符嵌入向量拼接;并将事件类型 向量拼接到字符嵌入向量中;事件触发词抽取任务的目标向量由事件触发词的抽取结果表示, 对应事件触发词的标注结果;
步骤3:对事件论元抽取模型进行抽取优化:在原文本BERT语义特征之上,将文本中 所有字符到事件触发词的相对距离作为文本结构特征,事件触发词本身的相对距离为0;并 将事件主体与客体联合,事件时间与地点联合,采用两个独立的模型进行提取;事件论元抽 取任务的目标向量对应事件论元的抽取结果标注;
步骤4:对事件属性抽取模型进行抽取优化:定义事件属性为事件时态和事件极性,模 型输出转变为多分类问题,将所述基础模型中CRF条件随机场输出层置换构造两个分类器; 将事件触发词及左右两端进行动态池化获得的特征作为全局特征,与句子BERT语义编码的 输出的字符嵌入向量拼接,并采用十折交叉验证方法进行优化;
步骤5:采用步骤1-步骤4训练得到的事件要素抽取模型对测试数据进行事件元素抽取 结果的预测。
进一步的,所述步骤1.3中,BiGRU双向门控循环神经网络层同时包含一个正向的
Figure BDA0003245357190000021
和一个反向的
Figure BDA0003245357190000022
正向GRU捕捉0:t的上文特征信息at,反向GRU捕捉t:n-1的下文特征信息a′t,通过拼接所捕获的上下文特征信息,获得句子的上下文信息yt,如公式(1)-(3)所示:
Figure BDA0003245357190000023
Figure BDA0003245357190000024
yt=[at,a′t] (3)
式中,xt表示词序列特征向量;at表示正向GRU捕捉0:t的上文特征信息;a′t表示反向GRU捕捉t:n-1的下文特征信息;yt表示获得句子的上下文信息;
所述加权变换公式(4)所示:
Figure BDA0003245357190000031
式中,eij表示句子j的特征对句子i的重要性;a表示注意力机制;·表示共享参数的线 性变换权重矩阵;yi和yj分别表示获得的句子i和句子j的上下文信息。
更进一步的,在事件触发词抽取任务中,假设词wi的事件触发词类型目标向量为[tri0,tri1,tri2,...,trij,...,trin],则trij的设置方式如公式(5)所示:
Figure BDA0003245357190000032
所述步骤3中,在事件论元抽取任务中,假设词wi的事件论元类型目标向量为[arg0,arg1,...,argj,...,argn],其中argj的设置方式如公式(6)所示:
Figure BDA0003245357190000033
一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运 行时执行上述的方法。
一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被 设置为通过所述计算机程序执行所上述的方法。
本发明的有益效果是:本发明利用事件元素抽取基础模型,分别对模型细化的事件触发 词抽取、事件论元抽取和事件属性抽取3个网格模块进行抽取优化,各网格模块既联合共享 基础模型事件语义信息,又独立优化各自元素的抽取性能,结果表明基于字符嵌入的事件元 素网格化抽取模型在事件元素抽取任务中表现良好,在事件元素抽取任务中表现良好,获得 了较高的准确率;此外,该模型后续可以开展更多的研究。
附图说明
图1是本发明方法流程示意图。
图2是本发明中建立的事件要素抽取基础模型示意图。
图3是本发明分模块事件论元抽取对比实验结果示意图。
图4是本发明分模块事件属性抽取优化方法对比分析实验结果示意图。
图5是本发明事件元素抽取不同方法对比实验结果。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步详细的说明。一种基于字符嵌入的事件 元素网格化抽取方法,包括以下步骤:
步骤1:构建事件元素抽取基础模型;
如图2所示,事件元素抽取基础模型主要包含基于BERT的信息预学习表示层、字编码 嵌入层、BiGRU双向门控循环神经网络层、Self-attention自注意力层和CRF条件随机场输出 层。
使用BERT模型能够对样本数据上下文语义特征预学习,生成突发元事件域的文本表示 模型。再利用训练好的BERT语言模型中生成的语义表示向量输入到BiGRU,利用BiGRU提取输入序列的上下文依赖的长距离深层特征。
其中,BERT语言模型是一个著名的语言模型,是2018年10月由Google AI研究院提出 的一种预训练模型。本发明仅使用Bert模型进行语义表示。
BiGRU双向门控循环神经网络层同时包含一个正向的
Figure BDA0003245357190000041
和一个反向 的
Figure BDA0003245357190000042
正向GRU捕捉0:t的上文特征信息at,反向GRU捕捉t:n-1的 下文特征信息a′t,通过拼接所捕获的上下文特征信息,获得句子的上下文信息yt,如公式1- 3所示。
Figure BDA0003245357190000043
Figure BDA0003245357190000044
yt=[at,a′t] (3)
Self-attention自注意力层用于对BiGRU学习到的深层特征进行加权变换,突出文本序列 中重点词汇信息,如公式4所示。最终使用CRF将触发词提取转化为序列标注任务,解决传 统词向量转化为字向量后上下文标注信息。
Figure BDA0003245357190000045
步骤2:对事件触发词抽取模型进行抽取优化;
一个事件描述句中可能存在多个事件触发词。在事件元素的抽取过程中,不仅要完成事 件元素的抽取,还必须使事件元素和事件触发词对应。同时,一个事件描述句中信息元素有 限,多个事件中存在主次关系。为了抽取出主要关注事件和更丰富的事件元素,一个事件句 抽取一个主事件触发词作为事件触发词,多余事件触发词作外部特征,辅助表征主事件。将 标注数据中的所有事件触发词作为知识库,类似于远程监督的方式,作为事件触发词抽取的 先验特征。抽取句子中与知识库内事件触发词匹配的触发词标注出来,与句子BERT语义编 码的输出的字符嵌入向量拼接。
另外,事件元素的组成和事件的类型有很大的关系,如“突袭”等涉恐涉爆事件,由触 发词的含义可知是两方发生冲突,一般在触发词的邻近位置会有冲突的双方;“地震”等重大 灾情事件,由触发词的含义可知是某处有灾情表述,那么触发词邻近位置出现地点要素的可 能性会很大。因此,事件元素抽取中事件类型具有重要语义线索,事件类型向量拼接到字符 嵌入向量中。
在事件触发词抽取任务中,目标向量是事件触发词的抽取结果表示,目标向量对应了事 件触发词的标注结果。如表1所示,三种事件触发词标签长度,BIO标注模式分别是“B-Trigger”, “I-Trigger”和“Other”。
表1事件触发词标注标记于含义
Figure BDA0003245357190000051
假设词wi的事件触发词类型目标向量为[tri0,tri1,tri2],其中trij的设置方式如公式(1) 所示:
Figure BDA0003245357190000052
步骤3:对事件论元抽取模型进行抽取优化;
事件论元中的事件主体、事件客体、事件时间和事件地点四个元素在语义结构上受到事 件触发词的重要影响。为了获得事件论元元素在语句语义结构上的潜在特征,在原文本BERT 语义特征之上,将文本中所有字符到事件触发词的相对距离作为文本结构特征,事件触发词 本身的相对距离为0。并将事件主体与客体联合,事件时间与地点联合,采用两个独立的模 型进行提取。
在事件论元抽取任务中,目标向量对应了事件论元的抽取结果标注。各个事件元素标签 类型及其含义如表2所示,九种事件触发词标签长度,BIO标注模式分别是“B-Subject”, “I-Subject”,“B-Object”,“I-Object”,“B-Time”,“I-Time”,“B-Location”,“I-Location”和 “Other”。
表2事件论元标注及含义
Figure BDA0003245357190000061
假设词wi的事件论元类型目标向量为[arg0,arg1,...,argj,...,arg8],其中argj的设置方式如 公式(2)所示:
Figure BDA0003245357190000062
在事件论元抽取中,事件主体、事件客体、事件时间和事件地点元素分布差距较大,一 个模型会导致此事件时间和事件地点两元素抽取效果较差。为了提升事件论元抽取中各事件 元素的抽取效果,表3所示为是否采用分模块进行事件论元抽取的对比实验结果。
表3分模块事件论元抽取对比实验结果
Figure BDA0003245357190000063
Sub&Obj和Tim&Loc表示将四个事件元素拆分为两个事件论元对,独立的训练两个模 型,进行事件论元的抽取。由图1可知,分模块进行事件论元的抽取,能够解决数据中论元 分布不均的问题,有效提升论元抽取效果。
步骤4:对事件属性抽取模型进行抽取优化;
定义事件属性分为事件时态和事件极性,事件时态分为“过去”、“现在”、“将来”和“其 他”,事件极性分为“肯定”、“否定”和“可能”。模型输出转变为多分类问题,所将基础模型CRF输出层置换构造两个分类器。分类器激活使用softmax多分类函数,损失函数为CrossEntropyLoss。
表征事件时态和事件极性的词语大多存在事件触发词附近。相比与利用文本全局特征, 设置事件触发词附近的池化窗口,提取相关的紧密局部特征,更有利于事件属性的抽取。采 用将事件触发词及左右两端进行动态池化获得的特征作为全局特征,与句子BERT语义编码 的输出的字符嵌入向量拼接。此外,为了提升模型泛化性能,考虑采用十折交叉验证方法进 行优化。
事件属性优化抽取中,加入了事件触发词左右动态池化特征和十折交叉验证两种优化方 法。为了验证上述事件属性元素抽取模型中所在采用的优化方法的有效性,对比分析实验结 果如表4所示。
表4事件属性抽取优化方法对比分析实验结果
Figure BDA0003245357190000071
由图4可知,相比于基础模型无优化的情况,添加触发词池化特征或者进行十折交叉验 证都能提高事件属性的抽取效果;同时添加触发词池化特征和进行十折交叉验证能大幅度提 升事件属性的抽取性能。经过分析,事件触发词左右动态池化特征利用触发词与事件属性潜 在关系,有利于提升事件属性元素的抽取性能;十折交叉验证可以在一定程度上减小过拟合, 在有限的数据中获取尽可能多的有效信息,缓解数据中元素分布不均的问题,提升模型的泛 化能力。
步骤5:采用步骤1-步骤4训练得到的事件要素抽取模型对测试数据进行事件元素抽取 结果的预测。BiGRU-SATT-CRF为本发明提出的基于字符嵌入的事件元素抽取方法,实验结 果如表5所示。
表5事件元素抽取不同方法对比实验结果
Figure BDA0003245357190000081
从图5的实验结果可以看出,基于字符嵌入的神经网络事件元素抽取方法的实验结果均 优于其他抽取方法,这说明了基于字符嵌入和分模块优化的神经网络方法在事件元素抽取任 务中具有一定的优势。
可将本发明方法编为程序代码,通过计算机刻度存储介质存储该代码,将程序代码传输 给处理器,通过处理器执行本发明方法。
本发明利用事件元素抽取基础模型,分别对模型细化的事件触发词抽取、事件论元抽取 和事件属性抽取3个网格模块进行抽取优化,构造不同的特征向量和目标向量,结果表明基 于字符嵌入的事件元素网格化抽取模型在事件元素抽取任务中表现良好。此外,该模型后续 可以开展更多的研究。

Claims (5)

1.一种基于字符嵌入的事件元素网格化抽取方法,其特征在于,包括以下步骤:
步骤1:构建事件元素抽取基础模型;
所述基础模型为字符嵌入神经网络深度学习模型,包括基于BERT的信息预学习表示层、字编码嵌入层、BiGRU双向门控循环神经网络层、自注意力层和CRF条件随机场输出层;其运行步骤如下:
步骤1.1:基于BERT的信息预学习表示层对样本数据上下文语义特征进行预学习,生成突发元事件域的文本表示模型;
步骤1.2:字编码嵌入层利用训练好的BERT语言模型中生成的语义表示向量输入到BiGRU双向门控循环神经网络层;
步骤1.3:BiGRU双向门控循环神经网络层提取输入序列的上下文依赖的长距离深层特征;步骤1.4:自注意力层对BiGRU双向门控循环神经网络层学习到的深层特征进行加权变换,以突出文本序列中重点词汇信息;
步骤1.5:CRF条件随机场输出层将触发词提取转化为序列标注任务,以解决传统词向量转化为字向量后上下文标注信息问题;
将所述基础模型按功能细化分为事件触发词抽取、事件论元抽取和事件属性抽取3个网格模块,以用于后续步骤根据不同模型的功能特性,分别对模型进行优化;
步骤2:对事件触发词抽取模型进行抽取优化:从一个事件句抽取一个主事件触发词作为事件触发词,多余事件触发词作外部特征,辅助表征主事件;将标注数据中的所有事件触发词作为知识库,作为事件触发词抽取的先验特征;抽取句子中与知识库内事件触发词匹配的触发词,并标注出来,与根据句子BERT语义表示模型获得的字符嵌入向量拼接;并将事件类型向量拼接到字符嵌入向量中;事件触发词抽取任务的目标向量由事件触发词的抽取结果表示,对应事件触发词的标注结果;
步骤3:对事件论元抽取模型进行抽取优化:在原文本BERT语义特征之上,将文本中所有字符到事件触发词的相对距离作为文本结构特征,事件触发词本身的相对距离为0;并将事件主体与客体联合,事件时间与地点联合,采用两个独立的模型进行提取;事件论元抽取任务的目标向量对应事件论元的抽取结果标注;
步骤4:对事件属性抽取模型进行抽取优化:定义事件属性为事件时态和事件极性,模型输出转变为多分类问题,将所述基础模型中CRF条件随机场输出层置换构造两个分类器;将事件触发词及左右两端进行动态池化获得的特征作为全局特征,与根据句子BERT语义表示模型获得的字符嵌入向量拼接,并采用十折交叉验证方法进行优化;
步骤5:采用步骤1-步骤4训练得到的事件要素抽取模型对测试数据进行事件元素抽取结果的预测。
2.根据权利要求1所述的基于字符嵌入的事件元素网格化抽取方法,其特征在于,所述步骤1.3中,BiGRU双向门控循环神经网络层同时包含一个正向的
Figure FDA0003245357180000021
和一个反向的
Figure FDA0003245357180000022
正向GRU捕捉0:t的上文特征信息at,反向GRU捕捉t:n-1的下文特征信息a′t,通过拼接所捕获的上下文特征信息,获得句子的上下文信息yt,如公式(1)-(3)所示:
Figure FDA0003245357180000023
Figure FDA0003245357180000024
Figure FDA0003245357180000025
式中,xt表示词序列特征向量;at表示正向GRU捕捉0:t的上文特征信息;a′t表示反向GRU捕捉t:n-1的下文特征信息;yt表示获得句子的上下文信息;
所述加权变换公式(4)所示:
Figure FDA0003245357180000026
式中,eij表示句子j的特征对句子i的重要性;a表示注意力机制;W表示共享参数的线性变换权重矩阵;yi和yj分别表示获得的句子i和句子j的上下文信息。
3.根据权利要求1所述的基于字符嵌入的事件元素网格化抽取方法,其特征在于,所述步骤2中,在事件触发词抽取任务中,假设词wi的事件触发词类型目标向量为[tri0,tri1,tri2,...,trij,...,trin],则trij的设置方式如公式(5)所示:
Figure FDA0003245357180000027
所述步骤3中,在事件论元抽取任务中,假设词wi的事件论元类型目标向量为[arg0,arg1,...,argj,...,argn],其中argj的设置方式如公式(6)所示:
Figure FDA0003245357180000028
4.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至3任一项中所述的方法。
5.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至3任一项中所述的方法。
CN202111031194.8A 2021-09-03 2021-09-03 基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置 Active CN113705218B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111031194.8A CN113705218B (zh) 2021-09-03 2021-09-03 基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111031194.8A CN113705218B (zh) 2021-09-03 2021-09-03 基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置

Publications (2)

Publication Number Publication Date
CN113705218A true CN113705218A (zh) 2021-11-26
CN113705218B CN113705218B (zh) 2023-03-21

Family

ID=78659016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111031194.8A Active CN113705218B (zh) 2021-09-03 2021-09-03 基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置

Country Status (1)

Country Link
CN (1) CN113705218B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114254107A (zh) * 2021-11-30 2022-03-29 重庆邮电大学 一种事件抽取系统及方法
CN114298053A (zh) * 2022-03-10 2022-04-08 中国科学院自动化研究所 一种基于特征和注意力机制融合的事件联合抽取系统
CN114936563A (zh) * 2022-04-27 2022-08-23 苏州大学 一种事件抽取方法、装置及存储介质
CN115577112A (zh) * 2022-12-09 2023-01-06 成都索贝数码科技股份有限公司 一种基于类型感知门控注意力机制的事件抽取方法及系统
CN116303996A (zh) * 2023-05-25 2023-06-23 江西财经大学 基于多焦点图神经网络的主题事件抽取方法
CN117094397A (zh) * 2023-10-19 2023-11-21 北京大数据先进技术研究院 一种基于短论元的细粒度事件信息抽取方法、装置和产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111159336A (zh) * 2019-12-20 2020-05-15 银江股份有限公司 一种半监督司法实体及事件联合提取方法
CN111444726A (zh) * 2020-03-27 2020-07-24 河海大学常州校区 基于双向格子结构的长短时记忆网络的中文语义信息提取方法和装置
CN111626056A (zh) * 2020-04-11 2020-09-04 中国人民解放军战略支援部队信息工程大学 基于RoBERTa-BiGRU-LAN模型的中文命名实体识别方法及装置
CN112000792A (zh) * 2020-08-26 2020-11-27 北京百度网讯科技有限公司 自然灾害事件的抽取方法、装置、设备以及存储介质
CN112084381A (zh) * 2020-09-11 2020-12-15 广东电网有限责任公司 一种事件抽取方法、系统、存储介质以及设备
CN113051887A (zh) * 2019-12-26 2021-06-29 深圳市北科瑞声科技股份有限公司 一种公告信息元素抽取方法、系统及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111159336A (zh) * 2019-12-20 2020-05-15 银江股份有限公司 一种半监督司法实体及事件联合提取方法
CN113051887A (zh) * 2019-12-26 2021-06-29 深圳市北科瑞声科技股份有限公司 一种公告信息元素抽取方法、系统及装置
CN111444726A (zh) * 2020-03-27 2020-07-24 河海大学常州校区 基于双向格子结构的长短时记忆网络的中文语义信息提取方法和装置
CN111626056A (zh) * 2020-04-11 2020-09-04 中国人民解放军战略支援部队信息工程大学 基于RoBERTa-BiGRU-LAN模型的中文命名实体识别方法及装置
CN112000792A (zh) * 2020-08-26 2020-11-27 北京百度网讯科技有限公司 自然灾害事件的抽取方法、装置、设备以及存储介质
CN112084381A (zh) * 2020-09-11 2020-12-15 广东电网有限责任公司 一种事件抽取方法、系统、存储介质以及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
严红 等: "基于深度神经网络的法语命名实体识别模型", 《计算机应用》 *
魏优等: "基于深层语境词表示与自注意力的生物医学事件抽取", 《计算机工程与科学》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114254107A (zh) * 2021-11-30 2022-03-29 重庆邮电大学 一种事件抽取系统及方法
CN114298053A (zh) * 2022-03-10 2022-04-08 中国科学院自动化研究所 一种基于特征和注意力机制融合的事件联合抽取系统
CN114298053B (zh) * 2022-03-10 2022-05-24 中国科学院自动化研究所 一种基于特征和注意力机制融合的事件联合抽取系统
CN114936563A (zh) * 2022-04-27 2022-08-23 苏州大学 一种事件抽取方法、装置及存储介质
CN114936563B (zh) * 2022-04-27 2023-07-25 苏州大学 一种事件抽取方法、装置及存储介质
CN115577112A (zh) * 2022-12-09 2023-01-06 成都索贝数码科技股份有限公司 一种基于类型感知门控注意力机制的事件抽取方法及系统
CN115577112B (zh) * 2022-12-09 2023-04-18 成都索贝数码科技股份有限公司 一种基于类型感知门控注意力机制的事件抽取方法及系统
CN116303996A (zh) * 2023-05-25 2023-06-23 江西财经大学 基于多焦点图神经网络的主题事件抽取方法
CN116303996B (zh) * 2023-05-25 2023-08-04 江西财经大学 基于多焦点图神经网络的主题事件抽取方法
CN117094397A (zh) * 2023-10-19 2023-11-21 北京大数据先进技术研究院 一种基于短论元的细粒度事件信息抽取方法、装置和产品
CN117094397B (zh) * 2023-10-19 2024-02-06 北京大数据先进技术研究院 一种基于短论元的细粒度事件信息抽取方法、装置和产品

Also Published As

Publication number Publication date
CN113705218B (zh) 2023-03-21

Similar Documents

Publication Publication Date Title
CN113705218B (zh) 基于字符嵌入的事件元素网格化抽取方法、存储介质及电子装置
CN109902145B (zh) 一种基于注意力机制的实体关系联合抽取方法和系统
CN111709241B (zh) 一种面向网络安全领域的命名实体识别方法
Ni et al. MVAN: Multi-view attention networks for fake news detection on social media
CN109934261B (zh) 一种知识驱动参数传播模型及其少样本学习方法
CN110598005B (zh) 一种面向公共安全事件的多源异构数据知识图谱构建方法
CN104318340B (zh) 基于文本履历信息的信息可视化方法及智能可视分析系统
CN112819023B (zh) 样本集的获取方法、装置、计算机设备和存储介质
Zhang et al. Hierarchical scene parsing by weakly supervised learning with image descriptions
CN113569001A (zh) 文本处理方法、装置、计算机设备及计算机可读存储介质
CN113704434A (zh) 知识库问答方法、电子设备及可读存储介质
CN111597816A (zh) 一种自注意力命名实体识别方法、装置、设备及存储介质
Li et al. Multi-task deep learning model based on hierarchical relations of address elements for semantic address matching
CN114048314A (zh) 一种自然语言隐写分析方法
Sharma et al. Graph neural network-based visual relationship and multilevel attention for image captioning
Tarride et al. A comparative study of information extraction strategies using an attention-based neural network
CN113901228A (zh) 融合领域知识图谱的跨境民族文本分类方法及装置
Cheng et al. Knowledge graph representation learning with multi-scale capsule-based embedding model incorporating entity descriptions
CN116843175A (zh) 一种合同条款风险检查方法、系统、设备和存储介质
CN113516118B (zh) 一种图像与文本联合嵌入的多模态文化资源加工方法
CN115934883A (zh) 一种基于语义增强的多特征融合的实体关系联合抽取方法
CN113342982B (zh) 融合RoBERTa和外部知识库的企业行业分类方法
Qi et al. Video captioning via a symmetric bidirectional decoder
CN116089644A (zh) 一种融合多模态特征的事件检测方法
CN115062123A (zh) 一种对话生成系统的知识库问答对生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant