CN112116075A - 事件提取模型生成方法和装置、文本事件提取方法和装置 - Google Patents
事件提取模型生成方法和装置、文本事件提取方法和装置 Download PDFInfo
- Publication number
- CN112116075A CN112116075A CN202010988657.9A CN202010988657A CN112116075A CN 112116075 A CN112116075 A CN 112116075A CN 202010988657 A CN202010988657 A CN 202010988657A CN 112116075 A CN112116075 A CN 112116075A
- Authority
- CN
- China
- Prior art keywords
- argument
- event
- module
- word
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 128
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012549 training Methods 0.000 claims abstract description 102
- 108091026890 Coding region Proteins 0.000 claims abstract description 56
- 230000011218 segmentation Effects 0.000 claims abstract description 18
- 238000002372 labelling Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 13
- 238000004880 explosion Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 239000002360 explosive Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 230000034994 death Effects 0.000 description 2
- 231100000517 death Toxicity 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Character Discrimination (AREA)
Abstract
本申请实施例公开了事件提取模型生成方法和装置、文本事件提取方法和装置。该事件提取模型生成方法的一具体实施方式包括:获取训练样本集合;对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;将样本词语序列输入初始模型包括的编码模块,得到编码序列;将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。该实施方式采用分任务共享网络结构实现了端到端识别,提高了事件提取的准确性和效率。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及事件提取模型生成方法和装置、文本事件提取方法和装置。
背景技术
事件是一种重要的信息表示形式,是发生在某个特定的时间点或时间段、某个特定的地域范围内,由一个或者多个角色参与的一个或多个动作组成的事情或状态改变。事件抽取技术是从自然叙述文本中提取事件要素并将其以结构化形式呈现。事件抽取的主要研究方法有模式匹配和机器学习两大类。模式匹配方法是在一些模式的指导下进行事件的识别和抽取。机器学习的方法识别事件,是借鉴文本分类的思想,将事件类别及事件元素的识别转化成为分类问题,其核心在于分类器的构造和特征的选择。
模式匹配在特定领域内能取得较高的性能,但移植性较差。机器学习与领域无关,无需太多领域专家的指导,系统移植性较好。随着相关语料库的建设和互联网上各种文本资源的不断丰富,语料的获取越来越方便。目前,机器学习已成为事件抽取的主流研究方法。但是目前的研究方法还是主要集中于英文数据集,对于中文数据的构建与抽取方法研究较少,而且大部分事件抽取研究是基于已知实体后对事件角色的判断,还有很多是基于流水线的方法对于性能的影响很大。
发明内容
本申请实施例的目的在于提出了一种改进的事件提取模型生成方法和装置、文本事件提取方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种事件提取模型生成方法,该方法包括:获取训练样本集合,其中,训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色;对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;将样本词语序列输入初始模型包括的编码模块,得到编码序列;将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
在一些实施例中,对初始模型进行训练,包括:确定触发词识别模块、论元识别模块和论元角色分类模块分别对应的触发词损失、事件论元损失和论元角色损失;基于触发词损失、事件论元损失和论元角色损失,对初始模型的参数进行优化;响应于确定优化后的初始模型符合预设条件,确定优化后的初始模型为事件提取模型。
在一些实施例中,基于触发词损失、事件论元损失和论元角色损失,对初始模型的参数进行优化,包括:获取触发词损失、事件论元损失和论元角色损失分别对应的第一权重、第二权重、第三权重,其中,第一权重、第二权重、第三权重通过训练过程中自动学习得到;基于第一权重、第二权重、第三权重,确定初始模型的总损失;基于总损失,对初始模型的参数进行优化。
在一些实施例中,第一权重、第二权重、第三权重通过在训练时设置在初始模型中的自注意力层自动学习得到。
第二方面,本申请实施例提供了一种文本事件提取方法,该方法包括:获取待识别文本,并对待识别文本分词,得到词语序列;将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,事件提取模型预先按照上述第一方面中任一实施例描述的方法训练得到;将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元;利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
在一些实施例中,利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色,包括:将编码序列输入事件提取模型包括的自注意力模块,得到长度为目标长度的编码向量;从编码序列中提取触发词对应的触发词子序列;将触发词子序列转换为长度为目标长度的转换后向量;将编码向量和转换后向量进行拼接,得到拼接后向量;从拼接后向量中提取至少一个事件论元中的每个事件论元对应的事件论元子序列;将所得到的各个事件论元子序列与触发词子序列拼接后输入论元角色分类模块,得到至少一个事件论元中的事件论元对应的论元角色。
在一些实施例中,将触发词子序列转换为长度为目标长度的转换后向量,包括:将触发词子序列输入事件提取模型包括的双向LSTM中,得到目标长度的转换后向量。
第三方面,本申请实施例提供了一种事件提取模型生成装置,该装置包括:第一获取模块,用于获取训练样本集合,其中,训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色;第一分词模块,用于对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;第一编码模块,用于将样本词语序列输入初始模型包括的编码模块,得到编码序列;训练模块,用于将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
第四方面,本申请实施例提供了一种文本事件提取装置装置,该装置包括:第二获取模块,用于获取待识别文本,并对待识别文本分词,得到词语序列;第二编码模块,用于将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,事件提取模型预先按照上述第一方面中任一实施例描述的方法训练得到;识别模块,用于将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元;分类模块,用于利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
第五方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实现方式描述的方法。
第六方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面或第二方面中任一实现方式描述的方法。
本申请实施例提供的事件提取模型生成方法和装置、文本事件提取方法和装置,通过在初始模型中设置触发词识别模块、论元识别模块和论元角色分类模块,利用标注的触发词、事件论元和论元角色对模型进行训练,实现了利用事件提取模型在未知论元的情况下一次性识别出事件类型和事件论元类型,事件提取模型采用分任务共享网络结构实现了端到端识别,提高了事件提取的准确性和效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的事件提取模型生成方法的一个实施例的流程图;
图3是根据本申请的文本事件提取方法的一个实施例的流程图;
图4是根据本申请的事件提取模型生成装置的一个实施例的结构示意图;
图5是根据本申请的文本事件提取装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的事件提取模型生成方法和装置、文本事件提取方法和装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101,网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送消息等。终端设备101上可以安装有各种通讯客户端应用,例如阅读类应用、新闻类应用、搜索类应用、网页浏览器应用、购物类应用、即时通信工具等。
终端设备101可以是各种电子设备,包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。
服务器103可以是提供各种服务的服务器,例如对终端设备101上的文本等内容提供支持的文本服务器。文本服务器可以利用获取的训练样本训练事件提取模型,或利用训练好的事件提取模型从文本中提取事件相关信息。
需要说明的是,本申请实施例所提供的事件提取模型生成方法、文本事件提取方法可以由终端设备101或服务器103执行,相应地,事件提取模型生成装置、事件提取装置可以设置于终端设备101或服务器103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。需要说明的是,在训练样本或待识别文本不需从远程获取的情况下,上述系统架构可以不包括网络,只包括服务器或终端设备。
继续参考图2,其示出了根据本申请的事件提取模型生成方法的一个实施例的流程200。该方法包括以下步骤:
步骤201,获取训练样本集合。
在本实施例中,事件提取模型生成方法的执行主体(例如图1所示的终端设备或服务器)可以从本地或从远程获取训练样本集合。其中,训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色。
作为示例,假设样本文本为“8月4日黎巴嫩爆炸致171人死亡,上千人受伤”,其中标注触发词为文本中的“爆炸”,相应的,事件类型为爆炸事件类型;标注事件论元有:8月4日、黎巴嫩、171人、上千人;标注事件论元分别对应的标注论元角色为:时间、地点、死亡人数、受伤人数。
再例如,下表示出了各种事件类型和对应的论元角色。
步骤202,对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列。
在本实施例中,上述执行主体可以对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列。其中,对文本进行分词的方法为目前广泛使用的公知技术,这里不再赘述。
步骤203,将样本词语序列输入初始模型包括的编码模块,得到编码序列。
在本实施例中,上述执行主体可以将样本词语序列输入初始模型包括的编码模块,得到编码序列。其中,初始模型可以包括各种模块,各模块可以分别实现不同的功能。各模块的类型可以包括但不限于以下至少一种:卷积神经网络、循环神经网络、分类器等。
上述编码模块用于对得到的词语序列中的每个词语进行编码,每个编码表示一个词语,上述执行主体可以利用编码对文本进行分析。作为示例,上述编码模块可以包括BERT(Bidirectional Encoder Representation from Transformers)网络。
步骤204,将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
在本实施例中,上述执行主体可以将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
其中,触发词识别模块用于识别文本包括的触发词,通常,触发词可以用于表示事件类型,因此,这里的触发词识别也可以称为事件类型识别。作为示例,对于文本“8月4日黎巴嫩爆炸致171人死亡,上千人受伤”,触发词识别模块可以识别出触发词“爆炸”,即事件类型为爆炸。可选的,触发词识别模块的结构可以采用CRF+log_softmax的形式。
论元识别模块用于识别文本中的事件论元,例如,论元识别模块可以识别上述文本中的事件论元包括:8月4日(首是第1个字符,尾是第4个字符)、黎巴嫩(首是第5个字符,尾是第7个字符)、171人(首是第11个字符,尾是第12个字符)、上千人(首是第16个字符,尾是第18个字符)。可选的,论元识别模块的结构可以采用CRF+log_softmax的形式。
论元角色分类模块用于识别事件论元对应的论元角色,论元角色可以表示事件论元的特征。例如,论元角色分类模块可以识别上述文本中的事件论元与论元角色的对应关系为:8月4日-爆炸事件,黎巴嫩-爆炸地点、171人-死亡人数、上千人-受伤人数。可选的,论元角色分类模块的结构可以采用CRF+log_softmax的形式。
上述执行主体可以利用机器学习方法,将步骤201获取到的训练样本集合中的训练样本包括的文本对应的编码序列作为输入,将与输入的编码序列对应的标注触发词作为触发词识别模块的期望输出,将标注事件论元作为论元识别模块的期望输出,以及将标注论元角色作为论元角色分类模块的期望输出,对初始模型进行训练,针对每次训练输入的编码序列,可以得到实际输出。其中,实际输出是初始模型实际输出的数据,用于表征触发词、事件论元和论元角色。然后,上述执行主体可以采用梯度下降法和反向传播法,基于实际输出和期望输出,调整初始模型的参数,将每次调整参数后得到的模型作为下次训练的初始模型,并在满足预设的训练结束条件的情况下,结束训练,从而训练得到事件提取模型。
训练后的事件提取模型可以对输入的文本进行分析,得到三个输出,分别为触发词、事件论元和论元角色。
需要说明的是,这里预设的训练结束条件可以包括但不限于以下至少一项:训练时间超过预设时长;训练次数超过预设次数;利用预设的损失函数(例如交叉熵损失函数)计算所得的损失值收敛。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤对初始模型进行训练:
首先,确定触发词识别模块、论元识别模块和论元角色分类模块分别对应的触发词损失、事件论元损失和论元角色损失。
具体地,模型的结构包括三个输出,分别对应三个损失:触发词损失loss_t、事件论元损失loss_a和论元角色损失loss_r。各损失的计算公式如下:
然后,基于触发词损失、事件论元损失和论元角色损失,对初始模型的参数进行优化。
具体地,优化过程中,可以使用梯度下降法和反向传播法,使上述三个损失逐渐减小直至收敛。
最后,响应于确定优化后的初始模型符合预设条件,确定优化后的初始模型为事件提取模型。
具体地,当上述三个损失的总损失值小于预设的损失阈值或总损失值收敛时,确定初始模型符合预设条件,将此时的初始模型确定为事件提取模型。
本实现方式通过使用三种损失函数,可以有针对性地对触发词识别模块、论元识别模块和论元角色分类模块的参数进行联合优化,使训练后的模型可以准确地识别输入的文本的触发词、事件论元和论元角色。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤对初始模型的参数进行优化:
首先,获取触发词损失、事件论元损失和论元角色损失分别对应的第一权重、第二权重、第三权重。
其中,第一权重、第二权重、第三权重通过训练过程中自动学习得到。作为示例,假设第一权重、第二权重、第三权重分别为α、β、γ。
然后,基于第一权重、第二权重、第三权重,确定初始模型的总损失。
具体地,总损失为:
total_loss=α*loss_t+β*loss_a+γ*loss_r
最后,基于总损失,对初始模型的参数进行优化。
具体地,在训练过程中,不断调整初始模型的参数,使总损失的值逐渐减小直至收敛。
本实现方式通过对每种损失设置对应的权重,可以有针对性地根据意愿调整每种损失对总损失的比重,实现了模型训练的灵活性,以及训练后的模型的识别准确性。
在本实施例的一些可选的实现方式中,第一权重、第二权重、第三权重通过在训练时设置在初始模型中的自注意力层(Self-Attention)自动学习得到。Self-Attention利用了Attention机制,在训练时计算每个词语与其他所有词语之间的关联,可以提高模型训练的准确性。
本申请的上述实施例提供的方法,通过在初始模型中设置触发词识别模块、论元识别模块和论元角色分类模块,利用标注的触发词、事件论元和论元角色对模型进行训练,实现了利用事件提取模型在未知论元的情况下一次性识别出事件类型和事件论元类型,事件提取模型采用分任务共享网络结构实现了端到端识别,提高了事件提取的准确性和效率。
继续参考图3,其示出了根据本申请的文本事件提取方法的一个实施例的流程300。该方法包括以下步骤:
步骤301,获取待识别文本,并对待识别文本分词,得到词语序列。
在本实施例中,事件提取模型生成方法的执行主体(例如图1所示的终端设备或服务器)可以从本地或从远程获取待识别文本,并对待识别文本分词,得到词语序列。其中,待识别文本可以为通过各种方式获得的各种类型的文本,例如网页上的新闻等文本,由用户手动输入的文本等。对待识别文本进行分词的方法与上述步骤201相同,这里不再赘述。
步骤302,将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列。
在本实施例中,上述执行主体可以将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,事件提取模型预先按照上述图2对应实施例描述的方法训练得到。编码模块可以参见上述步骤203,这里不再赘述。
步骤303,将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元。
在本实施例中,上述执行主体可以将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元。其中,触发词识别模块和论元识别模块参见上述步骤204中的描述,这里不再赘述。
步骤304,利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
在本实施例中,上述执行主体可以利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
具体地,上述执行主体可以直接将上述触发词识别模块和论元识别模块输出的数据输入到论元角色分类模块中;也可以对触发词识别模块和论元识别模块输出的数据经过一定方式的处理后再输入到论元角色分类模块中。
在本实施例的一些可选的实现方式中,步骤304可以如下执行:
步骤3041,将编码序列输入事件提取模型包括的自注意力模块,得到长度为目标长度的编码向量。
其中,自注意力(Self-Attention)模块利用了Attention机制,计算每个词语与其他所有词语之间的关联。自注意力模块可以对每个词语打分(Attention score),利用这些Attention score就可以得到一个加权的表示,然后再放到一个前馈神经网络中得到新的表示,即本实施例中的编码向量,编码向量很好地考虑到上下文的信息。
步骤3042,从编码序列中提取触发词对应的触发词子序列。
具体地,上述词语序列中的每个词语经过编码后,在编码序列中对应一个子序列,触发词对应的子序列即为触发词子序列,这里设为S。
步骤3043,将触发词子序列转换为长度为目标长度的转换后向量。
上述目标长度参见步骤3041中的描述。本步骤中,可以利用各种方式对触发子序列进行转换,例如通过向子序列中补入预设数值的方式转换为目标长度的向量序列,这里设该向量序列为T。
可选的,将触发词子序列输入事件提取模型包括的双向LSTM中,得到目标长度的转换后向量。双向LSTM在提取某个词语的特征时,涉及到了该词语之间和之后的词语,可以更精确地确定该词语在整个文本的意义,从而有助于提高事件提取的准确性。
步骤3044,将编码向量和转换后向量进行拼接,得到拼接后向量。
本实施例对拼接的方式不做限定,例如可以将编码向量和上述转换后向量直接拼接为一个向量,这里将该向量设为G。
步骤3045,从拼接后向量中提取至少一个事件论元中的每个事件论元对应的事件论元子序列。
由于事件论元为上述词语序列中的词语,因此,可以从拼接后向量中提取每个事件论元对应的子序列。
步骤3046,将所得到的各个事件论元子序列与触发词子序列拼接后输入论元角色分类模块,得到至少一个事件论元中的事件论元对应的论元角色。
这里,将各个事件论元子序列与上述触发词子序列S拼接后,输入论元角色分类模块,论元角色分类模块可以基于触发词子序列和事件论元子序列,对每个事件论元子序列进行分类,输出每个事件论元对应的论元角色。
本实现方式通过在事件提取模型中,对编码序列进行一系列处理,可以充分地利用事件论元和触发词的特征,准确地从待识别文本中提取论元角色。
本申请的上述实施例提供的方法,通过使用图2对应实施例中训练的事件提取模型,实现了利用事件提取模型在未知论元的情况下一次性识别出事件类型和事件论元类型,事件提取模型采用分任务共享网络结构实现了端到端识别,提高了事件提取的准确性和效率。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种事件提取模型生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的事件提取模型生成装置400包括:第一获取模块401,用于获取训练样本集合,其中,训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色;第一分词模块402,用于对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;第一编码模块403,用于将样本词语序列输入初始模型包括的编码模块,得到编码序列;训练模块404,用于将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
在本实施例中,第一获取模块401可以从本地或从远程获取训练样本集合。其中,训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色。
作为示例,假设样本文本为“8月4日黎巴嫩爆炸致171人死亡,上千人受伤”,其中标注触发词为文本中的“爆炸”,相应的,事件类型为爆炸事件类型;标注事件论元有:8月4日、黎巴嫩、171人、上千人;标注事件论元分别对应的标注论元角色为:时间、地点、死亡人数、受伤人数。
在本实施例中,第一分词模块402可以对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列。其中,对文本进行分词的方法为目前广泛使用的公知技术,这里不再赘述。
在本实施例中,第一编码模块403可以将样本词语序列输入初始模型包括的编码模块,得到编码序列。其中,初始模型可以包括各种模块,各模块可以分别实现不同的功能。各模块的类型可以包括但不限于以下至少一种:卷积神经网络、循环神经网络、分类器等。
上述编码模块用于对得到的词语序列中的每个词语进行编码,每个编码表示一个词语,上述编码模块可以利用编码对文本进行分析。作为示例,上述编码模块可以包括BERT(Bidirectional Encoder Representation from Transformers)网络。
在本实施例中,训练模块404可以将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
其中,触发词识别模块用于识别文本包括的触发词,通常,触发词可以用于表示事件类型,因此,这里的触发词识别也可以称为事件类型识别。作为示例,对于文本“8月4日黎巴嫩爆炸致171人死亡,上千人受伤”,触发词识别模块可以识别出触发词“爆炸”,即事件类型为爆炸。可选的,触发词识别模块的结构可以采用CRF+log_softmax的形式。
论元识别模块用于识别文本中的事件论元,例如,论元识别模块可以识别上述文本中的事件论元包括:8月4日(首是第1个字符,尾是第4个字符)、黎巴嫩(首是第5个字符,尾是第7个字符)、171人(首是第11个字符,尾是第12个字符)、上千人(首是第16个字符,尾是第18个字符)。可选的,论元识别模块的结构可以采用CRF+log_softmax的形式。
论元角色分类模块用于识别事件论元对应的论元角色,论元角色可以表示事件论元的特征。例如,论元角色分类模块可以识别上述文本中的事件论元与论元角色的对应关系为:8月4日-爆炸事件,黎巴嫩-爆炸地点、171人-死亡人数、上千人-受伤人数。可选的,论元角色分类模块的结构可以采用CRF+log_softmax的形式。
上述训练模块404可以利用机器学习方法,将步骤201获取到的训练样本集合中的训练样本包括的文本对应的编码序列作为输入,将与输入的编码序列对应的标注触发词作为触发词识别模块的期望输出,将标注事件论元作为论元识别模块的期望输出,以及将标注论元角色作为论元角色分类模块的期望输出,对初始模型进行训练,针对每次训练输入的编码序列,可以得到实际输出。其中,实际输出是初始模型实际输出的数据,用于表征触发词、事件论元和论元角色。然后,上述训练模块404可以采用梯度下降法和反向传播法,基于实际输出和期望输出,调整初始模型的参数,将每次调整参数后得到的模型作为下次训练的初始模型,并在满足预设的训练结束条件的情况下,结束训练,从而训练得到事件提取模型。
训练后的事件提取模型可以对输入的文本进行分析,得到三个输出,分别为触发词、事件论元和论元角色。
需要说明的是,这里预设的训练结束条件可以包括但不限于以下至少一项:训练时间超过预设时长;训练次数超过预设次数;利用预设的损失函数(例如交叉熵损失函数)计算所得的损失值收敛。
在本实施例的一些可选的实现方式中,训练模块404可以包括:第一确定单元(图中未示出),用于确定触发词识别模块、论元识别模块和论元角色分类模块分别对应的触发词损失、事件论元损失和论元角色损失;优化单元(图中未示出),用于基于触发词损失、事件论元损失和论元角色损失,对初始模型的参数进行优化;第二确定单元(图中未示出),用于响应于确定优化后的初始模型符合预设条件,确定优化后的初始模型为事件提取模型。
在本实施例的一些可选的实现方式中,优化单元可以包括:获取子单元(图中未示出),用于获取触发词损失、事件论元损失和论元角色损失分别对应的第一权重、第二权重、第三权重,其中,第一权重、第二权重、第三权重通过训练过程中自动学习得到;确定子单元(图中未示出),用于基于第一权重、第二权重、第三权重,确定初始模型的总损失;优化子单元(图中未示出),用于基于总损失,对初始模型的参数进行优化。
在本实施例的一些可选的实现方式中,第一权重、第二权重、第三权重通过在训练时设置在初始模型中的自注意力层自动学习得到。
本申请的上述实施例提供的装置,通过在初始模型中设置触发词识别模块、论元识别模块和论元角色分类模块,利用标注的触发词、事件论元和论元角色对模型进行训练,实现了利用事件提取模型在未知论元的情况下一次性识别出事件类型和事件论元类型,事件提取模型采用分任务共享网络结构实现了端到端识别,提高了事件提取的准确性和效率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种文本事件提取装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的文本事件提取装置500包括:第二获取模块501,用于获取待识别文本,并对待识别文本分词,得到词语序列;第二编码模块502,用于将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,事件提取模型预先按照上述图2对应实施例描述的方法训练得到;识别模块503,用于将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元;分类模块504,用于利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
在本实施例中,第二获取模块501可以从本地或从远程获取待识别文本,并对待识别文本分词,得到词语序列。其中,待识别文本可以为通过各种方式获得的各种类型的文本,例如网页上的新闻等文本,由用户手动输入的文本等。对待识别文本进行分词的方法与上述步骤201相同,这里不再赘述。
在本实施例中,第二编码模块502可以将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,事件提取模型预先按照上述图2对应实施例描述的方法训练得到。编码模块可以参见上述步骤203,这里不再赘述。
在本实施例中,识别模块503可以将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元。其中,触发词识别模块和论元识别模块参见上述步骤204中的描述,这里不再赘述。
在本实施例中,分类模块504可以利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
具体地,上述分类模块504可以直接将上述触发词识别模块和论元识别模块输出的数据输入到论元角色分类模块中;也可以对触发词识别模块和论元识别模块输出的数据经过一定方式的处理后再输入到论元角色分类模块中。
在本实施例的一些可选的实现方式中,分类模块504可以包括:第一转换单元(图中未示出),用于将编码序列输入事件提取模型包括的自注意力模块,得到长度为目标长度的编码向量;第一提取单元(图中未示出),用于从编码序列中提取触发词对应的触发词子序列;第二转换单元(图中未示出),用于将触发词子序列转换为长度为目标长度的转换后向量;拼接单元(图中未示出),用于将编码向量和转换后向量进行拼接,得到拼接后向量;第二提取单元(图中未示出),用于从拼接后向量中提取至少一个事件论元中的每个事件论元对应的事件论元子序列;分类单元(图中未示出),用于将所得到的各个事件论元子序列与触发词子序列拼接后输入论元角色分类模块,得到至少一个事件论元中的事件论元对应的论元角色。
在本实施例的一些可选的实现方式中,第二转换单元可以进一步用于:将触发词子序列输入事件提取模型包括的双向LSTM中,得到目标长度的转换后向量。
本申请的上述实施例提供的装置,通过使用图2对应实施例中训练的事件提取模型,实现了利用事件提取模型在未知论元的情况下一次性识别出事件类型和事件论元类型,事件提取模型采用分任务共享网络结构实现了端到端识别,提高了事件提取的准确性和效率。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取模块、第一分词模块、第一编码模块和训练模块。其中,这些模块的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取模块还可以被描述为“用于获取训练样本集合的模块”。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取训练样本集合,其中,训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色;对训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;将样本词语序列输入初始模型包括的编码模块,得到编码序列;将编码序列作为初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对初始模型进行训练,得到事件提取模型。
此外,当上述一个或者多个程序被该电子设备执行时,还可以使得该电子设备:获取待识别文本,并对待识别文本分词,得到词语序列;将词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,事件提取模型预先按照上述第一方面中任一实施例描述的方法训练得到;将编码序列输入事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元;利用事件提取模型包括的论元角色分类模块,对触发词和至少一个事件论元进行分类,得到至少一个事件论元中的事件论元对应的论元角色。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (11)
1.一种事件提取模型生成方法,其特征在于,所述方法包括:
获取训练样本集合,其中,所述训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色;
对所述训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;
将所述样本词语序列输入初始模型包括的编码模块,得到编码序列;
将所述编码序列作为所述初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为所述初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对所述初始模型进行训练,得到事件提取模型。
2.根据权利要求1所述的方法,其特征在于,所述对所述初始模型进行训练,包括:
确定所述触发词识别模块、论元识别模块和论元角色分类模块分别对应的触发词损失、事件论元损失和论元角色损失;
基于所述触发词损失、事件论元损失和论元角色损失,对所述初始模型的参数进行优化;
响应于确定优化后的初始模型符合预设条件,确定优化后的初始模型为所述事件提取模型。
3.根据权利要求2所述的方法,其特征在于,所述基于所述触发词损失、事件论元损失和论元角色损失,对所述初始模型的参数进行优化,包括:
获取所述触发词损失、事件论元损失和论元角色损失分别对应的第一权重、第二权重、第三权重,其中,所述第一权重、第二权重、第三权重通过训练过程中自动学习得到;
基于所述第一权重、第二权重、第三权重,确定所述初始模型的总损失;
基于所述总损失,对所述初始模型的参数进行优化。
4.根据权利要求1所述的方法,其特征在于,所述第一权重、第二权重、第三权重通过在训练时设置在所述初始模型中的自注意力层自动学习得到。
5.一种文本事件提取方法,其特征在于,所述方法包括:
获取待识别文本,并对待识别文本分词,得到词语序列;
将所述词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,所述事件提取模型预先按照权利要求1-4之一所述的方法训练得到;
将所述编码序列输入所述事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元;
利用所述事件提取模型包括的论元角色分类模块,对所述触发词和所述至少一个事件论元进行分类,得到所述至少一个事件论元中的事件论元对应的论元角色。
6.根据权利要求1所述的方法,其特征在于,所述利用所述事件提取模型包括的论元角色分类模块,对所述触发词和所述至少一个事件论元进行分类,得到所述至少一个事件论元中的事件论元对应的论元角色,包括:
将所述编码序列输入所述事件提取模型包括的自注意力模块,得到长度为目标长度的编码向量;
从所述编码序列中提取所述触发词对应的触发词子序列;
将所述触发词子序列转换为长度为所述目标长度的转换后向量;
将所述编码向量和所述转换后向量进行拼接,得到拼接后向量;
从所述拼接后向量中提取所述至少一个事件论元中的每个事件论元对应的事件论元子序列;
将所得到的各个事件论元子序列与所述触发词子序列拼接后输入所述论元角色分类模块,得到所述至少一个事件论元中的事件论元对应的论元角色。
7.根据权利要求1所述的方法,其特征在于,所述将所述触发词子序列转换为长度为所述目标长度的转换后向量,包括:
将所述触发词子序列输入所述事件提取模型包括的双向LSTM中,得到所述目标长度的转换后向量。
8.一种事件提取模型生成装置,其特征在于,所述装置包括:
第一获取模块,用于获取训练样本集合,其中,所述训练样本集合中的训练样本包括样本文本和对应的标注触发词、标注事件论元、每个标注事件论元对应的标注论元角色;
第一分词模块,用于对所述训练样本集合中的训练样本包括的样本文本进行分词,得到样本文本对应的样本词语序列;
第一编码模块,用于将所述样本词语序列输入初始模型包括的编码模块,得到编码序列;
训练模块,用于将所述编码序列作为所述初始模型的输入,将输入的编码序列对应的标注触发词、标注事件论元和标注论元角色分别作为所述初始模型包括的触发词识别模块、论元识别模块和论元角色分类模块的期望输出,对所述初始模型进行训练,得到事件提取模型。
9.一种文本事件提取装置,其特征在于,所述装置包括:
第二获取模块,用于获取待识别文本,并对待识别文本分词,得到词语序列;
第二编码模块,用于将所述词语序列输入预先训练的事件提取模型包括的编码模块,得到编码序列,其中,所述事件提取模型预先按照权利要求1-4之一所述的方法训练得到;
识别模块,用于将所述编码序列输入所述事件提取模型包括的触发词识别模块和论元识别模块,得到事件触发词和至少一个事件论元;
分类模块,用于利用所述事件提取模型包括的论元角色分类模块,对所述触发词和所述至少一个事件论元进行分类,得到所述至少一个事件论元中的事件论元对应的论元角色。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010988657.9A CN112116075B (zh) | 2020-09-18 | 2020-09-18 | 事件提取模型生成方法和装置、文本事件提取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010988657.9A CN112116075B (zh) | 2020-09-18 | 2020-09-18 | 事件提取模型生成方法和装置、文本事件提取方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112116075A true CN112116075A (zh) | 2020-12-22 |
CN112116075B CN112116075B (zh) | 2023-11-24 |
Family
ID=73799882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010988657.9A Active CN112116075B (zh) | 2020-09-18 | 2020-09-18 | 事件提取模型生成方法和装置、文本事件提取方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112116075B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861527A (zh) * | 2021-03-17 | 2021-05-28 | 合肥讯飞数码科技有限公司 | 一种事件抽取方法、装置、设备及存储介质 |
CN112860852A (zh) * | 2021-01-26 | 2021-05-28 | 北京金堤科技有限公司 | 信息分析方法及装置、电子设备和计算机可读存储介质 |
CN113032520A (zh) * | 2021-02-26 | 2021-06-25 | 北京金堤征信服务有限公司 | 信息分析方法及装置、电子设备和计算机可读存储介质 |
CN113468289A (zh) * | 2021-07-23 | 2021-10-01 | 京东城市(北京)数字科技有限公司 | 事件检测模型的训练方法及装置 |
CN113704476A (zh) * | 2021-09-02 | 2021-11-26 | 中科雨辰科技有限公司 | 目标事件抽取数据处理系统 |
CN113722462A (zh) * | 2021-09-02 | 2021-11-30 | 中科雨辰科技有限公司 | 目标论元信息抽取数据处理系统 |
CN113761875A (zh) * | 2021-07-21 | 2021-12-07 | 中国科学院自动化研究所 | 事件抽取方法、装置、电子设备及存储介质 |
CN113779159A (zh) * | 2021-08-19 | 2021-12-10 | 北京三快在线科技有限公司 | 模型训练、论元检测方法、装置、电子设备及存储介质 |
CN113779227A (zh) * | 2021-11-12 | 2021-12-10 | 成都数之联科技有限公司 | 案情事实抽取方法及系统及装置及介质 |
CN113987104A (zh) * | 2021-09-28 | 2022-01-28 | 浙江大学 | 一种基于本体指导的生成式事件抽取方法 |
CN114282542A (zh) * | 2021-12-28 | 2022-04-05 | 中国农业银行股份有限公司 | 网络舆情监控方法及设备 |
CN114328916A (zh) * | 2021-12-21 | 2022-04-12 | 科大讯飞股份有限公司 | 事件抽取、及其模型的训练方法,及其装置、设备和介质 |
CN114328687A (zh) * | 2021-12-23 | 2022-04-12 | 北京百度网讯科技有限公司 | 事件抽取模型训练方法及装置、事件抽取方法及装置 |
CN114741516A (zh) * | 2021-12-08 | 2022-07-12 | 商汤国际私人有限公司 | 一种事件抽取方法和装置、电子设备及存储介质 |
CN114841162A (zh) * | 2022-05-20 | 2022-08-02 | 中国电信股份有限公司 | 文本处理方法、装置、设备及介质 |
CN114936563A (zh) * | 2022-04-27 | 2022-08-23 | 苏州大学 | 一种事件抽取方法、装置及存储介质 |
WO2022262080A1 (zh) * | 2021-06-17 | 2022-12-22 | 腾讯云计算(北京)有限责任公司 | 一种对话关系处理方法、计算机及可读存储介质 |
CN116720123A (zh) * | 2023-08-10 | 2023-09-08 | 中南大学 | 一种账户识别方法、装置、终端设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110134757A (zh) * | 2019-04-19 | 2019-08-16 | 杭州电子科技大学 | 一种基于多头注意力机制的事件论元角色抽取方法 |
US20200034482A1 (en) * | 2018-07-26 | 2020-01-30 | International Business Machines Corporation | Verifying and correcting training data for text classification |
CN111475617A (zh) * | 2020-03-30 | 2020-07-31 | 招商局金融科技有限公司 | 事件主体抽取方法、装置及存储介质 |
-
2020
- 2020-09-18 CN CN202010988657.9A patent/CN112116075B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200034482A1 (en) * | 2018-07-26 | 2020-01-30 | International Business Machines Corporation | Verifying and correcting training data for text classification |
CN110134757A (zh) * | 2019-04-19 | 2019-08-16 | 杭州电子科技大学 | 一种基于多头注意力机制的事件论元角色抽取方法 |
CN111475617A (zh) * | 2020-03-30 | 2020-07-31 | 招商局金融科技有限公司 | 事件主体抽取方法、装置及存储介质 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112860852A (zh) * | 2021-01-26 | 2021-05-28 | 北京金堤科技有限公司 | 信息分析方法及装置、电子设备和计算机可读存储介质 |
CN112860852B (zh) * | 2021-01-26 | 2024-03-08 | 北京金堤科技有限公司 | 信息分析方法及装置、电子设备和计算机可读存储介质 |
CN113032520A (zh) * | 2021-02-26 | 2021-06-25 | 北京金堤征信服务有限公司 | 信息分析方法及装置、电子设备和计算机可读存储介质 |
CN112861527A (zh) * | 2021-03-17 | 2021-05-28 | 合肥讯飞数码科技有限公司 | 一种事件抽取方法、装置、设备及存储介质 |
WO2022262080A1 (zh) * | 2021-06-17 | 2022-12-22 | 腾讯云计算(北京)有限责任公司 | 一种对话关系处理方法、计算机及可读存储介质 |
CN113761875A (zh) * | 2021-07-21 | 2021-12-07 | 中国科学院自动化研究所 | 事件抽取方法、装置、电子设备及存储介质 |
CN113468289A (zh) * | 2021-07-23 | 2021-10-01 | 京东城市(北京)数字科技有限公司 | 事件检测模型的训练方法及装置 |
CN113779159A (zh) * | 2021-08-19 | 2021-12-10 | 北京三快在线科技有限公司 | 模型训练、论元检测方法、装置、电子设备及存储介质 |
CN113704476B (zh) * | 2021-09-02 | 2022-03-04 | 中科雨辰科技有限公司 | 目标事件抽取数据处理系统 |
CN113722462A (zh) * | 2021-09-02 | 2021-11-30 | 中科雨辰科技有限公司 | 目标论元信息抽取数据处理系统 |
CN113704476A (zh) * | 2021-09-02 | 2021-11-26 | 中科雨辰科技有限公司 | 目标事件抽取数据处理系统 |
CN113987104A (zh) * | 2021-09-28 | 2022-01-28 | 浙江大学 | 一种基于本体指导的生成式事件抽取方法 |
CN113987104B (zh) * | 2021-09-28 | 2024-06-21 | 浙江大学 | 一种基于本体指导的生成式事件抽取方法 |
CN113779227A (zh) * | 2021-11-12 | 2021-12-10 | 成都数之联科技有限公司 | 案情事实抽取方法及系统及装置及介质 |
CN114741516A (zh) * | 2021-12-08 | 2022-07-12 | 商汤国际私人有限公司 | 一种事件抽取方法和装置、电子设备及存储介质 |
CN114328916A (zh) * | 2021-12-21 | 2022-04-12 | 科大讯飞股份有限公司 | 事件抽取、及其模型的训练方法,及其装置、设备和介质 |
CN114328687A (zh) * | 2021-12-23 | 2022-04-12 | 北京百度网讯科技有限公司 | 事件抽取模型训练方法及装置、事件抽取方法及装置 |
CN114282542A (zh) * | 2021-12-28 | 2022-04-05 | 中国农业银行股份有限公司 | 网络舆情监控方法及设备 |
CN114936563A (zh) * | 2022-04-27 | 2022-08-23 | 苏州大学 | 一种事件抽取方法、装置及存储介质 |
CN114936563B (zh) * | 2022-04-27 | 2023-07-25 | 苏州大学 | 一种事件抽取方法、装置及存储介质 |
CN114841162A (zh) * | 2022-05-20 | 2022-08-02 | 中国电信股份有限公司 | 文本处理方法、装置、设备及介质 |
CN114841162B (zh) * | 2022-05-20 | 2024-01-05 | 中国电信股份有限公司 | 文本处理方法、装置、设备及介质 |
CN116720123A (zh) * | 2023-08-10 | 2023-09-08 | 中南大学 | 一种账户识别方法、装置、终端设备及介质 |
CN116720123B (zh) * | 2023-08-10 | 2023-11-28 | 中南大学 | 一种账户识别方法、装置、终端设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112116075B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112116075B (zh) | 事件提取模型生成方法和装置、文本事件提取方法和装置 | |
CN113326764B (zh) | 训练图像识别模型和图像识别的方法和装置 | |
CN111274815B (zh) | 用于挖掘文本中的实体关注点的方法和装置 | |
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN108536679B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN111967266B (zh) | 中文命名实体识别系统、模型构建方法和应用及相关设备 | |
CN107491534B (zh) | 信息处理方法和装置 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
CN110046254B (zh) | 用于生成模型的方法和装置 | |
CN111709240A (zh) | 实体关系抽取方法、装置、设备及其存储介质 | |
CN111368551B (zh) | 一种确定事件主体的方法和装置 | |
CN117114063A (zh) | 用于训练生成式大语言模型和用于处理图像任务的方法 | |
CN111368560A (zh) | 文本翻译方法、装置、电子设备及存储介质 | |
JP2023550211A (ja) | テキストを生成するための方法および装置 | |
CN112906380A (zh) | 文本中角色的识别方法、装置、可读介质和电子设备 | |
CN112364653A (zh) | 用于语音合成的文本分析方法、装置、服务器和介质 | |
CN113408507B (zh) | 基于履历文件的命名实体识别方法、装置和电子设备 | |
CN111899718B (zh) | 用于识别合成语音的方法、装置、设备和介质 | |
CN117593608A (zh) | 图文识别大模型的训练方法、装置、设备以及存储介质 | |
CN112633004A (zh) | 文本标点符号删除方法、装置、电子设备和存储介质 | |
CN114970470B (zh) | 文案信息处理方法、装置、电子设备和计算机可读介质 | |
CN115827865A (zh) | 一种融合多特征图注意力机制的不良文本分类方法及系统 | |
CN117235271A (zh) | 信息抽取方法、装置、计算机存储介质及电子设备 | |
CN114464195A (zh) | 一种自监督学习的声纹识别模型训练方法、装置及可读介质 | |
CN114201604A (zh) | 文档向量化方法、装置、计算设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |