CN114265943A - 一种因果关系事件对提取方法及系统 - Google Patents
一种因果关系事件对提取方法及系统 Download PDFInfo
- Publication number
- CN114265943A CN114265943A CN202111599289.XA CN202111599289A CN114265943A CN 114265943 A CN114265943 A CN 114265943A CN 202111599289 A CN202111599289 A CN 202111599289A CN 114265943 A CN114265943 A CN 114265943A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- training
- causal
- training set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001364 causal effect Effects 0.000 title claims abstract description 72
- 238000000605 extraction Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000000694 effects Effects 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims description 14
- 238000004140 cleaning Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 4
- 238000013075 data extraction Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000002787 reinforcement Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 230000003042 antagnostic effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000259 anti-tumor effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明涉及一种种因果关系事件对提取方法及系统,方法包括:获取训练集D;构建语言模型;采用所述训练集对所述语言模型进行训练,得到环境模型;构建对抗模型;采用所述对抗模型对所述训练集中的数据进行数据增强;利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型;将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。本发明中的上述方法对句子中的词进行合理的删除以构造出提升模型表现的数据,利用大型预训练的语料以及对抗攻击的数据增强,小规模语料上获得更好的因果事件抽取效果。
Description
技术领域
本发明涉及语言处理领域,特别是涉及一种因果关系事件对提取方法及系统。
背景技术
因果关系抽取任务是构建因果知识图谱的一个基本任务,其目的是从原始文本中识别出具有因果的事件对,如”由于地震,有300多人受伤,28人死亡”,在这句话中,“地震”与“受伤”和“死亡”分别是两对因果事件对,构建这种基于事件的因果知识图谱可以应用于多种领域,如金融、医学的推理分析中。而目前可用的具有因果事件标注的语料较少,如何有效利用这些语料,更加准确的识别因果事件是一个值得研究的问题。
自从BERT出现以来,使用在大量无结构文本上预训练的模型在许多自然语言处理任务上都取得了最优的效果,这些模型首先在原始语料上使用自监督训练方法,训练出一组在高维空间上具有语义信息的参数,然后再在下游任务上添加分类层做各种任务,这种利用了大量文本信息的方法是目前最流行的方法。然而,这种方法由于需要捕获大量的无结构文本信息,通常设计的较为复杂,如最常用的BERT,其参数量为110M。而相对的,许多自然语言处理任务的常用数据集仅有几千或几万个句子(如关系抽取数据集Semeval2010Task8,仅有10717个句子),在一些任务场景下可能更少,如因果关系抽取仅有1000个具有因果关系的句子。如何利用有限的数据在这种大型模型上使用,比较常用的方法是进行数据增强。
目前的文本数据增强方法一般是基于规则的方法,主要分为三类:1)对句子结构进行更改,随机将非停用词替换为同义词或上位词,利用一些如缩写/动词变位等规则,对句子成分进行改写;2)保证标签不变的情况下,增加噪声,如交换词,根据tf-idf等词的重要程度进行删除,把一些词随机替换成其他词,模拟拼错的场景;3)获取新数据,主要是使用模型预测当前数据分布,之后生成新数据,包括给无结构文本打标签或直接使用文本生成任务生成句子。
在以上的方法中,都是根据一些先验知识进行规则的设计,其没有考虑各任务间的独立性。而在实际场景中,各种任务之间差别很大,如在序列标注任务中,需要对每个词进行多分类,其考虑的是词与上下文之间的关系,而在文本分类任务中,只需对整个句子进行分类,考虑的更多的是整个句子的结构问题.在这两种情况下,对于删除词任务来说,前者更关注于与当前标注的词关联更深的一些词,而后者需要考虑该词对整体句子语义的重要性,这导致了两种不同的删除词策略。所以,设计一种能够针对特定任务进行自适应增强的方法十分必要。
发明内容
本发明的目的是提供一种因果关系事件对提取方法及系统,对句子中的词进行合理的删除以构造出提升模型表现的数据,利用大型预训练的语料以及对抗攻击的数据增强,小规模语料上获得更好的因果事件抽取效果。
为实现上述目的,本发明提供了如下方案:
一种因果关系事件对提取方法,所述方法包括:
获取训练集D;
构建语言模型;
采用所述训练集对所述语言模型进行训练,得到环境模型;
构建对抗模型;
采用所述对抗模型对所述训练集中的数据进行数据增强;
利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型;
将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。
可选的,所述提取方法在步骤“利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型”之后和步骤“将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对”之前还包括:对待提取的数据进行数据清洗。
可选的,所述对待提取的数据进行数据清洗包括以下步骤:
对待提取的数据进行标准化:将所有词转化为小写;
对标准化处理后的数据进行去停用词处理;
对所述去停用词处理的数据进行句子划分;
对所述句子划分后的数据进行裁剪。
可选的,所述采用所述对抗模型对所述训练集中的数据进行数据增强具体包括以下步骤:
从所述训练集D中抽取d个数据,并生成随机数γ,γ∈[0,1];
当所述γ大于预设阈值时,采用所述训练集D对语言模型进行训练;
当所述γ小于等于预设阈值时,将d个数据输入至所述对抗模型获得增强后的数据dnew。
基于本发明中的上述方法,本发明另外提供一种因果关系事件对提取系统,所述系统包括:
训练集获取模块,用于获取训练集D;
语言模型构建模块,用于构建语言模型;
第一训练模块,用于采用所述训练集对所述语言模型进行训练,得到环境模型;
对抗模型构建模块,用于构建对抗模型;
数据增强模块,用于采用所述对抗模型对所述训练集中的数据进行数据增强;
第二训练模块,用于利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型;
因果关系事件对提取模块,用于将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。
可选的,所述系统还包括:数据清洗模块,用于对待提取的数据进行数据清洗。
可选的,所述数据清洗模块包括:
标准化单元,用于对待提取的数据进行标准化:将所有词转化为小写;
停用词处理单元,用于对标准化处理后的数据进行去停用词处理;
句子划分单元,用于对所述去停用词处理的数据进行句子划分;
裁剪单元,用于对所述句子划分后的数据进行裁剪
可选的,所述数据增强模块模块包括:
数据抽取单元,用于从所述训练集D中抽取d个数据,并生成随机数γ,γ∈[0,1];
训练单元,用于当所述γ大于预设阈值时,采用所述训练集D对语言模型进行训练;
增强后的数据获取单元,用于当所述γ小于等于预设阈值时,将d个数据输入至所述对抗模型获得增强后的数据dnew。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明中的上述方法及系统相对于现有的深度学习模型,本发明使用的强化学习模型可以作为传统深度学习模型的附加模块,即不会增加模型原有的复杂度而对原模型针对特定任务进行提升,基于此,本发明中的模型具有较高的灵活性,可加在任意以BERT或变种模型作为基础模型的模型上,在不增加数据的情况下提升模型效果,提高预测精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一种因果关系事件对提取方法流程图;
图2为本发明实施例对抗模型框架示意图;
图3为本发明实施例一种因果关系事件对提取方法整体应用流程图;
图4为本发明实施例一种因果关系事件对提取系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种因果关系事件对提取方法及系统,对句子中的词进行合理的删除以构造出提升模型表现的数据,利用大型预训练的语料以及对抗攻击的数据增强,小规模语料上获得更好的因果事件抽取效果。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明提出了一种结合深度学习和强化学习的对抗模型ACMM,主要功能为针对因果关系抽取任务,通过在训练时与语言模型一同训练,能够根据任务自适应的删除句子中的相关词,构造出更适合因果关系抽取任务的数据,达到优于基于规则的数据增强方法的效果,我们的模型可以与任何基于BERT的语言模型结合,利用BERT的大量语料知识,同时避免了由于模型过大,在因果关系数据上的过拟合问题,通过删除语料中的无关词和具有反效果的词,使得模型能够更加关注于因果关系实体对,能够更准确的从原始语料中抽取出具有因果关系的事件对,最终可用于因果知识图谱的构建。
模型主要框架如图2所示,本发明的模型主要分为语言模型和对抗模型两部分,语言模型主要负责对输入的句子进行因果关系抽取任务,从句子中抽取出具有因果关系的事件对,同时,语言模型对于输入句子计算出的损失作为对抗模型决定删除词策略的分数。对抗模型的输入主要是语言模型对当前句子的损失,通过计算采取当前删词策略的损失变化,通过强化学习的策略梯度更新,获得更好的删词策略。两个模型共同训练,环境模型逐渐提升预测准确度,对抗模型逐渐获得更好的删词策略。通过这种对抗方式。使得语言模型能够更加有效的利用现有的数据,获得更好的泛化性。以下对该方案做详细介绍,图1为本发明实施例一种因果关系事件对提取方法流程图,图3为本发明实施例一种因果关系事件对提取方法整体应用流程图,如图1和图3所示,所述方法包括:
步骤101:获取训练集D。
步骤102:构建语言模型。
步骤103:采用所述训练集对所述语言模型进行训练,得到环境模型。
步骤104:构建对抗模型。
步骤105:采用所述对抗模型对所述训练集中的数据进行数据增强。
具体包括以下步骤:
从所述训练集D中抽取d个数据,并生成随机数γ,γ∈[0,1];
当所述γ大于预设阈值时,采用所述训练集D对语言模型进行训练;
当所述γ小于等于预设阈值时,将d个数据输入至所述对抗模型获得增强后的数据dnew。
步骤106:利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型。
步骤107:将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。
在步骤106之后和步骤“107之前还包括:对待提取的数据进行数据清洗。
待提取的数据进行数据清洗包括以下步骤:
对待提取的数据进行标准化:将所有词转化为小写;
对标准化处理后的数据进行去停用词处理;
对所述去停用词处理的数据进行句子划分;
对所述句子划分后的数据进行裁剪。
具体的,本发明使用预训练的BERT模型作为主要语言模型来获得词语的高维表示,在热启动部分,我们采用数据的原始输入来进行训练。首先,通过BERT模型获得输入X=(x1,x2,......,xn)的高维表示,其中xi表示句子中的第i个词.模型的输出为E=(e1,e2,......,en),为句子的高维表示,ei为对应词的高维向量,之后通过一个全连接层将E的维度处理为待分类的大小,最后使用交叉熵函数计算损失。在热启动阶段,我们一般使用10个epoch进行训练,该步骤对应的公式如下:
因为BERT模型输出的高维向量通常具有很高的维度,如BERT-base版本为768维,BERT-large为1024维,作为对抗模型的输入,为了节省资源,我们没有直接使用原始维度的数据作为state,而是通过线性变换将其转化为较低维度的向量(一般为48)。
S=Encoder(X;θencoder)Wenv+benv#(3)
其中,Encoder为BERT模型,Wenv和benv表示全连接层的参数。
下面,对对抗模型进行详细介绍:
ACMM模型(对抗模型)概述:对于该模块,我们使用advantage-actor-critic框架,因为该任务很难被建模成一个分幕的马尔可夫过程,本发明将该任务视为一个TD(0)的任务。具体的,我们使用一个Actor模型对当前状态state生成一个动作分布pa为了获得更大的探索空间,我们从分布pa中进行c次采样产生了多个状态statei,i∈[1,c],通过环境模型,我们获得了当前状态的分数,然后奖励计算如下:
ri=ReLU(score(statei)/score(state)-1)#(5)
随着环境模型的训练,其分数将会变得越来越小,为了避免逐渐减小的分数的影响,我们采用比例的方式来建模奖励,表示采取当前动作后有多少损失的变化。同时我们使用ReLU函数截断了奖励为负数的情况。同时,我们限制了删除词的个数,这是一个超参数,其限制了删除的词的个数要在句子词个数的一定比例之内,本发明中的比例为句子长度的20%最终我们能够根据该模块自适应的得到遮盖词的分布pa,该分布基于任务的不同将会不同。接下来将详细讲解该模型的Actor部分和Critic部分。
Critic模型:
Critic模型主要用来计算对当前状态的值估计,其和Actor模型共享使用从BERT模型获得的隐藏状态E.Critic模型使用一个简单的线性层计算当前值估计,之后使用MSE计算奖励和估计之间的损失。
Vπ(s)=P(θcritic|state)#(6)
Actor模型:
我们使用策略梯度方法对Actor模型进行更新。同时使用Adavantage函数使模型能够更平滑的训练,Adavantage函数如下:
Aπ(st,at)=r(st,at)+Vπ(st+1)-Vπ(st)#(8)
因此,通过策略梯度方法进行的梯度更新过程:
参数更新:
随着BERT模型的训练,同一个state对应的分数也会随之改变。因此,在热启动过后,我们需要同时训练ACMM模型和环境模型,如图3所示,我们采取了一种类似对抗训练的方法。
在实际应用过程中我们分为三个阶段对本发明的技术方案做详细介绍:
1、数据集的获取和预处理:
本发明将本因果事件对抽取问题建模为一个序列标注问题,即对于一个句子中的所有词,我们对其进行多分类,如“由于地震,有300多人受伤,28人死亡”这样的句子,我们以“B-Cause”“I-Cause”标注原因的开始和后续部分,同理“B-Effect”“I-Effect”用于标注结果。用“O”标签来表示其他词,因此,该问题转化为了一个对于句子中每个词的分类问题。
在本发明中,我们以Semeval 2010Task 8作为有监督数据集。由于该数据集是一个关系抽取的数据集,首先,我们使用一些规则(例如:原数据集中句子的标注形式为“由于<e1>地震</e1>,有300多人<e2>受伤</e2>,28人死亡.Cause-Effect(e1,e2)”表示实体e1导致e2。我们模型需要的输入为“由于地震,有300多人受伤,28人死亡”对应的标注为”O OB-Cause I-Cause,O O O O B-Effect I-Effect,O O B-Effect I-Effect”)将原数据集预处理为一个序列标注数据集,并且只含有因果关系,其他关系视为无关数据作为噪声。具体的,原数据集中句子的标注形式为“由于<e1>地震</e1>,有300多人<e2>受伤</e2>,28人死亡,Cause-Effect(e1,e2)”表示实体e1导致e2。我们模型需要的输入为“由于地震,有300多人受伤,28人死亡”,对应的标注为“O O B-Cause I-Cause,O O O O B-Effect I-Effect,OO B-Effect I-Effect”。处理好数据集后,我们使用该数据集训练本模型,最终得到的语言模型即为最后使用的分类模型,它的作用为对于一个原始句子,对其中每个词进行多标签分类,其中标注为因果的事件即为因果事件对,而对抗模型的作用是在对抗训练过程中提高语言模型的泛化能力。
2、训练阶段:
我们以BERT模型为例来描述我们模型的主要使用过程,流程的主要步骤分为两部分:语言模型的热启动和对抗模型和语言模型的对抗训练。
在第一部分,模型的输入为经过预处理的Semeval 2010Task 8数据集,我们使用传统的基于微调的方法使用BERT模型加上一层分类层进行微调训练,在得到一个较好的模型后(该超参数在本发明中设为10个epoch),BERT模型将作为强化学习的环境,用于获得状态分数(state)。
在第二部分的对抗训练阶段,对于数据集中的每个句子,我们采取epsilon-贪婪的方法,即每次以epsilon的概率决定该句子是否要使用对抗模型处理。
这样会产生两种情况,1)当epsilon大于设定的阈值时,使用原始文本作为输入,通过语言模型进行预测,这与第一部分的方法一样;2)当epsilon小于等于设定的阈值时,原始句子将使用ACMM进行处理,ACMM模型使用句子对应的高维向量作为输入,这是从BERT的模型中获得。同时,在传入ACMM模型之后,我们截断了该高维向量的反向传播,即ACMM模型的更新不会导致语言模型的参数变化,这是为了保持语言模型的稳定,该高维向量作为初始状态,传入ACMM模型中获取下一个状态的句子作为语言模型BERT的新的输入,获得的loss值的变化作为采取当前动作的奖励(reward).而在ACMM模型中计算的中间值statevalue和采取动作(action)的梯度将被保存起来,和reward一起用于更新ACMM模型。
通过这种联合训练,语言模型和ACMM模型将会共同进步,ACMM模型将会学习到如何处理数据使得语言模型更加难以分辨,而语言模型在这种对抗中对因果事件的识别会变得更加准确.通过对抗训练,即使是使用Semeval这种小批量的数据,语言模型也能够更好的学习到句子中事件间的因果关系。本发明相比于其他模型,如未加入对抗训练的BERT模型,对于小数据集能够更加有效的利用,从而能更准确的从原始语料中抽取因果事件对,这较为有效的解决了当前数据量小的情况下,大规模预训练模型的利用问题。
3、应用阶段:
经过训练后,我们认为此时语言模型已经具有了更好的泛化能力,这个结果也与未加入对抗训练的模型进行了对比,见表1。
表1基础模型和添加了本发明的对抗攻击模块后的模型在Semeval 2010 Task 8和CausalTime Bank数据集上的表现
最终,通过在有监督数据集上的监督训练,我们获得了一个具有因果标注能力的模型,该模型对于一个输入句子,能够对其每个词进行多分类,从而提取出因果关系事件对。将该模型应用于大量文本中的因果事件对抽取任务中时,主要分为以下几步:
获得原始数据D,经过训练后的模型M;
清洗原始数据D,具体步骤如下:
标准化:将所有的词转化为小写;
去停用词:去除一些无意义的词,如定冠词,代词等;
句子切分:使用NLTK工具包对句子进行切分;
裁剪句子:裁剪过长的句子,句子长度不超过512;
通过迭代将数据D中的每个句子输入到模型M中,获得分类标注
通过规则将分类标注转化为提取后的因果事件,即被标注为Cause或Effect分别表示原因事件和结果事件。
图4为本发明实施例一种因果关系事件对提取系统结构示意图,如图4所示,所述系统包括:
训练集获取模块201,用于获取训练集D;
语言模型构建模块202,用于构建语言模型;
第一训练模块203,用于采用所述训练集对所述语言模型进行训练,得到环境模型;
对抗模型构建模块204,用于构建对抗模型;
数据增强模块205,用于采用所述对抗模型对所述训练集中的数据进行数据增强;
第二训练模块206,用于利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型;
因果关系事件对提取模块207,用于将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。
本发明中的上述方法及系统具有以下有益效果:
相对于现有的深度学习模型,我们使用的强化学习模型可以作为传统深度学习模型的附加模块,即不会增加模型原有的复杂度而对原模型针对特定任务进行提升。基于此,我们的模型具有较高的灵活性,可加在任意以BERT或变种模型作为基础模型的模型上,在不增加数据的情况下提升模型效;
我们在表1中列出了原模型的指标和加上本发明的对抗模型后的指标,其中数据集使用的是因果关系抽取数据集Semeval 2010Task 8和Causal Time Bank.其中第一部分是未使用大型预训练模型的深度学习模型。可以看到使用大型预训练模型后(BERT,BERT-CRF,BERT-BiLSTM-CRF),在两个数据集上的表现均有了明显提升。在每个模型后面加上我们的对抗模型模块后,所有模型的表现较于其基础版本都有所提升,这证明了我们附加模块的有效性,对于综合Precision和Recall的指标F1,在加上我们的对抗训练模块后,在Semeval数据集上提升范围为0.51–0.95,在Causal Time Bank上提升范围为1.98–3.63,同时因为Causal Time Bank是一个较小的数据集,我们的方法是一种对抗性的数据增强,因此具有更好的效果。
同时我们也对比了传统的基于规则的方法,在表2中也可以显示出我们的模型要优于其他基于规则的方法。这是因为我们的模型是与语言模型共同训练并随时改变掩码策略,这种对抗策略优于其他方法。在两个数据集上都有一个点以上的提升,证明了本发明具有可随时增减的灵活性,同时也能够提升基础模型的性能。
表2在Semeval和Causal Time Bank数据集上,本发明的模型产生的策略与基于规则的策略方法的表现对比
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种因果关系事件对提取方法,其特征在于,所述方法包括:
获取训练集D;
构建语言模型;
采用所述训练集对所述语言模型进行训练,得到环境模型;
构建对抗模型;
采用所述对抗模型对所述训练集中的数据进行数据增强;
利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型;
将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。
2.根据权利要求1所述的因果关系事件对提取方法,其特征在于,所述提取方法在步骤“利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型”之后和步骤“将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对”之前还包括:对待提取的数据进行数据清洗。
3.根据权利要求2所述的因果关系事件对提取方法,其特征在于,所述对待提取的数据进行数据清洗包括以下步骤:
对待提取的数据进行标准化:将所有词转化为小写;
对标准化处理后的数据进行去停用词处理;
对所述去停用词处理的数据进行句子划分;
对所述句子划分后的数据进行裁剪。
4.根据权利要求1所述的因果关系事件对提取方法,其特征在于,所述采用所述对抗模型对所述训练集中的数据进行数据增强具体包括以下步骤:
从所述训练集D中抽取d个数据,并生成随机数γ,γ∈[0,1];
当所述γ大于预设阈值时,采用所述训练集D对语言模型进行训练;
当所述γ小于等于预设阈值时,将d个数据输入至所述对抗模型获得增强后的数据dnew。
5.一种因果关系事件对提取系统,其特征在于,所述系统包括:
训练集获取模块,用于获取训练集D;
语言模型构建模块,用于构建语言模型;
第一训练模块,用于采用所述训练集对所述语言模型进行训练,得到环境模型;
对抗模型构建模块,用于构建对抗模型;
数据增强模块,用于采用所述对抗模型对所述训练集中的数据进行数据增强;
第二训练模块,用于利用增强后的数据同时对所述环境模型进行训练,得到训练后的环境模型;
因果关系事件对提取模块,用于将待提取的数据输入到所述训练后的环境模型中,得到因果关系事件对;所述因果事件对包括:原因事件和结果事件。
6.根据权利要求5所述的因果关系事件对提取系统,其特征在于,所述系统还包括:数据清洗模块,用于对待提取的数据进行数据清洗。
7.根据权利要求6所述的因果关系事件对提取系统,其特征在于,所述数据清洗模块包括:
标准化单元,用于对待提取的数据进行标准化:将所有词转化为小写;
停用词处理单元,用于对标准化处理后的数据进行去停用词处理;
句子划分单元,用于对所述去停用词处理的数据进行句子划分;
裁剪单元,用于对所述句子划分后的数据进行裁剪。
8.根据权利要求5所述的因果关系事件对提取系统,其特征在于,所述数据增强模块模块包括:
数据抽取单元,用于从所述训练集D中抽取d个数据,并生成随机数γ,γ∈[0,1];
训练单元,用于当所述γ大于预设阈值时,采用所述训练集D对语言模型进行训练;
增强后的数据获取单元,用于当所述γ小于等于预设阈值时,将d个数据输入至所述对抗模型获得增强后的数据dnew。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111599289.XA CN114265943B (zh) | 2021-12-24 | 2021-12-24 | 一种因果关系事件对提取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111599289.XA CN114265943B (zh) | 2021-12-24 | 2021-12-24 | 一种因果关系事件对提取方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114265943A true CN114265943A (zh) | 2022-04-01 |
CN114265943B CN114265943B (zh) | 2024-07-30 |
Family
ID=80829790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111599289.XA Active CN114265943B (zh) | 2021-12-24 | 2021-12-24 | 一种因果关系事件对提取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114265943B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114757171A (zh) * | 2022-05-12 | 2022-07-15 | 阿里巴巴(中国)有限公司 | 预训练语言模型的训练方法、语言模型的训练方法及装置 |
CN116779044A (zh) * | 2023-07-04 | 2023-09-19 | 重庆大学 | 基于多标签特征选择的基因分类方法、系统及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110597997A (zh) * | 2019-07-19 | 2019-12-20 | 中国人民解放军国防科技大学 | 一种军事想定文本事件抽取语料库迭代式构建方法及装置 |
WO2020001373A1 (zh) * | 2018-06-26 | 2020-01-02 | 杭州海康威视数字技术股份有限公司 | 一种本体构建方法及装置 |
CN111709244A (zh) * | 2019-11-20 | 2020-09-25 | 中共南通市委政法委员会 | 一种用于矛盾纠纷事件因果关系识别的深度学习方法 |
CN112507124A (zh) * | 2020-12-04 | 2021-03-16 | 武汉大学 | 一种基于图模型的篇章级别事件因果关系抽取方法 |
CN113642321A (zh) * | 2021-06-28 | 2021-11-12 | 浙江工业大学 | 面向金融领域的因果关系提取方法和系统 |
-
2021
- 2021-12-24 CN CN202111599289.XA patent/CN114265943B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020001373A1 (zh) * | 2018-06-26 | 2020-01-02 | 杭州海康威视数字技术股份有限公司 | 一种本体构建方法及装置 |
CN110597997A (zh) * | 2019-07-19 | 2019-12-20 | 中国人民解放军国防科技大学 | 一种军事想定文本事件抽取语料库迭代式构建方法及装置 |
CN111709244A (zh) * | 2019-11-20 | 2020-09-25 | 中共南通市委政法委员会 | 一种用于矛盾纠纷事件因果关系识别的深度学习方法 |
CN112507124A (zh) * | 2020-12-04 | 2021-03-16 | 武汉大学 | 一种基于图模型的篇章级别事件因果关系抽取方法 |
CN113642321A (zh) * | 2021-06-28 | 2021-11-12 | 浙江工业大学 | 面向金融领域的因果关系提取方法和系统 |
Non-Patent Citations (1)
Title |
---|
许晶航;左万利;梁世宁;王英;: "基于图注意力网络的因果关系抽取", 计算机研究与发展, no. 01, 15 January 2020 (2020-01-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114757171A (zh) * | 2022-05-12 | 2022-07-15 | 阿里巴巴(中国)有限公司 | 预训练语言模型的训练方法、语言模型的训练方法及装置 |
CN116779044A (zh) * | 2023-07-04 | 2023-09-19 | 重庆大学 | 基于多标签特征选择的基因分类方法、系统及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114265943B (zh) | 2024-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108052593B (zh) | 一种基于主题词向量和网络结构的主题关键词提取方法 | |
CN106844658B (zh) | 一种中文文本知识图谱自动构建方法及系统 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN111143576A (zh) | 一种面向事件的动态知识图谱构建方法和装置 | |
WO2016050066A1 (zh) | 知识库中问句解析的方法及设备 | |
CN108874878A (zh) | 一种知识图谱的构建系统及方法 | |
CN112380319B (zh) | 一种模型训练的方法及相关装置 | |
CN111274790B (zh) | 基于句法依存图的篇章级事件嵌入方法及装置 | |
CN103646112B (zh) | 利用了网络搜索的依存句法的领域自适应方法 | |
CN106339495A (zh) | 一种基于层次增量聚类的话题检测方法及系统 | |
CN113392209B (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN109597995A (zh) | 一种基于bm25加权结合词向量的文本表示方法 | |
CN109840324B (zh) | 一种语义强化主题模型构建方法及主题演化分析方法 | |
CN114265943A (zh) | 一种因果关系事件对提取方法及系统 | |
CN106610952A (zh) | 一种混合的文本特征词汇提取方法 | |
CN110728144A (zh) | 一种基于上下文语义感知的抽取式文档自动摘要方法 | |
Fu et al. | Improving distributed word representation and topic model by word-topic mixture model | |
CN117291265A (zh) | 一种基于文本大数据的知识图谱构建方法 | |
CN116467461A (zh) | 应用于配电网的数据处理方法、装置、设备及介质 | |
Amato et al. | An application of semantic techniques for forensic analysis | |
Lee et al. | Detecting suicidality with a contextual graph neural network | |
Lyu et al. | Deep learning for textual entailment recognition | |
CN109977194B (zh) | 基于无监督学习的文本相似度计算方法、系统、设备及介质 | |
CN114491076B (zh) | 基于领域知识图谱的数据增强方法、装置、设备及介质 | |
Cholissodin | Social Computing to Create Government Public Policy Document Blueprint Draft Based on Social Media Data About Covid-19 Using LSTM and MMR Hybrid Algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |