CN110188172A - 基于文本的事件检测方法、装置、计算机设备及存储介质 - Google Patents
基于文本的事件检测方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110188172A CN110188172A CN201910471605.1A CN201910471605A CN110188172A CN 110188172 A CN110188172 A CN 110188172A CN 201910471605 A CN201910471605 A CN 201910471605A CN 110188172 A CN110188172 A CN 110188172A
- Authority
- CN
- China
- Prior art keywords
- event
- data set
- instance
- arbiter
- event instance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本申请是关于一种基于文本的事件检测方法。该方法包括:获取分别包含事件实例的第一数据集和第二数据集,第一数据集中包含默认可信的事件实例,第二数据集中包含默认不可信的事件实例;通过第一数据集和第二数据集训练对抗网络,通过训练完成的对抗网络,获取第二数据集中的可信的事件实例。本方案通过包含默认可信的事件实例的第一数据集,以及包含默认不可信的事件实例的第二数据集,训练对抗网络中的生成器和判别器,使得训练后的判别器能够准确的判别出第二数据集中的事件实例是否可信,节省了数据准备时间,提高了基于文本的事件检测效率,并且能够准确的排除第二数据集中的噪声数据,提高事件检测的准确性。
Description
技术领域
本申请实施例涉及自然语言处理技术领域,特别涉及一种基于文本的事件检测方法、装置、计算机设备及存储介质。
背景技术
基于文本的事件检测是事件抽取的重要子任务,对于各种下游自然语言处理应用,例如问答、信息检索和阅读理解等,都有着很重要的意义。
在相关技术中,基于文本的事件检测可以通过卷积神经网络来实现。比如,预先通过人工标注的方式获取训练数据,训练数据除了包括文本(比如一个完整的句子)之外,还包括该文本中由人工标注的触发词,以及触发词对应的事件;通过人工标注的训练数据对卷积神经网络进行机器学习训练,并通过训练好的卷积神经网络对未标注的文本进行处理,以确定未标注的文本中的触发词,从而通过该触发词确定未标注的文本对应的事件。
然而,相关技术中的方案需要人工标注训练数据,在模型的训练效率和训练准确性方面都存在瓶颈,从而导致基于文本的事件检测的效率和准确性都不高。
发明内容
本申请实施例提供了一种基于文本的事件检测方法、装置、计算机设备及存储介质,可以提高基于文本的事件检测的效率和准确性,技术方案如下:
一方面,提供了一种基于文本的事件检测方法,所述方法包括:
获取分别包含事件实例的第一数据集和第二数据集,所述事件实例包括文本以及所述文本对应的事件;所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;
通过所述第一数据集和所述第二数据集训练对抗网络,所述对抗网络包括生成器和判别器;所述生成器用于从所述第二数据集中推荐事件实例;所述判别器用于输出所述第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
通过训练完成的所述对抗网络,获取所述第二数据集中的可信的事件实例。
另一方面,提供了一种基于文本的事件检测方法,所述方法包括:
获取待检测文本;
通过对抗网络对所述待检测文本进行处理,所述对抗网络是通过第一数据集和第二数据集训练获得的,所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;所述对抗网络包括生成器和判别器;所述生成器用于从所述第二数据集中推荐事件实例;所述判别器用于输出所述第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
根据所述对抗网络中的判别器对所述待检测文本的输出结果获取所述待检测文本对应的事件。
另一方面,提供了一种基于文本的事件检测装置,所述装置包括:
数据集获取模块,用于获取分别包含事件实例的第一数据集和第二数据集,所述事件实例包括文本以及所述文本对应的事件;所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;
对抗训练模块,用于通过所述第一数据集和所述第二数据集训练对抗网络,所述对抗网络包括生成器和判别器;所述生成器用于从所述第一数据集和所述第二数据集中分别推荐事件实例;所述判别器用于输出第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
实例获取模块,用于通过训练完成的所述对抗网络,获取所述第二数据集中的可信的事件实例。
可选的,所述对抗网络还包括编码器,所述对抗训练模块,用于,
在每一轮对抗训练中,通过所述编码器对所述第一数据集和所述第二数据集中的各个事件实例进行编码,获得所述第一数据集和所述第二数据集中的各个事件实例的嵌入向量,所述嵌入向量用于指示对应事件实例的文本中的各个词,以及所述各个词之间的位置关系;
通过所述生成器对所述第二数据集中的各个事件实例的嵌入向量进行处理,获得所述第一数据集和所述第二数据集中的各个事件实例的混淆概率;所述混淆概率用于指示所述判别器错误判别对应的事件实例是否可信的概率;
根据所述第二数据集中的各个事件实例的混淆概率,从所述第二数据集中推荐第二事件实例;
通过所述判别器对第一事件实例和所述第二事件实例各自的嵌入向量进行处理,获得所述第一事件实例和所述第二事件实例各自的可信概率;所述第一事件实例是所述第一数据集中的事件实例;
若所述判别器的输出结果未收敛,则根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值;
根据所述损失数值对所述对抗网络进行优化。
可选的,所述损失函数包括第一损失函数;
在根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值时,所述对抗训练模块,用于,
根据所述第一损失函数、所述第一事件实例的可信概率、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第一损失数值;
在根据所述损失数值对所述对抗网络进行优化时,所述对抗训练模块,用于,
根据所述第一损失数值对所述编码器和所述判别器进行优化。
可选的,所述损失函数包括第二损失函数;
在根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值时,所述对抗训练模块,用于,
根据所述第二损失函数、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第二损失数值;
在根据所述损失数值对所述对抗网络进行优化时,所述对抗训练模块,用于,
根据所述第二损失数值对所述生成器进行优化。
可选的,在根据所述第二损失函数、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第二损失数值时,所述对抗训练模块,用于,
根据所述第二事件实例的可信概率获取各个事件的平均可信概率;
根据所述第二损失函数、所述平均可信概率以及所述第二事件实例的混淆概率计算所述第二损失数值。
可选的,在根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值时,所述对抗训练模块,用于,
对所述第一事件实例进行采样,获得第一采样实例;
对所述第二事件实例进行采样,获得第二采样实例;
根据所述损失函数、所述生成器对所述第二采样实例的输出结果、以及所述判别器分别对所述第一采样实例和所述第二采样实例的输出结果,计算获得所述损失数值。
可选的,所述实例获取模块,用于,
对于所述第二数据集中由训练完成后的所述生成器推荐的目标事件实例,当训练完成后的所述判别器对所述目标事件实例输出的可信概率高于第一概率阈值时,将所述目标事件实例添加至所述第一数据集。
可选的,所述数据集获取模块,用于
获取所述第一数据集;
根据所述第一数据集获取事件标注规则,所述事件标注规则包括可信实例的事件与所述可信实例的文本中的触发词之间的对应关系,所述可信实例是所述第一数据集中的事件实例;
根据所述事件标注规则对所述第一数据集之外的各个文本进行标注,获得候选数据集;
通过所述第一数据集对所述判别器进行预训练,获得预训练的所述判别器;
通过所述预训练的判别器对所述候选数据集中的各个事件实例进行处理,获得所述候选数据集中的各个事件实例的可信概率;
根据所述候选数据集中的各个事件实例的可信概率,从所述候选数据集中提取所述第二数据集。
可选的,在获取所述第一数据集时,数据集获取模块,用于获取人工标注的所述第一数据集。
可选的,所述数据集获取模块,用于,
按照预设的事件标注规则对各个文本进行标注,获得初始数据集;所述事件标注规则包括事件与触发词之间的对应关系;
通过所述初始数据集对所述判别器进行预训练;
通过预训练的所述判别器对所述初始数据集中的各个事件实例进行处理,获得所述初始数据集中的各个事件实例各自的可信概率;
根据所述初始数据集中的各个事件实例各自的可信概率,从所述初始数据集中获取所述第一数据集和所述第二数据集。
可选的,在根据所述初始数据集中的各个事件实例各自的可信概率,从所述初始数据集中获取所述第一数据集和所述第二数据集时,数据集获取模块,用于,
将所述初始数据集中的各个事件实例中,可信概率高于第二概率阈值的事件实例添加入所述第一数据集;
将所述初始数据集中的各个事件实例中,可信概率不高于所述第二概率阈值的事件实例添加入所述第二数据集。
又一方面,提供了一种计算机设备,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上所述的基于文本的事件检测方法。
又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的基于文本的事件检测方法。
本申请提供的技术方案可以包括以下有益效果:
通过包含默认可信的事件实例的第一数据集,以及包含默认不可信的事件实例的第二数据集,训练对抗网络中的生成器和判别器,使得训练后的判别器能够准确的判别出第二数据集中的事件实例是否可信,一方面,本方案不需要大量的人工标注,节省了数据准备时间,提高了基于文本的事件检测效率,另一方面,本方案采用对抗网络的方式进行事件检测,能够准确的排除第二数据集中的噪声数据,提高事件检测的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种基于文本的事件检测流程示意图;
图2是图1所示实施例涉及的一种对抗网络训练及应用的框架图;
图3是根据一示例性实施例示出的一种基于文本的事件检测方法的流程图;
图4是图3所示实施例涉及的一种对抗策略的总体框架图;
图5是图3所示实施例涉及的一种对抗网络训练及应用的框架图;
图6和图7是图3所示实施例涉及的两种精度召回曲线对比示意图;
图8是根据一示例性实施例示出的一种基于文本的事件检测装置的结构方框图;
图9是根据一示例性实施例示出的一种计算机设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
本申请提出了一种基于文本的事件检测方案,该方案能够通过对抗训练的方式从自动标注的事件实例中快速且准确的获取可信的事件实例,从而实现高效并且高准确率的事件检测。为了便于理解,下面对本申请实施例涉及的几个名词进行解释。
(1)触发词:
在本申请中,对于一个给定文本,该给定文本包含的多个词(可以是单词或者短语)中,能够表示该给定文本对应事件的词,即可以称为该给定文本中的触发词。
比如,给定文本为“马克吐温和奥利维亚兰登于1870年结婚”。该给定文本对应的事件是结婚事件,则该给定文本中的触发词就是“结婚”。
(2)事件检测:
在本申请中,事件检测是指从给定文本中检测事件触发词,然后识别其特定事件类型。例如,可以从上述给定文本“马克吐温和奥利维亚兰登于1870年结婚”中提取事件的触发词“结婚”,进一步确定该给定文本对应的事件是结婚事件。
本申请后续各个实施例的方案是一种对抗网络的训练及应用方案。图1是根据一示例性实施例示出的一种基于文本的事件检测流程示意图。如图1所示,基于文本的事件检测流程可以由计算机设备执行,该计算机设备可以是个人电脑、服务器或者工作站等具有一定计算能力的设备。开发人员预先在计算机设备中设置一个对抗网络,该对抗网络中包含生成器和判别器。在进行基于文本的事件检测时,计算机设备执行以下步骤:
S11,获取分别包含事件实例的第一数据集和第二数据集。
在本申请实施例中,事件实例包括文本以及该文本对应的事件。
比如,假设文本为“马克吐温和奥利维亚兰登于1870年结婚”,该文本对应的事件是结婚事件,那么,一个可能的事件实例可以由上述文本“马克吐温和奥利维亚兰登于1870年结婚”,以及“结婚事件”这两部分组成,其中,“结婚事件”是对文本“马克吐温和奥利维亚兰登于1870年结婚”的标注。
其中,上述第一数据集中包含默认可信的事件实例,上述第二数据集中包含默认不可信的事件实例。
在本申请实施例中,第一数据集可以包括标注准确的事件实例(即第一数据集中的事件实例是可信的),而第二数据集包含标注准确的事件实例以及标注不准确的事件实例(即第二数据集中的事件实例是默认不可信的),其中,在第二数据集中包含的标注不准确的事件实例也称为第二数据集中的噪声数据。
S12,通过该第一数据集和该第二数据集训练对抗网络。在本申请实施例中,生成器用于从第二数据集中分别推荐事件实例;判别器用于输出第一数据集中的事件实例的可信概率,以及生成器推荐的事件实例的可信概率;该对抗网络的损失函数用于对该对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,该第一概率是该判别器对属于该第一数据集的事件实例输出的可信概率,该第二概率是该判别器对属于该第二数据集的事件实例输出的可信概率。
S13,通过训练完成的该对抗网络,获取该第二数据集中的可信的事件实例。
在本申请实施例中,在训练完成上述对抗网络之后,可以将通过该对抗网络从第二数据集中获取到的可信的事件实例添加到第一数据集中,以实现对第一数据集的自动扩充。
上述对抗网络训练之前并不能用来直接确定第二数据集中哪些事件实例标注准确,哪些事件实例标注不准确,并且,默认第二数据集中的事件实例是可信的。而对抗网络的训练原理,就是通过默认可信的事件实例和默认不可信的事件实例对生成器和判别器的多轮迭代训练,并根据生成器和判别器在每一轮训练过程中的输出结果,以及预先设置好的损失函数,不断的对生成器和判别器进行优化,最终使得判别器能够较为准确的判断出第二数据集哪些事件实例标注准确,哪些事件实例标注不准确。在对抗网络训练完成后,即可以通过训练好的对抗网络,从第二数据集中挑选出标注准确的事件实例,这些挑选出的标注准确的事件实例对应的事件,就是基于该事件实例中的文本检测出的事件。
综上所述,本申请实施例所示的方案,通过包含默认可信的事件实例的第一数据集,以及包含默认不可信的事件实例的第二数据集,训练对抗网络中的生成器和判别器,使得训练后的判别器能够准确的判别出第二数据集中的事件实例是否可信,一方面,本方案不需要大量的人工标注,节省了数据准备时间,提高了基于文本的事件检测效率,另一方面,本方案采用对抗网络的方式进行事件检测,能够准确的排除第二数据集中的噪声数据,提高事件检测的准确性。
其中,在上述图1所示的方案中,生成器可以根据输入的事件实例,输出该事件实例对判别器的迷惑性评分(也称事件实例的混淆概率),在本申请中,混淆概率用于指示判别器错误判别对应的事件实例是否可信的概率。
换句话说,上述混淆概率是指判别器不能正确判断某一事件实例是否被准确标注的概率。也就是说,对于第二数据集中的事件实例,该事件实例默认不可信,则生成器对其输出的混淆概率,是指通过判别器判断出该事件实例被准确标注的概率,也就是说,生成器的目的,是从第二数据集中推荐最容易对判别器造成迷惑的事件实例,由判别器对默认准确标注的事件实例(即第一数据集中的事件实例),以及由生成器推荐的默认不准确且具有迷惑性的事件实例进行判别。
在通过生成器推荐事件实例时,可以根据生成器对各个事件实例输出的混淆概率,来确定推荐给判别器进行判别的事件实例。并且,在进行对抗训练过程中,可以通过损失函数,以及生成器和判别器各自的输出结果,对上述对抗网络中的参数进行优化。上述优化过程中,生成器和判别器都可以得到优化,也就是说,随着对抗训练的进行,生成器能够越来越准确的从第二数据集中挑选具有迷惑性的事件实例,而判别器能够越来越准确的判别输入的事件实例是否被准确标注。上述对抗训练过程可以如图2所示。
图2是上述图1所示的实施例涉及的一种对抗网络训练及应用的框架图。如图2所示,预先设置一个对抗网络,对抗网络中包含生成器和判别器,另外还设置两个数据集,即第一数据集和第二数据集;其中,第一数据集中包含默认准确标注文本对应事件的事件实例,而第二数据集中包含默认未准确标注文本对应事件的事件实例。可选的,第一数据集中的事件实例数量可以少于第二数据集中包含的事件实例的数量。
在对抗训练过程中,计算机设备将第二数据集中的各个事件实例输入至生成器(对应图2中的步骤S21),由生成器对输入的事件实例输出混淆概率(对应图2中的步骤S22),再根据混淆概率确定第二数据集中推荐的事件实例(对应图2中的步骤S23),将推荐的事件实例输入至判别器(对应图2中的步骤S24);此外,计算机设备还将第一数据集中的各个事件实例输入至判别器(对应图2中的步骤S25);判别器分别输出推荐的事件实例和第一数据集中的事件实例的可信概率(对应图2中的步骤S26);计算机设备将生成器输出的混淆概率,以及判别器输出的可信概率,输入至损失函数(对应图2中的步骤S27),并通过损失函数输出的损失值优化对抗网络中的参数(对应图2中的步骤S28)。上述各个步骤可以反复执行,直至判别器的输出结果收敛(比如,判别器的输出结果不再大幅度的变化),此时可以认为对抗网络训练完成,可以通过训练后的对抗网络从第二数据集中筛选可信的事件实例。其中,筛选出可信的事件实例中包含的文本所对应的事件,就是基于该文本检测出的事件。
在上述图1和图2所示的方案中,第一数据集和第二数据集可以通过预设的规则快速的大规模自动标注,也可以通过弱监督方式快速的大规模自动标注。
图3是根据一示例性实施例示出的一种基于文本的事件检测方法的流程图,该基于文本的事件检测方法可以用于计算机设备,以对上述图2所示的对抗网络进行训练和事件检测。如图3所示,该基于文本的事件检测方法可以包括如下步骤:
步骤301,获取分别包含事件实例的第一数据集和第二数据集,该事件实例包括文本以及该文本对应的事件;该第一数据集中包含默认可信的事件实例,该第二数据集中包含默认不可信的事件实例。
本申请所示的事件检测方案,可以用于半监督场景或者远程监督场景等弱监督学习的应用场景。
一)在半监督场景下,计算机设备可以首先获取第一数据集;然后根据该第一数据集获取事件标注规则,该事件标注规则包括可信实例的事件与该可信实例的文本中的触发词之间的对应关系,该可信实例是该第一数据集中的事件实例;再根据该事件标注规则对该第一数据集之外的各个文本进行标注,获得候选数据集;通过该第一数据集对该判别器进行预训练,获得预训练的该判别器;通过该预训练的判别器对该候选数据集中的各个事件实例进行处理,获得该候选数据集中的各个事件实例的可信概率;根据该候选数据集中的各个事件实例的可信概率,从该候选数据集中提取。
在一种可能的实现方式中,在半监督场景下,计算机设备获取第一数据集时,可以获取人工标注的该第一数据集。
也就是说,在本公开实施例中,在针对半监督场景调整对抗训练策略时,可以首先使用小规模标注数据(即第一数据集)预训练判别器,以使其能够在一定程度上检测文本中的事件触发词并识别事件类型。然后采用潜在实例发现策略,利用小规模标注数据中的触发词作为启发式种子(即对应上述事件标注规则)构建一个大规模的候选集。再使用预训练的判别器来自动判别候选集中所有实例的触发词和事件类型,以构建一个大规模的有噪声的数据集。将小规模标注数据作为可信集R(即第一数据集),将大规模自动标注数据作为不可信集U(即第二数据集)。
其中,上述基于触发词的潜在实例发现策略,是本申请实施例为了利用未标注的数据,提出的一种简单的基于触发词的潜在实例发现策略,该策略可以自动标注原始数据的触发词和事件类型。
其中,上述基于触发词的策略是基于一个启发式假设:即如果给定单词在已知实例中充当事件触发词,则在未标注数据中提及该单词的所有其他实例都是潜在的可能表示该事件的实例。例如,“结婚”这个词在“马克吐温和奥利维亚兰登结婚于1870年”中作为触发词指示事件“结婚”,基于此,可以将其它未标注数据中包含“结婚”一词的所有文本,与事件“结婚”一起添加到潜在的实例候选集中。
本申请实施例涉及的基于触发词的潜在实例发现策略较为简洁,无需考虑单词、触发词和事件类型之间的相关性。并且,由于上述潜在实例发现策略限制较少,因此能够不依赖特殊的人工设计,即可以高效地获得大规模的候选集。同时,该候选集可以覆盖更多的实例和主题。
二)在远程监督场景下,计算机设备获取分别包含事件实例的第一数据集和第二数据集时,可以按照预设的事件标注规则对各个文本进行标注,获得初始数据集;该事件标注规则包括事件与触发词之间的对应关系;通过该初始数据集对该判别器进行预训练;通过预训练的该判别器对该初始数据集中的各个事件实例进行处理,获得该初始数据集中的各个事件实例各自的可信概率;根据该初始数据集中的各个事件实例各自的可信概率,从该初始数据集中获取该第一数据集和该第二数据集。
在一种可能的实现方式中,在根据该初始数据集中的各个事件实例各自的可信概率,从该初始数据集中获取该第一数据集和该第二数据集时,计算机设备可以将该初始数据集中的各个事件实例中,可信概率高于第一概率阈值的事件实例添加入该第一数据集;并将该初始数据集中的各个事件实例中,可信概率不高于该第一概率阈值的事件实例添加入该第二数据集。
对远程监督场景的适配策略类似于对半监督场景的适配策略,例如,可以首先使用所有自动标注数据(该自动标注数据并不都是准确的)来预训练判别器。然后,判别器用于计算自动标注数据中所有事件实例的可信分数(即可信概率)。然后通过设置特定阈值,可以将整个自动标注数据的集合分成两部分。其中分数高于阈值的事件实例将被添加到可信集R(即第一数据集)中,具有较低分数的其他事件实例将被添加到不可信集U(即第二数据集)中。同时,可信集R可以用作种子,以在上述半监督场景中以基于触发词的潜在实例发现策略获得更多标注数据。
上述第一数据集和第二数据集获取之后,即可以用来训练对抗网络。图4是本公开实施例涉及的一种对抗策略的总体框架图。如图4所示,本申请实施例提供的对抗策略的总体框架包括判别器和生成器。采用判别器来检测事件触发词并识别数据集中每个实例的事件类型。当给出噪声数据时,判别器应当抵抗噪声,并明确指出没有触发词和事件。而生成器用于从不可信数据集U(即上述第二数据集)中选择实例以尽可能地迷惑判别器。
假设第一数据集内每个事件实例x∈R均明确表示其标记的触发词t和事件类型e。与之相反,在对抗训练期间,假设第二数据集内每个实例x∈U是不可信的,即它有一定的概率标注错误。因此,本申请实施例通过预先设计的判别器来判断给定事件实例是否可以表明其标注的事件类型,其目的在于最大化条件概率P(e|x,t),x∈R和1-P(e|x,t),x∈U。其中,x是实例的信息,t是触发词的信息,e是标注的事件类型,P(e|x,t)就是这个实例和触发词能够体现出对应事件类型e的概率。1-P(e|x,t)就是这个实例和触发词不能表达对应事件类型e的概率。
在训练发生器时,使之从不可信数据集U(即上述第二数据集)中选择最具迷惑性的事件实例,用于欺骗判别器,即按照P(e|x,t),x∈U选择事件实例。上述训练过程是一个对抗性的极大-极小博弈过程,可以所示如下:
其中,E是数学期望的符号,指对服从Pu分布的随机变量x求期望。
PR是可靠数据的分布,并且生成器根据概率分布Pu从不可靠数据中采样对抗实例。虽然和是相互矛盾的,但是U中的噪声数据对和都有副作用。因此,当发生器和判别器在经过充分训练后达到平衡时,发生器倾向于选择与有噪声的实例相比具有较高概率的有信息的实例,而判别器增强了对噪声的抵抗力并且可以更好地分类事件。
其中,对抗网络中除了包含上述图1和图2所示实施例中提及的生成器和判别器之外,还包含编码器,该编码器用于将事件实例编码为嵌入向量,以便生成器和判别器进行处理,其中该编码器的参数也是对抗训练中需要优化的参数。
相应的,由于获取第一数据集和第二数据集的过程中涉及到对判别器的预训练过程,在该预训练过程中,为了便于判别器对事件实例进行处理,也需要对编码器一并进行预训练。
步骤302,在每一轮对抗训练中,通过该编码器对该第一数据集和该第二数据集中的各个事件实例进行编码,获得该第一数据集和该第二数据集中的各个事件实例的嵌入向量。
其中,该嵌入向量用于指示对应事件实例的文本中的各个词,以及该各个词之间的位置关系。
本申请实施例中编码器,用于将事件实例编码为其对应的嵌入向量,以便为对抗网络的其他模块(即生成器和判别器)提供语义特征。比如,假设给定一个由n个单词及其候选触发词t组成的实例x=(w1,…,t,…,wn),通过嵌入层可以获得其嵌入向量,本申请实施例中,可以采用几个有效的神经网络模型来对事件实例进行编码。
例如,在本申请实施例中,可以选择基于卷积神经网络(Convolutional NeuralNetworks,CNN)的编码器或者基于双向促进编码(Bidirectional EncoderRepresentation from Transformers,BERT)的编码器作为编码给定事件实例的编码器。两种编码器的原理如下:
1)基于CNN的编码器:将事件实例中的所有单词表示为输入向量,包括词嵌入向量和位置嵌入向量,编码相对于候选触发词的位置,基于CNN的编码器在输入向量上滑动卷积核以获取隐藏嵌入向量如下:
{h1,…,hn}=CNN(w1,…,t,…,wn) (2)
2)基于BERT的编码器:类似于CNN编码器,在对事件实例中所有词语的单词片段向量、和位置嵌入向量求和作为输入向量后,基于BERT的编码器采用了多层双向变换编码器获取隐藏嵌入向量如下:
{h1,…,hn}=BERT(w1,…,t,…,wn) (3)
其中,候选触发词t将事件实例x中的各个词分成两部分,在本申请实施例中,还对隐藏嵌入向量采用动态多重池化操作来得到事件实例的嵌入向量x:
其中,
上述公式中的[·]j是指向量的第j维数值,i指触发词t的位置。
其中,上述基于CNN且采用动态多重池化的编码器可以称为动态多重池化CNN编码器。相应的,上述基于BERT且采用动态多重池化的编码器可以称为动态多重池化BERT编码器。
步骤303,通过生成器对第二数据集中的各个事件实例的嵌入向量进行处理,获得第二数据集中的各个事件实例的混淆概率。
在本申请实施例中,生成器旨在从U中选择最具迷惑性的事件实例来欺骗判别器。因此,本申请实施例设计生成器以优化概率分布Pu来选择事件实例。即生成器计算U中各个实例的混淆分数,评估他们的迷惑性程度,并进一步计算混淆概率Pu如下:
f(x)=W·x+b;
其中x是编码器计算的事件实例x的嵌入向量。W和b是超平面的参数。
步骤304,根据该第二数据集中的各个事件实例的混淆概率,从该第二数据集中推荐第二事件实例。
在本申请实施例中,生成器对第二数据集中的各个事件实例输出混淆概率之后,计算机设备可以根据混淆概率,从第二数据集中推荐第二事件实例,比如,计算机设备可以对第二数据集中的各个事件实例按照混淆概率从高到低的顺序进行排序,并将其中排在前列的至少一个事件实例获取为推荐的第二事件实例。
或者,在另一种可能的实现方式中,计算机设备也可以将第二数据集的各个事件实例中,混淆概率高于混淆概率阈值的事件实例获取为推荐的第二事件实例。
其中,上述混淆概率阈值可以是开发人员预先设置的概率阈值,或者,上述混淆概率阈值也可以是计算机设备根据第二数据集的各个事件实例的混淆概率确定的阈值。
步骤305,通过该判别器对第一事件实例和该第二事件实例各自的嵌入向量进行处理,获得该第一事件实例和该第二事件实例各自的可信概率。
其中,该第一事件实例是该第一数据集中的事件实例。
在本申请实施例中,对于给定事件实例x及其标注的触发词t和事件类型e,判别器负责判断给定事件实例是否正确对应其标注的触发词和事件类型。在在使用嵌入向量x表示事件实例x之后,可以按如下方式实现判别器:
D(e|x,t)=e·x;
其中,e是事件类型e∈E的嵌入向量。P(e|x,t)表示事件实例x的可信概率。
在本申请实施例中,判别器除了对生成器推荐的第二事件实例进行处理,以输出其可信概率之外,还对第一数据集中的第一事件实例进行处理,以输出其可信概率。
可选的,在通过该生成器对该第二数据集中的各个事件实例的嵌入向量进行处理之前,计算机设备还可以对该第二数据集进行采样,获得该第二数据集中的各个事件实例;相应的,在通过该判别器对第一事件实例和该第二事件实例各自的嵌入向量进行处理之前,计算机设备还对该第一数据集进行采样,获得该第一事件实例。
由于第一数据集和第二数据集中可能存在大量的事件实例,若对每个事件实例都进行上述步骤303至步骤305的处理,会耗费大量的处理时间,因此,本申请实施例在每一轮对抗训练过程中,可以对第一数据集和第二数据集分别进行采样(比如,可以通过均匀随机方式进行采样),得到第一数据集的子集,以及第二数据集的子集,并根据采样得到的第一数据集的子集以及第二数据集的子集,进行后续步骤的处理。
其中,上述对第一数据集的采样过程可以在步骤302之前执行,也可以在步骤305之前执行;上述对第二数据集的采样过程可以在步骤302之前执行,也可以在步骤303之前执行。
步骤306,若该判别器的输出结果未收敛,则根据该损失函数、该生成器的输出结果以及该判别器的输出结果,计算获得损失数值。
在本申请实施例中,若判别器的输出结果相对于前一轮或者多轮的输出结果的变化较小,比如,输出结果的差值小于预设的差值阈值,即可以认为判别器的输出结果收敛,此时,对抗网络训练完成。相应的,若判别器的输出结果相对于前一轮或者多轮的输出结果的变化较大,比如,输出结果的差值不小于预设的差值阈值,即可以认为判别器的输出结果未收敛,此时,需要优化对抗网络的参数。即通过损失函数以及判别器和生成器的输出结果计算损失数值。
步骤307,根据该损失数值对该对抗网络进行优化。
在一种可能的实现方式中,该损失函数包括第一损失函数;在根据该损失函数、该生成器的输出结果以及该判别器的输出结果,计算获得损失数值时,计算机设备可以根据该第一损失函数、该第一事件实例的可信概率、该第二事件实例的可信概率以及该第二事件实例的混淆概率计算第一损失数值。
相应的,在根据该损失数值对该对抗网络进行优化时,计算机设备可以根据该第一损失数值对该编码器和该判别器进行优化。
在本申请实施例中,经过优化的判别器将为R(即第一数据集)中的那些事件实例打高分(即输出高可信概率),同时不信任在U(即第二数据集)中的事件实例及其标签,即对U中的事件实例输出低可信概率。因此,可以将损失函数通过如下形式化,用以优化判别器:
在优化判别器时,可以将编码器部分和D(e|x,t)视为更新的参数。该损失函数对应于等式(1)中的
在另一种可能的实现方式中,该损失函数包括第二损失函数;在根据该损失函数、该生成器的输出结果以及该判别器的输出结果,计算获得损失数值时,计算机设备可以根据该第二损失函数、该第二事件实例的可信概率以及该第二事件实例的混淆概率计算第二损失数值。
相应的,在根据该损失数值对该对抗网络进行优化时,计算机设备可以根据该第二损失数值对该生成器进行优化。
在本申请实施例中,一个事件实例经过生成器处理输出的混淆概率越高,该事件实例就越具迷惑性,也就更可能欺骗判别器做出错误的决定。本申请所示的方案希望优化的生成器能够更加关注那些最具迷惑性的事件实例。因此,给定一个实例x∈U,以及其不可靠的触发词t和事件类型e,可以将损失函数如下形式化,以优化生成器:
其中P(e|x,t)由判别器计算的输出结果(即混淆概率)。在优化生成器时,将计算Pu(x)的部分作为需要更新的参数。该损失函数对应于等式(1)中的
可选的,在根据该第二损失函数、该第二事件实例的可信概率以及该第二事件实例的混淆概率计算第二损失数值时,计算机设备可以根据该第二事件实例的可信概率获取各个事件的平均可信概率;并根据该第二损失函数、该平均可信概率以及该第二事件实例的混淆概率计算该第二损失数值。
在U(即第二数据集)中可能存在一些事件实例没有对应的事件类型,即为NA,并且这些事件实例可能被错误地分类到其它的事件类型中。因此,为了进一步提高对生成器的训练准确性,本申请实施例可以使用所有事件类型的平均分数来将等式(8)中的P(e|x,t)替换如下:
其中,ε表示事件类型集合。
可选的,在根据该损失函数、该生成器的输出结果以及该判别器的输出结果,计算获得损失数值时,计算机设备可以对该第一事件实例进行采样,获得第一采样实例;对该第二事件实例进行采样,获得第二采样实例;根据该损失函数、该生成器对该第二采样实例的输出结果、以及该判别器分别对该第一采样实例和该第二采样实例的输出结果,计算获得该损失数值。
其中,由于R和U中可能存在大量实例,所以直接计算和是非常耗时的。为了提高训练效率,本申请实施例可以采样R和U的子集来估算基本概率分布,并形成一个新的损失函数:
其中,和是从U和R中采样的子集,是公式(6)的估计值。
其中,α是一个超参数,其控制概率分布的尖锐程度,以避免权重集中在某些特定实例上。最后,整体优化函数是:
其中,λ是一个调和因子,和在对抗训练中可以是交替优化的,且λ体现在的学习速率中。
其中,上述采样过程可以在通过编码器、生成器和判别器对第一数据集和第二数据集中的事件实例处理之前执行,即编码器、生成器和判别器对采样的事件实例进行处理,后续通过采样的事件实例的输出结果计算损失数值。
或者,上述采样过程也可以在通过编码器、生成器和判别器对第一数据集和第二数据集中的事件实例处理之后执行,即通过编码器、生成器和判别器对第一数据集和第二数据集中的全部事件实例进行处理,并在计算损失数值之前进行采样,通过生成器和判别器对采样到的事件实例的输出结果计算损失数值。
在一种可能的实现方式中,上述生成器和判别器的超参数的设置可以如下表1所示:
表1
随机失活的丢弃概率 | 5×10<sup>-1</sup> |
以动态多重池化CNN为编码器的生成器的学习率 | 5×10<sup>-3</sup> |
以动态多重池化CNN为编码器的判别器的学习率 | 2×10<sup>-2</sup> |
以动态多重池化BERT为编码器的生成器的学习率 | 2×10<sup>-5</sup> |
以动态多重池化BERT为编码器的判别器的学习率 | 1×10<sup>-4</sup> |
步骤308,对于该第二数据集中由训练完成后的该生成器推荐的目标事件实例,当训练完成后的该判别器对该目标事件实例输出的可信概率高于第一概率阈值时,将该目标事件实例添加至该第一数据集。
在对抗训练期间,当判别器和发生器在一定训练轮数之后达到平衡时,所有由生成器推荐并由判别器标记为正确的不可信集合U的实例将从U调整到R。迭代地进行对抗训练可以识别信息丰富的实例并滤除U中的噪声实例,实现利用大规模未标注数据来丰富小规模标注数据。
图5是上述本申请实施例涉及的一种对抗网络训练及应用的框架图。如图5所示,计算机设备获取第一数据集和第二数据集,该第一数据集和第二数据集的获取过程可以参考上述步骤301下的描述,此处不再赘述。在一轮对抗训练过程中,计算机设备将第二数据集中的各个事件实例采样获得第二数据子集,并输入至生成器(S51),由生成器对输入的事件实例输出混淆概率(S52),再根据混淆概率确定第二数据子集中推荐的事件实例(S53),将推荐的事件实例输入至判别器(S54);此外,计算机设备还对第一数据集进行采样,获得第一数据子集,并将第一数据子集中的各个事件实例输入至判别器(S55);判别器分别输出推荐的事件实例和第一数据子集中的事件实例的可信概率(S56);计算机设备根据判别器的输出确定是否收敛(S57);若是,则计算机设备通过对抗网络对第二数据集中的各个事件实例进行推荐和判别,以从第二数据集中确定出可信的事件实例添加到第一数据集中(S58);若否,则计算机设备将生成器输出的混淆概率,以及判别器输出的可信概率,输入至损失函数(S59),并通过损失函数输出的损失值优化对抗网络中的参数(S510),并返回进行下一轮对抗训练。
图6和图7是本申请实施例涉及的,在远距离监督场景下的两种精度召回曲线对比示意图。
其中,图6示出了本申请提供的以动态多重池化CNN为编码器的对抗网络模型,与相关技术中以动态多重池化CNN为编码器的三种弱监督模型(即相关模型1、相关模型2以及相关模型3)在基于文本的事件检测应用中,各自的精度召回曲线示意图。
图7示出了本申请提供的以动态多重池化BERT为编码器的对抗网络模型,与相关技术中以动态多重池化BERT为编码器的三种弱监督模型(即相关模型4、相关模型5以及相关模型6)在基于文本的事件检测应用中,各自的精度召回曲线示意图。
基于上述图6和图7,可以获得不同编码器情况下,本申请提供的对抗网络模型与相关技术中的弱监督模型的曲线下面积(area under curve,AUC)的对比表,该对比表如下述表2所示:
表2
由上述表2可知,在远距离监督场景下,本申请实施例提供的两种基于不同编码器的对抗网络,明显优于相关技术中基于这两种编码器的其它弱监督模型。
对于半监督场景,本申请实施例利用原始训练集(比如ACE-2005训练集)中的现有触发词作为启发式种子,通过上述基于触发词的潜在实例发现策略,从语料库(比如《纽约时报》语料库)中构建了一个大规模的候选集,并使用本申请实施例所示的对抗网络进行训练并过滤掉噪声实例,以构建新的数据集,然后用新的数据集扩展原始训练集,获得扩展训练集,并在原始测试集上测试在扩展训练集上训练的对抗网络。本申请实施例中,以动态多重池化CNN为编码器,通过原始训练集训练的对抗网络模型为CNN模型1;以动态多重池化CNN为编码器,通过扩展训练集训练的对抗网络模型为CNN模型2;以动态多重池化BERT为编码器,通过原始训练集训练的对抗网络模型为BERT模型1;以动态多重池化BERT为编码器,通过扩展训练集训练的对抗网络模型为BERT模型2。将上述CNN模型1、CNN模型2、BERT模型1和BERT模型2与相关技术中通过ACE-2005训练集训练的弱监督模型(选择相关模型7-15)进行比较,可以获得表3所示的对比结果。
表3
上述表3中的P栏表示准确率,R栏表示召回率,F1栏表示准确率和召回率的调和平均数。由表3可见,本申请提供的方案可以用于构建高质量的数据集,而无需复杂的规则和大规模的知识库,并且可以有效收集不同的事件实例,有利于模型的训练。此外,本申请能够通过增加训练数据来获得更好的模型性能,证明了本申请能够提供的对抗网络模型的有效性。
为了对本申请实施例提供的,使用基于触发词的实例发现策略和对抗性训练策略构建的数据集的质量进行细粒度评估,如表4所示,本申请通过平均准确度和弗莱斯Kappa(Fleiss’s Kappa)系数来评价相关技术中的弱监督模型(相关模型16和相关模型17)与本申请模型。
表4
模型 | 平均准确度 | Fleiss’s Kappa |
相关模型16 | 88.9 | — |
相关模型17 | 91.0 | — |
本申请模型第一次迭代 | 91.7 | 61.3 |
本申请模型第二次迭代 | 87.5 | 52.0 |
由表4可见,本申请实施例提供的,基于触发词的实例发现策略和对抗性训练策略能够高准确度的提取事件实例。
为了进一步证明本申请提供的模型提高数据集覆盖率的有效性,本申请实施例给出了表5所示的一个示例。
表5
ACE-2005实例是ACE-2005训练集中,对应起诉事件的典型事件实例,扩展实例中的两个实例是从通过本申请提供的方案构建的数据集中进行采样得到的事件实例。在扩展实例中,第一个事件实例具有ACE-2005实例的触发词,但语法不同;第二个事件实例具有ACE-2005实例中未包含的新的触发词。实验表明,通过本申请所示的方案构建的扩展数据集中,有1.2%的触发词是新发现的触发词。这表明本申请所示的方法不仅可以从与标记数据中的实例类似的未标记数据中找到新的实例,还可以发现新的触发词,从而扩展数据集的覆盖范围。
通过本申请实施例提供的上述训练好的对抗网络,不仅可以实现对第二数据集中包含的事件实例中的文本进行事件检测,以扩充第一数据集,从而得到更大规模的高质量数据集以方便其他模型的训练,此外,也可以直接应用于从其它未标注的文本中自动检测事件的场景。
比如,在一种可能的实现方式中,对抗网络中的判别器对于输入的文本,可以预测该文本对应的事件。部署有上述训练好的对抗网络的识别设备(比如线上的服务器)可以获取待识别文本(比如一个自然语言句子),通过上述训练好的对抗网络对该待检测文本进行处理,并根据对抗网络中的判别器对待检测文本的输出结果获取待检测文本对应的事件,从而实现对待识别文本的事件检测。
综上所述,本申请实施例所示的方案,通过包含默认可信的事件实例的第一数据集,以及包含默认不可信的事件实例的第二数据集,训练对抗网络中的生成器和判别器,使得训练后的判别器能够准确的判别出第二数据集中的事件实例是否可信,一方面,本方案不需要大量的人工标注,节省了数据准备时间,提高了基于文本的事件检测效率,另一方面,本方案采用对抗网络的方式进行事件检测,能够准确的排除第二数据集中的噪声数据,提高事件检测的准确性。
具体来说,本申请实施例提出一种对抗训练机制,不仅能够自动从候选集提取更有信息量的实例,还能提高事件检测模型在有噪声数据场景下(如远距离监督)的性能。在半监督和远程监督的场景中的实验表明,本申请所示的方案中,基于触发词的潜在实例发现策略和对抗训练方法可以合作获得更多样化和准确的训练数据,并减少噪声问题的副作用,从而明显优于当前最高水平的事件检测模型。即本申请提供一种新的弱监督事件检测模型,能够扩展数据集以实现更高的覆盖范围,并减轻事件检测中的低覆盖率、主题偏差和噪声问题,最终提高事件检测的效果。
本申请各个实施例所示的对抗网络的训练和应用方案,可以应用于基于文本进行事件检测,以及根据检测出的事件进行后续应用的人工智能(Artificial Intelligence,AI)场景,比如,本申请实施例所示的对抗网络的训练和应用方案可以由AI从自然语言描述的文本中自动识别出对应的事件,并结合识别出的事件提供智能问答、信息检索、阅读理解等AI服务。
在一种可能的实现场景中,本申请实施例所示的对抗网络可以应用于基于自然语言的服务系统中。例如,基于自然语言的服务系统可以部署上述训练完成后的对抗网络,并对外提供服务接口,用户接受服务系统提供的服务,比如智能问答服务时,用户的终端可以通过该服务接口向服务系统发送自然语言,服务系统通过自然语言生成对应的句子文本,然后通过该对抗网络检测该句子文本对应的事件,后续根据检测出的事件向该用户提供智能问答服务。
或者,在另一种可能的实现场景中,本申请实施例所示的对抗网络也可以独立部署为事件检测系统。比如,部署有上述训练完成后的对抗网络的事件检测系统可以对外提供服务接口,基于自然语言的服务系统,比如智能问答系统,接收到用户的终端发送的自然语言后,通过该自然语言生成对应的句子文本,然后将该句子文本通过服务接口发送给事件检测系统,由事件检测系统通过该对抗网络检测该句子文本对应的事件,并将检测出的事件发送给服务系统,以便服务系统根据检测出的事件向该用户提供智能问答服务。
本申请仅以上述服务系统向用户提供智能问答服务为例进行说明,可选的,上述服务系统也可以向用户提供基于从文本中检测出的事件的其它服务,比如检索或者阅读理解等等。
图8是根据一示例性实施例示出的一种基于文本的事件检测装置的结构方框图。该基于文本的事件检测装置可以用于计算机设备中,以执行图1或图3所示实施例中的全部或者部分步骤。该基于文本的事件检测装置可以包括:
数据集获取模块801,用于获取分别包含事件实例的第一数据集和第二数据集,所述事件实例包括文本以及所述文本对应的事件;所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;
对抗训练模块802,用于通过所述第一数据集和所述第二数据集训练对抗网络,所述对抗网络包括生成器和判别器;所述生成器用于从所述第一数据集和所述第二数据集中分别推荐事件实例;所述判别器用于输出第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
实例获取模块803,用于通过训练完成的所述对抗网络,获取所述第二数据集中的可信的事件实例。
可选的,所述对抗网络还包括编码器,所述对抗训练模块802,用于,
在每一轮对抗训练中,通过所述编码器对所述第一数据集和所述第二数据集中的各个事件实例进行编码,获得所述第一数据集和所述第二数据集中的各个事件实例的嵌入向量,所述嵌入向量用于指示对应事件实例的文本中的各个词,以及所述各个词之间的位置关系;
通过所述生成器对所述第二数据集中的各个事件实例的嵌入向量进行处理,获得所述第一数据集和所述第二数据集中的各个事件实例的混淆概率;所述混淆概率用于指示所述判别器错误判别对应的事件实例是否可信的概率;
根据所述第二数据集中的各个事件实例的混淆概率,从所述第二数据集中推荐第二事件实例;
通过所述判别器对第一事件实例和所述第二事件实例各自的嵌入向量进行处理,获得所述第一事件实例和所述第二事件实例各自的可信概率;所述第一事件实例是所述第一数据集中的事件实例;
若所述判别器的输出结果未收敛,则根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值;
根据所述损失数值对所述对抗网络进行优化。
可选的,所述损失函数包括第一损失函数;
在根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值时,所述对抗训练模块802,用于,
根据所述第一损失函数、所述第一事件实例的可信概率、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第一损失数值;
在根据所述损失数值对所述对抗网络进行优化时,所述对抗训练模块802,用于,
根据所述第一损失数值对所述编码器和所述判别器进行优化。
可选的,所述损失函数包括第二损失函数;
在根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值时,所述对抗训练模块802,用于,
根据所述第二损失函数、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第二损失数值;
在根据所述损失数值对所述对抗网络进行优化时,所述对抗训练模块802,用于,
根据所述第二损失数值对所述生成器进行优化。
可选的,在根据所述第二损失函数、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第二损失数值时,所述对抗训练模块802,用于,
根据所述第二事件实例的可信概率获取各个事件的平均可信概率;
根据所述第二损失函数、所述平均可信概率以及所述第二事件实例的混淆概率计算所述第二损失数值。
可选的,在根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值时,所述对抗训练模块802,用于,
对所述第一事件实例进行采样,获得第一采样实例;
对所述第二事件实例进行采样,获得第二采样实例;
根据所述损失函数、所述生成器对所述第二采样实例的输出结果、以及所述判别器分别对所述第一采样实例和所述第二采样实例的输出结果,计算获得所述损失数值。
可选的,所述实例获取模块803,用于,
对于所述第二数据集中由训练完成后的所述生成器推荐的目标事件实例,当训练完成后的所述判别器对所述目标事件实例输出的可信概率高于第一概率阈值时,将所述目标事件实例添加至所述第一数据集。
可选的,所述数据集获取模块801,用于
获取所述第一数据集;
根据所述第一数据集获取事件标注规则,所述事件标注规则包括可信实例的事件与所述可信实例的文本中的触发词之间的对应关系,所述可信实例是所述第一数据集中的事件实例;
根据所述事件标注规则对所述第一数据集之外的各个文本进行标注,获得候选数据集;
通过所述第一数据集对所述判别器进行预训练,获得预训练的所述判别器;
通过所述预训练的判别器对所述候选数据集中的各个事件实例进行处理,获得所述候选数据集中的各个事件实例的可信概率;
根据所述候选数据集中的各个事件实例的可信概率,从所述候选数据集中提取所述第二数据集。
可选的,在获取所述第一数据集时,数据集获取模块801,用于获取人工标注的所述第一数据集。
可选的,所述数据集获取模块801,用于,
按照预设的事件标注规则对各个文本进行标注,获得初始数据集;所述事件标注规则包括事件与触发词之间的对应关系;
通过所述初始数据集对所述判别器进行预训练;
通过预训练的所述判别器对所述初始数据集中的各个事件实例进行处理,获得所述初始数据集中的各个事件实例各自的可信概率;
根据所述初始数据集中的各个事件实例各自的可信概率,从所述初始数据集中获取所述第一数据集和所述第二数据集。
可选的,在根据所述初始数据集中的各个事件实例各自的可信概率,从所述初始数据集中获取所述第一数据集和所述第二数据集时,数据集获取模块801,用于,
将所述初始数据集中的各个事件实例中,可信概率高于第二概率阈值的事件实例添加入所述第一数据集;
将所述初始数据集中的各个事件实例中,可信概率不高于所述第二概率阈值的事件实例添加入所述第二数据集。
综上所述,本申请实施例所示的方案,通过包含默认可信的事件实例的第一数据集,以及包含默认不可信的事件实例的第二数据集,训练对抗网络中的生成器和判别器,使得训练后的判别器能够准确的判别出第二数据集中的事件实例是否可信,一方面,本方案不需要大量的人工标注,节省了数据准备时间,提高了基于文本的事件检测效率,另一方面,本方案采用对抗网络的方式进行事件检测,能够准确的排除第二数据集中的噪声数据,提高事件检测的准确性。
图9是根据一示例性实施例示出的一种计算机设备的结构示意图。所述计算机设备900包括中央处理单元(CPU)901、包括随机存取存储器(RAM)902和只读存储器(ROM)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。所述计算机设备900还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)906,和用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备907。
所述基本输入/输出系统906包括有用于显示信息的显示器908和用于用户输入信息的诸如鼠标、键盘之类的输入设备909。其中所述显示器908和输入设备909都通过连接到系统总线905的输入输出控制器910连接到中央处理单元901。所述基本输入/输出系统906还可以包括输入输出控制器910以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器910还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备907通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。所述大容量存储设备907及其相关联的计算机可读介质为计算机设备900提供非易失性存储。也就是说,所述大容量存储设备907可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备907可以统称为存储器。
计算机设备900可以通过连接在所述系统总线905上的网络接口单元911连接到互联网或者其它网络设备。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,中央处理器901通过执行该一个或一个以上程序来实现图2、图1或图3所示的方法中的全部或者部分步骤。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括计算机程序(指令)的存储器,上述程序(指令)可由计算机设备的处理器执行以完成本申请各个实施例所示的方法的全部或者部分步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (15)
1.一种基于文本的事件检测方法,其特征在于,所述方法包括:
获取分别包含事件实例的第一数据集和第二数据集,所述事件实例包括文本以及所述文本对应的事件;所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;
通过所述第一数据集和所述第二数据集训练对抗网络,所述对抗网络包括生成器和判别器;所述生成器用于从所述第二数据集中推荐事件实例;所述判别器用于输出所述第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
通过训练完成的所述对抗网络,获取所述第二数据集中的可信的事件实例。
2.根据权利要求1所述的方法,其特征在于,所述对抗网络还包括编码器,所述通过所述第一数据集和所述第二数据集训练对抗网络,包括:
在每一轮对抗训练中,通过所述编码器对所述第一数据集和所述第二数据集中的各个事件实例进行编码,获得所述第一数据集和所述第二数据集中的各个事件实例的嵌入向量,所述嵌入向量用于指示对应事件实例的文本中的各个词,以及所述各个词之间的位置关系;
通过所述生成器对所述第二数据集中的各个事件实例的嵌入向量进行处理,获得所述第二数据集中的各个事件实例的混淆概率;所述混淆概率用于指示所述判别器错误判别对应的事件实例是否可信的概率;
根据所述第二数据集中的各个事件实例的混淆概率,从所述第二数据集中推荐第二事件实例;
通过所述判别器对第一事件实例和所述第二事件实例各自的嵌入向量进行处理,获得所述第一事件实例和所述第二事件实例各自的可信概率;所述第一事件实例是所述第一数据集中的事件实例;
若所述判别器的输出结果未收敛,则根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值;
根据所述损失数值对所述对抗网络进行优化。
3.根据权利要求2所述的方法,其特征在于,所述损失函数包括第一损失函数;
所述根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值,包括:
根据所述第一损失函数、所述第一事件实例的可信概率、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第一损失数值;
所述根据所述损失数值对所述对抗网络进行优化,包括:
根据所述第一损失数值对所述编码器和所述判别器进行优化。
4.根据权利要求2所述的方法,其特征在于,所述损失函数包括第二损失函数;
所述根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值,包括:
根据所述第二损失函数、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第二损失数值;
所述根据所述损失数值对所述对抗网络进行优化,包括:
根据所述第二损失数值对所述生成器进行优化。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第二损失函数、所述第二事件实例的可信概率以及所述第二事件实例的混淆概率计算第二损失数值,包括:
根据所述第二事件实例的可信概率获取各个事件的平均可信概率;
根据所述第二损失函数、所述平均可信概率以及所述第二事件实例的混淆概率计算所述第二损失数值。
6.根据权利要求2所述的方法,其特征在于,所述根据所述损失函数、所述生成器的输出结果以及所述判别器的输出结果,计算获得损失数值,包括:
对所述第一事件实例进行采样,获得第一采样实例;
对所述第二事件实例进行采样,获得第二采样实例;
根据所述损失函数、所述生成器对所述第二采样实例的输出结果、以及所述判别器分别对所述第一采样实例和所述第二采样实例的输出结果,计算获得所述损失数值。
7.根据权利要求1所述的方法,其特征在于,所述通过训练完成的所述对抗网络,获取所述第二数据集中的可信的事件实例,包括:
对于所述第二数据集中由训练完成后的所述生成器推荐的目标事件实例,当训练完成后的所述判别器对所述目标事件实例输出的可信概率高于第一概率阈值时,将所述目标事件实例添加至所述第一数据集。
8.根据权利要求1至7任一所述的方法,其特征在于,所述获取分别包含事件实例的第一数据集和第二数据集,包括:
获取所述第一数据集;
根据所述第一数据集获取事件标注规则,所述事件标注规则包括可信实例的事件与所述可信实例的文本中的触发词之间的对应关系,所述可信实例是所述第一数据集中的事件实例;
根据所述事件标注规则对所述第一数据集之外的各个文本进行标注,获得候选数据集;
通过所述第一数据集对所述判别器进行预训练,获得预训练的所述判别器;
通过所述预训练的判别器对所述候选数据集中的各个事件实例进行处理,获得所述候选数据集中的各个事件实例的可信概率;
根据所述候选数据集中的各个事件实例的可信概率,从所述候选数据集中提取所述第二数据集。
9.根据权利要求8所述的方法,其特征在于,所述获取所述第一数据集,包括:
获取人工标注的所述第一数据集。
10.根据权利要求1至7任一所述的方法,其特征在于,所述获取分别包含事件实例的第一数据集和第二数据集,包括:
按照预设的事件标注规则对各个文本进行标注,获得初始数据集;所述事件标注规则包括事件与触发词之间的对应关系;
通过所述初始数据集对所述判别器进行预训练;
通过预训练的所述判别器对所述初始数据集中的各个事件实例进行处理,获得所述初始数据集中的各个事件实例各自的可信概率;
根据所述初始数据集中的各个事件实例各自的可信概率,从所述初始数据集中获取所述第一数据集和所述第二数据集。
11.根据权利要求10所述的方法,其特征在于,所述根据所述初始数据集中的各个事件实例各自的可信概率,从所述初始数据集中获取所述第一数据集和所述第二数据集,包括:
将所述初始数据集中的各个事件实例中,可信概率高于第二概率阈值的事件实例添加入所述第一数据集;
将所述初始数据集中的各个事件实例中,可信概率不高于所述第二概率阈值的事件实例添加入所述第二数据集。
12.一种基于文本的事件检测方法,其特征在于,所述方法包括:
获取待检测文本;
通过对抗网络对所述待检测文本进行处理,所述对抗网络是通过第一数据集和第二数据集训练获得的,所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;所述对抗网络包括生成器和判别器;所述生成器用于从所述第二数据集中推荐事件实例;所述判别器用于输出所述第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
根据所述对抗网络中的判别器对所述待检测文本的输出结果获取所述待检测文本对应的事件。
13.一种基于文本的事件检测装置,其特征在于,所述装置包括:
数据集获取模块,用于获取分别包含事件实例的第一数据集和第二数据集,所述事件实例包括文本以及所述文本对应的事件;所述第一数据集中包含默认可信的事件实例,所述第二数据集中包含默认不可信的事件实例;
对抗训练模块,用于通过所述第一数据集和所述第二数据集训练对抗网络,所述对抗网络包括生成器和判别器;所述生成器用于从所述第一数据集和所述第二数据集中分别推荐事件实例;所述判别器用于输出第一数据集中的事件实例的可信概率,以及所述生成器推荐的事件实例的可信概率;所述对抗网络的损失函数用于对所述对抗网络进行优化,以使得第一概率最大化,并使得第二概率最小化,所述第一概率是所述判别器对属于所述第一数据集的事件实例输出的可信概率,所述第二概率是所述判别器对属于所述第二数据集的事件实例输出的可信概率;
实例获取模块,用于通过训练完成的所述对抗网络,获取所述第二数据集中的可信的事件实例。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有程序,所述程序由所述处理器执行以实现如权利要求1至12任一所述的基于文本的事件检测方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有指令,所述指令由计算机设备的处理器执行以实现如权利要求1至12任一所述的基于文本的事件检测方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910471605.1A CN110188172B (zh) | 2019-05-31 | 2019-05-31 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
PCT/CN2020/093189 WO2020239061A1 (zh) | 2019-05-31 | 2020-05-29 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
US17/367,130 US20210334665A1 (en) | 2019-05-31 | 2021-07-02 | Text-based event detection method and apparatus, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910471605.1A CN110188172B (zh) | 2019-05-31 | 2019-05-31 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188172A true CN110188172A (zh) | 2019-08-30 |
CN110188172B CN110188172B (zh) | 2022-10-28 |
Family
ID=67719615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910471605.1A Active CN110188172B (zh) | 2019-05-31 | 2019-05-31 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210334665A1 (zh) |
CN (1) | CN110188172B (zh) |
WO (1) | WO2020239061A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368056A (zh) * | 2020-03-04 | 2020-07-03 | 北京香侬慧语科技有限责任公司 | 一种古诗词生成方法和装置 |
CN111597328A (zh) * | 2020-05-27 | 2020-08-28 | 青岛大学 | 一种新事件主题提取方法 |
CN111694924A (zh) * | 2020-06-17 | 2020-09-22 | 合肥中科类脑智能技术有限公司 | 一种事件抽取方法和系统 |
CN111767402A (zh) * | 2020-07-03 | 2020-10-13 | 北京邮电大学 | 一种基于对抗学习的限定域事件检测方法 |
CN111813931A (zh) * | 2020-06-16 | 2020-10-23 | 清华大学 | 事件检测模型的构建方法、装置、电子设备及存储介质 |
WO2020239061A1 (zh) * | 2019-05-31 | 2020-12-03 | 腾讯科技(深圳)有限公司 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
CN112364945A (zh) * | 2021-01-12 | 2021-02-12 | 之江实验室 | 一种基于域-不变特征的元-知识微调方法及平台 |
CN112948535A (zh) * | 2019-12-10 | 2021-06-11 | 复旦大学 | 一种文本的知识三元组抽取方法、装置及存储介质 |
WO2021159814A1 (zh) * | 2020-09-28 | 2021-08-19 | 平安科技(深圳)有限公司 | 文本数据的错误检测方法、装置、终端设备及存储介质 |
CN113326371A (zh) * | 2021-04-30 | 2021-08-31 | 南京大学 | 一种融合预训练语言模型与抗噪声干扰远程监督信息的事件抽取方法 |
CN114841162A (zh) * | 2022-05-20 | 2022-08-02 | 中国电信股份有限公司 | 文本处理方法、装置、设备及介质 |
CN116029356A (zh) * | 2023-03-24 | 2023-04-28 | 杭州景业智能科技股份有限公司 | 刀具监测模型训练方法、刀具状态监测方法及相关装置 |
US11669741B2 (en) | 2021-01-12 | 2023-06-06 | Zhejiang Lab | Method and platform for meta-knowledge fine-tuning based on domain-invariant features |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3767536A1 (en) * | 2019-07-17 | 2021-01-20 | Naver Corporation | Latent code for unsupervised domain adaptation |
CN112862837B (zh) * | 2021-01-27 | 2023-06-23 | 南京信息工程大学 | 一种基于卷积神经网络的图像处理方法和系统 |
CN113392213A (zh) * | 2021-04-19 | 2021-09-14 | 合肥讯飞数码科技有限公司 | 事件抽取方法以及电子设备、存储装置 |
CN113724149B (zh) * | 2021-07-20 | 2023-09-12 | 北京航空航天大学 | 一种弱监督的可见光遥感图像薄云去除方法 |
CN113987163A (zh) * | 2021-09-27 | 2022-01-28 | 浙江大学 | 一种基于本体指导的终身事件抽取方法 |
CN114462418B (zh) * | 2021-12-31 | 2023-04-07 | 粤港澳大湾区数字经济研究院(福田) | 事件检测方法、系统、智能终端及计算机可读存储介质 |
KR102655393B1 (ko) * | 2022-08-17 | 2024-04-05 | 국방과학연구소 | 적대적 강인성을 위한 신경망모델의 학습방법 및 이를 위한 장치 |
CN115878761B (zh) * | 2023-03-02 | 2023-05-09 | 湖南蚁坊软件股份有限公司 | 事件脉络生成方法、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030187615A1 (en) * | 2002-03-26 | 2003-10-02 | John Epler | Methods and apparatus for early detection of health-related events in a population |
US20100122270A1 (en) * | 2008-11-12 | 2010-05-13 | Lin Yeejang James | System And Method For Consolidating Events In A Real Time Monitoring System |
US20130212156A1 (en) * | 2012-02-15 | 2013-08-15 | Qpr Software Oyj | Processing event instance data in a client-server architecture |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106557566B (zh) * | 2016-11-18 | 2019-06-07 | 杭州费尔斯通科技有限公司 | 一种文本训练方法及装置 |
US10642846B2 (en) * | 2017-10-13 | 2020-05-05 | Microsoft Technology Licensing, Llc | Using a generative adversarial network for query-keyword matching |
CN109766432B (zh) * | 2018-07-12 | 2021-03-30 | 中国科学院信息工程研究所 | 一种基于生成对抗网络的中文摘要生成方法和装置 |
CN109492764A (zh) * | 2018-10-24 | 2019-03-19 | 平安科技(深圳)有限公司 | 生成式对抗网络的训练方法、相关设备及介质 |
CN110188172B (zh) * | 2019-05-31 | 2022-10-28 | 清华大学 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
-
2019
- 2019-05-31 CN CN201910471605.1A patent/CN110188172B/zh active Active
-
2020
- 2020-05-29 WO PCT/CN2020/093189 patent/WO2020239061A1/zh active Application Filing
-
2021
- 2021-07-02 US US17/367,130 patent/US20210334665A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030187615A1 (en) * | 2002-03-26 | 2003-10-02 | John Epler | Methods and apparatus for early detection of health-related events in a population |
US20100122270A1 (en) * | 2008-11-12 | 2010-05-13 | Lin Yeejang James | System And Method For Consolidating Events In A Real Time Monitoring System |
US20130212156A1 (en) * | 2012-02-15 | 2013-08-15 | Qpr Software Oyj | Processing event instance data in a client-server architecture |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020239061A1 (zh) * | 2019-05-31 | 2020-12-03 | 腾讯科技(深圳)有限公司 | 基于文本的事件检测方法、装置、计算机设备及存储介质 |
CN112948535A (zh) * | 2019-12-10 | 2021-06-11 | 复旦大学 | 一种文本的知识三元组抽取方法、装置及存储介质 |
CN112948535B (zh) * | 2019-12-10 | 2022-06-14 | 复旦大学 | 一种文本的知识三元组抽取方法、装置及存储介质 |
CN111368056B (zh) * | 2020-03-04 | 2023-09-29 | 北京香侬慧语科技有限责任公司 | 一种古诗词生成方法和装置 |
CN111368056A (zh) * | 2020-03-04 | 2020-07-03 | 北京香侬慧语科技有限责任公司 | 一种古诗词生成方法和装置 |
CN111597328A (zh) * | 2020-05-27 | 2020-08-28 | 青岛大学 | 一种新事件主题提取方法 |
CN111813931A (zh) * | 2020-06-16 | 2020-10-23 | 清华大学 | 事件检测模型的构建方法、装置、电子设备及存储介质 |
CN111813931B (zh) * | 2020-06-16 | 2021-03-16 | 清华大学 | 事件检测模型的构建方法、装置、电子设备及存储介质 |
CN111694924B (zh) * | 2020-06-17 | 2023-05-26 | 合肥中科类脑智能技术有限公司 | 一种事件抽取方法和系统 |
CN111694924A (zh) * | 2020-06-17 | 2020-09-22 | 合肥中科类脑智能技术有限公司 | 一种事件抽取方法和系统 |
CN111767402B (zh) * | 2020-07-03 | 2022-04-05 | 北京邮电大学 | 一种基于对抗学习的限定域事件检测方法 |
CN111767402A (zh) * | 2020-07-03 | 2020-10-13 | 北京邮电大学 | 一种基于对抗学习的限定域事件检测方法 |
WO2021159814A1 (zh) * | 2020-09-28 | 2021-08-19 | 平安科技(深圳)有限公司 | 文本数据的错误检测方法、装置、终端设备及存储介质 |
CN112364945A (zh) * | 2021-01-12 | 2021-02-12 | 之江实验室 | 一种基于域-不变特征的元-知识微调方法及平台 |
US11669741B2 (en) | 2021-01-12 | 2023-06-06 | Zhejiang Lab | Method and platform for meta-knowledge fine-tuning based on domain-invariant features |
CN113326371A (zh) * | 2021-04-30 | 2021-08-31 | 南京大学 | 一种融合预训练语言模型与抗噪声干扰远程监督信息的事件抽取方法 |
CN113326371B (zh) * | 2021-04-30 | 2023-12-29 | 南京大学 | 一种融合预训练语言模型与抗噪声干扰远程监督信息的事件抽取方法 |
CN114841162A (zh) * | 2022-05-20 | 2022-08-02 | 中国电信股份有限公司 | 文本处理方法、装置、设备及介质 |
CN114841162B (zh) * | 2022-05-20 | 2024-01-05 | 中国电信股份有限公司 | 文本处理方法、装置、设备及介质 |
CN116029356A (zh) * | 2023-03-24 | 2023-04-28 | 杭州景业智能科技股份有限公司 | 刀具监测模型训练方法、刀具状态监测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210334665A1 (en) | 2021-10-28 |
WO2020239061A9 (zh) | 2021-01-28 |
CN110188172B (zh) | 2022-10-28 |
WO2020239061A1 (zh) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188172A (zh) | 基于文本的事件检测方法、装置、计算机设备及存储介质 | |
US20140236577A1 (en) | Semantic Representations of Rare Words in a Neural Probabilistic Language Model | |
Ahmad et al. | Genetic algorithm-artificial neural network (GA-ANN) hybrid intelligence for cancer diagnosis | |
CN106570513A (zh) | 大数据网络系统的故障诊断方法和装置 | |
CN107797931A (zh) | 一种基于二次评价的软件质量评价方法及系统 | |
Dash et al. | A differential harmony search based hybrid interval type2 fuzzy EGARCH model for stock market volatility prediction | |
CN109190126A (zh) | 词嵌入模型的训练方法及装置 | |
JP7393060B2 (ja) | 注意メカニズムを融合したパーソナライズド検索方法及び検索システム | |
Crawford et al. | Dynamic selection of enumeration strategies for solving constraint satisfaction problems | |
Gross et al. | Unveiling ecological assembly rules from commonalities in trait distributions | |
CN114969278A (zh) | 一种基于知识增强图神经网络的文本问答模型 | |
Robinson | A richness index for baselining climate change adaptations in small island developing states | |
Gao et al. | Explicit memory tracker with coarse-to-fine reasoning for conversational machine reading | |
Xu et al. | A FOFE-based local detection approach for named entity recognition and mention detection | |
Rao et al. | Dynamic contrastive distillation for image-text retrieval | |
Plátek et al. | Recurrent neural networks for dialogue state tracking | |
CN111861751A (zh) | 基于深度强化学习的股票量化交易方法、存储介质及设备 | |
Livieris et al. | A semi-supervised self-trained two-level algorithm for forecasting students’ graduation time | |
CN115878794A (zh) | 基于文本分类的候选段落生成及多跳问题回答方法 | |
CN109657907A (zh) | 地理国情监测数据的质量控制方法、装置和终端设备 | |
Guo et al. | Inducing and embedding senses with scaled gumbel softmax | |
McIntyre et al. | Cooperative problem decomposition in Pareto competitive classifier models of coevolution | |
Kaczmarek et al. | Spatial planning text information processing with use of machine learning methods | |
Bach et al. | On machine learning based cryptocurrency trading | |
Li et al. | Research on the Recommendation System of Gobang Game Based on Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |