CN112507697B - 事件名的生成方法、装置、设备及介质 - Google Patents
事件名的生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN112507697B CN112507697B CN202011383857.8A CN202011383857A CN112507697B CN 112507697 B CN112507697 B CN 112507697B CN 202011383857 A CN202011383857 A CN 202011383857A CN 112507697 B CN112507697 B CN 112507697B
- Authority
- CN
- China
- Prior art keywords
- event
- vector
- semantic representation
- argument
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 129
- 239000013598 vector Substances 0.000 claims abstract description 296
- 230000008569 process Effects 0.000 claims description 68
- 230000015654 memory Effects 0.000 claims description 27
- 230000007246 mechanism Effects 0.000 claims description 25
- 230000011218 segmentation Effects 0.000 claims description 17
- 230000002457 bidirectional effect Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 238000003058 natural language processing Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000010076 replication Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种事件名的生成方法、装置、设备及介质,涉及自然语言处理和知识图谱技术领域。具体实现方案为:获取目标事件的结构化信息,从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量,根据论元语义表示向量生成目标事件的事件语义表示向量,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量;以及根据事件语义表示向量和文本语义表示向量生成事件名。由此,通过引入结构化信息,从该结构化信息中提取出论元相关信息,进而基于该论元相关信息和事件相关文本进行事件名生成,由于论元相关信息有利于生成事件名中的主语和宾语部分,从而提高了事件名生成的准确性。
Description
技术领域
本申请公开了一种事件名的生成方法、装置、设备及介质,涉及深度学习技术领域,具体涉及自然语言处理和知识图谱技术领域。
背景技术
随着互联网的发展,新闻事件得到越来越多的关注,在新闻推送网站中,通常需要根据新闻对应的事件实体生成事件名。
相关技术中,从给定的事件相关文本中生成事件名时,可以采用基于抽取式的事件名生成方法,首先从文本中选择重要的句子,然后抽取出主谓宾组成事件名。但是,该事件名生成方法依赖于人工构建的规则和模板,存在人工构建成本高,不具备泛化能力等缺点。
发明内容
本申请提供了一种事件名的生成方法、装置、设备及介质。
本申请的一方面,提供了一种事件名的生成方法,包括:
获取目标事件的结构化信息;
从所述目标事件的结构化信息中提取论元信息,并根据所述论元信息生成论元语义表示向量;
根据所述论元语义表示向量生成所述目标事件的事件语义表示向量;
获取所述目标事件的事件相关文本,并根据所述事件相关文本生成文本语义表示向量;以及
根据所述事件语义表示向量和所述文本语义表示向量生成事件名。
作为本申请一方面的一种可能的实现方式,所述从所述目标事件的结构化信息中提取论元信息,并根据所述论元信息生成论元语义表示向量,包括:
从所述结构化信息中提取至少一组所述论元信息;其中,各组所述论元信息中包含论元角色和论元值;
将属于同一组所述论元信息的所述论元角色和所述论元值输入第一双向长短期记忆网络LSTM模型以生成所述论元角色向量和论元值向量;
将所述论元角色向量和所述论元向量拼接以生成所述论元语义表示向量。
作为本申请一方面的另一种可能的实现方式,所述论元信息为多组,每一组所述论元信息具有对应的所述论元语义表示向量,所述根据所述论元语义表示向量生成所述目标事件的事件语义表示向量,包括:
将各组所述论元信息所对应的论元语义表示向量输入至第二双向LSTM模型以生成所述事件语义表示向量。
作为本申请一方面的另一种可能的实现方式,所述根据所述事件相关文本生成文本语义表示向量,包括:
对所述事件相关文本进行分词以生成多个词,并获取所述多个词的多个词编码向量;
将所述多个词编码向量输入至第三双向LSTM模型以生成所述文本语义表示向量。
作为本申请一方面的另一种可能的实现方式,所述根据所述事件语义表示向量和所述文本语义表示向量生成事件名,包括:
将所述事件语义表示向量和所述文本语义表示向量拼接,得到拼接向量;
将所述拼接向量输入解码器,以得到所述解码器输出的所述事件名。
作为本申请一方面的另一种可能的实现方式,所述解码器,用于循环执行多次解码过程,每一次解码过程用于解码得到所述事件名中的一个字符;
其中,所述解码器包括隐藏层和输出层;
所述隐藏层,用于根据所述拼接向量、隐状态指示向量,以及上一次解码过程中所述输出层的输出,生成本次解码过程的隐状态;所述隐状态指示向量,是根据上一次解码过程中所述隐藏层生成的隐状态生成的;
所述输出层,用于根据本次解码过程的隐状态,输出所述本次解码过程解码得到的字符。
作为本申请一方面的另一种可能的实现方式,所述隐状态指示向量,包括上一次解码过程中所述隐藏层生成的隐状态,以及用于指示采用复制机制或者生成机制的指示向量;
其中,在所述上一次解码过程中输出的字符处于事件相关文本和/或所述结构化信息中,则采用所述复制机制,所述指示向量取值,表征所述上一次解码过程中输出的字符的词向量,以及处于所述事件相关文本和/或所述结构化信息中的位置和上下文中的一个或多个组合;
在所述上一次解码过程中输出的字符未处于事件相关文本和/或所述结构化信息中,则采用所述生成机制,所述指示向量取值为零。
根据本申请的另一方面,提供了一种事件名的生成装置,包括:
获取模块,用于获取目标事件的结构化信息;
提取模块,用于从所述目标事件的结构化信息中提取论元信息,并根据所述论元信息生成论元语义表示向量;
第一生成模块,用于根据所述论元语义表示向量生成所述目标事件的事件语义表示向量;
第二生成模块,用于获取所述目标事件的事件相关文本,并根据所述事件相关文本生成文本语义表示向量;以及
第三生成模块,用于根据所述事件语义表示向量和所述文本语义表示向量生成事件名。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例提出的事件名的生成方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述实施例中所述的事件名的生成方法。
根据本申请的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述实施例中所述的事件名的生成方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例提供的一种事件名的生成方法的流程示意图;
图2为本申请实施例提供的另一种事件名的生成方法的流程示意图;
图3为本申请实施例提供的一种用于生成文本语义表示向量的子流程示例图;
图4为本申请实施例提供的又一种事件名的生成方法的流程示意图;
图5为本申请实施例提供的一种事件名的生成装置的结构示意图;
图6是用来实现本申请实施例的事件名的生成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
相关技术中,还可以采用基于生成式的事件从给定的事件相关文本中生成事件名,具体地,可以采用端到端模型,即编码器-解码器模型进行事件名生成。但是,该事件名生成方法仅仅依赖事件相关文本生成事件名,导致生成的事件名的语法正确性、语言流畅性较低。
此外,相关技术中,还可以采用搜索关键词并加之人工编辑方式获取事件名,但是,该事件名生成方法只覆盖热门事件,对于一般事件其搜索关键词较少,且考虑人工成本,导致生成任意事件实体的事件名时效率较低。
针对相关技术中无法准确生成任意事件实体的事件名的技术问题,本申请提出了一种事件名的生成方法,通过获取目标事件的结构化信息,从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量,根据论元语义表示向量生成目标事件的事件语义表示向量,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量;以及根据事件语义表示向量和文本语义表示向量生成事件名。由此,通过引入结构化信息,从该结构化信息中提取出论元相关信息,进而基于该论元相关信息进行事件名生成,由于论元相关信息有利于生成事件名中的主语和宾语部分,从而提高了事件名生成的准确性。
下面参考附图描述本申请实施例的事件名的生成方法、装置、设备及存储介质。
图1为本申请实施例提供的一种事件名的生成方法的流程示意图。
本申请实施例以该事件名的生成方法被配置于事件名的生成装置中来举例说明,该事件名的生成装置可以应用于任一电子设备中,以使该电子设备可以执行事件名的生成功能。
其中,电子设备可以为个人电脑(Personal Computer,简称PC)、云端设备、移动设备等,移动设备例如可以为手机、平板电脑、个人数字助理、穿戴式设备、车载设备等具有各种操作系统的硬件设备。
如图1所示,该事件名的生成方法,可以包括以下步骤:
步骤101,获取目标事件的结构化信息。
本申请实施例中,可以通过在网站上抓取的方式获取目标事件,也可以通过在事件数据库中获取的方式获取目标事件,还可以根据实际的应用场景,采用其他方式获取目标事件,本申请中在此不做限定。其中,事件,作为信息的一种表现形式,其定义为特定的人、物在特定时间和特定地点相互作用的客观事实,一般来说是句子级的。
其中,结构化信息是指信息经过分析后可分解成多个互相关联的组成部分,各组成部分间有明确的层次结构,其使用和维护通过数据库进行管理,并有一定的操作规范。无法完全数字化的信息称为非结构化信息,如文档文件、图片、图纸资料、缩微胶片等。互联网上出现的海量信息,大概分为结构化信息、半结构化信息和非结构化信息三种。
本申请实施例中,事件文本中可能包含有多个事件,而生成事件名时只需要针对其中一个事件生成相应的事件名。因此,可以从多个事件中随机抽取一个事件作为目标事件。作为一种可能的实现方式,可以从事件图谱中获取一个时间作为目标事件。
本申请实施例中,获取到目标事件后,可以对目标事件进行事件抽取,以抽取出事件的基本信息,例如,事件的类型,事件的参与者,发生时间和地点等,并以结构化的形式呈现出来,从而得到目标事件的结构化信息。
作为一种可能的实现方式,获取到目标事件后,可以通过语法分析器生成工具,基于语法规则,生成用于分析目标事件的语法分析器,进而,通过语法分析器,对目标事件进行分析,以确定目标事件对应的语法分析树,以基于语法分析树,确定目标事件的结构化信息。
本申请实施例中,事件的结构化信息,可以包括事件的触发词,事件类型,论元以及对应的论元角色,等等。
其中,事件的触发词,是指事件发生的核心词,多为动词或者动名词。论元,是指事件的参与者,主要由实体、值、时间组成。论元角色,是指事件论元在事件中充当的角色,如攻击者、受害者、收购方、被收购方等。
作为一种示例,假设事件1为“A公司拟收购B公司”,对该事件1进行事件抽取得到事件1的结构化信息,事件的触发词为“拟购”,论元为“A公司和B公司”,论元角色为“收购方和被收购方”。
步骤102,从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量。
本申请实施例中,论元信息可以包括论元角色和论元值。需要说明的是,从目标事件的结构化信息中提取的论元信息不限于一组,如,可以从目标事件的结构化信息中提取出两组论元信息,每一组论元信息中包含论元角色和对应的论元值。
本申请实施例中,获取到目标事件的结构化信息后,可以从目标事件的结构化信息中提取得到论元信息。
继续以步骤101的示例为例,获取到事件1的结构化信息后,可以从事件1的结构化信息中提出论元信息“收购方:A公司;被收购方:B公司”。
本申请实施例中,从目标事件的结构化信息中提取得到论元信息后,可以采用编码器对提取得到的论元信息进行编码,以得到对应的论元语义表示向量。
编码器是一种特殊的神经网络,用于特征提取和数据降维络。最简单的编码器由一个输入层,一个隐含层,一个输出层组成。编码器可以对输入向量进行映射,得到编码后的向量。
其中,编码器,可以为CNN(Convolutional Neural Network,卷积神经网络),RNN(Recurrent Neural Network,循环神经网络),BiRNN(Bi-directional Recurrent NeuralNetwork,双向循环神经网络),GRU(Gated Recurrent Unit,门控循环网络),LSTM(LongShort-Term Memory,长短期记忆网络),等等。
作为一种可能的实现方式,可以将从目标事件的结构化信息中提取的论元信息输入LSTM模型进行编码,以根据模型的输出得到论元信息对应的论元语义表示向量。
需要说明的是,也可以采用其他深度学习模型对论元信息进行编码,在此不做限定。
步骤103,根据论元语义表示向量生成目标事件的事件语义表示向量。
本申请实施例中,对论元信息进行编码生成论元语义表示向量后,可以采用编码器对论元语义表示向量进行编码,以生成目标事件的事件语义表示向量。
作为一种可能的实现方式,可以采用Bi-LSTM(Bi-directional Long Short-TermMemory,双向长短记忆网络)模型对论元语义表示向量进行编码,以得到目标事件的事件语义表示向量。
需要说明的是,也可以采用其他深度学习模型对论元语义表示向量进行编码,在此不做限定。
步骤104,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量。
本申请实施例中,可以从事件文本中获取目标事件的事件相关文本,并采用文本编码器对目标事件的事件相关文本进行编码,以生成文本语义表示向量。
在自然语言处理中,自然语言文本是由一堆符号顺序拼接而成的不定长序列,很难直接转变为计算机所能理解的数值型数据,因而无法直接进行进一步的计算处理。向量由于包含了丰富的信息,使得深度学习能够处理绝大多数自然语言处理应用。
作为一种可能的实现方式,还可以采用LSTM对目标事件的事件相关文本进行编码,以得到事件相关文本对应的文本语义表示向量。
可选地,可以对目标事件的事件相关文本进行分词以生成多个词,进而,查询语料库以确定各分词对应的词编码向量,将各分词对应的词编码向量输入LSTM模型,以得到事件相关文本对应的文本语义表示向量。其中,语料库中每个词用一个向量来表示,这样就可以将文本向量化了。
需要说明的是,也可以采用其他深度学习模型对目标事件的事件相关文本进行编码,在此不做限定。
步骤105,根据事件语义表示向量和文本语义表示向量生成事件名。
在上述步骤103和步骤104中分别生成事件语义表示向量和文本语义表示向量后,可以根据事件语义表示向量和文本语义表示向量生成事件名。
作为一种可能的实现方式,可以将事件语义表示向量和文本语义表示向量进行拼接,将拼接后得到的向量输入解码器中,以生成事件名。采用解码器对拼接后得到的向量的具体解码过程,将在后续实施例中进行详细介绍。
本申请实施例的事件名的生成方法,通过获取目标事件的结构化信息,从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量,根据论元语义表示向量生成目标事件的事件语义表示向量,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量;以及根据事件语义表示向量和文本语义表示向量生成事件名。由此,通过引入结构化信息,从该结构化信息中提取出论元相关信息,进而基于该论元相关信息和事件相关文本进行事件名生成,由于论元相关信息有利于生成事件名中的主语和宾语部分,从而提高了事件名生成的准确性。
作为本申请实施例的一种可能的情况,目标事件的结构化信息中可能包含有多组论元信息,可以对每组论元信息的论元角色和论元值进行编码得到对应的论元角色向量和论元值向量,进而,将论元角色向量和论元向量拼接以生成论元语义表示向量,对各组论元语义表示向量进行编码得到事件语义表示向量。下面结合图2对上述过程进行详细介绍,图2为本申请实施例提供的另一种事件名的生成方法的流程示意图。
如图2所示,该事件名的生成方法,还可以包括以下步骤:
步骤201,获取目标事件的结构化信息。
本申请实施例中,步骤201的实现过程,可以参见上述实施例中步骤101的实现过程,在此不再赘述。
步骤202,从结构化信息中提取至少一组论元信息。
其中,各组论元信息中包含论元角色和论元值。
本申请实施例中,从目标事件获取的结构化信息中提取得到的论元信息可能为多组,并且各组论元信息中包含论元角色和论元值。
作为一种示例,假设从结构化信息中提取出3组论元信息,第一组论元信息中包含论元角色A1和论元值B1,第二组论元信息中包含论元角色A2和论元值B2,第三组论元信息中包含论元角色A3和论元值B3。
步骤203,将属于同一组论元信息的论元角色和论元值输入第一双向长短期记忆网络LSTM模型以生成论元角色向量和论元值向量。
为了便于区分,本申请中将对论元信息的论元角色和论元值进行编码的LSTM模型称为第一双向LSTM模型,将对论元语义表示向量进行编码的LSTM模型称为第二双向LSTM模型,对事件相关文本分词后的多个词编码向量进行编码的LSTM模型称为第三双向LSTM模型。
其中,LSTM模型,是RNN的一种,LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据。双向LSTM模型,是由前向LSTM和后向LSTM组合而成。
本申请实施例中,从结构化信息中提取得到论元信息后,可以将各组论元信息中包含的论元角色和论元值输入第一双向LSTM模型进行编码,以生成对应的论元角色向量和论元值向量。
步骤204,将论元角色向量和论元向量拼接以生成论元语义表示向量。
本申请实施例中,对属于同一组论元信息的论元角色和论元值进行编码,得到对应的论元角色向量和论元值向量后,可以将论元角色向量和论元值向量进行拼接,以生成论元语义表示向量。
作为一种可能的实现方式,可以基于NNLM(Neural Network Language Model,神经网络语言)模型对论元角色向量和论元限量进行拼接,以生成论元语义表示向量。
步骤205,将各组论元信息所对应的论元语义表示向量输入至第二双向LSTM模型以生成事件语义表示向量。
作为本申请实施例的一种可能的情况,从目标事件的结构化信息中提取出的论元信息为多组时,每一组论元信息具有对应的论元语义表示向量时,可以将每一组论元信息所对应的论元语义表示向量输入至第二双向LSTM模型进行编码,以生成事件语义表示向量。由此,采用双向LSTM模型对各组论元信息所对应的论元语义表示向量进行编码时,需要由若干输入和若干输出共同决定模型的输出,有利于提高生成的事件语义表示向量的准确性。
步骤206,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量。
步骤207,根据事件语义表示向量和文本语义表示向量生成事件名。
本申请实施例中,步骤206和步骤207的实现过程,可以参见上述实施例中步骤104和步骤105的实现过程,在此不再赘述。
本申请实施例的事件名的生成方法,通过获取目标事件的结构化信息,从目标事件的结构化信息中提取至少一组论元信息后,将属于同一组论元信息的论元角色和论元值输入第一双向长短期记忆网络LSTM模型以生成论元角色向量和论元值向量,将论元角色向量和论元向量拼接以生成论元语义表示向量,进而,将各组论元信息所对应的论元语义表示向量输入至第二双向LSTM模型以生成事件语义表示向量,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量,根据事件语义表示向量和文本语义表示向量生成事件名。由此,从结构化信息中提取出至少一组论元信息,进而采用LSTM模型生成事件名,从而提高了事件名生成的准确性,并且整个事件名生成过程无需人工操作,相较于现有技术中依赖于人工构建规则和模板的事件名生成方法,降低了构建成本。
在上述实施例的基础上,在步骤104或步骤206中根据事件相关文本生成文本语义表示向量时,还可以对事件相关文本进行分词,得到每个词的编码向量后,对每个词编码向量进行编码以生成文本语义表示向量。下面结合图3对上述过程进行详细介绍,图3为本申请实施例提供的一种用于生成文本语义表示向量的子流程示例图。
如图3所示,上述步骤104或步骤206,还可以包括以下步骤:
步骤301,对事件相关文本进行分词以生成多个词,并获取多个词的多个词编码向量。
其中,分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。例如,假如文本为“张三来到A区”,对该文本进行分词后生成的多个词为“张三/来到/A区”。
本申请实施例中,在获取到目标事件的事件相关文本后,可以对事件相关文本进行预处理,也就是对事件相关文本进行分词以生成多个词。
可选地,可以采用基于词典的分词方法对事件相关文本进行分词以生成多个词。首先建立统一的词典表,当需要对目标事件相关文本进行分词时,首先将事件相关文本拆分成多个部分,将每一个部分与字典一一对应,如果该词语在词典中,则分词成功,否则继续拆分匹配直到成功。
可选地,还可以采用基于统计的中文分词方法对事件相关文本进行分词以生成多个词。统计学认为分词是一个概率最大化问题,即拆分句子,基于语料库,统计相邻的字组成的词语出现的概率,相邻的词出现的次数多,就出现的概率大,按照概率值进行分词,所以一个完整的语料库很重要。
进一步地,可以将对事件相关文本进行分词生成的多个词输入编码器,以对每个词进行语义编码,得到各个词对应的多个词编码向量。其中,词编码向量,能够指示相应词元素及其上下文的语义。
需要说明的是,获取多个词的词编码向量的方法有很多,但是这些方法都依照一个思想,即任一词的含义可以用它的周边词来表示。目前,生成词编码向量的方式可分为:基于统计的方法和基于语言模型的方法。其中,基于语言模型生成词向量的方法是通过训练的NNLM模型,词编码向量作为语言模型的附带产出。例如,可通过词袋模型对各词进行字符编码,得到各词对应的词编码向量。
作为一种可能的实现方式,将对事件相关文本进行分词后生成的多个词通过一层或者多层的RNN,进行语义编码,得到各词对应的词编码向量。使用RNN网络对各词的进行编码时,在每个时刻,其输出的词编码向量不仅要依赖于当前时刻的输入,还要考虑上一时刻的模型“状态”。通过对历史状态的依赖,RNN模型能够有效的表征文本数据的上下文依存信息。
作为另一种可能的实现方式,也可以采用CNN模型对对事件相关文本进行分词后生成的多个词进行编码,以得到各个词的词编码向量。
需要说明的是,获取多个词的词编码向量的方法有很多,例如,可以采用BiLSTM,Self Attention(自注意力机制),CNN,等等。
本申请实施例中,对于编码器采用的编码技术不做任何限制。
步骤302,将多个词编码向量输入至第三双向LSTM模型以生成文本语义表示向量。
本申请实施例中,获取到多个词的多个词编码向量后,可以将多个词编码向量输入第三双向LSTM模型进行语义编码,以生成文本语义表示向量。
语义编码是通过词语对信息进行加工,按意义、系统分类或把言语材料用自己的语言形式加以组织和概括,找出材料的基本论点、论据、逻辑结构,按语义特征编码。
本申请中,通过对事件相关文本进行分词以生成多个词,并获取多个词的多个词编码向量,将多个词编码向量输入至第三双向LSTM模型以生成文本语义表示向量。由此,通过将目标事件相关文本编码成计算机能够识别的文本语义表示向量,进而根据事件语义表示向量和文本语义表示向量生成事件名,实现了无需人工操作即可生成事件名,相较于现有技术中依赖于人工构建规则和模板的事件名生成方法,降低了构建成本。
在上述实施例的基础上,在基于事件语义表示向量和文本语义表示向量生成事件名时,可以采用解码器对事件语义表示向量和文本语义表示向量进行解码,以得到事件名。下面结合图4对上述过程进行详细介绍,图4为本申请实施例提供的又一种事件名的生成方法的流程示意图。
如图4所示,该事件名的生成方法,可以包括以下步骤:
步骤401,将事件语义表示向量和文本语义表示向量拼接,得到拼接向量。
本申请实施例中,根据论元语义表示向量生成目标事件的事件语义表示向量,以及根据事件相关文本生成文本语义表示向量后,可以将事件语义表示向量和文本语义表示向量进行拼接,得到拼接向量。
步骤402,将拼接向量输入解码器,以得到解码器输出的事件名。
本申请实施例中,将拼接向量输入解码器后,解码器在每一次解码过程解码得到事件名中的一个字符,解码器循环执行多次解码过程,以得到事件名。
例如,解码器可以为RNN,也可以为其他神经网络,在此不做限定。
作为一种可能的情况,解码器可以包括隐藏层和输出层。隐藏层,用于根据拼接向量、隐状态指示向量,以及上一次解码过程中输出层的输出,生成本次解码过程的隐状态。其中,隐状态指示向量,是根据上一次解码过程中隐藏层生成的隐状态生成的。其中,所谓隐状态,是指对拼接向量进行解码后,无法从解码的结果直接识别该词语,故称为隐状态。
输出层,用于根据本次解码过程的隐状态,输出本次解码过程解码得到的字符。
其中,隐状态指示向量,可以包括上一次解码过程中隐藏层生成的隐状态,以及用于指示采用复制机制或者生成机制的指示向量。
在一种可能的情况下,在上一次解码过程中输出的字符处于事件相关文本和/或结构化信息中,则采用复制(copy)机制。其中,复制机制的指示向量取值,表征上一次解码过程中输出的字符的词向量,以及处于事件相关文本和/或结构化信息中的位置和上下文中的一个或多个组合。
可以理解的是,在自然语言处理或者文本处理的时候,我们通常会有一个字词库(vocabulary)。这个vocabulary要么是提前加载的,或者是自己定义的,或者是从当前数据集提取的。假设之后有了另一个的数据集,这个数据集中有一些词并不在你现有的vocabulary里,我们就说这些词汇是Out-of-vocabulary,简称OOV。OOV问题是对文本进行处理时的生成阶段常见的问题。本申请中,采用复制机制生成事件名,不仅可以避免出现OOV问题,还有助于提升事件名生成的流畅性和准确率。
在另一种可能的情况下,在上一次解码过程中输出的字符未处于事件相关文本和/或结构化信息中,则采用生成机制。其中,生成机制的指示向量取值为零。在采用生成机制生成字符时,可以从预设的词汇表中生成字符。
本申请实施例的事件名的生成方法,通过将事件语义表示向量和文本语义表示向量拼接,得到拼接向量,将拼接向量输入解码器,以得到解码器输出的事件名。由于采用解码器对拼接向量进行解码时,使用了多源复制机制,有利于提高事件名生成的准确度。
为了实现上述实施例,本申请提出了一种事件名的生成装置。
图5为本申请实施例提供的一种事件名的生成装置的结构示意图。
如图5所示,该事件名的生成装置500,可以包括:获取模块510、提取模块520、第一生成模块530、第二生成模块540以及第三生成模块550。
其中,获取模块510,用于获取目标事件的结构化信息。
提取模块520,用于从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量。
第一生成模块530,用于根据论元语义表示向量生成目标事件的事件语义表示向量。
第二生成模块540,用于获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量。
第三生成模块550,用于根据事件语义表示向量和文本语义表示向量生成事件名。
作为一种可能的情况,提取模块520,还可以用于:
从结构化信息中提取至少一组论元信息;其中,各组论元信息中包含论元角色和论元值;将属于同一组所论元信息的论元角色和论元值输入第一双向长短期记忆网络LSTM模型以生成论元角色向量和论元值向量;将论元角色向量和论元向量拼接以生成论元语义表示向量。
作为另一种可能的情况,论元信息为多组,每一组论元信息具有对应的论元语义表示向量,第一生成模块530,还可以用于:
将各组论元信息所对应的论元语义表示向量输入至第二双向LSTM模型以生成事件语义表示向量。
作为另一种可能的情况,第二生成模块540,还可以用于:
对事件相关文本进行分词以生成多个词,并获取多个词的多个词编码向量;将多个词编码向量输入至第三双向LSTM模型以生成文本语义表示向量。
作为另一种可能的情况,第三生成模块550,还可以用于:
将事件语义表示向量和文本语义表示向量拼接,得到拼接向量;将拼接向量输入解码器,以得到解码器输出的事件名。
作为另一种可能的情况,解码器,用于循环执行多次解码过程,每一次解码过程用于解码得到事件名中的一个字符;
其中,解码器包括隐藏层和输出层;
隐藏层,用于根据拼接向量、隐状态指示向量,以及上一次解码过程中输出层的输出,生成本次解码过程的隐状态;隐状态指示向量,是根据上一次解码过程中隐藏层生成的隐状态生成的;
输出层,用于根据本次解码过程的隐状态,输出本次解码过程解码得到的字符。
作为另一种可能的情况,隐状态指示向量,包括上一次解码过程中隐藏层生成的隐状态,以及用于指示采用复制机制或者生成机制的指示向量;
其中,在上一次解码过程中输出的字符处于事件相关文本和/或结构化信息中,则采用复制机制,指示向量取值,表征上一次解码过程中输出的字符的词向量,以及处于事件相关文本和/或结构化信息中的位置和上下文中的一个或多个组合;
在上一次解码过程中输出的字符未处于事件相关文本和/或结构化信息中,则采用生成机制,指示向量取值为零。
本申请实施例的事件名的生成装置,通过获取目标事件的结构化信息,从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量,根据论元语义表示向量生成目标事件的事件语义表示向量,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量;以及根据事件语义表示向量和文本语义表示向量生成事件名。由此,通过引入结构化信息,从该结构化信息中提取出论元相关信息,进而基于该论元相关信息和事件相关文本进行事件名生成,由于论元相关信息有利于生成事件名中的主语和宾语部分,从而提高了事件名生成的准确性。
为了实现上述实施例,本申请还提出了一种电子设备。
本申请提出的电子设备,可以包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例中的事件名的生成方法。
为了实现上述实施例,本申请还提出了一种存储有计算机指令的非瞬时计算机可读存储介质。
本申请实施例提出的存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使所述计算机执行上述实施例中所述的事件名的生成方法。
为了实现上述实施例,本申请还提出了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述实施例中所述的事件名的生成方法。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的事件名的生成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的事件名的生成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的事件名的生成方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的事件名的生成方法对应的程序指令/模块(例如,附图5所示的获取模块510、提取模块520、第一生成模块530、第二生成模块540以及第三生成模块550)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的事件名的生成方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
事件名的生成方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与事件名的生成的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,通过获取目标事件的结构化信息,从目标事件的结构化信息中提取论元信息,并根据论元信息生成论元语义表示向量,根据论元语义表示向量生成目标事件的事件语义表示向量,获取目标事件的事件相关文本,并根据事件相关文本生成文本语义表示向量;以及根据事件语义表示向量和文本语义表示向量生成事件名。由此,通过引入结构化信息,从该结构化信息中提取出论元相关信息,进而基于该论元相关信息进行事件名生成,由于论元相关信息有利于生成事件名中的主语和宾语部分,从而提高了事件名生成的准确性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种事件名的生成方法,包括:
获取目标事件的结构化信息;
从所述目标事件的结构化信息中提取论元信息,并根据所述论元信息生成论元语义表示向量;
根据所述论元语义表示向量生成所述目标事件的事件语义表示向量;
获取所述目标事件的事件相关文本,并根据所述事件相关文本生成文本语义表示向量;以及
根据所述事件语义表示向量和所述文本语义表示向量生成事件名;
其中,所述从所述目标事件的结构化信息中提取论元信息,并根据所述论元信息生成论元语义表示向量,包括:
从所述结构化信息中提取至少一组所述论元信息;其中,各组所述论元信息中包含论元角色和论元值;
将属于同一组所述论元信息的所述论元角色和所述论元值输入第一双向长短期记忆网络LSTM模型以生成所述论元角色向量和论元值向量;
将所述论元角色向量和所述论元向量拼接以生成所述论元语义表示向量;
其中,所述论元信息为多组,每一组所述论元信息具有对应的所述论元语义表示向量,所述根据所述论元语义表示向量生成所述目标事件的事件语义表示向量,包括:
将各组所述论元信息所对应的论元语义表示向量输入至第二双向LSTM模型以生成所述事件语义表示向量;
其中,所述根据所述事件相关文本生成文本语义表示向量,包括:
对所述事件相关文本进行分词以生成多个词,并获取所述多个词的多个词编码向量;
将所述多个词编码向量输入至第三双向LSTM模型以生成所述文本语义表示向量。
2.根据权利要求1所述的事件名的生成方法,其中,所述根据所述事件语义表示向量和所述文本语义表示向量生成事件名,包括:
将所述事件语义表示向量和所述文本语义表示向量拼接,得到拼接向量;
将所述拼接向量输入解码器,以得到所述解码器输出的所述事件名。
3.根据权利要求2所述的事件名的生成方法,其中,所述解码器,用于循环执行多次解码过程,每一次解码过程用于解码得到所述事件名中的一个字符;
其中,所述解码器包括隐藏层和输出层;
所述隐藏层,用于根据所述拼接向量、隐状态指示向量,以及上一次解码过程中所述输出层的输出,生成本次解码过程的隐状态;所述隐状态指示向量,是根据上一次解码过程中所述隐藏层生成的隐状态生成的;
所述输出层,用于根据本次解码过程的隐状态,输出所述本次解码过程解码得到的字符。
4.根据权利要求3所述的事件名的生成方法,其中,
所述隐状态指示向量,包括上一次解码过程中所述隐藏层生成的隐状态,以及用于指示采用复制机制或者生成机制的指示向量;
其中,在所述上一次解码过程中输出的字符处于事件相关文本和/或所述结构化信息中,则采用所述复制机制,所述指示向量取值,表征所述上一次解码过程中输出的字符的词向量,以及处于所述事件相关文本和/或所述结构化信息中的位置和上下文中的一个或多个组合;
在所述上一次解码过程中输出的字符未处于事件相关文本和/或所述结构化信息中,则采用所述生成机制,所述指示向量取值为零。
5.一种事件名的生成装置,包括:
获取模块,用于获取目标事件的结构化信息;
提取模块,用于从所述目标事件的结构化信息中提取论元信息,并根据所述论元信息生成论元语义表示向量;
第一生成模块,用于根据所述论元语义表示向量生成所述目标事件的事件语义表示向量;
第二生成模块,用于获取所述目标事件的事件相关文本,并根据所述事件相关文本生成文本语义表示向量;以及
第三生成模块,用于根据所述事件语义表示向量和所述文本语义表示向量生成事件名;
其中,所述提取模块,还用于:
从所述结构化信息中提取至少一组所述论元信息;其中,各组所述论元信息中包含论元角色和论元值;
将属于同一组所述论元信息的所述论元角色和所述论元值输入第一双向长短期记忆网络LSTM模型以生成所述论元角色向量和论元值向量;
将所述论元角色向量和所述论元向量拼接以生成所述论元语义表示向量;
其中,所述论元信息为多组,每一组所述论元信息具有对应的所述论元语义表示向量,所述第一生成模块,还用于:
将各组所述论元信息所对应的论元语义表示向量输入至第二双向LSTM模型以生成所述事件语义表示向量;
其中,第二生成模块,用于:
对所述事件相关文本进行分词以生成多个词,并获取所述多个词的多个词编码向量;
将所述多个词编码向量输入至第三双向LSTM模型以生成所述文本语义表示向量。
6.根据权利要求5所述的事件名的生成装置,其中,所述第三生成模块,用于:
将所述事件语义表示向量和所述文本语义表示向量拼接,得到拼接向量;
将所述拼接向量输入解码器,以得到所述解码器输出的所述事件名。
7.根据权利要求6所述的事件名的生成装置,其中,所述解码器,用于循环执行多次解码过程,每一次解码过程用于解码得到所述事件名中的一个字符;
其中,所述解码器包括隐藏层和输出层;
所述隐藏层,用于根据所述拼接向量、隐状态指示向量,以及上一次解码过程中所述输出层的输出,生成本次解码过程的隐状态;所述隐状态指示向量,是根据上一次解码过程中所述隐藏层生成的隐状态生成的;
所述输出层,用于根据本次解码过程的隐状态,输出所述本次解码过程解码得到的字符。
8.根据权利要求7所述的事件名的生成装置,其中,所述隐状态指示向量,包括上一次解码过程中所述隐藏层生成的隐状态,以及用于指示采用复制机制或者生成机制的指示向量;
其中,在所述上一次解码过程中输出的字符处于事件相关文本和/或所述结构化信息中,则采用所述复制机制,所述指示向量取值,表征所述上一次解码过程中输出的字符的词向量,以及处于所述事件相关文本和/或所述结构化信息中的位置和上下文中的一个或多个组合;
在所述上一次解码过程中输出的字符未处于事件相关文本和/或所述结构化信息中,则采用所述生成机制,所述指示向量取值为零。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的事件名的生成方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的事件名的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011383857.8A CN112507697B (zh) | 2020-11-30 | 2020-11-30 | 事件名的生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011383857.8A CN112507697B (zh) | 2020-11-30 | 2020-11-30 | 事件名的生成方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112507697A CN112507697A (zh) | 2021-03-16 |
CN112507697B true CN112507697B (zh) | 2023-09-22 |
Family
ID=74969057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011383857.8A Active CN112507697B (zh) | 2020-11-30 | 2020-11-30 | 事件名的生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112507697B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113064983B (zh) * | 2021-04-23 | 2024-04-26 | 深圳壹账通智能科技有限公司 | 语义检测方法、装置、计算机设备及存储介质 |
CN113343687B (zh) * | 2021-05-25 | 2023-09-05 | 北京奇艺世纪科技有限公司 | 事件名称的确定方法、装置、设备及存储介质 |
CN114201622B (zh) * | 2021-12-13 | 2023-03-24 | 北京百度网讯科技有限公司 | 获取事件信息的方法、装置、电子设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582949A (zh) * | 2018-09-14 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 事件元素抽取方法、装置、计算设备及存储介质 |
CN111428504A (zh) * | 2020-03-17 | 2020-07-17 | 北京明略软件系统有限公司 | 一种事件抽取方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9280520B2 (en) * | 2012-08-02 | 2016-03-08 | American Express Travel Related Services Company, Inc. | Systems and methods for semantic information retrieval |
-
2020
- 2020-11-30 CN CN202011383857.8A patent/CN112507697B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582949A (zh) * | 2018-09-14 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 事件元素抽取方法、装置、计算设备及存储介质 |
CN111428504A (zh) * | 2020-03-17 | 2020-07-17 | 北京明略软件系统有限公司 | 一种事件抽取方法和装置 |
Non-Patent Citations (2)
Title |
---|
Real-Time Multimedia Social Event Detection in Microblog;Sicheng Zhao等;《 IEEE Transactions on Cybernetics》;全文 * |
基于结构化表示的中文事件同指消解方法;宦敏;程昊熠;李培峰;;中文信息学报(12);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112507697A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102448129B1 (ko) | 엔티티 연결 방법, 장치, 기기 및 저장 매체 | |
JP7223785B2 (ja) | 時系列ナレッジグラフ生成方法、装置、デバイス及び媒体 | |
CN112507697B (zh) | 事件名的生成方法、装置、设备及介质 | |
KR102466399B1 (ko) | 핵심 엔티티를 레이블링하는 방법, 장치 및 전자 기기 | |
KR102532396B1 (ko) | 데이터 세트 처리 방법, 장치, 전자 기기 및 저장 매체 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN111078865B (zh) | 文本标题生成方法和装置 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
CN111709248A (zh) | 文本生成模型的训练方法、装置及电子设备 | |
KR102431568B1 (ko) | 엔티티 단어 인식 방법 및 장치 | |
CN112148871B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN112528001B (zh) | 一种信息查询方法、装置及电子设备 | |
JP7397903B2 (ja) | インテリジェント対話方法、装置、電子機器及び記憶媒体 | |
CN111078825A (zh) | 结构化处理方法、装置、计算机设备及介质 | |
CN112507188B (zh) | 候选搜索词的生成方法、装置、设备及介质 | |
CN111984774B (zh) | 搜索方法、装置、设备以及存储介质 | |
CN111966781A (zh) | 数据查询的交互方法及装置、电子设备和存储介质 | |
CN114912450A (zh) | 信息生成方法与装置、训练方法、电子设备和存储介质 | |
CN111931524B (zh) | 用于输出信息的方法、装置、设备以及存储介质 | |
WO2022134824A1 (en) | Tuning query generation patterns | |
JP7146986B2 (ja) | 情報抽出方法、情報抽出装置及び電子機器 | |
CN110473551B (zh) | 一种语音识别方法、装置、电子设备及存储介质 | |
CN114676155A (zh) | 代码提示信息的确定方法、数据集的确定方法及电子设备 | |
CN113902005A (zh) | 语言模型的预训练方法、装置、设备和存储介质 | |
US10481865B2 (en) | Automated voice enablement of applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |