CN115081402A - 基于溯因推理的故事情节拓展方法、装置、设备及介质 - Google Patents
基于溯因推理的故事情节拓展方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115081402A CN115081402A CN202210820159.2A CN202210820159A CN115081402A CN 115081402 A CN115081402 A CN 115081402A CN 202210820159 A CN202210820159 A CN 202210820159A CN 115081402 A CN115081402 A CN 115081402A
- Authority
- CN
- China
- Prior art keywords
- story
- sentence
- sample
- text
- reasoning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000002441 reversible effect Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 40
- 230000015654 memory Effects 0.000 claims description 22
- 238000012795 verification Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 101150031993 SPL4 gene Proteins 0.000 description 5
- 101150096142 SPL5 gene Proteins 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000001364 causal effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/042—Backward inferencing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于溯因推理的故事情节拓展方法、装置、设备及介质,涉及计算机技术领域;方法包括:获取第一故事文本;从第一故事文本的第一故事尾句确定概念实体进行修改得到第二故事尾句;将第一故事文本以及第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节;将故事首句、多个第一故事情节以及第二故事尾句拼接,得到第二故事文本。通过修改第一故事尾句中的概念实体,对第一故事尾句进行改写并基于故事首句以及改写后的第二故事尾句进行中间故事情节的拓展,得到第二故事文本,因此,本发明实施例的故事情节拓展方法、设备及存储介质,能基于现有的故事文本进行故事拓展。
Description
技术领域
本发明实施例涉及但不限于计算机技术领域,尤其涉及一种基于溯因推理的故事情节拓展方法、装置、设备及介质。
背景技术
近年来随着预训练语言模型如Bert(Bidirectional Encoder Representationfrom Transformers),GPT(Generative Pre-Training)等兴起,大量研究开始聚焦在模型的可控约束上。引入外部常识,辅以形式意义的因果推断,可以显著增加生成模型的可解释性,进而达到控制输出文本的逻辑走向。这样的技术也相继应用于阅读理解,对话问答等领域,然而对于故事级别的叙述性文本,目前大多局限于小范围的故事补全,无法对故事文本进行拓展。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本发明实施例提供了一种基于溯因推理的故事情节拓展方法、装置、设备及介质,能基于现有的故事文本进行故事拓展。
第一方面,本发明实施例提供了一种基于溯因推理的故事情节拓展方法,包括:
获取第一故事文本;其中,所述第一故事文本包括故事首句以及第一故事尾句;
从所述第一故事尾句确定概念实体;
修改所述概念实体,得到第二故事尾句;
将所述第一故事文本以及所述第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节;
将所述故事首句、多个所述第一故事情节以及所述第二故事尾句拼接,得到第二故事文本。
根据本发明第一方面的一些实施例,所述溯因推理模型包括事件框架解析子模型、事件框架改写子模型和语言子模型;
所述将所述第一故事文本以及所述第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节,包括:
通过所述事件框架解析子模型对所述第一故事文本进行框架解析,得到多个第一故事情节框架;
以所述第二故事尾句为起始句,所述故事首句为终止句,通过所述事件框架改写子模型依次对多个所述第一故事情节框架进行框架改写,得到与多个所述第一故事情节框架一一对应的多个第二故事情节框架;
通过所述语言子模型对多个所述第二故事情节框架进行概念实体填充,得到多个所述第一故事情节。
根据本发明第一方面的一些实施例,所述以所述第二故事尾句为起始句,所述故事首句为终止句,通过预设的事件框架改写子模型依次对多个所述第一故事情节框架进行框架改写,得到一一对应的多个第二故事情节框架,包括:
以所述第二故事尾句为起始句,所述故事首句为终止句,将多个所述第一故事情节框架进行反向拼接,得到第一拼接数据;
将所述第一拼接数据输入到预设的事件框架改写子模型中,得到所述第一拼接数据对应的第二故事情节框架;
依次将所述事件框架改写子模型输出的所述第二故事情节框架更新至所述第一拼接数据中,并通过所述事件框架改写子模型对更新后的所述第一拼接数据重新进行框架改写处理,直至所述第二故事情节框架的数量与所述第一故事情节框架的数量一致。
根据本发明第一方面的一些实施例,所述事件框架解析子模型通过如下步骤训练得到:
获取训练故事集,所述训练故事集包括多个第一样本故事文本;每个所述第一样本故事文本均包括样本故事首句、第一样本故事尾句以及多个样本故事情节;
对每个所述第一样本故事文本中的样本故事首句、第一样本故事尾句以及多个样本故事情节分别进行概念实体标注,得到验证数据集,所述验证数据集包括与多个所述样本故事情节对应的多个样本概念实体以及多个第一样本事件框架;
将多个所述第一样本故事文本作为预设的第一模型的输入数据,将所述验证数据集作为所述第一模型的期望输出,对所述第一模型进行框架解析训练,得到训练好的所述事件框架解析子模型。
根据本发明第一方面的一些实施例,所述事件框架改写子模型通过如下步骤训练得到:
获取所述第一样本故事文本对应的至少一个第二样本故事文本;所述第二样本故事文本为基于所述第一样本故事的样本故事首句与第一样本故事尾句进行拓展的拓展故事文本;
从所述第二样本故事文本中确定第二样本故事尾句以及与多个所述第一样本事件框架一一对应的多个第二样本事件框架;
将所述样本故事首句、所述样本故事首句对应的所述第二样本故事尾句以及多个所述第一样本事件框架作为预设的第二模型的输入数据,将所述样本故事首句对应的所述第二样本故事文本的多个所述第二样本事件框架分别作为所述第二模型进行一次迭代改写训练的多个期望输出,对所述第二模型进行多次迭代改写训练,得到训练好的事件框架改写子模型。
根据本发明第一方面的一些实施例,所述语言子模型通过如下步骤训练得到:
将所述样本故事首句、所述样本故事首句对应的所述第二样本故事尾句以及多个所述第二样本事件框架拼接,得到第二拼接数据;
将所述第二拼接数据作为预设的第三模型的输入数据,所述第二样本故事作为所述第三模型的期望输出,对所述第三模型进行概念实体填充训练,得到训练好的所述语言子模型。
根据本发明第一方面的一些实施例,所述获取第一故事文本,包括:
接收来自用户输入的所述故事首句和所述第一故事尾句;
将所述故事首句和所述第一故事尾句输入所述溯因推理模型进行正向推理,得到多个第二故事情节;
将所述故事首句、所述第一故事尾句以及多个第二故事情节拼接,得到所述第一故事文本。
第二方面,本发明实施例提供一种故事情节拓展的装置;所述故事情节拓展的装置包括:
获取模块,用于获取第一故事文本;其中,所述第一故事文本包括故事首句以及第一故事尾句;
确定模块,用于从所述第一故事尾句确定概念实体;
改写模块,用于修改所述概念实体,得到第二故事尾句;
反向推理模块,用于将所述第一故事文本以及所述第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节;
拼接模块,用于将所述故事首句、多个所述第一故事情节以及所述第二故事尾句拼接,得到第二故事文本。
第三方面,本发明实施例还提供了一种电子设备,包括:与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如第一方面任一所述的基于溯因推理的故事情节拓展方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行第一方面任意一项所述的基于溯因推理的故事情节拓展方法。
本发明上述实施例至少具有如下有益效果:通过修改第一故事尾句中的概念实体,对第一故事尾句进行改写,进而可以基于第一故事文本、故事首句以及改写后的第二故事尾句对第一故事文本的中间故事情节进行拓展,得到第二故事文本,且采用反向推理的方式进行中间故事情节的拓展,使得第二故事文本各叙述性语句之间具有逻辑性的同时其拓展性更强,因此,本发明实施例的基于溯因推理的故事情节拓展方法、设备及存储介质,能基于现有的故事文本进行故事拓展。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
附图说明
附图用来提供对本发明技术方案的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明的技术方案,并不构成对本发明技术方案的限制。
图1是本发明实施例的基于溯因推理的故事情节拓展方法的流程示意图;
图2是本发明实施例的第二故事文本的改写示例图;
图3是本发明实施例的溯因推理模型的组成示意图;
图4是本发明实施例的事件框架改写子模型的模型示意图;
图5是本发明实施例的基于溯因推理的故事情节拓展方法的第一故事文本的获取流程示意图;
图6是本发明实施例的基于溯因推理的故事情节拓展方法对应的故事情节拓展的装置的模块示意图;
图7是本发明实施例的基于溯因推理的故事情节拓展方法对应的电子设备的硬件示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
下面是对本发明中用到的一些术语的解释。
GPT,GPT是“Generative Pre-Training”的简称,它基于Transformer架构,GPT模型先在大规模语料上进行无监督预训练、再在小得多的有监督数据集上为具体任务进行精细调节(fine-tune)的方式。先训练一个通用模型,然后再在各个任务上调节,这种不依赖针对单独任务的模型设计技巧能够一次性在多个任务中取得很好的表现。
BERT,BERT的全称为Bidirectional Encoder Representation fromTransformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的maskedlanguage model(MLM),以致能生成深度的双向语言表征。BERT利用MLM进行预训练并且采用深层的双向Transformer组件(单向的Transformer一般被称为Transformer decoder,其每一个token(符号)只会attend到目前往左的token。而双向的Transformer则被称为Transformer encoder,其每一个token会attend到所有的token。)来构建整个模型,因此最终生成能融合左右上下文信息的深层双向语言表征。
LSTM,长短期记忆(Long short-term memory,LSTM)是一种特殊的循环神经网络,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的循环神经网络(Recurrent Neural Network,RNN),LSTM能够在更长的序列中有更好的表现。
GRU,全称是Gate Recurrent Unit(门循环单元),它是循环神经网络(RecurrentNeural Network,RNN)的一种。和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。
近年来随着预训练语言模型如Bert(Bidirectional Encoder Representationfrom Transformers),GPT(Generative Pre-Training)等兴起,大量研究开始聚焦在模型的可控约束上。引入外部常识,辅以形式意义的因果推断,可以显著增加生成模型的可解释性,进而达到控制输出文本的逻辑走向。这样的技术也相继应用于阅读理解,对话问答等领域,然而对于故事级别的叙述性文本,目前大多局限于小范围的故事补全,无法对故事文本进行拓展。基于此,本发明实施例提出了一种基于溯因推理的故事情节拓展方法、装置、设备及介质,能基于现有的故事文本进行故事拓展。
参照图1所示,本发明实施例提出一种基于溯因推理的故事情节拓展方法,包括:
步骤S100、获取第一故事文本;其中,第一故事文本包括故事首句以及第一故事尾句。
步骤S200、从第一故事尾句确定概念实体。
需说明的是,第一故事文本中各个叙述性的文本如第一故事尾句、故事首句均可被拆分为概念实体(concept)以及事件框架(event)。概念实体用于表征叙述性文本中动作执行的目的,一个叙述性文本中至少有一个概念实体。示例性的,如叙述性语句为:All hisfriends were dressing up for this Halloween party。则Halloween party就可以视作推理相关的concept,那么去掉concept后,剩下的All his friends were dressing upfor this__;就被视作事件框架。将叙述性语句均分为概念实体以及事件框架进行分析和推理,能增强故事文本推理的合理性。
在一些实施例中,应用故事情节拓展方法的装置会识别出第一故事尾句中的概念实体,然后在显示界面中显示出来,以提醒使用该装置的用户根据该提示进行改写。
步骤S300、修改概念实体,得到第二故事尾句。
需说明的是,步骤S300可以由用户进行手动修改,也可以基于一定的词语库对第二故事尾句进行一次或多次修改,对此,本发明实施例不做限制。可以根据实际的需要进行调整,优选的,本发明实施例对应的装置优选用户手动修改的方式。
步骤S400、将第一故事文本以及第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节。
需说明的是,反向推理是从第二故事尾句进行合理的逻辑推理进行推测得到故事首句。采用反向推理的方式可以提供多一种推理路径,进而使得拓展得到的第一故事情节拓展性更强。
需说明的是,溯因推理模型表示基于故事首句、第二故事尾句进行中间情节的推理。其中,溯因推理模型的推理先基于第一故事文本学习到正向推理能力,然后从概念实体以及事件框架两个粒度对第一故事文本进行拓展得到的第一故事情节。拓展时,通过改写第一故事文本的结局(即第二故事尾句)并从后往前进行故事情节的反向推理,进行故事反转,使得故事更具拓展性。
示例性的,参照图2所示的实施例,第一故事文本包括首句S1、第二故事情节S2~S4,以及第一故事尾句S5;将S5改写后得到S5';此时溯因推理模型从S5'开始反向推理,得到和S2~S4一一对应的S2'~S4'。
步骤S500、将故事首句、多个第一故事情节以及第二故事尾句拼接,得到第二故事文本。
需说明的是,故事首句为第二故事文本的第一句,多个第一故事情节按照逻辑顺序依次排列在故事首句之后,第二故事尾句为第二故事文本的最后一句,此时,组合得到的第二故事文本为一个对应第一故事文本的拓展文本。
因此,通过修改第一故事尾句中的概念实体,对第一故事尾句进行改写,进而可以基于第一故事文本、故事首句以及改写后的第二故事尾句对第一故事文本的中间故事情节进行拓展,得到第二故事文本,且采用反向推理的方式进行中间故事情节的拓展,使得第二故事文本各叙述性语句之间具有逻辑性的同时其拓展性更强,因此,本发明实施例的基于溯因推理的故事情节拓展方法、设备及存储介质,能基于现有的故事文本进行故事拓展。
需说明的是,在一些实施例中,基于溯因推理的故事情节拓展方法可用于辅助用户进行故事拓展,当用户进行故事构思无思路时,通过简单的修改故事结尾推理出新的故事文本,进而可以将新的故事文本作为故事大纲,以提供故事构思的思路,因此,通过该故事情节拓展方法能提升用户创作的积极性并降低用户创作的难度。在一些实施例中,该基于溯因推理的故事情节拓展方法可以用于侦察等逻辑分析。对此,本发明实施例不做过多详述,本领域技术人员可以基于实际的情况选择性应用。
可理解的是,溯因推理模型包括事件框架解析子模型、事件框架改写子模型和语言子模型;步骤S400、将第一故事文本以及第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节,包括:通过事件框架解析子模型对第一故事文本进行框架解析,得到多个第一故事情节框架;以第二故事尾句为起始句,故事首句为终止句,通过事件框架改写子模型依次对多个第一故事情节框架进行框架改写,得到与多个第一故事情节框架一一对应的多个第二故事情节框架;通过语言子模型对多个第二故事情节框架进行概念实体填充,得到多个第一故事情节。
需说明的是,在一些实施例中,事件框架解析子模型可以为BERT,实现对第一故事文本中概念实体的抽取,进而得到第一故事文本中第二故事情节对应的第一故事情节框架,如第二故事情节为S2~S4,则对应的第一故事情节框架为S2event~S4event。
需说明的是,事件框架改写子模型具有encoder-decoder的双层网络架构,通过双层网络架构学习S1~S5对应的事件框架之间的逻辑特征并进行改写,增量生成对应的S2'event~S4'event,实现对第一故事情节框架的一一改写。在一些实施例中,事件框架改写子模型可以为GRU或者LSTM。第一故事情节框架为第二故事情节框架改写的依据。
需说明的是,语言子模型是对S2'event~S4'event的概念实体填充,通过在预设的词汇集中选取若干词语分别作为S2'event~S4'event的概念实体进行填充,使其具备逻辑性,进而得到第一故事情节。需说明的是,故事首句以及第二故事尾句是用于语言子模型在概念实体填充时逻辑合理性判断的依据。
需说明的是,由于是对事件框架进行改写,然后再对改写的事件框架进行概念实体的填充,此时,拓展得到的第二故事文本,无论是概念实体或者是事件框架均会有一定的修改,因此这种方式的故事拓展性更强。
示例性的,参照图3所示的实施例,以第一故事文本由S1~S5一共5个叙述性语句组成为例,事件框架解析子模型会解析出S2~S4对应的第一故事情节框架S2event~S4event;事件框架改写子模型是对S2event~S4event进行一一增量改写,得到S2'event~S4'event。以S2'event为例,其与S2event一一对应,为基于S3'对应的事件框架对S2event改写得到。然后通过语言子模型对S2'event~S4'event中的概念实体进行填充,使其具备逻辑性,进而得到对应的第一故事情节。
可理解的是,以第二故事尾句为起始句,故事首句为终止句,通过预设的事件框架改写子模型依次对多个第一故事情节框架进行框架改写,得到一一对应的多个第二故事情节框架,包括:以第二故事尾句为起始句,故事首句为终止句,将多个第一故事情节框架进行反向拼接,得到第一拼接数据;将第一拼接数据输入到预设的事件框架改写子模型中,得到第一拼接数据对应的第二故事情节框架;依次将事件框架改写子模型输出的第二故事情节框架更新至第一拼接数据中,并通过事件框架改写子模型对更新后的第一拼接数据重新进行框架改写处理,直至第二故事情节框架的数量与第一故事情节框架的数量一致。
需说明的是,事件框架改写子模型是通过增量的方式逐一推理出第二故事情节框架。通过增量的方式可以进一步增强推理过程的逻辑可控性,使得第二故事情节框架更具有逻辑性,与第一故事文本相关性更强。
示例性的,以第一故事文本包括S2~S4一共3个第二故事情节为例,参照图4所示的示意图,事件框架改写子模型可示意成3层结构相同的模型框架,每层模型框架均用于输出一个第二故事情节框架,将故事首句、S2event~S4event以及第二故事尾句输入后,第一层模型框架输出一个第二故事情节框架S2'event,第二层模型框架基于第一层模型结构的输出、故事首句、S2event~S4event以及第二故事尾句输出一个第二故事情节框架S3'event,以此类推,直至输出和S4对应的S4'event。需说明的是,事件框架改写子模型的具体构成可以根据实际需要进行设置,如也可以认为是事件框架改写子模型仅有一层模型框架,通过输出判断是否进行输入数据改写以重新进行增量改写,直至输出预设数量的第二故事情节框架。
可理解的是,事件框架解析子模型通过如下步骤训练得到:
获取训练故事集,训练故事集包括多个第一样本故事文本;每个第一样本故事文本均包括样本故事首句、第一样本故事尾句以及多个样本故事情节;
对每个第一样本故事文本中的样本故事首句、第一样本故事尾句以及多个样本故事情节分别进行概念实体标注,得到验证数据集,验证数据集包括与多个样本故事情节对应的多个样本概念实体以及多个第一样本事件框架;
将多个第一样本故事文本作为预设的第一模型的输入数据,将验证数据集作为第一模型的期望输出,对第一模型进行框架解析训练,得到训练好的事件框架解析子模型。
在一些实施例中,采用BERT在ART dataset上做预训练,通过预设的抽取算法,如NLTK(Natural Language Toolkit,自然语言工具包)里面的RAKE;将样本故事情节中涉及到的concept均抽取出来,并进行标注,以All his friends were dressing up for thisHalloween party为例,Halloween party为concept,则该句对应的标签信息为0 0 0 0 00 0 0 1 1。此时,可以基于该标签信息进行训练,预测被掩盖掉concept中事件框架对应的concept。当第一模型能够预测出准确的concept,或者其准确率在预设的门限值内,则表示第一模型已经训练好了。此时,可以通过训练好的事件框架解析子模型得到对应的事件框架。
可理解的是,事件框架改写子模型通过如下步骤训练得到:
获取第一样本故事文本对应的至少一个第二样本故事文本;第二样本故事文本为基于第一样本故事的样本故事首句与第一样本故事尾句进行拓展的拓展故事文本;
从第二样本故事文本中确定第二样本故事尾句以及与多个第一样本事件框架一一对应的多个第二样本事件框架;
将样本故事首句、样本故事首句对应的第二样本故事尾句以及多个第一样本事件框架作为预设的第二模型的输入数据,将样本故事首句对应的第二样本故事文本的多个第二样本事件框架分别作为第二模型进行一次迭代改写训练的多个期望输出,对第二模型进行多次迭代改写训练,得到训练好的事件框架改写子模型。
需说明的是,第二故事文本可以通过TimeTravel数据集对第一样本故事文本中的第一样本故事尾句以及多个样本故事情节进行改写得到。
需说明的是,对于第二模型而言,一次迭代改写训练的多个期望输出为增量输出,即每一次期望输出均是基于前面已输出的数据进行改写得到的;即基于第一样本事件框架的前后逻辑关系以及第二样本事件框架之间的前后逻辑关系一一进行事件框架改写。
在一些实施例中,本发明实施例优选基于Bi-GRU或Bi-LSTM作为事件框架改写子模型。
需说明的是,以第二故事尾句为SPL5,第一故事尾句的前一样本故事情节为SPL4为例,由于第二样本故事尾句SPL5进行了概念实体的改写,在训练时,首次改写时,可以基于第二样本故事尾句SPL5的事件框架与其前一第一样本事件框架SPL4event之间的逻辑关系,与SPL5的事件框架与第二模型待输出的SPL4'event的逻辑关系具有相似性对SPL4event进行改写;并基于SPL4'event、SPL5对第一故事样本中样本故事情节的第一样本事件框架进行逐一增量改写。通过这种增量输出的方式可以对第二模型的每一次的输出进行网络架构的调整,使得第二模型推理出来的样本事件框架之间的逻辑性更强且与第一样本故事文本之间的关联更紧密。此时,通过对样本数据进行多次迭代训练,可以得到训练好的事件框架改写子模型。此时,通过事件框架改写子模型能实现对第一故事文本的改写。
可理解的是,语言子模型通过如下步骤训练得到:
将样本故事首句、样本故事首句对应的第二样本故事尾句以及多个第二样本事件框架拼接,得到第二拼接数据;
将第二拼接数据作为预设的第三模型的输入数据,第二样本故事作为第三模型的期望输出,对第三模型进行概念实体填充训练,得到训练好的语言子模型。
在一些实施例中,语言子模型优选GPT模型。将属于同一故事样本的第二样本事件框架均作为输入数据进行概念实体填充的训练,可以实现对单一的第二样本框架概念实体填充训练以及多个第二样本时间框架之间的概念实体逻辑性的训练,进而语言子模型的输出语句之前逻辑性更强。
可理解的是,参照图5所示,步骤S100、获取第一故事文本,包括:
步骤S110、接收来自用户输入的故事首句和第一故事尾句。
步骤S120、将故事首句和第一故事尾句输入溯因推理模型进行正向推理,得到多个第二故事情节。
步骤S130、将故事首句、第一故事尾句以及多个第二故事情节拼接,得到第一故事文本。
需说明的是,通过提供正向推理的方式,使得用户仅需提供故事首句以及第一故事尾句即可得到第一故事文本以及第二故事文本,可以提升故事拓展的便利性。在实际进行故事模型构思时,可以通过上述方式提供多个正向的第一故事文本以及多个逆向分析的第二故事文本,进而可以给用户提供更多的写作思路,辅助用户进行故事的撰写以及提升用户故事撰写的效率。
需说明的是,通过正向推理得到第一故事文本,反向推理得到第二故事文本,此时可以基于故事首句以及第一故事尾句,从两个推理方向进行故事拓展,故事拓展更为全面,使得第一故事文本和第二故事文本之间的差异更大,进而可以提供更好的写作思路。因此,能基于现有的故事文本的部分内容进行故事情节的多向拓展。
需说明的是,故事首句和第一故事尾句之间的第二故事情节的数量,可以由用户指定,也可以由系统自行设定,对此,本发明实施例不做限制。优选的,本发明实施例,将第二故事情节的数量设定为3。
本发明的方法可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
可理解的是,参照图6所示,第二方面,本发明实施例还提供一种故事情节拓展的装置;故事情节拓展的装置包括:
获取模块100,用于获取第一故事文本;其中,第一故事文本包括故事首句以及第一故事尾句;
确定模块200,用于从第一故事尾句确定概念实体;
改写模块300,用于修改概念实体,得到第二故事尾句;
反向推理模块400,用于将第一故事文本以及第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节;
拼接模块500,用于将故事首句、多个第一故事情节以及第二故事尾句拼接,得到第二故事文本。
需说明的是,在一些实施例中,故事情节拓展的装置还包括交互模块600,交互模块600用于接收用户的指令对第一故事尾句进行修改,同时将第二故事文本进行显示。需说明的是,使用者可以一次输入多个用于第一故事尾句修改的概念实体,进而可以得到每一修改的概念实体对应的多个第一故事情节。
需说明的是,在一些实施例中,故事情节拓展的装置还包括训练模块,训练模块用于训练得到溯因推理模型。在另一些实施例中,故事情节拓展的装置还包括词汇模块,词汇模块用于汇总用于改写的故事情节的词汇,使用者可以根据习惯将常用的词汇进行收集并存储至词汇模块,以用于对第一故事文本的拓展。
需说明的是,故事情节拓展的装置应用第一方面的基于溯因推理的故事情节拓展方法,因此具有第一方面基于溯因推理的故事情节拓展方法中任一所述的技术效果。
本领域技术人员可以理解的是,图6所示的装置并不构成对本发明实施例的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
第三方面,本发明实施例还提供了一种电子设备,包括:
至少一个处理器,以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如本发明实施例上述实施例的基于溯因推理的故事情节拓展方法。
需说明的是,电子设备应用第一方面的基于溯因推理的故事情节拓展方法,因此具有第一方面基于溯因推理的故事情节拓展方法中任一所述的技术效果。
下面结合图7对计算机设备的硬件结构进行详细说明。该电子设备包括:处理器710、存储器720、输入/输出接口730、通信接口740和总线750。
处理器710,可以采用通用的CPU(Central Processin Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本公开实施例所提供的技术方案;
存储器720,可以采用ROM(Read Only Memory,只读存储器)、静态存储设备、动态存储设备或者RAM(Random Access Memory,随机存取存储器)等形式实现。存储器720可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器720中,并由处理器710来调用执行本公开实施例的模型的训练方法;
输入/输出接口730,用于实现信息输入及输出;
通信接口740,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;和总线750,在设备的各个组件(例如处理器710、存储器720、输入/输出接口730和通信接口740)之间传输信息;
其中,处理器710、存储器720、输入/输出接口730和通信接口740通过总线750实现彼此之间在设备内部的通信连接。
在一些实施例中,处理器710执行第一方面的基于溯因推理的故事情节拓展方法的步骤S100~步骤S500;在另一些实施例中,处理器710执行第一方面的基于溯因推理的故事情节拓展方法的步骤S100~步骤S500及其子步骤;在另一些实施例中,处理器710执行第一方面的基于溯因推理的故事情节拓展方法的步骤S100~步骤S500、其子步骤以及溯因推理的训练步骤。
第四方面,本发明实施例还提供一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行本公开实施例的模型的训练方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
本发明实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本发明的说明书中术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变形或替换,这些等同的变形或替换均包含在本发明权利要求所限定的范围内。
Claims (10)
1.一种基于溯因推理的故事情节拓展方法,其特征在于,包括:
获取第一故事文本;其中,所述第一故事文本包括故事首句以及第一故事尾句;
从所述第一故事尾句确定概念实体;
修改所述概念实体,得到第二故事尾句;
将所述第一故事文本以及所述第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节;
将所述故事首句、多个所述第一故事情节以及所述第二故事尾句拼接,得到第二故事文本。
2.根据权利要求1所述的基于溯因推理的故事情节拓展方法,其特征在于,所述溯因推理模型包括事件框架解析子模型、事件框架改写子模型和语言子模型;
所述将所述第一故事文本以及所述第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节,包括:
通过所述事件框架解析子模型对所述第一故事文本进行框架解析,得到多个第一故事情节框架;
以所述第二故事尾句为起始句,所述故事首句为终止句,通过所述事件框架改写子模型依次对多个所述第一故事情节框架进行框架改写,得到与多个所述第一故事情节框架一一对应的多个第二故事情节框架;
通过所述语言子模型对多个所述第二故事情节框架进行概念实体填充,得到多个所述第一故事情节。
3.根据权利要求2所述的基于溯因推理的故事情节拓展方法,其特征在于,所述以所述第二故事尾句为起始句,所述故事首句为终止句,通过预设的事件框架改写子模型依次对多个所述第一故事情节框架进行框架改写,得到一一对应的多个第二故事情节框架,包括:
以所述第二故事尾句为起始句,所述故事首句为终止句,将多个所述第一故事情节框架进行反向拼接,得到第一拼接数据;
将所述第一拼接数据输入到预设的事件框架改写子模型中,得到所述第一拼接数据对应的第二故事情节框架;
依次将所述事件框架改写子模型输出的所述第二故事情节框架更新至所述第一拼接数据中,并通过所述事件框架改写子模型对更新后的所述第一拼接数据重新进行框架改写处理,直至所述第二故事情节框架的数量与所述第一故事情节框架的数量一致。
4.根据权利要求2所述的基于溯因推理的故事情节拓展方法,其特征在于,所述事件框架解析子模型通过如下步骤训练得到:
获取训练故事集,所述训练故事集包括多个第一样本故事文本;每个所述第一样本故事文本均包括样本故事首句、第一样本故事尾句以及多个样本故事情节;
对每个所述第一样本故事文本中的样本故事首句、第一样本故事尾句以及多个样本故事情节分别进行概念实体标注,得到验证数据集,所述验证数据集包括与多个所述样本故事情节对应的多个样本概念实体以及多个第一样本事件框架;
将多个所述第一样本故事文本作为预设的第一模型的输入数据,将所述验证数据集作为所述第一模型的期望输出,对所述第一模型进行框架解析训练,得到训练好的所述事件框架解析子模型。
5.根据权利要求4所述的基于溯因推理的故事情节拓展方法,其特征在于,所述事件框架改写子模型通过如下步骤训练得到:
获取所述第一样本故事文本对应的至少一个第二样本故事文本;所述第二样本故事文本为基于所述第一样本故事的样本故事首句与第一样本故事尾句进行拓展的拓展故事文本;
从所述第二样本故事文本中确定第二样本故事尾句以及与多个所述第一样本事件框架一一对应的多个第二样本事件框架;
将所述样本故事首句、所述样本故事首句对应的所述第二样本故事尾句以及多个所述第一样本事件框架作为预设的第二模型的输入数据,将所述样本故事首句对应的所述第二样本故事文本的多个所述第二样本事件框架分别作为所述第二模型进行一次迭代改写训练的多个期望输出,对所述第二模型进行多次迭代改写训练,得到训练好的事件框架改写子模型。
6.根据权利要求5所述的基于溯因推理的故事情节拓展方法,其特征在于,所述语言子模型通过如下步骤训练得到:
将所述样本故事首句、所述样本故事首句对应的所述第二样本故事尾句以及多个所述第二样本事件框架拼接,得到第二拼接数据;
将所述第二拼接数据作为预设的第三模型的输入数据,所述第二样本故事作为所述第三模型的期望输出,对所述第三模型进行概念实体填充训练,得到训练好的所述语言子模型。
7.根据权利要求1所述的基于溯因推理的故事情节拓展方法,其特征在于,所述获取第一故事文本,包括:
接收来自用户输入的所述故事首句和所述第一故事尾句;
将所述故事首句和所述第一故事尾句输入所述溯因推理模型进行正向推理,得到多个第二故事情节;
将所述故事首句、所述第一故事尾句以及多个第二故事情节拼接,得到所述第一故事文本。
8.一种故事情节拓展的装置,其特征在于,包括:
获取模块,用于获取第一故事文本;其中,所述第一故事文本包括故事首句以及第一故事尾句;
确定模块,用于从所述第一故事尾句确定概念实体;
改写模块,用于修改所述概念实体,得到第二故事尾句;
反向推理模块,用于将所述第一故事文本以及所述第二故事尾句输入到预设的溯因推理模型进行反向推理,得到多个第一故事情节;
拼接模块,用于将所述故事首句、多个所述第一故事情节以及所述第二故事尾句拼接,得到第二故事文本。
9.一种电子设备,其特征在于,包括:至少一个处理器,以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如权利要求1至7中任意一项所述的基于溯因推理的故事情节拓展方法。
10.一种计算机可读存储介质,其特征在于,存储有计算机可执行指令,所述计算机可执行指令用于执行至少如权利要求1至7中任意一项所述的基于溯因推理的故事情节拓展方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210820159.2A CN115081402B (zh) | 2022-07-13 | 2022-07-13 | 基于溯因推理的故事情节拓展方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210820159.2A CN115081402B (zh) | 2022-07-13 | 2022-07-13 | 基于溯因推理的故事情节拓展方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115081402A true CN115081402A (zh) | 2022-09-20 |
CN115081402B CN115081402B (zh) | 2023-05-09 |
Family
ID=83259908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210820159.2A Active CN115081402B (zh) | 2022-07-13 | 2022-07-13 | 基于溯因推理的故事情节拓展方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115081402B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6638171B1 (en) * | 1999-09-30 | 2003-10-28 | Konami Corporation | Story generating game system using partial programs with different endings |
CN110941960A (zh) * | 2019-11-12 | 2020-03-31 | 广州爱学信息科技有限公司 | 一种基于关键词的儿童绘本故事生成方法、系统及设备 |
CN111414736A (zh) * | 2020-03-23 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 故事生成模型训练方法、装置、设备及存储介质 |
CN111414737A (zh) * | 2020-03-23 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 故事生成模型训练方法、装置、设备及存储介质 |
CN112395842A (zh) * | 2020-12-01 | 2021-02-23 | 中山大学 | 一种提高内容一致性的长文本故事生成方法及系统 |
US20210056407A1 (en) * | 2019-08-22 | 2021-02-25 | International Business Machines Corporation | Adapting movie storylines |
CN114091414A (zh) * | 2021-11-19 | 2022-02-25 | 北京有竹居网络技术有限公司 | 用于改写叙事性文本的方法、设备、装置和介质 |
CN114266354A (zh) * | 2021-12-24 | 2022-04-01 | 中山大学 | 一种基于常识知识库的短文本故事生成方法及系统 |
-
2022
- 2022-07-13 CN CN202210820159.2A patent/CN115081402B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6638171B1 (en) * | 1999-09-30 | 2003-10-28 | Konami Corporation | Story generating game system using partial programs with different endings |
US20210056407A1 (en) * | 2019-08-22 | 2021-02-25 | International Business Machines Corporation | Adapting movie storylines |
CN110941960A (zh) * | 2019-11-12 | 2020-03-31 | 广州爱学信息科技有限公司 | 一种基于关键词的儿童绘本故事生成方法、系统及设备 |
CN111414736A (zh) * | 2020-03-23 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 故事生成模型训练方法、装置、设备及存储介质 |
CN111414737A (zh) * | 2020-03-23 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 故事生成模型训练方法、装置、设备及存储介质 |
CN112395842A (zh) * | 2020-12-01 | 2021-02-23 | 中山大学 | 一种提高内容一致性的长文本故事生成方法及系统 |
CN114091414A (zh) * | 2021-11-19 | 2022-02-25 | 北京有竹居网络技术有限公司 | 用于改写叙事性文本的方法、设备、装置和介质 |
CN114266354A (zh) * | 2021-12-24 | 2022-04-01 | 中山大学 | 一种基于常识知识库的短文本故事生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115081402B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brownlee | Long short-term memory networks with python: develop sequence prediction models with deep learning | |
CN109214006B (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN112364660B (zh) | 语料文本处理方法、装置、计算机设备及存储介质 | |
CN109344404A (zh) | 情境感知的双重注意力自然语言推理方法 | |
US11194968B2 (en) | Automatized text analysis | |
CN112214608A (zh) | 基于知识推理的文本生成方法、介质、装置和计算设备 | |
CN110826345B (zh) | 一种机器翻译方法和装置 | |
CN114358201A (zh) | 基于文本的情感分类方法和装置、计算机设备、存储介质 | |
CN112185361B (zh) | 一种语音识别模型训练方法、装置、电子设备及存储介质 | |
US11481609B2 (en) | Computationally efficient expressive output layers for neural networks | |
CN116245097A (zh) | 训练实体识别模型的方法、实体识别方法及对应装置 | |
CN114492661B (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
CN111291221B (zh) | 对数据源生成语义描述的方法、设备和电子设备 | |
CN111563380A (zh) | 一种命名实体识别方法及其装置 | |
CN116050425A (zh) | 建立预训练语言模型的方法、文本预测方法及装置 | |
US20230111052A1 (en) | Self-learning annotations to generate rules to be utilized by rule-based system | |
CN112883713A (zh) | 基于卷积神经网络的评价对象抽取方法及装置 | |
WO2023169301A1 (zh) | 一种文本处理方法、装置及电子设备 | |
CN115081402A (zh) | 基于溯因推理的故事情节拓展方法、装置、设备及介质 | |
KR102629063B1 (ko) | 제약 조건을 이용하는 질의 응답 시스템 및 정보 제공 방법 | |
CN114519353A (zh) | 模型的训练方法、情感消息生成方法和装置、设备、介质 | |
CN114936564A (zh) | 一种基于对齐变分自编码的多语言语义匹配方法及系统 | |
CN110442706B (zh) | 一种文本摘要生成的方法、系统、设备及存储介质 | |
CN114372467A (zh) | 命名实体抽取方法及装置、电子设备、存储介质 | |
Julian | Deep learning with pytorch quick start guide: learn to train and deploy neural network models in Python |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |