CN113762474A - 自适应主题的故事结尾生成方法、存储介质 - Google Patents

自适应主题的故事结尾生成方法、存储介质 Download PDF

Info

Publication number
CN113762474A
CN113762474A CN202110991119.XA CN202110991119A CN113762474A CN 113762474 A CN113762474 A CN 113762474A CN 202110991119 A CN202110991119 A CN 202110991119A CN 113762474 A CN113762474 A CN 113762474A
Authority
CN
China
Prior art keywords
theme
story
parameters
adaptive
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110991119.XA
Other languages
English (en)
Inventor
苏劲松
康立言
曾嘉莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202110991119.XA priority Critical patent/CN113762474A/zh
Publication of CN113762474A publication Critical patent/CN113762474A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供自适应主题的故事结尾生成方法、存储介质,方法包括以下步骤:初始化故事结尾生成模型;随机采样一主题特定主题的数据,并将数据划分成训练集和测试集;通过参数生成器生成所述一主题特定主题对应的主题特征参数;通过主题适配器将所述主题特征参数与从故事结尾生成模型中提取出的主题共享参数结合,生成对应所述一主题特定主题的故事结尾生成模型参数;生成每个主题特定主题的故事结尾生成模型参数。本发明通过生成主题相关的统一模型偏移参数,作用于统一模型中的主题共享参数部分,使的统一模型在保留主题共享知识的同时,也能融入元学习框架生成的主题特定指导,加快统一模型对目标主题的适应,最终实现对低资源主题的自适应故事结尾生成。

Description

自适应主题的故事结尾生成方法、存储介质
技术领域
本发明涉及任务导向性故事结尾生成领域,特别涉及自适应主题的故事结尾生成方法、存储介质。
背景技术
在任务导向型的故事生成任务中,故事结尾生成是其中的一项热门任务。其目的在于给出一个故事文本,为其完成一个结尾。如何为故事前文产生连贯且合乎逻辑的结尾是研究的关键。对于该任务,现有的标注完好的数据集十分有限且代价昂贵,因此如何利用高资源主题故事的丰富数据来增强系统在低资源主题上的表现,联动不同主题的故事,是学术界和工业界都十分关注的研究问题。
相关技术中,先前研究尝试引入外部知识,来指导系统编码文本,发现文本表面下的隐藏信息。后来,更细粒度的情感标签被加入来丰富系统知识。尽管这些做法都尝试通过引入额外的知识来增强系统能力,但都忽视了模型在低资源主题上的表现。元学习框架的引入,正是为了让高资源主题的知识能够对模型在低资源主题上的表现起到促进作用。在元训练阶段通过元学习器来寻找主题共享的初始化参数,可以使得模型在测试阶段对目标主题能够有效适应。但元学习框架和故事结尾生成系统相结合时,在训练阶段学习到的主题共享参数的质量和用于训练的源主题数据分布性密切相关,甚至会受其限制。同时在测试阶段元学习框架只能有效地适应到相似主题上,对于不相似的目标主题模型的表现依然很难提升。
可见,如何使得统一模型在多主题特别是低资源主题有很好的适应性,仍是一个值得研究的问题。
发明内容
本发明旨在至少在一定程度上解决上述技术中的技术问题之一。为此,本发明的一个目的在于提出自适应主题的故事结尾生成方法,通过生成特定主题的模型参数来指导模型对特定主题,特别是低资源主题的适应过程。
本发明的第二个目的在于提出计算机可读存储介质,能够实现上述自适应主题的故事结尾生成方法。
为达到上述目的,本发明第一方面实施例提出了一种自适应主题的故事结尾生成方法,包括以下步骤:
S1:初始化故事结尾生成模型;
S2:随机采样一特定主题的数据,并将数据划分成训练集和测试集;
S3:通过参数生成器生成所述一特定主题对应的主题特征参数;
S4:通过主题适配器将所述主题特征参数与从故事结尾生成模型中提取出的主题共享参数结合,然后在所述训练集上进行训练,生成对应所述一特定主题的故事结尾生成模型参数;
S5:重复执行上述S2至S4,生成每个特定主题的故事结尾生成模型参数;
S6:在每个主题的训练集上更新对应的故事结尾生成模型参数,在每个主题的测试集上更新对应的故事结尾生成模型参数和主题特征参数;
S7:重复执行上述S5至S6,直至训练结束。
根据本发明实施例的自适应主题的故事结尾生成方法,其充分考虑了多个主题数据对统一模型参数偏移影响冲突的问题。与基本的元学习框架不同,本发明实施例通过参数生成器和主题适配器,生成主题相关的统一模型偏移参数,作用于统一模型中的主题共享参数部分,使得统一模型在保留主题共享知识的同时,也能融入元学习框架生成的主题特定指导;再通过多主题的训练工程,使得参数生成器和主题适配够有效拟合相关主题的分布,加快统一模型对目标主题的适应,最终实现对低资源主题的自适应故事结尾生成。从而解决现有的元学习框架并不能有效解决故事结尾生成系统对多主题数据的适应性问题。
另外,根据本发明上述实施例提出的一种自适应主题的故事结尾生成方法还可以具有如下附加的技术特征:
优选地,所述S3,具体包括以下步骤:
S31:提取所述一特定主题的主题向量特征;
S32:输入所提取的主题向量特征至参数生成器,生成所述一特定主题对应的主题特征参数。
优选地,所述S31中具体通过一个前馈神经网络搭配ReLU激活函数来提取所述主题向量特征。
优选地,所述S32中,所述参数生成器具体通过一层神经网络和tanh激活函数来生成所述主题特征参数。
优选地,所述S6中所述的在每个主题的测试集上更新对应的主题特征参数时,还包括:
通过函数:
Figure BDA0003232315940000021
使每个的主题特征参数与对应测试集中相同主题的故事向量距离相近;
其中,所述||·||2表示L2范式距离,u指测试集中的一个故事向量。
优选地,所述方法还包括:
S8:固定参数生成器的参数,在目标主题的数据集上对故事结尾生成模型参数和主题特征参数进行微调。
优选地,所述S1,具体包括:
S1:初始化故事结尾生成模型中的主题共享参数、主题向量矩阵以及参数生成器的参数。
优选地,所述S6,具体包括:
S61:获取生成的N个主题相关的故事结尾生成模型参数和主题特征参数,依据采样得到的N个主题的测试集上的累和损失对所述N个主题相关的故事结尾生成模型参数和主题特征参数进行更新;
S62:特定主题对应的主题特征参数的更新由对应主题的测试集上的损失以及对应主题的故事向量距离损失一同进行更新。
为达到上述目的,本发明第二方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,所述程序在被处理器执行时,能够实现上述一种自适应主题的故事结尾生成方法。
附图说明
图1为根据本发明实施例一种自适应主题的故事结尾生成方法的流程示意图;
图2为现有的元学习框架结构示意图;
图3为根据本发明实施例的元学习框架结构示意图;
图4为根据本发明实施例一种自适应主题的故事结尾生成的模型框架示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明相较于现有的基础元学习框架(图2所示),通过主题适配器的方式来避免多个主题对统一模型参数偏移影响的冲突问题(图3所示)。本发明首先通过参数生成器将主题向量转化成特定主题的主题特征参数,再由主题适配器将特定主题的主题特征参数和统一模型的主题共享参数相结合,使其能够向特定主题进行偏移,从而更有效适应多个主题。
为了更好的理解上述技术方案,下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本主题的技术人员。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
图2为现有的基础元学习框架示意图,图3为本发明实施例的元学习框架结构示意图。图中的S1-S4表示4个源主题;T表示目标主题;所述θ表示主题共享特征。
如图1所示,本发明实施例的一种自适应主题的故事结尾生成方法,可以包括以下步骤:
一、模型初始化
S1:随机初始化故事结尾生成模型(下述简称为SEG模型)中的主题共享参数、主题向量矩阵以及参数生成器参数。
二、生成特定主题参数
具体而言,包括:
S2:随机采样一特定主题的数据,并将数据划分成训练集和测试集;
在一具体实施例中,所述特定主题特指低资源主题。
S3:通过参数生成器生成所述一特定主题对应的主题特征参数;
在一具体实施例中,请参考图4,该步骤具体包括:
S31:从初始化后的主题向量矩阵中提取出对应所述一主题特定主题的主题向量特征;
为了生成针对当前主题的主题相关参数,在一实施例中,首先使用一个前馈神经网络搭配ReLU激活函数来提取主题向量的高维特征(即主题特征),公式如下:
Figure BDA0003232315940000041
其中,所述dn表当前主题向量,所述(W,b)为线性参数。
S32:通过参数生成器生成两组对应所述一特定主题的主题特征参数。
在一具体实施例中,提取出主题特征之后,将主题特征作为参数生成器的输入,参数生成器将通过一层神经网络和tanh激活函数来生成两组该主题特定主题的参数(即主题特征参数),公式如下:
Figure BDA0003232315940000042
其中,所述d′n表示通过Relu函数提取的主题向量的高维特征。
三、生成特定主题的SEG模型参数
S4:通过主题适配器将所述主题特征参数与从SEG模型中提取出的主题共享参数结合,生成对应所述一主题特定主题的SEG模型参数;
该主题特定主题的SEG模型参数,用于指导统一模型在不同主题的数据上向该主题特定主题偏移。
S5:重复执行上述S2至S4,以生成每个主题特定主题独有的故事结尾生成模型参数。
上述步骤中,通过参数生成器为每个源主题生成特定的主题相关参数(即主题特征参数),由主题适配器将主题相关参数与主题共享参数相结合。既保留统一模型在主题共享部分的知识信息,又为统一模型增添了特定主题相关的信息。由此,元学习框架能够拟合每个相关主题的信息分布,增强了统一模型对对不同主题的适应能力。
四、更新SEG模型
S6:已得到生成的N个主题相关的故事结尾生成模型参数,故事结尾生成模型参数以及参数生成器的参数由采样出的N个主题的测试集上的累和损失进行更新,特定主题向量的参数更新则由特定测试集上的损失以及对应主题下的故事表示相似损失进行更新。
优选地,在每个主题的测试集上更新对应的主题特征参数时,通过函数:
Figure BDA0003232315940000051
其中,所述||·||2表示L2距离,指测试集中的一个故事向量。
使每个主题的主题特征参数与对应测试集中相同主题的故事向量距离相近。
通过该步骤,实现了在更新主题向量的参数时不仅使用测试集上的损失,还加入了主题限制损失。
S8:固定参数生成器的参数,在目标主题的数据集上对故事结尾生成模型参数和主题向量特征进行微调,将主题共享的参数映射到对应目标主题范围。
本实施例的元学习框架下的元训练包括上述S1-S8,通过参数生成器和主题适配器生成主题特定参数,在每个主题的训练集和测试集上更新SEG模型,参数生成器和主题向量的参数。元测试包括固定参数生成器参数,在目标主题上微调SEG模型参数和主题向量。
通过上述实施例得到的本发明SEG模型结构明确,模型在不同主题特别是在低资源主题上的性能表现得到了有效提高。除此之外,本发明提出的基于主题敏感的元学习算法框架并不受限于具体的模型结构,因此其有着更为广泛的应用场景,为主题自适应任务提供了有效的参考。
在一具体实施例中,基于上述得到的SEG模型进行自适应主题的故事结尾生成的过程包括:
在SEG模型中有两个模块:故事编码器和结尾生成器(图4所示)。
具体地,故事编码器编码故事前文(例如:我和我的朋友都不知道如何为我们的朋友庆祝生日,我们一起围着桌子坐在客厅里思考办法,最后我们决定去看电影),给结尾生成器传递文本向量,不与主题适配器联动。结尾生成器生成故事结尾(例如:这个电影很难看,但我们还是玩的很开心)。结尾生成器由GRU组成,在每一步解码时,结尾生成器会根据之前的向量组合解码出当前的(对象,状态)对,而主题适配器会在这一过程中将主题特征参数αg*和βg*结合到GRU中,引导其参数向对应主题偏移。融入特定主题信息的GRU过程如下:
Figure BDA0003232315940000061
Figure BDA0003232315940000062
Figure BDA0003232315940000063
Figure BDA0003232315940000064
其中,所述z*,r*为GRU单元的参数,αg*和βg*则是对应每个特定主题的适配器参数。
另外,本发明还提供另一具体实施例:
一种计算机可读存储介质,其上存储有计算机程序,所述程序在被处理器执行时,能够实现上述一种自适应主题的故事结尾生成方法,具体的步骤内容在此不进行复述,请参阅上述论述。
本发明提供的基于主题敏感的元学习算法的自适应主题的故事结尾生成模型,基于该元学习框架中的参数生成器和主题适配器,能通过使用故事结尾生成任务里的高资源信息来训练故事结尾生成模型,使其能够高效地适应目标主题,特别是低资源主题,从而在多主题数据集上得到有效提升。另外,本发明提供的模型结构明确,思路清晰,可以提高统一的故事结尾生成模型对不同主题的适配程度。除此之外,该基于主题敏感的元学习框架并不受限于具体的模型,因此其有着更为广泛的应用场景,为主题自适应任务提供了有效的参考。
本主题内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
在本发明的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不应理解为必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (9)

1.一种自适应主题的故事结尾生成方法,其特征在于,包括以下步骤:
S1:初始化故事结尾生成模型;
S2:随机采样一特定主题的数据,并将数据划分成训练集和测试集;
S3:通过参数生成器生成所述一特定主题对应的主题特征参数;
S4:通过主题适配器将所述主题特征参数与从故事结尾生成模型中提取出的主题共享参数结合,然后在所述训练集上进行训练,生成对应所述一特定主题的故事结尾生成模型参数;
S5:重复执行上述S2至S4,生成每个特定主题的故事结尾生成模型参数;
S6:在每个主题的训练集上更新对应的故事结尾生成模型参数,在每个主题的测试集上更新对应的故事结尾生成模型参数和主题特征参数;
S7:重复执行上述S5至S6,直至训练结束。
2.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述S3,具体包括以下步骤:
S31:提取所述一特定主题的主题向量特征;
S32:输入所提取的主题向量特征至参数生成器,生成所述一特定主题对应的主题特征参数。
3.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述S31中具体通过一个前馈神经网络搭配ReLU激活函数来提取所述主题向量特征。
4.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述S32中,所述参数生成器具体通过一层神经网络和tanh激活函数来生成所述主题特征参数。
5.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述S6中所述的在每个主题的测试集上更新对应的主题特征参数时,还包括:
通过函数:
Figure FDA0003232315930000011
使每个的主题特征参数与对应测试集中相同主题的故事向量距离相近;
其中,所述||·||2表示L2范式距离,u指测试集中的一个故事向量。
6.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述方法还包括:
S8:固定参数生成器的参数,在目标主题的数据集上对故事结尾生成模型参数和主题特征参数进行微调。
7.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述S1,具体包括:
S1:初始化故事结尾生成模型中的主题共享参数、主题向量矩阵以及参数生成器的参数。
8.如权利要求1所述的一种自适应主题的故事结尾生成方法,其特征在于,所述S6,具体包括:
S61:获取生成的N个主题相关的故事结尾生成模型参数和主题特征参数,依据采样得到的N个主题的测试集上的累和损失对所述N个主题相关的故事结尾生成模型参数和主题特征参数进行更新;
S62:特定主题对应的主题特征参数的更新由对应主题的测试集上的损失以及对应主题的故事向量距离损失一同进行更新。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序在被处理器执行时,能够实现上述权利要求1-8任意一项所述的一种自适应主题的故事结尾生成方法。
CN202110991119.XA 2021-08-26 2021-08-26 自适应主题的故事结尾生成方法、存储介质 Pending CN113762474A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110991119.XA CN113762474A (zh) 2021-08-26 2021-08-26 自适应主题的故事结尾生成方法、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110991119.XA CN113762474A (zh) 2021-08-26 2021-08-26 自适应主题的故事结尾生成方法、存储介质

Publications (1)

Publication Number Publication Date
CN113762474A true CN113762474A (zh) 2021-12-07

Family

ID=78791466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110991119.XA Pending CN113762474A (zh) 2021-08-26 2021-08-26 自适应主题的故事结尾生成方法、存储介质

Country Status (1)

Country Link
CN (1) CN113762474A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024195908A1 (ko) * 2023-03-23 2024-09-26 주식회사 엔씨소프트 갈등 문장 생성 방법 및 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102256049A (zh) * 2010-04-09 2011-11-23 微软公司 自动化故事生成
KR20120111855A (ko) * 2011-03-31 2012-10-11 삼성전자주식회사 사용자 정보에 따른 스토리 생성 장치 및 방법
US20160140210A1 (en) * 2014-11-19 2016-05-19 Lexisnexis, A Division Of Reed Elsevier Inc. Systems and methods for automatic identification of potential material facts in documents
CN110750652A (zh) * 2019-10-21 2020-02-04 广西大学 结合上下文实体词和知识的故事结局生成方法
CN111708904A (zh) * 2020-08-24 2020-09-25 浙江大学 一种基于主题适应与原型编码的少样本视觉故事叙述方法
CN111737961A (zh) * 2020-06-28 2020-10-02 网易(杭州)网络有限公司 一种故事生成的方法、装置、计算机设备和介质
CN112395842A (zh) * 2020-12-01 2021-02-23 中山大学 一种提高内容一致性的长文本故事生成方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102256049A (zh) * 2010-04-09 2011-11-23 微软公司 自动化故事生成
KR20120111855A (ko) * 2011-03-31 2012-10-11 삼성전자주식회사 사용자 정보에 따른 스토리 생성 장치 및 방법
US20160140210A1 (en) * 2014-11-19 2016-05-19 Lexisnexis, A Division Of Reed Elsevier Inc. Systems and methods for automatic identification of potential material facts in documents
CN110750652A (zh) * 2019-10-21 2020-02-04 广西大学 结合上下文实体词和知识的故事结局生成方法
CN111737961A (zh) * 2020-06-28 2020-10-02 网易(杭州)网络有限公司 一种故事生成的方法、装置、计算机设备和介质
CN111708904A (zh) * 2020-08-24 2020-09-25 浙江大学 一种基于主题适应与原型编码的少样本视觉故事叙述方法
CN112395842A (zh) * 2020-12-01 2021-02-23 中山大学 一种提高内容一致性的长文本故事生成方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024195908A1 (ko) * 2023-03-23 2024-09-26 주식회사 엔씨소프트 갈등 문장 생성 방법 및 장치

Similar Documents

Publication Publication Date Title
CN107464554B (zh) 语音合成模型生成方法和装置
JP6207733B2 (ja) 人工知的エージェントまたはシステムを作成および実装するためのシステムおよび方法
CN110321417A (zh) 一种对话生成方法、系统、可读存储介质及计算机设备
Denning What is computation
US10580436B2 (en) Method and device for processing speech based on artificial intelligence
Ryan et al. Characters who speak their minds: Dialogue generation in Talk of the Town
KR102676087B1 (ko) 뉴럴 기억 컴퓨팅 시스템 및 방법
JP2022548574A (ja) シーケンス-シーケンス・ニューラル・モデルにおける構造保持注意機構
CN113762474A (zh) 自适应主题的故事结尾生成方法、存储介质
Denning Ubiquity symposium'What is computation?' Opening statement
KR102286638B1 (ko) 하이라이트 영상 자동 편집을 위한 컴퓨터 프로그램
US10580187B2 (en) System and method for rendering of an animated avatar
CN112241629A (zh) 结合rpa及ai的拼音标注文本生成方法及装置
Pagnutti et al. Do you like this art i made you: introducing techne, a creative artbot commune
JP2019021218A (ja) 学習装置、プログラムパラメータ、学習方法およびモデル
CN104980396A (zh) 一种用于社交网络的通信方法及系统
CN111090740A (zh) 一种用于对话系统的知识图谱生成方法
CN114547391A (zh) 消息审核方法及装置
CN113436752B (zh) 一种半监督的多轮医疗对话回复生成方法及系统
CN114999611B (zh) 一种模型训练和信息推荐的方法及装置
JP6270702B2 (ja) ディジタルコンテンツ情報系列生成装置、方法、及びプログラム
KR102378038B1 (ko) 타겟 네트워크의 속성을 갖는 합성 네트워크를 얻기 위한 그래프 생성 장치 및 방법
CN113688936B (zh) 一种图像文本的确定方法、装置、设备和存储介质
WO2022004392A1 (ja) 対話装置、対話方法及び対話プログラム
Holmström On the shoulders of giants: Understanding Internet-based generative platforms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination