CN112183025B - 一种基于深度学习的可控多人物心理导向故事生成方法 - Google Patents

一种基于深度学习的可控多人物心理导向故事生成方法 Download PDF

Info

Publication number
CN112183025B
CN112183025B CN202011071294.9A CN202011071294A CN112183025B CN 112183025 B CN112183025 B CN 112183025B CN 202011071294 A CN202011071294 A CN 202011071294A CN 112183025 B CN112183025 B CN 112183025B
Authority
CN
China
Prior art keywords
story
psychological
state
matrix
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011071294.9A
Other languages
English (en)
Other versions
CN112183025A (zh
Inventor
徐菲菲
王新鹏
周珊琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Electric Power University
Original Assignee
Shanghai Electric Power University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Electric Power University filed Critical Shanghai Electric Power University
Priority to CN202011071294.9A priority Critical patent/CN112183025B/zh
Publication of CN112183025A publication Critical patent/CN112183025A/zh
Application granted granted Critical
Publication of CN112183025B publication Critical patent/CN112183025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于深度学习的可控多人物心理导向故事生成方法,用于生成故事,包括如下步骤:步骤1,输入故事的当前句子X以及当前句子X的上文至编码器中进行编码,得到作为历史故事信息的初始隐层状态h0;步骤2,设定故事中的人物,并根据设定人物的不同来设定相应的心理状态,进而根据该心理状态的程度指定相对应的分数,而后多个人物的心理状态分数拼接成矩阵后将直接作为心理分数矩阵与可训练的心理状态词向量矩阵相乘,得到多个人物的心理状态矩阵PMR;步骤3,将历史故事信息h0以及心理状态矩阵PMR输入解码器进行解码,得到最终的输出Y,即生成的故事语句。

Description

一种基于深度学习的可控多人物心理导向故事生成方法
技术领域
本发明属于人工智能领域,具体涉及一种基于深度学习的可控多人物心理导向故事生成方法。
背景技术
文本自动生成是自然语言处理领域的一个重要研究方向,实现文本自动生成也是人工智能走向成熟的一个重要标志。文本自动生成旨在让计算机能够像人类一样会写作,能够撰写出高质量的自然语言文本。文本自动生成技术极具应用前景。例如,文本自动生成技术可以应用于智能问答与对话、机器翻译等系统,实现更加智能和自然的人机交互;也可以通过文本自动生成系统替代编辑实现新闻的自动撰写与发布,最终将有可能颠覆新闻出版行业;该项技术甚至可以用来帮助学者进行学术论文撰写,进而改变科研创作模式。
故事生成在过去的几年里引起了人们的广泛关注。与一般的文本生成不同,故事生成要求文本与事件序列一致。故事生成除了要求连贯性外,还存在着主题一致性、内容一致性、词汇多样性和情感控制等诸多挑战。本发明专利针对情感控制方面进行进一步研究。
传统的情感可控的故事生成只涉及了一些简单的情感,比如开心、难过等。本发明专利引入了马斯洛需求层次理论等多个心理学理论,能够更充分的描述人物的特征。传统的情感可控的故事生成模型只能考虑整个故事的情感,无法控制故事中每个人物的情感。本发明专利可以根据指定的每个人物的心理状态来生成情感丰富的故事。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种基于深度学习的可控多人物心理导向故事生成方法。
本发明提供了一种基于深度学习的可控多人物心理导向故事生成方法,用于生成故事,具有这样的特征,包括如下步骤:步骤1,输入故事的当前句子X={xs 1,xs 2,……,xs n}以及当前句子X的上文C={xc 1,xc 2,……,xc m}至编码器中进行编码,得到作为历史故事信息的初始隐层状态h0;步骤2,设定故事中的人物,并根据设定人物的不同来设定相应的心理状态,进而根据该心理状态的程度指定相对应的分数,而后多个人物的心理状态分数拼接成矩阵后将直接作为心理分数矩阵与可训练的心理状态词向量矩阵相乘,得到多个人物的心理状态矩阵PMR;步骤3,将历史故事信息h0以及心理状态矩阵PMR输入解码器进行解码,得到最终的输出Y={y1,y2,……,yk},即生成的故事语句,其中,所述步骤3中的所述解码器具有LSTM、人物选择器以及心理状态控制器,所述步骤3具体包括如下子步骤:步骤3-1,所述人物选择器接收注意力向量权重Ct、经LSTM解码的上一时刻的输入向量yt-1和隐层状态向量ht-1以及初始隐层状态h0后,将上述向量拼接后进行线性变换,而后再采用softmax函数进行计算,得到概率分布gt char;步骤3-2,将所述概率分布gt char通过One-hot机制得到One-hot向量Ot char;步骤3-3,将所述One-hot向量Ot char作为选择机制并乘以所述心理状态矩阵PMR,选择所述心理状态矩阵PMR中的一个人物的心理状态St char;步骤3-4,所述心理状态St char进入所述心理状态控制器,而后所述心理状态控制器将所述隐层状态向量ht-1与所述心理状态St char分别进行线性变化后将两者的结果相加后再采用tanh激活函数得到心理状态的整体的表示;步骤3-5,采用softmax函数对所述整体的表示进行处理,得到每一个心理状态的概率分布权重wpmr,而后将所述概率分布乘以所述心理状态St char,得到最终的心理状态向量Ct PMR;步骤3-6,采用LSTM将上一刻的所述输入向量yt-1、心理状态向量Ct PMR以及注意力向量权重Ct拼接起来,而后采用softmax函数进行处理,得到输出的单词yt,待所有时刻均处理完后,得到最终的输出Y={y1,y2,……,yk},即生成的所述故事语句,xs 1,xs 2,……,xs n表示输入故事的当前句子,n为输入的句子的长度,s为句子sentence的缩写,xc 1,xc 2,……,xc m表示输入故事的当前句子的上文,m为输入的上文的长度,c为上下文context的缩写,y1,y2,……,yk表示每一个时刻输出的单词,且一个时刻表示LTSM的一个神经元,k为输出的句子的长度。
在本发明提供的基于深度学习的可控多人物心理导向故事生成方法中,还可以具有这样的特征:其中,步骤1中的编码器为BiLSTM,且编码方式为上下文拼接方法或上下文融合方法。
在本发明提供的基于深度学习的可控多人物心理导向故事生成方法中,还可以具有这样的特征:其中,上下文拼接方法包括如下步骤:将当前句子X与上文C拼接起来,一起进入同一个BiLSTM中,从而得到历史故事信息h0
在本发明提供的基于深度学习的可控多人物心理导向故事生成方法中,还可以具有这样的特征:其中,上下文融合方法包括如下步骤:当前句子X与上文C分别进入不同的BiLSTM中,得到输入句子hs以及上文信息hc,而后将输入句子hs和上文信息hc拼接起来,从而得到历史故事信息h0
在本发明提供的基于深度学习的可控多人物心理导向故事生成方法中,还可以具有这样的特征:其中,步骤2中的心理状态根据Maslow心理学、Reiss心理学以及Plutchik心理学来设定,分数的范围为0~1,当数值越大时,心理状态的表达程度越深,每个PMR向量具有32个元素,向量的元素值即为心理状态所对应的分数。
发明的作用与效果
根据本发明所涉及的基于深度学习的可控多人物心理导向故事生成方法,因为采用SoCP模型来设定故事人物并控制故事中每个人物的情感,所以能够根据指定的每个人物的心理状态来生成情感丰富的故事。
进一步地,本发明的基于深度学习的可控多人物心理导向故事生成方法可以实现通过控制不同人物的不同心理状态从而生成故事。在该发明专利的应用方面,可以对在编写故事时设定人物及其心理状态起到帮助,在心理学领域甚至可以帮助心理学医生生成用来开导具有心理疾病的人的对话。
附图说明
图1是本发明的实施例中基于深度学习的可控多人物心理导向故事生成方法的操作模型SoCP模型示意图;
图2是本发明的实施例中SoCP模型的编码器的示意图;
图3是本发明的实施例中Maslow心理学理论以及Reiss心理学理论展示图;
图4是本发明的实施例中Plutchik心理学理论展示图;
图5是本发明的实施例中SoCP模型的解码器的示意图。
具体实施方式
为了使本发明实现的技术手段与功效易于明白了解,以下结合实施例及附图对本发明作具体阐述。
实施例:
图1是本发明的实施例中基于深度学习的可控多人物心理导向故事生成方法的操作模型SoCP模型示意图。
如图1所示,本实施例的一种基于深度学习的可控多人物心理导向故事生成方法采用SoCP模型进行操作,该SoCP模型包括编码器和解码器,其中,编码器为BiLSTM,解码器具有LSTM、人物选择器以及心理状态控制器。
本实施例的一种基于深度学习的可控多人物心理导向故事生成方法的具体步骤如下:
步骤1,输入故事的当前句子X={xs 1,xs 2,……,xs n}以及当前句子X的上文C={xc 1,xc 2,……,xc m}至编码器中进行编码,得到作为历史故事信息的初始隐层状态h0,其中,xs 1,xs 2,……,xs n表示输入故事的当前句子,n为输入的句子的长度,xc 1,xc 2,……,xc m表示输入故事的当前句子的上文,m为输入的上文的长度。
图2是本发明的实施例中SoCP模型的编码器的示意图,其中,图2(a)是上下文拼接方法示意图,图2(b)是上下文融合方法示意图。
本实施例中,编码器为BiLSTM,且编码方式为上下文拼接方法或上下文融合方法,其中,上下文拼接方法包括如下步骤:将当前句子X与上文C拼接起来,一起进入同一个BiLSTM中,从而得到历史故事信息h0,上下文融合方法包括如下步骤:当前句子X与上文C分别进入不同的BiLSTM中,得到输入句子hs以及上文信息hc,而后将输入句子hs和上文信息hc拼接起来,从而得到历史故事信息h0
此外,上述两种方法均可以很好的接收到上下信息,并且上下文拼接方法的效果比上下文融合方法的效果更好一些,这是因为经过多个BiLSTM之后的信息整合不如共同在一个BiLSTM中编码效果好。
本实施例中,上文C是指故事的上文信息,引入它是为了使故事的表示更加连贯,在产品具体使用时,用户只需要输入一段故事的开头,便会根据开头继续续写故事,此时上文C为空,当续写出下一句话后,此时会把输入的句子当作上文C,刚刚输出的句子作为当前时刻的输入X。
步骤2,设定故事中的人物,并根据设定人物的不同来设定相应的心理状态,进而根据该心理状态的程度指定相对应的分数,而后多个人物的心理状态分数拼接成矩阵后将直接作为心理分数矩阵与可训练的心理状态词向量矩阵相乘,得到多个人物的心理状态矩阵PMR。
图3是本发明的实施例中Maslow心理学理论以及Reiss心理学理论展示图,图4是本发明的实施例中Plutchik心理学理论展示图其中,图3(a)是Maslow心理学理论展示图,图3(b)是Reiss心理学理论展示图。
本实施例中,故事的人物可以是一个或多个,心理状态根据Maslow心理学、Reiss心理学以及Plutchik心理学来设定,分数的范围为0~1,当数值越大时,心理状态的表达程度越深,每个PMR向量具有32个元素,向量的元素值即为心理状态所对应的分数。
此外,左侧三角形为Maslow马斯洛需求层次理论,它由生理需求Physiologicalneeds、稳定Stability、爱和归属感Love/belonging、尊重Esteem和精神成长SpiritualGrowth五个类别组成,右侧为Reiss心理学理论,它拥有19个信息更为丰富的细粒度类别,可以看作Maslow的子集,也可以说Maslow是Reiss的抽象表示。图3(b)为Plutchik情感轮心理学,它拥有8个维度的情感可供描述人物的情感状态。
进一步地,可以指定不同人物的某些心理学理论来指导故事的生成,如:尊重Esteem、快乐Joy等,此外还可以指定其相对应的表达程度,由0-1的分数来表示表达程度由浅入深。程序接收到输入的情感及分数后,首先会将分数变为向量,该向量共有32个元素,即所有心理学指标数量的总和,向量的元素值即为用户输入的心理状态对应的分数,没有分数的元素则为0,随后将该心理分数向量将乘以心理状态的词向量矩阵,即每个心理状态的含义表示,该矩阵在模型训练时已经训练好,最后便会得到一个心理状态向量称之为PMR向量。通常用户会指定不同人物数量的心理状态,所以将多个人物的心理状态向量拼接起来便得到多个人物的心理状态矩阵称为PMR矩阵。
步骤3,将历史故事信息h0以及心理状态矩阵PMR输入解码器进行解码,得到最终的输出Y={y1,y2,……,yk},即生成的故事语句,其中,y1,y2,……,yk表示每一个时刻输出的单词,一个时刻表示LTSM的一个神经元,k为输出的句子的长度。
图5是本发明的实施例中SoCP模型的解码器的示意图。
本实施例中,解码器具有LSTM、人物选择器以及心理状态控制器,其中,人物选择器利用softmax激活函数的概率并经过One-Hot机制作为门控来选择当前时刻应该描述哪一个人物;心理状态控制器利用注意力机制用来控制当前时刻接收哪些以及接收多少程度的心理状态,上述步骤3具体包括如下子步骤:
步骤3-1,人物选择器接收注意力向量权重Ct、经LSTM解码的上一时刻的输入向量yt-1和隐层状态向量ht-1以及初始隐层状态h0后,将上述向量拼接后进行线性变换,而后再采用softmax函数进行计算,得到概率分布gt char
其中,注意力向量权重Ct由带有注意力机制的编码器计算得到,即解码器上一时刻隐层状态向量ht-1与编码器的输出Enc_out利用注意力机制来计算得到每一个编码器输出的权重向量wenc,前述的注意力机制的计算方法与人物选择器中的注意力机制相同。
步骤3-2,将概率分布gt char通过One-hot机制得到One-hot向量Ot char
步骤3-3,将One-hot向量Ot char作为选择机制并乘以心理状态矩阵PMR,选择心理状态矩阵PMR中的一个人物的心理状态St char
步骤3-4,心理状态St char进入心理状态控制器,而后心理状态控制器将隐层状态向量ht-1与心理状态St char分别进行线性变化后将两者的结果相加后再采用tanh激活函数得到心理状态的整体的表示。
步骤3-5,采用softmax函数对整体的表示进行处理,得到每一个心理状态的概率分布权重wpmr,而后将概率分布乘以心理状态St char,得到最终的心理状态向量Ct PMR
步骤3-6,采用LSTM将上一刻的输入向量yt-1、心理状态向量Ct PMR以及注意力向量权重Ct拼接起来,而后采用softmax函数进行处理,得到输出的单词yt,待所有时刻均处理完后,得到最终的输出Y={y1,y2,……,yk},即生成的故事语句。
实验对比表
Figure BDA0002715055430000091
Figure BDA0002715055430000101
Figure BDA0002715055430000111
如上表所示是现有方法与本实施例的方法的生成效果对比表,共有两个示例。第一行为故事开头输入的句子,第二行和第三行是输入的故事中所涉及到的人物以及其对应的心理状态。在心理状态输入时,由于一般故事的主题性较强,所以指定整个故事中人物的Maslow以及Reiss为固定的几种,而对于Plutchik来说,故事中人物的情感会经常变化,所以我们对故事中每个句子的不同人物指定不同的情感,如表中第三行所示。最后两行是现有模型与本发明专利模型的输出示例。经过对比可以看出,在第一个示例中,现有模型无法很好的体现指定的心理状态,并且故事缺乏逻辑性,本实施例的方法在保证故事连贯性的基础上可以输出符合心理状态的一些词语,如激动excited、开心happy等,并且提到了涉及的人物朋友friend。同样第二个示例依旧比现有模型效果好。
心理状态可控的故事生成示例
Figure BDA0002715055430000121
Figure BDA0002715055430000131
Figure BDA0002715055430000141
Figure BDA0002715055430000151
上表为不同条件下的心理状态可控的故事生成示例,在输入句子、人物以及Malsow和Reiss不变的情况下,第一个示例给Plutchik指标joy分配不同的分数:1、0.5和0。当分数等于1时,它会产生一些明显快乐的词,如逗乐amused、高兴happy、自豪wasproudof。随着快乐joy的分数越低,生成的单词会越消极。当分数等于0时会产生一些消极的词汇,如紧张nervous、累tired、不高兴nothappy。第二个示例展示了使用不同的Plutchik指标生成的故事。另外,将惊讶surprise、恐惧fear和愤怒anger作为不同的Plutchik指标。当指定Plutchik为惊喜surprise时,它会生成“被惊讶到了was surprised to、震惊shocked。当Plutchik表示恐惧时,它会生成感到害怕was afraid of和害怕be scared to。当Plutchik表示愤怒anger时,它会生成如愤怒angry这样的词。对于第三个例子,我们分配了不同分数的多个Plutchik指标,我们可以看到生成的故事具有多种情感。
实施例的作用与效果
根据本实施例所涉及的基于深度学习的可控多人物心理导向故事生成方法,因为采用SoCP模型来设定故事人物并控制故事中每个人物的情感,所以能够根据指定的每个人物的心理状态来生成情感丰富的故事。
进一步地,本实施例的基于深度学习的可控多人物心理导向故事生成方法可以实现通过控制不同人物的不同心理状态从而生成故事。在该发明专利的应用方面,可以对在编写故事时设定人物及其心理状态起到帮助,在心理学领域甚至可以帮助心理学医生生成用来开导具有心理疾病的人的对话。
上述实施方式为本发明的优选案例,并不用来限制本发明的保护范围。

Claims (5)

1.一种基于深度学习的可控多人物心理导向故事生成方法,用于生成故事,其特征在于,包括如下步骤:
步骤1,输入所述故事的当前句子X={xs 1,xs 2,……,xs n}以及所述当前句子X的上文C={xc 1,xc 2,……,xc m}至编码器中进行编码,得到作为历史故事信息的初始隐层状态h0
步骤2,设定故事中的人物,并根据设定人物的不同来设定相应的心理状态,进而根据该心理状态的程度指定相对应的分数,而后多个人物的心理状态分数拼接成矩阵后将直接作为心理分数矩阵与可训练的心理状态词向量矩阵相乘,得到多个人物的心理状态矩阵PMR;
步骤3,将所述历史故事信息h0以及所述心理状态矩阵PMR输入解码器进行解码,得到最终的输出Y={y1,y2,……,yk},即生成的故事语句,
其中,所述步骤3中的所述解码器具有LSTM、人物选择器以及心理状态控制器,
所述步骤3具体包括如下子步骤:
步骤3-1,所述人物选择器接收注意力向量权重Ct、经LSTM解码的上一时刻的输入向量yt-1和隐层状态向量ht-1以及初始隐层状态h0后,将上述向量拼接后进行线性变换,而后再采用softmax函数进行计算,得到概率分布gt char
步骤3-2,将所述概率分布gt char通过One-hot机制得到One-hot向量Ot char
步骤3-3,将所述One-hot向量Ot char作为选择机制并乘以所述心理状态矩阵PMR,选择所述心理状态矩阵PMR中的一个人物的心理状态St char
步骤3-4,所述心理状态St char进入所述心理状态控制器,而后所述心理状态控制器将所述隐层状态向量ht-1与所述心理状态St char分别进行线性变化后将两者的结果相加后再采用tanh激活函数得到心理状态的整体的表示;
步骤3-5,采用softmax函数对所述整体的表示进行处理,得到每一个心理状态的概率分布权重wpmr,而后将所述概率分布乘以所述心理状态St char,得到最终的心理状态向量Ct PMR
步骤3-6,采用LSTM将上一刻的所述输入向量yt-1、心理状态向量Ct PMR以及注意力向量权重Ct拼接起来,而后采用softmax函数进行处理,得到输出的单词yt,待所有时刻均处理完后,得到最终的输出Y={y1,y2,……,yk},即生成的所述故事语句,
其中,xs 1,xs 2,……,xs n表示输入故事的当前句子,n为输入的句子的长度,s为句子sentence的缩写,xc 1,xc 2,……,xc m表示输入故事的当前句子的上文,m为输入的上文的长度,c为上下文context的缩写,y1,y2,……,yk表示每一个时刻输出的单词,且一个时刻表示LTSM的一个神经元,k为输出的句子的长度。
2.根据权利要求1所述的基于深度学习的可控多人物心理导向故事生成方法,其特征在于:
其中,所述步骤1中的所述编码器为BiLSTM,且编码方式为上下文拼接方法或上下文融合方法。
3.根据权利要求2所述的基于深度学习的可控多人物心理导向故事生成方法,其特征在于:
其中,所述上下文拼接方法包括如下步骤:
将所述当前句子X与所述上文C拼接起来,一起进入同一个BiLSTM中,从而得到所述历史故事信息h0
4.根据权利要求2所述的基于深度学习的可控多人物心理导向故事生成方法,其特征在于:
其中,所述上下文融合方法包括如下步骤:
所述当前句子X与所述上文C分别进入不同的BiLSTM中,得到输入句子hs以及上文信息hc,而后将所述输入句子hs和所述上文信息hc拼接起来,从而得到所述历史故事信息h0
5.根据权利要求1所述的基于深度学习的可控多人物心理导向故事生成方法,其特征在于:
其中,所述步骤2中的心理状态根据Maslow心理学、Reiss心理学以及Plutchik心理学来设定,
所述分数的范围为0~1,当数值越大时,所述心理状态的表达程度越深,
每个所述心理状态向量Ct PMR具有32个元素,向量的元素值即为所述心理状态所对应的分数。
CN202011071294.9A 2020-10-09 2020-10-09 一种基于深度学习的可控多人物心理导向故事生成方法 Active CN112183025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011071294.9A CN112183025B (zh) 2020-10-09 2020-10-09 一种基于深度学习的可控多人物心理导向故事生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011071294.9A CN112183025B (zh) 2020-10-09 2020-10-09 一种基于深度学习的可控多人物心理导向故事生成方法

Publications (2)

Publication Number Publication Date
CN112183025A CN112183025A (zh) 2021-01-05
CN112183025B true CN112183025B (zh) 2022-06-21

Family

ID=73947795

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011071294.9A Active CN112183025B (zh) 2020-10-09 2020-10-09 一种基于深度学习的可控多人物心理导向故事生成方法

Country Status (1)

Country Link
CN (1) CN112183025B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268983B (zh) * 2021-06-02 2022-09-02 北京理工大学 一种角色导向的故事结局生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104054075A (zh) * 2011-12-06 2014-09-17 派赛普申合伙公司 文本挖掘、分析和输出系统
CN107924414A (zh) * 2015-09-16 2018-04-17 英特尔公司 促进在计算装置处进行多媒体整合和故事生成的个人辅助

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8177639B2 (en) * 2006-03-20 2012-05-15 Jesse Schell Controlling an interactive story through manipulation of simulated character mental state
US20150363481A1 (en) * 2012-09-06 2015-12-17 Michael N. Haynes Systems, Devices, and/or Methods for Managing Information
US11520971B2 (en) * 2019-03-30 2022-12-06 The Regents Of The University Of California System and method for artificial intelligence story generation allowing content introduction
CN110750652A (zh) * 2019-10-21 2020-02-04 广西大学 结合上下文实体词和知识的故事结局生成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104054075A (zh) * 2011-12-06 2014-09-17 派赛普申合伙公司 文本挖掘、分析和输出系统
CN107924414A (zh) * 2015-09-16 2018-04-17 英特尔公司 促进在计算装置处进行多媒体整合和故事生成的个人辅助

Also Published As

Publication number Publication date
CN112183025A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
De Carolis et al. APML, a markup language for believable behavior generation
Ritschel et al. Adapting a robot's linguistic style based on socially-aware reinforcement learning
Cassell et al. Beat: the behavior expression animation toolkit
KR101006191B1 (ko) 가상인격체의 감정표현과 동작구현방법
JP7280512B2 (ja) 非言語情報生成装置及びプログラム
CN112182161B (zh) 一种基于用户对话历史的个性化对话生成方法和系统
JP7212284B2 (ja) 非言語情報生成装置、方法、及びプログラム
Wang et al. Computational studies of language evolution
JP7157340B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
Ghajargar et al. A redhead walks into a bar: Experiences of writing fiction with artificial intelligence
CN112183025B (zh) 一种基于深度学习的可控多人物心理导向故事生成方法
CN114911932A (zh) 基于主题语义增强的异构图结构多会话者情感分析方法
Hayes-Roth et al. Panel on affect and emotion in the user interface
CN109800295A (zh) 基于情感词典和词概率分布的情感会话生成方法
CN110297894B (zh) 一种基于辅助网络的智能对话生成方法
JP7140984B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
CN116701580A (zh) 一种对话情感强度一致性控制方法
Liu et al. Vowel priority lip matching scheme and similarity evaluation model based on humanoid robot Ren-Xin
CN114861627A (zh) 一种基于深度学习的选择题干扰项自动化生成方法及模型
Heudin Evolutionary virtual agent
CN117808011B (zh) 一种带有模拟情绪的聊天机器人的方法、介质及系统
Gustavsson et al. Verification, validation and evaluation of the Virtual Human Markup Language (VHML)
Azcárate Intermedial semiotics in the age of artificial intelligence. Challenges and opportunities for the arts
CN117236437A (zh) 一种基于扩散序列的可控文本生成方法
CN117808011A (zh) 一种带有模拟情绪的聊天机器人的方法、介质及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant