CN113139042B - 一种利用微调和重排序策略的情感可控回复生成方法 - Google Patents

一种利用微调和重排序策略的情感可控回复生成方法 Download PDF

Info

Publication number
CN113139042B
CN113139042B CN202110450102.3A CN202110450102A CN113139042B CN 113139042 B CN113139042 B CN 113139042B CN 202110450102 A CN202110450102 A CN 202110450102A CN 113139042 B CN113139042 B CN 113139042B
Authority
CN
China
Prior art keywords
emotion
model
reply
emogpt
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110450102.3A
Other languages
English (en)
Other versions
CN113139042A (zh
Inventor
杜宝祥
马志强
王春喻
贾文超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Technology
Original Assignee
Inner Mongolia University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Technology filed Critical Inner Mongolia University of Technology
Priority to CN202110450102.3A priority Critical patent/CN113139042B/zh
Publication of CN113139042A publication Critical patent/CN113139042A/zh
Application granted granted Critical
Publication of CN113139042B publication Critical patent/CN113139042B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

一种利用微调和重排序策略的情感可控回复生成方法,利用微调算法对大规模开放域语言预训练模型GPT‑2进行训练,即,使用带有情感类别标签的开放领域多轮对话语料训练GPT‑2,通过将对话语句与其对应情感类别标签混合训练的方式,使语言模型学习语义和情感的依赖关系,得到EmoGPT模型,利用EmoGPT模型,根据指定的情感类别标签,将生成的K个回复进行情感重排序,得到最终的生成回复,本发明解决了多轮对话情况下由于对话生成模型中缺乏情感控制方法导致的生成回复的情感与指定情感不一致的问题,实现了多轮对话的情感可控回复生成,提高了对话生成回复的情感一致性。

Description

一种利用微调和重排序策略的情感可控回复生成方法
技术领域
本发明属于人工智能技术领域,涉及情感对话生成,特别涉及一种利用微调和重排序策略的情感可控回复生成方法。
背景技术
对话生成是指根据给定的对话上文,模型逐字或逐词生成回复语句。对于生成的回复语句最基本的要求是语法正确且语言表达自然流畅。情感对话生成则对模型生成的回复语句进行了更高的要求,除符合基本的语法和语言表达要求外,还需要富有情感。生成回复的情感可控性是目前情感对话生成的重要研究方向。
以往的研究工作主要基于Seq2Seq模型,通过情感标签结合情感记忆、注意力机制、多任务学习和对抗学习等方式提升了对话模型生成回复的情感表达和控制能力。
传统的基于Seq2Seq的对话生成模型存在一些明显缺陷,如生成回复的信息量少,模型倾向于生成低质量的通用回复等。随着Transformer在自然语言处理领域的卓越表现,基于Transformer的语言模型在自然语言生成类任务中得到广泛应用,并取得了良好的性能表现,GPT-2(Generative Pre-trained Transformer,生成式的预训练Transformer)是最典型的模型之一。GPT-2在开放领域多轮对话的应用使得语言质量和内容相关性和多样性等方面均有显著提升,能够极大地缓解传统Seq2Seq模型的安全回复问题。然而,对于基于GPT-2的多轮对话生成,回复情感的控制是一个亟待解决的问题,在多轮对话中准确控制生成回复的情感,对于未来对多轮对话的动态情感回复策略的研究是十分必要的。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种利用微调和重排序策略的情感可控回复生成方法,该方法主要针对现有基于Seq2Seq模型容易出现信息量少,低质量的安全回复,对话生成模型中缺乏情感控制方法导致的生成回复的情感与指定情感不一致的问题,将“预训练+微调”策略应用在情感可控回复生成中。
为了实现上述目的,本发明采用的技术方案是:
一种利用微调和重排序策略的情感可控回复生成方法,包括:
步骤1,利用微调算法对大规模开放域语言预训练模型GPT-2进行训练,即,使用带有情感类别标签的开放领域多轮对话语料训练GPT-2,通过将对话语句与其对应情感类别标签混合训练的方式,使语言模型学习语义和情感的依赖关系,得到EmoGPT模型;
步骤2,利用EmoGPT模型,根据指定的情感类别标签
Figure BDA0003038336400000021
将生成的K个回复进行情感重排序,得到最终的生成回复
Figure BDA0003038336400000022
其中,
Figure BDA0003038336400000023
T表示对话上下文中对话轮次,
Figure BDA0003038336400000024
为第T轮对话中回复语句的第j个词,t为RT的序列长度,即第T轮对话中回复语句的词的数量,K可由用户指定。
所述大规模开放域语言预训练模型GPT-2是使用无情感标签的开放领域多轮对话语料训练得到的适用于开放领域多轮对话的语言模型。
所述GPT-2模型由多个Transformer模块堆栈构成,EmoGPT模型的初始输入为对话上文Context和指定的情感类别标签
Figure BDA0003038336400000031
的拼接序列
Figure BDA0003038336400000032
模型逐词生成并输出符合指定情感的回复,直到生成语句结束符号[SEP]或达到最大长度时停止,其中,Context={U1,R1,U2,R2,…,Ui,Ri,…,UT},Ui表示第i轮对话中用户话语的词序列,
Figure BDA0003038336400000033
Figure BDA0003038336400000034
为第i轮对话中用户话语的第j个词,
Figure BDA0003038336400000035
为Ui的序列长度,Ri表示第i轮对话中回复语句的词序列,
Figure BDA0003038336400000036
Figure BDA0003038336400000037
为第i轮对话中回复语句的第j个词,
Figure BDA0003038336400000038
为Ri的序列长度,UT表示第T轮用户话语,所述Ui和Ri均以词序列的形式输入,每个词序列后加入一个[SEP]符号作为语句结束标签。
将所述指定的情感类别标签
Figure BDA0003038336400000039
拼接在初始输入序列后,得到长序列文本
Figure BDA00030383364000000310
即包含情感标签的多轮对话序列,将EC和真实的回复语句
Figure BDA00030383364000000311
输入EmoGPT模型,指定候选语句数量K,将对话上下文复制K份并行输入EmoGPT中,模型每轮次生成K个候选词,将生成的候选词对应地拼接到上轮次的输入对话序列后面,再次输入EmoGPT模型中生成下一轮次的K个候选词,以此循环迭代,直到生成语句结束符号[SEP]或达到最大长度时停止,根据
Figure BDA00030383364000000312
将生成的K个回复序列进行情感重排序,得到最终的生成回复
Figure BDA00030383364000000313
其中,
Figure BDA00030383364000000314
表示第i轮对话中用户话语的情感标签,
Figure BDA00030383364000000315
表示第i轮对话中回复语句的情感标签。
通过最大化条件概率使EmoGPT模型不断地拟合真实数据中有显式情感的语言分布,最大化条件概率公式如下:
Figure BDA0003038336400000041
EmoGPT模型通过学习情感类别标签和文本的共现关系,从而能够在生成阶段以情感类别标签引导的方式,实现对生成回复情感的控制。
所述EmoGPT模型的循环迭代过程如下:
(1),加载GPT-2语言预训练模型,模型的权重和偏置参数为θ;
(2),前向传播得到生成的回复语句;
(3),使用交叉熵损失函数计算损失;
(4),反向传播更新θ;
(5),保存EmoGPT模型参数。
所述步骤2中,通过对EmoGPT模型同时生成的K句回复进行情感打分并重排序,选择与指定的情感类别最接近的回复语句作为最终的生成回复,从而保证生成回复的情感一致性。
所述重排序的流程如下:
(1)指定候选语句的数量K,将输入的多轮对话上文序列复制为K份;
(2)将K份对话上文序列并行输入EmoGPT模型,EmoGPT模型使用核采样的解码方法,解码出K个候选语句;
(3)根据指定的情感类别,使用训练好的情感分类器分别对K个候选语句计算损失值并排序;
(4)损失值最小的候选语句即为与指定情感类别最接近的语句,将其作为最终的回复。
与现有技术相比,本发明的有益效果是:
1)多轮对话场景下情感可控回复生成低信息,低质量的安全回复问题缓解:
EmoGPT底层利用大规模开放域语言预训练模型GPT-2。GPT-2大规模预训练模型在无监督多任务情况下拥有很好的表现,具备强大的语言建模能力,它经过微调和重排序能够根据指定的情感类别和多轮对话上文,进行较为可控的情感回复生成。对话上下文和情感类别标签进入GPT-2,然后GPT-2每一个模块逐词生成回复。通过微调算法的训练可以极大程度上缓解传统Seq2Seq带来的低信息,低质量的安全回复问题。
2)多轮对话场景下情感可控回复生成指定情感类别概率提高:
EmoGPT使用情感标签引导回复生成的方式来控制回复的情感,显著提升模型生成指定类情感的概率。
3)多轮对话场景下情感可控回复生成指定情感类别一致性得到可靠保证:
情感重排序策略,通过对EmoGPT同时生成的多句回复进行情感打分,选择与指定的情感类别最接近的回复语句作为最终的生成回复,可有效地保证生成回复的情感一致性。比起传统模型,EmoGPT能够显式地抽取对话语句的情感信息,有效控制生成回复的情感,避免生成回复的情感存在较大随机性;能够显著提高语言质量和情感一致性,且生成符合指定情感类别的高质量回复。
附图说明
图1为微调算法流程图。
图2为ER算法流程图。
图3为EmoGPT模型框架示意图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
本发明为一种情感可控回复生成方法,主要是设计微调算法对预训练模型进行微调以提高模型输出同类别情感的概率,缓解回复内容质量低,安全回复问题,并设计情感排序算法对模型输出的语句构建。本发明具体采用了基于大规模预训练语言模型即“预训练+微调”的方式,在“预训练+微调”方式上改进了“微调”策略,并新增了“重排序”策略。改进的“微调”策略对预训练模型调整使语言模型学习语义和情感的依赖关系;“重排序”策略是指情感重排序策略(Emotion Reranking,ER),本发明基于该策略选择与指定的情感类别最接近的回复语句作为最终的生成回复,有效地保证生成回复的情感一致性。
本发明主要包括两大步骤:
步骤1,大规模预训练语言模型是指GPT-2,将GPT-2预训练模型用在情感可控回复生成中,可缓解传统Seq2Seq出现的回复内容信息量少,低质量的安全回复问题,在语言质量和内容相关性和多样性等方面获得显著提升。本发明利用微调算法对GPT-2进行训练,即,使用带有情感类别标签的开放领域多轮对话语料训练GPT-2,通过将对话语句与其对应情感类别标签混合训练的方式,使语言模型学习语义和情感的依赖关系,得到适用于开放领域多轮对话的EmoGPT模型,EmoGPT通过学习情感类别标签和文本的共现关系,能够在生成阶段以情感类别标签引导的方式,实现对生成回复情感的控制。
本发明使用的大规模开放域语言预训练模型GPT-2是使用无情感标签的开放领域多轮对话语料训练得到的适用于开放领域多轮对话的语言模型,由多个Transformer模块堆栈构成,每个模块包含一个掩码注意力模块和前馈网络模块,GPT-2模型是在给已知序列进行条件概率建模,公式如下:
Figure BDA0003038336400000061
其中,{s1,s2,...,sn-1}表示输入序列,p(sn|s1,s2,...,sn-1)表示在输入序列的条件下下一个词sn的概率。
参考图1,本发明微调算法的具体流程为:
以对话上文Context={U1,R1,U2,R2,…,Ui,Ri,…,UT}和指定的情感类别标签
Figure BDA00030383364000000715
的拼接序列
Figure BDA0003038336400000071
为EmoGPT模型的初始输入,其中Ui表示第i轮对话中用户话语的词序列,
Figure BDA0003038336400000072
Figure BDA0003038336400000073
为第i轮对话中用户话语的第j个词,
Figure BDA0003038336400000074
为Ui的序列长度,Ri表示第i轮对话中回复语句的词序列,
Figure BDA0003038336400000075
Figure BDA0003038336400000076
为第i轮对话中回复语句的第j个词,
Figure BDA0003038336400000077
为Ri的序列长度,UT表示第T轮用户话语,Ui和Ri均以词序列的形式输入,每个词序列后加入一个[SEP]符号作为语句结束标签。EmoGPT模型逐词生成并输出符合指定情感的回复,直到生成语句结束符号[SEP]或达到最大长度时停止。
随后,将指定的情感类别标签
Figure BDA0003038336400000078
拼接在初始输入序列,得到长序列文本
Figure BDA0003038336400000079
即包含情感标签的多轮对话序列,将EC和真实的回复语句
Figure BDA00030383364000000710
输入EmoGPT模型,指定候选语句数量K,将对话上下文复制K份并行输入EmoGPT模型中,EmoGPT模型每轮次生成K个候选词,将生成的候选词对应地拼接到上轮次的输入对话序列后面,再次输入EmoGPT模型中生成下一轮次的K个候选词,以此循环迭代,直到生成语句结束符号[SEP]或达到最大长度时停止,根据
Figure BDA00030383364000000711
将生成的K个回复序列进行情感重排序,得到最终的生成回复
Figure BDA00030383364000000712
其中,
Figure BDA00030383364000000713
表示第i轮对话中用户话语的情感标签,
Figure BDA00030383364000000714
表示第i轮对话中回复语句的情感标签,情感类别标签、其他特殊标签与普通的词可共用一个词表。
可通过最大化条件概率使EmoGPT模型不断地拟合真实数据中有显式情感的语言分布,最大化条件概率公式如下:
Figure BDA0003038336400000081
EmoGPT模型通过学习情感类别标签和文本的共现关系,从而能够在生成阶段以情感类别标签引导的方式,实现对生成回复情感的控制。
EmoGPT模型的循环迭代过程如下:
(1),加载GPT-2语言预训练模型,模型的权重和偏置参数为θ;
(2),前向传播得到生成的回复语句;
(3),使用交叉熵损失函数计算损失;
(4),反向传播更新θ;
(5),保存EmoGPT模型参数。
图2所示为EmoGPT模型框架。对话上文和情感类别标签输入GPT-2第一个模块逐词生成回复,然后进入下一个模块,以此类推,最后一个模块输出的是K个带情感标签的回复,此时的K个回复与初始情感类别相似且回复内容质量均较高。
步骤2,利用EmoGPT模型,根据指定的情感类别标签
Figure BDA0003038336400000082
将生成的K个回复进行情感重排序,得到最终的生成回复
Figure BDA0003038336400000083
RT与原始情感类别最相近。其中,
Figure BDA0003038336400000084
T表示对话上下文中对话轮次,
Figure BDA0003038336400000085
为第T轮对话中回复语句的第j个词,t为RT的序列长度,即第T轮对话中回复语句的词的数量,K可由用户指定。
为了解决回复生成的情感和指定情感类别不一致问题,本发明通过对EmoGPT模型同时生成的K句回复进行情感打分并重排序,选择与指定的情感类别最接近的回复语句作为最终的生成回复,从而保证生成回复的情感一致性。
参考图3,重排序的流程如下:
1)加载情感分类器和EmoGPT模型。
2)指定候选语句的数量K,将输入的多轮对话上文序列复制为K份,记为ECs。
3)将K份对话上文序列并行输入EmoGPT模型,EmoGPT模型使用核采样的解码方法,解码出K个候选语句,解码公式如下:
Figure BDA0003038336400000091
其中,V是构造的最小候选集,p定义为0.95,该集合构造好之后重新归一化集合内词的概率,并把集合外的词概率设为0。
核采样的解码方法有别于贪婪搜索,该方法使得低概率的词也有被采样到的可能性,从而确保模型根据相同输入能够解码出不同的结果,大大提升生成回复的多样性,使得EmoGPT生成多个不同情感回复的可能性大幅提升,这是ER策略得以采用的前提。
4)使用训练好的情感分类器对ECs进行前向传播得到K个回复语句的情感类别记为
Figure BDA0003038336400000092
遍历情感类别列表
Figure BDA0003038336400000093
通过交叉熵函数计算每一个回复语句情感类别
Figure BDA0003038336400000094
的损失值;计算公式如下
Figure BDA0003038336400000095
其中,
Figure BDA0003038336400000096
为真实情感类别样本标签,
Figure BDA0003038336400000097
表示预测样本标签;该公式表征真实样本标签和预测样本概率之间的差值。
5)根据指定的情感类别,使用训练好的情感分类器分别对K个候选语句计算损失值并排序,损失值最小的候选语句即为与指定情感类别最接近的语句,将其作为最终的回复。
本发明的整体流程如下:
(1)搭建EmoGPT模型的GPT堆栈
(2)设计EmoGPT模型训练微调算法
(3)设计情感重排序算法
(4)对话上下文和指定情感类别输入GPT堆栈
(5)训练EmoGPT
(6)利用微调算法不断更新GPT堆栈参数,直至参数最优
(7)ER算法对EmoGPT输出的多个不同语句进行打分
对所得EmoGPT模型的PPL、Distinct、EC值进行评价
表1是本发明EmoGPT模型的可控情感回复生成实例,即,给定对话历史,通过指定不同回复情感类别,EmoGPT是否使用重排序算法的对应生成的回复,其中U代表用户话语,R代表回复语句。
表1
Figure BDA0003038336400000101
可以看出,使用本发明方法的情况下,回复明显更加贴合实际场景。

Claims (4)

1.一种利用微调和重排序策略的情感可控回复生成方法,其特征在于,包括:
步骤1,利用微调算法对大规模开放域语言预训练模型GPT-2进行训练,即,使用带有情感类别标签的开放领域多轮对话语料训练GPT-2,通过将对话语句与其对应情感类别标签混合训练的方式,使语言模型学习语义和情感的依赖关系,得到EmoGPT模型;
所述GPT-2模型由多个Transformer模块堆栈构成,EmoGPT模型的初始输入为对话上文Context和指定的情感类别标签
Figure FDA0003561166610000011
的拼接序列
Figure FDA0003561166610000012
模型逐词生成并输出符合指定情感的回复,直到生成语句结束符号[SEP]或达到最大长度时停止,其中,Context={U1,R1,U2,R2,…,Ui,Ri,…,UT},Ui表示第i轮对话中用户话语的词序列,
Figure FDA0003561166610000013
Figure FDA0003561166610000014
为第i轮对话中用户话语的第j个词,
Figure FDA0003561166610000015
为Ui的序列长度,Ri表示第i轮对话中回复语句的词序列,
Figure FDA0003561166610000016
Figure FDA0003561166610000017
为第i轮对话中回复语句的第j个词,
Figure FDA0003561166610000018
为Ri的序列长度,UT表示第T轮用户话语,所述Ui和Ri均以词序列的形式输入,每个词序列后加入一个[SEP]符号作为语句结束标签;
将所述指定的情感类别标签
Figure FDA0003561166610000019
拼接在初始输入序列后,得到长序列文本
Figure FDA00035611666100000110
即包含情感标签的多轮对话序列,将EC和真实的回复语句
Figure FDA00035611666100000111
输入EmoGPT模型,指定候选语句数量K,将对话上下文复制K份并行输入EmoGPT中,模型每轮次生成K个候选词,将生成的候选词对应地拼接到上轮次的输入对话序列后面,再次输入EmoGPT模型中生成下一轮次的K个候选词,以此循环迭代,直到生成语句结束符号[SEP]或达到最大长度时停止,根据
Figure FDA0003561166610000021
将生成的K个回复序列进行情感重排序,得到最终的生成回复
Figure FDA0003561166610000022
其中,
Figure FDA0003561166610000023
表示第i轮对话中用户话语的情感标签,
Figure FDA0003561166610000024
表示第i轮对话中回复语句的情感标签;
步骤2,利用EmoGPT模型,根据指定的情感类别标签
Figure FDA0003561166610000025
将生成的K个回复进行情感重排序,得到最终的生成回复
Figure FDA0003561166610000026
其中,
Figure FDA0003561166610000027
T表示对话上下文中对话轮次,
Figure FDA0003561166610000028
为第T轮对话中回复语句的第j个词,t为RT的序列长度,即第T轮对话中回复语句的词的数量;
通过对EmoGPT模型同时生成的K句回复进行情感打分并重排序,选择与指定的情感类别最接近的回复语句作为最终的生成回复,从而保证生成回复的情感一致性;
所述重排序的流程如下:
(1)指定候选语句的数量K,将输入的多轮对话上文序列复制为K份;
(2)将K份对话上文序列并行输入EmoGPT模型,EmoGPT模型使用核采样的解码方法,解码出K个候选语句;
(3)根据指定的情感类别,使用训练好的情感分类器分别对K个候选语句计算损失值并排序;
(4)损失值最小的候选语句即为与指定情感类别最接近的语句,将其作为最终的回复。
2.根据权利要求1所述利用微调和重排序策略的情感可控回复生成方法,其特征在于,所述大规模开放域语言预训练模型GPT-2是使用无情感标签的开放领域多轮对话语料训练得到的适用于开放领域多轮对话的语言模型。
3.根据权利要求1所述利用微调和重排序策略的情感可控回复生成方法,其特征在于,通过最大化条件概率使EmoGPT模型不断地拟合真实数据中有显式情感的语言分布,最大化条件概率公式如下:
Figure FDA0003561166610000031
EmoGPT模型通过学习情感类别标签和文本的共现关系,从而能够在生成阶段以情感类别标签引导的方式,实现对生成回复情感的控制。
4.根据权利要求3所述利用微调和重排序策略的情感可控回复生成方法,其特征在于,所述EmoGPT模型的循环迭代过程如下:
(1),加载GPT-2语言预训练模型,模型的权重和偏置参数为θ;
(2),前向传播得到生成的回复语句;
(3),使用交叉熵损失函数计算损失;
(4),反向传播更新θ;
(5),保存EmoGPT模型参数。
CN202110450102.3A 2021-04-25 2021-04-25 一种利用微调和重排序策略的情感可控回复生成方法 Active CN113139042B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110450102.3A CN113139042B (zh) 2021-04-25 2021-04-25 一种利用微调和重排序策略的情感可控回复生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110450102.3A CN113139042B (zh) 2021-04-25 2021-04-25 一种利用微调和重排序策略的情感可控回复生成方法

Publications (2)

Publication Number Publication Date
CN113139042A CN113139042A (zh) 2021-07-20
CN113139042B true CN113139042B (zh) 2022-04-29

Family

ID=76813511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110450102.3A Active CN113139042B (zh) 2021-04-25 2021-04-25 一种利用微调和重排序策略的情感可控回复生成方法

Country Status (1)

Country Link
CN (1) CN113139042B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780012B (zh) * 2021-09-30 2023-12-29 东南大学 基于预训练语言模型的抑郁症访谈对话生成方法
CN113723115B (zh) * 2021-09-30 2024-02-09 平安科技(深圳)有限公司 基于预训练模型的开放域问答预测方法及相关设备
CN115600582B (zh) * 2022-12-15 2023-04-07 电子科技大学 一种基于预训练语言模型的可控文本生成方法
CN116362237A (zh) * 2023-04-17 2023-06-30 内蒙古工业大学 一种混合策略感知的文本情感强度标注方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683672A (zh) * 2016-12-21 2017-05-17 竹间智能科技(上海)有限公司 一种基于情感和语义的智能对话方法及系统
CN108960402A (zh) * 2018-06-11 2018-12-07 上海乐言信息科技有限公司 一种面向聊天机器人的混合策略式情感安抚系统
CN110427490A (zh) * 2019-07-03 2019-11-08 华中科技大学 一种基于自注意力机制的情感对话生成方法与装置
CN111651609A (zh) * 2020-04-24 2020-09-11 中国电力科学研究院有限公司 一种融合知识图谱和情感监督的多轮对话方法及系统
CN112541063A (zh) * 2020-12-08 2021-03-23 山东师范大学 一种基于自学习对话模型的人机对话方法及系统
CN112579762A (zh) * 2021-02-24 2021-03-30 之江实验室 一种基于语义、情感惯性和情感共性的对话情感分析方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10818312B2 (en) * 2018-12-19 2020-10-27 Disney Enterprises, Inc. Affect-driven dialog generation
CN110990543A (zh) * 2019-10-18 2020-04-10 平安科技(深圳)有限公司 智能对话的生成方法、装置、计算机设备及计算机存储介质
CN111241250B (zh) * 2020-01-22 2023-10-24 中国人民大学 一种情感对话生成系统和方法
CN112214585B (zh) * 2020-09-10 2024-03-12 中国科学院深圳先进技术研究院 回复消息生成方法、系统、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683672A (zh) * 2016-12-21 2017-05-17 竹间智能科技(上海)有限公司 一种基于情感和语义的智能对话方法及系统
CN108960402A (zh) * 2018-06-11 2018-12-07 上海乐言信息科技有限公司 一种面向聊天机器人的混合策略式情感安抚系统
CN110427490A (zh) * 2019-07-03 2019-11-08 华中科技大学 一种基于自注意力机制的情感对话生成方法与装置
CN111651609A (zh) * 2020-04-24 2020-09-11 中国电力科学研究院有限公司 一种融合知识图谱和情感监督的多轮对话方法及系统
CN112541063A (zh) * 2020-12-08 2021-03-23 山东师范大学 一种基于自学习对话模型的人机对话方法及系统
CN112579762A (zh) * 2021-02-24 2021-03-30 之江实验室 一种基于语义、情感惯性和情感共性的对话情感分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Adapting a Language Model for Controlled Affective Text Generation;Singh I 等;《arXiv preprint arXiv:2011.04000》;20201108;1-15 *
基于生成模型的闲聊机器人自动评价方法综述;张璐 等;《中文信息学报》;20210315;第35卷(第03期);24-42 *

Also Published As

Publication number Publication date
CN113139042A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN113139042B (zh) 一种利用微调和重排序策略的情感可控回复生成方法
Yi et al. Efficiently fusing pretrained acoustic and linguistic encoders for low-resource speech recognition
Bai et al. Learn spelling from teachers: Transferring knowledge from language models to sequence-to-sequence speech recognition
You et al. Contextualized attention-based knowledge transfer for spoken conversational question answering
CN110459208A (zh) 一种基于知识迁移的序列到序列语音识别模型训练方法
CN109410949B (zh) 基于加权有限状态转换器的文本内容添加标点方法
CN110598222A (zh) 语言处理方法及装置、语言处理系统的训练方法及装置
CN116303966A (zh) 基于提示学习的对话行为识别系统
Li et al. Abstractive text summarization with multi-head attention
Guo et al. Unsupervised word-level prosody tagging for controllable speech synthesis
CN114937465A (zh) 一种基于自监督学习的语音情感识别方法和计算机设备
Wu et al. Rapid Style Adaptation Using Residual Error Embedding for Expressive Speech Synthesis.
CN114547261A (zh) 针对请求和情感标签生成的带有指定情感的机器回复方法
Zhao et al. Knowledge-aware bayesian co-attention for multimodal emotion recognition
CN112967720B (zh) 少量重口音数据下的端到端语音转文本模型优化方法
CN112417125B (zh) 基于深度强化学习的开放域对话回复方法及系统
Yang et al. Improving emotional speech synthesis by using sus-constrained vae and text encoder aggregation
Mounika et al. Automatic Correction of Speech Recognized Mathematical Equations using Encoder-Decoder Attention Model
CN113326367A (zh) 基于端到端文本生成的任务型对话方法和系统
US20230317059A1 (en) Alignment Prediction to Inject Text into Automatic Speech Recognition Training
Jalaja et al. A behavioral chatbot using encoder-decoder architecture: Humanizing conversations
Liu et al. Investigating for punctuation prediction in Chinese speech transcriptions
CN113553837A (zh) 阅读理解模型的训练方法和装置、文本分析的方法和装置
Yamazaki et al. Filler prediction based on bidirectional lstm for generation of natural response of spoken dialog
Selouani et al. Long short-term memory neural networks for artificial dialogue generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant