CN116561265A - 个性化对话生成方法和模型训练方法以及设备 - Google Patents

个性化对话生成方法和模型训练方法以及设备 Download PDF

Info

Publication number
CN116561265A
CN116561265A CN202310140734.9A CN202310140734A CN116561265A CN 116561265 A CN116561265 A CN 116561265A CN 202310140734 A CN202310140734 A CN 202310140734A CN 116561265 A CN116561265 A CN 116561265A
Authority
CN
China
Prior art keywords
personalized information
dialogue
personalized
dialog
reply
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310140734.9A
Other languages
English (en)
Inventor
樊海润
王小捷
袁彩霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202310140734.9A priority Critical patent/CN116561265A/zh
Publication of CN116561265A publication Critical patent/CN116561265A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了一种个性化对话生成方法和模型训练方法以及设备,其中,模型训练方法包括:获取样本数据和个性化信息集合;所述样本数据包括对话过程文本数据和相应的个性化信息标签;个性化信息集合包含每个对话个体的个性化信息,所述对话个体为样本数据中的对话参与者;利用个性化对话生成模型,基于所述样本数据和个性化信息集合,为相应对话过程中的每轮对话,生成系统回复语句;其中,基于当前的对话历史和个性化信息集合,预测当前对话需要表现的个性化信息,基于预测结果、对话历史和个性化信息集合,生成系统回复语句,并利用相应的损失函数值,优化调整个性化对话生成模型参数。采用本申请,可以提高回复生成的个性化且具有可解释性。

Description

个性化对话生成方法和模型训练方法以及设备
技术领域
本发明涉及人工智能技术,特别是涉及一种个性化对话生成模型的训练方法、个性化对话生成方法以及相应设备。
背景技术
随着自然语言处理领域的发展,人机对话技术在各个领域得到了广泛的关注与应用,目前较为成熟的应用包括智能助理、智能客服与各式各样的聊天机器人。开放域对话系统,也称为聊天对话系统或非面向任务的对话系统,其旨在通过满足人类对交流、情感和社会归属的需求,与用户建立长期联系,开放域对话系统没有任何限定的主题或明确的目标,用户和系统之间可以进行任何话题的自由对话,这要求系统具备丰富的知识,能完成多项任务。随着开放域对话的不断发展,人们越来越希望看到一个能够在对话中表现自然的智能代理,以获得与人-人对话相近的对话体验,但传统的开放域对话模型存在着一系列问题,主要包括:(1)普通的开放域对话模型由于通常基于来自不同个体的不同对话进行训练,难以从多样的数据中模拟信息前后一致的对话个体;(2)缺乏长期记忆,这会导致模型在多轮对话后遗忘较早轮次的对话历史,生成与这部分历史不匹配的回复,如重复较早轮次的信息或给出与这部分信息相冲突的回复;(3)倾向于给出不明确的和常见答案,比如“我不知道”,“好的”,“我们来聊聊别的事吧”等一般性回复,这种回复往往会由于不具备信息量而使得对话过程表现的不够自然。
为了解决上述问题,目前提出了个性化对话生成任务。个性化对话生成任务属于开放领域对话生成任务的一个分支,个性化对话生成任务除对话语料之外,还引入了对话者的个性化信息。所谓个性化信息,指能区分不同说话者的各种信息,如姓名、年龄、性别、喜好等个体属性、说话风格等。个性化对话生成任务通过为对话代理赋予特定的个性化信息,使其在对话过程中维持一致的个性信息,并解决对话过程中大量出现一般性回答的问题。
现有的个性化对话生成方案主要基于大规模预训练语言模型,使用目前已发布的个性化对话数据集,进行个性化对话生成模型的训练。在训练模型时,将所有个性化信息拼接对话历史后,输入模型处理,以期模型习得系统回复信息与用户个性化信息之间的联系。
发明人在实现本发明的过程中发现,现有的个性化对话生成方案存在模型在训练时难以习得回复与特定个性化信息之间的直接联系,进而影响回复生成的个性化,以及回复生成过程缺乏可解释性等问题。发明人经过认真研究分析后发现上述问题存在的具体原因主要如下:
1、现有个性化对话生成模型所采用的个性化对话数据集中,并不对对话语句中的个性化信息进行标识。在模型训练过程中,是将全部个性化信息输入模型,让模型建立输出与对话历史和所有个性化信息之间的联系。但是,在真实场景的对话中,一个回复语句往往仅表现一至两种个性化信息,而非全部的个性化信息。故,现有方案采用的模型训练方法会导致模型难以习得回复与特定个性化信息之间的直接联系,从而导致所生成的回复语句不够智能。
2、由于模型训练过程中使用全部的个性化信息,且回复生成过程中只能将所有个性化信息作为输入传入模型中,故无法指定模型表达特定的个性化信息。而如果仅将需要表现的个性化信息输入模型中,又会导致模型输出的语句与其他个性化信息相冲突。这样,现有方案无法在保证模型输出吻合全部角色设定的同时,突出表现某条或某几条个性化信息,因此,无法确保能够输出符合指定个性化信息的回复语句。
3、由于现有个性化对话生成模型使用全部的个性化信息作为输入,且如上文1中所述,模型训练过程中难以习得回复与特定个性化信息之间的直接联系,因此,在应用个性化对话模型生成回复时,模型无法给出其依据的个性化信息,从而导致回复生成过程缺乏可解释性。
发明内容
有鉴于此,本发明的主要目的在于提供一种个性化对话生成方法和模型训练方法以及相应设备,可以提高系统回复生成的智能化,并使得回复生成过程具有可解释性。
为了达到上述目的,本发明实施例提出的技术方案为:
一种个性化对话生成模型的训练方法,包括:
从预设样本数据集中获取第一样本数据和第一个性化信息集合;所述第一样本数据包括对话过程文本数据和相应的个性化信息标签;所述个性化信息标签用于指示对话语句关联的个性化信息;所述第一个性化信息集合包含所有第一对话个体的个性化信息,所述第一对话个体为所述第一样本数据中的对话参与者;
利用个性化对话生成模型,基于所述第一样本数据和所述第一个性化信息集合,为相应对话过程中的每轮对话,生成系统回复语句;其中,在生成系统回复语句时,基于当前的对话历史和所述第一个性化信息集合,预测当前对话需要表现的个性化信息,并基于所述预测的结果、所述对话历史和所述第一个性化信息集合,生成所述系统回复语句;
基于所述系统回复语句,计算损失函数值,利用所述损失函数值,对所述个性化对话生成模型的参数进行优化调整。
本发明实施例还提出一种个性化对话生成方法,包括:
在人机对话过程中,利用预先训练的个性化对话生成模型,为每轮对话的用户语句,预测当前对话需要表现的个性化信息,基于所述预测的结果,生成并输出相应的系统回复语句;其中,所述个性化对话生成模型基于如上所述个性化对话生成模型的训练方法得到。
本发明实施例还提出一种个性化对话生成模型的训练设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述个性化对话生成模型的训练方法。
本发明实施例还提出一种个性化对话生成设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述个性化对话生成方法。
综上所述,本发明实施例提出的个性化对话生成模型的训练方案和个性化对话生成方案,在生成系统回复语句时,需要先基于当前对话历史和相应对话个体的个性化信息集合,预测当前对话需要表现的个性化信息,然后再基于预测出的个性化信息、当前对话历史以及所述个性化信息集合,生成所述系统回复语句。如此,通过先分别评估对话个体的每条预设个性化信息与当前对话历史的匹配程度,预测出当前对话适合突出表现的个性化信息,再将所预测的个性化信息与当前对话历史以及机器所代表对话个体的所有个性化信息进行融合,生成系统回复语句,可以使得系统回复语句既能与相应个体的所有个性化信息相匹配,又能呈现出当前对话需要突出表现的个性化信息,从而使得对话过程具有真人间对话的自然性,进而增强了对话的智能性。并且,由于在系统回复语句过程中,引入了对当前对话历史需要表现的个性化信息的预测,并基于预测结果,进行系统回复语句的生成,如此,可以根据预测结果获知与所生成的系统回复语句相关联的个性化信息,从而使得回复生成过程具有可解释性。
附图说明
图1为本发明实施例的模型训练方法流程示意图;
图2为本发明实施例的个性化对话生成模型结构示意图;
图3为本发明实施例的个性化信息预测器结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1为本发明实施例的个性化对话生成模型的训练方法流程示意图,如图1所示,该实施例主要包括:
步骤101、从预设样本数据集中获取第一样本数据和第一个性化信息集合;所述第一样本数据包括对话过程文本数据和相应的个性化信息标签;所述个性化信息标签用于指示对话语句关联的个性化信息;所述第一个性化信息集合包含所有第一对话个体的个性化信息,所述第一对话个体为所述第一样本数据中的对话参与者。
本步骤用于获取样本数据以及相应对话个体的预设个性化信息,以进行模型训练。
这里需要说明的是,考虑到在现有方案中,是将对话个体的所有预设个性化信息直接输入模型中进行训练,并不对对话数据中的个性化信息进行标识,使得模型无法通过训练习得回复与特定个性化信息之间的直接联系,从而影响了回复的智能性。基于此,本实施例中,与现有方案不同的是,样本数据中不仅包含了对话过程数据,还包含了个性化信息标签,以对对话过程数据中对话语句所关联的预设个性化信息进行指示(即指示出对话语句与相应个体的哪些预设个性化信息相关联),这样,基于个性化信息标签和相应对话个体的预设个性化信息集合,即可获知相应对话语句所涉及的个性化信息,如此,基于个性化信息标签,可以将回复语句中需要突出表现的一条或多条个性化信息引入模型训练过程,使得模型可以习得回复与特定个性化信息之间的直接联系,从而能够输出符合指定个性化信息的回复语句,进而可以提高回复生成的智能化。
例如,对话人物a的个性化信息集合包含下述信息:
信息序号1:姓名:“先知”战斗系统;
信息序号12:种族:智能机械;
信息序号33:身份星际警察;
假设在一对话过程中,对话人物a具有下述对话语句:
语句1:“我不是什么英雄,我是“先知”战斗系统”;
语句2:“我是智能机械”;
语句3:“我们有监控摄像为证据的”
上述语句1具有个性化信息标签为“1”;上述语句2具有个性化信息标签为“12”;上述语句3具有个性化信息标签为“33”。
在实际应用中,可以增加样本数据集的对话段数、话题类型、对话个体数、情绪类型、每段对话的对话轮数以及对话个体的个性化信息类型等,以提高人机对话的智能性,使得人体对话更接近于真实的人与人之间的对话。
较佳地,样本数据中的对话过程文本数据包含至少9轮对话和至少13个个性化信息标签;样本数据集包含至少500个对话个体以及具有至少5种情绪的个性化信息标签。这样,通过使得对话过程文本数据包含较多轮次的对话,可以使得对话内容更加丰富、更接近真实的人与人之间对话场景,对于话题的讨论也会更加深入,而不再局限于初始见面的打招呼、寒暄之类言词。
例如,在一实施方式中,样本数据集的语言为中文,包含1911段对话,92639个语句,平均每段对话包含24.24轮,2181名角色,18种情绪,个性化信息类型包括姓名、年龄、种族、故乡、性别、体格、身份、喜好、厌恶、装备物品、持有物品、载具、携带物品、人格描述以及其他描述,个性化信息形式包括标签、数值与描述。
较佳地,为了使得对话更接近于真实地人与人之间的对话,在采集样本数据集中的对话过程数据时,不强制或引导用户在对话中刻意体现个性化信息。
较佳地,为了提高个性化信息标签的准确性,可以采用人工方式生成个性化信息标签,以提高样本数据集质量。
步骤102、利用个性化对话生成模型,基于所述第一样本数据和所述第一个性化信息集合,为相应对话过程中的每轮对话,生成系统回复语句;其中,在生成系统回复语句时,基于当前的对话历史和所述第一个性化信息集合,预测当前对话需要表现的个性化信息,并基于所述预测的结果、所述对话历史和所述第一个性化信息集合,生成所述系统回复语句。
本步骤与现有方案所不同的是,在为每轮对话,生成系统回复语句(即个性化对话生成系统为其代表的对话个体生成的回复语句)时,需要先预测当前对话需要表现的个性化信息,再基于预测到的个性化信息,结合对话历史和当前对话所涉及对话个体的预设个性化信息集合(即第一个性化信息集合),生成所述系统回复语句。如此,可以使得系统回复语句既能与系统所扮演角色的所有个性化信息相匹配,又能呈现出当前对话需要突出表现的个性化信息,从而使得对话过程具有真人间对话的自然性,进而增强了对话的智能性。另外,通过在生成系统回复语句的过程中,引入了对当前对话历史需要表现的个性化信息的预测结果,使得可以根据预测结果获知与所生成的系统回复语句相关联的个性化信息,从而使得回复生成过程具有可解释性。
图2给出了本发明实施例的个性化对话生成模型结构示意图,如图2所示,该模型由个性化信息预测器、个性化信息压缩器和回复生成器组成。图中P={p1,p2,...,pm}为对话数据中所有对话个体的全部预设个性化信息集合,P′={pn,pn+1,...,pm}为对话数据中由机器扮演角色(即对话系统所代表的对话个体)的全部预设个性化信息集合,该集合由P={p1,p2,...,pm}中的部分数据构成,其中,pi为单条个性化信息,例如爱好、年龄、性别等,Ci为对话历史。ri为生成的系统回复语句。在训练个性化对话生成模型时,先对个性化信息预测器单独进行训练,然后再利用预训练的个性化信息预测器,对整个个性化对话生成模型进行训练,使其可以智能地生成系统回复语句。
一种实施方式中,基于上述个性化对话生成模型结构,对于对话过程中的每轮对话,较佳地可以采用下述方法生成系统回复语句:
步骤201、利用个性化信息压缩器,对第一个性化信息矩阵进行编码,并对编码结果进行平均池化,得到压缩后的第一个性化信息序列;所述第一个性化信息矩阵基于对所述第一个性化信息集合中机器所代表对话个体的所有个性化信息进行符号化处理得到。
所述个性化信息压缩器用于对过长的个性化信息进行压缩,使其能够输入回复生成器中,其主要部分为一个预训练语言模型编码器,该编码器结构与回复生成器中的编码器结构相同。
需要说明的是,为了使得模型能够充分习得个性化回复能力,降低生成较少信息量回复语句的可能性,本实施例中考虑增加输入模型的个性化信息数量。但是,受限于硬件处理能力,输入回复生成器的个性化信息规模也会受到限制,为此,本步骤引入了个性化信息压缩器,对个性化信息集合中由机器代表的个体的全部个性化信息进行压缩,得到压缩后的个性化信息序列(即第一个性化信息序列),该序列的长度缩短至原始长度的10%~20%,这样,通过信息压缩,使得大量地个性化信息能够输入回复生成器中,从而可以确保能够利用更丰富的个性化信息对模型进行训练。
在实际应用中,当个性化信息集合中的信息条数较多时,受限于预训练语言模型的序列长度限制,可以将机器所代表对话个体的个性化信息划分为若干份,每份作为一个编码批次,先分批次对机器所代表个体的个性化信息编码,再基于所有批次的编码结果进行平均池化,得到上述第一个性化信息序列。
步骤202、利用预先训练的个性化信息预测器,基于当前的对话历史和所述第一个性化信息集合中的个性化信息,预测当前对话需要表现的个性化信息。
本步骤,为了使得回复生成器能够针对当前对话需要突出的个性化信息,来生成当前机器所扮演对话角色的回复语句,利用预先训练的个性化信息预测器,来预测当前对话轮次的对话历史所需要表现的个性化信息。
较佳地,一种实施方式中,个性化信息预测器可以在预测到当前对话轮次的对话历史所需要表现的个性化信息非空时,输出当前预测的个性化信息,以使得相关人员获知生成回复语句所依据的个性化信息,使模型训练呈现出可解释性。
图3给出了本发明实施例的个性化信息预测器结构示意图,如图3所示,该个性化信息预测器包括一编码器(如BERT)与一个多层感知机(MLP),其输入为对话历史与单条个性化信息拼接得到的序列,以习得训练数据中对话历史与单条个性化信息的组合方式。其中,pi为单条个性化信息,Ci为对话历史。Mk为个性化信息预测器求得的分数,0为不匹配,1为匹配,代表对话历史与该条个性化信息相匹配,其监督信号为已标记的个性化信息与对话历史的匹配关系。
一种实施方式中,基于图3所示的个性化信息预测器,具体可以采用下述方法预先对个性化信息预测器进行训练:
步骤301、从所述样本数据集中获取第二样本数据和第二个性化信息集合;所述第二样本数据包括第二对话过程文本数据和相应的个性化信息标签;所述第二个性化信息集合包含所有第二对话个体的个性化信息,所述第二对话个体为所述第二样本数据中的对话参与者。
步骤302、利用所述个性化信息预测器,基于所述第二样本数据和所述第二个性化信息集合,为相应对话过程中的每轮对话,预测相应对话历史需要表现的个性化信息。
其中,对于每轮对话,具体可以采用下述方法预测相应对话历史需要表现的个性化信息:
对所述第二个性化信息集合中的每条个性化信息以及当前的对话历史进行符号化处理,将符号化处理后的每条个性化信息分别与符号化处理后的所述对话历史进行拼接,并将拼接结果输入所述个性化信息预测器的编码器进行编码,基于编码得到的隐状态,利用所述个性化信息预测器的多层感知机,预测当前对话需要表现的个性化信息。
一种实施方式中,上述个性化信息预测器的编码器具体可以为预训练的语言模型(如BERT)。在利用上述方法训练个性化信息预测器时,每条个性化信息分别与对话历史进行组合,输入预训练语言模型,得到一个隐状态矩阵,之后将隐状态矩阵中特殊符号[CLS]所处位置的向量输入多层感知机(MLP),得到一个预测分数,该分数代表对话历史与该条个性化信息是否匹配。通过这种训练方式,个性化信息预测器能够根据对话历史预测当前对话需要表现的个性化信息。公式如下:
Hk=Bert(pk,Ci);Mk=MLP(Hk[CLS])
其中,Hk为第k条个性化信息pk与对话历史Ci拼接后输入编码器BERT得到的隐状态,Hk[CLS]为Hk中处于特殊符号[CLS]位置的隐状态,Mk为MLP输出的第k条个性化信息与对话历史Ci的匹配分数,即个性化信息预测器求得的预测分数。
步骤203、利用回复生成器,基于所述对话历史、所述预测得到的个性化信息以及所述第一个性化信息序列,生成当前回复序列的概率分布。
本步骤中,用于生成当前回复序列的概率分布的个性化信息有两种,一种是由机器(即对话系统)所代表对话个体的全部信息进行平均池化后得到的第一个性化信息序列,另一种是由个性化信息预测器从参与对话的所有对话个体的个性化信息中筛选得到的个性化信息(即当前对话需要表现的个性化信息),前者由于融合了机器角色的所有个性化信息,对预测结果的影响较小,属于弱影响因素,后者由于指定了某条或某几条个性化信息,且在训练过程中与回复内容高度相关,故属于强影响因素,这种关系符合自然人之间的对话规律。
这里,通过基于步骤202中预测的当前对话历史需要表现的个性化信息、当前的对话历史以及机器所代表个体的所有个性化信息压缩后的序列,生成当前回复序列的概率分布,可以使得模型的回复生成器能够捕捉到三者之间的联系,从而使得所生成的系统回复语句既能与机器所代表对话个体的所有个性化信息相匹配,又能呈现出当前对话需要突出表现的个性化信息,进而增强了对话回复生成的个性化,使得对话过程具有真人间对话的自然性。
一种实施方式中,具体可以采用下述方法生成当前回复序列的概率分布:
将所述预测得到的个性化信息与所述对话历史进行拼接,并将拼接结果输入所述回复生成器的编码器进行编码,得到第一隐状态;
将所述第一隐状态和所述第一个性化信息序列进行拼接,并将拼接结果输入所述回复生成器的编码器进行编码,将编码得到的第二隐状态,输入所述回复生成器的解码器进行解码,得到当前回复序列的概率分布。
上述方法中,将压缩后的个性化信息的隐状态(即第一个性化信息序列)与回复生成器输出的第一隐状态拼接后,再次输入编码器进行编码,有利于将全部个性化信息、个性化信息预测器选择的个性化信息以及对话历史三者进行融合,有利于回复生成器捕捉三者之间的联系。
步骤204、基于所述概率分布,生成当前的系统回复语句。
本步骤的具体可以采用现有方法实现,在此不再赘述。
步骤103、基于所述系统回复语句,计算损失函数值,利用所述损失函数值,对所述个性化对话生成模型的参数进行优化调整。
本步骤的具体实现为本领域技术人员所掌握,在此不再赘述。
基于上述个性化对话生成模型的训练方法实施例,相应地,本发明实施例还提出一种个性化对话生成方法,该方法包括:
在人机对话过程中,利用预先训练的个性化对话生成模型,为每轮对话的用户语句,预测当前对话需要表现的个性化信息,基于所述预测的结果,生成并输出相应的系统回复语句;其中,所述个性化对话生成模型基于上述个性化对话生成模型的训练方法得到。
较佳地,一种实施方式中,所述方法进一步包括:
当所述预测的结果非空时,输出所述预测的个性化信息。
基于上述个性化对话生成模型的训练方法实施例,相应地,本发明实施例还提出一种个性化对话生成模型的训练设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述个性化对话生成模型的训练方法。
上述个性化对话生成模型的训练方法和设备是基于同一发明构思的,由于方法及设备解决问题的原理相似,因此,设备和方法的实施可以相互参见,重复之处不再赘述。
基于上述个性化对话生成方法实施例,相应地,本发明实施例还提出一种个性化对话生成设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述个性化对话生成方法。
其中,个性化对话生成方法和设备是基于同一发明构思的,由于方法及设备解决问题的原理相似,因此,设备和方法的实施可以相互参见,重复之处不再赘述。
另外,本发明的每一个实施例可以通过由数据处理设备如计算机执行的数据处理程序来实现。显然,数据处理程序构成了本发明。此外,通常存储在一个存储介质中的数据处理程序通过直接将程序读取出存储介质或者通过将程序安装或复制到数据处理设备的存储设备(如硬盘和或内存)中执行。因此,这样的存储介质也构成了本发明。存储介质可以使用任何类型的记录方式,例如纸张存储介质(如纸带等)、磁存储介质(如软盘、硬盘、闪存等)、光存储介质(如CD-ROM等)、磁光存储介质(如MO等)等。因此本发明还公开了一种存储介质,其中存储有数据处理程序,该数据处理程序用于执行本发明上述方法的任何一种实施例。
另外,本发明所述的方法步骤除了可以用数据处理程序来实现,还可以由硬件来实现,例如,可以由逻辑门、开关、专用集成电路(ASIC)、可编程逻辑控制器和嵌入微控制器等来实现。因此这种可以实现本发明所述方法的硬件也可以构成本发明。
本说明书及实施例中所述方案,如涉及个人信息处理,则均会在具备合法性基础(例如征得个人信息主体同意,或者为履行合同所必需等)的前提下进行处理,且仅会在规定或者约定的范围内进行处理。用户拒绝处理基本功能所需必要信息以外的个人信息,不会影响用户使用基本功能。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种个性化对话生成模型的训练方法,其特征在于,包括:
从预设样本数据集中获取第一样本数据和第一个性化信息集合;所述第一样本数据包括对话过程文本数据和相应的个性化信息标签;所述个性化信息标签用于指示对话语句关联的个性化信息;所述第一个性化信息集合包含所有第一对话个体的个性化信息,所述第一对话个体为所述第一样本数据中的对话参与者;
利用个性化对话生成模型,基于所述第一样本数据和所述第一个性化信息集合,为相应对话过程中的每轮对话,生成系统回复语句;其中,在生成系统回复语句时,基于当前的对话历史和所述第一个性化信息集合,预测当前对话需要表现的个性化信息,并基于所述预测的结果、所述对话历史和所述第一个性化信息集合,生成所述系统回复语句;
基于所述系统回复语句,计算损失函数值,利用所述损失函数值,对所述个性化对话生成模型的参数进行优化调整。
2.根据权利要求1所述的方法,其特征在于,所述为相应对话过程中的每轮对话,生成系统回复语句包括:
利用个性化信息压缩器,对第一个性化信息矩阵进行编码,并对编码结果进行平均池化,得到压缩后的第一个性化信息序列;所述第一个性化信息矩阵基于对所述第一个性化信息集合中机器所代表个体的所有个性化信息进行符号化处理得到;
利用预先训练的个性化信息预测器,基于当前的对话历史和所述第一个性化信息集合中的个性化信息,预测当前对话需要表现的个性化信息;
利用回复生成器,基于所述对话历史、所述预测得到的个性化信息以及所述第一个性化信息序列,生成当前回复序列的概率分布;
基于所述概率分布,生成当前的系统回复语句。
3.根据权利要求2所述的方法,其特征在于,所述生成当前回复序列的概率分布包括:
将所述预测得到的个性化信息与所述对话历史进行拼接,并将拼接结果输入所述回复生成器的编码器进行编码,得到第一隐状态;
将所述第一隐状态和所述第一个性化信息序列进行拼接,并将拼接结果输入所述回复生成器的编码器进行编码,将编码得到的第二隐状态,输入所述回复生成器的解码器进行解码,得到当前回复序列的概率分布。
4.根据权利要求1所述的方法,其特征在于,所述个性化信息预测器的预先训练包括:
从所述样本数据集中获取第二样本数据和第二个性化信息集合;所述第二样本数据包括第二对话过程文本数据和相应的个性化信息标签;所述第二个性化信息集合包含所有第二对话个体的个性化信息,所述第二对话个体为所述第二样本数据中的对话参与者;
利用所述个性化信息预测器,基于所述第二样本数据和所述第二个性化信息集合,为相应对话过程中的每轮对话,预测相应对话历史需要表现的个性化信息;其中所述预测包括:对所述第二个性化信息集合中的每条个性化信息以及当前的对话历史进行符号化处理,将符号化处理后的每条个性化信息分别与符号化处理后的所述对话历史进行拼接,并将拼接结果输入所述个性化信息预测器的编码器进行编码,基于编码得到的隐状态,利用所述个性化信息预测器的多层感知机,预测当前对话需要表现的个性化信息。
5.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
当所述预测的结果非空时,输出所述预测的个性化信息。
6.一种个性化对话生成方法,其特征在于,包括:
在人机对话过程中,利用预先训练的个性化对话生成模型,为每轮对话的用户语句,预测当前对话需要表现的个性化信息,基于所述预测的结果,生成并输出相应的系统回复语句;其中,所述个性化对话生成模型基于权利要求1至5任一项所述个性化对话生成模型的训练方法得到。
7.根据权利要求6所述的方法,其特征在于,所述方法进一步包括:
当所述预测的结果非空时,输出所述预测的个性化信息。
8.一种个性化对话生成模型的训练设备,其特征在于,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如权利要求1至5中任一项所述个性化对话生成模型的训练方法。
9.一种个性化对话生成设备,其特征在于,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如权利要求6所述个性化对话生成方法。
CN202310140734.9A 2023-02-14 2023-02-14 个性化对话生成方法和模型训练方法以及设备 Pending CN116561265A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310140734.9A CN116561265A (zh) 2023-02-14 2023-02-14 个性化对话生成方法和模型训练方法以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310140734.9A CN116561265A (zh) 2023-02-14 2023-02-14 个性化对话生成方法和模型训练方法以及设备

Publications (1)

Publication Number Publication Date
CN116561265A true CN116561265A (zh) 2023-08-08

Family

ID=87502555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310140734.9A Pending CN116561265A (zh) 2023-02-14 2023-02-14 个性化对话生成方法和模型训练方法以及设备

Country Status (1)

Country Link
CN (1) CN116561265A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117332823A (zh) * 2023-11-28 2024-01-02 浪潮电子信息产业股份有限公司 目标内容自动生成方法、装置、电子设备及可读存储介质
CN117725414A (zh) * 2023-12-13 2024-03-19 北京海泰方圆科技股份有限公司 训练内容生成模型方法、确定输出内容方法、装置及设备
CN117787293A (zh) * 2024-02-27 2024-03-29 南京信息工程大学 一种基于大语言模型的个性化对话生成方法及系统
CN117787293B (zh) * 2024-02-27 2024-05-24 南京信息工程大学 一种基于大语言模型的个性化对话生成方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117332823A (zh) * 2023-11-28 2024-01-02 浪潮电子信息产业股份有限公司 目标内容自动生成方法、装置、电子设备及可读存储介质
CN117332823B (zh) * 2023-11-28 2024-03-05 浪潮电子信息产业股份有限公司 目标内容自动生成方法、装置、电子设备及可读存储介质
CN117725414A (zh) * 2023-12-13 2024-03-19 北京海泰方圆科技股份有限公司 训练内容生成模型方法、确定输出内容方法、装置及设备
CN117787293A (zh) * 2024-02-27 2024-03-29 南京信息工程大学 一种基于大语言模型的个性化对话生成方法及系统
CN117787293B (zh) * 2024-02-27 2024-05-24 南京信息工程大学 一种基于大语言模型的个性化对话生成方法及系统

Similar Documents

Publication Publication Date Title
CN106448670B (zh) 基于深度学习和强化学习的自动回复对话系统
Zadeh et al. Memory fusion network for multi-view sequential learning
CN111966800B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN111897933B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
US20200082928A1 (en) Assisting psychological cure in automated chatting
CN116561265A (zh) 个性化对话生成方法和模型训练方法以及设备
Merdivan et al. Dialogue systems for intelligent human computer interactions
Kao et al. Model of multi-turn dialogue in emotional chatbot
Chi et al. Speaker role contextual modeling for language understanding and dialogue policy learning
CN110427454B (zh) 文本情绪分析方法及装置、电子设备和非暂态存储介质
CN112767910A (zh) 音频信息合成方法、装置、计算机可读介质及电子设备
CN112765333B (zh) 基于情感与提示词结合的自动对话生成方法及系统
CN112364148B (zh) 一种基于深度学习方法的生成型聊天机器人
CN115563290B (zh) 一种基于语境建模的智能情感识别方法
CN109800295A (zh) 基于情感词典和词概率分布的情感会话生成方法
CN114091466A (zh) 一种基于Transformer和多任务学习的多模态情感分析方法及系统
CN112199486A (zh) 一种办公场景的任务型多轮对话方法及系统
CN115186056A (zh) 文本风格迁移方法、装置、电子设备及存储介质
CN111522924A (zh) 一种带有主题感知的情感聊天式回复生成方法
CN117370512A (zh) 回复对话的方法、装置、设备及存储介质
CN117271745A (zh) 一种信息处理方法、装置及计算设备、存储介质
CN116384412B (zh) 对话内容生成方法及装置、计算机可读存储介质、终端
CN109961152B (zh) 虚拟偶像的个性化互动方法、系统、终端设备及存储介质
Ai et al. A Two-Stage Multimodal Emotion Recognition Model Based on Graph Contrastive Learning
Wei et al. Investigating the relationship between dialogue and exchange-level impression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination