CN114036960A - 一种多粒度个性化对话生成方法 - Google Patents

一种多粒度个性化对话生成方法 Download PDF

Info

Publication number
CN114036960A
CN114036960A CN202111429462.1A CN202111429462A CN114036960A CN 114036960 A CN114036960 A CN 114036960A CN 202111429462 A CN202111429462 A CN 202111429462A CN 114036960 A CN114036960 A CN 114036960A
Authority
CN
China
Prior art keywords
user
personalized
generation
granularity
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111429462.1A
Other languages
English (en)
Other versions
CN114036960B (zh
Inventor
窦志成
钟函汛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renmin University of China
Original Assignee
Renmin University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renmin University of China filed Critical Renmin University of China
Priority to CN202111429462.1A priority Critical patent/CN114036960B/zh
Publication of CN114036960A publication Critical patent/CN114036960A/zh
Application granted granted Critical
Publication of CN114036960B publication Critical patent/CN114036960B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明通过人工智能技术领域的方法,实现了一种多粒度个性化对话生成方法与系统。方案通过用户组识别模块、用户感知的编码器模块、多粒度解码器模块、历史解码器、生成器模块组成。本发明提供的方法可以从用户的对话历史记录中自动提取个性化信息,并使用该信息生成个性化响应。同时,为了充分利用所有对话数据的语义信息,同时避免不同的用户相互干扰。设计了一种多粒度的个性化生成方法。

Description

一种多粒度个性化对话生成方法
技术领域
本发明涉及人工智能技术领域,尤其涉及一种多粒度个性化对话生成方法。
背景技术
训练可以通过图灵测试的对话系统一直是人工智能领域的一个重要目标。现有对话系统的一个普遍问题是生成的回复缺乏特异性,无法维持并显示出一致的个性。这些问题的一个重要原因是对话者在人类自然对话过程中始终具有排他性的背景和作用。具体来说,根据职位,人们的兴趣,个性和特定环境,人们将做出各种有效的反应。因此,具有特定个性将是提高对话系统效果的重要方向,这是对话系统通过图灵测试的关键。个性化对话系统的现有方法主要集中在利用预定义的描述性句子或属性来指导对话过程,他们通过对包含用户的明确个性化信息的一些句子进行编码来生成个性化响应。其他一些研究人员希望在对话过程中直接学习用户的个性化信息。因此,他们使用用户ID嵌入为每个用户提供唯一的向量表示,并期望此向量会指导最终的对话生成。
现有技术主要利用预先给定的针对用户的描述性句子或词组进行个性化对话,此类个性化对话系统语料难以获取,并且模型不能迭代式地更新用户个性,具有较小的实际应用价值。因此,我们决定放弃利用预先给定的个性化信息进行建模的方案,直接利用用户对话历史构建个性化对话系统。与使用显式预定义的句子或属性来表示用户角色的方案相比,从用户的对话历史中提取角色配置文件具有很多优势。它离实际应用更近,更容易从用户的实际使用中获得大量对话训练语料。此外,预定义个性化属性的方案无法反映用户的说话风格等深层次个性化信息。相反,基于用户的对话历史数据,我们可以获得更加丰富和全面的个性化信息。
除此之外,现有使用用户ID嵌入表示进行个性化对话的方案,使用用户ID嵌入来识别用户并生成与用户相关的响应的性能有限。它受到用户ID字典大小的限制,并且用户ID嵌入只能表征少量角色信息。
使用用户对话历史的一个主要问题是某些用户只有有限的历史对话不足以训练出可靠的模型。为了缓解此问题,我们建议将用户的个性分解为多个群组个性的组合。我们将这些群组个性用作粗粒度个性化,以增强单个用户的个性化生成。说话风格或爱好相似的用户可以通过相同的组个性互相帮助。不同类型的用户会被划分在不同的组中来避免相互影响。使用组个性集成可以使用较少的用户历史获得更好的个性化效果,并且可以应用于大规模用户。
发明内容
为此,本发明首先提出一种多粒度个性化对话生成方法,根据用户的对话历史H和帖子X为用户u生成个性化的响应,生成过程可以定义为:
Figure BDA0003379727230000021
首先,在用户组识别模块中,对用户的对话历史记录H=(h1,…,hm)建模,通过门控机制找到用户所属组的分布;之后将用户的群组信息引入到用户感知的编码器模块中,并获得关于用户群组的帖子的个性化向量表示;第三,在多粒度解码器模块中使用帖子的向量表示形式,通过所有用户共享的共享解码器和针对该用户的一系列特定专家解码器,获得广义响应表示和粗粒度个性化响应表示;同时,用户的对话历史记录信息将通过历史解码器传递,以获得细粒度的个性化响应表示;进而使用三种不同的粒度响应表示共同指导最终响应的生成;最后使用生成器模块通过复制机制捕获不在通用词典中出现但在用户对话历史中出现的单词,增强模型生成效果,并使用最大互信息算法从多个候选生成中选择最佳响应。
所述用户组识别模块首先使用标准的Transformer编码器作为我们的对话历史记录编码器,表示为TRMenc,在将用户u的所有m对话历史H=(h1,…,hm)连接在一起后,添加特殊标记</s>来拆分每个历史对话片段,得到的用户历史记录上下文为:C={h1,</s>,h2,…,hm,</s>},其中hi是用户u的i次历史话语;使用单词嵌入EW,段嵌入ES和位置嵌入EP来表征上下文C中的每个词语,然后获得用户历史上下文表示Hhis通过Transformer编码器:
Hhis=TRMenc(E(C)),
E(C)=EW(C)+ES(C)+EP(C)
之后,设计一个门控网络,根据用户历史记录上下文表示Hhis并自动将用户分配到其相应的组,每个组代表一种不同的粗粒度组用户个性,我们选择与用户相似的前K组信息的加权总和来描述用户的粗粒度个性化信息。通过门控网络可以选择出与用户最相似的前K组。在用户感知的编码器模块中,将激活对应的K组权重矩阵来获得关于用户群组的帖子的个性化向量表示;在多粒度解码器模块中,将激活对应的K组粗粒度解码器来获得粗粒度的个性化相应生成。用户组识别网络的输出定义为:
Gate(Hhis)=Softmax(TopK(G(Hhis),k)),
G(Hhis)=Softmax(Hhis·Wg),
其中Wg是可训练的权重矩阵,门控网络的输出表示为g,并且
Figure BDA0003379727230000031
其中p是组数。
所述多粒度解码器模块使用多个解码器,并将最终的个性化响应生成分解为常规响应生成,粗粒度的个性化响应生成和细粒度的个性化响应生成;
所述常规响应生成,应用Transformer解码器称为共享解码器,并将其表示为TRMshared,所有用户都将在训练过程中激活此共享的解码器,共享的解码器将接收所有训练数据,并可以为最终生成提供最平滑但最普通的指导:
Figure BDA0003379727230000032
其中ot是在第t步生成的词语,y0是特殊的起始词<s>;
所述粗粒度的个性化响应生成使用MoE方法,有选择地通过用户组g稀疏地激活一些专家,使每个专家仅接收特定数据的特定部分,通过使用特定数据训练的专家解码器具有特定性,并且能够显示特定类型的个性,将其视为群体的个性代表,最后使用与用户相对应的多专家解码器的加权和作为粗粒度的个性化表示来指导生成:
Figure BDA0003379727230000033
Figure BDA0003379727230000034
所述细粒度的个性化解码器从用户的对话历史记录中自动提取信息,以指导当前对话的生成,通过用户对话历史记录Hhis替换帖子表示Xu,将细粒度的用户信息引入到生成中:
Figure BDA0003379727230000035
最后,将三种不同粒度的生成指导信息融合在一起,并计算生成概率:
Figure BDA0003379727230000036
其中[;]是串联操作。
所述生成器模块利用设计的个性化的单词序列标记任务,预测当前答复单词是使用复制机制的个性化的单词还是使用通用字典的普通的单词,还基于不同粒度的三种表示来计算使用复制机制的可能性:
Figure BDA0003379727230000041
其中
Figure BDA0003379727230000042
表示在第t步使用复制机制的概率,
最后,生成单词yt的概率计算为:
Figure BDA0003379727230000043
MASK(·)函数用于掩盖非个性化单词,这些单词没有出现在帖子或用户对话历史记录中。
方法的损失函数定义为:
Figure BDA0003379727230000044
Figure BDA0003379727230000045
Figure BDA0003379727230000046
其中α和β是控制辅助损失权重的超参数。
本发明所要实现的技术效果在于:
(1)本发明设计了一种多粒度生成过程,以在保持文本流畅性的同时提高个性化响应生成的质量。
(2)本发明通过用户的对话历史直接学习用户的个性化表示,并生成个性化的响应。无需事先提供角色配置文件,并且可以在实际的大规模数据集上使用它。
(3)本发明提出了一种改善对话输入表示的方法。通过为每种类型的用户分配不同的注意力矩阵,同一对话输入可以针对不同的人产生个性化的向量表示。
附图说明
图1方法整体架构;
图2用户感知编码器模块架构;
图3多粒度解码器模块架构;
具体实施方式
以下是本发明的优选实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于此实施例。
本发明提出了一种多粒度个性化对话生成方法。拟自动从用户的对话历史记录中提取个性化信息,以生成个性化响应。考虑到每个用户的私人对话历史数据不足以训练一个可靠的对话系统,我们设计了一种多粒度编码器-解码器模型MPChat,该模型组装了通用解码器,组解码器和个性化解码器。通用解码器针对所有用户的数据进行训练,并生成最平滑的广义响应。粗粒度组解码器使用MoB(混合专家)机制进行训练,其中每个专家对应于具有相似历史对话的一组用户。该解码器可以生成与当前用户具有更高个性一致性的响应。细粒度的个性化解码器仅受当前用户的对话历史训练。借助这些解码器,我们可以充分利用群组的优势,缓解个性化聊天机器人的数据稀疏性问题。在两个大型数据集上的实验结果证实了我们的模型在生成个性化响应中的优越性。
多粒度个性化生成模型MPChat
我们基于Seq2Seq框架构建模型。我们将Seq2Seq对话生成过程定义为根据帖子X生成响应Y。正式地,它被定义为:
Figure BDA0003379727230000051
其中yt表示在第t步生成的单词。传统Seq2Seq模型使用LSTM将帖子X编码为向量表示,然后使用另一个LSTM解码帖子的矢量表示并生成相应的响应Y。在此生成过程中,生成的响应仅取决于给定的帖子,而不考虑对话者的个性。但是,由于我们的目标是设计一个个性化的聊天机器人,我们希望该聊天机器人可以根据用户的对话历史H为用户u生成个性化的响应。这种回应应符合他的说话风格,身份背景或爱好。因此,生成过程可以定义为:
Figure BDA0003379727230000052
为了达到建模p(r|X,H)的目的,我们提出了多粒度个性化聊天机器人(MPChat)模型。首先,在用户组识别模块中,对用户的对话历史记录H=(h1,…,hm)建模后,我们可以通过门控机制找到用户所属组的分布。其次,我们将用户的群组信息引入到用户感知的编码器模块中,并获得关于用户群组的帖子的个性化向量表示。第三,在多粒度解码器模块中,我们使用帖子的向量表示形式,通过所有用户共享的共享解码器和针对该用户的特定专家解码器的一系列专家解码器,获得广义响应表示和粗粒度个性化响应表示。同时,用户的对话历史记录信息将通过历史解码器传递,以获得细粒度的个性化响应表示。最后,使用三种不同的粒度响应表示共同指导最终响应的生成。然后我们使用复制机制增强模型生成效果,并使用MMI从多个候选生成中选择最佳响应。
输入内容包括用户的对话历史和当前帖子。接下来我们将分别介绍用户组识别模块、用户感知的编码器、多粒度解码器模块、生成器模块。
用户组识别模块
由于用户的个性化信息隐式存储在用户的对话历史中,因此我们首先使用标准的Transformer编码器作为我们的对话历史记录编码器,表示为TRMenc。在将用户u的所有m对话历史H=(h1,…,hm)连接在一起后,添加特殊标记</s>来拆分每个历史对话片段,我们得到的用户历史记录上下文为:C={h1,</s>,h2,…,hm,</s>},其中hi是用户u的i次历史话语。我们使用单词嵌入EW,段嵌入ES和位置嵌入EP来表征上下文C中的每个词语,然后获得用户历史上下文表示Hhis通过Transformer编码器:
Hhis=TRMenc(E(C)),
E(C)=EW(C)+ES(C)+EP(C).
之后,我们认为可以使用用户历史信息来查找相似的用户,并使他们成为共享信息的组。我们设计了一个门控网络,可以根据用户历史记录上下文表示Hhis并自动将用户分配到其相应的组。每个组代表不同的粗粒度组用户个性。考虑到每个用户可能具有多种个人特征,我们选择与用户相似的前K组信息的加权总和来描述用户的粗粒度个性化信息。通过门控网络可以选择出与用户最相似的前K组。在用户感知的编码器模块中,将激活对应的K组权重矩阵来获得关于用户群组的帖子的个性化向量表示;在多粒度解码器模块中,将激活对应的K组粗粒度解码器来获得粗粒度的个性化相应生成。用户组识别网络的输出可以定义为如下:
Gate(Hhis)=Softmax(TopK(G(Hhis),k)),
G(Hhis)=Softmax(Hhis·Wg),
其中Wg是可训练的权重矩阵。我们将门控网络的输出表示为g,并且
Figure BDA0003379727230000071
Figure BDA0003379727230000072
其中p是组数。在下一节中,我们将使用g选择组个性化权重矩阵以获得帖子的个性化向量表示。
用户感知的编码器模块
用户感知的编码器模块由几个模块组成,包括层归一化,用户感知模块和前馈层。当给定帖子X作为输入时,我们首先基于单词嵌入和位置嵌入将其表示为向量。然后,我们应用预归一化LN(·),以使训练过程在Transformer模块中更稳定。然后,我们使用用户感知模块将用户信息集成到帖子编码中,并获得关于用户u的帖子的个性化矢量表示Su。它可以写成:
Su=PersonaAttention(LN(E(X)),gi),
E(X)=EW(X)+EP(C).
用户感知编码器模块的详细信息显示在图2中。如果一个帖子只有一个特定的向量表示,则很难使用它在解码器端生成各种合适的响应。这也是对话中“一对多”问题难以解决的原因。因此,我们决定通过使用多专家权重矩阵为每个帖子生成个性化向量表示,将组个性化信息引入编码器。具体来说,在用户感知模块中,我们使用不同的线性变换矩阵来映射输入获取查询Q和值V。然后,我们可以基于门控网络输出g选择专家。在此,每个专家i对应于可训练的权重矩阵Wi。通过Wi和查询Q之间的交互,可以计算出有关当前帖子的用户组i的个性化关注矩阵Ai。然后,我们使用Ai和值V来获得组i个性化向量表示形式Si。在所有Si的加权总和之后,我们可以获得用户感知模块的输出Su。用户感知模块的整个过程描述如下:
Figure BDA0003379727230000081
Si=Softmax(Ai)·V,
Ai=Wi·QT
Q=E(X)·WQ
V=E(X)·WV
其中Su是用户感知的帖子表示形式。WQ
Figure BDA0003379727230000082
其中n是输入的长度,d是隐藏状态的维数。
最后,我们使用前馈层将Su映射为:
FFN(Su)=Su·Wf+b.
在N块之后,我们获得最终的用户感知的帖子表示形式Xu
多粒度解码器模块
由于个性完全不同的用户将对同一帖子产生完全不同的回复,很难训练一个解码器同时生成不同的回复。因此,我们使用多个解码器,并将最终的个性化响应生成分解为常规响应生成,粗粒度的个性化响应生成和细粒度的个性化响应生成。该方法尽可能地保留了可以从大规模语料库中学习的语义信息,同时增加了相似用户带来的帮助,减少了不同用户带来的干扰。具体来说,对于一般的响应生成,如图3所示,我们应用了Transformer解码器,该解码器的结构与历史解码器中使用的结构类似。我们将其称为共享解码器,并将其表示为TRMshared。所有用户都将在训练过程中激活此共享的解码器,因此共享的解码器将接收所有训练数据,并可以为最终生成提供最平滑但最普通的指导。
Figure BDA0003379727230000083
其中ot是在第t步生成的词语,y0是特殊的起始词<s>。
与一般响应生成不同,粗粒度的个性化响应生成使用了MoE(专家混合)方法。它可以有选择地通过用户组g稀疏地激活一些专家。它使每个专家仅接收特定数据的特定部分。通过使用特定数据训练的专家解码器具有特定性,并且能够显示特定类型的个性。我们将其视为群体的个性代表。最后,我们使用与用户相对应的多专家解码器的加权和作为粗粒度的个性化表示来指导生成。
Figure BDA0003379727230000091
Figure BDA0003379727230000092
我们还使用细粒度的个性化解码器从用户的对话历史记录中自动提取信息,以指导当前对话的生成。如图3所示,通过用户对话历史记录Hhis替换帖子表示Xu,我们直接将细粒度的用户信息引入到生成中。
Figure BDA0003379727230000093
最后,我们将三种不同粒度的生成指导信息融合在一起,并用它来计算生成概率:
Figure BDA0003379727230000094
其中[;]是串联操作。
生成器模块
受CopyNet的启发,我们使用一种复制机制来帮助模型捕获不在通用词典中出现但在用户对话历史中出现的单词。为此,我们设计了个性化的单词序列标记任务,以预测当前答复单词是个性化的单词(使用复制机制)还是普通的单词(使用通用字典)。还基于不同粒度的三种表示来计算使用复制机制的可能性:
Figure BDA0003379727230000095
其中
Figure BDA0003379727230000096
表示在第t步使用复制机制的概率。
最后,生成单词yt的概率计算为:
Figure BDA0003379727230000097
MASK(·)函数用于掩盖非个性化单词,这些单词没有出现在帖子或用户对话历史记录中。
训练和优化
我们的训练目标是在给出帖子和当前用户的对话历史记录的情况下,最大化生成个性化响应的可能性。同时,我们设计了两个辅助任务来提高性能:
(1)我们采用重要性损失和负载损失来鼓励所有专家具有同等重要性并确保均衡负载。(2)我们计算复制任务预测
Figure BDA0003379727230000101
的正确性。最终,MPChat的损失函数定义为:
Figure BDA0003379727230000102
Figure BDA0003379727230000103
Figure BDA0003379727230000104
其中α和β是控制辅助损失权重的超参数。

Claims (5)

1.一种多粒度个性化对话生成方法,其特征在于:方案通过用户组识别模块、用户感知编码器模块、多粒度解码器模块、历史解码器、生成器模块组成;各模块之间具体结构为:首先,在用户组识别模块中,通过输入模块输入用户的对话历史,对用户的对话历史记录H=(h1,…,hm)建模,通过门控机制找到用户所属组的分布;之后将用户的群组信息引入到用户感知编码器模块中,并获得关于用户群组的帖子的个性化向量表示;第三,在多粒度解码器模块中使用帖子的向量表示形式,通过所有用户共享的共享解码器和针对该用户的一系列特定专家解码器,获得广义响应表示和粗粒度个性化响应表示;同时,用户的对话历史记录信息通过历史解码器传递,以获得细粒度的个性化响应表示;进而使用三种不同的粒度响应表示共同指导最终响应的生成;最后生成器模块通过复制机制捕获不在通用词典中出现但在用户对话历史中出现的单词,增强模型生成效果,并使用最大互信息算法从多个候选生成中选择最佳响应。
2.如权利要求1所述的一种多粒度个性化对话生成方法,其特征在于:根据用户的对话历史H和帖子X为用户u生成个性化的响应,生成过程定义为:
Figure FDA0003379727220000011
所述用户组识别模块首先使用标准的Transformer编码器作为我们的对话历史记录编码器,表示为TRMenc,在将用户u的所有m条对话历史H=(h1,…,hm)连接在一起后,添加特殊标记</s>来拆分每个历史对话片段,得到的用户历史记录上下文为:C={h1,</s>,h2,…,hm,</s>},其中hi是用户u的第i次历史对话;使用单词嵌入EW,段嵌入ES和位置嵌入EP来表征上下文C中的每个词语,然后通过Transformer编码器获得用户历史上下文表示Hhis
Hhis=TRMenc(E(C)),
E(C)=EW(C)+ES(C)+EP(C)
之后,设计一个门控网络,根据用户历史记录上下文表示Hhis自动将用户分配到其相应的组,每个组代表一种不同的粗粒度组用户个性,通过门控网络可以选择出与用户最相似的前K组,通过前K组信息的加权总和来描述用户的粗粒度个性化信息;在用户感知的编码器模块中,将激活对应的K组权重矩阵来获得关于用户群组的帖子的个性化向量表示;在多粒度解码器模块中,将激活对应的K组粗粒度解码器来获得粗粒度的个性化相应生成。用户组识别网络的输出定义为:
Gate(Hhis)=Softmax(TopK(G(Hhis),k)),
G(Hhis)=Softmax(Hhis·Wg),
其中Wg是可训练的权重矩阵,用户组识别网络的输出表示为g,并且
Figure FDA0003379727220000027
Figure FDA0003379727220000028
其中p是组数。
3.如权利要求2所述的一种多粒度个性化对话生成方法,其特征在于:所述多粒度解码器模块使用多个解码器,并将最终的个性化响应生成分解为常规响应生成,粗粒度的个性化响应生成和细粒度的个性化响应生成;
所述常规响应生成,应用Transformer解码器称为共享解码器,并将其表示为TRMshared,所有用户都将在训练过程中激活此共享的解码器,共享的解码器将接收所有训练数据,并可以为最终生成提供最平滑但最普通的指导:
Figure FDA0003379727220000021
其中
Figure FDA0003379727220000022
是在第t步获得的常规响应表示,y0是特殊的起始词<s>;
所述粗粒度的个性化响应生成使用MoE方法,有选择地通过用户组g稀疏地激活一些专家,使每个专家仅接收特定数据,通过使用特定数据训练的专家解码器具有特异性,并且能够显示特定类型的个性,将其视为群体的个性代表,最后使用与用户相对应的多专家解码器的加权和作为粗粒度的个性化表示来指导生成:
Figure FDA0003379727220000023
Figure FDA0003379727220000024
所述细粒度的个性化解码器从用户的对话历史记录中自动提取信息,以指导当前对话的生成,通过用户对话历史记录Hhis替换帖子表示Xu,将细粒度的用户信息引入到生成中:
Figure FDA0003379727220000025
最后,将三种不同粒度的生成指导信息融合在一起,并计算生成概率:
Figure FDA0003379727220000026
其中ot是在第t步获得的多粒度个性化响应表示,[;]是串联操作。
4.如权利要求3所述的一种多粒度个性化对话生成方法,其特征在于:所述生成器模块利用设计的个性化的单词序列标记任务,预测当前答复单词是使用复制机制的个性化的单词还是使用通用字典的普通的单词,还基于不同粒度的三种表示来计算使用复制机制的可能性:
Figure FDA0003379727220000031
其中
Figure FDA0003379727220000032
表示在第t步使用复制机制的概率,
最后,生成单词yt的概率计算为:
Figure FDA0003379727220000033
MASK(·)函数用于掩盖非个性化单词,这些单词没有出现在帖子或用户对话历史记录中。
5.如权利要求4所述的一种多粒度个性化对话生成方法,其特征在于:方法的损失函数定义为:
Figure FDA0003379727220000034
Figure FDA0003379727220000035
Figure FDA0003379727220000036
其中α和β是控制辅助损失权重的超参数。
CN202111429462.1A 2021-11-29 2021-11-29 一种多粒度个性化对话生成方法 Active CN114036960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111429462.1A CN114036960B (zh) 2021-11-29 2021-11-29 一种多粒度个性化对话生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111429462.1A CN114036960B (zh) 2021-11-29 2021-11-29 一种多粒度个性化对话生成方法

Publications (2)

Publication Number Publication Date
CN114036960A true CN114036960A (zh) 2022-02-11
CN114036960B CN114036960B (zh) 2024-04-02

Family

ID=80139054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111429462.1A Active CN114036960B (zh) 2021-11-29 2021-11-29 一种多粒度个性化对话生成方法

Country Status (1)

Country Link
CN (1) CN114036960B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190121853A1 (en) * 2017-10-25 2019-04-25 International Business Machines Corporation Facilitating automatic detection of relationships between sentences in conversations
US20190251165A1 (en) * 2018-02-09 2019-08-15 Digital Genius Limited Conversational agent
CN110869969A (zh) * 2017-06-29 2020-03-06 微软技术许可有限责任公司 用于在通信会话内生成个性化响应的虚拟助手
WO2020238985A1 (zh) * 2019-05-31 2020-12-03 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及存储介质
CN112115247A (zh) * 2020-09-07 2020-12-22 中国人民大学 一种基于长短时记忆信息的个性化对话生成方法和系统
CN112182161A (zh) * 2020-09-30 2021-01-05 中国人民大学 一种基于用户对话历史的个性化对话生成方法和系统
GB202019138D0 (en) * 2020-12-04 2021-01-20 Rolls Royce Plc System for reply generation
WO2021077974A1 (zh) * 2019-10-24 2021-04-29 西北工业大学 一种个性化对话内容生成方法
CN113360610A (zh) * 2021-05-19 2021-09-07 山东师范大学 基于Transformer模型的对话生成方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110869969A (zh) * 2017-06-29 2020-03-06 微软技术许可有限责任公司 用于在通信会话内生成个性化响应的虚拟助手
US20190121853A1 (en) * 2017-10-25 2019-04-25 International Business Machines Corporation Facilitating automatic detection of relationships between sentences in conversations
US20190251165A1 (en) * 2018-02-09 2019-08-15 Digital Genius Limited Conversational agent
WO2020238985A1 (zh) * 2019-05-31 2020-12-03 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及存储介质
WO2021077974A1 (zh) * 2019-10-24 2021-04-29 西北工业大学 一种个性化对话内容生成方法
CN112115247A (zh) * 2020-09-07 2020-12-22 中国人民大学 一种基于长短时记忆信息的个性化对话生成方法和系统
CN112182161A (zh) * 2020-09-30 2021-01-05 中国人民大学 一种基于用户对话历史的个性化对话生成方法和系统
GB202019138D0 (en) * 2020-12-04 2021-01-20 Rolls Royce Plc System for reply generation
CN113360610A (zh) * 2021-05-19 2021-09-07 山东师范大学 基于Transformer模型的对话生成方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王豪;郭斌;郝少阳;张秋韵;於志文;: "基于深度学习的个性化对话内容生成方法", 图学学报, no. 02, 31 December 2020 (2020-12-31), pages 44 - 50 *

Also Published As

Publication number Publication date
CN114036960B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
WO2020238985A1 (zh) 模型训练方法、对话生成方法、装置、设备及存储介质
Yi et al. Automatic poetry generation with mutual reinforcement learning
Ma et al. Improving question generation with sentence-level semantic matching and answer position inferring
JP7087938B2 (ja) 質問生成装置、質問生成方法及びプログラム
CN112115687B (zh) 一种结合知识库中的三元组和实体类型的生成问题方法
CN111897941A (zh) 对话生成方法、网络训练方法、装置、存储介质及设备
CN108595436B (zh) 情感对话内容的生成方法和系统、存储介质
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN112115247A (zh) 一种基于长短时记忆信息的个性化对话生成方法和系统
CN112307168A (zh) 基于人工智能的问诊会话处理方法、装置和计算机设备
CN112765333B (zh) 基于情感与提示词结合的自动对话生成方法及系统
CN112182161A (zh) 一种基于用户对话历史的个性化对话生成方法和系统
CN111522923B (zh) 一种多轮任务式对话状态追踪方法
CN116484879A (zh) 提示信息的生成方法、装置、电子设备及存储介质
CN115759042A (zh) 一种基于句法感知提示学习的句子级问题生成方法
CN111339274A (zh) 对话生成模型训练方法、对话生成方法及装置
Mathur et al. A scaled‐down neural conversational model for chatbots
CN110442693B (zh) 基于人工智能的回复消息生成方法、装置、服务器及介质
CN110955765A (zh) 智能助理的语料构建方法、装置、计算机设备和存储介质
CN114328866A (zh) 应答流畅准确的强拟人化智能对话机器人
He et al. Hierarchical attention and knowledge matching networks with information enhancement for end-to-end task-oriented dialog systems
CN117932066A (zh) 一种基于预训练的“提取-生成”式答案生成模型及方法
Jang et al. Cross-language neural dialog state tracker for large ontologies using hierarchical attention
Riou et al. Online adaptation of an attention-based neural network for natural language generation
CN112667788A (zh) 一种新型的基于bertcontext的多轮对话自然语言理解模型

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant