CN113742541A - 对话方法、装置、电子设备及计算机可读存储介质 - Google Patents
对话方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113742541A CN113742541A CN202010486647.5A CN202010486647A CN113742541A CN 113742541 A CN113742541 A CN 113742541A CN 202010486647 A CN202010486647 A CN 202010486647A CN 113742541 A CN113742541 A CN 113742541A
- Authority
- CN
- China
- Prior art keywords
- answer
- question
- sentence
- prediction network
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012549 training Methods 0.000 claims abstract description 58
- 239000013598 vector Substances 0.000 claims description 45
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 230000002441 reversible effect Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 14
- 230000007246 mechanism Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000006854 communication Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 125000004432 carbon atom Chemical group C* 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例提供了一种对话方法、装置、电子设备及计算机可读存储介质,涉及人工智能技术领域。该方法包括:获取目标问句;基于答句预测网络预测与目标问句对应的具有预设对话风格的目标预测答句;答句预测网络是基于具有预设对话风格的答句经过问句预测后训练得到的。本申请实施例提供的可以有效获取到足够的具有预设对话风格的答句和问句预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
Description
技术领域
本申请涉及语言处理技术领域,具体而言,本申请涉及一种对话方法、装置、电子设备及计算机可读存储介质。
背景技术
随着信息技术的发展,互联网技术随之发展,用户经常需要通过互联网查询各种信息,以获得相应的答案,而为了使得对话更流畅自然,通常会生成具有各种对话风格的答案。
目前,通常是获取具有特定对话风格的问句和答复训练答复模型,从而生成具有对话风格的答案的,有必要对生成具有特定对话风格的答复的方式进行优化。
发明内容
本申请提供了一种对话方法、装置、电子设备及计算机可读存储介质,用于解决在将智能聊天机器人应用于与用户进行交互时,如何更为准确地输出具有预设风格的目标预测答句,该技术方案如下所示:
第一方面,提供了一种对话方法,该方法包括:
获取目标问句;
基于答句预测网络预测与目标问句对应的具有预设对话风格的目标预测答句;答句预测网络是基于具有预设对话风格的答句经过问句预测后训练得到的。
第二方面,提供了一种对话装置,该装置包括:
获取模块,用于获取目标问句;
预测模块,用于基于答句预测网络预测与目标问句对应的具有预设对话风格的目标预测答句;答句预测网络是基于具有预设对话风格的答句经过问句预测后训练得到的。
第三方面,提供了一种电子设备,该电子设备包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于:执行根据第一方面所示的对话方法所对应的操作。
第四方面,提供了一种计算机可读存储介质,存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如第一方面所示的对话方法。
本申请提供的技术方案带来的有益效果是:
本申请提供了一种对话方法、装置、电子设备及计算机可读存储介质,与现有技术相比,本申请通过对具有预设对话风格的答句进行问句预测,得到对应的预测问句,基于预测问句和答句得到训练后的答复预测模型,使得答复预测模型可以基于问句预测具有预设对话风格的目标预测答句,可以有效获取到足够的具有预设对话风格的答句和预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种对话方法流程示意图;
图2为本申请实施例提供的一种对话方法的流程示意图;
图3为本申请实施例提供的一种对话方法的流程示意图;
图4为本申请实施例提供的一种对话方法的流程示意图;
图5为本申请实施例提供的一种对话方法的流程示意图;
图6为本申请实施例提供的一种对话方法的流程示意图;
图7为本申请实施例提供的一种对话方法的流程示意图;
图8为本申请一个示例中的答复预测模型的结构示意图;
图9为本申请一个示例中的模型训练的流程示意图;
图10为本申请实施例提供的一种对话装置结构示意图;
图11为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在学术界和工业界,建立一个可以产生风格化和连贯响应的对话已经成为一个重要的话题。这样不仅可以产生更生动的对话,还可以利用语言风格匹配现象来进行更具吸引力的对话,这表明人们倾向于在交流过程中模仿他人的语言风格,追求更高的参与度。例如,可以根据用户调整客户服务的答复形式,还可以模仿某些名人或作家的讲话或写作风格,可以促进娱乐应用程序的开发。
对话生成模块是对话系统中的一个重要组成部件,其主要作用是生成流畅的对话回复。而生成带有特定风格的对话回复是目前对话系统研究领域所面临的难题。
目前通常关注于使用风格化对话对,即由问句和风格化答句所组成的对话对,构建风格化对话生成模型。
在各种研究中都研究了生成程式化对话响应的方式,其中风格的定义涵盖了相当模糊和广泛的概念,例如情感或人物角色。先前的研究通常是在需要程式化对话数据的完全监督下进行的。但是,在大多数情况下,捕获的语言风格功能都嵌入了非对话文本中,这些文本无法通过有监督的方法直接使用。
在有对话对的情况下,关注于使用预训练技术构建对话模型,即基于Transformer网络的编码器解码器架构,并且在解码器中添加与风格相关的标签,使得解码器可以生成带有特定风格的回复。
在实际应用中,带有风格的对话对并不是很容易得到。事实上,我们平时可以获得的风格化问句通常并不是由对话对的形式呈现的。这些风格化的语料通常来自于小说,博客等非对话文本。
与此相关的还有无监督文本样式转换,目的是在保留输入内容的同时改变输入文本的样式。然而,使用此类模型,可以通过以下方式实现简单的程式化对话:首先使用常规对话模型为问句x生成答句y,然后将答句y转化为具有对话风格的文本y,同时保留其内容,然而,这种转换方式可能会损害问句x和答句y之间的连贯性,因此可能会引入不适当的内容。
针对现有技术中所存在的上述至少一个技术问句或者需要改善的地方,本申请实施例提供了一种对话方法、装置、电子设备及计算机可读存储介质。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问句进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
本申请实施例中提供了一种可能的实现方式,如图1所示,提供了一种对话方法,可以包括以下步骤:
步骤S101,获取目标问句;
步骤S102,基于答句预测网络预测与目标问句对应的具有预设对话风格的目标预测答句;答句预测网络是基于具有预设对话风格的答句经过问句预测后训练得到的。
其中,问句(post)和答句(response)是在对话中形成对话对,问句并不一定是问句的形式,答句也不一定是答复的形式。
其中,答句预测网络可以是用于输入目标问句,预测与目标问句对应的目标预测答句的网络。
其中,对话风格可以是根据不同的交际场合、目的、任务及交际者的秉性和素质而采用的不同的语言素材和方式。
具体的,根据不同的交际场合和身份,对话风格可以包括“对领导/长辈的尊敬风格”、“对朋友/同事的随意风格”和“对家人的亲密风格”等。
根据对话过程中的问句和目标预测答句的语言风格,对话风格还可以包括日常口语体风格、应用文体风格、艺术文体风格和个人的语言风格,个人的语言风格;其中,个人的语言风格又可以根据个人撰写习惯或说话习惯不同,例如,金庸的武侠小说的语言风格叙事语言平实、如钱塘江潮,推波助澜,层层递进;而古龙的武侠小说的语言风格往往平常中见奇语、现代意识较强,个性突出,节奏明快而有悬念,篇幅不长而有系列性。
在具体实施过程中,对于同一个目标问句,不同的预设对话风格对应着不同的目标预测答句,这里的不同的目标预测答句,是指目标预测答句表达的含义可能相同,但表达方式不同。
具体的,如图2所示,可以先获取具有预设对话风格的答句,这里的答句可以不必是对话的形式,例如,可以从小说中获取叙事的片段,将所获取的文本片段进行问句预测,即将文本片段作为目标预测答句,预测与答句对应的预测问句,然后基于预测问句和答句训练得到答句预测网络。
在具体实施过程中,答句预测网络可以包括transformer网络。
上述实施例中,通过对具有预设对话风格的答句进行问句预测,得到对应的预测问句,基于预测问句和答句得到训练后的答复预测模型,使得答复预测模型可以基于问句预测具有预设对话风格的目标预测答句,可以有效获取到足够的具有预设对话风格的答句和预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
本申请实施例的一种可能的实现方式,如图3所示,步骤S102的基于答句预测网络预测与所述目标问句对应的具有预设对话风格的目标预测答句目标预测答句之前,还可以包括:
步骤S101a,确定与所述预设对话风格对应的预设风格标签向量;
步骤S101b,基于所述预设风格标签向量和所述答句,获取所述答句预测网络。
具体的,可以从样本答句和样本问句中提取对应的样本风格标签向量;基于样本问句获取对应的样本答句,再基于样本问句、样本答句以及样本风格标签向量,调整初始预测网络的参数,使训练后的初始答句预测网络可以输入具有对话风格的目标预测答句。
上述实施例中,通过预设风格标签向量和所述答句,获取所述答句预测网络,可以使得答句预测网络输入的目标预测答句中的预设对话风格更加明显,对话更自然。
本申请实施例的一种可能的实现方式,步骤S101b的基于所述预设风格标签向量和所述答句,获取所述答句预测网络,可以包括:
(1)预测与答句对应的预测问句。
其中,问句预测网络可以是输入对应的目标预测答句时,可以预测与目标预测答句对应的预测问句的网络。
具体的,预测与答句对应的预测问句,可以包括:将答句输入到问句预测网络,得到对应的预测问句。
在具体实施过程中,问句预测网络可以包括transformer网络,可以先对transformer网络进行训练,得到问句预测网络。
(2)基于所述答句、所述预设风格标签向量和所述预测问句,对初始答句预测网络进行训练,得到答句预测网络。
具体的,基于答句、预测问句和预设风格标签向量对初始答句预测网络进行训练,调整初始答句预测网络的参数,得到答句预测网络,得到的答句预测网络可以输出具有预设对话风格的目标预测答句。
如图4所示,上述实施例中,对话方法可以包括:
1)获取具有预设对话风格的答句;
2)将答句输入到训练后的问句预测网络,得到对应的预测问句;
3)确定与预设对话风格对应的预设风格标签向量;
4)基于答句、预测问句和预设风格标签向量,对初始答句预测网络进行训练,得到答句预测网络;
5)将目标问句输入到答句预测网络中,得到具有预设对话风格的目标预测答句。
上述实施例中,通过将具有预设对话风格的答句输入到训练后的问句预测网络,得到对应的预测问句,从而构建出具有预设对话风格的对话对,再基于具有预设对话风格的对话对对初始答句预测网络进行训练,得到答句预测网络,使得答句预测网络可以输入和目标问句对应的并且具有预设对话风格的目标预测答句。
本申请实施例的一种可能的实现方式,将答句输入问句预测网络,得到对应的预测问句之前,还可以包括:
(1)获取样本问句和对应的样本答句;
(2)基于样本问句和样本答句对初始问句预测网络进行训练,得到问句预测网络。
具体的,样本问句和样本答句可以是常用的对话对,即可以不具有任何对话风格,或者也可以具有常用的对话风格,可以从多个样本用户的对话记录中、或文学作品的对话文本中获取样本问句和对应的样本答句。
具体的,初始问句预测网络可以是预设的transformer网络,基于样本问句和样本答句对初始问句预测网络进行训练,使得训练后的问句预测网络可以具有预测与目标预测答句对应的预测问句的能力。
本申请实施例的一种可能的实现方式,步骤S101b的基于答句、预测问句以及风格标签向量,对初始答句预测网络进行训练之前,还可以包括:
基于样本问句和样本答句,对初始预测网络进行训练,得到初始答句预测网络。
具体的,基于样本问句和样本答句,对初始预测网络进行训练,得到初始答句预测网络,还可以包括:
a、确定与样本答句以及样本问句均对应的样本风格标签向量;
b、基于样本问句、样本答句以及样本风格标签向量,对初始预测网络进行训练,得到初始答句预测网络。
具体的,可以从样本答句和样本问句中提取对应的样本风格标签向量;基于样本问句、样本答句以及样本风格标签向量,调整初始预测网络的参数,使训练后的初始答句预测网络可以输入具有对话风格的答句。
如图5所示,上述实施例中,对话方法可以包括:
1)获取样本问句和样本答句;
2)确定与样本答句以及样本问句均对应的样本风格标签向量S0;
3)基于样本答句和样本问句,对初始问句预测网络进行训练,得到问句预测网络;
4)基于样本答句、样本问句、样本风格标签向量S0对初始预测网络进行训练,得到初始答句预测网络;
5)获取具有预设对话风格的答句;
6)确定预设对话风格对应的预设风格标签向量S1;
7)将答句输入到问句预测网络中,得到预测问句;
8)基于预设风格标签向量S1、答句和预测问句,对初始答句预测网络进行训练,得到答句预测网络;
9)获取目标问句,将目标问句输入到答句预测网络,得到具有预设对话风格的目标预测答句。
上述实施例中,采用相同的样本问句和样本答句,同时对初始预测网络和初始问句预测网络进行训练,使得训练后的问句预测网络可以具有预测与目标预测答句对应的预测问句的能力的同时,训练后的初始答句预测网络具有预测与目标问句对应的目标预测答句的能力,减少训练数据信息量的同时,还可以提高训练效率。
本申请实施例的一种可能的实现方式,还可以预选采用多种对话风格的答句,对初始答句预测网络进行训练,得到与多个不同对话风格对应的答句预测网络;可以基于用户希望得到的目标预测答句所具有的目标对话风格,确定与该对话风格对应的目标预测答句预测网络,将目标问句输入到目标预测答句预测网络中,得到具有目标对话风格的目标预测答句。
如图6所示,在本实施中,对话方法可以包括:
S1,获取样本问句和目标预测答句样本答句;
S2,确定与目标预测答句样本答句以及样本问句均对应的第二风格标签向;
S3,基于目标预测答句样本答句和样本问句,对初始问句预测网络进行训练,得到问句预测网络;
S4,基于目标预测答句样本答句、样本问句、样本风格标签向量S0对初始预测网络进行训练,得到初始答句预测网络;
S5,获取具有多种对话风格的答句;
S6,分别确定与多种对话风格对应的风格标签向量S1、S2……Sn;
S7,将答句分别输入到问句预测网络中,得到分别对应的预测问句;
S8,基于每一组风格标签向量、答句和预测问句,对初始答句预测网络进行训练,得到和每一种对话风格对应的答句预测网络;
S9,获取用户选择的目标对话风格,确定与目标对话风格对应的目标预测答句预测网络;
S10,获取目标问句,将目标问句输入到目标预测答句预测网络,得到具有目标对话风格的目标预测答句。
以下将以答句预测网络和问句预测网络为transformer网络为例,阐述本申请的对话方法。
以下示例中,答句预测网络包括风格化编码器和风格化解码器;问句预测网络包括反向编码器和反向解码器,将答句(即图中所示的答句y)输入到反向编码器和反向解码器周,得到对应的预测问句(即图中所示的问句x),然后根据答句、预测问句和预设风格标签向量(即图中所示的风格s)对风格化编码器和风格化解码器进行训练,得到答句预测网络;之后获取到目标问句时,将目标问句输入到答句预测网络,即可得到具有风格s对应的目标预测答句。
以下示例中,答句预测网络、初始答句预测网络也可称为风格化对话模型,问句预测网络、初始问句预测网络也可称为反向对话模型。
如图7所示,图7为本实施例提供的答句预测网络和问句预测网络的结构示意图。其主要包含两对编码器解码器结构,具体来说,我们的模型中包含一个风格化编码器ep和风格化解码器,风格化编码会将一个用户输入语句post x映射到隐变量空间,然后风格化解码器会将隐变量空间中的隐表示解码成一个风格化的回复response y。
为了解决缺少风格化对话数据的问题,我们设计了一个反向对话模型来帮助生成伪对话对。如图7所示,具体的,我们的模型结构由两个镜像子模块组成。第一个子模块是给定问句x和风格化标签Si的风格化对话模型,得到风格化答句y。该子模型包括一个编码器e和一个解码器d,风格化编码会将一个用户输入语句x映射到隐变量空间,然后风格化解码器会将隐变量空间中的隐表示解码成一个风格化的回复y。第二个子模块是一个反向对话模型,旨在产生给定答句y的问句x。具体来说,该子模块是通过第一个子模块的编码器和解码器来镜像构造的,即,使用反向编码器对答句y进行编码,并且使用反向解码器来解码问句x。请注意,反向对话模型旨在保持问句和答句之间的语义连贯性。因此,我们在反向解码器中省略了风格化标签,以鼓励它更多地关注对话的语义方面。可以使用变压器架构对编码器和解码器进行参数设置,并使用预训练的GPT模型初始化这些权重。此外,我们还共享来自同一子模块的编码器和解码器的权重以节省内存,也就是说,编码器和解码器的权重被共享,而反向编码器和反向解码器的权重被共享。即完成从问句到答句的转换。如果使用形式化公式表示则风格化对话生成任务就是解决以下最优化问句:
y=arg maxy′p(y′|x,Si) (1)
上式中,y和y'代表模型所解码出的答句,x代表问句,si代表某种指定的风格。
在本研究中,我们在风格化解码器中加入了风格化标签style s,使得生成回复y的时候可以指定其所携带的风格。
我们模型的另一个主要部件就是反向对话模型,其所包含一个反向编码器Inverse encoder eR,和一个反向解码器Inverse decoder Pr2p,其中反向编码器接收一个对话回复作为输入,从反向编码器生成的隐表示会被送到反向解码器中,生成一个对话问句。即完成从答句到问句的转换。
其中图7中所示的风格化嵌入Style embedding就是我们为风格化解码器所添加的风格化标签。如图8所示,在本申请中,本申请提出了风格化路由(Style Routing)机制,这一机制在每个解码器模块中都在原有多头注意力(multi-head attention)输出的基础上添加了额外的风格化嵌入。
其中原有多头注意力机制的输出如下式所示:
Rpost=MHA[ew(yp),e(x),e(x)] (3)
上式中,MMHA和MHA分别表示带掩码的多头注意力机制和多头注意力机制,Rprev和Rpost分别表示带掩码的多头注意力机制和多头注意力机制的输出,具体来说,Rprev和Rpost是由一系列隐表示所组成的序列。yp表示当前时间步已经解码出来的序列,ew(yp)表示yp这一序列所对应的词向量表示。e(x)表示问句x所对应的隐变量序列,这一隐变量序列是将问句x输入到风格化编码器中得到的。
在原有解决方案中,会将这两个输出做平均:
Rcontext=(Rprev+Rpost)/2 (4)
其中Rcontext表示平均之后的隐表示序列。
而在我们的模型中,在这一平均后的结果上加上了一个额外的风格嵌入向量:
Rmerge=Rcontext+es(Si) (5)
其中es(Si)表示风格Si所对应的风格嵌入向量。Rmerge表示融入风格嵌入向量之后的隐表示序列。
值得注意的是,所提出的风格化路由机制也可以与其他方法结合使用以进一步强化风格化解码器。具体来说,在我们的实验中,风格化标签Si所对应的嵌入向量也被用作解码过程中的初始向量表示,并且和位置嵌入一起加到了每个位置的词向量上。与以往专注于对连续上下文建模的研究不同,在我们的研究中建模的风格是离散的,并且我们的风格化路由机制中对风格嵌入分配了更高的优先级。此外,我们也是第一个在风格化对话生成任务中使用这种风格化路由机制方法的人。
在模型训练过程中,本申请一共使用了三部分的损失函数:
1)问句到答句的交叉熵损失(即样本问句到样本答句的损失):
上式中,表示模型的对话输入数据,S0表示模型的对话输入数据所对应的风格标签<x,y>表示从对话输入数据中所采样出的对话,其中x表示问句,y表示答句,e(x)表示问句x所对应的隐变量序列,pd表示风格化解码器。
2)答句到问句的交叉熵损失(即样本答句到样本问句的损失):
3)使用反向对话模型得到的重构损失(即预测问句到答句的损失):
需要注意的是,我们无法使用传统的基于梯度传播的方式优化这一损失,因为在计算这一损失时涉及了离散的采样操作。所以,在我们的工作中,当优化时,我们会首先固定反向对话模型的权重,并使用从反向对话模型中采样的伪问句x0来训练风格化对话模型。与现有技术不同的是,本申请采用基于柱搜索的top-k采样方法来产生伪问句x0,因为问句和答句之间的映射不是唯一的。本申请引入了交互式训练过程来训练所提出的模型。具体来说,在每次训练迭代中,我们首先使用一批采样的对话对,分别通过优化损失函数和来更新风格化对话模型和反向对话模型。然后采样ns个风格化文本,使用反向对话模型采样生成m个伪对话问句,这样,可以构造得到ns×m个伪对话,这些伪对话用于使用损失函数训练风格化对话模型。需要注意的是,我们会先基于损失函数步骤训练反向对话模型,然后再使用它来对答句进行解码得到伪问句。
如图9所示,我们的模型训练流程可总结如下:
S1,初始化风格化对话模型和反向对话模型;
S2,采样nd个均具有S0对话风格的对话对;
S5,检测训练步数是否大于预定义的数值Nf;若是,则执行步骤S6;若否,则执行步骤S2;
S6,采样ns个风格化文本(即答句);
S7,对上述每一个风格化文本,使用反向对话模型采样生成m个伪对话问句(即预测问句);
上述训练方法,数据集可以来源于下表1中:
上述的对话方法,通过对具有预设对话风格的答句进行问句预测,得到对应的预测问句,基于预测问句和答句得到训练后的答复预测模型,使得答复预测模型可以基于问句预测具有预设对话风格的目标预测答句,可以有效获取到足够的具有预设对话风格的答句和预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
进一步的,通过预设风格标签向量和所述答句,获取所述答句预测网络,可以使得答句预测网络输入的目标预测答句中的预设对话风格更加明显,对话更自然。
进一步的,采用相同的样本问句和样本答句,同时对初始预测网络和初始问句预测网络进行训练,使得训练后的问句预测网络可以具有预测与目标预测答句对应的预测问句的能力的同时,训练后的初始答句预测网络具有预测与目标问句对应的目标预测答句的能力,减少训练数据信息量的同时,还可以提高训练效率。
上述实施例通过方法流程的角度介绍对话方法,下述通过虚拟模块的角度进行介绍,具体如下所示:
本申请实施例提供了一种对话装置100,如图10所示,该装置100可以包括获取模块1001和预测模块1002,其中:
获取模块1001,用于获取目标问句;
预测模块1002,用于基于答句预测网络预测与所述目标问句对应的具有预设对话风格的目标预测答句;所述答句预测网络是基于具有所述预设对话风格的答句经过问句预测后训练得到的。
本申请实施例的一种可能的实现方式,对话装置100还包括确定模块,用于:
确定与所述预设对话风格对应的预设风格标签向量;
基于所述预设风格标签向量和所述答句,获取所述答句预测网络。
本申请实施例的一种可能的实现方式,确定模块在基于所述预设风格标签向量和所述答句,获取所述答句预测网络时,用于:
预测与所述答句对应的预测问句;
基于所述答句、所述预设风格标签向量和所述预测问句,对初始答句预测网络进行训练,得到所述答句预测网络。
本申请实施例的一种可能的实现方式,确定模块在预测与所述答句对应的预测问句时,用于:
将所述答句输入问句预测网络,得到对应的所述预测问句。
本申请实施例的一种可能的实现方式,对话装置100还包括第一训练模块,用于:
获取样本问句和对应的样本答句;
基于所述样本问句和所述样本答句对初始问句预测网络进行训练,得到所述问句预测网络。
本申请实施例的一种可能的实现方式,对话装置100还包括第二训练模块,用于:
基于所述样本问句和所述样本答句,对初始预测网络进行训练,得到所述初始答句预测网络。
本申请实施例的一种可能的实现方式,第二训练模块在基于所述样本问句和所述样本答句,对初始预测网络进行训练,得到所述初始答句预测网络时,用于:
确定与所述样本答句以及所述样本问句均对应的样本风格标签向量;
基于所述样本问句、所述样本答句以及所述样本风格标签向量,对所述初始预测网络进行训练,得到所述初始答句预测网络。
上述的对话装置,通过对具有预设对话风格的答句进行问句预测,得到对应的预测问句,基于预测问句和答句得到训练后的答复预测模型,使得答复预测模型可以基于问句预测具有预设对话风格的目标预测答句,可以有效获取到足够的具有预设对话风格的答句和预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
进一步的,通过预设风格标签向量和所述答句,获取所述答句预测网络,可以使得答句预测网络输入的目标预测答句中的预设对话风格更加明显,对话更自然。
进一步的,采用相同的样本问句和样本答句,同时对初始预测网络和初始问句预测网络进行训练,使得训练后的问句预测网络可以具有预测与目标预测答句对应的预测问句的能力的同时,训练后的初始答句预测网络具有预测与目标问句对应的目标预测答句的能力,减少训练数据信息量的同时,还可以提高训练效率。
本公开实施例的图片的对话装置可执行本公开的实施例所提供的一种图片的对话方法,其实现原理相类似,本公开各实施例中的图片的对话装置中的各模块所执行的动作是与本公开各实施例中的图片的对话方法中的步骤相对应的,对于图片的对话装置的各模块的详细功能描述具体可以参见前文中所示的对应的图片的对话方法中的描述,此处不再赘述。
本申请实施例中所提供的装置,可以通过AI模型来实现多个模块中的至少一个模块。可以通过非易失性存储器、易失性存储器和处理器来执行与AI相关联的功能。
该处理器可以包括一个或多个处理器。此时,该一个或多个处理器可以是通用处理器,例如中央处理单元(CPU)、应用处理器(AP)等、或者是纯图形处理单元,例如,图形处理单元(GPU)、视觉处理单元(VPU)、和/或AI专用处理器,例如神经处理单元(NPU)。
该一个或多个处理器根据存储在非易失性存储器和易失性存储器中的预定义的操作规则或人工智能(AI)模型来控制对输入数据的处理。通过训练或学习来提供预定义的操作规则或人工智能模型。
这里,通过学习来提供指的是通过将学习算法应用于多个学习数据来得到预定义的操作规则或具有期望特性的AI模型。该学习可以在其中执行根据实施例的AI的装置本身中执行,和/或可以通过单独的服务器/系统来实现。
该AI模型可以包含多个神经网络层。每一层具有多个权重值,一个层的计算是通过前一层的计算结果和当前层的多个权重来执行的。神经网络的示例包括但不限于卷积神经网络(CNN)、深度神经网络(DNN)、循环神经网络(RNN)、受限玻尔兹曼机(RBM)、深度信念网络(DBN)、双向循环深度神经网络(BRDNN)、生成对抗网络(GAN)、以及深度Q网络。
学习算法是一种使用多个学习数据训练预定目标装置(例如,机器人)以使得、允许或控制目标装置进行确定或预测的方法。该学习算法的示例包括但不限于监督学习、无监督学习、半监督学习、或强化学习。
上面从功能模块化的角度对本申请实施例提供的对话装置进行介绍,接下来,将从硬件实体化的角度对本申请实施例提供的电子设备进行介绍,并同时对电子设备的计算系统进行介绍。
基于与本公开的实施例中所示的方法相同的原理,本公开的实施例中还提供了一种电子设备,该电子设备可以包括但不限于:处理器和存储器;存储器,用于存储计算机操作指令;处理器,用于通过调用计算机操作指令执行实施例所示的对话方法。与现有技术相比,本申请中的对话方法可以有效获取到足够的具有预设对话风格的答句和问句预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
在一个可选实施例中提供了一种电子设备,如图11所示,图11所示的电子设备1100包括:处理器1101和存储器1103。其中,处理器1101和存储器1103相连,如通过总线1102相连。可选地,电子设备1100还可以包括收发器1104。需要说明的是,实际应用中收发器1104不限于一个,该电子设备1100的结构并不构成对本申请实施例的限定。
处理器1101可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器1101也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线1102可包括一通路,在上述组件之间传送信息。总线1102可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线1102可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器1103可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscRead Only Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器1103用于存储执行本申请方案的应用程序代码,并由处理器1101来控制执行。处理器1101用于执行存储器1103中存储的应用程序代码,以实现前述方法实施例所示的内容。
其中,电子设备包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图11示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
根据本公开,在电子设备中执行对话方法中,用于推理或预测对话方法可以使用人工智能模型通过使用问句来推荐/执行对话。电子设备的处理器可以对数据执行预处理操作,以转换成适合用作人工智能模型输入的形式。人工智能模型可以通过训练获得。这里,“通过训练获得”意味着通过训练算法用多条训练数据训练基本人工智能模型来获得被配置成执行期望特征(或目的)的预定义操作规则或人工智能模型。人工智能模型可以包括多个神经网络层。多个神经网络层中的每一层包括多个权重值,并且通过在前一层的计算结果和多个权重值之间的计算来执行神经网络计算。
推理预测是通过确定信息进行逻辑推理和预测的技术,包括例如基于知识的推理、优化预测、基于偏好的规划或推荐。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,当其在计算机上运行时,使得计算机可以执行前述方法实施例中相应内容。与现有技术相比,本申请中的对话方法可以有效获取到足够的具有预设对话风格的答句和预测问句对初始答复预测模型进行训练,从而提高答复预测模型的预测具有预设对话风格的目标预测答句的准确率。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“获取目标问句的模块”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种对话方法,其特征在于,包括:
获取目标问句;
基于答句预测网络预测与所述目标问句对应的具有预设对话风格的目标预测答句;所述答句预测网络是基于具有所述预设对话风格的答句经过问句预测后训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述基于答句预测网络获取与所述目标问句对应的具有预设对话风格的目标预测答句之前,还包括:
确定与所述预设对话风格对应的预设风格标签向量;
基于所述预设风格标签向量和所述答句,获取所述答句预测网络。
3.根据权利要求1所述的方法,其特征在于,所述基于所述预设风格标签向量和所述答句,获取所述答句预测网络,包括:
预测与所述答句对应的预测问句;
基于所述答句、所述预设风格标签向量和所述预测问句,对初始答句预测网络进行训练,得到所述答句预测网络。
4.根据权利要求3所述的方法,其特征在于,所述预测与所述答句对应的预测问句,包括:
将所述答句输入问句预测网络,得到对应的所述预测问句。
5.根据权利要求4所述的方法,其特征在于,所述将所述答句输入问句预测网络,得到对应的所述预测问句之前,还包括:
获取样本问句和对应的样本答句;
基于所述样本问句和所述样本答句对初始问句预测网络进行训练,得到所述问句预测网络。
6.根据权利要求5中所述的方法,其特征在于,所述基于所述答句、所述预设风格标签向量和所述预测问句,对初始答句预测网络进行训练,得到所述答句预测网络之前,还包括:
基于所述样本问句和所述样本答句,对初始预测网络进行训练,得到所述初始答句预测网络。
7.根据权利要求6所述的方法,其特征在于,所述基于所述样本问句和所述样本答句,对初始预测网络进行训练,得到所述初始答句预测网络,包括:
确定与所述样本答句以及所述样本问句均对应的样本风格标签向量;
基于所述样本问句、所述样本答句以及所述样本风格标签向量,对所述初始预测网络进行训练,得到所述初始答句预测网络。
8.一种对话装置,其特征在于,包括:
获取模块,用于获取目标问句;
预测模块,用于基于答句预测网络预测与所述目标问句对应的具有预设对话风格的目标预测答句;所述答句预测网络是基于具有所述预设对话风格的答句经过问句预测后训练得到的。
9.一种电子设备,其特征在于,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:执行根据权利要求1-7任一项所述的对话方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-7任一项所述的对话方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010478654 | 2020-05-29 | ||
CN2020104786540 | 2020-05-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113742541A true CN113742541A (zh) | 2021-12-03 |
Family
ID=78727817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010486647.5A Pending CN113742541A (zh) | 2020-05-29 | 2020-06-01 | 对话方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113742541A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114201595A (zh) * | 2021-12-13 | 2022-03-18 | 贝壳找房网(北京)信息技术有限公司 | 对话中的句子推荐方法和装置、存储介质、电子设备 |
CN114881170A (zh) * | 2022-05-27 | 2022-08-09 | 北京百度网讯科技有限公司 | 用于对话任务的神经网络的训练方法和对话任务处理方法 |
CN117633170A (zh) * | 2023-11-07 | 2024-03-01 | 中译语通科技股份有限公司 | 一种思维链数据构造方法、装置,电子设备及存储介质 |
-
2020
- 2020-06-01 CN CN202010486647.5A patent/CN113742541A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114201595A (zh) * | 2021-12-13 | 2022-03-18 | 贝壳找房网(北京)信息技术有限公司 | 对话中的句子推荐方法和装置、存储介质、电子设备 |
CN114881170A (zh) * | 2022-05-27 | 2022-08-09 | 北京百度网讯科技有限公司 | 用于对话任务的神经网络的训练方法和对话任务处理方法 |
CN114881170B (zh) * | 2022-05-27 | 2023-07-14 | 北京百度网讯科技有限公司 | 用于对话任务的神经网络的训练方法和对话任务处理方法 |
CN117633170A (zh) * | 2023-11-07 | 2024-03-01 | 中译语通科技股份有限公司 | 一种思维链数据构造方法、装置,电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021196920A1 (zh) | 智能问答方法、装置、设备及计算机可读存储介质 | |
CN111897941B (zh) | 对话生成方法、网络训练方法、装置、存储介质及设备 | |
CN112069302B (zh) | 会话意图识别模型的训练方法、会话意图识别方法及装置 | |
CN111914551B (zh) | 自然语言处理方法、装置、电子设备及存储介质 | |
CN107368524B (zh) | 一种对话生成方法、装置以及电子设备 | |
CN111831798A (zh) | 信息处理方法、装置、电子设备及计算机可读存储介质 | |
US11475225B2 (en) | Method, system, electronic device and storage medium for clarification question generation | |
CN113742541A (zh) | 对话方法、装置、电子设备及计算机可读存储介质 | |
Sun et al. | Emotional human-machine conversation generation based on long short-term memory | |
CN112115246A (zh) | 基于对话的内容推荐方法、装置、计算机设备及存储介质 | |
CN113569017B (zh) | 一种模型处理方法、装置、电子设备及存储介质 | |
CN112740132A (zh) | 简答题评分预测 | |
CN111382257A (zh) | 一种生成对话下文的方法和系统 | |
WO2023231513A1 (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
CN113761156A (zh) | 人机交互对话的数据处理方法、装置、介质及电子设备 | |
CN114492661B (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
CN111046157B (zh) | 一种基于平衡分布的通用英文人机对话生成方法和系统 | |
CN114297220A (zh) | 一种数据处理方法、装置、计算机设备以及存储介质 | |
El Alaoui et al. | Building Intelligent Chatbots: Tools, Technologies, and Approaches | |
CN113779224A (zh) | 一种基于用户对话历史的个性化对话生成方法与系统 | |
Yang et al. | User behavior fusion in dialog management with multi-modal history cues | |
CN110851580B (zh) | 一种基于结构化用户属性描述的个性化任务型对话系统 | |
CN116680369A (zh) | 一种共情对话生成方法及系统 | |
Ilievski | Building advanced dialogue managers for goal-oriented dialogue systems | |
CN115470327A (zh) | 基于知识图谱的医疗问答方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211203 |