CN116821306A - 对话回复生成方法、装置、电子设备和存储介质 - Google Patents
对话回复生成方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN116821306A CN116821306A CN202310841224.4A CN202310841224A CN116821306A CN 116821306 A CN116821306 A CN 116821306A CN 202310841224 A CN202310841224 A CN 202310841224A CN 116821306 A CN116821306 A CN 116821306A
- Authority
- CN
- China
- Prior art keywords
- dialogue
- reply
- model
- emotion
- dialog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000003860 storage Methods 0.000 title claims abstract description 31
- 230000008451 emotion Effects 0.000 claims abstract description 173
- 238000012549 training Methods 0.000 claims abstract description 72
- 230000008909 emotion recognition Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 20
- 239000003795 chemical substances by application Substances 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 10
- 230000002787 reinforcement Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开涉及一种对话回复生成方法、装置、电子设备和存储介质。所述方法包括:获得预训练的对话回复模型和训练完成的情绪判别模型;采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据;基于所述情绪判别模型得到所述回复数据对应的奖励值;至少根据所述回复数据和所述奖励值,训练所述对话回复模型。
Description
技术领域
本公开涉及人机对话技术领域,尤其涉及一种对话回复生成方法、对话回复生成装置、电子设备和存储介质。
背景技术
目前,在人机对话中,主要通过两种方式生成对话回复数据。一种方式是基于答案库和规则生成。这种方式可以保证回复的一致性,但千篇一律,无法安抚用户的情绪。另一种方式是采用大批量数据训练得到对话回复模型。这种方式能够提高回复的多样性,但在情绪方面同样不能给到及时的安抚。
发明内容
本公开提供了一种对话回复生成技术方案。
根据本公开的一方面,提供了一种对话回复模型的训练方法,包括:
获得预训练的对话回复模型和训练完成的情绪判别模型;
采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据;
基于所述情绪判别模型得到所述回复数据对应的奖励值;
至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数。
在一种可能的实现方式中,所述基于所述情绪判别模型得到所述回复数据对应的奖励值,包括:
将所述回复数据输入所述情绪判别模型,经由所述情绪判别模型输出所述回复数据属于多个预设情绪类别的概率;
根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值。
在一种可能的实现方式中,所述根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值,包括:
根据所述回复数据属于多个预设情绪类别中的至少一个指定情绪类别的概率,确定所述回复数据对应的奖励值。
在一种可能的实现方式中,所述至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,包括:
获取所述回复数据的上文;
根据所述回复数据、所述回复数据的上文和所述奖励值,更新所述对话回复模型的参数。
在一种可能的实现方式中,所述获得预训练的对话回复模型,包括:
采用第一对话样本集训练所述对话回复模型,得到预训练的对话回复模型,其中,所述第一对话样本集包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文。
在一种可能的实现方式中,所述采用第一对话样本集训练所述对话回复模型,包括:
对于第一对话样本集的任一第一对话样本,将所述第一对话样本的对话上文输入所述对话回复模型,经由所述对话回复模型得到预测对话下文;
根据所述预测对话下文与所述真实对话下文之间的差异信息,训练所述对话回复模型。
在一种可能的实现方式中,获得训练完成的情绪判别模型,包括:
采用第二对话样本集训练所述情绪判别模型,得到训练完成的情绪判别模型,其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签。
在一种可能的实现方式中,所述采用第二对话样本集训练所述情绪判别模型,包括:
对于所述第二对话样本集中的任一第二对话样本,将所述第二对话样本输入所述情绪判别模型,经由所述情绪判别模型输出所述第二对话样本属于多个预设情绪类别的概率;
根据所述第二对话样本属于多个预设情绪类别的概率,以及所述第二对话样本对应的情绪标签,训练所述情绪判别模型。
在一种可能的实现方式中,所述对话回复模型采用Transformer结构。
在一种可能的实现方式中,所述至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,包括:
至少根据所述回复数据和所述奖励值,基于策略梯度方法更新所述对话回复模型的参数。
根据本公开的一方面,提供了一种对话回复生成方法,所述方法包括:
获取由对话回复模型的训练方法训练完成的对话回复模型;
将待回复的对话数据输入所述对话回复模型,经由所述对话回复模型得到所述待回复的对话数据对应的回复数据。
根据本公开的一方面,提供了一种对话回复模型的训练装置,包括:
第一获得模块,用于获得预训练的对话回复模型和训练完成的情绪判别模型;
控制模块,用于采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据;
第二获得模块,用于基于所述情绪判别模型得到所述回复数据对应的奖励值;
训练模块,用于至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数。
在一种可能的实现方式中,所述第二获得模块用于:
将所述回复数据输入所述情绪判别模型,经由所述情绪判别模型输出所述回复数据属于多个预设情绪类别的概率;
根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值。
在一种可能的实现方式中,所述第二获得模块用于:
根据所述回复数据属于多个预设情绪类别中的至少一个指定情绪类别的概率,确定所述回复数据对应的奖励值。
在一种可能的实现方式中,所述训练模块用于:
获取所述回复数据的上文;
根据所述回复数据、所述回复数据的上文和所述奖励值,更新所述对话回复模型的参数。
在一种可能的实现方式中,所述第一获得模块用于:
采用第一对话样本集训练所述对话回复模型,得到预训练的对话回复模型,其中,所述第一对话样本集包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文。
在一种可能的实现方式中,所述第一获得模块用于:
对于第一对话样本集的任一第一对话样本,将所述第一对话样本的对话上文输入所述对话回复模型,经由所述对话回复模型得到预测对话下文;
根据所述预测对话下文与所述真实对话下文之间的差异信息,训练所述对话回复模型。
在一种可能的实现方式中,所述第一获得模块用于:
采用第二对话样本集训练所述情绪判别模型,得到训练完成的情绪判别模型,其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签。
在一种可能的实现方式中,所述第一获得模块用于:
对于所述第二对话样本集中的任一第二对话样本,将所述第二对话样本输入所述情绪判别模型,经由所述情绪判别模型输出所述第二对话样本属于多个预设情绪类别的概率;
根据所述第二对话样本属于多个预设情绪类别的概率,以及所述第二对话样本对应的情绪标签,训练所述情绪判别模型。
在一种可能的实现方式中,所述对话回复模型采用Transformer结构。
在一种可能的实现方式中,所述训练模块用于:
至少根据所述回复数据和所述奖励值,基于策略梯度装置更新所述对话回复模型的参数。
根据本公开的一方面,提供了一种对话回复生成装置,包括:
获取模块,用于获取由对话回复模型的训练装置训练完成的对话回复模型;
生成模块,用于将待回复的对话数据输入所述对话回复模型,经由所述对话回复模型得到所述待回复的对话数据对应的回复数据。
根据本公开的一方面,提供了一种电子设备,包括:一个或多个处理器;用于存储可执行指令的存储器;其中,所述一个或多个处理器被配置为调用所述存储器存储的可执行指令,以执行上述方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的一方面,提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备中运行时,所述电子设备中的处理器执行上述方法。
在本公开实施例中,通过获得预训练的对话回复模型和训练完成的情绪判别模型,采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据,基于所述情绪判别模型得到所述回复数据对应的奖励值,并至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,由此采用强化学习的方式,基于情绪判别模型训练对话回复模型,使对话回复模型学习到生成情绪合适的回复数据的能力,从而有助于减少人工干预。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出本公开实施例提供的对话回复模型的训练方法的流程图。
图2示出本公开实施例提供的对话回复模型的训练方法中的对话回复模型的示意图。
图3示出本公开实施例提供的情绪判别模型的示意图。
图4示出本公开实施例提供的对话回复模型的训练方法中的强化学习过程的示意图。
图5示出本公开实施例提供的对话回复模型的训练方法的应用场景的示意图。
图6示出本公开实施例提供的对话回复模型的训练装置的框图。
图7示出本公开实施例提供的电子设备1900的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
在相关技术中的人机对话中,对话机器人的回复通常刻板、生硬,不带感情。
本公开实施例提供了一种对话回复生成方法、对话回复生成装置、电子设备和存储介质,通过获得预训练的对话回复模型和训练完成的情绪判别模型,采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据,基于所述情绪判别模型得到所述回复数据对应的奖励值,并至少根据所述回复数据和所述奖励值,训练所述对话回复模型,由此采用强化学习的方式,基于情绪判别模型训练对话回复模型,使对话回复模型学习到生成情绪合适的回复数据的能力,从而有助于减少人工干预。
下面结合附图对本公开实施例提供的对话回复模型的训练方法进行详细的说明。
图1示出本公开实施例提供的对话回复模型的训练方法的流程图。在一种可能的实现方式中,所述对话回复模型的训练方法的执行主体可以是对话回复模型的训练装置,例如,所述对话回复模型的训练方法可以由终端设备或服务器或其它电子设备执行。其中,终端设备可以是用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备或者可穿戴设备等。在一些可能的实现方式中,所述对话回复模型的训练方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图1所示,所述对话回复模型的训练方法包括步骤S11至步骤S14。
在步骤S11中,获得预训练的对话回复模型和训练完成的情绪判别模型。
在步骤S12中,采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据。
在步骤S13中,基于所述情绪判别模型得到所述回复数据对应的奖励值。
在步骤S14中,至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数。
本公开实施例中的对话回复模型可以用于对话回复,即,可以用于自动生成对话回复数据。在一些应用场景中,对话回复模型也可以称为对话机器人、聊天机器人等等,在此不做限定。
在一种可能的实现方式中,所述对话回复模型采用Transformer结构。图2示出本公开实施例提供的对话回复模型的训练方法中的对话回复模型的示意图。如图2所示,所述对话回复模型包括编码器和解码器。可以将对话上文输入编码器,经过编码器进行编码,再经过解码器解码获得回复数据。其中,对话回复模型可以采用集束搜索(beam search)等方式获得输出,在此不做限定。
在该实现方式中,通过采用Transformer结构作为对话回复模型的结构,相较于传统的基于LSTM(Long Short Term Memory,长短期记忆网络)的神经网络模型而言,优势在于可以并行训练,同时有更好的记忆上下文的效果。
当然,本领域技术人员可以根据实际应用场景需求和/或个人喜好灵活选择对话回复模型的结构,在此不做限定。
在一种可能的实现方式中,所述获得预训练的对话回复模型,包括:采用第一对话样本集训练所述对话回复模型,得到预训练的对话回复模型,其中,所述第一对话样本集包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文。
在该实现方式中,第一对话样本集可以表示用于预训练对话回复模型的对话样本集。第一对话样本集中的对话样本可以称为第一对话样本。第一对话样本集中的第一对话样本可以通过收集现实生活中人与人之间的对话语料或者人机对话数据并进行数据清洗后获得,在此不做限定。其中,数据清洗可以包括去除敏感信息、广告类等。
在该实现方式中,第一对话样本集中的任一第一对话样本的对话上文可以包括至少一个语句。例如,对话上文可以包括一个语句和该语句之前的3至5轮对话。又如,对话上文可以仅包括该语句。
在该实现方式中,第一对话样本集中的第一对话样本的真实对话下文可以用于作为监督数据,以对对话回复模型的训练进行监督。
在该实现方式中,通过采用第一对话样本集训练所述对话回复模型,得到预训练的对话回复模型,其中,所述第一对话样本集包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文,由此训练得到的对话回复模型与传统的基于规则和模板的对话回复生成方案相比,能够获取更多样、更流畅、更符合常理的回复。
作为该实现方式的一个示例,所述采用第一对话样本集训练所述对话回复模型,包括:对于第一对话样本集的任一第一对话样本,将所述第一对话样本的对话上文输入所述对话回复模型,经由所述对话回复模型得到预测对话下文;根据所述预测对话下文与所述真实对话下文之间的差异信息,训练所述对话回复模型。
在该示例中,预测对话下文可以表示对话回复模型对对话上文进行处理得到的回复数据。
在该示例中,通过对于第一对话样本集的任一第一对话样本,将所述第一对话样本的对话上文输入所述对话回复模型,经由所述对话回复模型得到预测对话下文,并根据所述预测对话下文与所述真实对话下文之间的差异信息,训练所述对话回复模型,由此对话回复模型可以采用模仿学习的方式进行预训练。即,在对话回复模型预训练的过程中,可以使对话回复模型模仿在现实场景下人会给出什么样的回复,从而有助于对话回复模型学习到更多样、更流畅、更符合常理的对话回复能力。
在其他可能的实现方式中,可以将相关技术中的先进的对话回复模型作为预训练的对话回复模型,或者可以将相关技术中的任意对话回复模型作为预训练的对话回复模型。
在本公开实施例中,情绪判别模型可以用于判别语句对应的情绪。在一些应用场景中,情绪判别模型也可以称为情绪识别模型、情绪确定模型等等,在此不做限定。
在一种可能的实现方式中,情绪判别模型可以采用BERT(Bidirectional EncoderRepresentation from Transformers,来自变换器的双向编码器表征量),在此不做限定。
图3示出本公开实施例提供的情绪判别模型的示意图。在图3所示的示例中,情绪判别模型为神经网络分类器。可以将语句输入情绪判别模型,经由情绪判别模型输出输入语句对应的情绪分类结果。
在一种可能的实现方式中,获得训练完成的情绪判别模型,包括:采用第二对话样本集训练所述情绪判别模型,得到训练完成的情绪判别模型,其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签。
在该实现方式中,第二对话样本集可以表示用于训练情绪判别模型的对话样本集。第二对话样本集中的对话样本可以称为第二对话样本。第二对话样本集中的第二对话样本可以通过收集现实生活中人与人之间的对话语料或者人机对话数据并进行数据清洗及标注情绪标签后获得,在此不做限定。
其中,第二对话样本中的情绪标签可以通过人工标注等方式获得。例如,预设情绪类别可以包括5个类别,分别为“喜悦”、“兴奋”、“平淡”、“难过”和“悲伤”。相应地,情绪判别模型可以为5分类模型。例如,语句“我真的好开心啊”对应的情绪标签为“喜悦”;“今天真是倒霉透了”对应的情绪标签为“难过”。在人工标注之后,还可以由人工进行二次审核,以提高情绪标签的准确性。
在该实现方式中,通过采用第二对话样本集训练所述情绪判别模型,得到训练完成的情绪判别模型,其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签,由此能够使情绪判别模型学习到判别语句的情绪的能力。
作为该实现方式的一个示例,所述采用第二对话样本集训练所述情绪判别模型,包括:对于所述第二对话样本集中的任一第二对话样本,将所述第二对话样本输入所述情绪判别模型,经由所述情绪判别模型输出所述第二对话样本属于多个预设情绪类别的概率;根据所述第二对话样本属于多个预设情绪类别的概率,以及所述第二对话样本对应的情绪标签,训练所述情绪判别模型。
在该示例中,情绪判别模型可以输出第二对话样本属于各个预设情绪类别的概率。例如,情绪判别模型为5分类模型,5个预设情绪类别分别为“喜悦”、“兴奋”、“平淡”、“难过”和“悲伤”,则情绪判别模型的输出可以表示为(p1,p2,p3,p4,p5),其中,p1可以表示第二对话样本属于“喜悦”类别的概率,p2可以表示第二对话样本属于“兴奋”类别的概率,p3可以表示第二对话样本属于“平淡”类别的概率,p4可以表示第二对话样本属于“难过”类别的概率,p5可以表示第二对话样本属于“悲伤”类别的概率。
在该实现方式中,通过对于所述第二对话样本集中的任一第二对话样本,将所述第二对话样本输入所述情绪判别模型,经由所述情绪判别模型输出所述第二对话样本属于多个预设情绪类别的概率,并根据所述第二对话样本属于多个预设情绪类别的概率,以及所述第二对话样本对应的情绪标签,训练所述情绪判别模型,由此采用监督学习的方式训练情绪判别模型,能够使情绪判别模型学习到准确地判别语句的情绪的能力。
在本公开实施例中,在获得预训练的对话回复模型和训练完成的情绪判别模型之后,可以采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据。其中,两个智能体对话的开头语句(即第一句话)可以从预设设置的开头语句集中随机获取。例如,开头语句集可以包括“你好”,“今天天气不错”,“电影真好看”等常见的对话开头。
在一种可能的实现方式中,所述基于所述情绪判别模型得到所述回复数据对应的奖励值,包括:将所述回复数据输入所述情绪判别模型,经由所述情绪判别模型输出所述回复数据属于多个预设情绪类别的概率;根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值。
在该实现方式中,可以预先设与多个预设情绪类别一一对应的多个奖励权重,并可以将所述回复数据属于多个预设情绪类别的概率与所述多个奖励权重的加权和,作为所述回复数据对应的奖励值。
例如,回复数据属于5个预设情绪类别的概率为(p1,p2,p3,p4,p5),5个预设情绪类别对应的奖励权重为(a1,a2,a3,a4,a5),则回复数据对应的奖励值可以为a1p1+a2p2+a3p3+a4p4+a5p5。其中,p1表示回复数据属于“喜悦”类别的概率,p2表示回复数据属于“兴奋”类别的概率,p3表示回复数据属于“平淡”类别的概率,p4表示回复数据属于“难过”类别的概率,p5表示回复数据属于“悲伤”类别的概率,a1表示“喜悦”类别对应的奖励权重,a2表示“兴奋”类别对应的奖励权重,a3表示“平淡”类别对应的奖励权重,a4表示“难过”类别对应的奖励权重,a5表示“悲伤”类别对应的奖励权重。
作为该实现方式的一个示例,正面情绪对应的预设情绪类别对应的奖励权重,大于非正面情绪对应的预设情绪类别对应的奖励权重。例如,正面情绪对应的预设情绪类别包括“喜悦”类别和“兴奋”类别,非正面情绪对应的预设情绪类别包括“平淡”类别、“难过”类别和“悲伤”类别。
作为该实现方式的一个示例,正面情绪对应的预设情绪类别对应的奖励权重大于0,负面情绪对应的预设情绪类别对应的奖励权重小于0。例如,负面情绪对应的预设情绪类别可以包括“难过”类别和“悲伤”类别。
作为该实现方式的另一个示例,正面情绪对应的预设情绪类别对应的奖励权重大于0,非正面情绪对应的预设情绪类别对应的奖励权重小于0。
在该实现方式中,通过将所述回复数据输入所述情绪判别模型,经由所述情绪判别模型输出所述回复数据属于多个预设情绪类别的概率,并根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值,由此有助于对话回复模型学习到以更好的情绪回复用户的能力。
作为该实现方式的一个示例,所述根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值,包括:根据所述回复数据属于多个预设情绪类别中的至少一个指定情绪类别的概率,确定所述回复数据对应的奖励值。
在该示例中,至少一个指定情绪类别可以包括正面情绪对应的预设情绪类别。例如,至少一个指定情绪类别可以包括“喜悦”类别和“兴奋”类别。
在该示例中,通过根据所述回复数据属于多个预设情绪类别中的至少一个指定情绪类别的概率,确定所述回复数据对应的奖励值,由此能够提高确定所述回复数据对应的奖励值的效率,并能够使对话回复模型在与用户对话的过程中照顾用户的情绪,引导对话走向正面情绪,并能够在商用过程中减少人工介入。
在一种可能的实现方式中,所述至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,包括:获取所述回复数据的上文;根据所述回复数据、所述回复数据的上文和所述奖励值,更新所述对话回复模型的参数。
在该实现方式中,通过获取所述回复数据的上文,根据所述回复数据、所述回复数据的上文和所述奖励值,更新所述对话回复模型的参数,由此结合所述回复数据的上文进行对话回复模型的训练,有助于提高训练的稳定性。
图4示出本公开实施例提供的对话回复模型的训练方法中的强化学习过程的示意图。在图4中,机器人A和机器人B为采用所述预训练的对话回复模型初始化得到的两个智能体。图4中的输入可以从预设设置的开头语句集中随机获取。例如,开头语句集可以包括“你好”,“今天天气不错”,“电影真好看”等常见的对话开头。并且,发出开头语句的机器人可以随机确定,即,可以将机器人A或机器人B随机确定为发出开头语句的机器人。
机器人A与机器人B进行对话,可以得到回复1、回复2、……、回复n-1、回复n。在强化学习训练框架中,可以以机器人的回复数据为动作(即图4中的动作A),以所述回复数据的上文为状态(即图4中的对话状态S),通过情绪判别模型输出奖励值(即图4中的情绪奖励分R),并可以采用PPO(Proximal Policy Optimization,近端策略优化)等强化学习策略算法对机器人(即对话回复模型)的参数进行更新,得到机器人B’。
在一种可能的实现方式中,所述至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,包括:至少根据所述回复数据和所述奖励值,基于策略梯度(PolicyGradient)方法更新所述对话回复模型的参数。
对话过程中的状态空间、动作空间不可穷举。在该实现方式中,通过至少根据所述回复数据和所述奖励值,基于策略梯度方法更新所述对话回复模型的参数,由此使用策略梯度方法进行学习,有助于提高强化学习的效果。
下面通过一个具体的应用场景说明本公开实施例提供的对话回复模型的训练方法。图5示出本公开实施例提供的对话回复模型的训练方法的应用场景的示意图。
如图5所示,可以收集现实生活中人与人之间的对话语料或者人机对话数据并进行数据清洗,得到第一对话样本集。其中,所述第一对话样本集可以包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文。其中,第一对话样本集中的任一第一对话样本的对话上文可以包括一个语句和该语句之前的3至5轮对话。可以采用第一对话样本集训练对话机器人(即对话回复模型),且对话机器人可以采用模仿学习的方式进行训练。例如,可以将所述第一对话样本的对话上文输入对话机器人,经由对话机器人得到预测对话下文,并根据所述预测对话下文与所述真实对话下文之间的差异信息,训练对话机器人。
在该应用场景中,可以收集现实生活中人与人之间的对话语料或者人机对话数据并进行数据清洗及标注情绪标签后获得第二对话样本集,并可以采用第二对话样本集训练情绪判别模型。其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签(即图5中的标注情绪回复判别数据)。其中,情绪判别模型可以采用监督学习的方法进行训练。
在对话机器人预训练完成且情绪判别模型训练完成之后,可以采用预训练的对话机器人初始化两个智能体(即图5中的对话生成机器人),控制两个智能体进行对话,得到回复数据,将所述回复数据作为动作,将所述回复数据的上文作为状态,基于所述情绪判别模型得到所述回复数据对应的奖励值,进行强化学习。
在该应用场景中,对话回复模型的训练基于深度学习端到端的方式,最终方案无须人工的介入,机器人即可以提供带有温度的智能回复。
本公开实施例还提供了一种对话回复生成方法,所述方法包括:获取由所述对话回复模型的训练方法训练完成的对话回复模型;将待回复的对话数据输入所述对话回复模型,经由所述对话回复模型得到所述待回复的对话数据对应的回复数据。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本公开还提供了对话回复模型的训练装置、对话回复生成装置、电子设备、计算机可读存储介质、计算机程序产品,上述均可用来实现本公开提供的任一种对话回复模型的训练方法或对话回复生成方法,相应技术方案和技术效果可参见方法部分的相应记载,不再赘述。
图6示出本公开实施例提供的对话回复模型的训练装置的框图。如图6所示,所述对话回复模型的训练装置包括:
第一获得模块61,用于获得预训练的对话回复模型和训练完成的情绪判别模型;
控制模块62,用于采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据;
第二获得模块63,用于基于所述情绪判别模型得到所述回复数据对应的奖励值;
训练模块64,用于至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数。
在一种可能的实现方式中,所述第二获得模块63用于:
将所述回复数据输入所述情绪判别模型,经由所述情绪判别模型输出所述回复数据属于多个预设情绪类别的概率;
根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值。
在一种可能的实现方式中,所述第二获得模块63用于:
根据所述回复数据属于多个预设情绪类别中的至少一个指定情绪类别的概率,确定所述回复数据对应的奖励值。
在一种可能的实现方式中,所述训练模块64用于:
获取所述回复数据的上文;
根据所述回复数据、所述回复数据的上文和所述奖励值,更新所述对话回复模型的参数。
在一种可能的实现方式中,所述第一获得模块61用于:
采用第一对话样本集训练所述对话回复模型,得到预训练的对话回复模型,其中,所述第一对话样本集包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文。
在一种可能的实现方式中,所述第一获得模块61用于:
对于第一对话样本集的任一第一对话样本,将所述第一对话样本的对话上文输入所述对话回复模型,经由所述对话回复模型得到预测对话下文;
根据所述预测对话下文与所述真实对话下文之间的差异信息,训练所述对话回复模型。
在一种可能的实现方式中,所述第一获得模块61用于:
采用第二对话样本集训练所述情绪判别模型,得到训练完成的情绪判别模型,其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签。
在一种可能的实现方式中,所述第一获得模块61用于:
对于所述第二对话样本集中的任一第二对话样本,将所述第二对话样本输入所述情绪判别模型,经由所述情绪判别模型输出所述第二对话样本属于多个预设情绪类别的概率;
根据所述第二对话样本属于多个预设情绪类别的概率,以及所述第二对话样本对应的情绪标签,训练所述情绪判别模型。
在一种可能的实现方式中,所述对话回复模型采用Transformer结构。
在一种可能的实现方式中,所述训练模块64用于:
至少根据所述回复数据和所述奖励值,基于策略梯度装置更新所述对话回复模型的参数。
根据本公开的一方面,提供了一种对话回复生成装置,包括:
获取模块,用于获取由对话回复模型的训练装置训练完成的对话回复模型;
生成模块,用于将待回复的对话数据输入所述对话回复模型,经由所述对话回复模型得到所述待回复的对话数据对应的回复数据。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现和技术效果可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提供一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。其中,所述计算机可读存储介质可以是非易失性计算机可读存储介质,或者可以是易失性计算机可读存储介质。
本公开实施例还提出一种计算机程序,包括计算机可读代码,当所述计算机可读代码在电子设备中运行时,所述电子设备中的处理器执行上述方法。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备中运行时,所述电子设备中的处理器执行上述方法。
本公开实施例还提供一种电子设备,包括:一个或多个处理器;用于存储可执行指令的存储器;其中,所述一个或多个处理器被配置为调用所述存储器存储的可执行指令,以执行上述方法。
电子设备可以被提供为终端、服务器或其它形态的设备。
图7示出本公开实施例提供的电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图7,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入/输出接口1958(I/O接口)。电子设备1900可以操作基于存储在存储器1932的操作系统,例如微软服务器操作系统(Windows ServerTM),苹果公司推出的基于图形用户界面操作系统(MacOS XTM),多用户多进程的计算机操作系统(UnixTM),自由和开放原代码的类Unix操作系统(LinuxTM),开放原代码的类Unix操作系统(FreeBSDTM)或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
若本公开实施例的技术方案涉及个人信息,应用本公开实施例的技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本公开实施例的技术方案涉及敏感个人信息,应用本公开实施例的技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (15)
1.一种对话回复模型的训练方法,其特征在于,包括:
获得预训练的对话回复模型和训练完成的情绪判别模型;
采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据;
基于所述情绪判别模型得到所述回复数据对应的奖励值;
至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数。
2.根据权利要求1所述的方法,其特征在于,所述基于所述情绪判别模型得到所述回复数据对应的奖励值,包括:
将所述回复数据输入所述情绪判别模型,经由所述情绪判别模型输出所述回复数据属于多个预设情绪类别的概率;
根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值。
3.根据权利要求2所述的方法,其特征在于,所述根据所述回复数据属于多个预设情绪类别的概率,确定所述回复数据对应的奖励值,包括:
根据所述回复数据属于多个预设情绪类别中的至少一个指定情绪类别的概率,确定所述回复数据对应的奖励值。
4.根据权利要求1至3中任意一项所述的方法,其特征在于,所述至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,包括:
获取所述回复数据的上文;
根据所述回复数据、所述回复数据的上文和所述奖励值,更新所述对话回复模型的参数。
5.根据权利要求1所述的方法,其特征在于,所述获得预训练的对话回复模型,包括:
采用第一对话样本集训练所述对话回复模型,得到预训练的对话回复模型,其中,所述第一对话样本集包括多个第一对话样本,所述多个第一对话样本中的任一第一对话样本包括对话上文和真实对话下文。
6.根据权利要求5所述的方法,其特征在于,所述采用第一对话样本集训练所述对话回复模型,包括:
对于第一对话样本集的任一第一对话样本,将所述第一对话样本的对话上文输入所述对话回复模型,经由所述对话回复模型得到预测对话下文;
根据所述预测对话下文与所述真实对话下文之间的差异信息,训练所述对话回复模型。
7.根据权利要求1所述的方法,其特征在于,获得训练完成的情绪判别模型,包括:
采用第二对话样本集训练所述情绪判别模型,得到训练完成的情绪判别模型,其中,所述第二对话样本集包括多个第二对话样本,所述多个第二对话样本中的任一第二对话样本包括单个语句以及情绪标签。
8.根据权利要求7所的方法,其特征在于,所述采用第二对话样本集训练所述情绪判别模型,包括:
对于所述第二对话样本集中的任一第二对话样本,将所述第二对话样本输入所述情绪判别模型,经由所述情绪判别模型输出所述第二对话样本属于多个预设情绪类别的概率;
根据所述第二对话样本属于多个预设情绪类别的概率,以及所述第二对话样本对应的情绪标签,训练所述情绪判别模型。
9.根据权利要求1至3中任意一项所述的方法,其特征在于,所述对话回复模型采用Transformer结构。
10.根据权利要求1至3中任意一项所述的方法,其特征在于,所述至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数,包括:
至少根据所述回复数据和所述奖励值,基于策略梯度方法更新所述对话回复模型的参数。
11.一种对话回复生成方法,其特征在于,所述方法包括:
获取由权利要求1至10中任意一项所述的方法训练完成的对话回复模型;
将待回复的对话数据输入所述对话回复模型,经由所述对话回复模型得到所述待回复的对话数据对应的回复数据。
12.一种对话回复模型的训练装置,其特征在于,包括:
第一获得模块,用于获得预训练的对话回复模型和训练完成的情绪判别模型;
控制模块,用于采用所述预训练的对话回复模型初始化两个智能体,并控制两个智能体进行对话,得到回复数据;
第二获得模块,用于基于所述情绪判别模型得到所述回复数据对应的奖励值;
训练模块,用于至少根据所述回复数据和所述奖励值,更新所述对话回复模型的参数。
13.一种对话回复生成装置,其特征在于,包括:
获取模块,用于获取由权利要求12所述的方法训练完成的对话回复模型;
生成模块,用于将待回复的对话数据输入所述对话回复模型,经由所述对话回复模型得到所述待回复的对话数据对应的回复数据。
14.一种电子设备,其特征在于,包括:
一个或多个处理器;
用于存储可执行指令的存储器;
其中,所述一个或多个处理器被配置为调用所述存储器存储的可执行指令,以执行权利要求1至11中任意一项所述的方法。
15.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至11中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310841224.4A CN116821306A (zh) | 2023-07-10 | 2023-07-10 | 对话回复生成方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310841224.4A CN116821306A (zh) | 2023-07-10 | 2023-07-10 | 对话回复生成方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116821306A true CN116821306A (zh) | 2023-09-29 |
Family
ID=88118315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310841224.4A Pending CN116821306A (zh) | 2023-07-10 | 2023-07-10 | 对话回复生成方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116821306A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117556026A (zh) * | 2024-01-11 | 2024-02-13 | 阿里云计算有限公司 | 数据生成方法、电子设备及存储介质 |
-
2023
- 2023-07-10 CN CN202310841224.4A patent/CN116821306A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117556026A (zh) * | 2024-01-11 | 2024-02-13 | 阿里云计算有限公司 | 数据生成方法、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299458B (zh) | 实体识别方法、装置、设备及存储介质 | |
US10297273B2 (en) | Assessing the structural quality of conversations | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN111339305B (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN111428042B (zh) | 对话服务中的实体级澄清 | |
CN113127624B (zh) | 问答模型的训练方法及装置 | |
CN115309877B (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN110991165A (zh) | 文本中人物关系提取方法及装置、计算机设备和存储介质 | |
CN111930914A (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
WO2023231513A1 (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
CN116821306A (zh) | 对话回复生成方法、装置、电子设备和存储介质 | |
CN115953645A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN117521675A (zh) | 基于大语言模型的信息处理方法、装置、设备及存储介质 | |
CN116975288A (zh) | 文本处理方法及文本处理模型训练方法 | |
CN112667803A (zh) | 一种文本情感分类方法及装置 | |
CN114547244A (zh) | 用于确定信息的方法和装置 | |
CN114444510A (zh) | 情感交互方法及装置、情感交互模型的训练方法及装置 | |
CN114239607A (zh) | 一种对话答复方法及装置 | |
CN111046157B (zh) | 一种基于平衡分布的通用英文人机对话生成方法和系统 | |
CN117271745A (zh) | 一种信息处理方法、装置及计算设备、存储介质 | |
CN114416941A (zh) | 融合知识图谱的对话知识点确定模型的生成方法及装置 | |
CN115169367B (zh) | 对话生成方法及装置、存储介质 | |
KR102660276B1 (ko) | 거대언어모델을 활용한 업무수행 챗봇 서비스장치 및 그 장치의 구동방법 | |
CN113553863B (zh) | 文本生成方法、装置、电子设备和存储介质 | |
CN114911895A (zh) | 文本生成方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |