CN108090218B - 基于深度强化学习的对话系统生成方法和装置 - Google Patents

基于深度强化学习的对话系统生成方法和装置 Download PDF

Info

Publication number
CN108090218B
CN108090218B CN201711485501.3A CN201711485501A CN108090218B CN 108090218 B CN108090218 B CN 108090218B CN 201711485501 A CN201711485501 A CN 201711485501A CN 108090218 B CN108090218 B CN 108090218B
Authority
CN
China
Prior art keywords
reinforcement learning
training sample
deep reinforcement
neural network
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711485501.3A
Other languages
English (en)
Other versions
CN108090218A (zh
Inventor
陈旺
何煌
姜迪
李辰
彭金华
何径舟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201711485501.3A priority Critical patent/CN108090218B/zh
Publication of CN108090218A publication Critical patent/CN108090218A/zh
Application granted granted Critical
Publication of CN108090218B publication Critical patent/CN108090218B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了基于深度强化学习的对话系统生成方法和装置。该方法的一具体实施方式包括:对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新;利用训练后的深度强化学习网络,构建对话系统。实现了利用训练后的深度强化学习网络构建出的对话系统可自动计算出用户输入的问题语句的候选答复语句对应的深度强化学习值,基于候选答复语句对应的深度强化学习值,从候选答复语句中选取出返回给用户的答复语句。

Description

基于深度强化学习的对话系统生成方法和装置
技术领域
本申请涉及计算机领域,具体涉及自然语言处理领域,尤其涉及基于深度强化学习的对话系统生成方法和装置。
背景技术
对话系统为可根据用户输入的问题语句从候选答复语句中选取出返回给用户的答复语句的人机交互系统。目前,通常对话系统中是根据以人工方式标注的候选答复语句的得分对候选答复语句进行排序,将次序靠前的候选答复语句返回给用户。
发明内容
本申请实施例提供了基于深度强化学习的对话系统生成方法和装置。
第一方面,本申请实施例提供了基于深度强化学习的对话系统生成方法,该方法包括:对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值,其中,训练样本对应的深度强化学习值包括:训练样本中的每一个候选答复语句各自对应的深度强化学习值;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新;利用训练后的深度强化学习网络,构建对话系统。
第二方面,本申请实施例提供了基于深度强化学习的对话系统生成装置,该装置包括:训练单元,配置用于对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值,其中,训练样本对应的深度强化学习值包括:训练样本中的每一个候选答复语句各自对应的深度强化学习值;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新;构建单元,配置用于利用训练后的深度强化学习网络,构建对话系统。
本申请实施例提供的基于深度强化学习的对话系统生成方法和装置,通过对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新;利用训练后的深度强化学习网络,构建对话系统。实现了利用训练后的深度强化学习网络构建出的对话系统可自动计算出用户输入的问题语句的候选答复语句对应的深度强化学习值,基于候选答复语句对应的深度强化学习值,从候选答复语句中选取出返回给用户的答复语句。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了根据本申请的基于深度强化学习的对话系统生成方法的一个实施例的流程图;
图2示出了计算深度强化学习值的一个示例性原理图;
图3示出了根据本申请的基于深度强化学习的对话系统生成装置的一个实施例的结构示意图;
图4示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,其示出了根据本申请的基于深度强化学习的对话系统生成方法的一个实施例的流程。该方法包括以下步骤:
步骤101,对深度强化学习网络的训练样本集中的每一个训练样本,执行训练操作。
在本实施例中,可以利用多个训练样本集对深度强化学习网络进行训练。在利用一个训练样本集对深度强化学习网络进行训练时,可以对该训练样本集中的每一个训练样本,执行一次训练操作。
一个深度强化学习网络(Deep Reinforcement Learning)的训练样本集中的每一个训练样本集中的每一个训练样本各自对应一次训练操作。一个训练样本包括:一个问题语句、该问题语句对应的多个候选答复语句。一个训练样本集中的每一个训练样本中的问题语句构成一组问题语句。
在本实施例中,深度强化学习网络中包含用于计算深度强化学习值的神经网络。深度强化学习值也可称之为Q值。一个训练样本中的候选答复语句对应的深度强化学习值可以为表示该问题语句的向量和表示该候选答复语句的向量的内积。可以利用深度强化学习网络中的用于计算深度强化学习值的神经网络基于问题语句中的词语的词向量对问题语句进行编码,得到表示问题语句的向量,表示问题语句的向量中包含用于计算深度强化学习值的神经网络中的网络参数。利用深度强化学习网络中的用于计算深度强化学习值的神经网络基于候选答复语句中的词语的词向量,对候选答复语句进行编码,得到表示候选答复语句的向量,表示候选答复语句的向量中包含用于计算深度强化学习值的神经网络中的网络参数。将表示问题语句的向量和表示候选答复语句的向量的内积作为该候选答复语句对应的深度强化学习值。
在本实施例中,一个深度强化学习网络的训练样本对应的深度强化学习值包括:该训练样本中的每一个候选答复语句各自对应的深度强化学习值。在对一个训练样本执行的一次训练操作中,可以利用深度强化学习网络中的用于计算深度强化学习值的神经网络分别计算出关联信息。关联信息包括以下一项或多项:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值。当该训练样本中不是该训练样本集中的最后一个训练样本时,则关联信息中包括:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值。当该训练样本是该训练样本集中的最后一个训练样本时,则关联信息包括:该训练样本对应的深度强化学习值。
当该训练样本中不是该训练样本集中的最后一个训练样本时,该训练样本对应的深度强化学习值包括:该训练样本中的每一个候选答复语句对应的深度强化学习值,该训练样本在该训练样本集中的下一个训练样本对应的深度强化学习值包括:该训练样本的下一个训练样本中的每一个候选答复语句对应的深度强化学习值。然后,可以进一步确定出该训练样本中的候选答复语句对应的深度强化学习值中的最大值和该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值。
基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新包括:可以计算出可使得预设损失函数的值最小的用于计算深度强化学习值的神经网络中的网络参数,将当前的用于计算深度强化学习值的神经网络中的网络参数更新为计算出的用于计算深度强化学习值的神经网络中的网络参数。
预设损失函数可以为表示目标输出信息与训练样本中的候选答复语句对应的深度强化学习值中的最大值之差的平方的函数,当训练样本是训练样本集的最后一个训练样本时,则目标输出信息可以为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值。奖励值可以表示对应的深度强化学习值最大的候选答复语句对于下一个训练样本中的问题语句的有利程度。当训练样本中不是训练样本集的最后一个训练样本时,则目标输出信息可以为该训练样本中对应的深度强化学习值最大的候选答复语句对应的奖励值和预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积之和,即目标输出信息为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值加上预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积。
在本实施例的一些可选的实现方式中,用于计算深度强化学习值的神经网络包括:用于生成表示问题语句的问题向量的神经网络、用于生成表示候选答复语句的答复向量的神经网络,用于生成表示问题语句的问题向量的神经网络中的网络参数与用于生成表示候选答复语句的答复向量的神经网络中的网络参数不同。
在对一个训练样本执行的一次训练操作中,可以利用用于计算深度强化学习值的神经网络中的用于生成表示问题语句的问题向量的神经网络对该训练样本中的问题语句进行编码,得到表示该问题语句的问题向量,问题向量中包含用于生成表示问题语句的问题向量的神经网络中的网络参数。
可以利用用于计算深度强化学习值的神经网络中的用于生成表示候选答复语句的答复向量的神经网络分别对该训练样本中的每一个候选答复语句进行编码,得到每一个表示候选答复语句的候选答复向量,候选答复向量中包含用于生成表示候选答复语句的答复向量的神经网络中的网络参数。
基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新包括:可以计算出可使得预设损失函数的值最小的用于生成表示问题语句的问题向量的神经网络中的网络参数和用于生成表示候选答复语句的候选答复向量的神经网络中的网络参数,将当前的用于生成表示问题语句的问题向量的神经网络中的网络参数和用于生成表示候选答复语句的候选答复向量的神经网络中的网络参数更新为计算出的用于生成表示问题语句的问题向量的神经网络中的网络参数和用于生成表示候选答复语句的候选答复向量的神经网络中的网络参数。
预设损失函数可以为表示目标输出信息与训练样本中的候选答复语句对应的深度强化学习值中的最大值之差的平方的函数,当训练样本是训练样本集的最后一个训练样本时,则目标输出信息可以为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值。奖励值可以表示对应的深度强化学习值最大的候选答复语句对于下一个训练样本中的问题语句的有利程度。当训练样本中不是训练样本集的最后一个训练样本时,则目标输出信息可以为该训练样本中对应的深度强化学习值最大的候选答复语句对应的奖励值和预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积之和,即目标输出信息为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值加上预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积。
在本实施例的一些可选的实现方式中,用于生成表示问题语句的问题向量的神经网络可以包括:用于对问题语句进行初步编码的循环神经网络、全连接层,用于对问题语句进行初步编码的循环神经网络对问题语句进行初步编码后得到问题语句的初步编码向量,问题语句的初步编码向量经过用于生成表示问题语句的问题向量的神经网络中的全连接层之后得到问题向量,问题向量中包含用于生成问题向量的神经网络中的全连接层的参数。用于生成表示候选答复语句的候选答复向量的神经网络包括:用于对候选答复语句进行初步编码的循环神经网络、全连接层,用于对候选答复语句进行初步编码的循环神经网络对候选答复语句进行初步编码之后得到候选答复语句的初步编码向量,候选答复语句的初步编码向量经过用于生成表示候选答复语句的候选答复向量的神经网络中的全连接层之后得到候选答复向量,候选答复向量中包含用于生成答复向量的神经网络中的全连接层的参数。
例如,用于生成问题向量的神经网络包括:一个用于对问题语句进行初步编码的循环神经网络、与该用于对问题语句进行初步编码的循环神经网络连接的第一全连接层、与该第一全连接层连接的第二全连接层。用于生成表示候选答复语句的候选答复向量的神经网络包括:一个用于对候选答复语句进行初步编码的循环神经网络、与该用于对候选答复语句进行初步编码的循环神经网络连接的第三全连接层、与该第三全连接层连接的第四全连接层。
在利用循环神经网络对问题语句或候选答复语句进行初步编码时,可以将问题语句或候选答复语句进行分词,得到多个词语,依次将每一个词语依次输入到循环神经网络中进行编码,每一次编码得到一个隐状态向量,可以将最后得到的隐状态向量作为问题语句或候选答复语句的初步编码向量。
问题语句的初步编码向量依次经过第一全连接层、第二全连接层进行之后,得到问题向量,问题向量中包含第一全连接层的参数、第二全连接层的参数。候选答复语句的初步编码向量依次经过第三全连接层、第四全连接层之后,得到候选答复向量,候选答复向量中包含第三全连接层的参数、第四全连接层的参数。
图2示出了计算深度强化学习值的一个示例性原理图。
在图2中,示出了RNN1、RNN2、第一全连接层、第二全连接层、第三全连接层、第四全连接层。RNN1为用于对问题语句进行初步编码的循环神经网络,RNN2为用于对候选答复语句进行初步编码的循环神经网络。
RNN1对问题语句进行初步编码得到问题语句的初步编码向量,问题语句的初步编码向量依次经过第一全连接层、第二全连接层之后,得到问题向量。RNN2对候选答复语句进行初步编码得到候选答复语句的初步编码向量,候选答复语句的初步编码向量依次经过第三全连接层、第四全连接层之后,得到候选答复向量。一个问题向量与一个候选答复向量的内积为该候选答复语句对应的深度强化学习值即Q值。
在本实施例的一些可选的实现方式中,基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新包括:可以计算出可使得预设损失函数的值最小的用于生成问题向量的神经网络中的全连接层的参数、用于生成候选答复向量的神经网络中的全连接层的参数,将当前的用于生成问题向量的神经网络中的全连接层的参数、用于生成候选答复向量的神经网络中的全连接层的参数更新为计算出的用于生成问题向量的神经网络中的全连接层的参数、用于生成候选答复向量的神经网络中的全连接层的参数。
预设损失函数可以为表示目标输出信息与训练样本中的候选答复语句对应的深度强化学习值中的最大值之差的平方的函数,当训练样本是训练样本集的最后一个训练样本时,则目标输出信息可以为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值。奖励值可以表示对应的深度强化学习值最大的候选答复语句对于下一个训练样本中的问题语句的有利程度。当训练样本中不是训练样本集的最后一个训练样本时,则目标输出信息可以为该训练样本中对应的深度强化学习值最大的候选答复语句对应的奖励值和预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积之和,即目标输出信息为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值加上预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积。
步骤102,利用训练后的深度强化学习网络构建对话系统。
在本实施例中,可以利用多个训练样本集对深度强化学习网络进行训练,得到训练后的深度强化学习网络。训练后的深度强化学习网络可以与用于接收用户的输入的模块、用于向用户返回的答复语句的模块等模块进行组合,构成出对话系统。
训练后的深度强化学习网络可以根据用户输入的问题语句,自动计算出每一个该问题语句的候选答复语句对应的深度强化学习值即Q值,然后,从候选答复语句中选取出返回给用户的答复语句例如将对应的Q值最大的候选答复语句作为返回给用户的答复语句。可以利用训练后的深度强化学习网络,构建对话系统。构建出的对话系统在通过接收用户输入的问题语句之后,可以利用对话系统中的训练后的深度强化学习网络从候选答复语句中选取出返回给用户的答复语句,向用户返回答复语句。
请参考图3,作为对上述各图所示方法的实现,本申请提供了一种基于深度强化学习的对话系统生成装置的一个实施例,该装置实施例与图1所示的方法实施例相对应。
如图3所示,本实施例的基于深度强化学习的对话系统生成装置包括:训练单元301,构建单元302。其中,训练单元301配置用于对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值,其中,训练样本对应的深度强化学习值包括:训练样本中的每一个候选答复语句各自对应的深度强化学习值;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新;构建单元302配置用于利用训练后的深度强化学习网络,构建对话系统。
在本实施例的一些可选的实现方式中,用于计算深度强化学习值的神经网络包括:用于生成表示训练样本中的问题语句的问题向量的神经网络、用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络,其中,用于生成表示训练样本中的问题语句的问题向量的神经网络中的网络参数与用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络中的网络参数不同。
在本实施例的一些可选的实现方式中,用于生成表示训练样本中的问题语句的问题向量的神经网络包括:用于对问题语句进行初步编码的循环神经网络、全连接层,用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络包括:用于对候选答复语句进行初步编码的循环神经网络、全连接层。
在本实施例的一些可选的实现方式中,训练单元包括:更新子单元,配置用于基于关联信息,计算出使得预设损失函数的值最小的全连接层参数,全连接层参数包括:用于生成表示训练样本中的问题语句的问题向量的神经网络中的全连接层的参数、用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络中的全连接层的参数;将当前的全连接层参数更新为计算出全连接层参数。
图4示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
如图4所示,计算机系统包括中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储部分408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM403中,还存储有计算机系统操作所需的各种程序和数据。CPU 401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
以下部件连接至I/O接口405:输入部分406;输出部分407;包括硬盘等的存储部分408;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分409。通信部分409经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至I/O接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入存储部分408。
特别地,本申请的实施例中描述的过程可以被实现为计算机程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包括用于执行流程图所示的方法的指令。该计算机程序可以通过通信部分409从网络上被下载和安装,和/或从可拆卸介质411被安装。在该计算机程序被中央处理单元(CPU)401执行时,执行本申请的方法中限定的上述功能。
本申请还提供了一种电子设备,该电子设备可以配置有一个或多个处理器;存储器,用于存储一个或多个程序,一个或多个程序中可以包含用以执行上述步骤101-102中描述的操作的指令。当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行上述步骤101-102中描述的操作。
本申请还提供了一种计算机可读介质,该计算机可读介质可以是电子设备中所包括的;也可以是单独存在,未装配入电子设备中。上述计算机可读介质承载有一个或者多个程序,当一个或者多个程序被电子设备执行时,使得电子设备:对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:该训练样本对应的深度强化学习值、该训练样本的下一个训练样本对应的深度强化学习值;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新;利用训练后的深度强化学习网络,构建对话系统。实现了利用训练后的深度强化学习网络构建出的对话系统可自动计算出用户输入的问题语句的候选答复语句对应的深度强化学习值,基于候选答复语句对应的深度强化学习值,从候选答复语句中选取出返回给用户的答复语句。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括训练单元,构建单元。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种基于深度强化学习的对话系统生成方法,包括:
对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:训练样本对应的深度强化学习值、所述训练样本的下一个训练样本对应的深度强化学习值,其中,训练样本对应的深度强化学习值包括:训练样本中的每一个候选答复语句各自对应的深度强化学习值,每一个候选答复语句各自对应的深度强化学习值为该训练样本中问题语句的向量和候选答复语句的向量的内积,其中,所述问题语句的向量基于以下步骤确定:利用深度强化学习网络中的用于计算深度强化学习值的神经网络基于问题语句中的词语的词向量对问题语句进行编码,得到所述问题语句的向量,所述候选答复语句的向量基于以下步骤确定:利用深度强化学习网络中的用于计算深度强化学习值的神经网络基于候选答复语句中的词语的词向量,对候选答复语句进行编码,得到所述候选答复语句的向量;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新,包括:计算出得预设损失函数的值最小的用于计算深度强化学习值的神经网络中的网络参数,将当前的用于计算深度强化学习值的神经网络中的网络参数更新为计算出的用于计算深度强化学习值的神经网络中的网络参数,其中,预设损失函数为表示目标输出信息与训练样本中的候选答复语句对应的深度强化学习值中的最大值之差的平方的函数,所述目标输出信息为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值加上预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积;
利用训练后的深度强化学习网络,构建对话系统。
2.根据权利要求1所述的方法,用于计算深度强化学习值的神经网络包括:用于生成表示训练样本中的问题语句的问题向量的神经网络、用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络,其中,用于生成表示训练样本中的问题语句的问题向量的神经网络中的网络参数与用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络中的网络参数不同。
3.根据权利要求2所述的方法,用于生成表示训练样本中的问题语句的问题向量的神经网络包括:用于对问题语句进行初步编码的循环神经网络、全连接层,用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络包括:用于对候选答复语句进行初步编码的循环神经网络、全连接层。
4.根据权利要求3所述的方法,基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新包括:
基于关联信息,计算出使得预设损失函数的值最小的全连接层参数,全连接层参数包括:用于生成表示训练样本中的问题语句的问题向量的神经网络中的全连接层的参数、用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络中的全连接层的参数;
将当前的全连接层参数更新为计算出全连接层参数。
5.一种基于深度强化学习的对话系统生成装置,包括:
训练单元,配置用于对深度强化学习网络的训练样本集中的每一个训练样本,执行以下训练操作:利用深度强化学习网络中的用于计算深度强化学习值的神经网络计算出关联信息,关联信息包括以下一项或多项:训练样本对应的深度强化学习值、所述训练样本的下一个训练样本对应的深度强化学习值,其中,训练样本对应的深度强化学习值包括:训练样本中的每一个候选答复语句各自对应的深度强化学习值,每一个候选答复语句各自对应的深度强化学习值为该训练样本中问题语句的向量和候选答复语句的向量的内积,其中,所述问题语句的向量基于以下步骤确定:利用深度强化学习网络中的用于计算深度强化学习值的神经网络基于问题语句中的词语的词向量对问题语句进行编码,得到所述问题语句的向量,所述候选答复语句的向量基于以下步骤确定:利用深度强化学习网络中的用于计算深度强化学习值的神经网络基于候选答复语句中的词语的词向量,对候选答复语句进行编码,得到所述候选答复语句的向量;基于关联信息,对用于计算深度强化学习值的神经网络中的网络参数进行更新,包括:计算出得预设损失函数的值最小的用于计算深度强化学习值的神经网络中的网络参数,将当前的用于计算深度强化学习值的神经网络中的网络参数更新为计算出的用于计算深度强化学习值的神经网络中的网络参数,其中,预设损失函数为表示目标输出信息与训练样本中的候选答复语句对应的深度强化学习值中的最大值之差的平方的函数,所述目标输出信息为该训练样本中的对应的深度强化学习值最大的候选答复语句对应的奖励值加上预设超参数与该训练样本的下一个训练样本中的候选答复语句对应的深度强化学习值中的最大值的乘积;
构建单元,配置用于利用训练后的深度强化学习网络,构建对话系统。
6.根据权利要求5所述的装置,用于计算深度强化学习值的神经网络包括:用于生成表示训练样本中的问题语句的问题向量的神经网络、用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络,其中,用于生成表示训练样本中的问题语句的问题向量的神经网络中的网络参数与用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络中的网络参数不同。
7.根据权利要求6所述的装置,用于生成表示训练样本中的问题语句的问题向量的神经网络包括:用于对问题语句进行初步编码的循环神经网络、全连接层,用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络包括:用于对候选答复语句进行初步编码的循环神经网络、全连接层。
8.根据权利要求7所述的装置,训练单元包括:
更新子单元,配置用于基于关联信息,计算出使得预设损失函数的值最小的全连接层参数,全连接层参数包括:用于生成表示训练样本中的问题语句的问题向量的神经网络中的全连接层的参数、用于生成表示训练样本中的候选答复语句的候选答复向量的神经网络中的全连接层的参数;将当前的全连接层参数更新为计算出全连接层参数。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN201711485501.3A 2017-12-29 2017-12-29 基于深度强化学习的对话系统生成方法和装置 Active CN108090218B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711485501.3A CN108090218B (zh) 2017-12-29 2017-12-29 基于深度强化学习的对话系统生成方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711485501.3A CN108090218B (zh) 2017-12-29 2017-12-29 基于深度强化学习的对话系统生成方法和装置

Publications (2)

Publication Number Publication Date
CN108090218A CN108090218A (zh) 2018-05-29
CN108090218B true CN108090218B (zh) 2022-08-23

Family

ID=62181368

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711485501.3A Active CN108090218B (zh) 2017-12-29 2017-12-29 基于深度强化学习的对话系统生成方法和装置

Country Status (1)

Country Link
CN (1) CN108090218B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105029B (zh) * 2018-10-29 2024-04-16 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN109783817B (zh) * 2019-01-15 2022-12-06 浙江大学城市学院 一种基于深度强化学习的文本语义相似计算模型
CN110008332B (zh) * 2019-02-13 2020-11-10 创新先进技术有限公司 通过强化学习提取主干词的方法及装置
US11677705B2 (en) * 2019-04-23 2023-06-13 International Business Machines Corporation Enriched message embedding for conversation deinterleaving
CN110222164B (zh) * 2019-06-13 2022-11-29 腾讯科技(深圳)有限公司 一种问答模型训练方法、问题语句处理方法、装置及存储介质
CN112116095B (zh) * 2019-06-19 2024-05-24 北京搜狗科技发展有限公司 一种多任务学习模型训练的方法及相关装置
CN111368051A (zh) * 2020-02-28 2020-07-03 平安科技(深圳)有限公司 一种对话生成方法、装置及计算机设备
CN111400466A (zh) * 2020-03-05 2020-07-10 中国工商银行股份有限公司 一种基于强化学习的智能对话方法及装置
CN114240454A (zh) * 2021-12-03 2022-03-25 山东远联信息科技有限公司 一种基于深度学习的智能交互方法、系统及终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1363899A (zh) * 2000-12-28 2002-08-14 松下电器产业株式会社 文本分类参数生成器和使用所生成参数的文本分类器
CN1419686A (zh) * 2000-10-30 2003-05-21 皇家菲利浦电子有限公司 模拟人际交互并利用相关数据装载外部数据库的用户接口/娱乐设备
CN107368547A (zh) * 2017-06-28 2017-11-21 西安交通大学 一种基于深度学习的智能医疗自动问答方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150302317A1 (en) * 2014-04-22 2015-10-22 Microsoft Corporation Non-greedy machine learning for high accuracy
EP3465463A1 (en) * 2016-06-03 2019-04-10 Maluuba Inc. Natural language generation in a spoken dialogue system
JP6671020B2 (ja) * 2016-06-23 2020-03-25 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置及びプログラム
CN107066558A (zh) * 2017-03-28 2017-08-18 北京百度网讯科技有限公司 基于人工智能的引导项推荐方法及装置、设备与可读介质
CN107463701B (zh) * 2017-08-15 2020-09-08 北京百度网讯科技有限公司 基于人工智能推送信息流的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1419686A (zh) * 2000-10-30 2003-05-21 皇家菲利浦电子有限公司 模拟人际交互并利用相关数据装载外部数据库的用户接口/娱乐设备
CN1363899A (zh) * 2000-12-28 2002-08-14 松下电器产业株式会社 文本分类参数生成器和使用所生成参数的文本分类器
CN107368547A (zh) * 2017-06-28 2017-11-21 西安交通大学 一种基于深度学习的智能医疗自动问答方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Building End-to-End Dialogue Systems Using Generative Hierarchical Neural Network Models;Iulian V.Serban等;《Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence(AAAI-16)》;20160217;全文 *
Learning to Respond with Deep Neural Networks for Retrieval-Based Human-Computer Conversation System;Rui Yan等;《SiGIR 16》;20160721;全文 *
基于分层编码的深度增强学习对话生成;赵宇晴等;《计算机应用》;20171010(第10期);全文 *
基于卷积神经网络的自适应权重multi-gram语句建模系统;张春云等;《计算机科学》;20170115(第01期);全文 *
智能对话系统研究综述;贾熹滨等;《北京工业大学学报》;20170910(第09期);全文 *

Also Published As

Publication number Publication date
CN108090218A (zh) 2018-05-29

Similar Documents

Publication Publication Date Title
CN108090218B (zh) 基于深度强化学习的对话系统生成方法和装置
CN108630190B (zh) 用于生成语音合成模型的方法和装置
CN110366734B (zh) 优化神经网络架构
CN107464554B (zh) 语音合成模型生成方法和装置
US10043512B2 (en) Generating target sequences from input sequences using partial conditioning
CN107452369B (zh) 语音合成模型生成方法和装置
CN110110337B (zh) 翻译模型训练方法、介质、装置和计算设备
CN111428010B (zh) 人机智能问答的方法和装置
CN111523640B (zh) 神经网络模型的训练方法和装置
CN109376267B (zh) 用于生成模型的方法和装置
CN111143535A (zh) 用于生成对话模型的方法和装置
CN110704597B (zh) 对话系统可靠性校验方法、模型生成方法及装置
CN109829164B (zh) 用于生成文本的方法和装置
CN111625634A (zh) 词槽识别方法及装置、计算机可读存储介质、电子设备
CN111666416A (zh) 用于生成语义匹配模型的方法和装置
EP3649582A1 (en) System and method for automatic building of learning machines using learning machines
CN111931057A (zh) 一种自适应输出的序列推荐方法和系统
CN111753076A (zh) 对话方法、装置、电子设备及可读存储介质
CN108280513B (zh) 模型生成方法和装置
CN114637843A (zh) 数据处理方法、装置、电子设备及存储介质
CN111241843B (zh) 基于复合神经网络的语义关系推断系统和方法
CN114511152A (zh) 预测模型的训练方法和装置
CN111711868B (zh) 基于视听多模态的舞蹈生成方法、系统、装置
CN111090740B (zh) 一种用于对话系统的知识图谱生成方法
CN117371428A (zh) 基于大语言模型的文本处理方法与装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant