CN106951512A - 一种基于混合编码网络的端到端对话控制方法 - Google Patents

一种基于混合编码网络的端到端对话控制方法 Download PDF

Info

Publication number
CN106951512A
CN106951512A CN201710160951.9A CN201710160951A CN106951512A CN 106951512 A CN106951512 A CN 106951512A CN 201710160951 A CN201710160951 A CN 201710160951A CN 106951512 A CN106951512 A CN 106951512A
Authority
CN
China
Prior art keywords
action
entity
hcn
rnn
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201710160951.9A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201710160951.9A priority Critical patent/CN106951512A/zh
Publication of CN106951512A publication Critical patent/CN106951512A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明中提出的一种基于混合编码网络的端到端对话控制方法,其主要内容包括:混合编码网络(HCN)模型,应用循环神经网络(RNN)学习“端到端”模型,监督学习评价,通过监督学习或强化学习来训练神经网络,其过程为,先将用户话语作为文本形成词袋矢量,通过实体抽取、实体跟踪将特征分量级联成特征向量,再将载体递给RNN计算隐藏状态,传递到softmax激活的密集层,标准化后选择动作模板并传递到实体输出,在实体中替换并完全形成动作,若动作是文本,则呈现给用户,并循环重复。本发明中HCN以相当少的训练数据实现相同的性能,同时保持端到端可训练性,降低了学习的复杂性,提高了准确性;节省人力资源,提高工作效率。

Description

一种基于混合编码网络的端到端对话控制方法
技术领域
本发明涉及对话控制领域,尤其是涉及了一种基于混合编码网络的端到端对话控制方法。
背景技术
随着现代语音识别技术和对话控制系统的发展,采用问答形式的自然语言对话系统是当前对话系统领域的研究热点,其包括了自然语言理解、对话管理、信息抽取和自然语言生成等技术。对话控制可以应用在公众场合,如机场、车站、银行等的信息查询系统,移动信息查询终端,在线应答服务等。目前,许多网站都提供了在线应答服务,但其系统需要较多训练数据,学习复杂性高,准确性却较低。
本发明提出了一种基于混合编码网络的端到端对话控制方法,先将用户话语作为文本形成词袋矢量,通过实体抽取、实体跟踪将特征分量级联成特征向量,再将载体递给RNN计算隐藏状态,传递到softmax激活的密集层,标准化后选择动作模板并传递到实体输出,在实体中替换并完全形成动作,若动作是文本,则呈现给用户,并循环重复。本发明中HCN以相当少的训练数据实现相同的性能,同时保持端到端可训练性,降低了学习的复杂性,提高了准确性;节省人力资源,提高工作效率。
发明内容
针对需要较多训练数据,学习复杂性高等问题,本发明的目的在于提供一种基于混合编码网络的端到端对话控制方法,先将用户话语作为文本形成词袋矢量,通过实体抽取、实体跟踪将特征分量级联成特征向量,再将载体递给RNN计算隐藏状态,传递到softmax激活的密集层,标准化后选择动作模板并传递到实体输出,在实体中替换并完全形成动作,若动作是文本,则呈现给用户,并循环重复。
为解决上述问题,本发明提供一种基于混合编码网络的端到端对话控制方法,其主要内容包括:
(一)混合编码网络(HCN)模型;
(二)应用循环神经网络(RNN)学习“端到端”模型;
(三)监督学习评价;
(四)通过监督学习或强化学习来训练神经网络。
其中,所述的混合编码网络(HCN)模型,HCN的四个组件是递归神经网络、特定领域的软件、特定领域动作模板、用于标识文本中的实体引用的常规实体抽取模块;RNN和开发者代码都保持状态;每个操作模板可以是文本交际操作或应用程序接口(API)调用。
进一步地,所述的HCN模型,当用户提供话语作为文本时,周期开始;形成词袋矢量;再使用预建话语嵌入模型形成话语嵌入;接着,实体抽取模块标识实体;然后将文本和实体提及传递给由开发者提供的实体跟踪代码,将文本映射到数据库中的特定行;该代码可以返回动作掩码,指示当前时间步骤允许的动作,作为位向量;它还可以可选地返回上下文特征,有助于区分动作的特征;
特征分量级联形成特征向量;该载体被传递给RNN,RNN计算隐藏状态(向量),为下一个时间步长保留隐藏状态,并将其传递到softmax激活的密集层,输出维度等于不同系统动作模板的数量,输出是动作模板分布;接下来,将动作掩模应用为逐元素乘法,并且将结果归一化回概率分布,使非允许的动作采用概率零;从所得到的分布选择动作;当强化学习活动时,从分布中采样动作;当强化学习不活动时,选择最佳动作,即选择具有最高概率的动作;
接下来,所选择的动作被传递到实体输出开发人员代码,可以在实体中替换并产生完全形成的动作;如果它是API动作,API充当传感器并返回与对话相关的特征,因此被添加到下一个时间步长中的特征向量;如果动作是文本,则将其呈现给用户,并且循环然后重复;在下一时间步骤中将所采取的动作作为特征提供给RNN。
其中,所述的应用循环神经网络(RNN)来学习“端到端”模型,从可观察的对话历史直接映射到输出字序列;这些系统可以通过添加特殊的“API调用”动作,将数据库输出枚举为标记序列,然后使用存储器网络、门控存储器网络、查询减少网络和复制网络来学习RNN,从而应用于面向任务的域;在这些架构的每一个中,RNN学习操纵实体值;通过生成标记序列(或排列所有可能的表面形式)来产生输出;HCN还使用RNN累积对话状态并选择动作;HCN使用开发者提供的动作模板,可以包含实体引用。
其中,所述的监督学习评价,应用HCN的简单域专用软件要先对实体提取使用简单的字符串匹配,其具有预定义的实体名称列表;其次,在上下文更新中,创建用于跟踪实体的简单规则,其中在输入中识别的实体覆盖现有条目;然后,系统动作被模板化;当数据库结果接收到实体状态,按评级排序;最后创建编码常识依赖性的动作掩码。
进一步地,所述的监督学习评价,使用特定领域的软件在训练集上训练HCN,使用优化器为循环层选择长短期记忆网络(LSTM);使用开发集来调整隐藏单元的数量和时期的数量;通过使用对数据使用公开可用的300维词嵌入模型,通过平均词嵌入形成语言嵌入;在训练中,每个对话形成一个小批次,并且在完全展开(即,通过时间的非截断的反向传播)上进行更新。
进一步地,所述的对话框数据标记,用户通过输入问题的简短描述开始使用对话系统,对话框数据标记如下:首先,列举在数据中观察到的唯一系统动作;然后对每个对话框检查每个系统操作,并确定它是否是现有系统动作之中最合适的动作;如果是,保留原样并继续下一个系统操作;如果不是,将其替换为正确的系统操作,并放弃对话框的其余部分;结果数据集包含完整和部分对话框的混合,仅包含正确的系统操作;将这个集合划分为训练和测试对话框。
进一步地,所述的对话框,从对话框开始,检查哪个方法产生更长的连续的正确系统动作序列;
其中,C(HCN-win)是基于规则的方法在HCN之前输出错误动作的测试对话框的数量;C(rule-win)是测试对话框的数量,其中HCN在基于规则的方法之前输出错误的动作;C(all)是测试集中的对话数;当ΔP>0时,HCN更经常地从对话开始产生连续的正确动作序列。
其中,所述的通过监督学习或强化学习来训练神经网络,应用监督学习训练LSTM模仿系统开发者提供的对话;一旦系统大规模操作,与大量用户交互,期望系统使用强化学习继续自主学习;使用强化学习,代理在不同情况下探索不同的动作序列,并且进行调整以便最大化反馈的预期折扣和,表示为G;
为了优化,选择策略渐变方法,在基于策略梯度的强化学习中,模型π由w参数化,并输出在每个时间步长对动作进行采样的分布;在对话结束时,计算该对话的返回G,并且计算针对模型权重采取的动作的概率的梯度;然后通过采用与返回成正比的梯度步长来调整权重:
其中,α是学习率;at在时间步长t采取的行动;ht是在时间t的对话历史;G是返回对话框;表示F相对于x的雅克比式;b是下面描述的基线;π(at|ht;w)是LSTM,即随机策略,其输出在由权重w参数化的给定对话历史h上的分布;基线b是使用加权重要性抽样在过去100个对话框中估计的当前策略的平均回报估计。
进一步地,所述的监督学习和强化学习,对应于更新权重的不同方法,可以应用于相同的网络;但不能保证最优强化学习策略将与监督学习训练集合一致;因此,在每个强化学习梯度步骤之后,检查更新的策略是否重构训练集;如果没有,在训练集上重新运行监督学习梯度步骤,直到模型再现训练集;这种方法允许在强化学习优化期间的任何时间添加新的训练对话。
附图说明
图1是本发明一种基于混合编码网络的端到端对话控制方法的系统框架图。
图2是本发明一种基于混合编码网络的端到端对话控制方法的HCN模型。
图3是本发明一种基于混合编码网络的端到端对话控制方法的对话框数据标记。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于混合编码网络的端到端对话控制方法的系统框架图。主要包括混合编码网络(HCN)模型,应用循环神经网络(RNN)学习“端到端”模型,监督学习评价,通过监督学习或强化学习来训练神经网络。
应用循环神经网络(RNN)来学习“端到端”模型,从可观察的对话历史直接映射到输出字序列;这些系统可以通过添加特殊的“API调用”动作,将数据库输出枚举为标记序列,然后使用存储器网络、门控存储器网络、查询减少网络和复制网络来学习RNN,从而应用于面向任务的域;在这些架构的每一个中,RNN学习操纵实体值;通过生成标记序列(或排列所有可能的表面形式)来产生输出;HCN还使用RNN累积对话状态并选择动作;HCN使用开发者提供的动作模板,可以包含实体引用。
监督学习评价,应用HCN的简单域专用软件要先对实体提取使用简单的字符串匹配,其具有预定义的实体名称列表;其次,在上下文更新中,创建用于跟踪实体的简单规则,其中在输入中识别的实体覆盖现有条目;然后,系统动作被模板化;当数据库结果接收到实体状态,按评级排序;最后创建编码常识依赖性的动作掩码。
使用特定领域的软件在训练集上训练HCN,使用优化器为循环层选择长短期记忆网络(LSTM);使用开发集来调整隐藏单元的数量和时期的数量;通过使用对数据使用公开可用的300维词嵌入模型,通过平均词嵌入形成语言嵌入;在训练中,每个对话形成一个小批次,并且在完全展开(即,通过时间的非截断的反向传播)上进行更新。
通过监督学习或强化学习来训练神经网络,应用监督学习训练LSTM模仿系统开发者提供的对话;一旦系统大规模操作,与大量用户交互,期望系统使用强化学习继续自主学习;使用强化学习,代理在不同情况下探索不同的动作序列,并且进行调整以便最大化反馈的预期折扣和,表示为G;
为了优化,选择策略渐变方法,在基于策略梯度的强化学习中,模型π由w参数化,并输出在每个时间步长对动作进行采样的分布;在对话结束时,计算该对话的返回G,并且计算针对模型权重采取的动作的概率的梯度;然后通过采用与返回成正比的梯度步长来调整权重:
其中,α是学习率;at在时间步长t采取的行动;ht是在时间t的对话历史;G是返回对话框;表示F相对于x的雅克比式;b是下面描述的基线;π(at|ht;w)是LSTM,即随机策略,其输出在由权重w参数化的给定对话历史h上的分布;基线b是使用加权重要性抽样在过去100个对话框中估计的当前策略的平均回报估计。
对应于更新权重的不同方法,可以应用于相同的网络;但不能保证最优强化学习策略将与监督学习训练集合一致;因此,在每个强化学习梯度步骤之后,检查更新的策略是否重构训练集;如果没有,在训练集上重新运行监督学习梯度步骤,直到模型再现训练集;这种方法允许在强化学习优化期间的任何时间添加新的训练对话。
图2是本发明一种基于混合编码网络的端到端对话控制方法的HCN模型。HCN的四个组件是递归神经网络、特定领域的软件、特定领域动作模板、用于标识文本中的实体引用的常规实体抽取模块;RNN和开发者代码都保持状态;每个操作模板可以是文本交际操作或应用程序接口(API)调用。
当用户提供话语作为文本时,周期开始;形成词袋矢量;再使用预建话语嵌入模型形成话语嵌入;接着,实体抽取模块标识实体;然后将文本和实体提及传递给由开发者提供的实体跟踪代码,将文本映射到数据库中的特定行;该代码可以返回动作掩码,指示当前时间步骤允许的动作,作为位向量;它还可以可选地返回上下文特征,有助于区分动作的特征;
特征分量级联形成特征向量;该载体被传递给RNN,RNN计算隐藏状态(向量),为下一个时间步长保留隐藏状态,并将其传递到softmax激活的密集层,输出维度等于不同系统动作模板的数量,输出是动作模板分布;接下来,将动作掩模应用为逐元素乘法,并且将结果归一化回概率分布,使非允许的动作采用概率零;从所得到的分布选择动作;当强化学习活动时,从分布中采样动作;当强化学习不活动时,选择最佳动作,即选择具有最高概率的动作;
接下来,所选择的动作被传递到实体输出开发人员代码,可以在实体中替换并产生完全形成的动作;如果它是API动作,API充当传感器并返回与对话相关的特征,因此被添加到下一个时间步长中的特征向量;如果动作是文本,则将其呈现给用户,并且循环然后重复;在下一时间步骤中将所采取的动作作为特征提供给RNN。
图3是本发明一种基于混合编码网络的端到端对话控制方法的对话框数据标记。用户通过输入问题的简短描述开始使用对话系统,对话框数据标记如下:首先,列举在数据中观察到的唯一系统动作;然后对每个对话框检查每个系统操作,并确定它是否是现有系统动作之中最合适的动作;如果是,保留原样并继续下一个系统操作;如果不是,将其替换为正确的系统操作,并放弃对话框的其余部分;结果数据集包含完整和部分对话框的混合,仅包含正确的系统操作;将这个集合划分为训练和测试对话框。
从对话框开始,检查哪个方法产生更长的连续的正确系统动作序列;
其中,C(HCN-win)是基于规则的方法在HCN之前输出错误动作的测试对话框的数量;C(rule-win)是测试对话框的数量,其中HCN在基于规则的方法之前输出错误的动作;C(all)是测试集中的对话数;当ΔP>0时,HCN更经常地从对话开始产生连续的正确动作序列。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于混合编码网络的端到端对话控制方法,其特征在于,主要包括混合编码网络(HCN)模型(一);应用循环神经网络(RNN)学习“端到端”模型(二);监督学习评价(三);通过监督学习或强化学习来训练神经网络(四)。
2.基于权利要求书1所述的混合编码网络(HCN)模型(一),其特征在于,HCN的四个组件是递归神经网络、特定领域的软件、特定领域动作模板、用于标识文本中的实体引用的常规实体抽取模块;RNN和开发者代码都保持状态;每个操作模板可以是文本交际操作或应用程序接口(API)调用。
3.基于权利要求书2所述的HCN模型,其特征在于,当用户提供话语作为文本时,周期开始;形成词袋矢量;再使用预建话语嵌入模型形成话语嵌入;接着,实体抽取模块标识实体;然后将文本和实体提及传递给由开发者提供的实体跟踪代码,将文本映射到数据库中的特定行;该代码可以返回动作掩码,指示当前时间步骤允许的动作,作为位向量;它还可以可选地返回上下文特征,有助于区分动作的特征;
特征分量级联形成特征向量;该载体被传递给RNN,RNN计算隐藏状态(向量),为下一个时间步长保留隐藏状态,并将其传递到softmax激活的密集层,输出维度等于不同系统动作模板的数量,输出是动作模板分布;接下来,将动作掩模应用为逐元素乘法,并且将结果归一化回概率分布,使非允许的动作采用概率零;从所得到的分布选择动作;当强化学习活动时,从分布中采样动作;当强化学习不活动时,选择最佳动作,即选择具有最高概率的动作;
接下来,所选择的动作被传递到实体输出开发人员代码,可以在实体中替换并产生完全形成的动作;如果它是API动作,API充当传感器并返回与对话相关的特征,因此被添加到下一个时间步长中的特征向量;如果动作是文本,则将其呈现给用户,并且循环然后重复;在下一时间步骤中将所采取的动作作为特征提供给RNN。
4.基于权利要求书1所述的应用循环神经网络(RNN)来学习“端到端”模型(二),其特征在于,从可观察的对话历史直接映射到输出字序列;这些系统可以通过添加特殊的“API调用”动作,将数据库输出枚举为标记序列,然后使用存储器网络、门控存储器网络、查询减少网络和复制网络来学习RNN,从而应用于面向任务的域;在这些架构的每一个中,RNN学习操纵实体值;通过生成标记序列(或排列所有可能的表面形式)来产生输出;HCN还使用RNN累积对话状态并选择动作;HCN使用开发者提供的动作模板,可以包含实体引用。
5.基于权利要求书1所述的监督学习评价(三),其特征在于,应用HCN的简单域专用软件要先对实体提取使用简单的字符串匹配,其具有预定义的实体名称列表;其次,在上下文更新中,创建用于跟踪实体的简单规则,其中在输入中识别的实体覆盖现有条目;然后,系统动作被模板化;当数据库结果接收到实体状态,按评级排序;最后创建编码常识依赖性的动作掩码。
6.基于权利要求书5所述的监督学习评价,其特征在于,使用特定领域的软件在训练集上训练HCN,使用优化器为循环层选择长短期记忆网络(LSTM);使用开发集来调整隐藏单元的数量和时期的数量;通过使用对数据使用公开可用的300维词嵌入模型,通过平均词嵌入形成语言嵌入;在训练中,每个对话形成一个小批次,并且在完全展开(即,通过时间的非截断的反向传播)上进行更新。
7.基于权利要求书5所述的对话框数据标记,其特征在于,用户通过输入问题的简短描述开始使用对话系统,对话框数据标记如下:首先,列举在数据中观察到的唯一系统动作;然后对每个对话框检查每个系统操作,并确定它是否是现有系统动作之中最合适的动作;如果是,保留原样并继续下一个系统操作;如果不是,将其替换为正确的系统操作,并放弃对话框的其余部分;结果数据集包含完整和部分对话框的混合,仅包含正确的系统操作;将这个集合划分为训练和测试对话框。
8.基于权利要求书7所述的对话框,其特征在于,从对话框开始,检查哪个方法产生更长的连续的正确系统动作序列;
Δ P = C ( H C N - w i n ) - C ( r u l e - w i n ) C ( a l l ) - - - ( 1 )
其中,C(HCN-win)是基于规则的方法在HCN之前输出错误动作的测试对话框的数量;C(rule-win)是测试对话框的数量,其中HCN在基于规则的方法之前输出错误的动作;C(all)是测试集中的对话数;当ΔP>0时,HCN更经常地从对话开始产生连续的正确动作序列。
9.基于权利要求书1所述的通过监督学习或强化学习来训练神经网络(四),其特征在于,应用监督学习训练LSTM模仿系统开发者提供的对话;一旦系统大规模操作,与大量用户交互,期望系统使用强化学习继续自主学习;使用强化学习,代理在不同情况下探索不同的动作序列,并且进行调整以便最大化反馈的预期折扣和,表示为G;
为了优化,选择策略渐变方法,在基于策略梯度的强化学习中,模型π由w参数化,并输出在每个时间步长对动作进行采样的分布;在对话结束时,计算该对话的返回G,并且计算针对模型权重采取的动作的概率的梯度;然后通过采用与返回成正比的梯度步长来调整权重:
w ← w + α ( Σ t ▿ w l o g π ( a t | h t ; w ) ) ( G - b ) - - - ( 2 )
其中,α是学习率;at在时间步长t采取的行动;ht是在时间t的对话历史;G是返回对话框;表示F相对于x的雅克比式;b是下面描述的基线;π(at|ht;w)是LSTM,即随机策略,其输出在由权重w参数化的给定对话历史h上的分布;基线b是使用加权重要性抽样在过去100个对话框中估计的当前策略的平均回报估计。
10.基于权利要求书9所述的监督学习和强化学习,其特征在于,对应于更新权重的不同方法,可以应用于相同的网络;但不能保证最优强化学习策略将与监督学习训练集合一致;因此,在每个强化学习梯度步骤之后,检查更新的策略是否重构训练集;如果没有,在训练集上重新运行监督学习梯度步骤,直到模型再现训练集;这种方法允许在强化学习优化期间的任何时间添加新的训练对话。
CN201710160951.9A 2017-03-17 2017-03-17 一种基于混合编码网络的端到端对话控制方法 Withdrawn CN106951512A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710160951.9A CN106951512A (zh) 2017-03-17 2017-03-17 一种基于混合编码网络的端到端对话控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710160951.9A CN106951512A (zh) 2017-03-17 2017-03-17 一种基于混合编码网络的端到端对话控制方法

Publications (1)

Publication Number Publication Date
CN106951512A true CN106951512A (zh) 2017-07-14

Family

ID=59472320

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710160951.9A Withdrawn CN106951512A (zh) 2017-03-17 2017-03-17 一种基于混合编码网络的端到端对话控制方法

Country Status (1)

Country Link
CN (1) CN106951512A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766559A (zh) * 2017-11-06 2018-03-06 第四范式(北京)技术有限公司 对话模型的训练方法、训练装置、对话方法及对话系统
CN108256066A (zh) * 2018-01-16 2018-07-06 智言科技(深圳)有限公司 端到端层次解码任务型对话系统
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
CN108804611A (zh) * 2018-05-30 2018-11-13 浙江大学 一种基于自我评论序列学习的对话回复生成方法及系统
CN108962221A (zh) * 2018-07-12 2018-12-07 苏州思必驰信息科技有限公司 在线对话状态跟踪模型的优化方法及系统
CN109190537A (zh) * 2018-08-23 2019-01-11 浙江工商大学 一种基于掩码感知深度强化学习的多人物姿态估计方法
CN109388698A (zh) * 2018-10-22 2019-02-26 北京工业大学 一种基于深度强化学习的指导性自动聊天方法
CN109522541A (zh) * 2017-09-18 2019-03-26 三星电子株式会社 服务外句子生成方法和设备
CN109615241A (zh) * 2018-12-13 2019-04-12 大连海事大学 一种基于卷积和循环神经网络的软件Bug分派方法
CN109614473A (zh) * 2018-06-05 2019-04-12 安徽省泰岳祥升软件有限公司 应用于智能交互的知识推理方法及装置
CN109726269A (zh) * 2017-10-30 2019-05-07 松下知识产权经营株式会社 信息处理方法、信息处理装置以及程序
CN110189749A (zh) * 2019-06-06 2019-08-30 四川大学 语音关键词自动识别方法
CN110379225A (zh) * 2018-04-12 2019-10-25 百度(美国)有限责任公司 互动式语言习得的系统和方法
CN110610234A (zh) * 2018-06-14 2019-12-24 国际商业机器公司 将外部应用程序集成到深度神经网络中
CN110914899A (zh) * 2017-07-19 2020-03-24 日本电信电话株式会社 掩模计算装置、簇权重学习装置、掩模计算神经网络学习装置、掩模计算方法、簇权重学习方法和掩模计算神经网络学习方法
WO2020062002A1 (en) * 2018-09-28 2020-04-02 Intel Corporation Robot movement apparatus and related methods
CN113705652A (zh) * 2021-08-23 2021-11-26 西安交通大学 一种基于指针生成网络的任务型对话状态追踪系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JASON D. WILLIAMS等: "Hybrid Code Networks: practical and efficient end-to-end dialog control with supervised and reinforcement learning", 《网页在线公开:HTTPS://ARXIV.ORG/ABS/1702.03274》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110914899A (zh) * 2017-07-19 2020-03-24 日本电信电话株式会社 掩模计算装置、簇权重学习装置、掩模计算神经网络学习装置、掩模计算方法、簇权重学习方法和掩模计算神经网络学习方法
CN110914899B (zh) * 2017-07-19 2023-10-24 日本电信电话株式会社 掩模计算装置、簇权重学习装置、掩模计算神经网络学习装置、掩模计算方法、簇权重学习方法和掩模计算神经网络学习方法
CN109522541B (zh) * 2017-09-18 2023-09-15 三星电子株式会社 服务外句子生成方法和设备
CN109522541A (zh) * 2017-09-18 2019-03-26 三星电子株式会社 服务外句子生成方法和设备
CN109726269A (zh) * 2017-10-30 2019-05-07 松下知识产权经营株式会社 信息处理方法、信息处理装置以及程序
CN109726269B (zh) * 2017-10-30 2024-04-16 松下知识产权经营株式会社 信息处理方法、信息处理装置以及程序
CN107766559A (zh) * 2017-11-06 2018-03-06 第四范式(北京)技术有限公司 对话模型的训练方法、训练装置、对话方法及对话系统
CN107766559B (zh) * 2017-11-06 2019-12-13 第四范式(北京)技术有限公司 对话模型的训练方法、训练装置、对话方法及对话系统
CN108256066B (zh) * 2018-01-16 2022-01-11 智言科技(深圳)有限公司 端到端层次解码任务型对话系统
CN108256066A (zh) * 2018-01-16 2018-07-06 智言科技(深圳)有限公司 端到端层次解码任务型对话系统
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
US11074829B2 (en) 2018-04-12 2021-07-27 Baidu Usa Llc Systems and methods for interactive language acquisition with one-shot visual concept learning through a conversational game
CN110379225A (zh) * 2018-04-12 2019-10-25 百度(美国)有限责任公司 互动式语言习得的系统和方法
CN110379225B (zh) * 2018-04-12 2021-08-31 百度(美国)有限责任公司 互动式语言习得的系统和方法
CN108804611A (zh) * 2018-05-30 2018-11-13 浙江大学 一种基于自我评论序列学习的对话回复生成方法及系统
CN109614473A (zh) * 2018-06-05 2019-04-12 安徽省泰岳祥升软件有限公司 应用于智能交互的知识推理方法及装置
CN109614473B (zh) * 2018-06-05 2021-10-08 安徽省泰岳祥升软件有限公司 应用于智能交互的知识推理方法及装置
CN110610234A (zh) * 2018-06-14 2019-12-24 国际商业机器公司 将外部应用程序集成到深度神经网络中
CN110610234B (zh) * 2018-06-14 2023-04-07 国际商业机器公司 将外部应用程序集成到深度神经网络中
CN108962221A (zh) * 2018-07-12 2018-12-07 苏州思必驰信息科技有限公司 在线对话状态跟踪模型的优化方法及系统
CN109190537B (zh) * 2018-08-23 2020-09-29 浙江工商大学 一种基于掩码感知深度强化学习的多人物姿态估计方法
CN109190537A (zh) * 2018-08-23 2019-01-11 浙江工商大学 一种基于掩码感知深度强化学习的多人物姿态估计方法
WO2020062002A1 (en) * 2018-09-28 2020-04-02 Intel Corporation Robot movement apparatus and related methods
US11850752B2 (en) 2018-09-28 2023-12-26 Intel Corporation Robot movement apparatus and related methods
CN109388698A (zh) * 2018-10-22 2019-02-26 北京工业大学 一种基于深度强化学习的指导性自动聊天方法
CN109615241A (zh) * 2018-12-13 2019-04-12 大连海事大学 一种基于卷积和循环神经网络的软件Bug分派方法
CN110189749A (zh) * 2019-06-06 2019-08-30 四川大学 语音关键词自动识别方法
CN113705652A (zh) * 2021-08-23 2021-11-26 西安交通大学 一种基于指针生成网络的任务型对话状态追踪系统及方法
CN113705652B (zh) * 2021-08-23 2024-05-28 西安交通大学 一种基于指针生成网络的任务型对话状态追踪系统及方法

Similar Documents

Publication Publication Date Title
CN106951512A (zh) 一种基于混合编码网络的端到端对话控制方法
CN107239446B (zh) 一种基于神经网络与注意力机制的情报关系提取方法
CN106126507B (zh) 一种基于字符编码的深度神经翻译方法及系统
Cuayáhuitl et al. Human-computer dialogue simulation using hidden markov models
CN110390397B (zh) 一种文本蕴含识别方法及装置
CN103049792B (zh) 深层神经网络的辨别预训练
Chang et al. A Bayes net toolkit for student modeling in intelligent tutoring systems
CN107506414A (zh) 一种基于长短期记忆网络的代码推荐方法
CN104866578B (zh) 一种不完整物联网数据混合填充方法
CN112487807B (zh) 一种基于膨胀门卷积神经网络的文本关系抽取方法
CN109241255A (zh) 一种基于深度学习的意图识别方法
CN108664632A (zh) 一种基于卷积神经网络和注意力机制的文本情感分类算法
CN110489755A (zh) 文本生成方法和装置
CN109241258A (zh) 一种应用税务领域的深度学习智能问答系统
CN105976056A (zh) 基于双向rnn的信息提取系统
CN107870964A (zh) 一种应用于答案融合系统的语句排序方法及系统
CN106383816A (zh) 基于深度学习的中文少数民族地区地名的识别方法
CN110427629A (zh) 半监督文本简化模型训练方法和系统
CN109858041A (zh) 一种半监督学习结合自定义词典的命名实体识别方法
CN109766557A (zh) 一种情感分析方法、装置、存储介质及终端设备
CN107766320A (zh) 一种中文代词消解模型建立方法及装置
CN104598611A (zh) 对搜索条目进行排序的方法及系统
CN106682089A (zh) 一种基于RNNs的短信自动安全审核的方法
CN112463424A (zh) 一种基于图的端到端程序修复方法
CN110188348A (zh) 一种基于深度神经网络的中文语言处理模型及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20170714

WW01 Invention patent application withdrawn after publication