CN106951468B - 对话生成方法及装置 - Google Patents

对话生成方法及装置 Download PDF

Info

Publication number
CN106951468B
CN106951468B CN201710120561.9A CN201710120561A CN106951468B CN 106951468 B CN106951468 B CN 106951468B CN 201710120561 A CN201710120561 A CN 201710120561A CN 106951468 B CN106951468 B CN 106951468B
Authority
CN
China
Prior art keywords
question
training
model
dialogue
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710120561.9A
Other languages
English (en)
Other versions
CN106951468A (zh
Inventor
陈立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Tencent Cloud Computing Beijing Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710120561.9A priority Critical patent/CN106951468B/zh
Publication of CN106951468A publication Critical patent/CN106951468A/zh
Priority to PCT/CN2018/075222 priority patent/WO2018157700A1/zh
Priority to TW107106863A priority patent/TW201833903A/zh
Application granted granted Critical
Publication of CN106951468B publication Critical patent/CN106951468B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Abstract

本发明公开了一种对话生成方法及装置,属于互联网技术领域。方法包括:获取训练对话语料以及对训练对话语料的第一实体标注结果;根据训练对话语料以及第一实体标注结果,训练第一参数模型;基于第一参数模型,对训练对话语料执行对话语料重组扩展处理;根据训练对话语料、第一实体标注结果、得到的重组扩展对话语料以及对重组扩展对话语料的第二实体标注结果,训练第二参数模型,第二参数模型用于识别用户提问意图;基于第一参数模型和第二参数模型生成对话。本发明可大大减少训练初始阶段收集的训练对话语料的数量以及实体标注数量,成本较低,且效率较高。

Description

对话生成方法及装置
技术领域
本发明涉及互联网技术领域,特别涉及一种对话生成方法及装置。
背景技术
随着科学技术以及经济水平的快速发展,当今社会正在逐步往服务型社会转变,以更好地为用户提供服务。时下流行的智能对话系统正是基于上述理念产生的。其中,智能对话系统在接收到用户终端发起的提问后,可以自动对该提问进行回答,在一来一往的提问与回答过程中,便形成了人与机器之间的对话。
相关技术中,主要通过两类智能对话系统实现对话生成,一类为智能客服,另一类为智能平台。其中,智能客服为了实现人机对话功能,通常会收集海量的对话语料以进行模型训练,进而基于训练出的线性模型以及简单的上下文特征对用户的提问进行回答,从而产生对话。目前智能平台包括api.ai、wit.ai等,这类智能平台为了实现人机对话功能,同样也需收集海量的对话语料以进行模型训练,进而基于训练出的模型以及简答的上下文对用户的提问进行回答,从而产生对话。
在实现本发明的过程中,发明人发现相关技术至少存在以下问题:
无论针对上述哪一类智能对话系统来说,均需要收集海量的对话语料以进行模型训练,而收集海量的对话语料通常需消耗大量的人力以及时间,不但成本较高,而且影响了对话生成的效率。
发明内容
为了解决相关技术的问题,本发明实施例提供了一种对话生成方法及装置。所述技术方案如下:
第一方面,提供了一种对话生成方法,所述方法包括:
获取训练对话语料以及对所述训练对话语料的第一实体标注结果;
根据所述训练对话语料以及所述第一实体标注结果,训练第一参数模型;
基于所述第一参数模型,对所述训练对话语料执行对话语料重组扩展处理,得到重组扩展对话语料;
根据所述训练对话语料、所述第一实体标注结果、所述重组扩展对话语料以及对所述重组扩展对话语料的第二实体标注结果,训练第二参数模型,所述第二参数模型用于识别用户提问意图;
基于所述第一参数模型和所述第二参数模型生成对话。
第二方面,提供了一种对话生成装置,所述装置包括:
第一获取模块,用于获取训练对话语料以及对所述训练对话语料的第一实体标注结果;
第一训练模块,用于根据所述训练对话语料以及所述第一实体标注结果,训练第一参数模型;
处理模块,用于基于所述第一参数模型,对所述训练对话语料执行对话语料重组扩展处理,得到重组扩展对话语料;
第二训练模块,用于根据所述训练对话语料、所述第一实体标注结果、所述重组扩展对话语料以及对所述重组扩展对话语料的第二实体标注结果,训练第二参数模型,所述第二参数模型用于识别用户提问意图;
生成模块,用于基于所述第一参数模型和所述第二参数模型生成对话。
本发明实施例提供的技术方案带来的有益效果是:
除了可基于训练对话语料以及对训练对话语料的实体标注结果自动进行第一参数模型训练外,还可基于得到的第一参数模型对训练对话语料进行重组扩展处理,进而结合重组扩展对话语料完成对第二参数模型的训练,从而基于第一参数模型和第二参数模型实现人机对话。本发明在模型训练过程中由于进行了对训练对话语料的重组扩展处理,因此可大大减少训练初始阶段收集的训练对话语料的数量以及实体标注数量,有效地节约了人力和时间,不但成本较低,而且提升了对话生成的效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种对话生成平台的结构示意图;
图2是本发明实施例提供的一种对话生成方法的流程图;
图3是本发明实施例提供的一种对话生成的过程示意图;
图4是本发明实施例提供的一种参数必要依赖模型以及状态跳转模型的训练过程的流程图;
图5是本发明实施例提供的一种意图参数识别模型的训练过程的流程图;
图6是本发明实施例提供的一种对话生成以及主动学习的过程示意图;
图7是本发明实施例提供的一种对话生成装置的结构示意图;
图8是本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在对本发明实施例进行详细地解释说明之前,先对本发明实施例部分可能涉及到的一些名词进行解释说明。
任务导向:源自“任务驱动”,它强调任务的导向和调控作用。比如,任务导向在游戏中是指用任务来贯穿整个游戏流程,引导用户成长。本发明实例所涉及的人机对话场景便是基于任务导向的。同样,任务导向在人机对话场景下也是用任务来贯穿整个对话过程,用以引导用户。
状态跳转:通常来讲,状态之间的跳转关系以状态跳转图进行体现。一个状态跳转图一般侧重于描述某个对象在生命周期中的状态变化,包括对象在各个不同的状态间的跳转以及触发这些跳转的外部事件。在本发明实施例所涉及的人机对话场景下,状态跳转指代的是每当用户提出一个用户问答消息后,接下来对话生成平台应该返回给用户一个与用户问答消息匹配的系统问答消息。这个由用户提出的用户问答消息到对话生成平台给出的一个系统问答消息便可称之为一次状态跳转。
接下来,对本发明实施例提供的对话生成方法所涉及的实施环境架构进行简单的介绍。
本发明实施例提供的对话生成方法应用于对话生成平台,用以提供任务导向的对话生成服务,可应用于诸如打车、订餐、网店客服等多个场景,而不局限于一个单一场景,也即本发明实施例为实现人机对话功能所构建的参数模型属于通用模型,基于构建的通用模型,对话生成平台可广泛应用在众多场景下,因此可有效解放人力,提高生产力。
在实际产品上,提供一个对话生成平台以及相应的对话生成API(ApplicationProgramming Interface,应用程序编程接口)。其中,对话生成API提供给使用者,用以接入具体服务以生成对话。对话生成平台,基于卷积神经网络与增强学习技术等建立基于任务导向的参数模型,并使用对话语料对参数模型进行训练。然后基于训练出的参数模型以及诸如CRF(Conditional Random Field,条件随机场)等的NLU(Natural LanguageUnderstanding,自然语言理解)技术实现自适应对话生成。与此同时,基于DQN(Deep QNetwork,深度强化学习网络)技术,根据用户使用产生的对话主动实现动态对话学习。
其中,参见图1,对话生成平台主要包括以下部分:
1)对话语料参数解析器,用于根据训练对话语料以及对训练对话语料的实体标注结果,建立参数必要依赖模型以及状态跳转模型;
2)意图参数识别器,用于根据训练对话语料与步骤1)中生成的参数模型,训练意图参数识别模型;
3)对话生成系统,用于根据步骤1)和步骤2)中所生成的模型生成对话,并使用session(会话控制)管理器管理对话;
4)主动学习系统,用于根据线上人机对话产生的对话,进行主动探索学习,以提高参数模型精度及增加对话拓展性。
其中,关于对话生成平台各部分的详细解释说明请参见下述实施例。
图2是本发明实施例提供的一种对话生成方法的流程图。参见图2,本发明实施例提供的方法流程包括:
201、获取训练对话语料以及对训练对话语料的第一实体标注结果,并根据训练对话语料以及第一实体标注结果,训练第一参数模型。
其中,训练对话语料中包括多个对话,每一个对话由至少一个用户问答消息和至少一个系统问答消息构成,这多个对话可来源自收集于网络的自然对话。此外,对于训练对话语料中的每一个对话而言,均被进行了实体标注,即以key(键)-value(值)的形式将对话中的实体标注出来。
参见图3,针对与用户1之间的对话来说,“我要打车去A广场”这一句话,将“A广场”进行实体标注,dst:A广场,其中目的地参数dst为key,A广场为value;针对“B小区”这一句话,将“B小区”进行实体标注,ori:B小区,其中出发地参数ori为key,B小区为value;针对“已呼叫从B小区到A广场”这一句话,将“A广场”和“B小区”进行实体标注,dst:A广场,ori:B小区。针对与用户2之间的对话来说,将“帮我预定个明早8点到机场的车”这一句话,将“明早8点”和“机场”进行实体标注,time:明早8点,其中时间参数time为key,明早8点为value;目的地参数dst为key,机场为value。
在本发明实施例中,第一参数模型包括参数必要依赖模型以及状态跳转模型。其中,参数必要依赖模型用于识别对话中必要参数以及参数之间依赖关系,状态跳转模型用于确定对话的状态跳转关系。
需要说明的是,对话中的必要参数指代的是一个对话所必不可少的参数。例如,用户想要打车去A广场,因此与对话生成平台进行人机对话,对于这个打车场景所产生的对话来说,用户的目的地参数(其取值为A广场)便是对话中的必要参数。而对于用户的出发地参数来讲,其便是对话中的可选参数,因为时下智能终端基本上均具备定位功能,可自动上报当前所在位置。
此外,在一个对话中,有时参数之间是存在相互关联的,而不是相互孤立的,这便引入了参数之间的依赖关系。继续以上述打车场景来说,如果用户想要去的A广场多个城市均存在,那么对话生成平台可建立用户的出发地参数与目的地参数之间的参数依赖关系,从而根据出发地参数锁定当前用户是想去哪一个城市的A广场。
对话的状态跳转关系实质上就是用来规定当用户提出一个用户问答消息后,对话生成平台应该返回与这个用户问答消息匹配的系统问答消息。这个系统问答消息是针对用户问答消息所做出的提问给予的回复。例如,当用户提出一句“我要打车去A广场”,那么根据对话的状态跳转关系,此时应该返回给用于一句诸如“请问你所在位置”这样的系统问答消息,而不是一句“今天天气晴”这样的系统问答消息。
其中,在根据训练对话语料以及第一实体标注结果,训练参数必要依赖模型及状态跳转模型时,可采取下述方式实现:
201a、根据训练对话语料以及第一实体标注结果,训练CRF模型。
其中,CRF模型是一种无向图模型,可用于分词、词性标注和命名实体识别、数据分割等序列标注任务中。通过对训练对话语料以及第一实体标注结果进行模型训练,即通过对已标注的训练对话语料进行特征抽取并基于抽取到的特征进行训练,便可得到CRF模型中各个参数的取值,即完成CRF模型的训练。进而基于训练出的CRF模型对新的对话进行实体标注、数据分割、词性标注等。需要说明的是,在训练CRF模型之前,还需将各个参数进行初始化,而在训练CRF模型过程中,还可使用随机梯度下降和前向后向传播方法等来优化CRF模型中的各个参数,以尽可能地减少CRF模型的误差。
201b、将训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对。
在本发明实施例中,在收集到训练对话语料后,对话语料参数解析器首先将训练对话语料进行拆分,拆分为系统问答消息与用户问答消息的匹配对(pair)。其中,训练对话语料中的一个对话可以拆分出来至少一个系统问答消息与用户问答消息的匹配对。一个匹配对中包括一问和一答。例如,参见图3,“请问你所在位置”与“B小区”便是一个系统问答消息与用户问答消息的匹配对,“帮我预定个明早8点到机场的车”与“已为您预定”也是一个系统问答消息与用户问答消息的匹配对。
201c、基于CRF模型,对得到的至少一个匹配对中包含的系统问答消息和用户问答消息进行分析处理,得到训练对话语料的目标参数序列。
由于收集到的训练对话语料仅是进行简单实体标注,因此训练对话语料中还存在未标注的部分,在得到CRF模型后,还需基于CRF模型,对得到的至少一个匹配对中包含的系统问答消息和用户问答消息进行分析处理,一方面完成对训练对话语料中未标注实体的标注,另一方面分析出匹配对中包含的进行模型训练所必不可少的目标参数序列。
其中,目标参数序列中包括至少一个实体参数以及至少一个实体参数的取值。以图3为例,针对用户1来说,目标参数序列包括ori参数和dst参数这两个实体参数,这两个实体参数的取值分别为B小区和A广场,针对用户2来说,目标参数序列包括time参数和dst参数这两个实体参数,这两个实体参数的取值分别为明早8点和机场。
201d、基于目标参数序列,对初始参数必要依赖模型进行训练,得到训练后的参数必要依赖模型。
在本发明实施例中,初始参数必要依赖模型可为采用CNN(ConvolutionalNeuralNetwork,卷积神经网络)、LSTM(Long Short-Term Memory,长短期记忆网络)以及LR(Logistic Regression,逻辑回归)网络中至少两个相结合的模型。而为了保证训练出的模型的性能,可采取上述三个网络相结合的方式。换句话说,初始参数必要依赖模型为一种混合模型,比如初始参数必要依赖模型包括CNN网络所涉及的CNN层,还包括LSTM网络所涉及的LSTM层,还包括LS网络所涉及的LS层。
其中,LSTM是RNN(Recurrent neural Network,循环神经网络)的一种变种,属于人工神经网络领域的反馈神经网络,能够学习长期依赖关系。其中,RNN的目的使用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络模型却不能应用在诸如预测句子的下一个单词是什么的场景下。在这种场景下,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为会对前面的输出进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。
其中,在训练参数必要依赖模型时,将目标参数序列作为初始参数必要依赖模型的训练样本,其中初始参数必要依赖模型中各个参数均对应一个初始化值。而初始参数必要依赖模型对目标参数序列进行特征抽取以进行模型的训练,从而得到各个参数的最佳取值,完成参数必要依赖模型的训练。
201e、基于参数必要依赖模型,对目标参数序列进行特征抽取处理,得到目标参数的特征信息,基于该特征信息对初始状态跳转模型进行训练,得到训练后的状态跳转模型。
其中,初始状态跳转模型是采用LSTM网络的模型。基于该特征信息对初始状态跳转模型进行训练,即以该特征信息作为初始状态跳转模型的输入,不断地优化初始状态跳转模型中各个参数的取值,从而得到各个参数的最佳取值,完成状态跳转模型的训练。
综上所述,关于参数必要依赖模型的生成过程可以用图4中所示的左边分支进行描述。而关于状态跳转模型的生成过程可以用图4中所示的右边分支进行描述。
202、基于第一参数模型,对训练对话语料执行对话语料重组扩展处理,得到重组扩展对话语料,根据训练对话语料、第一实体标注结果、重组扩展对话语料以及对重组扩展对话语料的第二实体标注结果,训练第二参数模型。
在本发明实施例中,为了减少收集训练对话语料的数量以及减少对训练对话语料的标注量,还会基于第一参数模型,对训练对话语料执行对话语料重组扩展处理,通过这种重组扩展的方式来丰富对话语料的数量,而不是一开始便收集海量的训练对话语料。其中,执行对话语料重组扩展处理可采取下述方式实现:首先,将训练对话语料拆分为至少一个系统问答消息-用户问答消息的匹配对;之后,对于得到的至少一个匹配对,基于第一参数模型以及除了至少一个匹配对之外的其他匹配对,自动扩展与至少一个匹配对中包含的用户问答消息匹配的系统问答消息,得到重组扩展对话语料。
举一个例子来说,假设由训练对话语料拆分得到1000个系统问答消息-用户问答消息的匹配对,那么在进行对话语料重组扩展时,对于一个匹配对中的用户问答消息来说,基于第一参数模型在剩余的999个匹配对中检测一下是否存在可与其组成新的匹配对的系统问答消息;如果存在,则新生成一个系统问答消息与用户问答消息的匹配对,实现对话语料的重组扩展。比如,针对“我要打车去A广场”这一用户问答消息来说,除了“请问你所在位置”这一系统问答消息与其匹配外,与“请问你什么时候出发”这一系统问答消息其实在一定程度上也是匹配的。此外,还可基于该用户问答消息所涉及的场景不依据其他匹配对而是自行对该用户问答消息的系统问答消息进行扩展,本发明实施例对此不进行具体限定。
之后,如图5所示,根据训练对话语料、第一实体标注结果、重组扩展对话语料以及对重组扩展对话语料的第二实体标注结果,对初始第二参数模型进行训练,得到意图参数识别模型。其中,意图参数识别模型用于识别用户提出的每一个用户问答消息的意图以及该意图中隐含的参数。例如,针对“我要打车去A广场”这一个用户问答消息来说,意图参数识别模型便需要分析出用户这是在构建目的地dst参数,并且参数的取值为A广场。
其中,初始第二参数模型为CNN、RNN以及DNN(Deep Neural Network,深度神经网络)中至少两个相结合的模型。而为了保证训练出的模型的性能,可采取上述三个网络相结合的方式。即初始第二参数模型也是一种混合模型,比如初始第二参数模型包括CNN所涉及的CNN层,还包括RNN所涉及的RNN层,还包括DNN所涉及的DNN层。其中,DNN与CNN、RNN的区别在于DNN特指全连接的神经元结构,并不包含卷积单元或是时间上的关联。
其中,通过对训练对话语料、第一实体标注结果、重组扩展对话语料、第二实体标注结果进行模型训练,即通过对已标注的训练文件进行特征抽取并基于抽取到的特征进行训练,便可得到初始第二参数模型中各个参数的取值,即完成意图参数识别模型的训练。
需要说明的是,在通过上述步骤201和步骤202完成参数模型的训练后,对话生成平台便可基于得到的参数模型线上与用户进行对话交互,详见下述步骤203。
203、基于第一参数模型和第二参数模型生成对话。
在本发明实施例中,基于第一参数模型和第二参数模型生成对话,即每当接收到用户终端发送的一个用户问答消息后,基于第一参数模型和第二参数模型,获取与用户问答消息匹配的第一系统问答消息,并将第一系统问答消息发送至用户终端。这样一来一往的用户问答消息与系统问答消息便形成了对话。
如图6所示,对话生成系统每当接收到用户终端发送的一个用户问答消息后,便基于上述步骤201和步骤202得到的第一参数模型和第二参数模型,获取与接收到的用户问答消息匹配的第一系统问答消息,并将第一系统问答消息返回给用户终端。比如,在接收到“我要去A广场”这样的用户问答消息后,便返回“请问你所在位置”这样的系统问答消息。以此类推,在一来一往的提问与回答过程中便形成了对话。其中,本发明实施例采用session管理器进行对话管理。
在另一个实施例中,参见图6,本发明实施例还会进行日志收集处理。其中,作为日志进行收集到的数据包括用户提出的用户问答消息以及与用户问答消息匹配的系统问答消息。即,对话生成系统会收集接收到的用户问答消息以及与收集到的用户问答消息匹配的各个系统问答消息,并将收集到的各个用户问答消息以及与收集到的用户问答消息匹配的各个系统问答消息作为日志进行存储。
需要说明的是,在本发明实施例中之所以进行日志收集,主要基于两个方面的考量,一方面主动学习系统通过收集到的日志进行进一步地的学习,以不但优化上述步骤201和步骤202得到的参数模型,从而提高模型精准度。另一方面,可采用DQN技术根据收集到的日志影响对话生成,即主动学习系统还具备主动探索学习机制,可动态拓展对话,详细过程如下:
在接收到用户终端发送的用户问答消息后,主动学习系统可在存储的日志中获取与这个用户问答消息匹配的第二系统问答消息,并将第二系统问答消息发送至用户终端,等待用户反馈。其中,第一系统问答消息默认为是与这个用户问答消息关联度最高的。而第二系统问答消息与用户问答消息的关联度小于第一系统问答消息与用户问答消息的关联度。
举例来说,对于用户提出的一个用户问答消息,一般会将针对这个用户问答消息的系统问答消息列成一个List(列表),这个List中的系统问答消息是依据关联度进行排序的,比如关联度最高的第一系统问答消息排在第一位,以此类推。这个主动探索学习机制就是在返回系统问答消息时,尝试返回给用户终端除了第一系统问答消息之外的其他系统问答消息,以尝试进行对话拓展。
之后,主动学习系统获取用户终端发送的对第二系统问答消息的反馈消息;若基于反馈消息确定第二系统问答消息符合用户提问意图,比如继续以“我要打车去A广场”为例,除了诸如“请问你所在位置”的第一系统问答消息外,诸如“请问你什么时候出发”的第二系统问答消息一定程度上也是符合用户提问意图的,比如若针对第二系统问答消息用户返回了诸如“现在”或“8点”等反馈消息,那么可以确定第二系统问答消息符合用户提问意图,因此可将第一系统问答消息和第二系统问答消息均作为与用户问答消息匹配的系统问答消息。而这个用户问答消息与第二系统问答消息便作为新拓展出来的对话。
本发明实施例提供的方法,除了可基于训练对话语料以及对训练对话语料的实体标注结果自动进行第一参数模型训练外,还可基于得到的第一参数模型对训练对话语料进行重组扩展处理,进而结合重组扩展对话语料完成对第二参数模型的训练,从而基于第一参数模型和第二参数模型实现人机对话。本发明在模型训练过程中由于进行了对训练对话语料的重组扩展处理,因此可大大减少训练初始阶段收集的训练对话语料的数量以及实体标注数量,有效地节约了人力和时间,不但成本较低,而且提升了对话生成的效率;
此外,通过结合至少两种网络模型完成第一参数模型和第二参数模型的训练过程,使得第一参数模型和第二参数模型具备了良好的性能,进而保证了对话生成平台的状态跳转功能,可实现多轮的提问与回答,智能性较佳;
另外,还可通过收集到的日志,主动进行在线自动学习,增强了训练的参数模型的精准性和对话的拓展性,同时进一步地减少了对训练对话语料的数量需求。
图7是本发明实施例提供的一种对话生成装置的结构示意图。参见图7,该装置包括:
第一获取模块701,用于获取训练对话语料以及对训练对话语料的第一实体标注结果;
第一训练模块702,用于根据训练对话语料以及第一实体标注结果,训练第一参数模型;
处理模块703,用于基于第一参数模型,对训练对话语料执行对话语料重组扩展处理,得到重组扩展对话语料;
第二训练模块704,用于根据训练对话语料、第一实体标注结果、重组扩展对话语料以及对重组扩展对话语料的第二实体标注结果,训练第二参数模型,第二参数模型用于识别用户提问意图;
生成模块705,用于基于第一参数模型和第二参数模型生成对话。
在另一个实施例中,第一参数模型包括参数必要依赖模型以及状态跳转模型;
第一训练模块702,用于根据训练对话语料以及第一实体标注结果,训练用于识别对话中必要参数以及参数之间依赖关系的参数必要依赖模型;及,根据训练对话语料以及第一实体标注结果,训练用于确定对话的状态跳转关系的状态跳转模型。
在另一个实施例中,训练对话语料包含至少两个对话,每一个对话由至少一个用户问答消息和至少一个系统问答消息构成;
第一训练模块702,用于根据训练对话语料以及第一实体标注结果,训练CRF模型;将训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对;基于CRF模型,对得到的至少一个匹配对中包含的系统问答消息和用户问答消息进行分析处理,得到训练对话语料的目标参数序列,目标参数序列中包括至少一个实体参数以及至少一个实体参数的取值;基于目标参数序列,对初始参数必要依赖模型进行训练,得到训练后的参数必要依赖模型。
在另一个实施例中,第一训练模块702,用于基于参数必要依赖模型,对目标参数序列进行特征抽取处理,得到目标参数的特征信息;及,基于特征信息对初始状态跳转模型进行训练,得到训练后的状态跳转模型。
在另一个实施例中,处理模块703,用于将训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对;对于得到的至少一个匹配对,基于第一参数模型以及除了至少一个匹配对之外的其他匹配对,扩展与至少一个匹配对中包含的用户问答消息匹配的系统问答消息,得到重组扩展对话语料;
第二训练模块704,用于根据训练对话语料、第一实体标注结果、重组扩展训练语料以及第二实体标注结果,对初始第二参数模型进行训练,得到训练后的第二参数模型。
在另一个实施例中,该装置还包括:
收集模块,用于收集接收到的用户问答消息以及与收集到的用户问答消息匹配的系统问答消息;
存储模块,用于将收集到的用户问答消息以及与收集到的用户问答消息匹配的系统问答消息作为日志进行存储。
在另一个实施例中,该装置还包括:
第二获取模块,还用于在接收到用户终端发送的用户问答消息后,在存储的日志中获取与用户问答消息匹配的第二系统问答消息,第二系统问答消息与用户问答消息的关联度小于第一系统问答消息与用户问答消息的关联度;
发送模块,还用于将第二系统问答消息发送至用户终端;
第二获取模块,还用于获取用户终端发送的对第二系统问答消息的反馈消息;若基于反馈消息确定第二系统问答消息符合用户提问意图,则将第一系统问答消息和第二系统问答消息均作为与用户问答消息匹配的系统问答消息。
本发明实施例提供的装置,除了可基于训练对话语料以及对训练对话语料的实体标注结果自动进行第一参数模型训练外,还可基于得到的第一参数模型对训练对话语料进行重组扩展处理,进而结合重组扩展对话语料完成对第二参数模型的训练,从而基于第一参数模型和第二参数模型实现人机对话。本发明在模型训练过程中由于进行了对训练对话语料的重组扩展处理,因此可大大减少训练初始阶段收集的训练对话语料的数量以及实体标注数量,有效地节约了人力和时间,不但成本较低,而且提升了对话生成的效率;
此外,通过结合多种网络模型完成第一参数模型和第二参数模型的训练过程,使得第一参数模型和第二参数模型具备了良好的性能,进而保证了对话生成平台的状态跳转功能,可实现多轮的提问与回答,智能性较佳;
另外,还可通过收集到的日志,主动进行在线自动学习,增强了训练的参数模型的精准性和对话的拓展性,同时进一步地减少了对训练对话语料的数量需求。
图8是根据一示例性实施例示出的一种服务器,该服务器可以用于实施上述任一示例性实施例示出的对话生成方法。具体来讲:参见图8,该服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Unit,CPU)822(例如,一个或一个以上处理器)和存储器832,一个或一个以上存储应用程序842或数据844的存储介质830(例如一个或一个以上海量存储设备)。其中,存储器832和存储介质830可以是短暂存储或持久存储。存储在存储介质830的程序可以包括一个或一个以上模块(图示没标出)。
服务器800还可以包括一个或一个以上电源828,一个或一个以上有线或无线网络接口850,一个或一个以上输入输出接口858,和/或,一个或一个以上操作系统841,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行上述一个或者一个以上程序包含用于执行对话生成方法的指令。
需要说明的是:上述实施例提供的对话生成装置在生成对话时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的对话生成装置与对话生成方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (17)

1.一种对话生成方法,其特征在于,所述方法包括:
获取训练对话语料以及对所述训练对话语料的第一实体标注结果;
根据所述训练对话语料以及所述第一实体标注结果,训练第一参数模型;
将所述训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对;
对于得到的至少一个匹配对,基于所述第一参数模型以及除了所述至少一个匹配对之外的其他匹配对,扩展与所述至少一个匹配对中包含的用户问答消息匹配的系统问答消息,得到重组扩展对话语料;
根据所述训练对话语料、所述第一实体标注结果、所述重组扩展对话语料以及对所述重组扩展对话语料的第二实体标注结果,训练第二参数模型,所述第二参数模型用于识别用户提问意图;
基于所述第一参数模型和所述第二参数模型生成对话。
2.根据权利要求1所述的方法,其特征在于,所述第一参数模型包括参数必要依赖模型以及状态跳转模型;
所述根据所述训练对话语料以及所述第一实体标注结果,训练第一参数模型,包括:
根据所述训练对话语料以及所述第一实体标注结果,训练用于识别对话中必要参数以及参数之间依赖关系的所述参数必要依赖模型;及
根据所述训练对话语料以及所述第一实体标注结果,训练用于确定对话的状态跳转关系的所述状态跳转模型。
3.根据权利要求2所述的方法,其特征在于,所述训练对话语料包含至少两个对话,每一个对话由至少一个用户问答消息和至少一个系统问答消息构成;
所述根据所述训练对话语料以及所述第一实体标注结果,训练用于识别对话中必要参数以及参数之间依赖关系的所述参数必要依赖模型,包括:
根据所述训练对话语料以及所述第一实体标注结果,训练条件随机场CRF模型;
将所述训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对;
基于所述CRF模型,对得到的至少一个匹配对中包含的系统问答消息和用户问答消息进行分析处理,得到所述训练对话语料的目标参数序列,所述目标参数序列中包括至少一个实体参数以及所述至少一个实体参数的取值;
基于所述目标参数序列,对初始参数必要依赖模型进行训练,得到训练后的所述参数必要依赖模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述训练对话语料以及所述第一实体标注结果,训练用于确定对话的状态跳转关系的所述状态跳转模型,包括:
基于所述参数必要依赖模型,对所述目标参数序列进行特征抽取处理,得到所述目标参数的特征信息;及
基于所述特征信息对初始状态跳转模型进行训练,得到训练后的所述状态跳转模型。
5.根据权利要求2所述的方法,其特征在于,初始参数必要依赖模型为卷积神经网络CNN、长短期记忆LSTM网络以及逻辑回归LR网络中至少两个相结合的模型。
6.根据权利要求2所述的方法,其特征在于,初始状态跳转模型为采用LSTM网络的模型。
7.根据权利要求1所述的方法,其特征在于,所述根据所述训练对话语料、所述第一实体标注结果、所述重组扩展对话语料以及对所述重组扩展对话语料的第二实体标注结果,训练第二参数模型,包括:
根据所述训练对话语料、所述第一实体标注结果、所述重组扩展训练语料以及所述第二实体标注结果,对初始第二参数模型进行训练,得到训练后的所述第二参数模型。
8.根据权利要求7所述的方法,其特征在于,所述初始第二参数模型为CNN、循环神经网络RNN以及深度神经网络DNN中至少两个相结合的模型。
9.根据权利要求1至8中任一权利要求所述的方法,其特征在于,所述方法还包括:
收集接收到的用户问答消息以及与所述收集到的用户问答消息匹配的系统问答消息;
将所述收集到的用户问答消息以及与所述收集到的用户问答消息匹配的系统问答消息作为日志进行存储。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
在接收到用户终端发送的用户问答消息后,在存储的日志中获取与所述用户问答消息匹配的第二系统问答消息,所述第二系统问答消息与所述用户问答消息的关联度小于第一系统问答消息与所述用户问答消息的关联度;
将所述第二系统问答消息发送至所述用户终端;
获取所述用户终端发送的对所述第二系统问答消息的反馈消息;
若基于所述反馈消息确定所述第二系统问答消息符合用户提问意图,则将所述第一系统问答消息和所述第二系统问答消息均作为与所述用户问答消息匹配的系统问答消息。
11.一种对话生成装置,其特征在于,所述装置包括:
第一获取模块,用于获取训练对话语料以及对所述训练对话语料的第一实体标注结果;
第一训练模块,用于根据所述训练对话语料以及所述第一实体标注结果,训练第一参数模型;
处理模块,用于将所述训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对;对于得到的至少一个匹配对,基于所述第一参数模型以及除了所述至少一个匹配对之外的其他匹配对,扩展与所述至少一个匹配对中包含的用户问答消息匹配的系统问答消息,得到重组扩展对话语料;
第二训练模块,用于根据所述训练对话语料、所述第一实体标注结果、所述重组扩展对话语料以及对所述重组扩展对话语料的第二实体标注结果,训练第二参数模型,所述第二参数模型用于识别用户提问意图;
生成模块,用于基于所述第一参数模型和所述第二参数模型生成对话。
12.根据权利要求11所述的装置,其特征在于,所述第一参数模型包括参数必要依赖模型以及状态跳转模型;
所述第一训练模块,用于根据所述训练对话语料以及所述第一实体标注结果,训练用于识别对话中必要参数以及参数之间依赖关系的所述参数必要依赖模型;及,根据所述训练对话语料以及所述第一实体标注结果,训练用于确定对话的状态跳转关系的所述状态跳转模型。
13.根据权利要求12所述的装置,其特征在于,所述训练对话语料包含至少两个对话,每一个对话由至少一个用户问答消息和至少一个系统问答消息构成;
所述第一训练模块,用于根据所述训练对话语料以及所述第一实体标注结果,训练条件随机场CRF模型;将所述训练对话语料拆分为至少一个系统问答消息与用户问答消息的匹配对;基于所述CRF模型,对得到的至少一个匹配对中包含的系统问答消息和用户问答消息进行分析处理,得到所述训练对话语料的目标参数序列,所述目标参数序列中包括至少一个实体参数以及所述至少一个实体参数的取值;基于所述目标参数序列,对初始参数必要依赖模型进行训练,得到训练后的所述参数必要依赖模型。
14.根据权利要求13所述装置,其特征在于,所述第一训练模块,用于基于所述参数必要依赖模型,对所述目标参数序列进行特征抽取处理,得到所述目标参数的特征信息;及,基于所述特征信息对初始状态跳转模型进行训练,得到训练后的所述状态跳转模型。
15.根据权利要求11所述的装置,其特征在于,所述第二训练模块,用于根据所述训练对话语料、所述第一实体标注结果、所述重组扩展训练语料以及所述第二实体标注结果,对初始第二参数模型进行训练,得到训练后的所述第二参数模型。
16.根据权利要求11至15中任一权利要求所述的装置,其特征在于,所述装置还包括:
收集模块,用于收集接收到的用户问答消息以及与所述收集到的用户问答消息匹配的系统问答消息;
存储模块,用于将所述收集到的用户问答消息以及与所述收集到的用户问答消息匹配的系统问答消息作为日志进行存储。
17.根据权利要求16所述的装置,其特征在于,所述装置还包括:
第二获取模块,还用于在接收到用户终端发送的用户问答消息后,在存储的日志中获取与所述用户问答消息匹配的第二系统问答消息,所述第二系统问答消息与所述用户问答消息的关联度小于第一系统问答消息与所述用户问答消息的关联度;
发送模块,还用于将所述第二系统问答消息发送至所述用户终端;
所述第二获取模块,还用于获取所述用户终端发送的对所述第二系统问答消息的反馈消息;若基于所述反馈消息确定所述第二系统问答消息符合用户提问意图,则将所述第一系统问答消息和所述第二系统问答消息均作为与所述用户问答消息匹配的系统问答消息。
CN201710120561.9A 2017-03-02 2017-03-02 对话生成方法及装置 Active CN106951468B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710120561.9A CN106951468B (zh) 2017-03-02 2017-03-02 对话生成方法及装置
PCT/CN2018/075222 WO2018157700A1 (zh) 2017-03-02 2018-02-05 对话生成方法、装置及存储介质
TW107106863A TW201833903A (zh) 2017-03-02 2018-03-01 對話生成方法、裝置及儲存介質

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710120561.9A CN106951468B (zh) 2017-03-02 2017-03-02 对话生成方法及装置

Publications (2)

Publication Number Publication Date
CN106951468A CN106951468A (zh) 2017-07-14
CN106951468B true CN106951468B (zh) 2018-12-28

Family

ID=59468108

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710120561.9A Active CN106951468B (zh) 2017-03-02 2017-03-02 对话生成方法及装置

Country Status (3)

Country Link
CN (1) CN106951468B (zh)
TW (1) TW201833903A (zh)
WO (1) WO2018157700A1 (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951468B (zh) * 2017-03-02 2018-12-28 腾讯科技(深圳)有限公司 对话生成方法及装置
CN107506823B (zh) * 2017-08-22 2020-11-13 南京大学 一种用于对话生成的混合神经网络模型的构建方法
CN107679557B (zh) * 2017-09-19 2020-11-27 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN108388944B (zh) * 2017-11-30 2019-10-18 中国科学院计算技术研究所 一种基于深度神经网络的自动聊天方法和机器人
CN109949800B (zh) * 2017-12-20 2021-08-10 北京京东尚科信息技术有限公司 语音打车方法及系统
CN108268616B (zh) * 2018-01-04 2020-09-01 中国科学院自动化研究所 融合规则信息的可控制性对话管理扩展方法
CN108282587B (zh) * 2018-01-19 2020-05-26 重庆邮电大学 基于状态跟踪与策略导向下的移动客服对话管理方法
CN108415939B (zh) * 2018-01-25 2021-04-16 北京百度网讯科技有限公司 基于人工智能的对话处理方法、装置、设备及计算机可读存储介质
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
CN108829719B (zh) * 2018-05-07 2022-03-01 中国科学院合肥物质科学研究院 一种非事实类问答答案选择方法及系统
CN108763568A (zh) * 2018-06-05 2018-11-06 北京玄科技有限公司 智能机器人交互流程的管理方法、多轮对话方法及装置
CN110648657B (zh) * 2018-06-27 2024-02-02 北京搜狗科技发展有限公司 一种语言模型训练方法、构建方法和装置
CN109002500A (zh) * 2018-06-29 2018-12-14 北京百度网讯科技有限公司 对话生成方法、装置、设备及计算机可读介质
CN109933659A (zh) * 2019-03-22 2019-06-25 重庆邮电大学 一种面向出行领域的车载多轮对话方法
CN110188331B (zh) * 2019-06-03 2023-05-26 腾讯科技(深圳)有限公司 模型训练方法、对话系统评价方法、装置、设备及存储介质
CN110334186B (zh) * 2019-07-08 2021-09-28 北京三快在线科技有限公司 数据查询方法、装置、计算机设备及计算机可读存储介质
CN110390928B (zh) * 2019-08-07 2022-01-11 广州多益网络股份有限公司 一种自动拓增语料的语音合成模型训练方法和系统
CN111061853B (zh) * 2019-12-26 2024-01-12 竹间智能科技(上海)有限公司 一种快速获取faq模型训练语料的方法
CN113495943B (zh) * 2020-04-02 2023-07-14 山东大学 一种基于知识追踪与转移的人机对话方法
JP7287333B2 (ja) * 2020-04-06 2023-06-06 トヨタ自動車株式会社 制御装置、プログラム、及び情報処理方法
CN111488444A (zh) * 2020-04-13 2020-08-04 深圳追一科技有限公司 基于场景切换的对话方法、装置、电子设备及存储介质
CN111832291B (zh) * 2020-06-02 2024-01-09 北京百度网讯科技有限公司 实体识别模型的生成方法、装置、电子设备及存储介质
CN111563152A (zh) * 2020-06-19 2020-08-21 平安科技(深圳)有限公司 智能问答语料分析方法、装置、电子设备及可读存储介质
CN112395390B (zh) * 2020-11-17 2023-07-25 平安科技(深圳)有限公司 意图识别模型的训练语料生成方法及其相关设备
CN112417127B (zh) * 2020-12-02 2023-08-22 网易(杭州)网络有限公司 对话模型的训练、对话生成方法、装置、设备及介质
CN112559718B (zh) * 2020-12-24 2024-04-12 北京百度网讯科技有限公司 对话处理的方法、装置、电子设备和存储介质
CN112667796B (zh) * 2021-01-05 2023-08-11 网易(杭州)网络有限公司 一种对话回复方法、装置、电子设备及可读存储介质
CN113033664A (zh) * 2021-03-26 2021-06-25 网易(杭州)网络有限公司 问答模型训练方法、问答方法、装置、设备及存储介质
CN113539245B (zh) * 2021-07-05 2024-03-15 思必驰科技股份有限公司 语言模型自动训练方法及系统
CN113641807A (zh) * 2021-07-28 2021-11-12 北京百度网讯科技有限公司 对话推荐模型的训练方法、装置、设备和存储介质
CN113836278B (zh) * 2021-08-13 2023-08-11 北京百度网讯科技有限公司 通用对话模型的训练与对话生成方法、装置
CN115905496B (zh) * 2022-12-23 2023-09-22 北京百度网讯科技有限公司 对话数据生成方法、模型训练方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871402A (zh) * 2012-12-11 2014-06-18 北京百度网讯科技有限公司 语言模型训练系统、语音识别系统及相应方法
CN104572998A (zh) * 2015-01-07 2015-04-29 北京云知声信息技术有限公司 用于自动问答系统的问答排序模型更新方法及装置
CN104598445A (zh) * 2013-11-01 2015-05-06 腾讯科技(深圳)有限公司 自动问答系统和方法
CN104679826A (zh) * 2015-01-09 2015-06-03 北京京东尚科信息技术有限公司 基于分类模型的上下文识别的方法和系统
CN105224623A (zh) * 2015-09-22 2016-01-06 北京百度网讯科技有限公司 数据模型的训练方法及装置
CN106407333A (zh) * 2016-09-05 2017-02-15 北京百度网讯科技有限公司 基于人工智能的口语查询识别方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321730A (ja) * 2004-05-11 2005-11-17 Fujitsu Ltd 対話システム、対話システム実行方法、及びコンピュータプログラム
US8543565B2 (en) * 2007-09-07 2013-09-24 At&T Intellectual Property Ii, L.P. System and method using a discriminative learning approach for question answering
CN104836720B (zh) * 2014-02-12 2022-02-25 北京三星通信技术研究有限公司 交互式通信中进行信息推荐的方法及装置
CN104951433B (zh) * 2015-06-24 2018-01-23 北京京东尚科信息技术有限公司 基于上下文进行意图识别的方法和系统
CN105487663B (zh) * 2015-11-30 2018-09-11 北京光年无限科技有限公司 一种面向智能机器人的意图识别方法和系统
CN106951468B (zh) * 2017-03-02 2018-12-28 腾讯科技(深圳)有限公司 对话生成方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871402A (zh) * 2012-12-11 2014-06-18 北京百度网讯科技有限公司 语言模型训练系统、语音识别系统及相应方法
CN104598445A (zh) * 2013-11-01 2015-05-06 腾讯科技(深圳)有限公司 自动问答系统和方法
CN104572998A (zh) * 2015-01-07 2015-04-29 北京云知声信息技术有限公司 用于自动问答系统的问答排序模型更新方法及装置
CN104679826A (zh) * 2015-01-09 2015-06-03 北京京东尚科信息技术有限公司 基于分类模型的上下文识别的方法和系统
CN105224623A (zh) * 2015-09-22 2016-01-06 北京百度网讯科技有限公司 数据模型的训练方法及装置
CN106407333A (zh) * 2016-09-05 2017-02-15 北京百度网讯科技有限公司 基于人工智能的口语查询识别方法及装置

Also Published As

Publication number Publication date
TW201833903A (zh) 2018-09-16
CN106951468A (zh) 2017-07-14
WO2018157700A1 (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
CN106951468B (zh) 对话生成方法及装置
CN106297789B (zh) 智能机器人的个性化交互方法及交互系统
CN105931638B (zh) 面向智能机器人的对话系统数据处理方法及装置
CN106407178B (zh) 一种会话摘要生成方法、装置、服务器设备以及终端设备
CN106295792B (zh) 基于多模型输出的对话数据交互处理方法及装置
CN105512228B (zh) 一种基于智能机器人的双向问答数据处理方法和系统
CN109658928A (zh) 一种家庭服务机器人云端多模态对话方法、装置及系统
CN109326289A (zh) 免唤醒语音交互方法、装置、设备及存储介质
CN107766506A (zh) 一种基于层次化注意力机制的多轮对话模型构建方法
CN105704013A (zh) 基于上下文的话题更新数据处理方法及装置
CN110442700A (zh) 用于人机交互的人机多轮对话方法及系统、智能设备
CN111191450A (zh) 语料清洗方法、语料录入设备及计算机可读存储介质
CN108595609A (zh) 基于人物ip的机器人回复生成方法、系统、介质及设备
CN111178081B (zh) 语义识别的方法、服务器、电子设备及计算机存储介质
CN107786430A (zh) 机器人聊天方法及系统
CN113641807A (zh) 对话推荐模型的训练方法、装置、设备和存储介质
CN109857846A (zh) 用户问句与知识点的匹配方法和装置
CN108628908A (zh) 分类用户提问-回答界限的方法、装置和电子设备
CN112632239A (zh) 基于人工智能技术的类脑问答系统
JP2019036171A (ja) 対話シナリオコーパスの作成支援システム
CN109545203A (zh) 语音识别方法、装置、设备和存储介质
Huang et al. Applied to mobile multimedia intelligent speech system interactive topic guiding model
CN108304561B (zh) 一种基于有限数据的语义理解方法、设备及机器人
CN112507104B (zh) 对话系统获取方法、装置、存储介质及计算机程序产品
CN110489730A (zh) 文本处理方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230704

Address after: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors

Patentee after: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd.

Patentee after: TENCENT CLOUD COMPUTING (BEIJING) Co.,Ltd.

Address before: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors

Patentee before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd.

TR01 Transfer of patent right