CN111625629B - 任务型对话机器人应答方法、装置及机器人、存储介质 - Google Patents
任务型对话机器人应答方法、装置及机器人、存储介质 Download PDFInfo
- Publication number
- CN111625629B CN111625629B CN201910151879.2A CN201910151879A CN111625629B CN 111625629 B CN111625629 B CN 111625629B CN 201910151879 A CN201910151879 A CN 201910151879A CN 111625629 B CN111625629 B CN 111625629B
- Authority
- CN
- China
- Prior art keywords
- information
- response
- dialogue
- robot
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种任务型对话机器人应答方法、装置及机器人、存储介质,方法包括:获取对话信息,为其分配唯一标识;根据唯一标识,从记忆网络中查找相关的第一目标词,从知识库中查找相关的第二目标词;通过Transformer模型的编码结构分别对第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;通过Transformer模型的编码结构对对话信息进行编码得到第三语义编码向量;通过Transformer模型的解码结构对第一语义编码向量、第二语义编码向量和第三语义编码向量进行解码,得到应答信息;根据应答信息进行应答。本申请实施例可以使得对话机器人有效完成推理问题的应答。
Description
技术领域
本申请属于人工智能技术领域,尤其涉及一种任务型对话机器人应答方法、装置及机器人、计算机可读存储介质。
背景技术
近年来,随着语音技术的成熟和AI技术的不断发展,人们对于对话机器人的需求愈加强烈。
任务型对话机器人是AI应用的一个重要方向。目前,对话机器人一般是基于Encoder-Decoder技术框架,或基于强化学习的技术框架。传统对话机器人的应答处理流程一般如下:对用户语音进行识别,得到用户语音文本,其中包括数据集清洗、分词(字)以及词性标注等;根据用户语音文本进行语言理解,其中包括领域分类、意图识别等;最后基于检索的相似度算法或者直接采用生成式的应答,进行应答。
传统的技术框架虽然可以保证机器人回复的流畅性、多样性,但是,在信息的一致性以及外部知识的引用方面都存在诸多问题。尤其是在面对复杂的、需要引入外部知识库的推理问题时,传统技术框架没有很强的基于上下文语义表征的模型,使得推理问题难以解决。也就是说,目前的对话机器人没有很好的语义表征机制来引导推理,以应对用户的一些复杂问题。
发明内容
有鉴于此,本申请实施例提供一种任务型对话机器人应答方法、装置及机器人、计算机可读存储介质,以解决现有任务型对话机器人面对推理问题时无法有效应答的问题。
本申请实施例的第一方面提供一种任务型对话机器人应答方法,包括:
获取用户的对话信息,并为所述对话信息分配唯一标识;
根据所述唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与所述对话信息相关的第一目标词以及从预先建立的知识库中查找与所述对话信息相关的第二目标词,所述记忆网络包括Transformer模型的编解码结构;
通过Transformer模型中的编码结构分别对所述第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;
通过Transformer模型中的编码结构对所述对话信息进行编码,得到第三语义编码向量;
通过Transformer模型中的解码结构对所述第一语义编码向量、所述第二语义编码向量以及所述第三语义编码向量进行解码,得到所述对话信息的应答信息;
根据所述应答信息执行应答操作。
结合第一方面,在一种可行的实现方式中,在所述为所述对话信息分配唯一标识之后,还包括:
根据所述唯一标识和所述对话信息,更新所述记忆网络。
结合第一方面,在一种可行的实现方式中,所述根据所述应答信息执行应答操作,包括:
通过显示屏显示所述应答信息;和/或
将所述应答信息转化为应答语音信息;
根据所述应答语音信息播放应答语音。
结合第一方面,在一种可行的实现方式中,所述记忆网络的训练过程具体包括:
获取对话训练数据;
根据所述对话训练数据,对预先建立的所述记忆网络进行训练。
结合第一方面,在一种可行的实现方式中,在所述根据所述对话训练数据,对预先建立的所述记忆网络进行训练之后,还包括:
获取训练后的所述记忆网络的优化目标值;
判断所述优化目标值是否小于或等于预设阈值;
当所述优化目标值小于或等于所述预设阈值时,确定训练后的所述记忆网络符合测试标准。
本申请实施例的第二方面提供一种任务型对话机器人应答装置,包括:
对话信息获取模块,用于获取用户的对话信息,并为所述对话信息分配唯一标识;
查找模块,用于根据所述唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与所述对话信息相关的第一目标词以及从预先建立的知识库中查找与所述对话信息相关的第二目标词,所述记忆网络包括Transformer模型的编解码结构;
第一编码模块,用于通过Transformer模型中的编码结构分别对所述第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;
第二编码模块,用于通过Transformer模型中的编码结构对所述对话信息进行编码,得到第三语义编码向量;
解码模块,用于通过Transformer模型中的解码结构对所述第一语义编码向量、所述第二语义编码向量以及所述第三语义编码向量进行解码,得到所述对话信息的应答信息;
应答模块,用于根据所述应答信息执行应答操作。
结合第二方面,在一种可行的实现方式中,还包括:
更新模块,用于根据所述唯一标识和所述对话信息,更新所述记忆网络。
结合第一方面,在一种可行的实现方式中,所述应答模块包括:
显示单元,用于通过显示屏显示所述应答信息;和/或
转化单元,用于将所述应答信息转化为应答语音信息;
播放单元,用于根据所述应答语音信息播放应答语音。
结合第二方面,在一种可行的实现方式中,还包括:
训练数据获取模块,用于获取对话训练数据;
训练模块,用于根据所述对话训练数据,对预先建立的所述记忆网络进行训练。
结合第二方面,在一种可行的实现方式中,还包括:
优化目标值获取模块,用于获取训练后的所述记忆网络的优化目标值;
判断模块,用于判断所述优化目标值是否小于或等于预设阈值;
测试模块,用于当所述优化目标值小于或等于所述预设阈值时,确定训练后的所述记忆网络符合测试标准。
本申请实施例的第三方面提供一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面任一项所述方法的步骤。
本申请实施例的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面任一项所述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:
本申请实施例通过获取用户的对话信息,根据对话信息的唯一标识,从记忆网络的历史对话记录中查找出相关的对话内容,并且从外部知识库中查找所需的相关知识,然后利用Transformer模型的编码结构进行深度语义表征,再利用解码结构生成应答信息。即基于记忆网络的框架,结合Transformer模型的编解码结构进行上下文深度语义表征,使得任务型对话机器人具备有效的语义表征机制,以融合上下文的深度语义信息和外部知识库,有效地完成推理问题的应答。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的提供一种任务型对话机器人应答方法的流程示意框图;
图2为本申请实施例提供的记忆网络的基本架构示意图;
图3为本申请实施例提供的记忆网络训练过程的流程示意框图;
图4为本申请实施例提供的一种任务型对话机器人应答装置的结构示意框图;
图5为本申请实施例提供的机器人的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
在介绍本申请实施例的具体技术方案之前,首先对本申请实施例可能涉及的应用场景进行介绍说明。
本申请实施例的任务型对话机器人是指具备对话功能的设备,该设备可以接收用户的对话信息,利用语音识别技术将语音转换为文本,然后根据该文本进行相应处理,得出该对话信息对应的应答信息,根据该应答信息执行应答操作,以进行人机对话。本实施例中的对话机器人与用户的对话是多轮对话,以用户说一句话,机器人应答一次作为一轮,多轮对话则是指用户和机器人之间进行多次对话。
任务型机器人又可以称为聊天机器人,该机器人的表现形式可以是任意的,例如,可以嵌入至智能音箱中,此时,用户通过语音和智能音箱交流;也可以是嵌入至手机中,此时,该机器人为手机语音组手;也可以嵌入至汽车车载系统中,当然,也可以具体为机器人客服,亦或者是其他的应用场景,在此不作限定。
需要说明的是,上述所提及的应用场景仅仅是一些示例性场景,并不造成对本申请实施例具体场景的限定。
在介绍完本申请实施例可能涉及的应用场景后,下面将对本申请实施例提供的技术方案进行详细介绍说明。为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
实施例一
请参见图1,为本申请实施例的提供一种任务型对话机器人应答方法的流程示意框图,该方法可以包括以下步骤:
步骤S101、获取用户的对话信息,并为对话信息分配唯一标识。
需要说明,上述对话信息是指文本信息,该文本信息是机器人利用语音识别技术将用户语音转换为文本得到的,而语音识别技术已被本领域技术人员所熟知,在此不再赘述。
上述唯一标识是指机器人为该对话信息所分配的唯一识别ID,该唯一ID的具体表现形式可以是任意的,即其组成可以是数字、字母、符号以及其它元素的任意一种或组合。机器人为了更好地区分各轮对话的对话信息,会为所接收到的每一个对话信息均分配一个唯一标识,一般情况下,不同一轮对话的唯一标识是不一样的,同一轮对话的唯一标识是一样的,便于后续根据该唯一标识查找同一轮对话的上下文信息。
例如,以个人语音助手的应用场景为例,用户和机器人之间发生的多轮对话如下:
Text:Where is the nearest park?
Dialog_id:2b77c100-0fec-426a-a483-04ac03763776
>>Zhongshan Park is the nearest park at Xiongchu Road.
Text:How far is it?
Dialog_id:2b77c100-0fec-426a-a483-04ac03763776
>>Zhongshan Park is 5miles away.
Text:Thanks.
Dialog_id:2b77c100-0fec-426a-a483-04ac03763776
>>You are welcome!
Text:Remind me to take my pills.
Dialog_id:0b144470-faa8-4e71-98c7-a9b645fffab0
>>what time would you like to know the reminder?
Text:I need to take my pills at 7pm.
Dialog_id:0b144470-faa8-4e71-98c7-a9b645fffab0
>>Got it.
其中,上述多轮对话中Text是指将用户的语音转换为文本之后得到的文本信息,Dialog_id是指为对话信息分配的唯一标识ID,>>是指机器人的应答。
步骤S102、根据唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与对话信息相关的第一目标词以及从预先建立的知识库中查找与对话信息相关的第二目标词,记忆网络包括Transformer模型的编解码结构。
需要说明,上述记忆网络是预先建立的,存储有相应的历史对话记录,一般情况下,当机器人接收到新的对话信息之后,会将新的对话信息和所分配的唯一标识写入至记忆网络中的Memory Slots中,更新记忆网络。也就是说,在一些实施例中,在上述在为对话信息分配唯一标识之后,还包括:根据唯一标识和对话信息,更新记忆网络。
参见图2所示的记忆网络的基本框架示意图,记忆网络一般主要包括输入组件、生成组件、输出组件以及响应组件,其中,输入组件Input可以将输入的Input text表示为神经网络的内部特征Feature Vector;生成组件Generalization可以根据新输入的对话更新旧记忆,保留新的记忆;输出组件Output可以在给定新输入和当前记忆状态的特征表示空间中生成新输出;响应组件Response可以将输出转换为所需的响应格式。
可以理解,图2是记忆网络的基本架构,本实施例中的记忆网络还包括Transformer模型的编解码结构,即将Transformer模型的编解码结构应用至记忆网络,和记忆网络有机结合。
其中,Transformer模型是自然语言处理的一个模型,其完全基于注意力机制,抛弃了传统的RNN和CNN。该模型的架构包括经典的Encoder-Decoder结构,一般情况下,Encoder结构由6层相同的层组成,每一层分别由两部分组成,第一部分是一个multi-headself-attention mechanism,第二部分是一个position-wise feed-forward network,其是一个全连接层。两个部分都有一个残差连接(residual connection),然后接着一个Layer Normalization。Decoder结构由6个相同的层组成,每一个层包括以下3个部分:第一个部分是multi-head self-attention mechanism,第二部分是multi-head context-attention mechanism,第三部分是一个position-wise feed-forward network。上面三个部分的每一个部分,都有一个残差连接,后接一个Layer Normalization。关于Transformer模型的具体结构已被本领域技术人员所熟知,在此不再赘述。
根据对话信息的唯一标识可以从记忆网络的历史对话记录中查找出同一轮对话的上下文信息,然后从同一轮对话的上下文信息中寻找出与对话信息相关的词。
例如,以手机语音助手为例,用户和机器人的对话如下:
用户:“帮我订车票”
机器人:“请问你的出发地是广州吗”
用户:“是的”
机器人:“请问你的目的地是南京吗”
用户:“是的”
从上述对话中,当机器人接收到用户的回答“是的”时,可以从上一个对话中获得相关的词,此时相关的词为“广州”和“南京”。基于用户对话的上下文的相关对话内容,筛选出一定的词,以更好地理解用户的意图和目的。
除了基于对话的上下文的对话内容之外,对于一些复杂的推理问题,需要引入外部知识库,以使机器人更好地理解用户的对话。其中,外部知识库是预先建立的对话知识库,通过该知识库搜索相关的语义槽,以使得用户对话内容更加明确,机器人更加容易理解用户的对话内容。例如,以智能电视的应用场景为例,用户说“换到广东台”,此时,可以去知识库中查找到“电视台”的语义槽,机器人则可以理解到用户的意图是换到广东电视台。
可以理解,上述第一目标词和第二目标词的个数可以是一个或多个。
步骤S103、通过Transformer模型中的编码结构分别对第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量。
可以理解,通过编码结构可以将一个低维向量变为高维向量。通过Transformer模型中的编码结构对搜索到的第一目标词进行编码得到第一语义编码向量,对第二目标词进行编码得到第二语义编码向量。
步骤S104、通过Transformer模型中的编码结构对对话信息进行编码,得到第三语义编码向量。
需要说明,通过Transformer模型中的编码结构对对话信息、第一目标词以及第二目标词的编码顺序是任意的,三者可以是同时进行,也可以是有先后顺序的,在此不作限定。
步骤S105、通过Transformer模型中的解码结构对第一语义编码向量、第二语义编码向量以及第三语义编码向量进行解码,得到对话信息的应答信息。
需要说明,基于记忆网络的架构,通过Transformer模型中的编解码结构,引入有效的语义表征机制进行上下文语义的深度表征,并引入外部知识库,使得机器人面对复杂的推理问题时,可以有效地完成应答。
步骤S106、根据应答信息执行应答操作。
可以理解,得到应答信息之后,可以将该应答信息显示在相应的显示屏上,也可以将该应答信息转换为相应的语音,通过播放相应的语音以执行应答,当然,也可以播放相应的语音,也显示相应的应答信息。
在一些实施例中,上述根据应答信息执行应答操作的过程可以包括:通过显示屏显示应答信息;和/或将应答信息转化为应答语音信息;根据应答语音信息播放应答语音。
记忆网络的训练一般是预先完成的,参见图3所示的记忆网络训练过程的流程示意框图,记忆网络的训练过程可以包括以下步骤:
步骤S301、获取对话训练数据。
可以理解,上述对话训练数据可以包括但不限于当前对话方、对话内容、需求类型标签、从知识库或API检索得到的语义槽相关信息等。该对话训练数据可以以json的数据形式保存各个数据字段。
步骤S302、根据对话训练数据,对预先建立的记忆网络进行训练。
步骤S303、获取训练后的记忆网络的优化目标值。
其中,记忆网络的训练过程需要不断地调整网络参数和优化目标。对话机器人的优化目标为序列损失(sequence loss):其中,y为训练数据中的对话回复,/>为机器生成的回复,/>为每一个时间步的回复。该优化目标值越小,记忆神经网络模型越好。
网络参数包括Transformer参数,而随着网络隐藏层的加深,以及多头注意力模型中Head数的增加,Transform结构通常会学习到更深层的语义。但更复杂的网络机构往往需要更多的计算资源,优化器的选择以及参数的选择,对于模型的收敛效果起到至关重要的作用。
步骤S304、判断优化目标值是否小于或等于预设阈值。当优化目标值小于或等于预设阈值时,进入步骤S305,反之,则不符合测试标准,测试不通过。
可以理解,上述预设阈值为经验阈值,其可以根据实际应用需要进行设定,在此不作限定。
步骤S305、确定训练后的记忆网络符合测试标准。
如果优化目标最终值符合测试要求,则该模型符合测试标准,反之,则不符合。
本实施例基于记忆网络的框架,结合Transformer模型的编解码结构进行上下文深度语义表征,使得任务型对话机器人具备有效的语义表征机制,以融合上下文的深度语义信息和外部知识库,有效地完成推理问题的应答。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例二
请参见图4,为本申请实施例提供的一种任务型对话机器人应答装置的结构示意框图,该装置可以包括:
对话信息获取模块41,用于获取用户的对话信息,并为对话信息分配唯一标识;
查找模块42,用于根据唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与对话信息相关的第一目标词以及从预先建立的知识库中查找与对话信息相关的第二目标词,记忆网络包括Transformer模型的编解码结构;
第一编码模块43,用于通过Transformer模型中的编码结构分别对第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;
第二编码模块44,用于通过Transformer模型中的编码结构对对话信息进行编码,得到第三语义编码向量;
解码模块45,用于通过Transformer模型中的解码结构对第一语义编码向量、第二语义编码向量以及第三语义编码向量进行解码,得到对话信息的应答信息;
应答模块46,用于根据应答信息执行应答操作。
在一些实施例中,上述装置还可以包括:
更新模块,用于根据唯一标识和对话信息,更新记忆网络。
在一些实施例中,上述应答模块可以包括:
显示单元,用于通过显示屏显示应答信息;和/或
转化单元,用于将应答信息转化为应答语音信息;
播放单元,用于根据应答语音信息播放应答语音。
在一些实施例中,上述装置还可以包括:
训练数据获取模块,用于获取对话训练数据;
训练模块,用于根据对话训练数据,对预先建立的记忆网络进行训练。
在一些实施例中,上述装置还可以包括:
优化目标值获取模块,用于获取训练后的记忆网络的优化目标值;
判断模块,用于判断优化目标值是否小于或等于预设阈值;
测试模块,用于当优化目标值小于或等于预设阈值时,确定训练后的记忆网络符合测试标准。
需要说明,本实施例的应答装置与上文的应答方法一一对应,具体介绍请参见上文相应内容,在此不再赘述。
本实施例基于记忆网络的框架,结合Transformer模型的编解码结构进行上下文深度语义表征,使得任务型对话机器人具备有效的语义表征机制,以融合上下文的深度语义信息和外部知识库,有效地完成推理问题的应答。
实施例三
图5是本申请一实施例提供的机器人的示意图。如图5所示,该实施例的机器人5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52。所述处理器50执行所述计算机程序52时实现上述各个任务型对话机器人应答方法实施例中的步骤,例如图1所示的步骤S101至S106。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块或单元的功能,例如图4所示模块41至46的功能。
示例性的,所述计算机程序52可以被分割成一个或多个模块或单元,所述一个或者多个模块或单元被存储在所述存储器51中,并由所述处理器50执行,以完成本申请。所述一个或多个模块或单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述机器人5中的执行过程。例如,所述计算机程序52可以被分割成对话信息获取模块、查找模块、第一编码模块、第二编码模块、解码模块以及应答模块,各模块具体功能如下:
对话信息获取模块,用于获取用户的对话信息,并为对话信息分配唯一标识;查找模块,用于根据唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与对话信息相关的第一目标词以及从预先建立的知识库中查找与对话信息相关的第二目标词,记忆网络包括Transformer模型的编解码结构;第一编码模块,用于通过Transformer模型中的编码结构分别对第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;第二编码模块,用于通过Transformer模型中的编码结构对对话信息进行编码,得到第三语义编码向量;解码模块,用于通过Transformer模型中的解码结构对第一语义编码向量、第二语义编码向量以及第三语义编码向量进行解码,得到对话信息的应答信息;应答模块,用于根据应答信息执行应答操作。
所述机器人可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是机器人5的示例,并不构成对机器人5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人还可以包括输入输出设备、网络接入设备、总线等。
所称处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述机器人5的内部存储单元,例如机器人5的硬盘或内存。所述存储器51也可以是所述机器人5的外部存储设备,例如所述机器人5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述机器人5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述机器人所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置、机器人和方法,可以通过其它的方式实现。例如,以上所描述的装置、机器人实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块或单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种任务型对话机器人应答方法,其特征在于,包括:
获取用户的对话信息,并为所述对话信息分配唯一标识;
根据所述唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与所述对话信息相关的第一目标词以及从预先建立的知识库中查找与所述对话信息相关的第二目标词,所述记忆网络包括Transformer模型的编解码结构;
通过Transformer模型中的编码结构分别对所述第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;
通过Transformer模型中的编码结构对所述对话信息进行编码,得到第三语义编码向量;
通过Transformer模型中的解码结构对所述第一语义编码向量、所述第二语义编码向量以及所述第三语义编码向量进行解码,得到所述对话信息的应答信息;
根据所述应答信息执行应答操作。
2.根据权利要求1所述的任务型对话机器人应答方法,其特征在于,在所述为所述对话信息分配唯一标识之后,还包括:
根据所述唯一标识和所述对话信息,更新所述记忆网络。
3.根据权利要求1或2所述的任务型对话机器人应答方法,其特征在于,所述根据所述应答信息执行应答操作,包括:
通过显示屏显示所述应答信息;和/或
将所述应答信息转化为应答语音信息;
根据所述应答语音信息播放应答语音。
4.根据权利要求3所述的任务型对话机器人应答方法,其特征在于,所述记忆网络的训练过程具体包括:
获取对话训练数据;
根据所述对话训练数据,对预先建立的所述记忆网络进行训练。
5.根据权利要求4所述的任务型对话机器人应答方法,其特征在于,在所述根据所述对话训练数据,对预先建立的所述记忆网络进行训练之后,还包括:
获取训练后的所述记忆网络的优化目标值;
判断所述记忆网络的优化目标值是否小于或等于预设阈值;
当所述记忆网络的优化目标值小于或等于所述预设阈值时,确定训练后的所述记忆网络符合测试标准。
6.一种任务型对话机器人应答装置,其特征在于,包括:
对话信息获取模块,用于获取用户的对话信息,并为所述对话信息分配唯一标识;
查找模块,用于根据所述唯一标识,分别从预先建立的记忆网络的历史对话记录中查找与所述对话信息相关的第一目标词以及从预先建立的知识库中查找与所述对话信息相关的第二目标词,所述记忆网络包括Transformer模型的编解码结构;
第一编码模块,用于通过Transformer模型中的编码结构分别对所述第一目标词和第二目标词进行编码,得到第一语义编码向量和第二语义编码向量;
第二编码模块,用于通过Transformer模型中的编码结构对所述对话信息进行编码,得到第三语义编码向量;
解码模块,用于通过Transformer模型中的解码结构对所述第一语义编码向量、所述第二语义编码向量以及所述第三语义编码向量进行解码,得到所述对话信息的应答信息;
应答模块,用于根据所述应答信息执行应答操作。
7.根据权利要求6所述的任务型对话机器人应答装置,其特征在于,还包括:
更新模块,用于根据所述唯一标识和所述对话信息,更新所述记忆网络。
8.根据权利要求6或7所述的任务型对话机器人应答装置,其特征在于,所述应答模块包括:
显示单元,用于通过显示屏显示所述应答信息;和/或
转化单元,用于将所述应答信息转化为应答语音信息;
播放单元,用于根据所述应答语音信息播放应答语音。
9.一种机器人,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910151879.2A CN111625629B (zh) | 2019-02-28 | 2019-02-28 | 任务型对话机器人应答方法、装置及机器人、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910151879.2A CN111625629B (zh) | 2019-02-28 | 2019-02-28 | 任务型对话机器人应答方法、装置及机器人、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111625629A CN111625629A (zh) | 2020-09-04 |
CN111625629B true CN111625629B (zh) | 2023-08-25 |
Family
ID=72258729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910151879.2A Active CN111625629B (zh) | 2019-02-28 | 2019-02-28 | 任务型对话机器人应答方法、装置及机器人、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111625629B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112182162B (zh) * | 2020-09-30 | 2023-10-31 | 中国人民大学 | 一种基于记忆神经网络的个性化对话方法和系统 |
CN113838461B (zh) * | 2021-08-20 | 2022-11-01 | 北京百度网讯科技有限公司 | 智能语音交互方法、装置、设备和计算机存储介质 |
CN115168568B (zh) * | 2022-03-16 | 2024-04-05 | 腾讯科技(深圳)有限公司 | 一种数据内容的识别方法、装置以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123939A (zh) * | 2014-06-06 | 2014-10-29 | 国家电网公司 | 基于变电站巡检机器人的语音交互控制方法 |
WO2018058994A1 (zh) * | 2016-09-30 | 2018-04-05 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108090174A (zh) * | 2017-12-14 | 2018-05-29 | 北京邮电大学 | 一种基于系统功能语法的机器人应答方法及装置 |
-
2019
- 2019-02-28 CN CN201910151879.2A patent/CN111625629B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123939A (zh) * | 2014-06-06 | 2014-10-29 | 国家电网公司 | 基于变电站巡检机器人的语音交互控制方法 |
WO2018058994A1 (zh) * | 2016-09-30 | 2018-04-05 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108090174A (zh) * | 2017-12-14 | 2018-05-29 | 北京邮电大学 | 一种基于系统功能语法的机器人应答方法及装置 |
Non-Patent Citations (1)
Title |
---|
陈振舜 ; 刘建明 ; .基于意图的神经网络对话模型.桂林电子科技大学学报.2018,(第05期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111625629A (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108319599B (zh) | 一种人机对话的方法和装置 | |
CN107590192B (zh) | 文本问题的数学化处理方法、装置、设备和存储介质 | |
CN109086329A (zh) | 基于话题关键词引导的进行多轮对话方法及装置 | |
CN111625629B (zh) | 任务型对话机器人应答方法、装置及机器人、存储介质 | |
CN110110041A (zh) | 错词纠正方法、装置、计算机装置及存储介质 | |
CN109101545A (zh) | 基于人机交互的自然语言处理方法、装置、设备和介质 | |
CN110288980A (zh) | 语音识别方法、模型的训练方法、装置、设备及存储介质 | |
CN109215662A (zh) | 端对端语音识别方法、电子装置及计算机可读存储介质 | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN111191016A (zh) | 一种多轮对话处理方法、装置及计算设备 | |
CN111209383B (zh) | 多轮对话的处理方法及处理装置、车辆、存储介质 | |
CN110956956A (zh) | 基于策略规则的语音识别方法及装置 | |
CN109119067B (zh) | 语音合成方法及装置 | |
CN109243468A (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
CN110990547A (zh) | 一种话术生成方法和系统 | |
CN111951780A (zh) | 语音合成的多任务模型训练方法及相关设备 | |
CN111339309B (zh) | 一种用户意图的语料扩展方法和系统 | |
CN113160819B (zh) | 用于输出动画的方法、装置、设备、介质和产品 | |
CN111435592A (zh) | 一种语音识别方法、装置及终端设备 | |
CN110457459A (zh) | 基于人工智能的对话生成方法、装置、设备及存储介质 | |
CN111508472A (zh) | 一种语种切换方法、装置及存储介质 | |
CN113987149A (zh) | 任务型机器人的智能会话方法、系统及存储介质 | |
CN107734123A (zh) | 一种联系人排序方法和装置 | |
CN115617975B (zh) | 针对少样本多轮对话的意图识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 516006 TCL science and technology building, No. 17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District Applicant before: TCL Corp. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |