CN112632254A - 对话状态确定方法、终端设备及存储介质 - Google Patents

对话状态确定方法、终端设备及存储介质 Download PDF

Info

Publication number
CN112632254A
CN112632254A CN202011586720.2A CN202011586720A CN112632254A CN 112632254 A CN112632254 A CN 112632254A CN 202011586720 A CN202011586720 A CN 202011586720A CN 112632254 A CN112632254 A CN 112632254A
Authority
CN
China
Prior art keywords
information
slot position
current
candidate
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011586720.2A
Other languages
English (en)
Other versions
CN112632254B (zh
Inventor
陈海滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202011586720.2A priority Critical patent/CN112632254B/zh
Publication of CN112632254A publication Critical patent/CN112632254A/zh
Priority to PCT/CN2021/091132 priority patent/WO2022142028A1/zh
Application granted granted Critical
Publication of CN112632254B publication Critical patent/CN112632254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本申请适用于人工智能技术领域,提供了一种对话状态确定方法、终端设备及存储介质,该方法包括:响应于接收到用户在当前轮对话中输入的当前输入语句,获取针对上一输入语句的系统响应语句;从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,以及从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息;将当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息。此外,本申请还涉及区块链技术。

Description

对话状态确定方法、终端设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种对话状态确定方法、终端设备及存储介质。
背景技术
人机交互中,用户与智能设备的一问一答通常被称之为一轮对话。目前,智能设备通常可以通过多轮对话,获取必要信息以最终得到明确的用户指令。实践中,多轮对话通常与一件任务的执行相对应。如,可以通过多轮对话,获取用于执行购买机票任务的必要信息,从而基于所获取的必要信息得到明确的用户指令,以实现准确执行购买机票的任务。
相关技术中,需要通过多轮对话获取所需执行的任务的必要信息。
发明内容
有鉴于此,本申请实施例提供了一种对话状态确定方法、终端设备及存储介质,以解决现有技术中获取所需执行的任务的必要信息的效率不够高的问题。
本申请实施例的第一方面提供了一种对话状态确定方法,包括:
响应于接收到用户在当前轮对话中输入的当前输入语句,获取针对上一输入语句的系统响应语句,其中,上一输入语句为用户在上一轮对话中输入的语句;
从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,以及从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息;
将当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息,其中,对话状态信息包括当前领域状态信息和当前槽位状态信息。
进一步地,将当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息,包括:
将当前领域信息和历史领域状态信息输入预先训练的第一神经网络模型,得到当前领域状态信息,以及将当前槽位信息和历史槽位状态信息输入预先训练的第二神经网络模型,得到当前槽位状态信息;
将当前领域状态信息和当前槽位状态信息,组合生成当前轮对话的对话状态信息。
进一步地,从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,包括:
从候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,其中,组合语句为将当前输入语句和系统响应语句组合生成的语句;以及
从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息,包括:
从候选槽位信息集中,选取与组合语句的语义最相近的候选槽位信息,作为当前槽位信息。
进一步地,从候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,包括:
针对候选领域信息集中的候选领域信息,确定该候选领域信息对应的向量与组合语句对应的向量之间的语义相似度;
从候选领域信息集中,选取对应语义相似度最大的候选领域信息,作为当前领域信息。
进一步地,从候选槽位信息集中,选取与组合语句的语义最相近的候选槽位信息,作为当前槽位信息,包括:
针对候选槽位信息集中的候选槽位信息,确定该候选槽位信息对应的向量与组合语句对应的向量之间的语义相似度;
从候选槽位信息集中,选取对应语义相似度最大的候选槽位信息,作为当前槽位信息。
进一步地,候选领域信息集中的候选领域信息通过如下步骤得到:
领域计算步骤:确定目标领域训练语句与初始领域信息之间的领域相似度,响应于领域相似度大于或等于预设领域相似度阈值,将初始领域信息确定为候选领域信息,其中,目标领域训练语句包括该候选领域信息所指示的任务的信息;
响应于领域相似度小于预设领域相似度阈值,调整初始领域信息,将调整后的初始领域信息作为初始领域信息,继续执行领域计算步骤。
进一步地,候选槽位信息集中的候选槽位信息通过如下步骤得到:
槽位计算步骤:确定目标槽位训练语句与初始槽位信息之间的槽位相似度,响应于槽位相似度大于或等于预设槽位相似度阈值,将初始槽位信息确定为候选槽位信息,其中,目标槽位训练语句包括该候选槽位信息所描述的槽位信息;
响应于槽位相似度小于预设槽位相似度阈值,调整初始槽位信息,将调整后的初始槽位信息作为初始槽位信息,继续执行槽位计算步骤。
进一步地,对话状态模型通过如下步骤训练得到:
获取训练样本集,训练样本集中的训练样本包括领域信息、历史领域状态信息、槽位信息、历史槽位状态信息和对应的对话状态信息;
将训练样本集中的训练样本的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息作为输入,将与输入的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息对应的对话状态信息作为期望输出,训练得到对话状态模型。
本申请实施例的第二方面提供了一种对话状态确定装置,包括:
语句接收单元,用于响应于接收到用户在当前轮对话中输入的当前输入语句,获取针对上一输入语句的系统响应语句,其中,上一输入语句为用户在上一轮对话中输入的语句;
信息选取单元,用于从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,以及从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息;
信息确定单元,用于将当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息,其中,对话状态信息包括当前领域状态信息和当前槽位状态信息。
本申请实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在终端设备上运行的计算机程序,处理器执行计算机程序时实现第一方案提供的对话状态确定方法的各步骤。
本申请实施例的第四方面提供了一种存储介质,存储介质存储有计算机程序,计算机程序被处理器执行时实现第一方案提供的对话状态确定方法的各步骤。
实施本申请实施例提供的一种对话状态确定方法、装置、终端设备及存储介质具有以下有益效果:
本申请实施例提供的一种对话状态确定方法,通过引入领域因素,使得不同领域的信息可以被区分,实现在一次多轮对话中,收集到不同领域任务对应的必要信息。与相关技术中,通过多次多轮对话以获取各领域任务分别对应的必要信息相比,本申请可以节约计算资源,提高获取所需执行的任务的必要信息的效率。有助于提高人机对话效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种对话状态确定方法的实现流程图;
图2是本申请实施例提供的候选领域信息集的构建方法的实现流程图;
图3是本申请另一实施例提供的一种对话状态确定方法的实现流程图;
图4是本申请再一实施例提供的一种对话状态确定方法的实现流程图;
图5是本申请实施例提供的一种对话状态确定装置的结构框图;
图6是本申请实施例提供的一种终端设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例所涉及的对话状态确定方法,可以由控制设备或终端(以下称“终端设备”)执行。
请参阅图1,图1示出了本申请实施例提供的一种对话状态确定方法的实现流程图,包括:
步骤101,响应于接收到用户在当前轮对话中输入的当前输入语句,获取针对上一输入语句的系统响应语句。
其中,当前输入语句,通常为用户在当前轮对话中输入的语句。上一输入语句,通常为用户在上一轮对话中输入的语句。系统响应语句,通常为终端设备针对用户在上一轮对话中输入的语句所回应的语句。这里,用户输入某一语句后,系统针对该语句做出回应,一输入一回应为一轮对话。
这里,上述执行主体可以接收到用户输入的当前输入语句,以及在接收到当前输入语句时,调出上一轮对话中,执行主体针对用户输入的上一输入语句所回应的系统响应语句。
实践中,上述当前输入语句和上述系统响应语句通常可以是语音形式或文字形式。作为示例,若当前输入语句为语音形式,则执行主体可以先将语音转换成文字,然后将文字转换成便于数据处理的向量。若当前输入语句为文字形式,则执行主体可以直接将文字转换成便于数据处理的向量。实际应用中,执行主体可以采用双向长短期记忆网络(Bi-directional Long Short-Term Memory,Bi-LSTM)将语句对应文字转换成向量。执行主体还可以采用word2vec模型将语句中的词转换成向量,然后将各个词对应的向量拼接起来,形成维度为所有词向量的维度之和的向量,得到语句对应的向量。其中,word2vec模型用于表征语句中的词与词向量的对应关系,word2vec模型是本领域技术人员常用的用于将词转化成词向量的神经网络模型,这里不做赘述。
步骤102,从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,以及从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息。
其中,领域信息通常是用于指示目标任务的信息。目标任务可以是预先设定的各种任务。作为示例,任务可以是贷款、还款、买机票等。候选领域信息通常是用于候选的领域信息。
其中,槽位信息通常包括槽位和槽位值。这里,槽位通常是指需要向用户收集的关键信息。槽位通常具有槽位值,且槽位值通常是用户表达的关键信息的具体取值。作为一个示例,槽位可以是价格,槽位值可以是价格的取值。作为另一个示例,槽位可以是出发地,槽位值可以是上海。实践中,填槽通常是收集用户信息的过程,用于将模糊或缺失的用户意图补全。
这里,上述执行主体可以通过如下方式得到当前领域信息和当前槽位信息:从候选领域信息集中,选取与当前输入语句和系统响应语句具有最多重复字的候选领域信息,作为当前领域信息。以及从候选槽位信息集中,选取与当前输入语句和系统响应语句具有最多重复字的候选槽位信息,作为当前槽位信息。
步骤103,将当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息。
其中,对话状态信息包括当前领域状态信息和当前槽位状态信息。当前领域状态信息通常为当前轮对话以及当前轮对话之前的各轮对话综合对应的领域信息。当前领域状态信息中可以包括多个用于指示目标任务的信息,即,当前领域状态信息可以同时指示多个目标任务。当前槽位状态信息通常为当前轮对话以及当前轮对话之前的各轮对话综合对应的槽位信息。历史领域状态信息,通常为在当前轮对话之前的各轮对话综合对应的领域信息。历史槽位状态信息,通常为在当前轮对话之前的各轮对话综合对应的槽位信息。
其中,对话状态模型通常用于表征当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息与当前对话状态的对应关系。
具体的,对话状态模型可以是基于对大量对话的大量状态进行统计而生成的、存储有多个当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息与对话状态信息的对应关系的对应关系表,也可以是基于训练样本,利用机器学习方法,对初始模型(例如卷积神经网络(Convolutional Neural Network,CNN)、残差网络(ResNet)等)进行训练后得到的模型。
本实施例中,通过引入领域因素,使得不同领域的信息可以被区分,实现在一次多轮对话中,收集到不同领域任务对应的必要信息。与相关技术中,通过多次多轮对话以获取各领域任务分别对应的必要信息相比,本申请可以节约计算资源,提高获取所需执行的任务的必要信息的效率。有助于提高人机对话效率。需要指出的是,对话状态信息是基于当前轮对话以及当前轮对话之前的各轮对话综合分析得到,针对每一轮对话,可以得到对应的对话状态信息,通过一次多轮对话可以得到指示多个任务的对话状态信息,可以提高获取所需执行的任务的必要信息的效率。有助于提高人机对话效率。
在本实施例的一些可选的实现方式中,上述执行主体也可以通过如下方式得到当前领域信息和当前槽位信息:首先,从候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息。然后,从候选槽位信息集中,选取与组合语句的语义最相近的候选槽位信息,作为当前槽位信息。
其中,组合语句可以为将当前输入语句和系统响应语句组合生成的语句。举例来说,若当前输入语句为:帮忙买张去深圳的机票,针对上一轮输入的系统响应语句为:需要我帮忙干点什么呢。则组合语句可以为:需要我帮忙干点什么呢,帮忙买张去深圳的机票。
这里,上述执行主体可以采用语义相似度算法,如,深度语义模型算法(DeepStructured Sematic models,DSSM)、卷积潜在语义模型(Convolutional LatentSemantic Model,CLSM)等,计算组合语句与各候选领域信息之间的相似度,然后,选取对应相似度最大的候选领域信息作为当前领域信息。以及采用上述语义相似度算法,计算组合语句与各候选槽位信息之间的相似度,然后,选取对应相似度最大的候选槽位信息作为当前槽位信息。
本实现方式中,选取语义最相近的候选领域信息作为当前领域信息,且选取语义最相近的候选槽位信息作为当前槽位信息,可以更准确地捕捉到用户真实意图,从而进一步提高人机对话的效率。
在本实施例的一些可选的实现方式中,上述从候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,包括:首先,针对候选领域信息集中的候选领域信息,确定该候选领域信息对应的向量与组合语句对应的向量之间的语义相似度。然后,从候选领域信息集中,选取对应语义相似度最大的候选领域信息,作为当前领域信息。
其中,语义相似度通常是用于描述数据之间的语义相关性的度量值。语义相似度的取值通常大于0且小于或等于1。其中,语义相似度可以包括以下任意一项或多项:余弦相似度,欧氏距离的倒数等。
这里,上述执行主体可以计算各候选领域信息的向量与组合语句的向量之间的语义相似度,然后选取对应语义相似度最大的候选领域信息作为当前领域信息。
本实现方式中,直接将两个向量之间的相似度,作为候选领域信息与组合语句之间的语义相似度,计算复杂度低,可以在保障获取所需执行的任务的必要信息的效率的同时,节约计算资源。
在本实施例的一些可选的实现方式中,从候选槽位信息集中,选取与组合语句的语义最相近的候选槽位信息,作为当前槽位信息,包括:针对候选槽位信息集中的候选槽位信息,确定该候选槽位信息对应的向量与组合语句对应的向量之间的语义相似度。从候选槽位信息集中,选取对应语义相似度最大的候选槽位信息,作为当前槽位信息。
这里,上述执行主体可以计算各候选槽位信息的向量与组合语句的向量之间的语义相似度,然后选取对应语义相似度最大的候选槽位信息作为当前槽位信息。
本实现方式中,直接将两个向量之间的相似度,作为候选槽位信息与组合语句之间的语义相似度,计算复杂度低,可以在保障获取所需执行的任务的必要信息的效率的同时,进一步节约计算资源。
在本实施例的一些可选的实现方式中,对话状态模型通过如下步骤训练得到:首先,获取训练样本集,训练样本集中的训练样本包括领域信息、历史领域状态信息、槽位信息、历史槽位状态信息和对应的对话状态信息。然后,将训练样本集中的训练样本的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息作为输入,将与输入的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息对应的对话状态信息作为期望输出,训练得到对话状态模型。
其中,对话状态信息包括当前领域状态信息和当前槽位状态信息。当前领域状态信息通常为当前轮对话以及当前轮对话之前的各轮对话综合对应的领域信息。当前领域状态信息中可以包括多个用于指示目标任务的信息,即,当前领域状态信息可以同时指示多个目标任务。当前槽位状态信息通常为当前轮对话以及当前轮对话之前的各轮对话综合对应的槽位信息。历史领域状态信息,通常为在当前轮对话之前的各轮对话综合对应的领域信息。历史槽位状态信息,通常为在当前轮对话之前的各轮对话综合对应的槽位信息。
本实现方式中,训练得到的对话状态模型,可以针对所输入的当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输出当前轮对话的当前领域状态信息和当前槽位状态信息。只需训练一个模型即可实现同时获取到两种信息,即,当前领域状态信息和当前槽位状态信息。与相关技术中,需要训练至少两个模型以分别获取到当前领域状态信息和当前槽位状态信息相比,本申请能够加快模型训练效率。
请参阅图2,图2是本申请另一实施例提供的候选领域信息集的构建方法的实现流程图。详述如下:
步骤201,领域计算步骤:确定目标领域训练语句与初始领域信息之间的领域相似度,响应于领域相似度大于或等于预设领域相似度阈值,将初始领域信息确定为候选领域信息。
其中,目标领域训练语句包括该候选领域信息所指示的任务的信息。作为示例,目标领域训练语句可以为:帮忙买去深圳的机票。候选领域信息所指示的任务为:买机票。
其中,领域相似度通常是用于描述两个信息所指向的任务的相似程度的数值。领域相似度的取值通常大于0且小于等于1。预设领域相似度阈值通常是预先设定的数值,如,可以为0.8。
其中,初始领域信息可以是预先设定的初始信息,实践中,初始领域信息通常为一向量。上述执行主体可以计算目标领域训练语句对应的向量与初始领域信息对应的向量之间的相似度,如,余弦相似度、欧氏距离的倒数等,实现得到目标领域训练语句与初始领域信息之间的领域相似度。
步骤202,响应于领域相似度小于预设领域相似度阈值,调整初始领域信息,将调整后的初始领域信息作为初始领域信息,继续执行领域计算步骤。
这里,在领域相似度小于预设领域相似度阈值时,采用预设调整方式调整初始领域信息,以及对调整后的初始领域信息继续执行领域计算步骤。作为示例,预设调整方式可以是采用梯度下降方式调整初始领域信息对应的向量。
本实施例中,由于目标领域训练语句通常包括该候选领域信息所指示的任务的信息,采用目标领域训练语句对初始领域信息进行训练,以得到候选领域信息,可以使得候选领域信息能够更加准确地指示任务。从而准确地获取到任务对应的必要信息,有助于进一步提高对话效率。
在本实施例的一些可选的实现方式中,候选槽位信息集中的候选槽位信息通过如下步骤得到:槽位计算步骤:确定目标槽位训练语句与初始槽位信息之间的槽位相似度,响应于槽位相似度大于或等于预设槽位相似度阈值,将初始槽位信息确定为候选槽位信息。目标槽位训练语句包括该候选槽位信息所描述的槽位信息。响应于槽位相似度小于预设槽位相似度阈值,调整初始槽位信息,将调整后的初始槽位信息作为初始槽位信息,继续执行槽位计算步骤。
本实现方式中,得到候选槽位信息集中的候选槽位信息的方式,与前述获取候选领域信息集中的候选领域信息的方式基本类似,这里不做赘述。
请参阅图3,图3是本申请另一实施例提供的对话状态追踪方法的实现流程图。相对于图1对应的实施例,本实施例提供的对话状态追踪方法是对步骤103的进一步细化。这里,步骤103可以包括步骤301和302。详述如下:
步骤301,将当前领域信息和历史领域状态信息输入预先训练的第一神经网络模型,得到当前领域状态信息,以及将当前槽位信息和历史槽位状态信息输入预先训练的第二神经网络模型,得到当前槽位状态信息。
其中,第一神经网络模型通常用于表征当前领域信息、历史领域状态信息与领域状态信息的对应关系。具体的,第一神经网络模型可以是基于对大量对话的大量状态进行统计而生成的、存储有多个当前领域信息、历史领域状态信息与领域状态信息的对应关系的对应关系表,也可以是基于训练样本,利用机器学习方法,对初始模型(例如,卷积神经网络、残差网络等)进行训练后得到的模型。
其中,第二神经网络模型通常用于表征当前槽位信息、历史槽位状态信息与槽位状态信息的对应关系。具体的,第二神经网络模型可以是基于对大量对话的大量状态进行统计而生成的、存储有多个当前槽位信息、历史槽位状态信息与槽位状态信息的对应关系的对应关系表,也可以是基于训练样本,利用机器学习方法,对初始模型(例如,卷积神经网络、残差网络等)进行训练后得到的模型。
实践中,第一神经网络模型可以为长短期记忆网络模型(Long Short-TermMemory,LSTM)模型,第二神经网络模型也可以为LSTM模型。
步骤302,将当前领域状态信息和当前槽位状态信息,组合生成当前轮对话的对话状态信息。
这里,可以直接将当前领域状态信息和当前槽位状态信息拼接成对话状态信息。作为示例,若当前领域状态信息为:买机票。当前槽位状态信息为:价格,便宜。则,可以将当前领域状态信息和当前槽位状态信息进行拼接,得到:买机票-价格-便宜。具体实现时,当前领域状态信息和当前槽位状态信息拼接通常为向量,且通常是通过将两个向量直接拼接,得到对话状态信息。如,若当前领域状态信息为[1,3,5],当前槽位状态信息为[2,4,6],则两个向量拼接后,可以得到对话状态信息为[1,3,5,2,4,6]。
本实施例中,分两个神经网络模型分别确定当前对话的领域状态信息和槽位状态信息,可以实现更准确地捕捉到当前对话的领域状态信息和槽位状态信息,有助于实现更准确地进行对话状态追踪,从而进一步提高人机对话效率。
请参阅图4,图4是本申请另一实施例提供的对话状态追踪方法的示意图。详述如下:
首先,从候选领域信息集中,选取出与用户当前输入和机器人上轮回复匹配的候选领域信息,得到当前领域信息。以及,从候选槽位信息集中,选取出与用户当前输入和机器人上轮回复匹配的候选槽位信息,得到当前槽位信息。
这里,用户当前输入为用户在当前轮对话中输入的当前输入语句。机器人上轮回复为终端设备针对上一输入语句的系统响应语句。
然后,将当前领域信息和历史领域状态信息输入LSTM模型,得到当前领域状态信息,以及将当前槽位信息和历史槽位状态信息输入另一LSTM模型,得到当前槽位状态信息。
这里,用于得到当前领域状态信息的LSTM模型为第一神经网络模型,用于得到当前槽位状态信息的LSTM模型为第二神经网络模型。
最后,将当前领域状态信息和当前槽位状态信息拼接,得到对话状态信息。
这里,可以直接将当前领域状态信息和当前槽位状态信息拼接成对话状态信息。作为示例,若当前领域状态信息为:买机票。当前槽位状态信息为:价格,便宜。则,可以将当前领域状态信息和当前槽位状态信息进行拼接,得到:买机票-价格-便宜。具体实现时,当前领域状态信息和当前槽位状态信息拼接通常为向量,且通常是通过将两个向量直接拼接,得到对话状态信息。如,若当前领域状态信息为[1,3,5],当前槽位状态信息为[2,4,6],则两个向量拼接后,可以得到对话状态信息为[1,3,5,2,4,6]。
在本申请的所有实施例中,人机对话中,终端设备针对用户与终端设备的每一轮对话,可以得到一个对话状态信息。终端设备可以将各轮对话的对话状态信息上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得到该对话状态信息,以便查证对话状态信息是否被篡改。本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
请参阅图5,图5是本申请实施例提供的一种对话状态确定装置500的结构框图。本实施例中该终端设备包括的各单元用于执行图1至图4对应的实施例中的各步骤。具体请参阅图1至图4以及图1至图4所对应的实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。参见图5,对话状态确定装置500包括:
语句接收单元501,用于响应于接收到用户在当前轮对话中输入的当前输入语句,获取针对上一输入语句的系统响应语句,其中,上一输入语句为用户在上一轮对话中输入的语句;
信息选取单元502,用于从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,以及从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息;
信息确定单元503,用于将当前领域信息、历史领域状态信息、当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息,其中,对话状态信息包括当前领域状态信息和当前槽位状态信息。
作为本申请一实施例,信息确定单元503具体用于:
将当前领域信息和历史领域状态信息输入预先训练的第一神经网络模型,得到当前领域状态信息,以及将当前槽位信息和历史槽位状态信息输入预先训练的第二神经网络模型,得到当前槽位状态信息;
将当前领域状态信息和当前槽位状态信息,组合生成当前轮对话的对话状态信息。
作为本申请一实施例,信息选取单元502中,从预先构建的候选领域信息集中,选取与当前输入语句和系统响应语句匹配的候选领域信息,作为当前领域信息,包括:从候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,其中,组合语句为将当前输入语句和系统响应语句组合生成的语句;以及
信息选取单元502中,从预先构建的候选槽位信息集中,选取与当前输入语句和系统响应语句匹配的候选槽位信息,作为当前槽位信息,包括:
从候选槽位信息集中,选取与组合语句的语义最相近的候选槽位信息,作为当前槽位信息。
作为本申请一实施例,从候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,包括:
针对候选领域信息集中的候选领域信息,确定该候选领域信息对应的向量与组合语句对应的向量之间的语义相似度;
从候选领域信息集中,选取对应语义相似度最大的候选领域信息,作为当前领域信息。
作为本申请一实施例,从候选槽位信息集中,选取与组合语句的语义最相近的候选槽位信息,作为当前槽位信息,包括:
针对候选槽位信息集中的候选槽位信息,确定该候选槽位信息对应的向量与组合语句对应的向量之间的语义相似度;
从候选槽位信息集中,选取对应语义相似度最大的候选槽位信息,作为当前槽位信息。
作为本申请一实施例,候选领域信息集中的候选领域信息通过如下步骤得到:
领域计算步骤:确定目标领域训练语句与初始领域信息之间的领域相似度,响应于领域相似度大于或等于预设领域相似度阈值,将初始领域信息确定为候选领域信息,其中,目标领域训练语句包括该候选领域信息所指示的任务的信息;
响应于领域相似度小于预设领域相似度阈值,调整初始领域信息,将调整后的初始领域信息作为初始领域信息,继续执行领域计算步骤。
作为本申请一实施例,候选槽位信息集中的候选槽位信息通过如下步骤得到:
槽位计算步骤:确定目标槽位训练语句与初始槽位信息之间的槽位相似度,响应于槽位相似度大于或等于预设槽位相似度阈值,将初始槽位信息确定为候选槽位信息,其中,目标槽位训练语句包括该候选槽位信息所描述的槽位信息;
响应于槽位相似度小于预设槽位相似度阈值,调整初始槽位信息,将调整后的初始槽位信息作为初始槽位信息,继续执行槽位计算步骤。
作为本申请一实施例,对话状态模型通过如下步骤训练得到:
获取训练样本集,训练样本集中的训练样本包括领域信息、历史领域状态信息、槽位信息、历史槽位状态信息和对应的对话状态信息;
将训练样本集中的训练样本的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息作为输入,将与输入的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息对应的对话状态信息作为期望输出,训练得到对话状态模型。
本实施例提供的装置,通过引入领域因素,使得不同领域的信息可以被区分,实现在一次多轮对话中,收集到不同领域任务对应的必要信息。与相关技术中,通过多次多轮对话以获取各领域任务分别对应的必要信息相比,本申请可以节约计算资源,提高获取所需执行的任务的必要信息的效率。有助于提高人机对话效率。
应当理解的是,图5示出的对话状态确定装置的结构框图中,各单元用于执行图1至图4对应的实施例中的各步骤,而对于图1至图4对应的实施例中的各步骤已在上述实施例中进行详细解释,具体请参阅图1至图4以及图1至图4所对应的实施例中的相关描述,此处不再赘述。
图6是本申请另一实施例提供的一种终端设备的结构框图。如图6所示,该实施例的终端设备600包括:处理器601、存储器602以及存储在存储器602中并可在处理器601上运行的计算机程序603,例如对话状态确定方法的程序。处理器601执行计算机程序603时实现上述各个对话状态确定方法各实施例中的步骤,例如图1所示的步骤101至步骤103,或者图2所示的201至202,或者图3所示的301至302。或者,处理器601执行计算机程序603时实现上述图5对应的实施例中各单元的功能,例如,图5所示的单元501至503的功能,具体请参阅图5对应的实施例中的相关描述,此处不赘述。
示例性的,计算机程序603可以被分割成一个或多个单元,一个或者多个单元被存储在存储器602中,并由处理器601执行,以完成本申请。一个或多个单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序603在终端设备600中的执行过程。例如,计算机程序603可以被分割成语句接收单元、信息选取单元、信息确定单元,各单元具体功能如上。
转台设备可包括,但不仅限于,处理器601、存储器602。本领域技术人员可以理解,图6仅仅是终端设备600的示例,并不构成对终端设备600的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如转台设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器601可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器602可以是终端设备600的内部存储单元,例如终端设备600的硬盘或内存。存储器602也可以是终端设备600的外部存储设备,例如终端设备600上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。进一步地,存储器602还可以既包括终端设备600的内部存储单元也包括外部存储设备。存储器602用于存储计算机程序以及转台设备所需的其他程序和数据。存储器602还可以用于暂时地存储已经输出或者将要输出的数据。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种对话状态确定方法,其特征在于,
响应于接收到用户在当前轮对话中输入的当前输入语句,获取针对上一输入语句的系统响应语句,其中,所述上一输入语句为用户在上一轮对话中输入的语句;
从预先构建的候选领域信息集中,选取与所述当前输入语句和所述系统响应语句匹配的候选领域信息,作为当前领域信息,以及从预先构建的候选槽位信息集中,选取与所述当前输入语句和所述系统响应语句匹配的候选槽位信息,作为当前槽位信息;
将所述当前领域信息、历史领域状态信息、所述当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息,其中,所述对话状态信息包括当前领域状态信息和当前槽位状态信息。
2.根据权利要求1所述的对话状态确定方法,其特征在于,所述将所述当前领域信息、历史领域状态信息、所述当前槽位信息和历史槽位状态信息,输入预先训练的对话状态模型,得到当前轮对话的对话状态信息,包括:
将所述当前领域信息和所述历史领域状态信息输入预先训练的第一神经网络模型,得到所述当前领域状态信息,以及将所述当前槽位信息和所述历史槽位状态信息输入预先训练的第二神经网络模型,得到所述当前槽位状态信息;
将所述当前领域状态信息和所述当前槽位状态信息,组合生成当前轮对话的对话状态信息。
3.根据权利要求1所述的对话状态确定方法,其特征在于,
所述从预先构建的候选领域信息集中,选取与所述当前输入语句和所述系统响应语句匹配的候选领域信息,作为当前领域信息,包括:
从所述候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,其中,所述组合语句为将所述当前输入语句和所述系统响应语句组合生成的语句;以及
所述从预先构建的候选槽位信息集中,选取与所述当前输入语句和所述系统响应语句匹配的候选槽位信息,作为当前槽位信息,包括:
从所述候选槽位信息集中,选取与所述组合语句的语义最相近的候选槽位信息,作为当前槽位信息。
4.根据权利要求3所述的对话状态确定方法,其特征在于,所述从所述候选领域信息集中,选取与组合语句的语义最相近的候选领域信息,作为当前领域信息,包括:
针对所述候选领域信息集中的候选领域信息,确定该候选领域信息对应的向量与所述组合语句对应的向量之间的语义相似度;
从所述候选领域信息集中,选取对应语义相似度最大的候选领域信息,作为当前领域信息。
5.根据权利要求3所述的对话状态确定方法,其特征在于,所述从所述候选槽位信息集中,选取与所述组合语句的语义最相近的候选槽位信息,作为当前槽位信息,包括:
针对所述候选槽位信息集中的候选槽位信息,确定该候选槽位信息对应的向量与所述组合语句对应的向量之间的语义相似度;
从所述候选槽位信息集中,选取对应语义相似度最大的候选槽位信息,作为当前槽位信息。
6.根据权利要求1所述的对话状态确定方法,其特征在于,所述候选领域信息集中的候选领域信息通过如下步骤得到:
领域计算步骤:确定目标领域训练语句与初始领域信息之间的领域相似度,响应于所述领域相似度大于或等于预设领域相似度阈值,将初始领域信息确定为候选领域信息,其中,所述目标领域训练语句包括该候选领域信息所指示的任务的信息;
响应于所述领域相似度小于所述预设领域相似度阈值,调整初始领域信息,将调整后的初始领域信息作为初始领域信息,继续执行所述领域计算步骤。
7.根据权利要求1所述的对话状态确定方法,其特征在于,所述候选槽位信息集中的候选槽位信息通过如下步骤得到:
槽位计算步骤:确定目标槽位训练语句与初始槽位信息之间的槽位相似度,响应于所述槽位相似度大于或等于预设槽位相似度阈值,将初始槽位信息确定为候选槽位信息,其中,所述目标槽位训练语句包括该候选槽位信息所描述的槽位信息;
响应于所述槽位相似度小于所述预设槽位相似度阈值,调整初始槽位信息,将调整后的初始槽位信息作为初始槽位信息,继续执行所述槽位计算步骤。
8.根据权利要求1所述的对话状态确定方法,其特征在于,所述对话状态模型通过如下步骤训练得到:
获取训练样本集,所述训练样本集中的训练样本包括领域信息、历史领域状态信息、槽位信息、历史槽位状态信息和对应的对话状态信息;
将所述训练样本集中的训练样本的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息作为输入,将与输入的领域信息、历史领域状态信息、槽位信息、历史槽位状态信息对应的对话状态信息作为期望输出,训练得到所述对话状态模型。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述方法的步骤。
CN202011586720.2A 2020-12-28 2020-12-28 对话状态确定方法、终端设备及存储介质 Active CN112632254B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011586720.2A CN112632254B (zh) 2020-12-28 2020-12-28 对话状态确定方法、终端设备及存储介质
PCT/CN2021/091132 WO2022142028A1 (zh) 2020-12-28 2021-04-29 对话状态确定方法、终端设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011586720.2A CN112632254B (zh) 2020-12-28 2020-12-28 对话状态确定方法、终端设备及存储介质

Publications (2)

Publication Number Publication Date
CN112632254A true CN112632254A (zh) 2021-04-09
CN112632254B CN112632254B (zh) 2024-05-28

Family

ID=75286210

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011586720.2A Active CN112632254B (zh) 2020-12-28 2020-12-28 对话状态确定方法、终端设备及存储介质

Country Status (2)

Country Link
CN (1) CN112632254B (zh)
WO (1) WO2022142028A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071170A (ja) * 2021-06-30 2022-05-13 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話状態の生成方法、装置、電子機器及び記憶媒体
WO2022142028A1 (zh) * 2020-12-28 2022-07-07 平安科技(深圳)有限公司 对话状态确定方法、终端设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063035A (zh) * 2018-07-16 2018-12-21 哈尔滨工业大学 一种面向出行领域的人机多轮对话方法
US20190005948A1 (en) * 2017-06-29 2019-01-03 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and device for managing dialogue based on artificial intelligence
CN111090728A (zh) * 2019-12-13 2020-05-01 车智互联(北京)科技有限公司 一种对话状态跟踪方法、装置及计算设备
CN111414195A (zh) * 2019-02-03 2020-07-14 北京邮电大学 通用可配置、兼容多模型、领域可迁移的多轮对话系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203559A (ja) * 2007-02-20 2008-09-04 Toshiba Corp 対話装置及び方法
CN110555095B (zh) * 2018-05-31 2024-04-16 北京京东尚科信息技术有限公司 人机对话方法和装置
CN110858226A (zh) * 2018-08-07 2020-03-03 北京京东尚科信息技术有限公司 对话管理方法和装置
CN111125326A (zh) * 2019-12-06 2020-05-08 贝壳技术有限公司 用于实现人机对话的方法、装置、介质以及电子设备
CN112632254B (zh) * 2020-12-28 2024-05-28 平安科技(深圳)有限公司 对话状态确定方法、终端设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005948A1 (en) * 2017-06-29 2019-01-03 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and device for managing dialogue based on artificial intelligence
CN109063035A (zh) * 2018-07-16 2018-12-21 哈尔滨工业大学 一种面向出行领域的人机多轮对话方法
CN111414195A (zh) * 2019-02-03 2020-07-14 北京邮电大学 通用可配置、兼容多模型、领域可迁移的多轮对话系统
CN111090728A (zh) * 2019-12-13 2020-05-01 车智互联(北京)科技有限公司 一种对话状态跟踪方法、装置及计算设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022142028A1 (zh) * 2020-12-28 2022-07-07 平安科技(深圳)有限公司 对话状态确定方法、终端设备及存储介质
JP2022071170A (ja) * 2021-06-30 2022-05-13 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話状態の生成方法、装置、電子機器及び記憶媒体

Also Published As

Publication number Publication date
WO2022142028A1 (zh) 2022-07-07
CN112632254B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN110377911B (zh) 对话框架下的意图识别方法和装置
CN107273503B (zh) 用于生成同语言平行文本的方法和装置
CN108846077B (zh) 问答文本的语义匹配方法、装置、介质及电子设备
CN108121800B (zh) 基于人工智能的信息生成方法和装置
CN111738016B (zh) 多意图识别方法及相关设备
CN112100354B (zh) 人机对话方法、装置、设备及存储介质
CN110162780B (zh) 用户意图的识别方法和装置
CN111753076B (zh) 对话方法、装置、电子设备及可读存储介质
CN109857846B (zh) 用户问句与知识点的匹配方法和装置
CN109829044A (zh) 对话方法、装置及设备
CN110046806B (zh) 用于客服派单的方法、装置和计算设备
CN110874528B (zh) 文本相似度的获取方法及装置
CN112632254B (zh) 对话状态确定方法、终端设备及存储介质
CN111275205A (zh) 虚拟样本的生成方法、终端设备及存储介质
CN113535925B (zh) 语音播报方法、装置、设备及存储介质
CN115481222A (zh) 语义向量提取模型的训练及语义向量表示方法、装置
CN110708619B (zh) 一种智能设备的词向量训练方法及装置
CN112364136A (zh) 关键词生成方法、装置、设备及存储介质
CN111680514B (zh) 信息处理和模型训练方法、装置、设备及存储介质
CN116680385A (zh) 基于人工智能的对话问答方法、装置、计算机设备及介质
CN116680387A (zh) 基于检索增强的对话答复方法、装置、设备及存储介质
CN113704452B (zh) 基于Bert模型的数据推荐方法、装置、设备及介质
CN113314108B (zh) 语音数据的处理方法、装置、设备、存储介质和程序产品
CN112949305B (zh) 负反馈信息采集方法、装置、设备及存储介质
CN112597208A (zh) 企业名称检索方法、企业名称检索装置及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant