CN112990292B - 基于神经网络的对话状态的生成方法及装置 - Google Patents

基于神经网络的对话状态的生成方法及装置 Download PDF

Info

Publication number
CN112990292B
CN112990292B CN202110260504.7A CN202110260504A CN112990292B CN 112990292 B CN112990292 B CN 112990292B CN 202110260504 A CN202110260504 A CN 202110260504A CN 112990292 B CN112990292 B CN 112990292B
Authority
CN
China
Prior art keywords
dialogue
round
slot
state
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110260504.7A
Other languages
English (en)
Other versions
CN112990292A (zh
Inventor
孙超
王健宗
吴天博
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110260504.7A priority Critical patent/CN112990292B/zh
Publication of CN112990292A publication Critical patent/CN112990292A/zh
Application granted granted Critical
Publication of CN112990292B publication Critical patent/CN112990292B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供了一种基于神经网络的对话状态的生成方法及装置,适用于任务型对话系统技术领域,该方法包括:获取第一回合对话、第二回合对话以及第一回合对话的对话状态,第一回合对话与第二回合对话相邻,第一回合对话的对话状态包括多个槽值对,每个槽值对包括一个槽;在状态运算预测器中根据第一回合对话、第二回合对话以及第一回合对话的对话状态,确定第一回合对话的对话状态中需要解码的目标槽;对目标槽进行解码,并根据解码结果和第一回合对话的对话状态中不需要解码的槽确定第二回合对话的对话状态。本申请的方法使得解码器可以专注于对需要更新的槽进行更新,大大提高了工作效率。

Description

基于神经网络的对话状态的生成方法及装置
技术领域
本申请属于任务型对话系统技术领域,尤其涉及一种基于神经网络的对话状态的生成方法及装置。
背景技术
任务型对话系统作为自然语言处理领域的一项重要任务,也是人工智能面临的一项重要挑战,正日益获得学术界及产业界的关注。任务型对话系统指的是通过与用户多个回合的交互,来帮助用户完成某项任务的系统,对话状态跟踪(Dialogue State Tracking,DST)是任务型对话系统中的重要组成部分,DST的目标是确定用户在每个回合尝试通知的目标,这些目标用槽值对表示,对话状态为槽值对的组合。
传统的DST方法假设所有候选槽值对都是预先给定的,且对本体文件中所有可能的槽值对进行评分并选择得分最高的作为预测值,这导致了当本体文件较大时每次预测对话状态时都需要遍历所有槽值对,因此,如何高效的生成当前回合的对话状态是任务型对话系统面临的急需解决的问题。
发明内容
本申请实施例提供了一种基于神经网络的对话状态的生成方法及装置,可以解决每次预测对话状态时需要遍历所有槽值对而导致的效率低的问题。
第一方面,本申请实施例提供了一种基于神经网络的对话状态的生成方法,包括:获取第一回合对话、第二回合对话以及第一回合对话的对话状态,第一回合对话与第二回合对话相邻,第一回合对话的对话状态包括多个槽值对,每个槽值对包括一个槽;在状态运算预测器中根据第一回合对话、第二回合对话以及第一回合对话的对话状态,确定第一回合对话的对话状态中需要解码的目标槽;对目标槽进行解码,并根据解码结果和第一回合对话的对话状态中不需要解码的槽确定第二回合对话的对话状态。
本申请提供的基于神经网络的对话状态的生成方法,通过在状态运算预测器中根据前一回合对话状态中的多个槽确定出需要解码的槽和不需要解码的槽。根据需要解码的槽的解码结果和不需要解码的槽共同确定当前回合的对话状态。本申请通过将任务分解为两阶段的方式首先确定出需要解码的槽,然后只需要对需要解码的槽进行解码,解码器可以专注于对需要更新的槽进行更新,使得模型能够有效地生成槽值子集,而不是生成所有的槽值,这就大大提高了工作效率,并且有效的解决了现阶段全部进行解码从而生成全部槽值对所造成的爆内存的问题。
在一种可能的实现方法中,该状态运算预测器中还包括分类器,通过分类器确定多个槽值对中槽的操作类型;按照操作类型确定需要更新的槽,并将需要更新的槽作为需要解码的目标槽。在该种实现方式中,通过分类器将前一回合对话状态中的多个槽进行分类,将该多个槽分成不同的操作类型,从而确定出需要解码的槽。
在一种可能的实现方法中,每个槽值对还包括槽值,通过分类器确定多个槽值对中槽的操作类型,包括:根据计算公式
Figure BDA0002969777590000021
计算在第t轮对话上第j个槽上的操作类型的概率值;其中,Wopr为可更新的参数矩阵,/>
Figure BDA0002969777590000022
表示对应的槽的输出,/>
Figure BDA0002969777590000023
表示在第t轮对话上第j个槽上的操作类型的概率;从概率矩阵中确定多个概率值中最大的概率值;根据最大的概率值确定第一回合对话的对话状态中多个槽分别对应的操作类型。在该种实现方式中,通过概率分布计算概率矩阵,从而找出最大的概率值,根据最大的概率值对应的槽值确定不同的操作类型,分类器根据不同的操作类型对多个槽进行分类。
在一种可能的实现方法中,根据最大的概率值确定第一回合对话的对话状态中多个槽分别对应的操作类型,包括:查找预设的最大的概率值对应的第二回合对话的对话状态中的槽值;当最大的概率值对应的槽值为第一回合对话的对话状态中的槽值时,操作类型为不更新;或当最大的概率值对应的槽值为删除时,操作类型为空;或当最大的概率值对应的槽值为不关注时,操作类型为不关注;或当最大的概率值对应的槽值为更新时,操作类型为更新。在该种实现方式中,不同最大概率值对应不同的槽值,不同的槽值对应不同的操作类型。
在一种可能的实现方式中,第二回合对话的对话状态包括:当操作类型为空,操作类型为不关注,操作类型为不更新时,该多个槽值对对应的槽不需要解码,操作类型为更新时,该槽值对对应的槽需要进行解码。在该种实现方式中,操作类型分类四类时,只有操作类型为更新时需要进行解码。
在一种可能的实现方法中,操作类型为更新时,多个槽值对对应的槽需要解码,方法包括,根据解码器在k时刻的隐藏状态计算预设词表中词汇的第一概率分布;基于编码器的输出概率分布和第一概率分布确定词汇的最终概率分布;基于词汇的最终概率分布确定最终概率分布的最大概率值对应的第一位置;根据第一位置,查找预设词表中第一位置对应的槽值,第一位置对应的槽值为第一回合对话的对话状态中需要更新的槽的槽值。在该种实现方式中,基于编码器的输出和编码器隐状态的输出概率共同确定最后的概率分布,从而更精确的找出词表中最匹配的槽值。
第二方面,提供了一种对话状态的生成装置,该过对话状态的生成装置包括用于执行以上第一方面或者第一方面的任意一方面可能的实现方法。
第三方面,提供了一种对话状态的生成装置,该装置包括至少一个处理器和存储器,该至少一个处理器用于执行以上第一方面或第一方面的任意可能的实现方式中的方法。
第四方面,提供了一种对话状态的生成装置,该对话状态的生成装置包括至少一个处理器和接口电路,该至少一个处理器用于执行以上第一方面或者第一方面中的任意一方面可能的实现方式中的方法。
第五方面,提供了对话状态的生成设备,该对话状态的生成设备包括上述第二方面、第三方面或者第四方面提供的任对话状态的生成装置。
第六方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序在被处理器执行时,用于执行第一方面或第一方面的任意可能的实现方式中的方法。
第七方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当该计算机程序被执行时,用于执行第一方面或第一方面的任意可能的实现方式中的方法。
第八方面,提供了一种芯片或者集成电路,该芯片或者集成电路包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有该芯片或者集成电路的设备执行第一方面或第一方面的任意可能的实现方式中的方法。
可以理解的是,上述第二方面至第八方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:
本申请提供的基于神经网络的对话状态的生成方法,通过在状态运算预测器中根据前一回合对话状态中的多个槽确定出需要解码的槽和不需要解码的槽。根据需要解码的槽的解码结果和不需要解码的槽共同确定第二回合的对话状态。本申请通过将任务分解为两阶段的方式首先确定出需要解码的槽,然后只需要对需要解码的槽进行解码,解码器可以专注于对需要更新的槽进行更新,使得模型能够有效地生成槽值子集,而不是生成所有的槽值,这就大大提高了工作效率,并且有效的解决了现阶段全部进行解码从而生成全部槽值对所造成的爆内存的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的对话状态的生成方法一个实施例提供的流程图;
图2是本申请提供的对话状态生成方法的模型结构示意图;
图3是本申请提供的对话状态生成装置示意图;
图4是本申请提供的对话状态生成设备的结构示意图。
具体实施方式
随着现代信息技术的发展,人机交互式对话系统在生活有了越来越多的应用,诸如Siri、Cortana和Alexa等语音助手已经在我们生活中普及。而面向任务的对话系统的需求也日益增长,比如智能客服,智能个人助理等,可以用于预定机票、查找餐厅和制定行程等服务。传统的任务型的对话系统中,整个对话系统只使用一个编码-解码模型,其中编码器将对话的上下文信息,编码成一个隐向量,用于表示该对话的当前状态,然后解码器对该对话状态进行解码,进而生成对话系统的回复。这种方式通常需要大量的手工工作,因此很难将系统扩展到新的应用领域。
基于神经网络的方法在建立聊天型对话系统中的卓越表现,本申请通过将任务分解为两阶段的方式,首先确定出需要解码的槽,然后只需要对需要解码的槽进行解码,解码器可以专注于对需要更新的槽进行更新,使得模型能够有效地生成槽值子集,而不是生成所有的槽值,这就大大提高了工作效率,并且有效的解决了现阶段全部进行解码从而生成全部槽值对所造成的爆内存的问题。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
首先,在介绍本申请提供的对话状态生成的方法及装置的实施例之前,需要对下文中即将提及的部分术语进行说明。当本申请体积术语“第一”、“第二”等序数词时仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
参照下面的描述和附图,将清楚本发明的实施例的这些和其他方面。在这些描述和附图中,具体公开了本发明的实施例中的一些特定实施方式,来表示实施本发明的实施例的原理的一些方式,但是应当理解,本发明的实施例的范围不受此限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
本申请实施例提供的对话状态的生成方法可以应用于手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
下面结合具体实施例,对本申请提供的对话状态生成方法进行示例性的说明。
参见图1,本申请提供的基于神经网络的对话状态的生成方法的一个实施例的流程图,如图1所述,该方法包括:
S101,获取第一回合对话、第二回合对话以及第一回合对话的对话状态,第一回合对话与第二回合对话相邻,第一回合对话的对话状态包括多个槽值对,每个槽值对包括一个槽。
首先,获取第一回合对话、第二回合对话以及第一回合对话的对话状态。该第一回合对话是指与第二回合对话相邻的上一个对话。第一回合对话、第二回合对话是指用户和机器人输入的自然语言,第一回合对话的对话状态是指第一回合对话中的多个槽值对,其中,一个槽值对由一个槽和多个槽值组成,多个槽值对则包括可多个槽和该多个槽相对应的槽值。首先定义对话状态为
Figure BDA0002969777590000071
其中sj是槽,/>
Figure BDA0002969777590000072
为槽值,也就是说对话状态Bt为槽值对组合,t表示第t轮对话,j表示第j个槽。
S102,在状态运算预测器中根据第一回合对话、第二回合对话以及第一回合对话的对话状态,确定第一回合对话的对话状态中需要解码的目标槽。
本申请实施例中对根据第一回合对话、第二回合对话以及第一回合对话的对话状态确定第一回合对话的对话状态中需要解码的目标槽的方式不做限定。
可选的,在一种可能的实现方式中,通过在状态运算预测器中加入分类器从而确定第一回合对话的对话状态中的多个槽分别对应的操作类型,从而最终确定需要解码的目标槽。
本申请对该分类器不做限定,例如,可以是神经网络中的全连接层或者神经网络中的Softmax分类器、支持向量机(Support Vector Machine,SVM)等。
可选的,在一种可能的实现方式中,通过在状态预算预测器的Bert(Bidirectional Encoder Representations from Transformer)模型中输入第一回合对话和第二回合对话以及第一回合对话状态,进行编码。全连接层将编码后的第一回合对话中对应的多个槽值对中的槽分成不同的操作类型。
可选的,在另一种可能的实现方式中,通过在状态预算预测器的Bert模型中输入第一回合对话和第二回合对话以及第一回合对话状态,进行编码。Softmax分类器将解码后的第一回合对话中对应的多个槽值对中的槽分成不同的操作类型。
其中,Bert模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的Representation,即:文本的语义表示,然后将文本的语义表示在特定自然语言处理任务中作微调,最终应用于该自然语言任务。
本申请对该分类方式不做限定,例如分类器可以根据概率计算得到第二回合对话的对话状态中的槽值,根据该槽值确定该多个槽具体对应哪种操作类型。
可选的,通过以下选择概率分布计算公式计算在第t轮对话上第j个槽上的槽值的概率值;
Figure BDA0002969777590000081
其中,Wopr为可更新的参数矩阵,
Figure BDA0002969777590000082
表示对应的槽的输出,/>
Figure BDA0002969777590000083
表示在第t轮对话上第j个槽上的操作类型的概率;根据计算的概率的具体结果选择相对应的槽值,从而确定该槽值对应的槽的操作类型。
示例性的,当j=4时,计算得到的该四个槽的最大概率分别为0.1,0.2,0.3,0.4,查找预设的最大的概率值对应的第二回合对话的对话状态中的槽值。这四个概率分别对应的槽值为第一回合对话的对话状态中的槽值、删除、不关注、更新。该四个槽值分别对应的操作类型为不更新、空、不关注、更新。也就是说,操作类型为不更新时是指第二回合状态的槽值等于第一回合状态的槽值;操作类型为空是指第二回合状态的槽值为删除时;操作类型为不关注是指第二回合状态的槽值为不关注;操作类型为更新是指本槽的槽值为更新。当操作类型为删除、操作类型为不关注和操作类型为不更新时该多个槽值对对应的槽不需要解码,当操作类型为更新时,多个槽值对对应的槽需要解码。
S103,对目标槽进行解码,并根据解码结果和第一回合对话的对话状态中不需要解码的槽确定第二回合对话的对话状态。
本申请实施例中对该多个槽中需要解码的目标槽的解码方式不做限定。
可选的,在一种可能的实现方式中,使用门控神经网络中的门控循环单元(gatedrecurrent unit,GRU)进行解码,其初始化输入为
Figure BDA0002969777590000084
当门控网络在零时刻时的输入的/>
Figure BDA0002969777590000085
表示编码器中整个输入序列整体的聚合,/>
Figure BDA0002969777590000086
表示在解码分类后需要更新的槽。
在GRU网络中K时刻的隐藏状态为
Figure BDA0002969777590000087
基于GRU网络中的K时刻的隐藏状态计算词汇的概率分布
Figure BDA0002969777590000088
Figure BDA0002969777590000091
其中E为词向量矩阵。
计算编码器的输出Ht的概率分布
Figure BDA0002969777590000092
通过对GRU网络中K时刻的隐藏状态
Figure BDA0002969777590000093
进行加权求和并使用sigmoid激活得到一个0-1的常数α,根据该常数,对/>
Figure BDA0002969777590000094
和/>
Figure BDA0002969777590000095
的结果进行加权平均,计算得到最终的概率分布/>
Figure BDA0002969777590000096
根据最终的概率分布确定该最终概率矩阵中的最大概率值对应的位置,根据该位置,选出词表库中在该位置处的槽值,作为需要更新的槽值,对第一回合对话的对话状态中需要更新的槽的槽值进行更新。
根据第一回合对话中多个槽的操作类型为空、操作类型为不关注和操作类型为不更新时的槽和第一回合对话中多个槽的操作类型为更新,且得到更新结果的槽最终确定第二回合对话的对话状态。
图2是本申请提供的对话状态生成的模型结构示意图,从图2可以看出,通过在状态运算预测器中输入第一回合对话Dt-1、第二回合对话Dt以及第一回合对话的对话状态Bt-1,通过状态运算预测器中的分类器将第一回合对话的对话状态中的多个槽值对中的槽进行分类,得到多个槽值对对应的槽的操作类型,ht[SLOT]j代表的是第j个槽的分类结果,CARRYOVER表示操作类型为不更新,DELETE表示操作类型为删除,DOTCARE表示操作类型为不关注,UPDATE表示操作类型为更新。其中,操作类型为不更新时是指第二回合对话的槽值等于第一回合对话的槽值;操作类型为空是指第二回合对话的槽值为删除时;操作类型为不关注是指第二回合对话的槽值为不关注;操作类型为更新是指第一回合的槽的槽值需要更新。当操作类型为空、操作类型为不关注和操作类型为不更新时该多个槽值对对应的槽不需要解码,当操作类型为更新时,多个槽值对对应的槽需要解码。将只需要解码的槽输入至槽值生成器中进行解码。
图3是本申请提供的一种对话状态生成的装置示意图。该装置包括处理单元301。
处理单元301用于获取第一回合对话、第二回合对话以及第一回合对话的对话状态。在状态运算预测器中根据第一回合对话、第二回合对话以及第一回合对话的对话状态,确定第一回合对话的对话状态中需要解码的目标槽。对目标槽进行解码,并根据解码结果和第一回合对话的对话状态中不需要解码的槽确定第二回合对话的对话状态。
可选的,处理单元301还用于通过分类器确定多个槽值对中槽的操作类型;按照操作类型确定需要更新的槽。
可选的,处理单元301还用于使得分类器根据计算公式
Figure BDA0002969777590000101
计算在第t轮对话上第j个槽上的槽值的概率值;从概率矩阵中确定多个概率值中最大的概率值;根据最大的概率值和预设的所最大的概率值对应的第二回合对话的对话状态中的槽值确定第一回合对话的对话状态中多个槽分别对应的操作类型。
可选的,处理单元301还用于判当最大的概率值对应的槽值为第一回合对话的对话状态中的槽值时,判断操作类型为不更新;当最大的概率值对应的槽值为删除时,判断操作类型为空;或当最大的概率值对应的槽值为不关注时,判断操作类型为不关注;或当最大的概率值对应的槽值为更新时,判断操作类型为更新。
可选的,处理单元301还用于基于编码器的输出概率和门控网络的隐状态求词汇的概率分布,确定词汇的最终概率分布;根据最终概率值确定前一回合对话状态中需要更新的槽的槽值。
处理单元301还用于根据其他类型中不需要解码的槽和当前更新完的槽得到第二回合对话的对话状态。
装置300执行对话状态的生成方法的具体方式以及产生的有益效果可以参见方法实施例中的相关描述。
图4示出了本申请提供的一种对话状态生成设备的结构示意图。设备400可用于实现上述方法实施例中描述的方法,设备400可以是终端设备或者服务器或者芯片。
设备400包括一个或者多个处理器401,该一个或者多个处理器401可支持设备400实现图1所对应方法实施例中的方法。处理器401可以是中央处理单元(CentralProcessing Unit,CPU),该处理器401还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
例如,设备400可以是芯片,通信单元403可以是该芯片的输入和/或输出电路,或者,通信单元403可以是该芯片的通信接口,该芯片可以作为终端设备或网络设备或其它电子设备的组成部分。
又例如,设备400可以是终端设备或服务器,通信单元403可以是该终端设备或该服务器的收发器,或者,通信单元403可以是该终端设备或该服务器的收发电路。
设备400中可以包括一个或多个存储器402,其上存有程序代码4021,程序代码4021可被处理器401运行,生成指令,使得处理器401根据指令执行上述方法实施例中描述的方法。
可选地,存储器402中还可以存储有数据(如多任务神经网络)。可选地,处理器401还可以读取存储器402中存储的数据,该数据可以与程序代码4021存储在相同的存储地址,该数据也可以与程序代码4021存储在不同的存储地址。
处理器401和存储器402可以单独设置,也可以集成在一起,例如,集成在终端设备的系统级芯片(system on chip,SOC)上。
处理器401执行对话状态生成的方法的具体方式可以参见方法实施例中的相关描述。
该存储器402可以包括只读存储器和随机存取存储器,并向处理器401提供指令和数据。存储器402还可以包括非易失性随机存取存储器。该存储器402可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electricallyEPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double datadate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
该总线404除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图4中将各种总线都标为总线404。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘(solid state drive,SSD)。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (6)

1.一种基于神经网络的对话状态的生成方法,应用于任务型对话系统,其特征在于,所述方法包括:
获取第一回合对话、第二回合对话以及所述第一回合对话的对话状态,所述第一回合对话与所述第二回合对话相邻,所述第一回合对话的对话状态包括多个槽值对,每个槽值对包括一个槽;
根据如下公式计算在第t轮对话上第j个槽上的操作类型的概率值;
Figure FDA0004196293770000011
其中,Wopr为可更新的参数矩阵,
Figure FDA0004196293770000012
为对应的槽的输出,/>
Figure FDA0004196293770000013
表示在第t轮对话上第j个槽上的操作类型的概率;
从概率矩阵中确定多个概率值中最大的概率值;
查找预设的所述最大的概率值对应的所述第二回合对话的对话状态中的槽值,所述第二回合对话的对话状态包括:所述操作类型为空、所述操作类型为不关注和所述操作类型为不更新时所述多个槽值对对应的槽不需要解码,所述操作类型为更新时,所述多个槽值对对应的槽需要解码;
当所述最大的概率值对应的槽值为所述第一回合对话的对话状态中的槽值时,所述操作类型为不更新;或
当所述最大的概率值对应的槽值为删除时,所述操作类型为空;或
当所述最大的概率值对应的槽值为不关注时,所述操作类型为不关注;或
当所述最大的概率值对应的槽值为更新时,所述操作类型为更新;
按照所述操作类型确定需要更新的槽,并将所述需要更新的槽作为需要解码的目标槽;
对所述目标槽进行解码,并根据解码结果和所述第一回合对话的对话状态中不需要解码的槽确定所述第二回合对话的对话状态。
2.根据权利要求1所述的方法,其特征在于,所述操作类型为更新时,所述多个槽值对对应的槽需要解码,包括,
根据解码器在k时刻的隐藏状态计算预设词表中词汇的第一概率分布;
基于编码器的输出概率分布和所述第一概率分布确定所述词汇的最终概率分布;
基于所述词汇的最终概率分布确定所述最终概率分布的最大概率值对应的第一位置;
根据所述第一位置,查找所述预设词表中所述第一位置对应的槽值,所述第一位置对应的槽值为所述第一回合对话的对话状态中需要更新的槽的槽值。
3.一种基于神经网络的对话状态的生成装置,其特征在于,所述生成装置包括至少一个处理器,所述至少一个处理器与至少一个存储器耦合;
所述至少一个处理器,用于执行所述至少一个存储器中存储的计算机程序或指令,以使得所述生成装置执行如权利要求1或2所述的方法。
4.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1或2任一项所述的方法。
5.一种计算机可读存储介质,所述计算机存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1或2所述的方法。
6.一种芯片,其特征在于,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的主机命令处理设备执行如权利要求1或2所述的方法。
CN202110260504.7A 2021-03-10 2021-03-10 基于神经网络的对话状态的生成方法及装置 Active CN112990292B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110260504.7A CN112990292B (zh) 2021-03-10 2021-03-10 基于神经网络的对话状态的生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110260504.7A CN112990292B (zh) 2021-03-10 2021-03-10 基于神经网络的对话状态的生成方法及装置

Publications (2)

Publication Number Publication Date
CN112990292A CN112990292A (zh) 2021-06-18
CN112990292B true CN112990292B (zh) 2023-07-11

Family

ID=76336282

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110260504.7A Active CN112990292B (zh) 2021-03-10 2021-03-10 基于神经网络的对话状态的生成方法及装置

Country Status (1)

Country Link
CN (1) CN112990292B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553413A (zh) * 2021-06-30 2021-10-26 北京百度网讯科技有限公司 对话状态的生成方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019074509A1 (en) * 2017-10-12 2019-04-18 Google Llc DETERMINING THE DIALOGUE STATUS OF AN AUTOMATED ASSISTANT
CN111061850A (zh) * 2019-12-12 2020-04-24 中国科学院自动化研究所 基于信息增强的对话状态跟踪方法、系统、装置
CN111611347A (zh) * 2020-05-22 2020-09-01 上海乐言信息科技有限公司 任务型对话系统的对话状态跟踪、训练方法及系统
CN111767383A (zh) * 2020-07-03 2020-10-13 苏州思必驰信息科技有限公司 对话状态跟踪方法、系统及人机对话方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087092B2 (en) * 2019-03-05 2021-08-10 Salesforce.Com, Inc. Agent persona grounded chit-chat generation framework

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019074509A1 (en) * 2017-10-12 2019-04-18 Google Llc DETERMINING THE DIALOGUE STATUS OF AN AUTOMATED ASSISTANT
CN111061850A (zh) * 2019-12-12 2020-04-24 中国科学院自动化研究所 基于信息增强的对话状态跟踪方法、系统、装置
CN111611347A (zh) * 2020-05-22 2020-09-01 上海乐言信息科技有限公司 任务型对话系统的对话状态跟踪、训练方法及系统
CN111767383A (zh) * 2020-07-03 2020-10-13 苏州思必驰信息科技有限公司 对话状态跟踪方法、系统及人机对话方法

Also Published As

Publication number Publication date
CN112990292A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN109101537B (zh) 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN109887484B (zh) 一种基于对偶学习的语音识别与语音合成方法及装置
WO2021190259A1 (zh) 一种槽位识别方法及电子设备
CN112668671A (zh) 预训练模型的获取方法和装置
Fu et al. CRNN: a joint neural network for redundancy detection
CN110990555B (zh) 端到端检索式对话方法与系统及计算机设备
US20230315999A1 (en) Systems and methods for intent discovery
CN113655893B (zh) 一种词句生成方法、模型训练方法及相关设备
CN113947095B (zh) 多语种文本翻译方法、装置、计算机设备及存储介质
CN112925912B (zh) 文本处理方法、同义文本召回方法及装置
US20230215203A1 (en) Character recognition model training method and apparatus, character recognition method and apparatus, device and storage medium
CN113239157A (zh) 对话模型的训练方法、装置、设备和存储介质
CN111460117B (zh) 对话机器人意图语料生成方法、装置、介质及电子设备
JP2021081713A (ja) 音声信号を処理するための方法、装置、機器、および媒体
CN115687934A (zh) 意图识别方法、装置、计算机设备及存储介质
CN116757224A (zh) 意图理解方法、装置、设备和介质
CN112990292B (zh) 基于神经网络的对话状态的生成方法及装置
CN111475635A (zh) 语义补全方法、装置和电子设备
CN114020886A (zh) 语音意图识别方法、装置、设备及存储介质
CN116343233B (zh) 文本识别方法和文本识别模型的训练方法、装置
CN117236340A (zh) 问答方法、装置、设备和介质
JP2023017983A (ja) 情報生成モデルの訓練方法、情報生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN113362809B (zh) 语音识别方法、装置和电子设备
CN117235205A (zh) 命名实体识别方法、装置及计算机可读存储介质
CN111753548B (zh) 信息获取方法及装置、计算机存储介质、电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant