CN106776578A - 用于提升对话系统对话性能的方法及装置 - Google Patents

用于提升对话系统对话性能的方法及装置 Download PDF

Info

Publication number
CN106776578A
CN106776578A CN201710002664.5A CN201710002664A CN106776578A CN 106776578 A CN106776578 A CN 106776578A CN 201710002664 A CN201710002664 A CN 201710002664A CN 106776578 A CN106776578 A CN 106776578A
Authority
CN
China
Prior art keywords
vector set
dialog
term vector
information
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710002664.5A
Other languages
English (en)
Other versions
CN106776578B (zh
Inventor
简仁贤
马永宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Technology (shanghai) Co Ltd
Original Assignee
Intelligent Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Technology (shanghai) Co Ltd filed Critical Intelligent Technology (shanghai) Co Ltd
Priority to CN201710002664.5A priority Critical patent/CN106776578B/zh
Publication of CN106776578A publication Critical patent/CN106776578A/zh
Application granted granted Critical
Publication of CN106776578B publication Critical patent/CN106776578B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种用于提升对话系统对话性能的方法及装置,其中,方法包括,获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;根据当前对话信息,前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。本发明提供的用于提升对话系统对话性能的方法及装置,采用预先构建的对话分析器对对话的上下文进行理解,可以使得对话系统记住前面进行过的话题信息,并确保对话在稳定的主题下进行,可以实现提高对话系统的对话灵活性。

Description

用于提升对话系统对话性能的方法及装置
技术领域
本发明涉及聊天机器人领域以及人工智能对话系统领域,尤其涉及一种用于提升对话系统对话性能的方法及装置。
背景技术
随着人工智能技术的不断发展,用于人机进行交流的对话系统也需要进行适应性地发展,以提升用户与对话系统进行交流时的交互体验,从而提高用户对对话系统的信任度。现有的对话系统,针对用户输入的对话信息,通常是直接从语料库中匹配出语句进行应答,这导致现有的对话系统所生成的应答语句往往不能很好地把握当前对话的主题,且经常会重复之前已经进行过的话题,使得对话难以维持,也就是说,现有的对话系统灵活性不高,不够智能。
发明内容
本发明要解决的技术问题是提供一种用于提升对话系统对话性能的方法及装置,采用预先构建的对话分析器对对话的上下文进行理解,可以使得对话系统记住前面进行过的话题信息,并确保对话在稳定的主题下进行,可以实现提高对话系统的对话灵活性。
为解决上述技术问题,本发明提供的技术方案是:
一方面,本发明提供一种用于提升对话系统对话性能的方法,包括,
获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;
根据当前对话信息,前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。
进一步地,根据当前对话信息,前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句,具体包括,
对当前对话信息进行分词,以获取当前词向量集合,以及对前N轮的历史对话信息进行分词,以获取N个历史词向量集合;
根据当前词向量集合和N个历史词向量集合,以及根据预先构建的对话分析器,确定应答词向量集合;
根据应答词向量集合,确定应答输出语句。
进一步地,对话分析器包括,编码单元,加权注意力单元,解码单元;
编码单元,用于采用预先构建的编码器,分别对当前词向量集合,历史词向量集合以集合为单位进行编码,以将每一个集合中的词向量转化成基于语义的词向量;
加权注意力单元,用于采用加权的注意力机制对经过编码后所获得的基于语义的词向量进行处理,以获得二个新的向量集合,分别为第一向量集合和第二向量集合,其中,第一向量集合与当前词向量集合对应,第二向量集合与N个历史词向量集合对应;
解码单元,用于采用预先构建的解码器对第一向量集合和第二向量集合进行解码,以获得应答词向量集合。
进一步地,编码器为循环神经网络,且解码器为循环神经网络。
另一方面,本发明提供一种用于提升对话系统对话性能的装置,包括,
信息获取模块,用于获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;
应答输出模块:根据当前对话信息,前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。
进一步地,应答输出模块,具体用于,
对当前对话信息进行分词,以获取当前词向量集合,以及对前N轮的历史对话信息进行分词,以获取N个历史词向量集合;
根据当前词向量集合和N个历史词向量集合,以及根据预先构建的对话分析器,确定应答词向量集合;
根据应答词向量集合,确定应答输出语句。
进一步地,对话分析器包括,编码单元,加权注意力单元,解码单元;
编码单元,用于采用预先构建的编码器,分别对当前词向量集合,历史词向量集合以集合为单位进行编码,以将每一个集合中的词向量转化成基于语义的词向量;
加权注意力单元,用于采用加权的注意力机制对经过编码后所获得的基于语义的词向量进行处理,以获得二个新的向量集合,分别为第一向量集合和第二向量集合,其中,第一向量集合与当前词向量集合对应,第二向量集合与N个历史词向量集合对应;
解码单元,用于采用预先构建的解码器对第一向量集合和第二向量集合进行解码,以获得应答词向量集合。
进一步地,编码器为循环神经网络,且解码器为循环神经网络。
本发明提供的用于提升对话系统对话性能的方法及装置,采用预先构建的对话分析器对对话的上下文进行理解,可以使得对话系统记住前面进行过的话题信息,并确保对话在稳定的主题下进行,可以实现提高对话系统的对话灵活性。
附图说明
图1是本发明实施例提供的用于提升对话系统对话性能的方法的流程图;
图2是本发明实施例提供的用于提升对话系统对话性能的方法的又一流程图;
图3是本发明实施例提供的用于提升对话系统对话性能的装置的框图;
图4是本发明实施例提供的对话分析器的原理结构图;
图5是本发明实施例提供的对话分析器的又一原理结构图;
图6是本发明实施例提供的对话分析器的再一原理结构图。
具体实施方式
下面通过具体的实施例进一步说明本发明,但是,应当理解为,这些实施例仅仅是用于更详细具体地说明之用,而不应理解为用于以任何形式限制本发明。
实施例一
结合图1,本实施例提供的本发明提供一种用于提升对话系统对话性能的方法,包括,
步骤S1:获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;
步骤S2:根据当前对话信息,前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。
本发明实施例提供的用于提升对话系统对话性能的方法,采用预先构建的对话分析器对对话的上下文进行理解,可以使得对话系统记住前面进行过的话题信息,并确保对话在稳定的主题下进行,可以实现提高对话系统的对话灵活性。
优选地,如图2所示地,步骤S2具体包括,
步骤S2.1:对当前对话信息进行分词,以获取当前词向量集合,以及对前N轮的历史对话信息进行分词,以获取N个历史词向量集合;
步骤S2.2:根据当前词向量集合和N个历史词向量集合,以及根据预先构建的对话分析器,确定应答词向量集合;
步骤S2.3:根据应答词向量集合,确定应答输出语句。
本实施例中,在获得用户输入的当前对话信息以及前N轮的历史对话信息后,先对两类信息分别进行分词,即,对当前对话信息进行分词,以获取当前词向量集合,以及对前N轮的历史对话信息进行分词,以获取N个历史词向量集合。前N轮的历史对话信息对应将获得N个历史词向量集合,也就是说,每一轮历史对话信息对应将获得一个历史词向量集合,也就是说,在步骤S2.1中,将获得N+1个向量集合。本实施例在将当前对话信息以及前N轮的历史对话信息进行分词之后,再将分词所获得的N+1个词向量输入至预先构建的对话分析器中,继而,对话分析器对所输入的上下文进行理解,从而给出应答词向量集合,之后,系统将根据应答词向量集合来获取应答输出语句。
需要说明的是,每一个语句都对应着若干个词,且每一个词都可以转换成一个词向量,也就是说,每一个语句对应着一个词向量集合,且对于同一个对话系统而言,词向量集合与语句之间的关系是唯一对应的。
进一步优选地,对话分析器包括,编码单元,加权注意力单元,解码单元;
编码单元,用于采用预先构建的编码器,分别对当前词向量集合,历史词向量集合以集合为单位进行编码,以将每一个集合中的词向量转化成基于语义的词向量;
加权注意力单元,用于采用加权的注意力机制对经过编码后所获得的基于语义的词向量进行处理,以获得二个新的向量集合,分别为第一向量集合和第二向量集合,其中,第一向量集合与当前词向量集合对应,第二向量集合与N个历史词向量集合对应;
解码单元,用于采用预先构建的解码器对第一向量集合和第二向量集合进行解码,以获得应答词向量集合。
本实施例中,当只考虑前一轮历史对话信息,即N的取值为1时,此时,对话分析器的原理结构图如图4所示,当前词向量集合为{x1,x2,x3,…xi…,xr},且历史词向量集合为{c1,c2,c3,…ci…cr},其中,xi指用户输入的当前对话信息分词后所获得的第i个词向量,ci指历史对话信息分词后所获得的第i个词向量。此时,编码单元对应有两个一模一样的编码器,分别为Encoder1和Encoder2,其中,Encoder1对当前词向量集合进行编码,且Encoder2对唯一的一个历史词向量集合进行编码,且两个编码器对两个词向量进行编码的目的都是将词向量转化成基于语义的词向量,即,Encoder1将当前词向量集合中的所有词向量转化成基于语义的词向量,且Encoder2将历史词向量集合中的所有词向量转化成基于语义的词向量。
在获得基于语义的词向量之后,采用加权的注意力机制对基于语义的词向量进行处理,具体的处理方式为,如图4所示地,针对经过Encoder1获得的基于语义的若干个词向量,采用全连接的方式进行加权处理(此处,图4中,按照处理的先后逻辑顺序将其命名为Attention1),以及针对经过Encoder2获得的基于语义的若干个词向量,采用全连接的方式进行加权处理(此处,图4中,按照处理的先后逻辑顺序将其命名为Attention2),经过Attention1处理后,将获得与当前词向量集合对应的第一向量集合,以及经过Attention2处理后,将获得与N(此处,N=1)个历史词向量集合对应的第二向量集合。
需要说明的是,Attention1以及Attention2中,各个词向量所对应的权值是预先通过机器学习的方法训练获得,且对于同一个节点处的若干个权值已进行过归一化处理,此外,本实施例中,所有的符号“⊕”表示求加权和。
需要说明的是,结合图4,本实施例中提及的注意力机制是指,对经过Encoder 1处理所获得的所有基于语义的词向量进行加权求和,以获得第一向量集合,对经过Encoder2处理所获得的所有基于语义的词向量进行加权求和,以获得第二向量集合。
需要说明的是,本实施例中,加权注意力单元的作用在于,能够有效去除历史对话信息中对于当前对话没有关联的信息,即,可以减少无关信息对对话分析器产生的噪音干扰,可以提高对话系统的性能。此外,加权注意力单元的另一个有益效果在于,可以将冗杂的历史对话信息压缩为向量,从而大大减轻解码器的计算负担,可提升对话系统的数据处理效率。
此外,本实施例中的对话分析器的原理结构图并不是唯一的。当考虑多轮的历史对话信息,即N的取值大于1(例如,N=2)时,此时,对话分析器的原理结构图如图5所示,那么,当前词向量集合为{x1,x2,x3,…xi…,xr},且一个历史词向量集合为{c1,c2,c3,…ci…cr},另一个历史词向量集合为{d1,d2,d3,…di…,dr},其中,向量集合中的每一个元素代指一个词向量。此时,加权的注意力机制是,对多轮历史对话信息对应的基于语义的多个向量分别进行处理后,再集中进行加权处理,以获得第二向量集合。
此外,对话分析器还可以是如图6所示的结构,如图6所示地,此时,加权的注意力机制,对当前对话信息对应的基于语义的向量集合进行加权处理后,获得第一向量集合,以及对多轮历史对话信息对应的基于语义的多个向量分别进行处理后,再与所获得的第一向量集合进行一次加权处理,然后获得第二向量集合。需要说明的是,经过多次的加权的注意力机制的处理后,可以更好地去除历史对话信息中与当前对话不相关的信息,以减少对话分析器中的噪音干扰。
此外,如图6中所示的对话分析器的结构的适用于除了历史对话信息还包括一些其他用户信息的场景,且在实际的处理过程中,是将用户的其他信息也作为历史对话信息进行处理,如此,可提高对话分析器对上下文的理解能力,有助于提升对话系统性能。
本实施例中,解码单元的作用是,采用预先构建的解码器(Decoder)对第一向量集合和第二向量集合进行解码,以获得应答词向量集合{y1,y2,y3,…yi…,yr}。本实施例中,采用循环神经网络作为解码器,且该循环神经网络的隐藏层采用softmax函数进行输出,输出的结果是针对每一个可能出现的词汇的概率值,此时取概率最大的那个词,作为神经网络最终的输出。
优选地,编码器为循环神经网络,且解码器为循环神经网络。
本实施例中,编码器和解码器都是循环神经网络(Recurrent Neural Networks,RNN)。此外,加权注意力单元,则是通过一层全连接的神经网络实现的可微分的神经网络层。此外,需要说明的是,本实施例中的编码器和解码器还可以是长短期记忆(Long ShortTerm Memory,LSTM)神经网络,以及门控重复单元(Gated Recurrent Unit,GRU)神经网络,可以结合实际需要进行具体选定,本实施例不做具体限定。
实施例二
结合图3,本实施例提供的用于提升对话系统对话性能的装置,包括,
信息获取模块1,用于获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;
应答输出模块2:根据当前对话信息,前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。
本发明实施例提供的用于提升对话系统对话性能的装置,采用预先构建的对话分析器对对话的上下文进行理解,可以使得对话系统记住前面进行过的话题信息,并确保对话在稳定的主题下进行,可以实现提高对话系统的对话灵活性。
优选地,应答输出模块2,具体用于,
对当前对话信息进行分词,以获取当前词向量集合,以及对前N轮的历史对话信息进行分词,以获取N个历史词向量集合;
根据当前词向量集合和N个历史词向量集合,以及根据预先构建的对话分析器,确定应答词向量集合;
根据应答词向量集合,确定应答输出语句。
本实施例中,在获得用户输入的当前对话信息以及前N轮的历史对话信息后,先对两类信息分别进行分词,即,对当前对话信息进行分词,以获取当前词向量集合,以及对前N轮的历史对话信息进行分词,以获取N个历史词向量集合。前N轮的历史对话信息对应将获得N个历史词向量集合,也就是说,每一轮历史对话信息对应将获得一个历史词向量集合,也就是说,在步骤S2.1中,将获得N+1个向量集合。本实施例在将当前对话信息以及前N轮的历史对话信息进行分词之后,再将分词所获得的N+1个词向量输入至预先构建的对话分析器中,继而,对话分析器对所输入的上下文进行理解,从而给出应答词向量集合,之后,系统将根据应答词向量集合来获取应答输出语句。
需要说明的是,每一个语句都对应着若干个词,且每一个词都可以转换成一个词向量,也就是说,每一个语句对应着一个词向量集合,且对于同一个对话系统而言,词向量集合与语句之间的关系是唯一对应的
进一步优选地,对话分析器包括,编码单元,加权注意力单元,解码单元;
编码单元,用于采用预先构建的编码器,分别对当前词向量集合,历史词向量集合以集合为单位进行编码,以将每一个集合中的词向量转化成基于语义的词向量;
加权注意力单元,用于采用加权的注意力机制对经过编码后所获得的基于语义的词向量进行处理,以获得二个新的向量集合,分别为第一向量集合和第二向量集合,其中,第一向量集合与当前词向量集合对应,第二向量集合与N个历史词向量集合对应;
解码单元,用于采用预先构建的解码器对第一向量集合和第二向量集合进行解码,以获得应答词向量集合。
本实施例中,当只考虑前一轮历史对话信息,即N的取值为1时,此时,对话分析器的原理结构图如图4所示,当前词向量集合为{x1,x2,x3,…xi…,xr},且历史词向量集合为{c1,c2,c3,…ci…cr},其中,xi指用户输入的当前对话信息分词后所获得的第i个词向量,ci指历史对话信息分词后所获得的第i个词向量。此时,编码单元对应有两个一模一样的编码器,分别为Encoder1和Encoder2,其中,Encoder1对当前词向量集合进行编码,且Encoder2对唯一的一个历史词向量集合进行编码,且两个编码器对两个词向量进行编码的目的都是将词向量转化成基于语义的词向量,即,Encoder1将当前词向量集合中的所有词向量转化成基于语义的词向量,且Encoder2将历史词向量集合中的所有词向量转化成基于语义的词向量。
在获得基于语义的词向量之后,采用加权的注意力机制对基于语义的词向量进行处理,具体的处理方式为,如图4所示地,针对经过Encoder1获得的基于语义的若干个词向量,采用全连接的方式进行加权处理(此处,图4中,按照处理的先后逻辑顺序将其命名为Attention1),以及针对经过Encoder2获得的基于语义的若干个词向量,采用全连接的方式进行加权处理(此处,图4中,按照处理的先后逻辑顺序将其命名为Attention2),经过Attention1处理后,将获得与当前词向量集合对应的第一向量集合,以及经过Attention2处理后,将获得与N(此处,N=1)个历史词向量集合对应的第二向量集合。
需要说明的是,Attention1以及Attention2中,各个词向量所对应的权值是预先通过机器学习的方法训练获得,且对于同一个节点处的若干个权值已进行过归一化处理,此外,本实施例中,所有的符号“⊕”表示求加权和。
需要说明的是,结合图4,本实施例中提及的注意力机制是指,对经过Encoder 1处理所获得的所有基于语义的词向量进行加权求和,以获得第一向量集合,对经过Encoder2处理所获得的所有基于语义的词向量进行加权求和,以获得第二向量集合。
需要说明的是,本实施例中,加权注意力单元的作用在于,能够有效去除历史对话信息中对于当前对话没有关联的信息,即,可以减少无关信息对对话分析器产生的噪音干扰,可以提高对话系统的性能。此外,加权注意力单元的另一个有益效果在于,可以将冗杂的历史对话信息压缩为向量,从而大大减轻解码器的计算负担,可提升对话系统的数据处理效率。
此外,本实施例中的对话分析器的原理结构图并不是唯一的。当考虑多轮的历史对话信息,即N的取值大于1(例如,N=2)时,此时,对话分析器的原理结构图如图5所示,那么,当前词向量集合为{x1,x2,x3,…xi…,xr},且一个历史词向量集合为{c1,c2,c3,…ci…cr},另一个历史词向量集合为{d1,d2,d3,…di…,dr},其中,向量集合中的每一个元素代指一个词向量。此时,加权的注意力机制是,对多轮历史对话信息对应的基于语义的多个向量分别进行处理后,再集中进行加权处理,以获得第二向量集合。
此外,对话分析器还可以是如图6所示的结构,如图6所示地,此时,加权的注意力机制,对当前对话信息对应的基于语义的向量集合进行加权处理后,获得第一向量集合,以及对多轮历史对话信息对应的基于语义的多个向量分别进行处理后,再与所获得的第一向量集合进行一次加权处理,然后获得第二向量集合。需要说明的是,经过多次的加权的注意力机制的处理后,可以更好地去除历史对话信息中与当前对话不相关的信息,以减少对话分析器的噪音。
此外,如图6中所示的对话分析器的结构的适用于除了历史对话信息还包括一些其他用户信息的场景,且在实际的处理过程中,是将用户的其他信息也作为历史对话信息进行处理,如此,可提高对话分析器对上下文的理解能力,有助于提升对话系统性能。
本实施例中,解码单元的作用是,采用预先构建的解码器(Decoder)对第一向量集合和第二向量集合进行解码,以获得应答词向量集合{y1,y2,y3,…yi…,yr}。本实施例中,采用循环神经网络作为解码器,且该循环神经网络的隐藏层采用softmax函数进行输出,输出的结果是针对每一个可能出现的词汇的概率值,此时取概率最大的那个词,作为神经网络最终的输出。
优选地,编码器为循环神经网络,且解码器为循环神经网络。
本实施例中,编码器和解码器都是循环神经网络(Recurrent Neural Networks,RNN)。此外,加权注意力单元,则是通过一层全连接的神经网络实现的可微分的神经网络层。此外,需要说明的是,本实施例中的编码器和解码器还可以是长短期记忆(Long ShortTerm Memory,LSTM)神经网络,以及门控重复单元(Gated Recurrent Unit,GRU)神经网络,可以结合实际需要进行具体选定,本实施例不做具体限定。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。

Claims (8)

1.一种用于提升对话系统对话性能的方法,其特征在于,包括:
获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;
根据所述当前对话信息,所述前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。
2.根据权利要求1所述的用于提升对话系统对话性能的方法,其特征在于,
所述根据所述当前对话信息,所述前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句,具体包括,
对所述当前对话信息进行分词,以获取当前词向量集合,以及对所述前N轮的历史对话信息进行分词,以获取N个历史词向量集合;
根据所述当前词向量集合和所述N个历史词向量集合,以及根据预先构建的对话分析器,确定应答词向量集合;
根据所述应答词向量集合,确定应答输出语句。
3.根据权利要求2所述的用于提升对话系统对话性能的方法,其特征在于,所述对话分析器包括,编码单元,加权注意力单元,解码单元;
所述编码单元,用于采用预先构建的编码器,分别对所述当前词向量集合,所述历史词向量集合以集合为单位进行编码,以将每一个集合中的词向量转化成基于语义的词向量;
所述加权注意力单元,用于采用加权的注意力机制对经过编码后所获得的基于语义的词向量进行处理,以获得二个新的向量集合,分别为第一向量集合和第二向量集合,其中,所述第一向量集合与所述当前词向量集合对应,所述第二向量集合与所述N个历史词向量集合对应;
所述解码单元,用于采用预先构建的解码器对所述第一向量集合和所述第二向量集合进行解码,以获得所述应答词向量集合。
4.根据权利要求3所述的用于提升对话系统对话性能的方法,其特征在于,
所述编码器为循环神经网络,且所述解码器为循环神经网络。
5.一种用于提升对话系统对话性能的装置,其特征在于,包括:
信息获取模块,用于获取用户输入的当前对话信息,以及获取前N轮的历史对话信息;
应答输出模块:根据所述当前对话信息,所述前N轮的历史对话信息,以及根据预先构建的对话分析器,确定应答输出语句。
6.根据权利要求5所述的用于提升对话系统对话性能的装置,其特征在于,
所述应答输出模块,具体用于,
对所述当前对话信息进行分词,以获取当前词向量集合,以及对所述前N轮的历史对话信息进行分词,以获取N个历史词向量集合;
根据所述当前词向量集合和所述N个历史词向量集合,以及根据预先构建的对话分析器,确定应答词向量集合;
根据所述应答词向量集合,确定应答输出语句。
7.根据权利要求6所述的用于提升对话系统对话性能的装置,其特征在于,所述对话分析器包括,编码单元,加权注意力单元,解码单元;
所述编码单元,用于采用预先构建的编码器,分别对所述当前词向量集合,所述历史词向量集合以集合为单位进行编码,以将每一个集合中的词向量转化成基于语义的词向量;
所述加权注意力单元,用于采用加权的注意力机制对经过编码后所获得的基于语义的词向量进行处理,以获得二个新的向量集合,分别为第一向量集合和第二向量集合,其中,所述第一向量集合与所述当前词向量集合对应,所述第二向量集合与所述N个历史词向量集合对应;
所述解码单元,用于采用预先构建的解码器对所述第一向量集合和所述第二向量集合进行解码,以获得所述应答词向量集合。
8.根据权利要求7所述的用于提升对话系统对话性能的装置,其特征在于,
所述编码器为循环神经网络,且所述解码器为循环神经网络。
CN201710002664.5A 2017-01-03 2017-01-03 用于提升对话系统对话性能的方法及装置 Active CN106776578B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710002664.5A CN106776578B (zh) 2017-01-03 2017-01-03 用于提升对话系统对话性能的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710002664.5A CN106776578B (zh) 2017-01-03 2017-01-03 用于提升对话系统对话性能的方法及装置

Publications (2)

Publication Number Publication Date
CN106776578A true CN106776578A (zh) 2017-05-31
CN106776578B CN106776578B (zh) 2020-03-17

Family

ID=58949379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710002664.5A Active CN106776578B (zh) 2017-01-03 2017-01-03 用于提升对话系统对话性能的方法及装置

Country Status (1)

Country Link
CN (1) CN106776578B (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590138A (zh) * 2017-08-18 2018-01-16 浙江大学 一种基于词性注意力机制的神经机器翻译方法
CN107665362A (zh) * 2017-09-26 2018-02-06 联想(北京)有限公司 用于实现机器人聊天的训练方法、预测答案的方法及装置
CN107766506A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学 一种基于层次化注意力机制的多轮对话模型构建方法
CN108304513A (zh) * 2018-01-23 2018-07-20 义语智能科技(上海)有限公司 增加生成式对话模型结果多样性的方法及设备
CN108388944A (zh) * 2017-11-30 2018-08-10 中国科学院计算技术研究所 Lstm神经网络芯片及其使用方法
CN108415923A (zh) * 2017-10-18 2018-08-17 北京邮电大学 封闭域的智能人机对话系统
CN108763504A (zh) * 2018-05-30 2018-11-06 浙江大学 一种基于强化双通道序列学习的对话回复生成方法及系统
CN109101537A (zh) * 2018-06-27 2018-12-28 北京慧闻科技发展有限公司 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN109344242A (zh) * 2018-09-28 2019-02-15 广东工业大学 一种对话问答方法、装置、设备及存储介质
CN109658925A (zh) * 2018-11-28 2019-04-19 上海蔚来汽车有限公司 一种基于上下文的免唤醒车载语音对话方法及系统
CN109885652A (zh) * 2019-01-25 2019-06-14 北京奇艺世纪科技有限公司 一种操作执行方法、装置及计算机可读存储介质
CN109977212A (zh) * 2019-03-28 2019-07-05 清华大学深圳研究生院 对话机器人的回复内容生成方法和终端设备
CN110162613A (zh) * 2019-05-27 2019-08-23 腾讯科技(深圳)有限公司 一种问题生成方法、装置、设备及存储介质
CN110309275A (zh) * 2018-03-15 2019-10-08 北京京东尚科信息技术有限公司 一种对话生成的方法和装置
CN110321417A (zh) * 2019-05-30 2019-10-11 山东大学 一种对话生成方法、系统、可读存储介质及计算机设备
CN110704588A (zh) * 2019-09-04 2020-01-17 平安科技(深圳)有限公司 基于长短期记忆网络的多轮对话语义分析方法和系统
CN110728356A (zh) * 2019-09-17 2020-01-24 阿里巴巴集团控股有限公司 基于循环神经网络的对话方法、系统及电子设备
CN110858226A (zh) * 2018-08-07 2020-03-03 北京京东尚科信息技术有限公司 对话管理方法和装置
CN111091011A (zh) * 2019-12-20 2020-05-01 科大讯飞股份有限公司 领域预测方法、领域预测装置及电子设备
CN111400463A (zh) * 2019-01-03 2020-07-10 百度在线网络技术(北京)有限公司 对话响应方法、装置、设备和介质
CN111460126A (zh) * 2020-06-12 2020-07-28 支付宝(杭州)信息技术有限公司 一种用于人机对话系统的回复生成方法、装置及电子设备
CN111587419A (zh) * 2018-02-23 2020-08-25 三星电子株式会社 电子装置及其控制方法
CN111858854A (zh) * 2020-07-20 2020-10-30 上海汽车集团股份有限公司 一种基于历史对话信息的问答匹配方法及相关装置
CN112328756A (zh) * 2020-10-13 2021-02-05 山东师范大学 基于上下文的对话生成方法及系统
CN112365892A (zh) * 2020-11-10 2021-02-12 杭州大搜车汽车服务有限公司 人机对话方法、装置、电子装置及存储介质
CN113836275A (zh) * 2020-06-08 2021-12-24 菜鸟智能物流控股有限公司 对话模型建立方法及装置
WO2022121161A1 (zh) * 2020-12-10 2022-06-16 平安科技(深圳)有限公司 多轮对话文本生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110004841A1 (en) * 2007-10-19 2011-01-06 Tyler Gildred Conversational interface having visual representations for interactive data gathering
CN106020488A (zh) * 2016-06-03 2016-10-12 北京光年无限科技有限公司 一种面向对话系统的人机交互方法及装置
CN106126596A (zh) * 2016-06-20 2016-11-16 中国科学院自动化研究所 一种基于层次化记忆网络的问答方法
CN106227740A (zh) * 2016-07-12 2016-12-14 北京光年无限科技有限公司 一种面向对话系统的数据处理方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110004841A1 (en) * 2007-10-19 2011-01-06 Tyler Gildred Conversational interface having visual representations for interactive data gathering
CN106020488A (zh) * 2016-06-03 2016-10-12 北京光年无限科技有限公司 一种面向对话系统的人机交互方法及装置
CN106126596A (zh) * 2016-06-20 2016-11-16 中国科学院自动化研究所 一种基于层次化记忆网络的问答方法
CN106227740A (zh) * 2016-07-12 2016-12-14 北京光年无限科技有限公司 一种面向对话系统的数据处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONGYUAN MEI 等: "Coherent Dialogue with Attention-based Language Models", 《HTTPS://ARXIV.ORG/ABS/1611.06997》 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590138B (zh) * 2017-08-18 2020-01-31 浙江大学 一种基于词性注意力机制的神经机器翻译方法
CN107590138A (zh) * 2017-08-18 2018-01-16 浙江大学 一种基于词性注意力机制的神经机器翻译方法
CN107665362A (zh) * 2017-09-26 2018-02-06 联想(北京)有限公司 用于实现机器人聊天的训练方法、预测答案的方法及装置
CN108415923A (zh) * 2017-10-18 2018-08-17 北京邮电大学 封闭域的智能人机对话系统
CN108415923B (zh) * 2017-10-18 2020-12-11 北京邮电大学 封闭域的智能人机对话系统
CN107766506A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学 一种基于层次化注意力机制的多轮对话模型构建方法
CN108388944A (zh) * 2017-11-30 2018-08-10 中国科学院计算技术研究所 Lstm神经网络芯片及其使用方法
CN108388944B (zh) * 2017-11-30 2019-10-18 中国科学院计算技术研究所 一种基于深度神经网络的自动聊天方法和机器人
CN108304513A (zh) * 2018-01-23 2018-07-20 义语智能科技(上海)有限公司 增加生成式对话模型结果多样性的方法及设备
CN108304513B (zh) * 2018-01-23 2020-08-11 义语智能科技(上海)有限公司 增加生成式对话模型结果多样性的方法及设备
CN111587419A (zh) * 2018-02-23 2020-08-25 三星电子株式会社 电子装置及其控制方法
CN110309275A (zh) * 2018-03-15 2019-10-08 北京京东尚科信息技术有限公司 一种对话生成的方法和装置
CN108763504B (zh) * 2018-05-30 2020-07-24 浙江大学 一种基于强化双通道序列学习的对话回复生成方法及系统
CN108763504A (zh) * 2018-05-30 2018-11-06 浙江大学 一种基于强化双通道序列学习的对话回复生成方法及系统
CN109101537B (zh) * 2018-06-27 2021-08-06 北京慧闻科技发展有限公司 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN109101537A (zh) * 2018-06-27 2018-12-28 北京慧闻科技发展有限公司 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN110858226A (zh) * 2018-08-07 2020-03-03 北京京东尚科信息技术有限公司 对话管理方法和装置
CN109344242A (zh) * 2018-09-28 2019-02-15 广东工业大学 一种对话问答方法、装置、设备及存储介质
CN109344242B (zh) * 2018-09-28 2021-10-01 广东工业大学 一种对话问答方法、装置、设备及存储介质
CN109658925A (zh) * 2018-11-28 2019-04-19 上海蔚来汽车有限公司 一种基于上下文的免唤醒车载语音对话方法及系统
CN111400463A (zh) * 2019-01-03 2020-07-10 百度在线网络技术(北京)有限公司 对话响应方法、装置、设备和介质
CN109885652A (zh) * 2019-01-25 2019-06-14 北京奇艺世纪科技有限公司 一种操作执行方法、装置及计算机可读存储介质
CN109977212A (zh) * 2019-03-28 2019-07-05 清华大学深圳研究生院 对话机器人的回复内容生成方法和终端设备
CN109977212B (zh) * 2019-03-28 2020-11-24 清华大学深圳研究生院 对话机器人的回复内容生成方法和终端设备
CN110162613B (zh) * 2019-05-27 2023-12-01 腾讯科技(深圳)有限公司 一种问题生成方法、装置、设备及存储介质
CN110162613A (zh) * 2019-05-27 2019-08-23 腾讯科技(深圳)有限公司 一种问题生成方法、装置、设备及存储介质
CN110321417A (zh) * 2019-05-30 2019-10-11 山东大学 一种对话生成方法、系统、可读存储介质及计算机设备
CN110321417B (zh) * 2019-05-30 2021-06-11 山东大学 一种对话生成方法、系统、可读存储介质及计算机设备
CN110704588B (zh) * 2019-09-04 2023-05-30 平安科技(深圳)有限公司 基于长短期记忆网络的多轮对话语义分析方法和系统
CN110704588A (zh) * 2019-09-04 2020-01-17 平安科技(深圳)有限公司 基于长短期记忆网络的多轮对话语义分析方法和系统
CN110728356A (zh) * 2019-09-17 2020-01-24 阿里巴巴集团控股有限公司 基于循环神经网络的对话方法、系统及电子设备
CN110728356B (zh) * 2019-09-17 2023-08-04 创新先进技术有限公司 基于循环神经网络的对话方法、系统及电子设备
CN111091011A (zh) * 2019-12-20 2020-05-01 科大讯飞股份有限公司 领域预测方法、领域预测装置及电子设备
CN113836275A (zh) * 2020-06-08 2021-12-24 菜鸟智能物流控股有限公司 对话模型建立方法及装置
CN113836275B (zh) * 2020-06-08 2023-09-05 菜鸟智能物流控股有限公司 对话模型建立方法、装置、非易失性存储介质和电子装置
CN111460126B (zh) * 2020-06-12 2020-09-25 支付宝(杭州)信息技术有限公司 一种用于人机对话系统的回复生成方法、装置及电子设备
CN111460126A (zh) * 2020-06-12 2020-07-28 支付宝(杭州)信息技术有限公司 一种用于人机对话系统的回复生成方法、装置及电子设备
CN111858854A (zh) * 2020-07-20 2020-10-30 上海汽车集团股份有限公司 一种基于历史对话信息的问答匹配方法及相关装置
CN111858854B (zh) * 2020-07-20 2024-03-19 上海汽车集团股份有限公司 一种基于历史对话信息的问答匹配方法及相关装置
CN112328756A (zh) * 2020-10-13 2021-02-05 山东师范大学 基于上下文的对话生成方法及系统
CN112365892A (zh) * 2020-11-10 2021-02-12 杭州大搜车汽车服务有限公司 人机对话方法、装置、电子装置及存储介质
WO2022121161A1 (zh) * 2020-12-10 2022-06-16 平安科技(深圳)有限公司 多轮对话文本生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN106776578B (zh) 2020-03-17

Similar Documents

Publication Publication Date Title
CN106776578A (zh) 用于提升对话系统对话性能的方法及装置
CN107967261B (zh) 智能客服中交互式问句语义理解方法
CN108255805A (zh) 舆情分析方法及装置、存储介质、电子设备
CN110428820A (zh) 一种中英文混合语音识别方法及装置
CN105704013A (zh) 基于上下文的话题更新数据处理方法及装置
CN114511860B (zh) 一种差异描述语句生成方法、装置、设备及介质
CN113987179A (zh) 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质
CN108959388B (zh) 信息生成方法及装置
CN115964467A (zh) 一种融合视觉情境的富语义对话生成方法
CN112131368B (zh) 对话生成方法、装置、电子设备及存储介质
Zhou et al. ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge
CN109344242A (zh) 一种对话问答方法、装置、设备及存储介质
CN110942774A (zh) 一种人机交互系统、其对话方法、介质和设备
CN115309877A (zh) 对话生成方法、对话模型训练方法及装置
CN111539199A (zh) 文本的纠错方法、装置、终端、及存储介质
CN109933773A (zh) 一种多重语义语句解析系统及方法
CN111563161B (zh) 一种语句识别方法、语句识别装置及智能设备
CN113590800B (zh) 图像生成模型的训练方法和设备以及图像生成方法和设备
CN111275033A (zh) 一种字符识别方法、装置及电子设备、存储介质
CN112818688B (zh) 文本处理方法、装置、设备及存储介质
CN112434143B (zh) 基于gru单元隐藏状态约束的对话方法、存储介质及系统
CN115273828A (zh) 语音意图识别模型的训练方法、装置及电子设备
CN108153737A (zh) 一种语义分类的方法、系统及对话处理系统
CN114358019A (zh) 意图预测模型的训练方法及系统
CN114373443A (zh) 语音合成方法和装置、计算设备、存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant