CN110309283A - 一种智能问答的答案确定方法及装置 - Google Patents

一种智能问答的答案确定方法及装置 Download PDF

Info

Publication number
CN110309283A
CN110309283A CN201910574030.6A CN201910574030A CN110309283A CN 110309283 A CN110309283 A CN 110309283A CN 201910574030 A CN201910574030 A CN 201910574030A CN 110309283 A CN110309283 A CN 110309283A
Authority
CN
China
Prior art keywords
answer
candidate answers
vector
sentence
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910574030.6A
Other languages
English (en)
Other versions
CN110309283B (zh
Inventor
王子豪
崔恒斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910574030.6A priority Critical patent/CN110309283B/zh
Publication of CN110309283A publication Critical patent/CN110309283A/zh
Application granted granted Critical
Publication of CN110309283B publication Critical patent/CN110309283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供了一种智能问答的答案确定方法及装置,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。

Description

一种智能问答的答案确定方法及装置
技术领域
本说明书一个或多个涉及智能识别领域,尤其涉及一种智能问答的答案确定方法及装置。
背景技术
目前,随着互联网技术的快速发展,以及随着智能手机越来越普及化,智能手机已经融入生活的各个方面,用户将根据各自的实际需求在智能手机中安装相应的应用程序,应用程序能够为用户提供购物、理财、租赁等业务服务,然而,在应用使用过程中往往会遇到各种问题,因此,需要在线为用户提供客服服务来解决用户的相关问题。
当前,用户对客服服务的需求度越来越高,为了降低人工服务成本,采用客服机器人来对用户的咨询问题进行自动解答,即借助客服机器人提供智能问答的客服服务;但是,现有的智能语义理解过程存在理解准确度低的问题,导致最终向用户推荐的应答答案精准性差,在某些特殊情况下,用户无法快速、准确地获取到所咨询问题的真实答案;
由此可知,需要提供一种答案推荐准确度高的智能问答解决方案。
发明内容
本说明书一个或多个实施例的目的是提供一种智能问答的答案确定方法及装置,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
为解决上述技术问题,本说明书一个或多个实施例是这样实现的:
第一方面,本说明书一个或多个实施例提供了一种智能问答的答案确定方法,包括:
确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
第二方面,本说明书一个或多个实施例提供了一种智能问答的答案确定装置,包括:
关联集合确定模块,用于确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
候选答案选取模块,用于在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
特征向量确定模块,用于确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
候选答案匹配模块,用于针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
目标答案确定模块,用于在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
第三方面,本说明书一个或多个实施例提供了一种智能问答的答案确定设备,包括:
处理器;以及被安排成存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器实现上述第一方面所述的智能问答的答案确定方法。
第四方面,本说明书一个或多个实施例提供了一种存储介质,用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现上述第一方面所述的智能问答的答案确定方法。
本说明书一个或多个实施例中的智能问答的答案确定方法及装置,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一个或多个实施例提供的智能问答的答案确定系统的应用场景示意图;
图2为本说明书一个或多个实施例提供的智能问答的答案确定方法的第一种流程示意图;
图3为本说明书一个或多个实施例提供的智能问答的答案确定方法的第二种流程示意图;
图4为本说明书一个或多个实施例提供的智能问答的答案确定方法的第三种流程示意图;
图5为本说明书一个或多个实施例提供的智能问答的答案确定方法中候选答案的问答匹配程度的确定过程的实现原理示意图;
图6为本说明书一个或多个实施例提供的智能问答的答案确定装置的第一种模块组成示意图;
图7为本说明书一个或多个实施例提供的智能问答的答案确定装置的第二种模块组成示意图;
图8为本说明书一个或多个实施例提供的智能问答的答案确定设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一个或多个一部分实施例,而不是全部的实施例。基于本说明书一个或多个中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书一个或多个保护的范围。
本说明书一个或多个实施例提供了一种智能问答的答案确定方法及装置,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
图1为本说明书一个或多个实施例提供的智能问答的答案确定系统的应用场景示意图,如图1所示,该系统包括:客户端和后台服务器,其中,该客户端可以是智能手机、平板电脑等移动终端,该客户端还可以是台式电脑等终端设备,该后台服务器可以是用于基于客户端的咨询问题提供智能问答服务的服务器,其中,智能问答的答案确定的具体过程为:
(1)客户端获取目标用户的当前问题,并将该当前问题发送至后台服务器,其中,该当前问题可以是用户通过客服服务入口以文字、语音、问题选项中任一种方式输入的待咨询问题;
(2)后台服务器接收客户端发送的目标用户的当前问题,例如,后台服务器接收客户端发送的目标用户针对购买商品的使用方法咨询问题;
(3)后台服务器确定与接收到的当前问题对应的关联语句集合,其中,该关联语句集合包括:当前问题和该当前问题对应的对话上下文,该对话上下文是在原始对话上下文库中基于当前问题获取的,即该关联语句集合为将当前问题与对应的最原始的对话上下文进行融合得到的新问题;
(4)后台服务器在预设答案数据库中,根据确定出的关联语句集合,选取对应的多个候选答案;
具体的,可以根据预设答案数据库的索引信息和关联语句集合包含的多个关键词,在预设答案数据库中检索与当前问题相关的多个候选答案,其中,该索引信息是在线下构建预设答案数据库时生成的;
(5)后台服务器确定上述关联语句集合中各关联语句的特征向量和候选答案的特征向量,其中,该特征向量包括:词特征向量和语境特征向量;
具体的,上述词特征向量可以是利用词向量转换工具对关联语句集合中各关联语句和候选答案进行词向量转换得到的;
其中,上述预设词向量转换工具可以是word2vec、glove、fasttext等工具;上述语境特征向量可以是利用BERT模型对关联语句集合中各关联语句和候选答案进行BERT特征提取得到的,其中,BERT模型可以是线下预先训练得到的;
(6)后台服务器针对每个候选答案,基于关联语句集合中各关联语句的特征向量和该候选答案的特征向量,利用预先训练好的上下文理解模型确定候选答案与当前问题的问答匹配程度;
其中,上述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理,并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;该上下文理解模型是预先构建并线下利用机器学习方法基于样本数据训练得到的;该样本数据包括:训练样本集、或者训练样本集和验证样本集的集合,该上下文理解模型至少包括:向量交互层和问答匹配识别模型;
(7)在多个候选答案中,根据各候选答案对应的问答匹配程度,选取与当前问题对应的目标答案;
具体的,按照问答匹配程度由大到小的顺序,对多个候选答案进行排序,根据排序结果选取与当前问题对应的目标答案;例如,将排序最靠前的候选答案确定为当前问题对应的目标答案,或者,将排序靠前的预设数量的候选答案确定为当前问题对应的目标答案,其中,可以直接将目标答案发送至相应的客户端,也可以将目标答案发送至客服终端,以供客服终端进行参考并向客户端发送最终的应答答案;
其中,上述问答匹配程度可以是表征候选答案与当前答案的问答匹配得分,还可以是包括:表征候选答案是当前问题的应答答案的第一概率、和/或表征候选答案不是当前问题的应答答案的第二概率,对应的,可以在多个候选答案分别对应的多个第一概率中,将最大值对应的候选答案确定为当前问题对应的目标答案;具体的,按照第一概率由大到小的顺序,对多个候选答案进行排序,将排序最靠前的候选答案确定为当前问题对应的目标答案。
图2为本说明书一个或多个实施例提供的智能问答的答案确定方法的第一种流程示意图,图2中的方法能够由图1中的后台服务器执行,如图2所示,该方法至少包括以下步骤:
S201,确定客户端的当前问题对应的关联语句集合,该关联语句集合包括:当前问题和该当前问题对应的对话上下文;
具体的,在接收到客户端的当前咨询信息后,在历史对话上下文库中,获取该客户端针对当前咨询信息与客服的在先沟通日志,在该在先沟通日志中,提取相应的对话上下文;该对话上下文可以是在接收到当前问题之前目标用户与客服之间针对某一咨询事件的多轮对话语句,将当前问题和提取的对话上下文的组合得到的多个关联语句确定为关联语句集合;
S202,在预设答案数据库中,根据上述关联语句集合,选取与当前问题相关的多个候选答案;
具体的,预先根据历史问答日志、预设知识库和预设话术库中至少一项,构建答案数据库并建立对应的索引信息,以提供线上针对当前问题进行候选答案召回使用,其中,该索引信息包括:各候选答案与问题关键词之间的对应关系,然后,从关联语句集合中提取多个问题关键词,根据答案数据库的索引信息,在预设答案数据库中检索与该多个问题关键词相关的多个候选答案;
S203,确定当前问题对应的关联语句集合中各关联语句的特征向量和候选答案的特征向量,其中,该特征向量包括:词特征向量和语境特征向量;
其中,上述词特征向量是利用预设词向量转换工具得到的,该预设词向量转换工具可以是word2vec、glove、fasttext等工具;上述语境特征向量是利用预训练语言表征模型得到的,该预训练语言表征模型可以是BERT等模型;
具体的,由于问答匹配程度确定过程,需要分别针对每个候选答案确定问答匹配程度,即以单个候选答案为问答匹配对象;
对应的,可以将每个候选答案和关联语句集合作为一个向量转换对象,其中,该向量转换对象的数量与候选答案的数量相等,即针对每个候选答案和关联语句集合的向量转换对象,利用预设词向量转换工具确定该向量转换对象中各关联语句的词特征向量和候选答案的词特征向量,以及利用预训练语言表征模型确定该向量转换对象中各关联语句的语境特征向量和候选答案的语境特征向量;
S204,针对每个候选答案,基于各关联语句的特征向量和该候选答案的特征向量,利用预先训练好的上下文理解模型确定候选答案与当前问题的问答匹配程度;其中,该上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理,并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
其中,上述上下文理解模型是预先构建并利用机器学习方法基于样本数据训练得到的;该上下文理解模型至少包括:向量交互层和问答匹配识别模型;
具体的,在多个候选答案中依次选取当前待识别的候选答案,将当前待识别的候选答案的特征向量和各关联语句的特征向量作为上下文理解模型的输入数据;针对每个当前待识别的候选答案执行上述步骤S204;
上述向量交互层用于将当前待识别的候选答案分别与关联语句集合中的各关联语句进行向量交互处理,得到多个向量交互矩阵;并将多个向量交互矩阵作为问答匹配识别模型的输入数据;其中,向量交互处理是指将候选答案的特征向量对应的第一矩阵与关联语句的特征向量对应的第二矩阵进行相乘处理;
上述问答匹配识别模型用于基于多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,得到该候选答案对应的问答匹配程度,其中,向量交互矩阵能够表征候选答案与关联语句的相关程度,候选答案与各关联语句的相关程度越高,问答匹配程度越高;
S205,在多个候选答案中,根据各候选答案对应的问答匹配程度,选取与当前问题对应的目标答案;
其中,上述问答匹配程度可以是表征候选答案与当前答案的问答匹配得分,还可以是包括:表征候选答案是当前问题的应答答案的第一概率、和/或表征候选答案不是当前问题的应答答案的第二概率,对应的,可以在多个候选答案分别对应的多个第一概率中,将最大值对应的候选答案确定为当前问题对应的目标答案,其中,由于最终确定出的目标答案来自于根据历史问答日志构建的预设答案数据库中选取的最合适的候选答案,这样具有回复可控且具有语言通顺、流畅、亲和度高的特点。
本说明书一个或多个实施例中,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
其中,针对候选答案和关联语句的特征向量的确定过程,上述S203确定当前问题对应的关联语句集合中各关联语句的特征向量和候选答案的特征向量,具体包括:
步骤一,利用预设的词向量转换工具,确定关联语句集合中各关联语句的词特征向量,以及确定当前待识别的候选答案的词特征向量;
例如,关联语句集合为{u1,u2,...ui,...un-1,un},多个候选答案为{r1,r2,...rj,...rm-1,rm},若当前待识别的候选答案为rj,对应的,上述向量转换对象为{u1,u2,...ui,...un-1,un,rj},其中,i表示关联语句集合中关联语句的序号,1≤i≤n,n表示关联语句集合中关联语句的个数,ui表示序号为i的关联语句,j表示候选答案的序号,1≤j≤m,m表示与当问题相关的候选答案的个数,rj表示序号为j的候选答案;
具体的,针对每个向量转换对象,利用预设的词向量转换工具确定关联语句集合中各关联语句的词特征向量Tui,以及确定该向量转换对象中的候选答案的词特征向量Trj
步骤二,利用预设的预训练语言表征模型,确定关联语句集合中各关联语句的语境特征向量,以及确定当前待识别的候选答案的语境特征向量;
具体的,针对每个向量转换对象,利用预训练语言表征模型确定关联语句集合中各关联语句的语境特征向量Pui,以及确定该向量转换对象中的候选答案的语境特征向量Prj
步骤三,将各关联语句的词特征向量与语境特征向量的组合确定为该关联语句的特征向量;即关联语句的特征向量为Qui={Tui,Pui};
步骤四,将当前待识别的候选答案的词特征向量与语境特征向量的组合确定为该候选答案的特征向量;即候选答案的特征向量为Qrj={Trj,Prj}。
其中,针对各候选答案对应的问答匹配程度的确定过程,具体的,上述上下文理解模型至少包括:向量交互层和问答匹配识别模型;
对应的,如图3所示,上述S204针对每个候选答案,基于各关联语句的特征向量和该候选答案的特征向量,利用预先训练好的上下文理解模型确定候选答案与当前问题的问答匹配程度,具体包括:
S2041,针对每个候选答案,基于该候选答案的特征向量和各关联语句的特征向量,利用向量交互层确定各关联语句分别对应的向量交互矩阵;
其中,上述向量交互矩阵可以包括:直接将特征向量进行交互处理得到的第一交互矩阵、或者将基于特征向量得到的词语序列特征进行交互处理得到的第二交互矩阵中至少一项;
S2042,基于各关联语句分别对应的向量交互矩阵,利用问答匹配识别模型确定候选答案与当前问题的问答匹配程度;
其中,上述问答匹配识别模型至少包括:第二序列模型和全连接网络,该第二序列模型用于基于多个向量交互矩阵输出综合序列特征,全连接网络用于对综合序列特征进行全连接运算输出问答匹配程度。
进一步的,针对向量交互矩阵的确定过程,可以采用如下两种交互矩阵确定方式中的至少一种得到各关联语句分别对应的向量交互矩阵,具体为:
第一种交互矩阵确定方式,直接将特征向量进行交互处理得到的第一交互矩阵,对应的,上述S2041针对每个候选答案,基于该候选答案的特征向量和各关联语句的特征向量,利用向量交互层确定各关联语句分别对应的向量交互矩阵,具体包括:
利用向量交互层,将当前待识别的候选答案的特征向量分别与各关联语句的特征向量进行交互处理,得到各关联语句分别对应的第一交互矩阵;
具体的,将当前待识别的候选答案rj的特征向量Qrj分别与各关联语句ui的特征向量Qui做相乘运算,得到在该候选答案rj下各关联语句ui对应的第一交互矩阵;
例如,若候选答案rj的特征向量Qrj为M1×N矩阵,其中,M1表示该候答案的分词数量,该分词数量是对候选答案进行分词处理得到的词语的数量,N表示特征向量的维度;
对应的,若关联语句ui的特征向量Qui为M2×N矩阵,其中,M2表示每个关联语句的分词数量,该分词数量是对关联语句进行分词处理得到的词语的数量,N表示特征向量的维度;
具体的,将候选答案rj对应的M1×N矩阵与关联语句ui对应的M2×N矩阵的转置矩阵相乘,得到第一交互矩阵,即M1×M2矩阵;
需要说明的是,候选答案对应的分词数量与关联语句的分词数量可以相同或不同,优选的,候选答案与关联语句的分词数量相同。
第二种交互矩阵确定方式,基于特征向量得到的词语序列特征进行交互处理得到的第二交互矩阵,其中,考虑到候选答案对应的问答匹配程度是基于向量交互矩阵确定的,因此,向量交互矩阵表征的交互特征的维度越高,得到输入信息越多样,对应的问答匹配程度的准确度越高,为了提高各候选答案的问答匹配程度的识别准确度,还可以先对特征向量进行序列特征提取,得到对应的词语序列特征,再通过将候选答案与关联语句的词语序列特征进行交互处理得到向量交互矩阵,基于此,上述上下文理解模型还包括:序列特征提取层,该序列特征提取层包括:多个独立的第一序列模型;其中,每个关联语句对应于一个第一序列模型,待识别的候选答案对应于一个第一序列模型,即第一序列模型的数量大于或等于(n+1),第一序列模型可以是门控循环单元GRU、循环神经网络RNN、长短期记忆LSTM中任一种,优选的,第一序列模型为门控循环单元GRU;
对应的,上述S2041针对每个候选答案,基于该候选答案的特征向量和各关联语句的特征向量,利用向量交互层确定各关联语句分别对应的向量交互矩阵,具体包括:
利用第一序列模型,对对应的关联语句的特征向量进行特征提取,得到该关联语句的词语序列特征;
具体的,将关联语句集合中的多个关联语句的特征向量分别输入至对应的第一序列模型,以便利用该第一序列模型对输入的关联语句ui进行特征提取,得到对应的词语序列特征;
利用第一序列模型,对当前待识别的候选答案的特征向量进行特征提取,得到该候选答案的词语序列特征;
具体的,将候选答案的特征向量输入至对应的第一序列模型,以便利用该第一序列模型对输入的候选答案rj进行特征提取,得到对应的词语序列特征;
利用向量交互层,将上述候选答案的词语序列特征分别与各关联语句的词语序列特征进行交互处理,得到各关联语句分别对应的第二交互矩阵。
具体的,将当前待识别的候选答案rj对应的词语序列特征分别与各关联语句ui对应的词语序列特征做相乘运算,得到在该候选答案rj下各关联语句ui对应的第二交互矩阵;
例如,若候选答案rj对应的词语序列特征为M1×K矩阵,其中,M1表示该候答案的分词数量,该分词数量是对候选答案进行分词处理得到的词语的数量,K表示词语序列特征的维度;
对应的,若关联语句ui对应的词语序列特征为M2×K矩阵,其中,M2表示每个关联语句的分词数量,该分词数量是对关联语句进行分词处理得到的词语的数量,K表示词语序列特征的维度;
具体的,将候选答案rj对应的M1×K矩阵与关联语句ui对应的M2×K矩阵的转置矩阵相乘,得到第二交互矩阵,即M1×M2矩阵;
需要说明的是,可以将第一交互矩阵和第二交互矩阵中任一项确定为上述向量交互矩阵,还可以将第一交互矩阵和第二交互矩阵的组合确定为上述向量交互矩阵。
其中,针对基于向量交互矩阵确定问答匹配程度的过程,上述问答匹配识别模型包括:第二序列模型和全连接网络;其中,该第二序列模型也可以是门控循环单元GRU、循环神经网络RNN、长短期记忆LSTM中任一种,优选的,第二序列模型为门控循环单元GRU;
对应的,如图4所示,上述S2042基于各关联语句分别对应的向量交互矩阵,利用问答匹配识别模型确定候选答案与当前问题的问答匹配程度,具体包括:
S20421,基于各关联语句对应的向量交互矩阵,利用第二序列模型确定表征问答匹配程度的综合序列特征;
具体的,针对当前待识别的候选答案,将在该候选答案下各关联语句分别对应的多个向量交互矩阵输入至第二序列模型中,将该第二序列模型的输出确定为综合序列特征;
具体的,上述综合序列特征是根据利用第二序列模型对各向量交互矩阵进行序列特征提取得到的多个时序隐向量确定的,例如,可以将在当前待识别的候选答案下各关联语句分别对应的多个时序隐向量中选取的任一项确定为综合序列特征、或者对在当前待识别的候选答案下各关联语句分别对应的多个时序隐向量的加权运算得到综合时序特征;
S20422,利用全连接网络,对上述综合序列特征进行全连接运算,确定当前待识别的候选答案与当前问题的问答匹配程度;
具体的,针对当前待识别的候选答案,将针对该候选答案得到的综合序列特征输入至全连接网络中,将该全连接网络的输出确定为该候选答案与当前问题的问答匹配程度;
具体的,全连接网络的输出为2维输出(即0的位置和1的位置),其中,0的位置对应的概率值表示候选答案不是当前问题的应答答案的第二概率,即候选答案与当前问题不匹配的概率值;对应的,1的位置对应的概率值表示候选答案是当前问题的应答答案的第一概率,即候选答案与当前问题匹配的概率值,根据第一概率和第二概率确定问答匹配程度。
其中,考虑到第二序列模型的输入数据表征的交互特征的维度越高,对应的问答匹配程度的准确度越高,为了进一步提高各候选答案的问答匹配程度的识别准确度,还可以先对向量交互矩阵进行卷积特征提取,再利用第二序列模型基于卷积特征确定问答匹配程度,基于此,上述问答匹配识别模型还包括:卷积神经网络层,该卷积神经网络层包括:多个独立的卷积神经网络模型;其中,在当前待识别的候选答案下每个关联语句对应的向量交互矩阵对应于一个卷积神经网络模型,即卷积神经网络模型的数量大于或等于n;
对应的,上述S20421,基于各关联语句对应的向量交互矩阵,利用第二序列模型确定表征问答匹配程度的综合序列特征,具体包括:
步骤一,利用卷积神经网络模型,对每个关联语句对应的向量交互矩阵进行卷积处理,得到该向量交互矩阵的卷积特征;
其中,上述卷积神经网络模型可以是CNN,具体的,将关联语句集合中的多个关联语句对应的向量交互矩阵分别输入至对应的卷积神经网络模型,以便利用该卷积神经网络模型对输入的向量交互矩阵进行卷积特征提取,得到对应的卷积特征向量;
步骤二,基于各向量交互矩阵的卷积特征,利用第二序列模型确定表征问答匹配程度的综合序列特征;
具体的,针对当前待识别的候选答案,将在该候选答案下各关联语句分别对应的多个卷积特征向量输入至第二序列模型中,将该第二序列模型的输出确定为综合序列特征。
其中,为了更进一步的提高各候选答案的问答匹配程度的识别准确度,还可以引入候选答案与各关联语句之间的句子相似特征,将卷积特征与句子相似特征的拼接作为第二序列模型的输入数据,这样能够使得上下文理解模型更加深入地理解对话上下文的语义,从而提高问答匹配的准确度,基于此,上述上下文理解模型还包括:特征拼接层;其中,该特征拼接层可以包括:多个独立的特征拼接单元,在当前待识别的候选答案下每个关联语句对应的卷积特征对应于一个特征拼接单元,即特征拼接单元的数量大于或等于n;
对应的,上述步骤二,基于各向量交互矩阵的卷积特征,利用第二序列模型确定表征问答匹配程度的综合序列特征,具体包括:
步骤a1,获取利用预设的预训练语言表征模型得到的当前待识别的候选答案与各关联语句的句子相似特征;
其中,预训练语言表征模型可以是BERT模型,在利用该BERT模型确定关联语句和候选答案的语境特征向量的同时,还利用该BERT模型确定当前待识别的候选答案的句子语境特征、以及各关联语句的句子语境特征,以便基于该句子语境特征确定候选答案与关联语句的句子相似特征;
具体的,利用BERT模型,确定各关联语句的句子级别的句子语境特征和当前待识别的候选答案的句子级别的句子语境特征,其中,BERT模型中[CLS]位置的输出即为句子语境特征;
针对每个关联语句,根据当前待识别的候选答案的句子语境特征和该关联语句的句子语境特征,确定该关联语句对应的句子相似特征;类似的,确定在当前待识别的候选答案下各关联语句分别对应的句子相似特征;
具体的,针对每个关联语句ui,对候选答案rj的句子语境特征向量与该关联语句ui的句子语境特征向量进行向量相似度运算,得到该关联语句ui对应的句子相似特征;
步骤a2,利用特征拼接层,将各关联语句对应的卷积特征和句子相似特征进行组合,得到组合特征;
具体的,针对每个关联语句,将在当前待识别的候选答案下该关联语句对应的句子相似特征拼接到对应的卷积特征之后,得到组合特征向量;
步骤a3,利用第二序列模型,对多个关联语句分别对应的组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征;
具体的,针对当前待识别的候选答案,将在该候选答案下各关联语句分别对应的多个组合特征向量输入至第二序列模型中,将该第二序列模型的输出确定为综合序列特征;
具体的,上述综合序列特征是根据利用第二序列模型对各组合特征进行序列特征提取得到的多个时序隐向量确定的,例如,可以将在当前待识别的候选答案下各关联语句分别对应的多个时序隐向量中选取的任一项确定为综合序列特征、或者对在当前待识别的候选答案下各关联语句分别对应的多个时序隐向量的加权运算得到综合时序特征。
另外,还可以将在当前待识别的候选答案下各关联语句的句子相似特征与向量交互矩阵的组合作为第二序列模型的输入数据,基于此,上述S20421,基于各关联语句对应的向量交互矩阵,利用第二序列模型确定表征问答匹配程度的综合序列特征,还具体包括:
步骤一,获取利用预设的预训练语言表征模型得到的当前待识别的候选答案与各关联语句的句子相似特征;具体实现过程参见上述步骤a1,在此不再赘述;
步骤二,利用特征拼接层,将各关联语句对应的向量交互矩阵和句子相似特征进行组合,得到组合特征;
具体的,针对每个关联语句,将在当前待识别的候选答案下该关联语句对应的句子相似特征拼接到对应的向量交互矩阵之后,得到组合特征向量;
步骤三,利用第二序列模型,对多个关联语句分别对应的组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征。
进一步的,在线上针对当前问题进行目标答案匹配之前,需要预先构建相应的上下文理解模型,并对构建的上下文理解模型进行模型参数训练,其中,上下文理解模型至少包括:向量交互层、第二序列模型和全连接网络,进一步的,该上下文理解模型还可以包括:包含多个独立的第一序列模型的序列特征提取层、卷积神经网络层、特征拼接层中至少一项;
另外,如果将词特征向量和语境特征向量作为上下文理解模型的输入数据,对应的,该上下文理解模型还包括:向量拼接层,该向量拼接层用于将各关联语句的词特征向量和语境特征向量进行拼接得到各关联语句的特征向量,以及将当前待识别的候选答案的词特征向量和语境特征向量进行拼接得到该候选答案的特征向量;
具体的,上述上下文理解模型是通过如下方式训练得到的:
步骤一,获取从原始问答对话日志中提取的样本数据,其中,该样本数据包括:训练样本集和验证样本集;
具体的,从原始问答对话日志中进行对话抽取,将上下文对话与客服回复之间的对应关系确定为样本数据;
步骤二,利用机器学习方法并基于上述训练样本集,对已构建的上下文理解模型的模型参数进行训练,得到中间的上下文理解模型;
具体的,在基于训练样本集训练得到中间的上下文理解模型时,还利用反向传播算法对上下文理解模型的模型参数进行优化,并更新中间的上下文理解模型中的模型参数,得到待验证的中间的上下文理解模型;
步骤二,基于上述验证样本集,对待验证的中间的上下文理解模型进行验证,得到相应的验证结果;
具体的,在验证样本集上对优化后的上下文理解模型进行参数验证,存储模型参数最优的上下文理解模型;
步骤三,若验证结果不满足预设条件,则继续基于上述训练样本集对中间的上下文理解模型进行模型参数优化训练;
步骤四,若验证结果满足预设条件,则将中间的上下文理解模型确定为最终的上下文理解模型;
具体的,将获取到的样本数据分为两份,一份样本数据作为训练样本集用于利用机器学习方法对上下文理解模型的模型参数进行训练,另一份样本数据作为验证样本集用于对训练得到的上下文理解模型进行验证,将验证结果满足预设条件的上下文理解模型确定为最终的训练好的上下文理解模型。
其中,针对样本数据的确定过程,考虑到用户对推荐答案的点击查看与否直接反映该推荐答案与用户问题的匹配程度,因此,可以将用户选择查看的答案与问题作为正样本,同时将用户未选择查看的答案作为负样本,从而提高上下文理解模型的识别准确度,基于此,上述步骤一,获取从原始问答对话日志中提取的样本数据,具体包括:
将历史问题对应的对话上下文与用户选择的参考答案之间的对应关系,确定为从原始问答对话日志中提取的正样本数据;
将历史问题对应的对话上下文与用户未选择的推荐答案之间的对应关系,确定为从原始问答对话日志中提取的负样本数据;
另外,针对原始问答对话日志中未记载用户未选择的推荐答案的情况,可以随机选取任一其他答案作为与历史问题对应的用户未选择的推荐答案。
在一个具体实施例中,如图5所示,给出了智能问答的答案确定方法中候选答案的问答匹配程度的确定过程的实现原理示意图,具体为:
以预训练语言表征模型为BERT模型、预设词向量转换工具为word2vec为例,以及关联语句集合为{u1,u2,...ui,...un-1,un},当前待识别的候选答案为rj,即关联语句集合和当前待识别的候选答案的组合得到的一个向量转换对象为{u1,u2,...ui,...un-1,un,rj},若选取的与当前问题相关的候选答案的数量为m个,则向量转换对象的数量为m个;
其中,以上下文理解模型包括:向量拼接层、包含多个独立的第一序列模型的序列特征提取层、向量交互层、卷积神经网络层、特征拼接层、第二序列模型和全连接网络的组合模型为例;该上下文理解模型能够实现结合上下文信息进行问答匹配程度识别;
具体的,利用word2vec、BERT模型和上下文理解模块并基于关联语句集合和当前待识别的候选答案rj,确定该候选答案rj对应的问答匹配程度,具体包括:
(1)将关联语句集合和当前待识别的候选答案的组合即向量转换对象{u1,u2,...ui,...un-1,un,rj}输入至word2vec和BERT模型,并将word2vec输出的词特征向量和BERT模型输出的语境特征向量输入至上下文理解中的向量拼接层;
其中,针对词特征向量的生成过程,word2vec的输出结果为向量转换对象{u1,u2,...ui,...un-1,un,rj}中各元素的词特征向量,即将语句中的多个单词转换为预设长度的向量表示(即词嵌入向量Word embedding)例如,关联语句集合中各关联语句的词特征向量{Tu1,Tu2,...Tui,...Tun-1,Tun}和候选答案rj的词特征向量Trj
其中,针对语境特征向量的提取过程,BERT模型的输出结果为向量转换对象{u1,u2,...ui,...un-1,un,rj}中各元素的语境特征向量,即关联语句集合中各关联语句的语境特征向量{Pu1,Pu2,...Pui,...Pun-1,Pun}和候选答案rj的语境特征向量Prj
具体的,将向量转换对象{u1,u2,...ui,...un-1,un,rj}中各元素分别作为待语境特征提取的目标语句(即输入语句)输入至BERT模型,其中,BERT模型的输入层中的Tok1、Tok2……、TokX的位置分别输入目标语句中的一个字;该目标语句为从向量转换对象{u1,u2,...ui,...un-1,un,rj}选取的当前待语境特征提取的元素;
具体的,向量转换对象{u1,u2,...ui,...un-1,un,rj}中各元素依次作为目标语句输入至BERT模型,该BERT模型分别对每个元素进行语境特征提取,得到相应的语境特征向量;
其中,以关联语句ui作为目标语句进行语境特征提取的过程为例,且假设将每个目标语句进行分词处理,得到分词数量为3,即目标语句被拆分为3个词语,每个词语w包含k个字,表示为w={b1,b2,...bt,...bk};
具体的,将关联语句ui中每个字依次作为BERT模型的输入层中的Tok1、Tok2……、TokX的位置的输入;
BERT模型中的L层网络的输出为关联语句ui中每个字的L层隐向量即BERT模型中的T1、T2……、TX的位置的输出分别表示关联语句ui中每个字的L层隐向量
BERT模型中每个transformer的输出作为每次词语的语境嵌入向量(即语境embedding),即BERT模型中的WE1、WE2、WE3的位置的输出分别表示关联语句ui中每个词语的语境嵌入向量;
具体的,根据关联语句ui中每个字的L层隐向量和下述语境embedding表示公式,确定关联语句ui中各词语的语境嵌入向量,其中,语境embedding表示公式为:
其中,BERTw表示关联语句ui中任一词语w的语境嵌入向量,al表示第l层网络层的权重系数,L表示网络层数,k表示词语w包含的字数,1≤l≤L,1≤t≤k,表示词语w中第t个字在第l层网络层的语境嵌入向量;
根据关联语句ui中的各词语w的语境嵌入向量BERTw的组合,确定关联语句ui的语境特征向量,其中,图5中关联语句ui中包含的词语w的数量为3,图中,WE1、WE2、WE3分别表示关联语句ui中包含的3个词语w的语境嵌入向量;
其中,利用BERT模型得到的语境特征向量能够准确地表征分词得到的每次词语在其所在句子语境下的真实语义,将各关联语句和候选答案的语境特征向量作为上下文理解模型的输入数据进行相应的特征处理,以将每个候选答案与关联语句集合进行问答匹配程度识别,准确地理解用户的咨询问题,进而快速捕捉用户的咨询意图,从而确保输出的各候选答案的问答匹配程度的准确度;
(2)上下文理解模型中的向量拼接层分别对各关联语句ui和候选答案rj的词特征向量和语境特征向量进行拼接,得到各自的拼接特征向量,并将拼接特征向量输入至序列特征提取层中对应的第一序列模型(即GRU);
具体的,针对关联语句ui中每个词语w,将该词语w的词特征向量与语境嵌入向量的组合,确定该词语w的特征向量;将关联语句ui中各词语w的特征向量的组合确定为关联语句ui的拼接特征向量;
另外,在具体实施时,不仅将拼接特征向量输入至第一序列模型进行序列特征提取,还可以同时将拼接特征向量输入至向量交互层进行交互处理,以得到第一交互矩阵;
需要说明的是,针对向量交互矩阵的确定过程,为了图示更加清晰,图5中仅示意了采用基于特征向量得到的词语序列特征进行交互处理得到第二交互矩阵的过程;在具体实施时,可以同时增加直接将拼接特征向量进行交互处理得到第一交互矩阵的过程;
(3)上下文理解模型中的第一序列模型分别对对应的关联语句ui或者候选答案rj的拼接特征向量进行序列特征提取,得到各自的词语序列特征向量,并将词语序列特征向量输入至向量交互层;
具体的,利用门控循环单元GRU对关联语句ui拼接特征向量进行序列特征提取,得到该关联语句ui的词语序列特征向量;其中,在图5中将关联语句ui拆分为3个词语,对应的,该关联语句ui的词语序列特征向量可以是3×K矩阵,其中,K表示词语序列特征的维度;同样的,在图5中将候选答案rj拆分为3个词语,对应的,该候选答案rj的词语序列特征向量也可以是3×K矩阵,其中,K表示词语序列特征的维度;
(4)上下文理解模型中的向量交互层将候选答案rj的词语序列特征向量分别与各关联语句ui的词语序列特征向量进行交互处理,得到各关联语句分别对应的向量交互矩阵,并将向量交互矩阵输入至卷积神经网络层中对应的CNN;
具体的,将候选答案rj的词语序列特征向量与关联语句u1的词语序列特征向量进行交互处理,得到关联语句u1对应的向量交互矩阵1;
类似的,将将候选答案rj的词语序列特征向量与关联语句ui的词语序列特征向量进行交互处理,得到关联语句ui对应的向量交互矩阵i;
类似的,将将候选答案rj的词语序列特征向量与关联语句un的词语序列特征向量进行交互处理,得到关联语句un对应的向量交互矩阵n;
其中,在图5中,如果关联语句ui和候选答案rj的词语序列特征向量均为3×K矩阵,那么交互处理得到的向量交互矩阵i为3×3矩阵;
(5)上下文理解模型中的卷积神经网络层分别对在候选答案rj下的各关联语句ui的向量交互矩阵进行卷积处理,得到各自的卷积特征(即高级特征),并将各关联语句ui对应的卷积特征输入至特征拼接层;
并且,将利用BERT模型得到的候选答案rj与各关联语句ui的句子相似特征输入至特征拼接层;
具体的,利用BERT模型确定关联语句ui和候选答案rj的语境特征向量的同时,还利用该BERT模型确定当前待识别的候选答案rj的句子语境特征、以及各关联语句ui的句子语境特征,以便基于该句子语境特征确定两者之间的句子相似特征,其中,BERT模型中[CLS]位置的输出即为句子语境特征;
(6)上下文理解模型中的特征拼接层分别将在候选答案rj下的各关联语句ui对应的卷积特征和句子相似特征进行组合,得到各自的组合特征,并将各关联语句ui对应的组合特征输入至第二序列模型(即另一个GRU);
(7)上下文理解模型中的第二序列模型对在候选答案rj下的多个关联语句ui对应的组合特征进行序列特征提取,得到该候选答案rj对应的综合序列特征,并将该综合序列特征输入至全连接网络;
(8)上下文理解模型中的全连接网络对候选答案rj对应的综合序列特征进行全连接运算,确定该候选答案rj与当前问题的问答匹配程度;
具体的,全连接网络的输出为2维输出(即0的位置和1的位置),其中,1的位置对应的概率值表示候选答案是当前问题的应答答案的第一概率,即候选答案与当前问题匹配的概率值,对应的,0的位置对应的概率值表示候选答案不是当前问题的应答答案的第二概率,即候选答案与当前问题不匹配的概率值;根据第一概率和第二概率确定问答匹配程度;
其中,类似的采用上述(1)至(8)的过程得到各候选答案对应的问答匹配程度。
本说明书一个或多个实施例中的智能问答的答案确定方法,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
对应上述图2至图5描述的智能问答的答案确定方法,基于相同的技术构思,本说明书一个或多个实施例还提供了一种智能问答的答案确定装置,图6为本说明书一个或多个实施例提供的智能问答的答案确定装置的第一种模块组成示意图,该装置用于执行图2至图5描述的智能问答的答案确定方法,如图6所示,该装置包括:
关联集合确定模块601,用于确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
候选答案选取模块602,用于在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
特征向量确定模块603,用于确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
候选答案匹配模块604,用于针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
目标答案确定模块605,用于在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
本说明书一个或多个实施例中,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
可选地,所述特征向量确定模块603,具体用于:
利用预设的词向量转换工具,确定所述关联语句集合中各关联语句的词特征向量,以及确定所述候选答案的词特征向量;
利用预设的预训练语言表征模型,确定所述关联语句集合中各关联语句的语境特征向量,以及确定所述候选答案的语境特征向量;
将所述关联语句的所述词特征向量与所述语境特征向量的组合确定为所述关联语句的特征向量;以及,
将所述候选答案的所述词特征向量与所述语境特征向量的组合确定为所述候选答案的特征向量。
可选地,所述上下文理解模型包括:向量交互层和问答匹配识别模型;
所述候选答案匹配模块604,具体用于:
基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵;
基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度。
可选地,所述候选答案匹配模块604,进一步具体用于:
利用所述向量交互层,将所述候选答案的所述特征向量分别与各所述关联语句的所述特征向量进行交互处理,得到各所述关联语句分别对应的第一交互矩阵。
可选地,所述上下文理解模型还包括:序列特征提取层,所述序列特征提取层包括:多个独立的第一序列模型;
所述候选答案匹配模块604,还进一步具体用于:
利用所述第一序列模型,对每个所述关联语句的所述特征向量进行特征提取,得到所述关联语句的词语序列特征;
利用所述第一序列模型,对所述候选答案的所述特征向量进行特征提取,得到所述候选答案的词语序列特征;
利用所述向量交互层,将所述候选答案的所述词语序列特征分别与各所述关联语句的所述词语序列特征进行交互处理,得到各所述关联语句分别对应的第二交互矩阵。
可选地,所述问答匹配识别模型包括:第二序列模型和全连接网络;
所述候选答案匹配模块604,还进一步具体用于:
基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征;
利用所述全连接网络,对所述综合序列特征进行全连接运算,确定所述候选答案与所述当前问题的问答匹配程度。
可选地,所述问答匹配识别模型还包括:卷积神经网络层,所述卷积神经网络层包括:多个独立的卷积神经网络模型;
所述候选答案匹配模块604,更进一步具体用于:
利用所述卷积神经网络模型,对每个所述关联语句对应的所述向量交互矩阵进行卷积处理,得到所述向量交互矩阵的卷积特征;
基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征。
可选地,所述上下文理解模型还包括:特征拼接层;
所述候选答案匹配模块604,更进一步具体用于:
获取利用预设的预训练语言表征模型得到的所述候选答案与各所述关联语句的句子相似特征;
利用所述特征拼接层,将各所述关联语句对应的所述卷积特征和所述句子相似特征进行组合,得到组合特征;
利用所述第二序列模型,对多个所述关联语句的所述组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征。
可选地,如图7所示,所述装置还包括:模型训练模块606,用于:
获取从原始问答对话日志中提取的样本数据,其中,所述样本数据包括:训练样本集和验证样本集;
利用机器学习方法并基于所述训练样本集,对已构建的上下文理解模型的模型参数进行训练,得到中间的上下文理解模型;
基于所述验证样本集,对所述中间的上下文理解模型进行验证,得到相应的验证结果;
若所述验证结果不满足预设条件,则继续对所述中间的上下文理解模型进行模型参数优化训练;
若所述验证结果满足预设条件,则将所述中间的上下文理解模型确定为最终的上下文理解模型。
可选地,所述模型训练模块606,具体用于:
将历史问题对应的对话上下文与用户选择的参考答案之间的对应关系,确定为从原始问答对话日志中提取的正样本数据;
将历史问题对应的对话上下文与用户未选择的推荐答案之间的对应关系,确定为从原始问答对话日志中提取的负样本数据。
本说明书一个或多个实施例中的智能问答的答案确定装置,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
需要说明的是,本说明书中关于智能问答的答案确定装置的实施例与本说明书中关于智能问答的答案确定方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的智能问答的答案确定方法的实施,重复之处不再赘述。
进一步地,对应上述图2至图5所示的方法,基于相同的技术构思,本说明书一个或多个实施例还提供了一种智能问答的答案确定设备,该设备用于执行上述的智能问答的答案确定方法,如图8所示。
智能问答的答案确定设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器801和存储器802,存储器802中可以存储有一个或一个以上存储应用程序或数据。其中,存储器802可以是短暂存储或持久存储。存储在存储器802的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对智能问答的答案确定设备中的一系列计算机可执行指令。更进一步地,处理器801可以设置为与存储器802通信,在智能问答的答案确定设备上执行存储器802中的一系列计算机可执行指令。智能问答的答案确定设备还可以包括一个或一个以上电源803,一个或一个以上有线或无线网络接口804,一个或一个以上输入输出接口805,一个或一个以上键盘806等。
在一个具体的实施例中,智能问答的答案确定设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对智能问答的答案确定设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
本说明书一个或多个实施例中,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
可选地,计算机可执行指令在被执行时,所述确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,包括:
利用预设的词向量转换工具,确定所述关联语句集合中各关联语句的词特征向量,以及确定所述候选答案的词特征向量;
利用预设的预训练语言表征模型,确定所述关联语句集合中各关联语句的语境特征向量,以及确定所述候选答案的语境特征向量;
将所述关联语句的所述词特征向量与所述语境特征向量的组合确定为所述关联语句的特征向量;以及,
将所述候选答案的所述词特征向量与所述语境特征向量的组合确定为所述候选答案的特征向量。
可选地,计算机可执行指令在被执行时,所述上下文理解模型包括:向量交互层和问答匹配识别模型;
所述基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度,包括:
基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵;
基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度。
可选地,计算机可执行指令在被执行时,所述基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵,包括:
利用所述向量交互层,将所述候选答案的所述特征向量分别与各所述关联语句的所述特征向量进行交互处理,得到各所述关联语句分别对应的第一交互矩阵。
可选地,计算机可执行指令在被执行时,所述上下文理解模型还包括:序列特征提取层,所述序列特征提取层包括:多个独立的第一序列模型;
所述基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵,包括:
利用所述第一序列模型,对每个所述关联语句的所述特征向量进行特征提取,得到所述关联语句的词语序列特征;
利用所述第一序列模型,对所述候选答案的所述特征向量进行特征提取,得到所述候选答案的词语序列特征;
利用所述向量交互层,将所述候选答案的所述词语序列特征分别与各所述关联语句的所述词语序列特征进行交互处理,得到各所述关联语句分别对应的第二交互矩阵。
可选地,计算机可执行指令在被执行时,所述问答匹配识别模型包括:第二序列模型和全连接网络;
所述基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度,包括:
基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征;
利用所述全连接网络,对所述综合序列特征进行全连接运算,确定所述候选答案与所述当前问题的问答匹配程度。
可选地,计算机可执行指令在被执行时,所述问答匹配识别模型还包括:卷积神经网络层,所述卷积神经网络层包括:多个独立的卷积神经网络模型;
所述基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征,包括:
利用所述卷积神经网络模型,对每个所述关联语句对应的所述向量交互矩阵进行卷积处理,得到所述向量交互矩阵的卷积特征;
基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征。
可选地,计算机可执行指令在被执行时,所述上下文理解模型还包括:特征拼接层;
所述基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征,包括:
获取利用预设的预训练语言表征模型得到的所述候选答案与各所述关联语句的句子相似特征;
利用所述特征拼接层,将各所述关联语句对应的所述卷积特征和所述句子相似特征进行组合,得到组合特征;
利用所述第二序列模型,对多个所述关联语句的所述组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征。
可选地,计算机可执行指令在被执行时,所述上下文理解模型是通过如下方式训练得到的:
获取从原始问答对话日志中提取的样本数据,其中,所述样本数据包括:训练样本集和验证样本集;
利用机器学习方法并基于所述训练样本集,对已构建的上下文理解模型的模型参数进行训练,得到中间的上下文理解模型;
基于所述验证样本集,对所述中间的上下文理解模型进行验证,得到相应的验证结果;
若所述验证结果不满足预设条件,则继续对所述中间的上下文理解模型进行模型参数优化训练;
若所述验证结果满足预设条件,则将所述中间的上下文理解模型确定为最终的上下文理解模型。
可选地,计算机可执行指令在被执行时,所述获取从原始问答对话日志中提取的样本数据,包括:
将历史问题对应的对话上下文与用户选择的参考答案之间的对应关系,确定为从原始问答对话日志中提取的正样本数据;
将历史问题对应的对话上下文与用户未选择的推荐答案之间的对应关系,确定为从原始问答对话日志中提取的负样本数据。
本说明书一个或多个实施例中的智能问答的答案确定设备,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
需要说明的是,本说明书中关于智能问答的答案确定设备的实施例与本说明书中关于智能问答的答案确定方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的智能问答的答案确定方法的实施,重复之处不再赘述。
进一步地,对应上述图2至图5所示的方法,基于相同的技术构思,本说明书一个或多个实施例还提供了一种存储介质,用于存储计算机可执行指令,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下方法:
确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
本说明书一个或多个实施例中,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,包括:
利用预设的词向量转换工具,确定所述关联语句集合中各关联语句的词特征向量,以及确定所述候选答案的词特征向量;
利用预设的预训练语言表征模型,确定所述关联语句集合中各关联语句的语境特征向量,以及确定所述候选答案的语境特征向量;
将所述关联语句的所述词特征向量与所述语境特征向量的组合确定为所述关联语句的特征向量;以及,
将所述候选答案的所述词特征向量与所述语境特征向量的组合确定为所述候选答案的特征向量。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述上下文理解模型包括:向量交互层和问答匹配识别模型;
所述基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度,包括:
基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵;
基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵,包括:
利用所述向量交互层,将所述候选答案的所述特征向量分别与各所述关联语句的所述特征向量进行交互处理,得到各所述关联语句分别对应的第一交互矩阵。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述上下文理解模型还包括:序列特征提取层,所述序列特征提取层包括:多个独立的第一序列模型;
所述基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵,包括:
利用所述第一序列模型,对每个所述关联语句的所述特征向量进行特征提取,得到所述关联语句的词语序列特征;
利用所述第一序列模型,对所述候选答案的所述特征向量进行特征提取,得到所述候选答案的词语序列特征;
利用所述向量交互层,将所述候选答案的所述词语序列特征分别与各所述关联语句的所述词语序列特征进行交互处理,得到各所述关联语句分别对应的第二交互矩阵。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述问答匹配识别模型包括:第二序列模型和全连接网络;
所述基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度,包括:
基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征;
利用所述全连接网络,对所述综合序列特征进行全连接运算,确定所述候选答案与所述当前问题的问答匹配程度。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述问答匹配识别模型还包括:卷积神经网络层,所述卷积神经网络层包括:多个独立的卷积神经网络模型;
所述基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征,包括:
利用所述卷积神经网络模型,对每个所述关联语句对应的所述向量交互矩阵进行卷积处理,得到所述向量交互矩阵的卷积特征;
基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述上下文理解模型还包括:特征拼接层;
所述基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征,包括:
获取利用预设的预训练语言表征模型得到的所述候选答案与各所述关联语句的句子相似特征;
利用所述特征拼接层,将各所述关联语句对应的所述卷积特征和所述句子相似特征进行组合,得到组合特征;
利用所述第二序列模型,对多个所述关联语句的所述组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述上下文理解模型是通过如下方式训练得到的:
获取从原始问答对话日志中提取的样本数据,其中,所述样本数据包括:训练样本集和验证样本集;
利用机器学习方法并基于所述训练样本集,对已构建的上下文理解模型的模型参数进行训练,得到中间的上下文理解模型;
基于所述验证样本集,对所述中间的上下文理解模型进行验证,得到相应的验证结果;
若所述验证结果不满足预设条件,则继续对所述中间的上下文理解模型进行模型参数优化训练;
若所述验证结果满足预设条件,则将所述中间的上下文理解模型确定为最终的上下文理解模型。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述获取从原始问答对话日志中提取的样本数据,包括:
将历史问题对应的对话上下文与用户选择的参考答案之间的对应关系,确定为从原始问答对话日志中提取的正样本数据;
将历史问题对应的对话上下文与用户未选择的推荐答案之间的对应关系,确定为从原始问答对话日志中提取的负样本数据。
本说明书一个或多个实施例中的存储介质存储的计算机可执行指令在被处理器执行时,将包含当前问题以及当前问题相关的原始对话上下文的关联语句集合作为基础分析对象,通过引入关联语句集合的语境特征向量,基于语境特征向量进行答案预测,能够区分同一词语在特定语境下的词义,无需预先定义各种语境场景,同时利用训练好的上下文理解模型将选取的候选答案分别与关联语句集合中各关联语句进行特征向量交互处理,再基于得到的多个向量交互矩阵对候选答案与当前问题的问答匹配程度进行识别,能够准确地理解关联语句集合在对应语境下与候选答案的匹配程度,提高在候选答案中选取目标答案的准确度,进而提高针对用户咨询问题的答案推荐精准度,提升智能问答用户使用体验。
需要说明的是,本说明书中关于存储介质的实施例与本说明书中关于智能问答的答案确定方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的智能问答的答案确定方法的实施,重复之处不再赘述。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HD Cal、JHDL(Java Hardware Description Language)、Lava、Lola、My HDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个是参照根据本说明书一个或多个实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书一个或多个的实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书一个或多个的实施例而已,并不用于限制本说明书一个或多个。对于本领域技术人员来说,本说明书一个或多个可以有各种更改和变化。凡在本说明书一个或多个的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个的权利要求范围之内。

Claims (22)

1.一种智能问答的答案确定方法,包括:
确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
2.根据权利要求1所述的方法,其中,所述确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,包括:
利用预设的词向量转换工具,确定所述关联语句集合中各关联语句的词特征向量,以及确定所述候选答案的词特征向量;
利用预设的预训练语言表征模型,确定所述关联语句集合中各关联语句的语境特征向量,以及确定所述候选答案的语境特征向量;
将所述关联语句的所述词特征向量与所述语境特征向量的组合确定为所述关联语句的特征向量;以及,
将所述候选答案的所述词特征向量与所述语境特征向量的组合确定为所述候选答案的特征向量。
3.根据权利要求1所述的方法,其中,所述上下文理解模型包括:向量交互层和问答匹配识别模型;
所述基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度,包括:
基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵;
基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度。
4.根据权利要求3所述的方法,其中,所述基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵,包括:
利用所述向量交互层,将所述候选答案的所述特征向量分别与各所述关联语句的所述特征向量进行交互处理,得到各所述关联语句分别对应的第一交互矩阵。
5.根据权利要求3所述的方法,其中,所述上下文理解模型还包括:序列特征提取层,所述序列特征提取层包括:多个独立的第一序列模型;
所述基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵,包括:
利用所述第一序列模型,对每个所述关联语句的所述特征向量进行特征提取,得到所述关联语句的词语序列特征;
利用所述第一序列模型,对所述候选答案的所述特征向量进行特征提取,得到所述候选答案的词语序列特征;
利用所述向量交互层,将所述候选答案的所述词语序列特征分别与各所述关联语句的所述词语序列特征进行交互处理,得到各所述关联语句分别对应的第二交互矩阵。
6.根据权利要求3所述的方法,其中,所述问答匹配识别模型包括:第二序列模型和全连接网络;
所述基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度,包括:
基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征;
利用所述全连接网络,对所述综合序列特征进行全连接运算,确定所述候选答案与所述当前问题的问答匹配程度。
7.根据权利要求6所述的方法,其中,所述问答匹配识别模型还包括:卷积神经网络层,所述卷积神经网络层包括:多个独立的卷积神经网络模型;
所述基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征,包括:
利用所述卷积神经网络模型,对每个所述关联语句对应的所述向量交互矩阵进行卷积处理,得到所述向量交互矩阵的卷积特征;
基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征。
8.根据权利要求7所述的方法,其中,所述上下文理解模型还包括:特征拼接层;
所述基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征,包括:
获取利用预设的预训练语言表征模型得到的所述候选答案与各所述关联语句的句子相似特征;
利用所述特征拼接层,将各所述关联语句对应的所述卷积特征和所述句子相似特征进行组合,得到组合特征;
利用所述第二序列模型,对多个所述关联语句的所述组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征。
9.根据权利要求1至8任一项所述的方法,其中,所述上下文理解模型是通过如下方式训练得到的:
获取从原始问答对话日志中提取的样本数据,其中,所述样本数据包括:训练样本集和验证样本集;
利用机器学习方法并基于所述训练样本集,对已构建的上下文理解模型的模型参数进行训练,得到中间的上下文理解模型;
基于所述验证样本集,对所述中间的上下文理解模型进行验证,得到相应的验证结果;
若所述验证结果不满足预设条件,则继续对所述中间的上下文理解模型进行模型参数优化训练;
若所述验证结果满足预设条件,则将所述中间的上下文理解模型确定为最终的上下文理解模型。
10.根据权利要求9所述的方法,其中,所述获取从原始问答对话日志中提取的样本数据,包括:
将历史问题对应的对话上下文与用户选择的参考答案之间的对应关系,确定为从原始问答对话日志中提取的正样本数据;
将历史问题对应的对话上下文与用户未选择的推荐答案之间的对应关系,确定为从原始问答对话日志中提取的负样本数据。
11.一种智能问答的答案确定装置,包括:
关联集合确定模块,用于确定客户端的当前问题对应的关联语句集合,其中,所述关联语句集合包括:当前问题和该当前问题对应的对话上下文;
候选答案选取模块,用于在预设答案数据库中,根据所述关联语句集合,选取与所述当前问题相关的多个候选答案;
特征向量确定模块,用于确定所述关联语句集合中各关联语句的特征向量和所述候选答案的特征向量,其中,所述特征向量包括:词特征向量和语境特征向量;
候选答案匹配模块,用于针对每个所述候选答案,基于各所述关联语句的所述特征向量和该候选答案的所述特征向量,利用预先训练好的上下文理解模型确定所述候选答案与所述当前问题的问答匹配程度;其中,所述上下文理解模型用于将候选答案的特征向量与各关联语句的特征向量进行交互处理并基于交互处理得到的多个向量交互矩阵进行问答匹配程度识别;
目标答案确定模块,用于在所述多个候选答案中,根据各所述候选答案的所述问答匹配程度,选取所述当前问题对应的目标答案。
12.根据权利要求11所述的装置,其中,所述特征向量确定模块,具体用于:
利用预设的词向量转换工具,确定所述关联语句集合中各关联语句的词特征向量,以及确定所述候选答案的词特征向量;
利用预设的预训练语言表征模型,确定所述关联语句集合中各关联语句的语境特征向量,以及确定所述候选答案的语境特征向量;
将所述关联语句的所述词特征向量与所述语境特征向量的组合确定为所述关联语句的特征向量;以及,
将所述候选答案的所述词特征向量与所述语境特征向量的组合确定为所述候选答案的特征向量。
13.根据权利要求11所述的装置,其中,所述上下文理解模型包括:向量交互层和问答匹配识别模型;
所述候选答案匹配模块,具体用于:
基于所述候选答案的所述特征向量和各所述关联语句的所述特征向量,利用所述向量交互层确定各所述关联语句分别对应的向量交互矩阵;
基于各所述关联语句对应的所述向量交互矩阵,利用所述问答匹配识别模型确定所述候选答案与所述当前问题的问答匹配程度。
14.根据权利要求13所述的装置,其中,所述候选答案匹配模块,进一步具体用于:
利用所述向量交互层,将所述候选答案的所述特征向量分别与各所述关联语句的所述特征向量进行交互处理,得到各所述关联语句分别对应的第一交互矩阵。
15.根据权利要求13所述的装置,其中,所述上下文理解模型还包括:序列特征提取层,所述序列特征提取层包括:多个独立的第一序列模型;
所述候选答案匹配模块,还进一步具体用于:
利用所述第一序列模型,对每个所述关联语句的所述特征向量进行特征提取,得到所述关联语句的词语序列特征;
利用所述第一序列模型,对所述候选答案的所述特征向量进行特征提取,得到所述候选答案的词语序列特征;
利用所述向量交互层,将所述候选答案的所述词语序列特征分别与各所述关联语句的所述词语序列特征进行交互处理,得到各所述关联语句分别对应的第二交互矩阵。
16.根据权利要求13所述的装置,其中,所述问答匹配识别模型包括:第二序列模型和全连接网络;
所述候选答案匹配模块,还进一步具体用于:
基于各所述关联语句对应的所述向量交互矩阵,利用所述第二序列模型确定表征问答匹配程度的综合序列特征;
利用所述全连接网络,对所述综合序列特征进行全连接运算,确定所述候选答案与所述当前问题的问答匹配程度。
17.根据权利要求16所述的装置,其中,所述问答匹配识别模型还包括:卷积神经网络层,所述卷积神经网络层包括:多个独立的卷积神经网络模型;
所述候选答案匹配模块,更进一步具体用于:
利用所述卷积神经网络模型,对每个所述关联语句对应的所述向量交互矩阵进行卷积处理,得到所述向量交互矩阵的卷积特征;
基于各所述向量交互矩阵的所述卷积特征,利用所述第二序列模型确定表征问答匹配程度的综合序列特征。
18.根据权利要求17所述的装置,其中,所述上下文理解模型还包括:特征拼接层;
所述候选答案匹配模块,更进一步具体用于:
获取利用预设的预训练语言表征模型得到的所述候选答案与各所述关联语句的句子相似特征;
利用所述特征拼接层,将各所述关联语句对应的所述卷积特征和所述句子相似特征进行组合,得到组合特征;
利用所述第二序列模型,对多个所述关联语句的所述组合特征进行序列特征提取,得到表征问答匹配程度的综合序列特征。
19.根据权利要求11至18任一项所述的装置,其中,所述装置还包括:模型训练模块,用于:
获取从原始问答对话日志中提取的样本数据,其中,所述样本数据包括:训练样本集和验证样本集;
利用机器学习方法并基于所述训练样本集,对已构建的上下文理解模型的模型参数进行训练,得到中间的上下文理解模型;
基于所述验证样本集,对所述中间的上下文理解模型进行验证,得到相应的验证结果;
若所述验证结果不满足预设条件,则继续对所述中间的上下文理解模型进行模型参数优化训练;
若所述验证结果满足预设条件,则将所述中间的上下文理解模型确定为最终的上下文理解模型。
20.根据权利要求19所述的装置,其中,所述模型训练模块,具体用于:
将历史问题对应的对话上下文与用户选择的参考答案之间的对应关系,确定为从原始问答对话日志中提取的正样本数据;
将历史问题对应的对话上下文与用户未选择的推荐答案之间的对应关系,确定为从原始问答对话日志中提取的负样本数据。
21.一种智能问答的答案确定设备,包括:
处理器;以及被安排成存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器实现上述权利要求1至10任一项所述的智能问答的答案确定方法。
22.一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现上述权利要求1至10任一项所述的智能问答的答案确定方法。
CN201910574030.6A 2019-06-28 2019-06-28 一种智能问答的答案确定方法及装置 Active CN110309283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910574030.6A CN110309283B (zh) 2019-06-28 2019-06-28 一种智能问答的答案确定方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910574030.6A CN110309283B (zh) 2019-06-28 2019-06-28 一种智能问答的答案确定方法及装置

Publications (2)

Publication Number Publication Date
CN110309283A true CN110309283A (zh) 2019-10-08
CN110309283B CN110309283B (zh) 2023-03-21

Family

ID=68078664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910574030.6A Active CN110309283B (zh) 2019-06-28 2019-06-28 一种智能问答的答案确定方法及装置

Country Status (1)

Country Link
CN (1) CN110309283B (zh)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110765253A (zh) * 2019-10-22 2020-02-07 支付宝(杭州)信息技术有限公司 客服场景下用户问句的回复方法、装置及设备
CN110795531A (zh) * 2019-10-10 2020-02-14 卓尔智联(武汉)研究院有限公司 一种意图识别方法、装置及存储介质
CN110909141A (zh) * 2019-11-14 2020-03-24 义语智能科技(广州)有限公司 一种基于问答系统上下文的对话检索的方法及设备
CN110929015A (zh) * 2019-12-06 2020-03-27 北京金山数字娱乐科技有限公司 一种多文本分析方法及装置
CN111108501A (zh) * 2019-12-25 2020-05-05 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
CN111105782A (zh) * 2019-11-27 2020-05-05 深圳追一科技有限公司 会话交互处理方法、装置、计算机设备和存储介质
CN111241237A (zh) * 2019-12-31 2020-06-05 中国建设银行股份有限公司 一种基于运维业务的智能问答数据处理方法及装置
CN111259668A (zh) * 2020-05-07 2020-06-09 腾讯科技(深圳)有限公司 阅读任务处理方法、模型训练方法、装置和计算机设备
CN111340245A (zh) * 2020-02-26 2020-06-26 支付宝(杭州)信息技术有限公司 一种模型训练方法及系统
CN111552787A (zh) * 2020-04-23 2020-08-18 支付宝(杭州)信息技术有限公司 问答处理方法、装置、设备及存储介质
CN111597321A (zh) * 2020-07-08 2020-08-28 腾讯科技(深圳)有限公司 问题答案的预测方法、装置、存储介质及电子设备
CN111666770A (zh) * 2020-06-02 2020-09-15 泰康保险集团股份有限公司 一种语义匹配方法及装置
CN111737559A (zh) * 2020-05-29 2020-10-02 北京百度网讯科技有限公司 资源排序方法、训练排序模型的方法及对应装置
CN111858869A (zh) * 2020-01-03 2020-10-30 北京嘀嘀无限科技发展有限公司 一种数据匹配方法、装置、电子设备和存储介质
CN111984759A (zh) * 2020-06-29 2020-11-24 百度在线网络技术(北京)有限公司 问答处理方法、装置、电子设备和存储介质
CN112328754A (zh) * 2020-08-19 2021-02-05 北京京东尚科信息技术有限公司 应答处理方法、装置、计算机系统和存储介质
CN112527998A (zh) * 2020-12-22 2021-03-19 深圳市优必选科技股份有限公司 一种答复推荐方法、答复推荐装置及智能设备
WO2021068493A1 (zh) * 2019-10-11 2021-04-15 京东数字科技控股有限公司 用于处理信息的方法和装置
CN112905768A (zh) * 2021-02-08 2021-06-04 中国工商银行股份有限公司 一种数据交互方法、装置及存储介质
CN112966076A (zh) * 2021-02-25 2021-06-15 中国平安人寿保险股份有限公司 智能问答问题的生成方法、装置、计算机设备及存储介质
CN113032545A (zh) * 2021-05-29 2021-06-25 成都晓多科技有限公司 基于无监督对话预训练的对话理解与答案配置方法及系统
CN113035179A (zh) * 2021-03-03 2021-06-25 科大讯飞股份有限公司 一种语音识别方法、装置、设备及计算机可读存储介质
JP2021108178A (ja) * 2020-06-29 2021-07-29 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド マルチラウンド対話の検索方法、装置、記憶媒体および電子機器
WO2021159632A1 (zh) * 2020-02-13 2021-08-19 平安科技(深圳)有限公司 智能问答方法、装置、计算机设备及计算机存储介质
CN113505206A (zh) * 2021-07-01 2021-10-15 北京有竹居网络技术有限公司 基于自然语言推理的信息处理方法、装置和电子设备
CN113553412A (zh) * 2021-06-30 2021-10-26 北京百度网讯科技有限公司 问答处理方法、装置、电子设备和存储介质
CN113672714A (zh) * 2021-08-20 2021-11-19 上海大参林医疗健康科技有限公司 一种多轮对话装置及方法
CN113761157A (zh) * 2021-05-28 2021-12-07 腾讯科技(深圳)有限公司 应答语句生成方法和装置
CN113792550A (zh) * 2021-04-08 2021-12-14 北京金山数字娱乐科技有限公司 预测答案的确定方法及装置、阅读理解方法及装置
CN114490965A (zh) * 2021-12-23 2022-05-13 北京百度网讯科技有限公司 问题处理方法、装置、电子设备和存储介质
CN114691815A (zh) * 2020-12-25 2022-07-01 科沃斯商用机器人有限公司 模型训练方法、装置、电子设备和存储介质
CN115098664A (zh) * 2022-08-24 2022-09-23 中关村科学城城市大脑股份有限公司 智能问答方法、装置、电子设备和计算机可读介质
CN116204726A (zh) * 2023-04-28 2023-06-02 杭州海康威视数字技术股份有限公司 一种基于多模态模型的数据处理方法、装置及设备
CN116737888A (zh) * 2023-01-11 2023-09-12 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置
CN117874202A (zh) * 2024-01-12 2024-04-12 深圳爱护者科技有限公司 一种基于大模型的智能问答方法及系统
CN117910521A (zh) * 2024-03-20 2024-04-19 浪潮电子信息产业股份有限公司 梯度压缩方法、装置、设备、分布式集群及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082184A1 (en) * 2016-09-19 2018-03-22 TCL Research America Inc. Context-aware chatbot system and method
CN108170764A (zh) * 2017-12-25 2018-06-15 上海大学 一种基于场景上下文的人机多轮对话模型构建方法
US20180174020A1 (en) * 2016-12-21 2018-06-21 Microsoft Technology Licensing, Llc Systems and methods for an emotionally intelligent chat bot
CN109271506A (zh) * 2018-11-29 2019-01-25 武汉大学 一种基于深度学习的电力通信领域知识图谱问答系统的构建方法
CN109726396A (zh) * 2018-12-20 2019-05-07 泰康保险集团股份有限公司 问答文本的语义匹配方法、装置、介质及电子设备
CN109783704A (zh) * 2019-01-03 2019-05-21 中国科学院自动化研究所 人机混合的应答方法、系统、装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082184A1 (en) * 2016-09-19 2018-03-22 TCL Research America Inc. Context-aware chatbot system and method
US20180174020A1 (en) * 2016-12-21 2018-06-21 Microsoft Technology Licensing, Llc Systems and methods for an emotionally intelligent chat bot
CN108170764A (zh) * 2017-12-25 2018-06-15 上海大学 一种基于场景上下文的人机多轮对话模型构建方法
CN109271506A (zh) * 2018-11-29 2019-01-25 武汉大学 一种基于深度学习的电力通信领域知识图谱问答系统的构建方法
CN109726396A (zh) * 2018-12-20 2019-05-07 泰康保险集团股份有限公司 问答文本的语义匹配方法、装置、介质及电子设备
CN109783704A (zh) * 2019-01-03 2019-05-21 中国科学院自动化研究所 人机混合的应答方法、系统、装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈志豪等: "基于注意力和字嵌入的中文医疗问答匹配方法", 《计算机应用》 *

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110795531A (zh) * 2019-10-10 2020-02-14 卓尔智联(武汉)研究院有限公司 一种意图识别方法、装置及存储介质
CN110795531B (zh) * 2019-10-10 2023-01-20 卓尔智联(武汉)研究院有限公司 一种意图识别方法、装置及存储介质
WO2021068493A1 (zh) * 2019-10-11 2021-04-15 京东数字科技控股有限公司 用于处理信息的方法和装置
CN110765253B (zh) * 2019-10-22 2023-03-31 支付宝(杭州)信息技术有限公司 客服场景下用户问句的回复方法、装置及设备
CN110765253A (zh) * 2019-10-22 2020-02-07 支付宝(杭州)信息技术有限公司 客服场景下用户问句的回复方法、装置及设备
CN110909141A (zh) * 2019-11-14 2020-03-24 义语智能科技(广州)有限公司 一种基于问答系统上下文的对话检索的方法及设备
CN111105782A (zh) * 2019-11-27 2020-05-05 深圳追一科技有限公司 会话交互处理方法、装置、计算机设备和存储介质
CN110929015A (zh) * 2019-12-06 2020-03-27 北京金山数字娱乐科技有限公司 一种多文本分析方法及装置
CN110929015B (zh) * 2019-12-06 2024-04-02 北京金山数字娱乐科技有限公司 一种多文本分析方法及装置
CN111108501B (zh) * 2019-12-25 2024-02-06 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
US11941366B2 (en) 2019-12-25 2024-03-26 Ubtech Robotics Corp Ltd Context-based multi-turn dialogue method and storage medium
CN111108501A (zh) * 2019-12-25 2020-05-05 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
CN111241237B (zh) * 2019-12-31 2023-05-23 中国建设银行股份有限公司 一种基于运维业务的智能问答数据处理方法及装置
CN111241237A (zh) * 2019-12-31 2020-06-05 中国建设银行股份有限公司 一种基于运维业务的智能问答数据处理方法及装置
CN111858869B (zh) * 2020-01-03 2024-06-04 北京嘀嘀无限科技发展有限公司 一种数据匹配方法、装置、电子设备和存储介质
CN111858869A (zh) * 2020-01-03 2020-10-30 北京嘀嘀无限科技发展有限公司 一种数据匹配方法、装置、电子设备和存储介质
WO2021159632A1 (zh) * 2020-02-13 2021-08-19 平安科技(深圳)有限公司 智能问答方法、装置、计算机设备及计算机存储介质
CN111340245A (zh) * 2020-02-26 2020-06-26 支付宝(杭州)信息技术有限公司 一种模型训练方法及系统
CN111340245B (zh) * 2020-02-26 2022-07-12 支付宝(杭州)信息技术有限公司 一种模型训练方法及系统
CN111552787A (zh) * 2020-04-23 2020-08-18 支付宝(杭州)信息技术有限公司 问答处理方法、装置、设备及存储介质
CN111552787B (zh) * 2020-04-23 2023-06-30 支付宝(杭州)信息技术有限公司 问答处理方法、装置、设备及存储介质
CN111259668A (zh) * 2020-05-07 2020-06-09 腾讯科技(深圳)有限公司 阅读任务处理方法、模型训练方法、装置和计算机设备
CN111737559B (zh) * 2020-05-29 2024-05-31 北京百度网讯科技有限公司 资源排序方法、训练排序模型的方法及对应装置
CN111737559A (zh) * 2020-05-29 2020-10-02 北京百度网讯科技有限公司 资源排序方法、训练排序模型的方法及对应装置
CN111666770A (zh) * 2020-06-02 2020-09-15 泰康保险集团股份有限公司 一种语义匹配方法及装置
CN111984759B (zh) * 2020-06-29 2023-12-12 百度在线网络技术(北京)有限公司 问答处理方法、装置、电子设备和存储介质
CN111984759A (zh) * 2020-06-29 2020-11-24 百度在线网络技术(北京)有限公司 问答处理方法、装置、电子设备和存储介质
EP3862891A3 (en) * 2020-06-29 2021-12-29 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for retrieving multi-turn dialogue, storage medium, and electronic device
JP2021108178A (ja) * 2020-06-29 2021-07-29 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド マルチラウンド対話の検索方法、装置、記憶媒体および電子機器
US11947578B2 (en) 2020-06-29 2024-04-02 Baidu Online Network Technology (Beijing) Co., Ltd. Method for retrieving multi-turn dialogue, storage medium, and electronic device
CN111597321A (zh) * 2020-07-08 2020-08-28 腾讯科技(深圳)有限公司 问题答案的预测方法、装置、存储介质及电子设备
CN112328754A (zh) * 2020-08-19 2021-02-05 北京京东尚科信息技术有限公司 应答处理方法、装置、计算机系统和存储介质
CN112527998A (zh) * 2020-12-22 2021-03-19 深圳市优必选科技股份有限公司 一种答复推荐方法、答复推荐装置及智能设备
CN114691815A (zh) * 2020-12-25 2022-07-01 科沃斯商用机器人有限公司 模型训练方法、装置、电子设备和存储介质
CN112905768A (zh) * 2021-02-08 2021-06-04 中国工商银行股份有限公司 一种数据交互方法、装置及存储介质
CN112966076A (zh) * 2021-02-25 2021-06-15 中国平安人寿保险股份有限公司 智能问答问题的生成方法、装置、计算机设备及存储介质
CN113035179B (zh) * 2021-03-03 2023-09-26 中国科学技术大学 一种语音识别方法、装置、设备及计算机可读存储介质
CN113035179A (zh) * 2021-03-03 2021-06-25 科大讯飞股份有限公司 一种语音识别方法、装置、设备及计算机可读存储介质
CN113792550A (zh) * 2021-04-08 2021-12-14 北京金山数字娱乐科技有限公司 预测答案的确定方法及装置、阅读理解方法及装置
CN113792550B (zh) * 2021-04-08 2024-09-24 北京金山数字娱乐科技有限公司 预测答案的确定方法及装置、阅读理解方法及装置
CN113761157B (zh) * 2021-05-28 2024-05-24 腾讯科技(深圳)有限公司 应答语句生成方法和装置
CN113761157A (zh) * 2021-05-28 2021-12-07 腾讯科技(深圳)有限公司 应答语句生成方法和装置
CN113032545A (zh) * 2021-05-29 2021-06-25 成都晓多科技有限公司 基于无监督对话预训练的对话理解与答案配置方法及系统
CN113553412A (zh) * 2021-06-30 2021-10-26 北京百度网讯科技有限公司 问答处理方法、装置、电子设备和存储介质
CN113553412B (zh) * 2021-06-30 2023-07-25 北京百度网讯科技有限公司 问答处理方法、装置、电子设备和存储介质
CN113505206A (zh) * 2021-07-01 2021-10-15 北京有竹居网络技术有限公司 基于自然语言推理的信息处理方法、装置和电子设备
CN113672714A (zh) * 2021-08-20 2021-11-19 上海大参林医疗健康科技有限公司 一种多轮对话装置及方法
CN114490965A (zh) * 2021-12-23 2022-05-13 北京百度网讯科技有限公司 问题处理方法、装置、电子设备和存储介质
CN115098664B (zh) * 2022-08-24 2022-11-29 中关村科学城城市大脑股份有限公司 智能问答方法、装置、电子设备和计算机可读介质
CN115098664A (zh) * 2022-08-24 2022-09-23 中关村科学城城市大脑股份有限公司 智能问答方法、装置、电子设备和计算机可读介质
CN116737888B (zh) * 2023-01-11 2024-05-17 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置
CN116737888A (zh) * 2023-01-11 2023-09-12 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置
CN116204726A (zh) * 2023-04-28 2023-06-02 杭州海康威视数字技术股份有限公司 一种基于多模态模型的数据处理方法、装置及设备
CN116204726B (zh) * 2023-04-28 2023-07-25 杭州海康威视数字技术股份有限公司 一种基于多模态模型的数据处理方法、装置及设备
CN117874202A (zh) * 2024-01-12 2024-04-12 深圳爱护者科技有限公司 一种基于大模型的智能问答方法及系统
CN117910521A (zh) * 2024-03-20 2024-04-19 浪潮电子信息产业股份有限公司 梯度压缩方法、装置、设备、分布式集群及存储介质

Also Published As

Publication number Publication date
CN110309283B (zh) 2023-03-21

Similar Documents

Publication Publication Date Title
CN110309283A (zh) 一种智能问答的答案确定方法及装置
WO2019192261A1 (zh) 一种支付方式推荐方法、装置及设备
EP3574453A1 (en) Optimizing neural network architectures
CN109101620A (zh) 相似度计算方法、聚类方法、装置、存储介质及电子设备
CN114880441B (zh) 视觉内容生成方法、装置、系统、设备和介质
CN110874439B (zh) 一种基于评论信息的推荐方法
CN109726396A (zh) 问答文本的语义匹配方法、装置、介质及电子设备
CN110222167A (zh) 一种获取目标标准信息的方法和系统
CN110225368B (zh) 一种视频定位方法、装置及电子设备
CN113688313A (zh) 一种预测模型的训练方法、信息推送的方法及装置
CN112527962A (zh) 基于多模态融合的智能应答方法、装置、机器可读介质及设备
CN106572272A (zh) 一种ivr语音菜单确定方法及装置
CN110442515B (zh) 应用测试方法、装置、设备及可读存储介质
CN111339309B (zh) 一种用户意图的语料扩展方法和系统
CN112989212B (zh) 媒体内容推荐方法、装置和设备及计算机存储介质
CN111738010A (zh) 用于生成语义匹配模型的方法和装置
WO2021169485A1 (zh) 一种对话生成方法、装置及计算机设备
CN111046667A (zh) 一种语句识别方法、语句识别装置及智能设备
CN117332090B (zh) 一种敏感信息识别方法、装置、设备和存储介质
CN111104599A (zh) 用于输出信息的方法和装置
CN105677636A (zh) 智能问答系统的信息处理方法及信息处理装置
CN118503539A (zh) 数据处理方法、装置、电子设备及存储介质
CN115525740A (zh) 对话应答语句的生成方法、装置、电子设备及存储介质
CN113420136A (zh) 一种对话方法、系统、电子设备、存储介质和程序产品
Hu et al. Dynamically retrieving knowledge via query generation for informative dialogue generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200923

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman, British Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman, British Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20200923

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman, British Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

GR01 Patent grant
GR01 Patent grant