CN111737425B - 一种应答方法、装置、服务器及存储介质 - Google Patents

一种应答方法、装置、服务器及存储介质 Download PDF

Info

Publication number
CN111737425B
CN111737425B CN202010130499.3A CN202010130499A CN111737425B CN 111737425 B CN111737425 B CN 111737425B CN 202010130499 A CN202010130499 A CN 202010130499A CN 111737425 B CN111737425 B CN 111737425B
Authority
CN
China
Prior art keywords
intention
matched
questions
word
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010130499.3A
Other languages
English (en)
Other versions
CN111737425A (zh
Inventor
马浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Huijun Technology Co ltd
Original Assignee
Beijing Huijun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Huijun Technology Co ltd filed Critical Beijing Huijun Technology Co ltd
Priority to CN202010130499.3A priority Critical patent/CN111737425B/zh
Publication of CN111737425A publication Critical patent/CN111737425A/zh
Application granted granted Critical
Publication of CN111737425B publication Critical patent/CN111737425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种应答方法、装置、服务器及存储介质。该方法包括:获取待应答问题和预设数据;对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词;将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。本发明实施例的技术方案,基于可以直接加载在内存中的字典树实现待应答问题和待匹配问题的初步匹配,提高了问题匹配性能,并且由于匹配过程未涉及到第三方服务器,无需进行待更新数据的推送,从而避免了因待更新数据推送失败而造成的应答失败的问题,达到了提高智能应答系统的稳定性和问题匹配效率的效果。

Description

一种应答方法、装置、服务器及存储介质
技术领域
本发明实施例涉及计算机应用技术领域,尤其涉及一种应答方法、装置、服务器及存储介质。
背景技术
智能应答系统在获取到用户提出的待应答问题后,可通过自然语言理解(NLU)对用户意图进行分类,若是政策咨询类,则进入问答型机器人(QABot)进行应答,否则进入任务型机器人(TaskBot)进行多轮交互应答。
在QABot中,应答智能系统将待应答问题与问答知识库(QA KnowledgeBase,QAKB)中的待匹配问题进行匹配,如基于ElasticSearch(一种搜索服务器)按照关键词从各个待匹配问题中过滤出与待应答提问较为相似的初步匹配问题;然后,再从初步匹配问题中筛选出与待应答问题的相似度最高的目标匹配问题,并将QAKB中与目标匹配问题对应的目标应答答案返回给用户。
在实现本发明过程中,发明人发现现有技术中至少存在如下技术问题:在维护QAKB时,需要将待更新数据推送到ElasticSearch中,这一推送过程可能会出现数据推送失败的情况,这就会导致问题应答失败,系统稳定性不高;而且,ElasticSearch是一个需要单独部署的第三方开源服务器,在每次进行问题匹配时,都需要通过ElasticSearch匹配一遍,匹配性能较差。
发明内容
本发明实施例提供了一种应答方法、装置、服务器及存储介质,以解决问题匹配性能较差以及因待更新数据推送失败而造成的应答失败的问题。
第一方面,本发明实施例提供了一种应答方法,可以包括:
获取待应答问题和预设数据,其中,预设数据包括字典树,字典树是根据预设问答知识库和预设意图词数据构造的,预设问答知识库包括多个待匹配问题,预设意图词数据包括历史应答问题中的目标意图词;
对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词;
将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。
可选的,预设数据还可以包括预设映射数据,预设映射数据包括待匹配问题、待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系;在此基础上,上述应答方法还可以包括:
基于预设映射数据和待应答意图词,从各待匹配意图分类结果中筛选出已匹配意图分类结果;
根据待应答意图词和已匹配意图分类结果,分别计算出待应答问题和各已匹配意图分类结果的相关性,并根据相关性从各已匹配意图分类结果中筛选出目标意图分类结果;
根据预设映射数据,从多个待匹配问题中筛选出与目标意图分类结果对应的第二初步匹配问题。
可选的,预设问答知识库还可以包括每个待匹配问题的待匹配应答答案,在此基础上,上述应答方法还可以包括:
将待应答问题、各第一初步匹配问题和各第二初步匹配问题输入至深度语义匹配模型中,根据深度语义匹配模型的输出结果,分别得到待应答问题与各第一初步匹配问题间的第一相似度、以及待应答问题与各第二初步匹配问题间的第二相似度;
根据第一相似度从各个第一初步匹配问题中筛选出第一目标匹配问题,并根据第二相似度从各个第二初步匹配问题中筛选出第二目标匹配问题;
从第一目标匹配问题和第二目标匹配问题中筛选出相似度最高的目标匹配问题,从多个待匹配应答答案中,筛选出目标匹配问题的目标应答答案,并将目标应答答案作为待应答问题的应答答案。
可选的,目标意图词可以通过如下步骤预先得到:
对历史应答问题进行分词,计算出各分词结果的意图相关度,并根据意图相关度从各分词结果中筛选出目标意图词。
可选的,计算出各分词结果中的当前分词结果w的意图相关度,可以包括:
获取历史应答问题的总量Total、各历史应答问题中w出现的次数WordTotal(w)、包含w的历史应答问题的数量Letter(w)、包含w且存在意图的历史应答问题的数量Itent(w);
根据Total、WordTotal(w)、Letter(w)和Itent(w),计算出w的意图相关度。
可选的,根据Total、WordTotal(w)、Letter(w)和Itent(w),计算出w的意图相关度,可以包括:通过如下式子计算出w的意图相关度IntentRelation(w):
IntentRelation(w)=InFo(w)*ItentWeight(w);其中,
InFo(w)=lg(Total/Letter(w)),
ItentWeight(w)=WordTotal(w)/Itent(w)*lg(Itent(w))。
可选的,待匹配问题包括标准问题和扩展问题,根据待应答意图词和已匹配意图分类结果,分别计算出待应答问题和各已匹配意图分类结果的相关性,可以包括:
获取包含待应答意图词W且意图为各已匹配意图分类结果中的当前意图分类结果m的待匹配问题的数量WordToIntent(W,m)、包含W的待匹配问题的数量Letter(W)、意图为m的待匹配问题的数量Itent(m)、待匹配问题L中目标意图词的数量IntentWord(L)、意图为m的标准问题的数量StandardQuestion(m)和待应答问题CurrenQuestion;
根据WordToIntent(W,m)、Letter(W)、Itent(m)、IntentWord(L)、StandardQuestion(m)和CurrenQuestion,计算出CurrenQuestion和m的相关性。
可选的,根据WordToIntent(W,m)、Letter(W)、Itent(m)、IntentWord(L)、StandardQuestion(m)和CurrenQuestion,计算出CurrenQuestion和m的相关性,可以包括:通过如下式子计算出CurrenQuestion和m的相关性F(m):
F(m)=(Letter(W)/WordToIntent(W,m))*lg(Intent(m))*E(m);其中,
E(m)=1-|IntentWord(StandardQuestion(m))-IntentWord(CurrenQuestion)|*
log100(IntentWord(StandardQuestion(m)))。
可选的,若CurrenQuestion包括待应答意图词W1、W2…WN,则 其中,N是CurrenQuestion中的所述待应答意图词的总个数,N是大于1的整数。
第二方面,本发明实施例还提供了一种应答装置,该装置可以包括:
获取模块,用于获取待应答问题和预设数据,其中,预设数据包括字典树,字典树是根据预设问答知识库和预设意图词数据构造的,预设问答知识库包括多个待匹配问题,预设意图词数据包括历史应答问题中的目标意图词;
分词模块,用于对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词;
筛选模块,用于将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。
第三方面,本发明实施例还提供了一种服务器,该服务器可以包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现本发明任意实施例所提供的应答方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现本发明任意实施例所提供的应答方法。
本发明实施例的技术方案,通过获取待应答问题和预设数据,该预设数据包括根据预设问答知识库和预设意图词数据构造的字典树,由此,针对每个待应答问题,可以先对其进行分词,并根据预设意图词数据从分词结果中筛选出待应答意图词,该待应答意图词是属于预设意图词数据中的分词结果;在将待应答意图词输入至字典树后,可以根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。上述技术方案,基于可以直接加载在内存中的字典树实现待应答问题和待匹配问题的初步匹配,提高了问题匹配性能,并且由于匹配过程未涉及到第三方服务器,无需进行待更新数据的推送,从而避免了因待更新数据推送失败而造成的应答失败的问题,达到了提高智能应答系统的稳定性和问题匹配效率的效果。
附图说明
图1是本发明实施例一中的一种应答方法的流程图;
图2是本发明实施例一中的一种应答方法中字典树的示意图;
图3是本发明实施例二中的一种应答方法的流程图;
图4a是本发明实施例二中的一种应答方法的优选实施例的结构框图;
图4b是本发明实施例二中的一种应答方法的优选实施例的流程图;
图5是本发明实施例三中的一种应答装置的结构框图;
图6是本发明实施例四中的一种服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在介绍本发明实施例之前,先对本发明实施例的应用场景进行示例性说明。预设问答知识库可以通过如下方案预先生成:客服团队根据现有的业务问题和用户常问业务问题形成标准问题、业务分类(即,意图分类结果)和对应的应答答案后,从智能应答系统的历史应答问题中清洗过滤出与标准问题相关的问题,并将这一问题作为标准问题的扩展问题,当然,也可以从其余途径生成扩展问题;然后,根据标准问题、扩展问题与应答答案以及它们间的映射关系生成预设问答知识库,例如,表一是预设问答知识库中的两个例子。
在此基础上,现有技术中的一种基于ElasticSearch的应答方法的流程如表二所示。但是,正如背景技术所言,基于ElasticSearch从预设问答知识库中匹配出初步匹配问题时,容易出现问题匹配性能较差以及因待更新数据推送失败而造成的应答失败的情况。由此,发明人对此进行分析研究,提出了下述各实施例所述的应答方法。
表一预设问答知识库的示例
表二现有技术中的应答流程
实施例一
图1是本发明实施例一中提供的一种应答方法的流程图。本实施例可适用于对待应答问题进行应答的情况,尤其适用于从预设问答知识库中匹配出与待应答问题的意图较为相似的第一初步匹配问题的情况。该方法可以由本发明实施例提供的应答装置来执行,该装置可以由软件和/或硬件的方式实现,该装置可以集成在各种用户终端或服务器上。
参见图1,本发明实施例的方法具体包括如下步骤:
S110、获取待应答问题和预设数据,其中,预设数据包括字典树,字典树是根据预设问答知识库和预设意图词数据构造的,预设问答知识库包括多个待匹配问题,预设意图词数据包括历史应答问题中的目标意图词。
其中,获取待应答问题和预设数据,待应答问题可以是用户提出的待应答的问题,预设数据可以是预先设置的数据,比如字典树、预设映射数据等等。字典树,也称为单词查找树、Trie树等等,是一种哈希树变种后的树形结构,其可利用字符串的公共前缀来减少查询时间,最大限度地减少无谓的字符串比较,且因查询时间的复杂度只与字典树的高度有关,与查询数据量级无关,查询效率非常高。字典树可根据预设问答知识库和预设意图词数据预先构造得到,比如,可以先对待匹配问题进行分词,根据分词结果和预设意图词数据得到每个待匹配问题的待匹配意图词;然后,根据待匹配问题和待匹配意图词间的映射关系构造出字典树。
示例性的,如表三和图2所示,表三是预设问答知识库中待匹配问题和待匹配意图词间的映射关系,待匹配问题可以是标准问题和/或扩展问题,比如,“我要修改订单”可以是标准问题,“修改一下订单”可以是“我要修改订单”的扩展问题,它们对应相同的待匹配意图词和待匹配意图分类结果。由此,根据表三即可构造出如图2所示的字典树(Trie树),字典树中的每个节点是待匹配意图词,有些节点对应着待匹配问题,这些节点对应的待匹配问题即为根据字典树匹配出的第一初步匹配问题。由此,在字典树中,可以根据待匹配意图词匹配到对应的待匹配问题。
表三待匹配问题和待匹配意图词间的映射关系
S120、对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词。
其中,对待应答问题进行分词,比如,可以对待应答问题进行结巴(j ieba)分词、盘古分词、Yaha分词、清华THULAC等等。进而,根据预设意图词数据,可以从分词结果中筛选出待应答意图词,这是因为,预设意图词数据中包括多个目标意图词,若某个分词结果是预设意图词数据中的目标意图词,则可将这一分词结果作为待应答意图词。每个待匹配问题的待应答意图词的数量可以是一个或多个,比如,若待应答问题是“电话不对,我想修改一下订单电话”,则待应答意图词为“修改,订单,电话”。
S130、将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。
其中,字典树可以呈现出待匹配问题和待匹配意图词间的映射关系,由此,当将待匹配问题的待应答意图词输入至字典树后,待应答意图和字典树的各节点可依次进行匹配,根据字典树输出的匹配结果,可以从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题,这第一初步匹配问题即为字典树中与待应答意图词对应的结束节点的问题列表。
示例性的,以待应答问题是“电话不对,我想修改一下订单电话”为例,其待应答意图词为“修改,订单,电话”,根据图2所示的字典树可知,与待应答意图词对应的结束节点是“电话”,由此,结束节点的问题列表即第一初步匹配问题是“我要修改订单电话”和“怎么修改订单电话”。
需要说明的是,上述发明中的一个实施例具有如下优点或有益效果:通过预先构造的字典树实现待匹配问题的初步过滤,其涉及到的各种数据比如预设数据、字典树、预设问答知识库、预设意图词数据等等,均可以预先存储于服务器中,这服务器可以是用于执行本发明实施例所述的应答方法的服务器,由此,这些存储于服务器中的数据可以直接加载到内存中,无需推送到第三方服务器中,那么,预设问答知识库中的已更新数据也是可以直接加载到内存中的,已更新数据的推送环节的取消解决了因待更新数据推送失败而造成的应答失败地问题,这可提高智能应答系统的稳定性。在此基础上,由于本发明实施例所述的应答方法可以在服务器的内存中直接执行,其执行过程无需涉及到第三方服务器,这可提高问题匹配性能和效率。
本发明实施例的技术方案,通过获取待应答问题和预设数据,这预设数据包括根据预设问答知识库和预设意图词数据构造的字典树,由此,针对每个待应答问题,可以先对其进行分词,并根据预设意图词数据从分词结果中筛选出待应答意图词,该待应答意图词是属于预设意图词数据中的分词结果;在将待应答意图词输入至字典树后,可以根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。上述技术方案,基于可以直接加载在内存中的字典树实现待应答问题和待匹配问题的初步匹配,提高了问题匹配性能,并且由于匹配过程未涉及到第三方服务器,无需进行待更新数据的推送,从而避免了因待更新数据推送失败而造成的应答失败的问题,达到了提高智能应答系统的稳定性和问题匹配效率的效果。
在此基础上,可选的,可以将待应答问题和各第一初步匹配问题输入至深度语义匹配模型中,这深度语义匹配模型可以是Bi-LSTM+DSSM模型,分别计算待应答问题和每个第一初步匹配问题的语义相似度,并对语义相似度进行排序,以便从第一初步匹配问题中筛选出第一目标匹配问题,比如,将语义相似度最大的第一初步匹配问题作为第一目标匹配问题,且这第一目标匹配问题的语义相似度可以大于第一预设语义相似度阈值。当然,如果第一目标匹配问题的语义相似度小于等于第一语义预设相似度阈值,则可以不返回第一目标匹配问题。在此基础上,若存在第一目标匹配问题,则可以将预设问答知识库中第一目标匹配问题的第一目标应答答案,作为待应答问题的应答答案;否则,可以返回空,即智能应答系统未搜索到与待应答问题对应的应答答案。
示例性的,继续以上述例子为例,如表四所示,当第一初步匹配问题是“我要修改订单电话”和“怎么修改订单电话”时,经由Bi-LSTM+DSSM模型语义相似度排序后得出的第一目标匹配问题可以是“我要修改订单电话”,其中,0.9可以是待应答问题和第一目标匹配问题间的语义相似度。
表四第一目标匹配问题的匹配示例
需要说明的是,基于字典树匹配出的第一初步匹配问题可以避免在ElasticSearch中经常出现的多个第一初步匹配问题的半句意图相似度过高的情况,当将相似度过高的多个第一初步匹配问题输入到深度语义匹配模型后,容易出现语义匹配错误的情况。示例性的,若待应答问题是“我要改一下订单”,基于ElasticSearch很可能匹配出“我要修改订单地址”、“修改一下订单地址”“修改一下订单”和“我要修改订单”,但基于字典树则只会匹配出“我要修改订单”和“修改一下订单”,这是因为待应答问题的待应答意图词是“修改,订单”,其在字典树中不会匹配出待应答意图词是“修改,订单,地址”的“我要修改订单地址”和“修改一下订单地址”。即,第一初步匹配问题的精准匹配方能保证第一目标匹配问题的精准匹配。
一种可选的技术方案,目标意图词可以通过如下步骤预先得到:对历史应答问题进行分词,计算出各分词结果的意图相关度,并根据意图相关度从各分词结果中筛选出目标意图词,比如,可以将意图相关度大于预设意图相关度阈值的分词结果作为目标意图词。需要说明的是,这历史应答问题可以是从智能应答系统的线上会话语料中筛选出的用户语料,尤其是存在意图的用户语料。历史应答问题是否存在意图以及存在什么意图,可通过预设意图分类模型预先得到,这预设意图分类模型可以是卷积神经网络(ConvolutionalNeural Networks,CNN)模型、循环神经网络(Recurrent Neural Networks,RNN)模型等等。在此基础上,可以生成分类统计表,如表五所示,这分类统计表可以呈现出分词结果和与其对应的意图分类结果间的映射关系,其可以用于计算出各分词结果的意图相关度。而且,在得到目标意图词后,可将目标意图词放入意图词词表中,如表六所示。
表五分类统计表
表六历史应答问题和意图词词表
在此基础上,可选的,计算出各分词结果中的当前分词结果w的意图相关度,具体可以包括:获取历史应答问题的总量Total、各历史应答问题中w出现的次数WordTotal(w)(WordTotal(w)可能是0、1、2…)、包含w的历史应答问题的数量Letter(w)、包含w且存在意图的历史应答问题的数量Itent(w),这些数据可以通过分类统计表得到,也可以通过其余方式得到,在此未做具体限定;根据Total、WordTotal(w)、Letter(w)和Itent(w),计算出w的意图相关度,比如,可以通过如下式子计算出w的意图相关度IntentRelation(w):IntentRelation(w)=InFo(w)*ItentWeight(w);其中,InFo(w)是w的信息量,其可以呈现出对不确定性的缩小程度,InFo(w)=lg(Total/Letter(w));ItentWeight(w)是w的意图权值,ItentWeight(w)=WordTotal(w)/Itent(w)*lg(Itent(w))。
实施例二
图3是本发明实施例二中提供的一种应答方法的流程图。本实施例以上述各技术方案为基础进行优化。在本实施例中,可选的,预设数据还可以包括预设映射数据,预设映射数据包括待匹配问题、待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系;在此基础上,上述应答方法,具体还可以包括:基于预设映射数据和待应答意图词,从各待匹配意图分类结果中筛选出已匹配意图分类结果;根据待应答意图词和已匹配意图分类结果,分别计算出待应答问题和各已匹配意图分类结果的相关性,并根据相关性从各已匹配意图分类结果中筛选出目标意图分类结果;根据预设映射数据,从多个待匹配问题中筛选出与目标意图分类结果对应的第二初步匹配问题。其中,与上述各实施例相同或相应的术语的解释在此不再赘述。
参见图3,本实施例的方法具体可以包括如下步骤:
S210、获取待应答问题和预设数据,其中,预设数据包括字典树,字典树是根据预设问答知识库和预设意图词数据构造的,预设问答知识库包括多个待匹配问题,预设意图词数据包括历史应答问题中的目标意图词。
S220、对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词。
S230、将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。
S240、基于预设映射数据和待应答意图词,从各待匹配意图分类结果中筛选出已匹配意图分类结果,其中,预设映射数据包括待匹配问题、待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系。
其中,基于字典树从多个待匹配问题中筛选出的第一初步匹配问题可能会出现漏识别的情况,比如,待应答问题是“我把配送的门牌号写错了”,但是,若“门牌号”在历史应答问题中未出现过,即字典树中未存在“门牌号”这个节点,这就可能导致基于字典树匹配出的第一初步匹配问题可能会漏掉与“门牌号”相关的待匹配问题,这一漏识别问题通常是出现在待应答问题是一种未出现过的新的表述方式的情况下。
为解决这一漏识别问题,在基于字典树匹配出第一初步匹配问题的同时,还可以基于整句意图相似度从多个待匹配问题中匹配出第二初步匹配问题,以兜回字典树匹配时漏识别的待匹配问题。
具体的,获取预设映射数据,预设映射数据可以通过如下步骤预先得到:对待匹配问题进行分词,根据分词结果和预设意图词数据得到待匹配问题的待匹配意图词,即,将属于预设意图词数据中的分词结果作为待匹配意图词;将待匹配问题输入至预设意图分类模型中,得到待匹配问题的待匹配意图分类结果,由此得到待匹配问题、待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系。然后,可基于预设映射数据从各待匹配意图分类结果中筛选出与待应答意图词对应的已匹配意图分类结果。
S250、根据待应答意图词和已匹配意图分类结果,分别计算出待应答问题和各已匹配意图分类结果的相关性,并根据相关性从各已匹配意图分类结果中筛选出目标意图分类结果。
其中,根据待应答意图词和已匹配意图分类结果,分别计算出待应答问题和各已匹配意图分类结果的相关性,示例性的,若待匹配问题包括标准问题和扩展问题,则可以通过如下步骤计算出待应答问题和各已匹配意图分类结果的相关性:获取包含待应答意图词W且意图为各已匹配意图分类结果中的当前意图分类结果m的待匹配问题的数量WordToIntent(W,m)、包含W的待匹配问题的数量Letter(W)、意图为m的待匹配问题的数量Itent(m)、待匹配问题L中目标意图词的数量IntentWord(L)、意图为m的标准问题的数量StandardQuestion(m)和待应答问题CurrenQuestion;根据WordToIntent(W,m)、Letter(W)、Itent(m)、IntentWord(L)、StandardQuestion(m)和CurrenQuestion,计算出CurrenQuestion和m的相关性F(m),即意图m的待应答问题的相关性F(m)。比如,可以通过如下式子计算出F(m):F(m)=(Letter(W)/WordToIntent(W,m))*lg(Intent(m))*E(m),其中,E(m)是m的意图词系数,E(m)=1-|IntentWord(StandardQuestion(m))-IntentWord(CurrenQuestion)|*log100(IntentWord(StandardQuestion(m)))。若CurrenQuestion中的待应答意图词的数量是至少两个(W1、W2…WN),则可以通过如下式子计算出F(m): 其中,N是CurrenQuestion中的待应答意图词的总个数,N是大于1的整数。示例性的,若CurrenQuestion中的待应答意图词的数量是3个(W1、W2、W3),则N=3,且
当分别计算出待应答问题和每个已匹配意图分类结果的相关性后,可以根据相关性从各已匹配意图分类结果中筛选出目标意图分类结果,比如,将相关性最高的已匹配意图分类结果作为目标意图分类结果,这目标意图分类结果是与待应答问题的真实意图最为相似的意图分类结果。
S260、根据预设映射数据,从多个待匹配问题中筛选出与目标意图分类结果对应的第二初步匹配问题,这第二初步匹配问题的数量可以是至少一个。
本发明实施例的技术方案,基于预设映射数据,可以从各待匹配意图分类结果中筛选出与待应答意图词对应的已匹配意图分类结果;分别计算出待应答问题和各已匹配意图分类结果的相关性,并根据相关性从各已匹配意图分类结果中筛选出目标意图分类结果,这目标意图分类结果是与待应答问题的真实意图最为相似的意图分类结果;由此,可根据预设映射数据,从多个待匹配问题中筛选出与目标意图分类结果对应的第二初步匹配问题。上述技术方案,可以基于待应答问题的整句意图相似度,从多个待匹配问题中匹配出意图较为相似的第二初步匹配问题,由此兜回了在字典树匹配时漏识别的待匹配问题,这第二初步匹配问题多是还未进入字典树的新语料。
在此基础上,可选的,可以将待应答问题和各个第二初步匹配问题输入至深度语义匹配模型中进行语义相似度排序,以便从第二初步匹配问题中筛选出第二目标匹配问题,比如,将语义相似度最大的第二初步匹配问题作为第二目标匹配问题,且这第二目标匹配问题的语义相似度可以大于第二预设语义相似度阈值。当然,如果第二目标匹配问题的语义相似度小于等于第二预设语义相似度阈值,则可以不返回第二目标匹配问题。
示例性的,如表七所示,待应答问题是“开了个发票,结果发现地址不对,我想修正一下”,待应答意图词是“发票,地址”,已匹配意图分类结果是“修改放票”和“修改发票地址”,且“修改放票”的相关性是0.72,“修改发票地址”的相关性是0.88,由此,可将“修改发票地址”作为目标意图分类结果,由此,可在预设映射数据中确定出与“修改发票地址”对应的第二初步匹配问题,然后确定出第二目标匹配问题,第二目标匹配问题的确定过程与第一目标匹配问题类似,在此不再赘述,其中,0.8可以是待应答问题和第二目标匹配问题间的语义相似度。
表七第二目标匹配问题的匹配示例
在此基础上,可选的,若第一目标匹配问题和第二目标匹配问题均有返回,则可将二者中相似度最高的目标匹配问题的目标应答答案作为待应答问题的应答答案,当然,若二者相似度相同,则可以将第一目标匹配问题的目标应答答案作为待应答问题的应答答案;若第一目标匹配问题和第二目标匹配问题只返回了一个目标匹配问题,则可以将已返回的目标匹配问题作为待应答问题的应答答案;若第一目标匹配问题和第二目标匹配问题均未返回,则可以将“空”作为待应答问题的应答答案。
为了更好地理解上述步骤的具体实现过程,下面结合具体示例,对本实施例的应答方法进行示例性的说明。示例性的,如图4a和图4b所示,数据初始化模块可根据线上用户问题(即,历史应答问题)和预设问答知识库预先生成Trie树、意图词词表(即,预设意图词数据)、分类统计表和预设映射数据等等(图4a和图4b中虚线所示),匹配模块可根据数据初始化结果匹配出待应答问题的应答答案(图4a和图4b中实线所示)。
具体的,当用户提出待应答问题后,可通过NLU识别出用户意图,由此判断是否进入QABot应答,若是则对待应答问题进行jieba分词,根据分词结果和意图词词表确定出待应答问题的待应答意图词,由此,基于待应答意图词通过Trie树匹配出第一初步匹配问题,且通过整句意图相似度匹配出第二初步匹配问题,将待应答问题、第一初步匹配问题和第二初步匹配问题输入至BI-LSTM+DSSM模型中,结合预设问答知识库可得到待应答问题的应答答案。本发明实施例的技术方案,基于Trie树匹配和整句意图相似度匹配的方式,替换低效且不稳定的ElasticSearch匹配,解决了漏匹配和错匹配的问题,提高了匹配效率和准确率、以及智能应答系统的稳定性。
实施例三
图5为本发明实施例三提供的应答装置的结构框图,该装置用于执行上述任意实施例所提供的应答方法。该装置与上述各实施例的应答方法属于同一个发明构思,在应答装置的实施例中未详尽描述的细节内容,可以参考上述应答方法的实施例。参见图5,该装置具体可包括:获取模块310、分词模块320和筛选模块330。
其中,获取模块310,用于获取待应答问题和预设数据,预设数据包括字典树,字典树是根据预设问答知识库和预设意图词数据构造的,预设问答知识库包括多个待匹配问题,预设意图词数据包括历史应答问题中的目标意图词;
分词模块320,用于对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词;
筛选模块330,用于将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。
可选的,在上述装置的基础上,预设数据还包括预设映射数据,预设映射数据包括待匹配问题、待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系;该装置还可包括:
已匹配意图分类结果筛选模块,用于基于预设映射数据和待应答意图词,从各待匹配意图分类结果中筛选出已匹配意图分类结果;
目标意图分类结果筛选模块,用于根据待应答意图词和已匹配意图分类结果,分别计算出待应答问题和各已匹配意图分类结果的相关性,并根据相关性从各已匹配意图分类结果中筛选出目标意图分类结果;
第二初步匹配问题筛选模块,用于根据预设映射数据,从多个待匹配问题中筛选出与目标意图分类结果对应的第二初步匹配问题。
可选的,在上述装置的基础上,预设问答知识库还包括每个待匹配问题的待匹配应答答案;该装置还可包括:
相似度得到模块,用于将待应答问题、各第一初步匹配问题和各第二初步匹配问题输入至深度语义匹配模型中,根据深度语义匹配模型的输出结果,分别得到待应答问题与各第一初步匹配问题间的第一相似度、以及待应答问题与各第二初步匹配问题间的第二相似度;
目标匹配问题筛选模块,用于根据第一相似度从各个第一初步匹配问题中筛选出第一目标匹配问题,并根据第二相似度从各个第二初步匹配问题中筛选出第二目标匹配问题;
目标应答答案筛选模块,用于从第一目标匹配问题和第二目标匹配问题中筛选出相似度最高的目标匹配问题,从多个待匹配应答答案中,筛选出目标匹配问题的目标应答答案,并将目标应答答案作为待应答问题的应答答案。
可选的,在上述装置的基础上,该装置还可包括:
目标意图词得到模块,用于对历史应答问题进行分词,计算出各分词结果的意图相关度,并根据意图相关度从各分词结果中筛选出目标意图词。
可选的,目标意图词得到模块,具体可以包括:
第一获取单元,用于获取历史应答问题的总量Total、各历史应答问题中w出现的次数WordTotal(w)、包含w的历史应答问题的数量Letter(w)、包含w且存在意图的历史应答问题的数量Itent(w);
意图相关度计算单元,用于根据Total、WordTotal(w)、Letter(w)和Itent(w),计算出w的意图相关度。
可选的,意图相关度计算单元,具体可以用于:通过如下式子计算出w的意图相关度IntentRelation(w):IntentRelation(w)=InFo(w)*ItentWeight(w);其中,InFo(w)=lg(Total/Letter(w)),ItentWeight(w)=WordTotal(w)/Itent(w)*lg(Itent(w))。
可选的,在上述装置的基础上,待匹配问题包括标准问题和扩展问题,目标意图分类结果筛选模块,具体可以包括:
第二获取单元,用于获取包含待应答意图词W且意图为各已匹配意图分类结果中的当前意图分类结果m的待匹配问题的数量WordToIntent(W,m)、包含W的待匹配问题的数量Letter(W)、意图为m的待匹配问题的数量Itent(m)、待匹配问题L中目标意图词的数量IntentWord(L)、意图为m的标准问题的数量StandardQuestion(m)和待应答问题CurrenQuestion;
相关性计算单元,用于根据WordToIntent(W,m)、Letter(W)、Itent(m)、IntentWord(L)、StandardQuestion(m)和CurrenQuestion,计算出CurrenQuestion和m的相关性。
可选的,相关性计算单元,具体可以用于:通过如下式子计算出CurrenQuestion和m的相关性F(m):
F(m)=(Letter(W)/WordToIntent(W,m))*lg(Intent(m))*E(m);其中,E(m)=1-|IntentWord(StandardQuestion(m))-IntentWord(CurrenQuestion)|*
log100(IntentWord(StandardQuestion(m)))。
可选的,若CurrenQuestion包括待应答意图词W1、W2…WN,则 其中,N是CurrenQuestion中的所述待应答意图词的总个数,N是大于1的整数。
本发明实施例三提供的应答装置,通过获取模块获取待应答问题和预设数据,这预设数据包括根据预设问答知识库和预设意图词数据构造的字典树;针对每个待应答问题,分词模块先对其进行分词,并根据预设意图词数据从分词结果中筛选出待应答意图词,该待应答意图词是属于预设意图词数据中的分词结果;筛选模块在将待应答意图词输入至字典树后,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。上述装置,基于可以直接加载在内存中的字典树实现待应答问题和待匹配问题的初步匹配,提高了问题匹配性能,并且由于匹配过程未涉及到第三方服务器,无需进行待更新数据的推送,从而避免了因待更新数据推送失败而造成的应答失败的问题,达到了提高智能应答系统的稳定性和问题匹配效率的效果。
本发明实施例所提供的应答装置可执行本发明任意实施例所提供的应答方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述应答装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
实施例四
图6为本发明实施例四提供的一种服务器的结构示意图,如图6所示,该服务器包括存储器410、处理器420、输入装置430和输出装置440。服务器中的处理器420的数量可以是一个或多个,图6中以一个处理器420为例;服务器中的存储器410、处理器420、输入装置430和输出装置440可以通过总线或其它方式连接,图6中以通过总线450连接为例。
存储器410作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的应答方法对应的程序指令/模块(例如,应答装置中的获取模块310、分词模块320和筛选模块330)。处理器420通过运行存储在存储器410中的软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述的应答方法。
存储器410可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器410可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器410可进一步包括相对于处理器420远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可用于接收输入的数字或字符信息,以及产生与装置的用户设置以及功能控制有关的键信号输入。输出装置440可包括显示屏等显示设备。
实施例五
本发明实施例五提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种应答方法,该方法包括:
获取待应答问题和预设数据,其中,预设数据包括字典树,字典树是根据预设问答知识库和预设意图词数据构造的,预设问答知识库包括多个待匹配问题,预设意图词数据包括历史应答问题中的目标意图词;
对待应答问题进行分词,并根据预设意图词数据,从分词结果中筛选出待应答意图词;
将待应答意图词输入至字典树中,根据字典树的输出结果,从多个待匹配问题中筛选出待应答意图词对应的第一初步匹配问题。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的应答方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。依据这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (11)

1.一种应答方法,其特征在于,包括:
获取待应答问题和预设数据,其中,所述预设数据包括字典树,所述字典树是根据预设问答知识库和预设意图词数据构造的,所述预设问答知识库包括多个待匹配问题,所述预设意图词数据包括历史应答问题中的目标意图词;
对所述待应答问题进行分词,并根据所述预设意图词数据,从分词结果中筛选出待应答意图词;
将所述待应答意图词输入至所述字典树中,根据所述字典树的输出结果,从多个所述待匹配问题中筛选出所述待应答意图词对应的第一初步匹配问题;
其中,所述预设数据还包括预设映射数据,所述预设映射数据包括所述待匹配问题、所述待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系;所述方法还包括:
基于所述预设映射数据和所述待应答意图词,从各所述待匹配意图分类结果中筛选出已匹配意图分类结果;
根据所述待应答意图词和所述已匹配意图分类结果,分别计算出所述待应答问题和各所述已匹配意图分类结果的相关性,并根据所述相关性从各所述已匹配意图分类结果中筛选出目标意图分类结果;
根据所述预设映射数据,从多个所述待匹配问题中筛选出与所述目标意图分类结果对应的第二初步匹配问题;
根据所述第一初步匹配问题和所述第二初步匹配问题,得到目标匹配问题。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一初步匹配问题和所述第二初步匹配问题,得到目标匹配问题,包括:
将所述待应答问题、各所述第一初步匹配问题和各所述第二初步匹配问题输入至深度语义匹配模型中,根据所述深度语义匹配模型的输出结果,分别得到所述待应答问题与各所述第一初步匹配问题间的第一相似度、以及所述待应答问题与各所述第二初步匹配问题间的第二相似度;
根据所述第一相似度从各个所述第一初步匹配问题中筛选出第一目标匹配问题,并根据所述第二相似度从各个所述第二初步匹配问题中筛选出第二目标匹配问题;
从所述第一目标匹配问题和所述第二目标匹配问题中筛选出相似度最高的目标匹配问题;
所述预设问答知识库还包括每个所述待匹配问题的待匹配应答答案,所述方法还包括:
从多个所述待匹配应答答案中,筛选出所述目标匹配问题的目标应答答案,并将所述目标应答答案作为所述待应答问题的应答答案。
3.根据权利要求1所述的方法,其特征在于,所述目标意图词通过如下步骤预先得到:
对所述历史应答问题进行分词,计算出各分词结果的意图相关度,并根据所述意图相关度从各所述分词结果中筛选出所述目标意图词。
4.根据权利要求3所述的方法,其特征在于,所述计算出各分词结果中的当前分词结果w的意图相关度,包括:
获取所述历史应答问题的总量Total、各所述历史应答问题中w出现的次数WordTotal(w)、包含w的所述历史应答问题的数量Letter(w)、包含w且存在意图的所述历史应答问题的数量Itent(w);
根据Total、WordTotal(w)、Letter(w)和Itent(w),计算出w的意图相关度。
5.根据权利要求4所述的方法,其特征在于,所述根据Total、WordTotal(w)、Letter(w)和Itent(w),计算出w的意图相关度,包括:
通过如下式子计算出w的意图相关度IntentRelation(w):
IntentRelation(w)=InFo(w)*ItentWeight(w);其中,
InFo(w)=lg(Total/Letter(w)),
ItentWeight(w)=WordTotal(w)/Itent(w)*lg(Itent(w))。
6.根据权利要求1所述的方法,其特征在于,所述待匹配问题包括标准问题和扩展问题;所述根据所述待应答意图词和所述已匹配意图分类结果,分别计算出所述待应答问题和各所述已匹配意图分类结果的相关性,包括:
获取包含所述待应答意图词W且意图为各所述已匹配意图分类结果中的当前意图分类结果m的所述待匹配问题的数量WordToIntent(W,m)、包含W的所述待匹配问题的数量Letter(W)、意图为m的所述待匹配问题的数量Itent(m)、所述待匹配问题L中所述目标意图词的数量IntentWord(L)、意图为m的所述标准问题的数量StandardQuestion(m)和所述待应答问题CurrenQuestion;
根据WordToIntent(W,m)、Letter(W)、Itent(m)、IntentWord(L)、StandardQuestion(m)和CurrenQuestion,计算出CurrenQuestion和m的相关性。
7.根据权利要求6所述的方法,其特征在于,所述根据WordToIntent(W,m)、Letter(W)、Itent(m)、IntentWord(L)、StandardQuestion(m)和CurrenQuestion,计算出CurrenQuestion和m的相关性,包括:
通过如下式子计算出CurrenQuestion和m的相关性F(m):
F(m)=(Letter(W)/WordToIntent(W,m))*lg(Itent(m))*E(m);其中,
E(m)=1-|IntentWord(StandardQuestion(m))-IntentWord(CurrenQuestion)|*
log100(IntentWord(StandardQuestion(m)))。
8.根据权利要求7所述的方法,其特征在于,若CurrenQuestion包括所述待应答意图词W1、W2…WN,则其中,N是CurrenQuestion中的所述待应答意图词的总个数,N是大于1的整数。
9.一种应答装置,其特征在于,包括:
获取模块,用于获取待应答问题和预设数据,其中,所述预设数据包括字典树,所述字典树是根据预设问答知识库和预设意图词数据构造的,所述预设问答知识库包括多个待匹配问题,所述预设意图词数据包括历史应答问题中的目标意图词;
分词模块,用于对所述待应答问题进行分词,并根据所述预设意图词数据,从分词结果中筛选出待应答意图词;
筛选模块,用于将所述待应答意图词输入至所述字典树中,根据所述字典树的输出结果,从多个所述待匹配问题中筛选出所述待应答意图词对应的第一初步匹配问题;
其中,所述预设数据还包括预设映射数据,所述预设映射数据包括所述待匹配问题、所述待匹配问题中的待匹配意图词和待匹配意图分类结果间的映射关系;所述装置还包括:
已匹配意图分类结果筛选模块,用于基于所述预设映射数据和所述待应答意图词,从各所述待匹配意图分类结果中筛选出已匹配意图分类结果;
目标意图分类结果筛选模块,用于根据所述待应答意图词和所述已匹配意图分类结果,分别计算所述待应答问题和各所述已匹配意图分类结果的相关性,并根据所述相关性从各所述已匹配意图分类结果中筛选出目标意图分类结果;
第二初步匹配问题筛选模块,用于根据所述预设映射数据,从多个所述待匹配问题中筛选出与所述目标意图分类结果对应的第二初步匹配问题,并根据所述第一初步匹配问题和所述第二初步匹配问题,得到目标匹配问题。
10.一种服务器,其特征在于,所述服务器包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的应答方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8中任一所述的应答方法。
CN202010130499.3A 2020-02-28 2020-02-28 一种应答方法、装置、服务器及存储介质 Active CN111737425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010130499.3A CN111737425B (zh) 2020-02-28 2020-02-28 一种应答方法、装置、服务器及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010130499.3A CN111737425B (zh) 2020-02-28 2020-02-28 一种应答方法、装置、服务器及存储介质

Publications (2)

Publication Number Publication Date
CN111737425A CN111737425A (zh) 2020-10-02
CN111737425B true CN111737425B (zh) 2024-03-01

Family

ID=72646306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010130499.3A Active CN111737425B (zh) 2020-02-28 2020-02-28 一种应答方法、装置、服务器及存储介质

Country Status (1)

Country Link
CN (1) CN111737425B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112182190A (zh) * 2020-10-13 2021-01-05 深圳壹账通智能科技有限公司 智能问答方法、装置、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104462552A (zh) * 2014-12-25 2015-03-25 北京奇虎科技有限公司 问答页面核心词提取方法和装置
CN104516986A (zh) * 2015-01-16 2015-04-15 青岛理工大学 一种语句识别方法及装置
WO2015062482A1 (en) * 2013-11-01 2015-05-07 Tencent Technology (Shenzhen) Company Limited System and method for automatic question answering
CN105868313A (zh) * 2016-03-25 2016-08-17 浙江大学 一种基于模板匹配技术的知识图谱问答系统及方法
CN106599278A (zh) * 2016-12-23 2017-04-26 北京奇虎科技有限公司 应用搜索意图的识别方法及装置
CN107092602A (zh) * 2016-02-18 2017-08-25 朗新科技股份有限公司 一种自动应答方法及系统
CN109670163A (zh) * 2017-10-17 2019-04-23 阿里巴巴集团控股有限公司 信息识别方法、信息推荐方法、模板构建方法及计算设备
CN110390006A (zh) * 2019-07-23 2019-10-29 腾讯科技(深圳)有限公司 问答语料生成方法、装置和计算机可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803479B2 (en) * 2015-01-23 2020-10-13 Conversica, Inc. Systems and methods for management of automated dynamic messaging
US20190164064A1 (en) * 2017-11-27 2019-05-30 Shanghai Xiaoi Robot Technology Co., Ltd. Question and answer interaction method and device, and computer readable storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015062482A1 (en) * 2013-11-01 2015-05-07 Tencent Technology (Shenzhen) Company Limited System and method for automatic question answering
CN104462552A (zh) * 2014-12-25 2015-03-25 北京奇虎科技有限公司 问答页面核心词提取方法和装置
CN104516986A (zh) * 2015-01-16 2015-04-15 青岛理工大学 一种语句识别方法及装置
CN107092602A (zh) * 2016-02-18 2017-08-25 朗新科技股份有限公司 一种自动应答方法及系统
CN105868313A (zh) * 2016-03-25 2016-08-17 浙江大学 一种基于模板匹配技术的知识图谱问答系统及方法
CN106599278A (zh) * 2016-12-23 2017-04-26 北京奇虎科技有限公司 应用搜索意图的识别方法及装置
CN109670163A (zh) * 2017-10-17 2019-04-23 阿里巴巴集团控股有限公司 信息识别方法、信息推荐方法、模板构建方法及计算设备
CN110390006A (zh) * 2019-07-23 2019-10-29 腾讯科技(深圳)有限公司 问答语料生成方法、装置和计算机可读存储介质

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
Designing questionnaires: healthcare survey to compare two different response scales;Salome Dell-Kuster, Esteban Sanjuan,Atanas Todorov,Heidemarie Weber, Michael Heberer,Rachel Rosenthal;BMC Medical Research Methodology;第[1-13]页 *
Qiang Huang ; Jianhui Bu ; Weijian Xie ; Shengwen Yang ; Weijia Wu ; Liping Liu.Multi-task Sentence Encoding Model for Semantic Retrieval in Question Answering Systems.2019 International Joint Conference on Neural Networks (IJCNN).2019,第[1-8]页. *
Shital E. Kharche ; Ravi V. Mante.An Efficient Way of Answering the Questions Asked on Social Sites by Understanding User Intent. 2017 International Conference on Recent Trends in Electrical, Electronics and Computing Technologies (ICRTEECT).2017,第[159-163]页. *
基于主题的查询意图识别研究;宋巍;中国博士学位论文全文数据库 (信息科技辑);第[I138-77]页 *
基于众包问答信息的API使用代码搜索;李宇琨;彭鑫;赵文耘;;计算机应用与软件(第07期);第[43-51]页 *
基于带约束语义文法的领域相关自然语言理解方法;王东升;王石;王卫民;符建辉;诸峰;;中文信息学报(第02期);第[38-49]页 *
基于自动生成知识库的智能问答系统设计;王飞鸿;;中国科技信息(第12期);第[50-52]页 *
改进的多模型融合技术在客服问答系统上的应用;王广敏,王尧枫;人工智能技术与应用(第12期);第[110-116]页 *
本体上下位关系在招生问答机器人中的应用研究;余昕聪;李红莲;吕学强;;现代图书情报技术(第12期);第[65-71]页 *
融合FAQ 的任务型对话系统设计;李响, 张磊, 刘媛媛;信息工程大学学报;第20卷(第4期);第[473-479]页 *

Also Published As

Publication number Publication date
CN111737425A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
CN109670163B (zh) 信息识别方法、信息推荐方法、模板构建方法及计算设备
US10545956B2 (en) Natural language search with semantic mapping and classification
CN110222045B (zh) 一种数据报表获取方法、装置及计算机设备、存储介质
CN110717034A (zh) 一种本体构建方法及装置
US20160283463A1 (en) Context based conversation system
CN112800170A (zh) 问题的匹配方法及装置、问题的回复方法及装置
US10326863B2 (en) Speed and accuracy of computers when resolving client queries by using graph database model
CN111597314A (zh) 推理问答方法、装置以及设备
US20180113950A1 (en) Queryng graph topologies
CN110347810B (zh) 对话式检索回答方法、装置、计算机设备及存储介质
CN112115232A (zh) 一种数据纠错方法、装置及服务器
US9720982B2 (en) Method and apparatus for natural language search for variables
CN112559709A (zh) 基于知识图谱的问答方法、装置、终端以及存储介质
CN112507139B (zh) 基于知识图谱的问答方法、系统、设备及存储介质
CN110019305B (zh) 知识库扩展方法及存储介质、终端
CN112650833A (zh) Api匹配模型建立方法及跨城市政务api匹配方法
CN111737425B (zh) 一种应答方法、装置、服务器及存储介质
CN113254671B (zh) 基于query分析的图谱优化方法、装置、设备及介质
WO2021253938A1 (zh) 一种神经网络的训练方法、视频识别方法及装置
US11210462B1 (en) Voice input processing
CN112486947A (zh) 一种知识库构建方法、装置、电子设备及可读存储介质
CN110175241B (zh) 问答库构建方法、装置、电子设备及计算机可读介质
CN110222156B (zh) 发现实体的方法和装置、电子设备、计算机可读介质
CN112597287A (zh) 一种语句处理方法、语句处理装置及智能设备
CN110851560B (zh) 信息检索方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210525

Address after: 100176 room 1004, 10th floor, building 1, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone, Daxing District, Beijing

Applicant after: Beijing Huijun Technology Co.,Ltd.

Address before: Room A402, 4th floor, building 2, No.18, Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant before: BEIJING WODONG TIANJUN INFORMATION TECHNOLOGY Co.,Ltd.

Applicant before: BEIJING JINGDONG CENTURY TRADING Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant