CN109657127A - 一种答案获取方法、装置、服务器及存储介质 - Google Patents

一种答案获取方法、装置、服务器及存储介质 Download PDF

Info

Publication number
CN109657127A
CN109657127A CN201811543751.2A CN201811543751A CN109657127A CN 109657127 A CN109657127 A CN 109657127A CN 201811543751 A CN201811543751 A CN 201811543751A CN 109657127 A CN109657127 A CN 109657127A
Authority
CN
China
Prior art keywords
word vectors
question
answer
classification
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811543751.2A
Other languages
English (en)
Other versions
CN109657127B (zh
Inventor
郑俊强
刘凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201811543751.2A priority Critical patent/CN109657127B/zh
Publication of CN109657127A publication Critical patent/CN109657127A/zh
Application granted granted Critical
Publication of CN109657127B publication Critical patent/CN109657127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种答案获取方法、装置、服务器及存储介质。所述方法包括:通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;根据所述当前问题对应的问题理解结果获取所述当前问题对应的目标答案。不仅可以节省答案获取的时间,而且还可以保证答案获取的准确性。

Description

一种答案获取方法、装置、服务器及存储介质
技术领域
本发明实施例涉及互联网技术领域,尤其涉及一种答案获取方法、装置、服务器及存储介质。
背景技术
随着互联网的快速发展,搜索引擎的功能日趋强大,用户对搜索引擎的期望也越来越高,逐渐由基本的相关网页召回向智能问答转变。当用户通过搜索引擎输入所要查询的问题时,希望获得的搜索结果不再是相关的网页,而希望能够直接得到问题的答案。互联网中的用户查询可以分为:问答类查询和非问答类查询;其中对于问答类查询的处理,可以使用问答技术对搜索结果进行处理,然后把答案结果呈现给用户。例如:用户在搜索引擎中输入:换乳牙多少岁;可以得到以下查询结果:正常情况下儿童从6岁左右开始换牙,乳牙开始生理性脱落,替换乳牙的恒牙相继萌出,到12~13岁时,全部乳牙为恒牙所代替。这便是儿童换牙期。要实现如上述实例所示的结果,首先需要判断该用户查询是否属于问答类查询;然后对该用户查询进行问题分类;再对搜索结果进行答案分类。
在现有的答案获取方法中,判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类,这三个任务由三个模型单独执行完成。例如,问答类查询可以使用支持向量机SVM分类模型、问题分类可以使用卷积神经网络CNN分类模型、答案分类可以使用条件随机场CRF分类模型。由此可见,一个用户查询需要使用三个不同的分类模型才能获取到答案,不仅会增加答案获取的时间,而且也无法保证答案获取的准确性。
发明内容
有鉴于此,本发明实施例提供一种答案获取方法、装置、服务器及存储介质,不仅可以节省答案获取的时间,而且还可以保证答案获取的准确性。
第一方面,本发明实施例提供了一种答案获取方法,所述方法包括:
通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;
根据所述当前问题对应的问题理解结果获取所述当前问题对应的目标答案。
在上述实施例中,所述通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果,包括:
将当前问题切分为M个词语;其中,M为大于1的自然数;
通过预先确定的语言模型计算M个词语对应的M个词向量;
通过所述循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为所述当前问题对应的问题理解结果。
在上述实施例中,所述通过所述循环神经网络模型确定M个词向量对应的问题理解结果,包括:
通过所述循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;
根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果;其中,所述问题理解结果包括:问题识别结果、问题分类结果和答案分类结果。
在上述实施例中,所述根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果,包括:
根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数分别确定M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签;
根据M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签确定M个词向量对应的问题理解结果。
在上述实施例中,所述方法还包括:
将所述当前问题对应的目标答案转换为预定格式的问题查询结果;其中,所述预定格式包括:文字格式、图像格式或者语音格式;
将所述预定格式的问题查询结果展示给当前用户。
第二方面,本发明实施例提供了一种答案获取装置,所述装置包括:确定模块和获取模块;其中,
所述确定模块,用于通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;
所述获取模块,用于根据所述当前问题对应的问题理解结果获取所述当前问题对应的目标答案。
在上述实施例中,所述确定模块包括:切分子模块、计算子模块和确定子模块;其中,
所述切分子模块,用于将当前问题切分为M个词语;其中,M为大于1的自然数;
所述计算子模块,用于通过预先确定的语言模型计算M个词语对应的M个词向量;
所述确定子模块,用于通过所述循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为所述当前问题对应的问题理解结果。
在上述实施例中,所述确定子模块,具体用于通过所述循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果;其中,所述问题理解结果包括:问题识别结果、问题分类结果和答案分类结果。
在上述实施例中,所述确定子模块,具体用于根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数分别确定M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签;根据M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签确定M个词向量对应的问题理解结果。
在上述实施例中,所述获取模块,具体用于将所述当前问题对应的目标答案转换为预定格式的问题查询结果;其中,所述预定格式包括:文字格式、图像格式或者语音格式;将所述预定格式的问题查询结果展示给当前用户。
第三方面,本发明实施例提供了一种服务器,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所述的答案获取方法。
第四方面,本发明实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明任意实施例所述的答案获取方法。
本发明实施例提出了一种答案获取方法、装置、服务器及存储介质,先通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;然后根据当前问题对应的问题理解结果获取当前问题对应的目标答案。也就是说,在本发明的技术方案中,可以通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果,而不是由三个模型单独判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类。而在现有的答案获取方法中,判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类,这三个任务由三个模型单独执行完成。因此,和现有技术相比,本发明实施例提出的答案获取方法、装置、服务器及存储介质,不仅可以节省答案获取的时间,而且还可以保证答案获取的准确性;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
附图说明
图1为本发明实施例一提供的答案获取方法的流程示意图;
图2为本发明实施例二提供的答案获取方法的流程示意图;
图3为本发明实施例三提供的答案获取方法的流程示意图;
图4为本发明实施例四提供的答案获取装置的第一结构示意图;
图5为本发明实施例四提供的答案获取装置的第二结构示意图
图6为本发明实施例五提供的服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
实施例一
图1为本发明实施例一提供的答案获取方法的流程示意图,该方法可以由答案获取装置或者服务器来执行,该装置或者服务器可以由软件和/或硬件的方式实现,该装置或者服务器可以集成在任何具有网络通信功能的智能设备中。如图1所示,答案获取方法可以包括以下步骤:
S101、通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果。
在本发明的具体实施例中,服务器可以通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果。具体地,服务器可以先将当前问题切分为M个词语;其中,M为大于1的自然数;然后通过预先确定的语言模型计算M个词语对应的M个词向量;再通过循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为当前问题对应的问题理解结果。
S102、根据当前问题对应的问题理解结果获取当前问题对应的目标答案。
在本发明的具体实施例中,服务器可以根据当前问题对应的问题理解结果获取当前问题对应的目标答案。具体地,服务器可以先将当前问题对应的目标答案转换为预定格式的问题查询结果;其中,预定格式包括:文字格式、图像格式或者语音格式;再将预定格式的问题查询结果展示给当前用户。
本发明实施例提出的答案获取方法,先通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;然后根据当前问题对应的问题理解结果获取当前问题对应的目标答案。也就是说,在本发明的技术方案中,可以通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果,而不是由三个模型单独判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类。而在现有的答案获取方法中,判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类,这三个任务由三个模型单独执行完成。因此,和现有技术相比,本发明实施例提出的答案获取方法,不仅可以节省答案获取的时间,而且还可以保证答案获取的准确性;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图2为本发明实施例二提供的答案获取方法的流程示意图。如图2所示,答案获取方法可以包括以下步骤:
S201、将当前问题切分为M个词语;其中,M为大于1的自然数。
在本发明的具体实施例中,服务器可以将当前问题切分为M个词语;其中,M为大于1的自然数。中文切词(又称中文分词,Chinese Word Segmentation)指的是将一个汉字序列切分成一个一个单独的词。中文分词是文本挖掘的基础,对于输入的一段中文,成功的进行中文分词,可以达到电脑自动识别语句含义的效果。这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与机器词典中的词条进行匹配,若在机器词典中找到某个字符串,则匹配成功,从而可以识别出一个词语。
S202、通过预先确定的语言模型计算M个词语对应的M个词向量。
在本发明的具体实施例中,服务器可以通过预先确定的语言模型计算M个词语对应的M个词向量。语言模型生成词向量是通过训练神经网络语言模型NNLM(Neural NetworkLanguage Model),词向量作为语言模型的附带产出。较著名的采用NNLM生成词向量的方法有:Skip-gram、CBOW和LBL。
S203、通过循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为当前问题对应的问题理解结果。
在本发明的具体实施例中,服务器可以通过循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为当前问题对应的问题理解结果。具体地,服务器可以先通过循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;然后根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果;其中,问题理解结果包括:问题识别结果、问题分类结果和答案分类结果。
S204、根据当前问题对应的问题理解结果获取当前问题对应的目标答案。
在本发明的具体实施例中,服务器可以根据当前问题对应的问题理解结果获取当前问题对应的目标答案。具体地,服务器可以先将当前问题对应的目标答案转换为预定格式的问题查询结果;其中,预定格式包括:文字格式、图像格式或者语音格式;再将预定格式的问题查询结果展示给当前用户。
本发明实施例提出的答案获取方法,先通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;然后根据当前问题对应的问题理解结果获取当前问题对应的目标答案。也就是说,在本发明的技术方案中,可以通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果,而不是由三个模型单独判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类。而在现有的答案获取方法中,判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类,这三个任务由三个模型单独执行完成。因此,和现有技术相比,本发明实施例提出的答案获取方法,不仅可以节省答案获取的时间,而且还可以保证答案获取的准确性;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图3为本发明实施例三提供的答案获取方法的流程示意图。如图3所示,答案获取方法可以包括以下步骤:
S301、将当前问题切分为M个词语;其中,M为大于1的自然数。
在本发明的具体实施例中,服务器可以将当前问题切分为M个词语;其中,M为大于1的自然数。中文切词是文本挖掘的基础,对于输入的一段中文,成功的进行中文分词,可以达到电脑自动识别语句含义的效果。这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与机器词典中的词条进行匹配,若在机器词典中找到某个字符串,则匹配成功,从而可以识别出一个词语。此外,服务器还可以通过基于理解的分词方法将当前问题切分为M个词语;或者,服务器还可以通过基于统计的分词方法将当前问题切分为M个词语。
S302、通过预先确定的语言模型计算M个词语对应的M个词向量。
在本发明的具体实施例中,服务器可以通过预先确定的语言模型计算M个词语对应的M个词向量。语言模型生成词向量是通过训练神经网络语言模型NNLM,词向量作为语言模型的附带产出。较著名的采用NNLM生成词向量的方法有:Skip-gram、CBOW和LBL。
S303、通过循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数。
在本发明的具体实施例中,服务器可以通过循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数。具体地,循环神经网络模型可以包括:输入层、隐藏层和输出层。服务器可以将M个词语对应的M个词向量分别输出到循环神经网络模型的输入层;然后循环神经网络模型的隐藏层可以根据M个词语对应的M个词向量计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;最后循环神经网络模型的输出层可以根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果。需要说明的是,循环神经网络模型的隐藏层在计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数时,问题识别参数、问题分类参数和答案分类参数可以相互约束和相互校验,从而可以保证答案获取的准确性。
S304、根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为当前问题对应的问题理解结果。
在本发明的具体实施例中,服务器可以根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果,其中,问题理解结果包括:问题识别结果、问题分类结果和答案分类结果;然后将M个词向量对应的问题理解结果确定为当前问题对应的问题理解结果。具体地,服务器可以先根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数分别确定M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签;然后根据M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签确定M个词向量对应的问题理解结果。
S305、根据当前问题对应的问题理解结果获取当前问题对应的目标答案。
在本发明的具体实施例中,服务器可以根据当前问题对应的问题理解结果获取当前问题对应的目标答案。具体地,服务器可以先将当前问题对应的目标答案转换为预定格式的问题查询结果;其中,预定格式包括:文字格式、图像格式或者语音格式;再将预定格式的问题查询结果展示给当前用户。
本发明实施例提出的答案获取方法,先通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;然后根据当前问题对应的问题理解结果获取当前问题对应的目标答案。也就是说,在本发明的技术方案中,可以通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果,而不是由三个模型单独判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类。而在现有的答案获取方法中,判断用户查询是否属于问答类查询、对用户查询进行问题分类以及对搜索结果进行答案分类,这三个任务由三个模型单独执行完成。因此,和现有技术相比,本发明实施例提出的答案获取方法,不仅可以节省答案获取的时间,而且还可以保证答案获取的准确性;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例四
图4为本发明实施例四提供的答案获取装置的第一结构示意图。如图4所示,本发明实施例所述的答案获取装置可以包括:所述装置包括:确定模块401和获取模块402;其中,
所述确定模块401,用于通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;
所述获取模块402,用于根据所述当前问题对应的问题理解结果获取所述当前问题对应的目标答案。
图5为本发明实施例四提供的答案获取装置的第二结构示意图。如图5所示,所述确定模块401包括:切分子模块4011、计算子模块4012和确定子模块4013;其中,
所述切分子模块4011,用于将当前问题切分为M个词语;其中,M为大于1的自然数;
所述计算子模块4012,用于通过预先确定的语言模型计算M个词语对应的M个词向量;
所述确定子模块4013,用于通过所述循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为所述当前问题对应的问题理解结果。
进一步的,所述确定子模块4013,具体用于通过所述循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果;其中,所述问题理解结果包括:问题识别结果、问题分类结果和答案分类结果。
进一步的,所述确定子模块4013,具体用于根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数分别确定M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签;根据M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签确定M个词向量对应的问题理解结果。
进一步的,所述获取模块402,具体用于将所述当前问题对应的目标答案转换为预定格式的问题查询结果;其中,所述预定格式包括:文字格式、图像格式或者语音格式;将所述预定格式的问题查询结果展示给当前用户。
上述答案获取装置可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的答案获取方法。
实施例五
图6为本发明实施例五提供的服务器的结构示意图。图6示出了适于用来实现本发明实施方式的示例性服务器的框图。图6显示的服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,服务器12以通用计算设备的形式表现。服务器12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该服务器12交互的设备通信,和/或与使得该服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的答案获取方法。
实施例六
本发明实施例六提供了一种计算机存储介质。
本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (12)

1.一种答案获取方法,其特征在于,所述方法包括:
通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;
根据所述当前问题对应的问题理解结果获取所述当前问题对应的目标答案。
2.根据权利要求1所述的方法,其特征在于,所述通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果,包括:
将当前问题切分为M个词语;其中,M为大于1的自然数;
通过预先确定的语言模型计算M个词语对应的M个词向量;
通过所述循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为所述当前问题对应的问题理解结果。
3.根据权利要求2所述的方法,其特征在于,所述通过所述循环神经网络模型确定M个词向量对应的问题理解结果,包括:
通过所述循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;
根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果;其中,所述问题理解结果包括:问题识别结果、问题分类结果和答案分类结果。
4.根据权利要求3所述的方法,其特征在于,所述根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果,包括:
根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数分别确定M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签;
根据M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签确定M个词向量对应的问题理解结果。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述当前问题对应的目标答案转换为预定格式的问题查询结果;其中,所述预定格式包括:文字格式、图像格式或者语音格式;
将所述预定格式的问题查询结果展示给当前用户。
6.一种答案获取装置,其特征在于,所述装置包括:确定模块和获取模块;其中,
所述确定模块,用于通过预先确定的循环神经网络模型确定当前问题对应的问题理解结果;
所述获取模块,用于根据所述当前问题对应的问题理解结果获取所述当前问题对应的目标答案。
7.根据权利要求6所述的装置,其特征在于,所述确定模块包括:切分子模块、计算子模块和确定子模块;其中,
所述切分子模块,用于将当前问题切分为M个词语;其中,M为大于1的自然数;
所述计算子模块,用于通过预先确定的语言模型计算M个词语对应的M个词向量;
所述确定子模块,用于通过所述循环神经网络模型确定M个词向量对应的问题理解结果,将M个词向量对应的问题理解结果确定为所述当前问题对应的问题理解结果。
8.根据权利要求7所述的装置,其特征在于:
所述确定子模块,具体用于通过所述循环神经网络模型计算M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数;根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数确定M个词向量对应的问题理解结果;其中,所述问题理解结果包括:问题识别结果、问题分类结果和答案分类结果。
9.根据权利要求8所述的装置,其特征在于:
所述确定子模块,具体用于根据M个词向量对应的问题识别参数、M个词向量对应的问题分类参数以及M个词向量对应的答案分类参数分别确定M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签;根据M个词向量对应的问题识别标签、M个词向量对应的问题分类标签以及M个词向量对应的答案分类标签确定M个词向量对应的问题理解结果。
10.根据权利要求6所述的装置,其特征在于:
所述获取模块,具体用于将所述当前问题对应的目标答案转换为预定格式的问题查询结果;其中,所述预定格式包括:文字格式、图像格式或者语音格式;将所述预定格式的问题查询结果展示给当前用户。
11.一种服务器,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至5中任一项所述的答案获取方法。
12.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至5中任一项所述的答案获取方法。
CN201811543751.2A 2018-12-17 2018-12-17 一种答案获取方法、装置、服务器及存储介质 Active CN109657127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811543751.2A CN109657127B (zh) 2018-12-17 2018-12-17 一种答案获取方法、装置、服务器及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811543751.2A CN109657127B (zh) 2018-12-17 2018-12-17 一种答案获取方法、装置、服务器及存储介质

Publications (2)

Publication Number Publication Date
CN109657127A true CN109657127A (zh) 2019-04-19
CN109657127B CN109657127B (zh) 2021-04-20

Family

ID=66113785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811543751.2A Active CN109657127B (zh) 2018-12-17 2018-12-17 一种答案获取方法、装置、服务器及存储介质

Country Status (1)

Country Link
CN (1) CN109657127B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647627A (zh) * 2019-08-06 2020-01-03 北京百度网讯科技有限公司 答案生成方法及装置、计算机设备与可读介质
WO2021003813A1 (zh) * 2019-07-05 2021-01-14 平安科技(深圳)有限公司 基于神经网络模型的答案生成方法及相关设备
CN113779205A (zh) * 2020-09-03 2021-12-10 北京沃东天骏信息技术有限公司 一种智能应答方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140236578A1 (en) * 2013-02-15 2014-08-21 Nec Laboratories America, Inc. Question-Answering by Recursive Parse Tree Descent
CN105787560A (zh) * 2016-03-18 2016-07-20 北京光年无限科技有限公司 基于循环神经网络的对话数据交互处理方法及装置
US20170060844A1 (en) * 2015-08-28 2017-03-02 Microsoft Technology Licensing, Llc Semantically-relevant discovery of solutions
CN106776562A (zh) * 2016-12-20 2017-05-31 上海智臻智能网络科技股份有限公司 一种关键词提取方法和提取系统
CN108960574A (zh) * 2018-06-07 2018-12-07 百度在线网络技术(北京)有限公司 问答的质量确定方法、装置、服务器和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140236578A1 (en) * 2013-02-15 2014-08-21 Nec Laboratories America, Inc. Question-Answering by Recursive Parse Tree Descent
US20170060844A1 (en) * 2015-08-28 2017-03-02 Microsoft Technology Licensing, Llc Semantically-relevant discovery of solutions
CN105787560A (zh) * 2016-03-18 2016-07-20 北京光年无限科技有限公司 基于循环神经网络的对话数据交互处理方法及装置
CN106776562A (zh) * 2016-12-20 2017-05-31 上海智臻智能网络科技股份有限公司 一种关键词提取方法和提取系统
CN108960574A (zh) * 2018-06-07 2018-12-07 百度在线网络技术(北京)有限公司 问答的质量确定方法、装置、服务器和存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021003813A1 (zh) * 2019-07-05 2021-01-14 平安科技(深圳)有限公司 基于神经网络模型的答案生成方法及相关设备
CN110647627A (zh) * 2019-08-06 2020-01-03 北京百度网讯科技有限公司 答案生成方法及装置、计算机设备与可读介质
CN110647627B (zh) * 2019-08-06 2022-05-27 北京百度网讯科技有限公司 答案生成方法及装置、计算机设备与可读介质
CN113779205A (zh) * 2020-09-03 2021-12-10 北京沃东天骏信息技术有限公司 一种智能应答方法和装置
CN113779205B (zh) * 2020-09-03 2024-05-24 北京沃东天骏信息技术有限公司 一种智能应答方法和装置

Also Published As

Publication number Publication date
CN109657127B (zh) 2021-04-20

Similar Documents

Publication Publication Date Title
US10402433B2 (en) Method and apparatus for recommending answer to question based on artificial intelligence
CN107220235B (zh) 基于人工智能的语音识别纠错方法、装置及存储介质
CN110069608B (zh) 一种语音交互的方法、装置、设备和计算机存储介质
CN108170749B (zh) 基于人工智能的对话方法、装置及计算机可读介质
CN110363810B (zh) 建立图像检测模型的方法、装置、设备和计算机存储介质
CN108959257B (zh) 一种自然语言解析方法、装置、服务器及存储介质
US11640551B2 (en) Method and apparatus for recommending sample data
CN109599095B (zh) 一种语音数据的标注方法、装置、设备和计算机存储介质
CN108090043B (zh) 基于人工智能的纠错举报处理方法、装置及可读介质
US20140316764A1 (en) Clarifying natural language input using targeted questions
US9766868B2 (en) Dynamic source code generation
CN109558604B (zh) 一种机器翻译方法、装置、电子设备及存储介质
US11709893B2 (en) Search method, electronic device and storage medium
US9619209B1 (en) Dynamic source code generation
CN110232340B (zh) 建立视频分类模型以及视频分类的方法、装置
CN110569335B (zh) 基于人工智能的三元组校验方法、装置及存储介质
CN110263340B (zh) 评论生成方法、装置、服务器及存储介质
CN109657127B (zh) 一种答案获取方法、装置、服务器及存储介质
CN111291882A (zh) 一种模型转换的方法、装置、设备和计算机存储介质
CN111597800B (zh) 同义句的获取方法及装置、设备及存储介质
CN109408834A (zh) 辅助机器翻译方法、装置、设备及存储介质
CN110991175A (zh) 多模态下的文本生成方法、系统、设备及存储介质
CN111597807B (zh) 分词数据集生成方法、装置、设备及其存储介质
CN116483979A (zh) 基于人工智能的对话模型训练方法、装置、设备及介质
WO2020052060A1 (zh) 用于生成修正语句的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant