CN112417126B - 一种问答方法、计算设备以及存储介质 - Google Patents
一种问答方法、计算设备以及存储介质 Download PDFInfo
- Publication number
- CN112417126B CN112417126B CN202011404117.8A CN202011404117A CN112417126B CN 112417126 B CN112417126 B CN 112417126B CN 202011404117 A CN202011404117 A CN 202011404117A CN 112417126 B CN112417126 B CN 112417126B
- Authority
- CN
- China
- Prior art keywords
- document
- question
- candidate
- answer
- questions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 239000012634 fragment Substances 0.000 claims abstract description 95
- 239000013598 vector Substances 0.000 claims description 161
- 238000012549 training Methods 0.000 claims description 71
- 230000004927 fusion Effects 0.000 claims description 31
- 238000007499 fusion processing Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 17
- 208000020673 hypertrichosis-acromegaloid facial appearance syndrome Diseases 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种问答方法,适于在计算设备中执行,方法包括:获取用户输入的问题;检索与问题相关的多篇文档;对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为问题的候选答案,从而得到多个候选答案;对于多个候选答案中的每个候选答案,计算该候选答案与问题的语义相关度;将多个候选答案中与所述问题语义相关度最高的答案,确定为问题的目标答案。本发明还一并公开了一种计算设备和计算机可读存储介质。
Description
技术领域
本发明涉及机器学习领域,特别涉及一种问答方法、计算设备以及存储介质。
背景技术
在传统的问答系统中,通过预设接口获取用户输入的问题,并对问题进行候选答案的抽取,将候选答案返回给用户。在该问答系统中,根据用户输入的问题进行候选答案的抽取时,从一个封闭的人工编制的知识库中进行答案的抽取。而人工编制的知识库中的内容,往往按照预测的问题进行编制,因此在可预测问题的基础上所提供的答案往往有规律可循,问题和答案相互对应,在面对未知的问题时,问答系统不能提供答案或者所提供的答案准确度大幅降低。
并且现有问答系统在提供给用户答案后,即完成一次对问题的处理。当用户对问题的答案不够满意或者用户输入的问题与想问的问题存在偏差,难以从问答系统所返回的答案获取到有效信息时,问答系统缺少对该种情况的进一步的处理。
为此,需要一种新的问答方法。
发明内容
为此,本发明提供一种问答方法,以力图解决或者至少缓解上面存在的问题。
根据本发明的一个方面,提供一种问答方法,适于在计算设备中执行,方法包括:获取用户输入的问题;检索与问题相关的多篇文档;对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为问题的候选答案,从而得到多个候选答案;对于多个候选答案中的每个候选答案,计算该候选答案与问题的语义相关度;将多个候选答案中与问题语义相关度最高的答案,确定为问题的目标答案。
可选地,在根据本发明的方法中,机器阅读模型包括:词嵌入层,适于将输入的问题转换为第一词向量序列,将输入的文档转换为第二词向量序列;编码层,适于将第一词向量序列编码为问题向量,将第二词向量序列编码为文档向量,并对问题向量和文档向量进行融合处理,得到融合向量;分类器层,适于对融合向量进行分类处理,输出文档片段在文档中的起始位置和结束位置。
可选地,在根据本发明的方法中,编码层包括一个或多个级联的编码子层,每个编码子层包括:第一编码器,其输入为上一级编码子层中第一编码器输出,并适于对输入的向量进行编码处理,其中,第一级编码子层中第一编码器的输入为第一词向量序列;第二编码器,其输入为上一级编码子层中融合单元的输出,并适于对输入的向量进行编码处理,其中,第一级编码子层中第二编码器的输入为第二词向量序列;融合单元,适于对第一编码器的输出和第二编码器的输出进行融合处理。
可选地,在根据本发明的方法中,融合处理为基于注意力的融合。
可选地,在根据本发明的方法中,分类器层包括第一分类器和第二分类器,第一分类器的输出为文档片段在文档中的起始位置,第二分类器的输出为文档片段在文档中的结束位置。
可选地,在根据本发明的方法中,机器阅读模型的训练过程包括步骤:获取训练样本,训练样本包括问题、文档以及文档中的文档片段;将训练样本中的问题和文档输入到机器阅读模型进行处理,得到文档片段在文档中的起始位置和结束位置;根据起始位置和结束位置获取文档片段;将文档片段与训练样本中的文档片段进行对比,确定机器阅读模型的损失;基于损失调整机器阅读模型的网络参数。
可选地,在根据本发明的方法中,第一分类器的输出为文档片段在文档中的起始位置的概率分布向量,指示文档片段的起始位置在文档中分布的概率;第二分类器的输出为文档片段在文档中的结束位置的概率分布向量,指示文档片段的结束位置在文档中分布的概率。
可选地,在根据本发明的方法中,还包括:根据第一分类器输出的文档片段在文档中的起始位置的概率分布向量,确定该概率分布向量中概率最高的位置作为文档片段的在文档中的起始位置;根据预设的文档片段的长度阈值和确定的起始位置,确定文档片段的结束位置的选取范围;根据第二分类器输出的文档片段在文档中的结束位置的概率分布向量,确定该概率分布向量中位于所述选取范围之内且概率最高的位置作为文档片段的结束位置。
可选地,在根据本发明的方法中,计算该候选答案与问题的语义相关度包括步骤:将该候选答案与问题输入问答模型;根据问答模型的输出作为候选答案与问题的语义相关度。
可选地,在根据本发明的方法中,问答模型包括:词嵌入层,适于将输入的问题转化为第三词向量序列,将输入的候选答案转化为第四词向量序列;循环神经网络层,适于对第三词向量序列进行语义编码得到问题的隐藏向量,对第四词向量序列计算进行语义编码得到候选答案的隐藏向量;softmax层,适于根据问题和候选答案的隐藏向量,计算候选答案与问题的语义相关度。
可选地,在根据本发明的方法中,问答模型的训练步骤包括:获取训练样本,训练样本包括问题和答案,问题和答案匹配的为正样本,问题和答案不匹配的为负样本;将训练样本包括的问题和答案输入问答模型,得到语义相关度概率;根据训练样本的正负标签和语义相关度概率,确定问答模型的损失;基于损失调整问答模型的网络参数。
可选地,在根据本发明的方法中,还包括步骤:从问题库中检索与用户输入的问题相似的候选问题,作为候选问题集合;计算候选问题集合中每一个候选问题与问题的相似度;从候选问题集合中选取与问题相似度最高的预定数目个候选问题推荐给用户以供选择。
可选地,在根据本发明的方法中,计算候选问题集合中每一个候选问题与问题的相似度包括步骤:计算候选问题的热度参数和实体参数;将热度参数与实体参数的之和作为候选问题与问题的相似度得分。
可选地,在根据本发明的方法中,计算候选问题的热度参数包括步骤:根据候选问题在预定时间段内被搜索的次数,确定候选问题的热度值;将预设权重与候选问题的热度值相乘作为热度参数。
可选地,在根据本发明的方法中,确定候选问题的实体参数包括步骤:确定候选问题包括的第一实体集合和问题中包括的第二实体集合;将第一实体集合和第二实体集合的交并比作为实体参数。
可选地,在根据本发明的方法中,检索与问题相关的多篇文档包括步骤:从预设文本库中检索与问题相关的多篇文档;和/或应用搜索引擎从外部数据库中检索与问题相关的多篇文档。
根据本发明的又一方面,提供了一种计算设备,包括:一个或多个处理器;存储器;以及一个或多个程序,其中一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序包括用于执行根据本发明的一种问答方法的任一方法的指令。
根据本发明的还有一个方面,提供了一种存储一个或多个程序的计算机可读存储介质,一个或多个程序包括指令,该指令当由计算设备执行时,使得计算设备执行根据本发明的一种问答方法中的任一方法。
本发明中,通过检索与用户输入问题相关的多篇文档,对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为问题的候选答案,从而得到多个候选答案,对于多个候选答案中的每个候选答案,计算该候选答案与问题的语义相关度,将多个候选答案中与问题语义相关度最高的答案,确定为问题的目标答案,不依赖于知识库,就能获得问题对应的答案。进一步地,从多个候选答案中最终选择一个最佳的目标答案提供给用户,从而让用户得到针对输入问题更加准确的,关联度更高的答案;避免了应所检索到的文档与用户输入问题质量或关联度不高,提取的候选答案不够准确。
本发明中,还从问题库中检索与问题相似的候选问题,作为候选问题集合;计算候选问题集合中每一个候选问题与问题的相似度;从候选问题集合中选取与问题相似度最高的预定数目个候选问题推荐给用户以供选择。在已经将用户所输入的问题的目标答案提供给用户的基础上,进一步的提供备选问题,以便用户进一步了解相关问题。当用户所输入的问题因为表达原因不是想要问的问题导致答案没有帮助,或用户对该领域的知识不够熟悉,帮助用户选择更加准确的问题进行提问,从而获取更加准确的目标答案。
附图说明
为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所公开的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本公开的上述以及其它目的、特征和优势将变得更加明显。遍及本公开,相同的附图标记通常指代相同的部件或元素。
图1示出了根据本发明一个示范性实施例的计算设备100的结构框图;
图2示出了根据本发明一个实施例的问答方法200的流程图;
图3示出了根据本发明一个实施例的机器阅读模型3000的示意图;
图4示出了根据本发明一个实施例的问题检索的示意图;以及
图5示出了根据本发明一个实施例的问答模型500的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。相同的附图标记通常指代相同的部件或元素。
图1是根据本发明一个示范性实施例的计算设备100的结构框图。根据本发明的一种问答方法200可以在计算设备100中执行。在基本的配置102中,计算设备100典型地包括系统存储器106和一个或者多个处理器104。存储器总线108可以用于在处理器104和系统存储器106之间的通信。
取决于期望的配置,处理器104可以是任何类型的处理,包括但不限于:微处理器(μP)、微控制器(μC)、数字信息处理器(DSP)或者它们的任何组合。处理器104可以包括诸如一级高速缓存110和二级高速缓存112之类的一个或者多个级别的高速缓存、处理器核心114和寄存器116。示例的处理器核心114可以包括运算逻辑单元(ALU)、浮点数单元(FPU)、数字信号处理核心(DSP核心)或者它们的任何组合。示例的存储器控制器118可以与处理器104一起使用,或者在一些实现中,存储器控制器118可以是处理器104的一个内部部分。
取决于期望的配置,系统存储器106可以是任意类型的存储器,包括但不限于:易失性存储器(诸如RAM)、非易失性存储器(诸如ROM、闪存等)或者它们的任何组合。系统存储器106可以包括操作系统120、一个或者多个程序122以及程序数据124。在一些实施方式中,程序122可以布置为在操作系统上由一个或者多个处理器104利用程序数据124执行根据本发明的方法200的指令123。
计算设备100还可以包括有助于从各种接口设备(例如,输出设备142、外设接口144和通信设备146)到基本配置102经由总线/接口控制器130的通信的接口总线140。示例的输出设备142包括图形处理单元148和音频处理单元150。它们可以被配置为有助于经由一个或者多个A/V端口152与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口144可以包括串行接口控制器154和并行接口控制器156,它们可以被配置为有助于经由一个或者多个I/O端口158和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、触摸输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备146可以包括网络控制器160,其可以被布置为便于经由一个或者多个通信端口164与一个或者多个其他计算设备162通过网络通信链路的通信。
网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(RF)、微波、红外(IR)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。
在根据本发明的计算设备100中,应用122包括执行一种问答方法200的多条程序指令,这些程序指令可以指示处理器104执行本发明的一种问答方法200中的部分步骤,以便计算设备100中的各部分通过执行本发明的一种问答方法200来实现计算机与用户之间的问答功能。
计算设备100可以实现为服务器,例如文件服务器、数据库服务器、应用程序服务器等,这些电子设备可以是诸如个人数字助理(PDA)、无线网络浏览设备、应用专用设备、或者可以包括上面任何功能的混合设备。计算设备100还可以实现为包括桌面计算机和笔记本计算机配置的个人计算机。在一些实施例中,计算设备100被配置为执行一种问答方法200。
图2示出了根据本发明的一个实施例的一种问答方法200的流程示意图。方法200在计算设备中执行,如在计算设备100中执行。如图2所示,问答方法200始于步骤S210,在步骤S210中,获取用户输入的问题。本发明对获取用户输入的问题的方式不作限制,根据本发明的一个实施例,提供包括搜索输入框的网页以获取用户输入的问题。网页中搜索输入框为获取用户输入问题的接口,接受到用户输入完毕的问题后,对问题进行出。
图4示出了根据本发明一个实施例的问题检索的示意图。如图4所示,搜索输入框中可输入问题进行检索,所输入的问题为“新款哈弗F7上市时间”,在用户输入完毕问题后,点集搜索输入框旁的“问一问”按钮,即可提交所输入的查询的问题,计算设备即成功获取到用户输入的问题。
随后,执行步骤S220,检索与问题相关的多篇文档。检索与问题相关的多篇文档时,可以从预设文本库中检索与问题相关的多篇文档,也可以应用搜索引擎从外部数据库中检索与问题相关的多篇文档,将从文本库和外部数据库中检索到的所有文档进一步的进行处理。计算设备中包括预设的数据库,作为预设文本库。本发明对预设的数据库的类型不作限制。预设文本库中存储有包括与业务类型相关的多篇文档,开发人员可通过人工录入或数据导入等方式在预设文本库中存储文档。应用搜索引擎从外部数据库中检索与问题相关的多篇文档时,可通过互联网连接到计算设备以外的数据库,从中检索与问题相关的文档。本发明对搜索引擎的类型不作限制,可通过百度,谷歌等搜索引擎检索外部数据,以充实检索获得的多篇文档作为进一步处理的数据基础。
随后,执行步骤S230,对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为问题的候选答案,从而得到多个候选答案。多篇文档即为执行步骤S220所获取的所有文档。每个文档片段为相应文档中所撷取的一段文档,作为一个候选答案。具体地,可以将问题以及文档输入到机器阅读模型,经机器阅读模型处理后,输出一个起始位置和结束位置,这样,该文档的起始位置和结束位置之间的文档片段即为一个候选答案。
图3示出了根据本发明一个实施例的机器阅读模型3000的示意图,参照图3,机器阅读模型3000包括:
词嵌入层3100,包括第一词嵌入模块3110,适于将输入的问题转换为第一词向量序列,和第二词嵌入模块3120,适于将输入的文档转换为第二词向量序列,第一词向量序列为问题词向量序列,第二词向量序列为文档词向量序列。具体地,词嵌入层3100将输入的问题和文档进行词嵌入处理,将问题和文档中的每一个词转化为词向量,并进一步得到问题和文档的词向量序列。
编码层3200,与词嵌入层3100相连接,适于将第一词向量序列编码为问题向量,将第二词向量序列编码为文档向量,并对所述问题向量和所述文档向量进行融合处理,得到融合向量。融合处理的方式有多种,可以是将问题向量和文档向量直接相加,也可以是基于注意力的融合,还可以是将两个向量进行拼接或者其他任意融合方式,本发明实施例对采用何种融合方式不做限制。基于注意力的融合过程为:首先获取问题向量中每个元素的注意力权重,然后,将每个元素与对应的注意力权重相乘形成带注意力的问题向量,将带注意力的问题向量与文档向量相加,得到融合向量。其中,注意力权重是通过对机器阅读模型进行训练得到。
编码层3200包括一个或多个级联的编码子层3210~32n0。本发明对编码层中级联的编码子层的数量不作限制,在具体实践情况中,可依据所须训练得到的机器阅读模型安排所级联的编码子层的数量。
以编码子层3220为例,编码子层3220包括:第一编码器3221,其输入为上一级编码子层3210中第一编码器3211输出,并适于对输入的向量进行编码处理,其中,第一级编码子层中第一编码器3211输入为第一词向量序列;第二编码器3222,其输入为上一级编码子层3210中融合单元3213的输出,并适于对输入的向量进行编码处理,其中,第一级编码子层3210中第二编码器3212的输入为第二词向量序列;融合单元3223,与第一编码器3221和第二编码器3222相连接,适于对第一编码器3221的输出和第二编码器3222的输出进行融合处理。融合处理可以是基于注意力的融合,将第一编码器3221所输出的问题向量与第二编码器3222所输出的文档向量,进行融合处理得到融合向量。根据本发明另的一个实施例,融合处理还可以是将问题向量和文档向量进行拼接得到融合向量。
分类器层3300,与编码层3200相连接,适于对融合向量进行分类处理,输出文档片段在文档中的起始位置和结束位置。分类器层3300包括第一分类器3310和第二分类器3320,第一分类器3310的输入为融合向量,输出为文档片段在文档中的起始位置,第二分类器3320的输入为融合向量,输出为文档片段在文档中的结束位置。
根据本发明的一个实施例,执行步骤S220后获得文档1,文档2,文档3,文档4和文档5,基于获得的文档1~文档5执行步骤S230。执行步骤S230时,从多篇文档1~文档5中,依次选取每篇文档和问题输入机器阅读模型3000。例如,首先,将问题“新款哈弗F7上市时间”和文档1输入机器阅读模型3000中的词嵌入层3100。第一词嵌入模块3110将问题“新款哈弗F7上市时间”转化为第一词向量序列,即问题词向量序列。第二词嵌入模块3120将文档1“哈弗F7将于11月上市曝哈弗F系新车计划”对应的链接内容转化为第二词向量序列,即文档词向量序列。
随后,将第一词向量序列和第二词向量序列输入编码层3200。本实施例中,编码层3200包括第一级编码子层3210和第二级编码子层3220。第一编码器3211将第一词向量序列即问题词向量序列转化为问题向量Q1,第二编码器3112将第二词向量序列即文档词向量序列转化为文档向量D1,融合单元3213将问题向量和文档向量进行融合处理得到融合向量R1,输入第二级编码子层3220的第二编码器3222。第一级编码子层3210的第一编码器3221将第一级编码子层321的第一编码器3211输出的问题向量Q1进行编码得到问题向量Q2,第二级编码子层3220的第二编码器3222,将第一级编码子层3210的融合单元3213输入的融合向量R2,进行编码得到文档向量D2。融合单元3223将问题向量Q2和问题向量Q2进行融合处理得到融合向量R2。
最后,分类器层3300中的第一分类器3310将融合向量R2进行分类处理,得到文档片段在文档中的起始位置为“今”,第二分类器3320将融合向量R2进行分类器处理得到文档片段在文档中的结束位置为“市”,最终得到文档1中的文档片段1为“今年11月上市”,将该文档片段作为一个候选答案。
随后,依照上述方法,得到文档2中的文档片段2,文档3中的文档片段3,···,文档5中的文档片段5,将文档片段1~文档片段5作为多个候选答案。
对机器阅读模型进行训练时,会预先编制训练样本集,训练样本集包括多个训练样本,每个训练样本包括问题、文档和文档中的文档片段,该文档片段是问题对应的真实答案。
对机器阅读模型进行训练的步骤包括:
从训练样本集中获取一个训练样本,训练样本包括问题、文档以及文档中的文档片段;
将训练样本中的问题和文档输入到机器阅读模型进行处理,得到文档片段在文档中的起始位置和结束位置;
根据起始位置和结束位置获取文档片段;
将获取的文档片段与训练样本中的文档片段进行对比,确定机器阅读模型的损失;
基于损失调整机器阅读模型的网络参数,例如基于梯度下降法调整机器阅读模型的网络参数;
重复上述步骤,直到模型收敛(即损失值低于预设门限),或者,训练次数达到预设次数,停止训练,输出训练好的机器阅读模型。
训练样本集可以由开发人员人工进行选定,本发明对确定用于训练的训练样本的方式不作限制。
根据本发明的一个实施例,第一分类器3310的输出为文档片段在文档中的起始位置的概率分布向量,指示文档片段的起始位置在文档中分布的概率;第二分类器3320的输出为文档片段在文档中的结束位置的概率分布向量,指示文档片段的结束位置在文档中分布的概率。方法200还包括:根据第一分类器3310输出的文档片段在文档中的起始位置的概率分布向量,确定该概率分布向量中概率最高的位置作为文档片段的在文档中的起始位置;根据预设的文档片段的长度阈值和确定的起始位置,确定文档片段的结束位置的选取范围;根据第二分类器3320输出的文档片段在文档中的结束位置的概率分布向量,确定该概率分布向量中位于选取范围之内且概率最高的位置作为文档片段的结束位置。
将文档片段在文档中的起始位置在全文中所有位置出现的概率总和作为1,将文档片段在文档中的结束位置在全文中所有位置出现的概率总和作为1,全文中起始位置的概率分布向量中概率最高的位置作为文档片段起始位置,并以该起始位置开始,预设的文档片段的长度阈值为文档片段的长度,确定文档片段的结束位置最远可以选取的位置。将文档片段起始位置和文档片段的结束位置最远可以选取的位置之间,作为文档片段的结束位置的选取范围。在该选取范围之间选择文档片段概率分布向量中概率最高的位置作为文档片段的结束位置。
根据本发明的一个实施例,从文档(哈弗F7将于11月上市曝哈弗F系新车计划对应的链接)中确定文档片段时,第一分类器3310输出的概率分布向量中,“日”为文档片段的起始位置的概率为0.3,“今”为文档片段的起始位置的概率为0.6,文档中其他位置作为文档片段的起始位置的概率之和为0.1,因此将“今”作为文档片段的在文档中的起始位置。根据预设的文档片段的长度阈值为10,则以“今”为长度片段在文档中的起始位置,“今年11月上市,2019年推出F系列第三款SUV,新车将定位于一款高性能SUV······”中,“推出”为文档片段的结束位置最远可以选取的位置。“今年11月上市,2019年推出”即为文档片段的结束位置的选取范围。在该选取范围中,第二分类器3320输出的概率分布向量中,“上”为文档片段的结束位置的概率为0.5,其他位置作为文档片段的结束位置的概率之和为0.1,因此,将“市”做为文档片段在文档中的结束位置,起始位置和结束位置之间的文档“今年11月上市”为文档片段,并作为一个候选答案。
随后,执行步骤S240,对于多个候选答案中的每个候选答案,计算该候选答案与问题的语义相关度,依据语义相关度确定候选答案中的最佳的目标答案,例如,将语义相关度最高的候选答案作为目标答案。
计算该候选答案与问题的语义相关度可以采用多种实现方式,其中的一种实现方式为:将该候选答案与问题输入问答模型;根据问答模型的输出作为候选答案与所述问题的语义相关度。
图5示出了根据本发明的一个实施例的问答模型500的示意图,参照图5,问答模型500包括:词嵌入层510,包括第三词嵌入模块511和第四词嵌入模块512,第三词嵌入模块511适于将输入的问题转化为第三词向量序列,第四词嵌入模块512适于将输入的候选答案转化为第四词向量序列。第三词向量序列为问题词向量序列,第四词向量序列为答案词向量序列。词嵌入层510将输入的问题和答案进行词嵌入处理,将问题和答案中的每一个词转化为词向量,并进一步得到问题和答案的词向量序列。
循环神经网络层520,与词嵌入层510连接,适于对第三词向量序列进行语义编码得到问题的隐藏向量,对第四词向量序列进行语义编码得到候选答案的隐藏向量。
softmax层530,与循环神经网络层520连接,适于根据问题和候选答案的隐藏向量,计算候选答案与问题的语义相关度。在一种实现方式中,softmax层530将问题的隐藏向量和候选答案的隐藏向量进行拼接,然后进行softmax处理,得到答案与问题的语义相关度概率。
根据本发明的一个实施例,执行步骤S230后获得候选答案1~候选答案5,将获得的候选答案1~候选答案5执行步骤S240。执行步骤S240时,从多个候选答案候选答案1~候选答案5中,依次选取每个候选答案和问题输入问答模型500中。首先,将问题“新款哈弗F7上市时间”和候选答案1“今年11月上市”输入问答模型500中的词嵌入层510中。第三词嵌入模块511将问题新款哈弗F7上市时间”转化为第三词向量序列,即问题词向量序列。第二词嵌入模块512将将候选答案1“今年11月上市”转化为第四词向量序列,即答案词向量序列。
随后,将第三词向量序列和第四词向量序列输入循环神经网络层520,循环神经网络层通过将第三词向量序列和第四词向量序列进行语义编码得到问题的隐藏向量X和答案的隐藏向量Y,将问题的隐藏向量X和答案的隐藏向量Y输入softmax层530。softmax层530对问题的隐藏向量X和答案的隐藏向量Y进行softmax操作,计算得到问题的隐藏向量X和答案的隐藏向量Y的语义相关度概率。
随后,按照上述方法,得到候选答案2~候选答案5与问题的语义相关度得分。
对问答模型进行训练时,可以预先基于问题集合和答案集合编制训练样本集,训练样本集中包括多条训练样本,每条训练样本是一个问题-答案对,且具有正负标签,问题和答案匹配对应正样本,问题和答案不匹配对应负样本。问题集合中的每一个问题,对应于答案集合中的一个答案。将问题集合中的一个问题和对应的答案集合中相匹配的答案作为一份正样本。根据问题集合中的问题,与对应的答案集合中不匹配的答案,与问题作为一份负样本。因此,可得到包括正样本和负样本数量相等的训练样本集。训练样本集中的每一份训练样本根据其标签,正标签或负标签确定该训练样本的为正样本还是负样本。将训练样本集中的每一份训练样本均对问答模型进行训练,直到训练完毕所有训练样本,或根据问答模型所输出的语义相关度概率和训练样本的正负标签,确定的语义相关度概率与预定概率相比损失低于预设门限内时,结束对机器阅读模型的训练。
对于问答模型的训练步骤包括:
从训练样本集中获取一条训练样本,训练样本包括问题和答案,且训练样本具有正标签或负标签;
将训练样本包括的问题和答案输入问答模型,由问答模型处理后,输出语义相关度概率;
根据训练样本的正负标签和语义相关度概率,确定问答模型的损失;
基于损失调整问答模型的网络参数,例如基于梯度下降法调整机器阅读模型的网络参数;
重复上述步骤,直到模型收敛(即损失值低于预设门限),或者,训练次数达到预设次数,停止训练,输出训练好的机器阅读模型。
预先获取的问题集合和答案集合由开发人员人工进行选定,本发明对确定用于训练的问题集合和答案集合的方式不作限制。问题集合每一个问题的正确匹配的答案,作为答案集合中的答案,并构成答案集合。即问题集合中的问题与答案集合中的答案,构成完全正确匹配的问答对,形成从问题集合到答案集合一一对应的映射。
根据本发明的一个实施例,预先获取到问题集合q1~q10,答案集合a1~a10,作为训练样本集。问题集合q1~q10和答案集合a1~a10中,问题q1与答案a1构成正确匹配的问答对,问题q2与答案a2构成正确匹配的问答对,······,问题q10与答案a10构成正确匹配的问答对。将正确匹配的问答对,问题q1与答案a1,问题q2与答案a2,······,问题q10与答案a10作为训练问答模型500的正样本,得到10个正样本:(q1,a1),(q2,a2),·······(q10,a10)。将正样本输入问答模型500后,输入的语义相关度概率应趋近于1。
将与问题q1正确匹配的答案a1从答案集合a1~a10去掉后,得到答案集合a2~a10,从答案集合a2~a10中随机确定一项答案a5作为与问题q1作为负样本,按照相同的方法,获取与问题q2~q10构成问答对的答案,与问题一起作为负样本,得到10个负样本:(q1,a5),(q2,a8),······,(q10,a1)。将负样本输入问答模型500后,输出的语义相关度概率应趋近于0。
随后将正样本和负样本输入问答模型500,根据问答500输出的语义相关度概率和训练样本的正负标签,将正样本和负样本的语义相关度概率分别与1和0进行比较,确定问答模型输出结果的损失,调整问答模型中的网络参数以训练得到准确的问答模型。
最后,执行步骤S250,将多个候选答案中与问题语义相关度最高的答案,确定为问题的目标答案。将问答模型500输出的归一化的语义相关度转化为语义相关度得分并进行排序,得到与问题语义相关度最高的答案,确定为问题的目标答案。将目标答案发送给用户时,同时发送作为目标答案的文档片段所在句子内容,并将所在文档的标题发送给用户。
根据本发明的一个实施例,确定多个候选答案,候选答案1~候选答案5中,得到与问题的语义相关度最高的为候选答案1,“今年11月上市”,将“今年11月上市”作为目标答案,返回给用户。同时,向用户发送文档片段“今年11月上市”所在的句子内容:“日前,在哈弗F系发布会上官方透露,哈弗F7将与今年11月上市,2019年推出F系列第三款SUV,新车将定位于一款高性能SUV”,将文档标题“哈弗F7将于11月上市曝哈弗F系新车计划”也发送给用户。
根据本发明的一个实施例,方法200还包括步骤从问题库中检索与问题相似的候选问题,作为候选问题集合;计算候选问题集合中每一个候选问题与问题的相似度;从候选问题集合中选取与问题相似度最高的预定数目个候选问题推荐给用户以供选择。
为了避免用户在搜索时,对问题及其领域不够了解或表达存储在偏差,因此,在基于用户所输入的问题返回答案后,还提供与所输入问题相近的,有关联的问题以便用户进一步进行了解。计算设备100中还设立有问题库,问题库可实现为任一种能够储存问题并提供检索功能的数据库,本发明对问题库的种类不作限制。问题库中的问题可通过人工收集录入,或收录过往被搜索的问题的等多种方式进行收集,本发明对问题库中问题的收录方式不作限制。
对问题库中相似的问题进行检索时,可通过检索用户所输入的问题中包括的实体。实体是指用户所搜索的问题中含有的特有名词,实体可根据业务类型进行导入,将该业务领域的惯用名词等作为实体;例如在汽车领域,将车辆的品牌,车系和配置项等作为实体。在检索实体时,将问题库中含有实体的问题作为检索到的候选问题,检索所输入问题中的包含的实体集合的每个实体,得到若干候选问题,并进一步获得候选问题集合。
计算候选问题集合中每一个候选问题与问题的相似度时包括步骤:计算候选问题的热度参数和实体参数;将热度参数与所述实体参数的之和作为候选问题与所述问题的相似度得分。计算候选问题的热度参数包括步骤:根据候选问题在预定时间段内被搜索的次数,确定候选问题的热度值;将预设权重与候选问题的热度值相乘作为热度参数。确定候选问题的实体参数包括步骤:确定候选问题包括的第一实体集合和问题中包括的第二实体集合;将第一实体集合和第二实体集合的交并比作为实体参数。计算候选问题与问题的相似度时按照如下公式进行计算:
其中,Sim为相似度得分,EN-com为第一实体集合和第二实体集合中的共同包括的实体个数,EN-all为第一实体集合和第二实体集合中包括的实体个数的总和,为实体参数。w为预设权重,H为候选问题的热度值。候选问题的热度值通过候选问题在预定时间段内被搜索的次数在全局搜索次数中的比值进行计算,将比值进行归一化即得到候选问题的热度值。
计算得到所有候选问题的相似度后,对候选问题的相似度进行排序。从候选问题集合中选取与问题相似度最高的预定数目个候选问题推荐给用户以供选择。
根据本发明的一个实施例,用户输入的问题为“新款哈弗F7上市时间”,确定用户输入的问题中的实体包括车辆品牌:“哈弗”,型号:“F7”,配置项“上市时间”。在问题库中检索包含“哈弗”的问题,获得多个候选问题,进一步的,检索包含“F7”和“上市时间”的问题,获得候选问题集合。候选问题集合包括:
1、哈弗厂商售后如何,搜素次数:200,包括的实体:哈弗,售后;
2、哈弗F7百公里加速多少,搜索次数:300,包括的实体:哈弗,F7,百公里加速;
3、哈弗F7性价比,搜索次数:500,包括的实体:哈弗,F7,性价比;
4、哈弗F6上市时间,搜索次数:100,包括的实体:哈弗,F6,上市时间;
5、哈弗F6配置如何,搜索次数:600,包括的实体:哈弗,F6,配置;
全局总搜索次数:100000
预设权重为0.8,对上述问题集合中的问题进行计算相似度,得到候选问题1的相似度为:1/4+0.8*200/100000=0.2516,同理得到候选问题2~4的相似度依次为:0.5024,0.504,05008,0.2048。
预定数目为3,对候选问题1~候选问题6的相似度进行排序,得到相似度最高的三项候选问题为候选问题3,候选问题2和候选问题4。将“哈弗F7性价比”,“哈弗F7百公里加速多少”,“哈弗F6上市时间”推荐给用户,以供用户选择进行查询。
本发明中,通过检索与用户输入问题相关的多篇文档,对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为问题的候选答案,从而得到多个候选答案,对于多个候选答案中的每个候选答案,计算该候选答案与问题的相似度,将多个候选答案中与问题相似度最高的答案,确定为问题的目标答案,不依赖于知识库,就能获得问题对应的答案。进一步地,从多个候选答案中最终选择一个最佳的目标答案提供给用户,从而让用户得到针对输入问题更加准确的,关联度更高的答案;避免了应所检索到的文档与用户输入问题质量或关联度不高,提取的候选答案不够准确。
本发明中,还从问题库中检索与问题相似的候选问题,作为候选问题集合;计算候选问题集合中每一个候选问题与问题的相似度;从候选问题集合中选取与问题相似度最高的预定数目个候选问题推荐给用户以供选择。在已经将用户所输入的问题的目标答案提供给用户的基础上,进一步的提供备选问题,以便用户进一步了解相关问题。当用户所输入的问题因为表达原因不是想要问的问题导致答案没有帮助,或用户对该领域的知识不够熟悉,帮助用户选择更加准确的问题进行提问,从而获取更加准确的目标答案。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
A9、如A1-A8中任一项所述的方法,其中,所述计算该候选答案与所述问题的语义相关度包括步骤:
将该候选答案与所述问题输入问答模型;
根据所述问答模型的输出作为所述候选答案与所述问题的语义相关度。
A10、如A9所述的方法,其中,所述问答模型包括:
词嵌入层,适于将输入的问题转化为第三词向量序列,将输入的所述候选答案转化为第四词向量序列;
循环神经网络层,适于对所述第三词向量序列进行语义编码得到所述问题的隐藏向量,对所述第四词向量序列进行语义编码得到所述候选答案的隐藏向量;
softmax层,适于根据所述问题和所述候选答案的隐藏向量,计算所述候选答案与所述问题的语义相关度。
A11、如A9或A10所述的方法,其中,所述问答模型的训练步骤包括:
获取训练样本,所述训练样本包括问题和答案,问题和答案匹配的为正样本,问题和答案不匹配的为负样本;
将所述训练样本包括的问题和答案输入所述问答模型,得到语义相关度概率;
根据训练样本的正负标签和所述语义相关度概率,确定所述问答模型的损失;
基于所述损失调整所述问答模型的网络参数。
A12、如A1-A11中任一项所述方法,还包括步骤:
从问题库中检索与用户输入的问题相似的候选问题,作为候选问题集合;
计算所述候选问题集合中每一个候选问题与所述问题的相似度;
从所述候选问题集合中选取与所述问题相似度最高的预定数目个候选问题推荐给用户以供选择。
A13、如A12所述的方法,其中,所述计算所述候选问题集合中每一个候选问题与所述问题的相似度包括步骤:
计算所述候选问题的热度参数和实体参数;
将所述热度参数与所述实体参数的之和作为所述候选问题与所述问题的相似度得分。
A14、如A13所述的方法,其中,所述计算所述候选问题的热度参数包括步骤:
根据所述候选问题在预定时间段内被搜索的次数,确定所述候选问题的热度值;
将预设权重与所述候选问题的热度值相乘作为所述热度参数。
A15、如A13或A14所述的方法,其中,确定所述候选问题的实体参数包括步骤:
确定所述候选问题包括的第一实体集合和所述问题中包括的第二实体集合;
将所述第一实体集合和第二实体集合的交并比作为实体参数。
A16、A1-A15中任一项所述的方法,其中,所述检索与所述问题相关的多篇文档包括步骤:
从预设文本库中检索与问题相关的多篇文档;和/或
应用搜索引擎从外部数据库中检索与所述问题相关的多篇文档。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组间可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组间组合成一个模块或单元或组间,以及此外可以把它们分成多个子模块或子单元或子组间。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。
这里描述的各种技术可结合硬件或软件,或者它们的组合一起实现。从而,本发明的方法和设备,或者本发明的方法和设备的某些方面或部分可采取嵌入有形媒介,例如软盘、CD-ROM、硬盘驱动器或者其它任意机器可读的存储介质中的程序代码(即指令)的形式,其中当程序被载入诸如计算机之类的机器,并被所述机器执行时,所述机器变成实践本发明的设备。
在程序代码在可编程计算机上执行的情况下,计算设备一般包括处理器、处理器可读的存储介质(包括易失性和非易失性存储器和/或存储元件),至少一个输入装置,和至少一个输出装置。其中,存储器被配置用于存储程序代码;处理器被配置用于根据该存储器中存储的所述程序代码中的指令,执行本发明的设备停机状态的判断方法。
以示例而非限制的方式,计算机可读介质包括计算机存储介质和通信介质。计算机可读介质包括计算机存储介质和通信介质。计算机存储介质存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息。通信介质一般以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并且包括任何信息传递介质。以上的任一种的组合也包括在计算机可读介质的范围之内。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。
Claims (15)
1.一种问答方法,适于在计算设备中执行,所述方法包括:
获取用户输入的问题;
检索与所述问题相关的多篇文档;
对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为所述问题的候选答案,从而得到多个候选答案;
对于所述多个候选答案中的每个候选答案,计算该候选答案与所述问题的语义相关度;
将所述多个候选答案中与所述问题语义相关度最高的答案,确定为所述问题的目标答案;
其中,所述机器阅读模型包括:
词嵌入层,适于将输入的问题转换为第一词向量序列,将输入的文档转换为第二词向量序列;
编码层,适于将第一词向量序列编码为问题向量,将第二词向量序列编码为文档向量,并对所述问题向量和所述文档向量进行融合处理,得到融合向量;
分类器层,适于对所述融合向量进行分类处理,输出文档片段在文档中的起始位置和结束位置;
所述分类器层包括第一分类器和第二分类器,所述第一分类器的输出为所述文档片段在所述文档中的起始位置,所述第二分类器的输出为所述文档片段在所述文档中的结束位置;
所述对于多篇文档中的每一篇文档,利用机器阅读模型获取其中的文档片段作为所述问题的候选答案,从而得到多个候选答案包括:
根据所述第一分类器输出的文档片段在所述文档中的起始位置的概率分布向量,确定该概率分布向量中概率最高的位置作为所述文档片段的在所述文档中的起始位置;
根据预设的文档片段的长度阈值和确定的起始位置,确定所述文档片段的结束位置的选取范围;
根据所述第二分类器输出的所述文档片段在所述文档中的结束位置的概率分布向量,确定该概率分布向量中位于所述选取范围之内且概率最高的位置作为所述文档片段的结束位置。
2.如权利要求1所述的方法,其中,所述编码层包括一个或多个级联的编码子层,每个编码子层包括:
第一编码器,其输入为上一级编码子层中第一编码器输出,并适于对输入的向量进行编码处理,其中,第一级编码子层中第一编码器的输入为所述第一词向量序列;
第二编码器,其输入为上一级编码子层中融合单元的输出,并适于对输入的向量进行编码处理,其中,第一级编码子层中第二编码器的输入为所述第二词向量序列;
融合单元,适于对第一编码器的输出和第二编码器的输出进行融合处理。
3.如权利要求2所述的方法,其中,所述融合处理为基于注意力的融合。
4.如权利要求1-3中任一项所述的方法,其中,所述机器阅读模型的训练过程包括步骤:
获取训练样本,所述训练样本包括问题、文档以及文档中的文档片段;
将所述训练样本中的问题和文档输入到机器阅读模型进行处理,得到文档片段在文档中的起始位置和结束位置;
根据所述起始位置和结束位置获取所述文档片段;
将所述文档片段与所述训练样本中的文档片段进行对比,确定所述机器阅读模型的损失;
基于损失调整所述机器阅读模型的网络参数。
5.如权利要求4所述的方法,其中,所述第一分类器的输出为所述文档片段在文档中的起始位置的概率分布向量,指示所述文档片段的起始位置在文档中分布的概率;
所述第二分类器的输出为所述文档片段在文档中的结束位置的概率分布向量,指示所述文档片段的结束位置在文档中分布的概率。
6.如权利要求1-3中任一项所述的方法,其中,所述计算该候选答案与所述问题的语义相关度包括步骤:
将该候选答案与所述问题输入问答模型;
根据所述问答模型的输出作为所述候选答案与所述问题的语义相关度。
7.如权利要求6所述的方法,其中,所述问答模型包括:
词嵌入层,适于将输入的问题转化为第三词向量序列,将输入的所述候选答案转化为第四词向量序列;
循环神经网络层,适于对所述第三词向量序列进行语义编码得到所述问题的隐藏向量,对所述第四词向量序列进行语义编码得到所述候选答案的隐藏向量;
softmax层,适于根据所述问题和所述候选答案的隐藏向量,计算所述候选答案与所述问题的语义相关度。
8.如权利要求7所述的方法,其中,所述问答模型的训练步骤包括:
获取训练样本,所述训练样本包括问题和答案,问题和答案匹配的为正样本,问题和答案不匹配的为负样本;
将所述训练样本包括的问题和答案输入所述问答模型,得到语义相关度概率;
根据训练样本的正负标签和所述语义相关度概率,确定所述问答模型的损失;
基于所述损失调整所述问答模型的网络参数。
9.如权利要求1-3中任一项所述方法,还包括步骤:
从问题库中检索与用户输入的问题相似的候选问题,作为候选问题集合;
计算所述候选问题集合中每一个候选问题与所述问题的相似度;
从所述候选问题集合中选取与所述问题相似度最高的预定数目个候选问题推荐给用户以供选择。
10.如权利要求9所述的方法,其中,所述计算所述候选问题集合中每一个候选问题与所述问题的相似度包括步骤:
计算所述候选问题的热度参数和实体参数;
将所述热度参数与所述实体参数的之和作为所述候选问题与所述问题的相似度得分。
11.如权利要求10所述的方法,其中,所述计算所述候选问题的热度参数包括步骤:
根据所述候选问题在预定时间段内被搜索的次数,确定所述候选问题的热度值;
将预设权重与所述候选问题的热度值相乘作为所述热度参数。
12.如权利要求10所述的方法,其中,确定所述候选问题的实体参数包括步骤:
确定所述候选问题包括的第一实体集合和所述问题中包括的第二实体集合;
将所述第一实体集合和第二实体集合的交并比作为实体参数。
13.如权利要求1-3中任一项所述的方法,其中,所述检索与所述问题相关的多篇文档包括步骤:
从预设文本库中检索与问题相关的多篇文档;和/或
应用搜索引擎从外部数据库中检索与所述问题相关的多篇文档。
14.一种计算设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1至13所述的方法中的任一方法的指令。
15.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行根据权利要求1至13所述的方法中的任一方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011404117.8A CN112417126B (zh) | 2020-12-02 | 2020-12-02 | 一种问答方法、计算设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011404117.8A CN112417126B (zh) | 2020-12-02 | 2020-12-02 | 一种问答方法、计算设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112417126A CN112417126A (zh) | 2021-02-26 |
CN112417126B true CN112417126B (zh) | 2024-01-23 |
Family
ID=74830060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011404117.8A Active CN112417126B (zh) | 2020-12-02 | 2020-12-02 | 一种问答方法、计算设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112417126B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113159187B (zh) * | 2021-04-23 | 2024-06-14 | 北京金山数字娱乐科技有限公司 | 分类模型训练方法及装置、目标文本确定方法及装置 |
CN113407685B (zh) * | 2021-05-14 | 2024-09-06 | 北京金山数字娱乐科技有限公司 | 一种样本筛选方法及装置 |
CN113434629A (zh) * | 2021-06-23 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于向量匹配的问答对录入方法、装置、设备及介质 |
CN114840648B (zh) * | 2022-03-21 | 2024-08-20 | 阿里巴巴(中国)有限公司 | 答案生成方法、装置及计算机程序产品 |
CN114741490B (zh) * | 2022-04-01 | 2024-08-16 | 腾讯科技(深圳)有限公司 | 一种问题答案选取的方法以及相关装置 |
CN114579796B (zh) * | 2022-05-06 | 2022-07-12 | 北京沃丰时代数据科技有限公司 | 机器阅读理解方法及装置 |
CN116701609B (zh) * | 2023-07-27 | 2023-09-29 | 四川邕合科技有限公司 | 基于深度学习的智能客服问答方法、系统、终端及介质 |
CN117312516B (zh) * | 2023-09-27 | 2024-10-01 | 星环信息科技(上海)股份有限公司 | 一种知识问答方法、装置、设备及存储介质 |
CN117094401A (zh) * | 2023-10-19 | 2023-11-21 | 恒生电子股份有限公司 | 问答查询方法、装置、计算设备和计算机可读存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105893523A (zh) * | 2016-03-31 | 2016-08-24 | 华东师范大学 | 利用答案相关性排序的评估度量来计算问题相似度的方法 |
CN105930452A (zh) * | 2016-04-21 | 2016-09-07 | 北京紫平方信息技术股份有限公司 | 一种识别自然语言的智能应答方法 |
CN108959556A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 基于神经网络的实体问答方法、装置和终端 |
CN109766423A (zh) * | 2018-12-29 | 2019-05-17 | 上海智臻智能网络科技股份有限公司 | 基于神经网络的问答方法及装置、存储介质、终端 |
CN109906460A (zh) * | 2016-11-04 | 2019-06-18 | 易享信息技术有限公司 | 用于问答的动态协同注意力网络 |
CN110020171A (zh) * | 2017-12-28 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
CN110020009A (zh) * | 2017-09-29 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 在线问答方法、装置及系统 |
CN110276064A (zh) * | 2018-03-14 | 2019-09-24 | 普天信息技术有限公司 | 一种词性标注方法及装置 |
CN110502619A (zh) * | 2019-03-08 | 2019-11-26 | 中山大学 | 一种基于gru神经网络内部注意力机制的答案选择模型 |
CN110647629A (zh) * | 2019-09-20 | 2020-01-03 | 北京理工大学 | 一种多粒度答案排序的多文档机器阅读理解方法 |
CN110955761A (zh) * | 2019-10-12 | 2020-04-03 | 深圳壹账通智能科技有限公司 | 文书中问答数据获取方法、装置、计算机设备和存储介质 |
CN111460176A (zh) * | 2020-05-11 | 2020-07-28 | 南京大学 | 一种基于哈希学习的多文档机器阅读理解方法 |
CN111552880A (zh) * | 2020-04-30 | 2020-08-18 | 杭州网易再顾科技有限公司 | 基于知识图谱的数据处理方法、装置、介质及电子设备 |
-
2020
- 2020-12-02 CN CN202011404117.8A patent/CN112417126B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105893523A (zh) * | 2016-03-31 | 2016-08-24 | 华东师范大学 | 利用答案相关性排序的评估度量来计算问题相似度的方法 |
CN105930452A (zh) * | 2016-04-21 | 2016-09-07 | 北京紫平方信息技术股份有限公司 | 一种识别自然语言的智能应答方法 |
CN109906460A (zh) * | 2016-11-04 | 2019-06-18 | 易享信息技术有限公司 | 用于问答的动态协同注意力网络 |
CN110020009A (zh) * | 2017-09-29 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 在线问答方法、装置及系统 |
CN110020171A (zh) * | 2017-12-28 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
CN110276064A (zh) * | 2018-03-14 | 2019-09-24 | 普天信息技术有限公司 | 一种词性标注方法及装置 |
CN108959556A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 基于神经网络的实体问答方法、装置和终端 |
CN109766423A (zh) * | 2018-12-29 | 2019-05-17 | 上海智臻智能网络科技股份有限公司 | 基于神经网络的问答方法及装置、存储介质、终端 |
CN110502619A (zh) * | 2019-03-08 | 2019-11-26 | 中山大学 | 一种基于gru神经网络内部注意力机制的答案选择模型 |
CN110647629A (zh) * | 2019-09-20 | 2020-01-03 | 北京理工大学 | 一种多粒度答案排序的多文档机器阅读理解方法 |
CN110955761A (zh) * | 2019-10-12 | 2020-04-03 | 深圳壹账通智能科技有限公司 | 文书中问答数据获取方法、装置、计算机设备和存储介质 |
CN111552880A (zh) * | 2020-04-30 | 2020-08-18 | 杭州网易再顾科技有限公司 | 基于知识图谱的数据处理方法、装置、介质及电子设备 |
CN111460176A (zh) * | 2020-05-11 | 2020-07-28 | 南京大学 | 一种基于哈希学习的多文档机器阅读理解方法 |
Non-Patent Citations (2)
Title |
---|
Knowledge map construction for question and answer archives;Ming Li 等;《Expert Systems With Applications》;第141卷;1-16 * |
任务型对话系统研究综述;赵阳洋 等;《计算机学报》;第43卷(第10期);1862-1896 * |
Also Published As
Publication number | Publication date |
---|---|
CN112417126A (zh) | 2021-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112417126B (zh) | 一种问答方法、计算设备以及存储介质 | |
CN106599278B (zh) | 应用搜索意图的识别方法及装置 | |
US8787683B1 (en) | Image classification | |
US20210216576A1 (en) | Systems and methods for providing answers to a query | |
US8108207B1 (en) | Methods and apparatus for understanding machine vocabulary | |
US8073877B2 (en) | Scalable semi-structured named entity detection | |
EP3579125A1 (en) | System, computer-implemented method and computer program product for information retrieval | |
AU2020372605B2 (en) | Mapping natural language utterances to operations over a knowledge graph | |
CN111984851B (zh) | 医学资料搜索方法、装置、电子装置及存储介质 | |
Wu et al. | Learning of multimodal representations with random walks on the click graph | |
CN114911892A (zh) | 用于搜索、检索和排序的交互层神经网络 | |
US9798776B2 (en) | Systems and methods for parsing search queries | |
CN110334186B (zh) | 数据查询方法、装置、计算机设备及计算机可读存储介质 | |
CN111813930B (zh) | 相似文档检索方法及装置 | |
CN112328800A (zh) | 自动生成编程规范问题答案的系统及方法 | |
CN118575173A (zh) | 使用搜索引擎结果增强机器学习语言模型 | |
WO2021002800A1 (en) | Apparatus and method for tagging electronic legal documents for classification and retrieval | |
CN111259115B (zh) | 内容真实性检测模型的训练方法、装置和计算设备 | |
CN117056575A (zh) | 一种基于智能图书推荐系统数据采集的方法 | |
CN116719954A (zh) | 一种信息检索方法、电子设备及存储介质 | |
AU2023236937A1 (en) | Generating output sequences with inline evidence using language model neural networks | |
CN115827847A (zh) | 知识图谱构建方法、装置、电子设备和存储介质 | |
CN113609841A (zh) | 一种主题词生成模型的训练方法及计算设备 | |
JP6181890B2 (ja) | 文献解析装置、文献解析方法およびプログラム | |
Cakaloglu et al. | MRNN: A multi-resolution neural network with duplex attention for document retrieval in the context of question answering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |