CN111309878A - 检索式问答方法、模型训练方法、服务器及存储介质 - Google Patents
检索式问答方法、模型训练方法、服务器及存储介质 Download PDFInfo
- Publication number
- CN111309878A CN111309878A CN202010059894.7A CN202010059894A CN111309878A CN 111309878 A CN111309878 A CN 111309878A CN 202010059894 A CN202010059894 A CN 202010059894A CN 111309878 A CN111309878 A CN 111309878A
- Authority
- CN
- China
- Prior art keywords
- word
- text
- weight
- question
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书提供一种检索式问答方法,包括:对接收的第一文本进行分词,得到至少一个第一词语;确定所述至少一个第一词语的词权重;根据所述至少一个第一词语从知识库召回至少一个候选问题‑答案对;针对每个候选问题‑答案对,分别将候选问题‑答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定第一文本和候选问题‑答案对中每个问题的匹配度;根据确定的匹配度返回至少一个候选问题‑答案对中的答案。本说明书还提供了实现了检索式问答的服务器、电子设备以及计算机可读存储介质。
Description
技术领域
本说明书涉及自然语言处理技术领域,尤其涉及一种检索式问答方法、模型训练方法、服务器、电子设备以及计算机可读存储介质。
背景技术
问答系统是信息检索的一种高级形式,能够理解用户用自然语言提出的问题,并通过检索语料库、知识图谱或问答知识库返回简洁、准确的匹配答案。相较于搜索引擎,问答系统能更好地理解用户提问的真实意图,进一步能更有效地满足用户的信息需求。问答系统是目前人工智能和自然语言处理领域中一个倍受关注并具有广泛发展前景的研究方向。
问答系统处理的对象主要包括用户的问题以及答案。根据问题所属的知识领域、答案来源或答案的反馈机制可以将问答系统划分成多种类型。其中,面向常用问题集(FAQ)的检索式问答具体是指根据用户的问题去常用问题集的知识库找到最合适的答案并反馈给用户。因此,如何找到最合适的答案是面向FAQ的检索式问答系统需要解决的关键问题。
发明内容
有鉴于此,本说明书的实施例提出了一种检索式问答方法,该方法可以包括:对接收的第一文本进行分词,得到至少一个第一词语;确定所述至少一个第一词语的词权重;根据所述至少一个第一词语从知识库召回预定数量的候选问题-答案对;针对每个候选问题-答案对,分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;并根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述第二文本的匹配度;以及根据确定的所述第一文本和所述候选问题-答案对中每个第二文本的匹配度返回至少一个候选问题-答案对中的答案。
在本说明书的实施例中,上述确定所述至少一个第一词语的词权重可以包括:分别将所述至少一个第一词语输入经过训练的词权重模型,得到所述至少一个第一词语的词权重。
在本说明书的实施例中,上述确定所述第二文本包含的至少一个第二词语及其词权重可以包括:从所述知识库获取所述第二文本包含的至少一个第二词语及其词权重;或,对所述第二文本进行分词,得到所述至少一个第二词语,并分别将所述至少一个第二词语输入经过训练的词权重模型,得到所述至少一个第二词语的词权重。
在本说明书的实施例中,上述根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述候选问题-答案对中每个问题的匹配度可以包括:
根据所述至少一个第一词语的词权重和所述至少一个第二词语的词权重确定所述第一文本和第二文本的词权重相关矩阵,其中,所述词权重相关矩阵中的每个元素Bij代表所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数;
确定所述第一文本和第二文本的注意力权值矩阵,其中,所述注意力权值矩阵中的每个元素Aij代表所述第一文本中第i个词语对所述第二文本中第j个词语的匹配度;
使用所述词权重相关矩阵对所述注意力权值矩阵进行更新;以及
将所述更新后的注意力权值矩阵、第一文本以及第二文本输入基于注意力机制的相似度匹配模型,确定所述第一文本和所述第二文本的匹配度。
在本说明书的实施例中,上述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数为所述第一文本中第i个词语和所述第二文本中第j个词语的词权重的乘积。
在本说明书的实施例中,上述使用所述词权重相关矩阵对所述注意力权值矩阵进行更新可以包括:针对所述注意力权值矩阵中的每个元素,将所述元素与所述词权重相关矩阵中的对应元素进行相乘,并使用得到的乘积替换所述元素;或针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的平均值,并使用得到的平均值替换所述元素;或针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的加权平均值,并使用得到的加权平均值替换所述元素。
在本说明书的实施例中,上述根据确定的所述第一文本和所述候选问题-答案对中每个第二文本的匹配度返回至少一个候选问题-答案对中的答案可以包括:将所述第一文本和每个候选问题-答案对中问题的匹配度、所述第一文本和所述候选问题-答案对输入排序模型,接收所述排序模型输出的排序值,根据所述排序值返回排序在前的至少一个候选问题-答案对中的答案。
本说明书的实施例提出了一种检索式问答服务器,该服务器可以包括:
第一词语获取模块,用于对接收的第一文本进行分词,得到至少一个第一词语,并确定所述至少一个第一词语的词权重;
召回模块,用于根据所述至少一个第一词语从知识库召回预定数量的候选问题-答案对;
相似度匹配模块,用于针对每个候选问题-答案对,分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;并根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述第二文本的匹配度;以及
反馈模块,用于根据确定的所述第一文本和所述候选问题-答案对中每个第二文本的匹配度返回至少一个候选问题-答案对中的答案。
在本说明书的实施例中,上述相似度匹配模块可以包括:
第二词语获取单元,用于确定所述第二文本包含的至少一个第二词语及其词权重;
词权重相关矩阵确定单元,用于根据所述至少一个第一词语的词权重和所述至少一个第二词语的词权重确定所述第一文本和第二文本的词权重相关矩阵,其中,所述词权重相关矩阵中的每个元素Bij代表所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数;
注意力权值矩阵确定单元,用于确定所述第一文本和第二文本的注意力权值矩阵,其中,所述注意力权值矩阵中的每个元素Aij代表所述第一文本中第i个词语对所述第二文本中第j个词语的匹配度;
更新单元,用于使用所述词权重相关矩阵对所述注意力权值矩阵进行更新;以及
相似度匹配单元,用于将所述更新后的注意力权值矩阵、第一文本以及第二文本输入基于注意力机制的相似度匹配模型,确定所述第一文本和所述第二文本的匹配度。
在本说明书的实施例中,上述第一词语获取模块将所述至少一个第一词语输入训练好的词权重模型,得到所述至少一个第一词语的词权重。
在本说明书的实施例中,上述第二词语获取单元对所述第二文本进行分词,得到至少一个第二词语,并将所述至少一个第二词语输入训练好的词权重模型,得到所述至少一个第二词语的词权重。
在本说明书的实施例中,上述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数为所述第一文本中第i个词语和所述第二文本中第j个词语的词权重的乘积。
在本说明书的实施例中,上述更新单元针对所述注意力权值矩阵中的每个元素,将所述元素与所述词权重相关矩阵中的对应元素进行相乘,并使用得到的乘积替换所述元素;或者所述更新单元针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的平均值,并使用得到的平均值替换所述元素;或者所述更新单元针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的加权平均值,并使用得到的加权平均值替换所述元素。
在本说明书的实施例中,上述反馈模块可以包括:
排序模型,用于根据输入的所述第一文本和每个候选问题-答案对中问题的匹配度、所述第一文本和所述候选问题-答案对确定所述后续问题-答案对的排序值;以及
反馈单元,用于根据所述排序值返回排序在前的至少一个候选问题-答案对中的答案。
本说明书的实施例还提供了一种训练词权重模型的方法,可以包括:获取训练数据,所述训练数据包括多个训练文本以及每一个训练文本对应的已知输出;针对每个训练文本,将所述训练文本经分词后得到的至少一个第三词语输入编码器,根据所述编码器的参数的当前值生成所述至少一个第三词语的词向量;将所述至少一个第三词语的词向量输入线性变换模型,根据所述线性变换模型的参数的当前值生成所述至少一个第三词语的词权重,并将所述至少一个第三词语的词权重作为所述训练文本的预测输出;根据所述训练文本的预测输出和已知输出之间的误差确定一个梯度;将所述梯度反向传播给所述编码器和所述线性变换模型以联合地调整所述编码器和所述线性变换模型的参数的当前值。
本说明书的实施例还提供了一种电子设备,可以包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述方法。
本说明书的实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行实现上述方法。
由此可以看出,上述检索式问答方法和服务器在对输入的问题文本和从知识库召回的后续问题-答案对中的问题文本进行相似度匹配过程中,除了考虑文本中各个词语本身的相似度之外,还考虑了各个词语在语义上的重要程度,从而避免语义上不重要的词语对文本相似度判断结果的影响,使得相似度匹配结果更为准确。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例所述检索式问答系统100的内部结构示意图;
图2为本说明书实施例所述的检索式问答的方法流程示意图;
图3显示了一个注意力权值矩阵的示例;
图4为本说明书实施例所述的检索式问答的方法流程示意图;
图5显示了本说明书实施例所述两个文本的词权重示例;
图6为本说明书实施例所述的确定第一文本和第二文本的匹配度的方法流程示意图;
图7显示了本说明书实施例所述第一文本和第二文本的词权重相关矩阵的一个示例;
图8显示了本说明书一些实施例所述更新后的注意力权值矩阵示例;
图9显示了本说明书另一些实施例所述更新后的注意力权值矩阵示例;
图10为本说明书实施例所述实现检索式问答的服务器800的内部结构示意图;
图11显示了对本说明书实施例所述词权重模型进行训练的方法流程;
图12显示了本说明书实施例所述的词权重模型的内部结构。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本说明书进一步详细说明。
需要说明的是,除非另外定义,本说明书实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如前所述,检索式问答系统的基本目标是根据用户的问题去常用问题集的知识库找到最合适的答案并反馈给用户。图1显示了本说明书实施例所述的检索式问答系统100的结构。如图1所示,上述检索式问答系统100可以包括:至少一个客户端102、服务器104以及知识库106。
其中,上述客户端102用于为用户提供用户界面,接收用户输入的问题,将上述问题转发至服务器104,并向用户反馈从服务器104接收的针对上述问题的答案。
上述服务器104用于接收来自客户端102的用户输入的问题,根据用户的问题从知识库106召回一定数量的问题-答案对,从这些问题-答案对中确定针对上述问题的最合适的答案,并将确定的答案返回给客户端102。
上述知识库106用于存储预先设置好的多个问题-答案对。通常,知识库106可以被视为一个存储文本的数据库或者数据集,其上存储的文本可以被视为文本检索的一个范围。例如,在问答系统中,知识库106通常存储的时预先编辑好的大量的问题-答案对。
图2显示了本说明书实施例所述的检索式问答的实现方法流程,该方法可以由服务器104执行。如图2所示,服务器104可以通过以下一系列的操作实现面向FAQ的检索式问答。
在步骤202,从客户端102接收用户输入的第一文本。
在本说明书的实施例中,上述第一文本是指用户输入的问题。由于用户的问题通常是文本形式或者是可以转化成文本形式的,因此,在本说明书的实施例中,将用户输入的问题称为第一文本。
在步骤204,根据上述第一文本,从知识库106中召回预定数量的问题-答案对,将召回的问题-答案对作为候选问题-答案对。
在本说明书的实施例中,可以通过词语召回或者向量召回等方式根据上述第一文本从知识库106中召回预定数量的问题-答案对。
其中,对于词语召回方式,通常可以先将上述第一文本进行分词,得到上述第一文本的至少一个关键词;然后,从知识库106中召回包含上述至少一个关键词的预定数量的问题-答案对。
对于向量召回方式,通常可以先将上述第一文本编码为特征向量;再根据上述特征向量从知识库106中召回与上述特征向量匹配的问题-答案对。
在本说明书的实施例中,可以采用多种方法对上述第一文本进行分词,例如,基于词典的分词方法、基于统计的分词方法、基于规则的分词方法、基于字标注的分词方法、以及基于理解的分词方法等。本说明书实施例所述的文本检索方案对所采用的具体的分词方法不作限定。
在步骤206,利用相似度匹配模型分别确定上述各个候选问题-答案对与上述第一文本的匹配度,并根据上述匹配度对上述候选问题-答案对进行排序。
在本说明书的实施例中,上述相似度匹配模型具体可以是基于深度学习的神经网络模型,可以学习文本中深层的语义特征,对文本做语义表示后进行语义匹配。上述基于深度学习的神经网络模型可以包括多种,例如:ABCNN模型、QA-LSTM/CNN-attention模型等等。
需要说明的是,这些模型都是基于注意力(Attention)机制的模型,也即结合了注意力机制。其中,在模型中结合注意力机制的目的就是对文本的局部重要特征进行重点关注,从而从语义层面提高相似度匹配的准确度。具体可以通过在上述模型中对每个词向量特征设置不同大小的注意力权值系数的方式来实现。其中,不同的注意力权值反映出语义重要性的大小。
在确定了各个候选问题-答案对与上述第一文本的匹配度之后,就可以利用上述匹配度对上述候选问题-答案对进行排序,从而将匹配度高的候选问题-答案中的答案反馈给用户。例如,可以对上述候选问题-答案对按照其与第一文本的匹配度的从高到低排序。或者,还可以应用一个排序模型负责具体的排序工作。该排序模型的输入可以包括候选问题-答案对中答案对应的特征向量、上述第一文本和每个候选问题-答案对中问题的匹配度以及所述第一文本,根据实际需求构造不同类型的损失函数,其输出的排序值是对候选问题-答案对进行最终排序的依据。
在步骤208,向客户端102返回排序在前的至少一个候选问题-答案对中的答案。
由此可以看出,通过图2所示的检索式问答实现方法,可以从知识库中找到与用户输入问题匹配度高的问题的答案,从而实现面向FAQ的检索式问答,进而提供人工智能客服等服务。
在本说明书的实施例中,上述步骤206中,上述注意力权值系数具体可以由待进行相似度匹配两个文本在分词以及编码之后的各个词向量相互点乘得到的注意力权值矩阵表示。上述注意力权值矩阵中的每个元素Aij代表第一文本中第i个词语对第二文本中第j个词语的注意力权值,也即匹配度,其中,两个词语的匹配度越高,其对应的元素Aij的值越大,也表示这两个词语在相似度匹配时语义重要性越大。具体地,上述匹配度可以使用两个词语之间的欧式距离计算。
图3显示了一个注意力权值矩阵的示例。在图3中,上述进行比较第一文本为用户输入的问题“我的钱找不到了”,该文本经过分词后得到“我”、“的”、“钱”、“找不到”以及“了”五个词语。上述进行比较第二文本为从知识库召回的问题-答案对中的一个问题“余额宝的钱不见了”,该文本经过分词后得到“余额宝”、“的”、“钱”、“不见”以及“了”五个词语。经过上述词语之间匹配度计算后,可以得到如图2所示的注意力权值矩阵。该注意力权值矩阵将作为上述相似度匹配模型的一个输入,目的是为语义重要性大的词语增加相似度匹配时的权重。
然而,从上述图3所示的注意力权值矩阵的例子可以发现上述第一文本和第二文本中很多语义上不重要的词,例如“的”和“了”由于在两个文本中都出现了,因此其注意力权值反而比其他重要的词,例如“不见”或“找不到”更高。这样的注意力权值矩阵在输入到上述相似度匹配模型后,这类语义上不重要但是在待比较的文本中均出现的词语,会降低相似度匹配模型输出结果的准确性。
为此,本发明的实施例提出了一种检索式问答方法,由服务器104执行,其实现流程如图4所示,可以包括:
在步骤402,对从客户端102接收的用户输入的第一文本进行分词,得到至少一个第一词语。
上述步骤402的实现方法可以参考上述步骤202。
在步骤404,确定上述至少一个第一词语的词权重。
在本说明书的一些实施例中,可以分别将所述至少一个第一词语输入经过训练的词权重模型,得到所述至少一个第一词语的词权重。
需要说明的是,上述词权重模型是预先训练好的模型,该词权重模型的输入是词语,输出是该词语对应的词权重。训练该词权重模型的训练集可以包括预定数量的词语及这些词语对应的词权重标签。关于该词权重模型的训练方法将在后文详细说明。
作为替代方案,在本说明书的另一些实施例中,还可以利用词频-逆文本频率指数(TF-IDF,Term Frequency-Inverse Document Frequency)方法分别确定上述至少一个第一词语的词权重。
在步骤406,根据上述至少一个第一词语,从知识库106中召回预定数量的候选问题-答案对。
上述步骤406的实现方法可以参考上述步骤204。
接下来,针对每一个候选问题-答案对,分别执行如下的步骤408-410:
在步骤408,将候选问题-答案对中的问题作为第二文本,确定上述第二文本包含的至少一个第二词语及其的词权重。
在本说明书的一些实施例中,在上述知识库中存储问题-答案对时就已经存储了其中问题文本经过分词后得到的至少一个词语及这些词语的词权重,因此,在该步骤408中,服务器104可以直接在从上述知识库中获取候选问题-答案对的同时直接获取这些候选问题所包含的词语及其词权重作为上述第二词语及其词权重。
在本说明书的另一些实施例中,服务器104也可以先对第二文本进行分词,得到至少一个第二词语;然后再通过上述步骤404所述的方法确定上述至少一个第二词语的词权重。
继续图2所示的文本示例,在执行完上述步骤408后,可以分别确定上述第一文本经过分词后得到的“我”、“的”、“钱”、“找不到”以及“了”这五个词语的词权重以及还可以确定上述第二文本经过分词后得到的“余额宝”、“的”、“钱”、“不见”以及“了”这五个词语词权重。图5显示了本说明书实施例所述两个文本的词权重示例。从图5可以看出,语义上不太重要的词语,例如“的”和“了”的词权重是较低的,而其他在语义上重要的词语,例如“钱”和“找不到”以及“不见”的词权重是较高的。
在步骤410,根据上述至少一个第一词语、至少一个第二词语及其词权重确定第一文本和第二文本的匹配度。
在本说明书的实施例中,通过上述步骤410,在确定第一文本和候选问题-答案对中每个问题的匹配度的过程中,除了考虑第一文本和候选问题-答案对中的每个问题本身,还进一步考虑第一文本和上述问题经过分词后每个词语的词权重,因此,可以减小词权重小的词语对相似度匹配模型输出结果的准确性的影响。
在本说明书的实施例中,上述根据上述至少一个第一词语、至少一个第二词语及其词权重确定第一文本和第二文本的匹配度的方法可以如图6所示,包括如下步骤:
在步骤602,根据上述至少一个第一词语的词权重和上述至少一个第二词语的词权重确定上述第一文本和第二文本的词权重相关矩阵,其中,上述词权重相关矩阵中的每个元素Bij代表上述第一文本中第i个词语和上述第二文本中第j个词语的词权重相关系数。
其中,在本说明书的实施例中,两个词语的词权重相关系数可以是这两个词的词权重的乘积。
继续图2所示的文本示例,经过上述步骤602,可以分别确定上述第一文本和第二文本的词权重相关矩阵。图7显示了本说明书实施例所述第一文本和第二文本的词权重相关矩阵的一个示例。
在步骤604,确定上述第一文本和第二文本的注意力权值矩阵,其中,上述注意力权值矩阵中的每个元素Aij代表第一文本中第i个词语对第二文本中第j个词语的匹配度。
如前所述,在本说明书的一些实施例中,上述注意力权值矩阵具体可以由第一文本和第二文本在分词以及编码之后得到的各个词向量相互点乘(也就是向量内积)确定。也即上述注意力全职矩阵中的元素Aij可以是上述第一文本中第i个词语的词向量与上述第二文本中第j个词语的词向量的内积。
在本说明书的另一些实施例中,两个词语的匹配度可以使用两个词语之间的欧式距离确定。
在步骤606,使用上述词权重相关矩阵对上述注意力权值矩阵进行更新。
在本说明书的一些实施例中,针对上述注意力权值矩阵中的每个元素,可以将该元素与上述词权重相关矩阵中的对应元素进行相乘,并使用得到的乘积替换上述注意力矩阵中的该元素。图8显示了本说明书实施例所述更新后的注意力权值矩阵示例。
在本说明书的另一些实施例中,针对上述注意力权值矩阵中的每个元素,可以求该元素与上述词权重相关矩阵中的对应元素的平均值,并使用得到的平均值替换上述注意力矩阵中的该元素。图9显示了本说明书实施例所述更新后的注意力权值矩阵示例。
在本说明书的又一些实施例中,针对上述注意力权值矩阵中的每个元素,可以求该元素与上述词权重相关矩阵中的对应元素的加权平均值,并使用得到的加权平均值替换上述注意力矩阵中的该元素。
从上述图8或者图9所示的更新后的注意力权值矩阵可以看出,在更新之后,第一文本和第二文本中语义上不重要的词语,例如“的”和“了”的注意力权值均有下降,而语义上重要的词语,例如“找不到”或“不见”的注意力权值有所上升。
在步骤608,将上述更新后的注意力权值矩阵,第一文本以及第二文本输入基于注意力机制的相似度匹配模型确定上述第一文本和上述第二文本的匹配度。
在本说明书的实施例中,上述基于注意力机制的相似度匹配模型具体可以是ABCNN模型、QA-LSTM/CNN-attention模型等等。
在步骤412,根据确定的上述第一文本和上述候选问题-答案对中每个第二文本的匹配度并向客户端102返回至少一个候选问题-答案对中的答案。
在本说明书的一些实施例中,在上述步骤412中,可以返回匹配度最高的至少一个候选问题-答案对中的答案。
在本说明书的另一些实施例中,在上述步骤412中,还可以应用一个排序模型负责对候选问题-答案对进行排序的工作。该排序模型的输入是候选问题-答案对中答案对应的特征向量,根据实际需求构造不同类型的损失函数,其输出的排序值是对候选问题-答案对进行最终排序的依据。在得到候选问题-答案对的排序结果后可以返回排序在前的至少一个候选问题-答案对中的答案。
通过上述检索式问答的方法,在对输入的问题文本和从知识库召回的后续问题-答案对中的问题文本进行相似度匹配过程中,除了考虑文本中各个词语本身的相似度之外,还考虑了各个词语在语义上的重要程度,从而避免语义上不重要的词语对文本相似度判断结果的影响,使得相似度匹配结果更为准确。
对应上述检索式问答方法,本说明书还给出了实现上述方法的服务器。图10显示上述服务器1000的内部结构。如图10所示,上述服务器1000可以包括:
第一词语获取模块1002,用于对接收的第一文本进行分词,得到至少一个第一词语,并确定所述至少一个第一词语的词权重;
召回模块1004,用于根据所述至少一个第一词语从知识库召回预定数量的候选问题-答案对;
相似度匹配模块1006,用于针对每个候选问题-答案对,分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;并根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述第二文本的匹配度;
反馈模块1008,用于根据确定的所述第一文本和每个候选问题-答案对中第二文本的匹配度对所述候选问题-答案对进行排序,根据排序结果返回至少一个候选问题-答案对中的答案。
在本说明书的实施例中,上述相似度匹配模块1006可以包括:
第二词语获取单元,用于分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;
词权重相关矩阵确定单元,用于根据所述至少一个第一词语的词权重和所述至少一个第二词语的词权重确定所述第一文本和第二文本的词权重相关矩阵,其中,所述词权重相关矩阵中的每个元素Bij代表所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数;
注意力权值矩阵确定单元,用于确定所述第一文本和第二文本的注意力权值矩阵,其中,所述注意力权值矩阵中的每个元素Aij代表所述第一文本中第i个词语对所述第二文本中第j个词语的匹配度;
更新单元,用于使用所述词权重相关矩阵对所述注意力权值矩阵进行更新;以及
相似度匹配单元,用于将所述更新后的注意力权值矩阵、第一文本以及第二文本输入基于注意力机制的相似度匹配模型,确定所述第一文本和所述第二文本的匹配度。
在本说明书的实施例中,上述第一词语获取模块将所述至少一个第一词语输入训练好的词权重模型,得到所述至少一个第一词语的词权重。
在本说明书的实施例中,上述第一词语获取模块可以将所述至少一个第一词语输入训练好的词权重模型,得到所述至少一个第一词语的词权重。上述第一词语获取模块还可以利用词频-逆文本频率指数方法分别确定所述至少一个第一词语的词权重和所述至少一个第二词语的词权重。
在本说明书的实施例中,上述第二词语获取单元可以对所述第二文本进行分词,得到至少一个第二词语,并将所述至少一个第二词语输入训练好的词权重模型或利用词频-逆文本频率指数方法,得到所述至少一个第二词语的词权重。
在本说明书的实施例中,上述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数为所述第一文本中第i个词语和所述第二文本中第j个词语的词权重的乘积。
在本说明书的实施例中,上述注意力权值矩阵确定单元通过对所述第一文本和第二文本经过编码之后相互点乘得到素所述注意力权值矩阵。
在本说明书的实施例中,上述注意力权值矩阵确定单元通过所述第一文本中第i个词语对所述第二文本中第j个词语之间的欧式距离计算得到所述第一文本中第i个词语对所述第二文本中第j个词语的匹配度。
在本说明书的实施例中,上述更新单元针对所述注意力权值矩阵中的每个元素,将所述元素与所述词权重相关矩阵中的对应元素进行相乘,并使用得到的乘积替换所述元素。
在本说明书的实施例中,上述更新单元针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的平均值,并使用得到的平均值替换所述元素。
在本说明书的实施例中,上述更新单元针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的加权平均值,并使用得到的加权平均值替换所述元素。
在本说明书的一些实施例中,上述反馈模块可以返回匹配度最高的至少一个候选问题-答案对中的答案。
在本说明书的另一些实施例中,上述反馈模块还可以包括:
排序模型,用于根据输入的所述第一文本和每个候选问题-答案对中问题的匹配度、所述第一文本和所述候选问题-答案对确定所述后续问题-答案对的排序值;以及
反馈单元,用于根据所述排序值返回排序在前的至少一个候选问题-答案对中的答案。
此外,在本说明书的实施例中,上述服务器可以被视为一个电子设备,因此,该服务器可以包括:存储器1100、处理器1200、输入/输出接口1400、通信接口1600和总线1800。其中处理器1200、存储器1100、输入/输出接口1400和通信接口1600通过总线1800实现彼此之间在设备内部的通信连接。
存储器1100可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1100可以存储操作系统和其他应用程序,还可以存储本说明书实施例提供的服务器的各个模块,例如上述第一词语获取模块1002、召回模块1004、相似度匹配模块1006以及反馈模块1008,通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器80中,并由处理器82来调用执行。
处理器1200可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
输入/输出接口1400用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1600用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中,通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1800包括一通路,在设备的各个组件(例如处理器1200、存储器1100、输入/输出接口1400和通信接口1600)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1200、存储器1100、输入/输出接口1400、通信接口1600以及总线1800,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
下面将结合具体示例详细说明上述词权重模型的训练方法和结构。
图11显示了对本说明书实施例所述词权重模型进行训练的方法流程。如图11所示,该方法可以包括:
在步骤1102,获取训练数据,所述训练数据包括多个训练文本以及每一个训练文本对应的已知输出,其中,每个训练文本包括至少一个第三词语。
在本说明书的实施例中,上述每个训练文本包括的第三词语均标注有重要度标签,该重要度标签标识该词语的重要程度。此时,上述已知输出可以具体为:模型输出的由重要度标签标识为重要的词语的词权重应当大于模型输出的由重要度标签标识为非重要的词语的词权重。
下面针对每个训练文本,分别执行如下的步骤1104-1110:
在步骤1104,将所述训练文本包括的至少一个第三词语输入编码器,根据所述编码器的参数的当前值生成所述至少一个第三词语的词向量;
在步骤1106,将所述至少一个第三词语的词向量输入线性变换模型,根据所述线性变换模型的参数的当前值生成所述至少一个第三词语的词权重,作为所述训练文本的预测输出;
在步骤1108,根据所述训练文本的预测输出和已知输出之间的误差确定一个梯度;以及
在步骤1110,将所述梯度反向传播给所述编码器和所述线性变换模型以联合地调整所述编码器和所述线性变换模型的参数的当前值。
如前所述,上述已知输出可以具体为:模型输出的由重要度标签标识为重要的词语的词权重应当大于模型输出的由重要度标签标识为非重要的词语的词权重,因此,当预测输出和上述已知输出不符时,将视为本次训练结果为一次“惩罚”,并据此调整模型参数的当前值;而当预测输出和上述已知输出相符时,将视为本次训练结果为一次“奖励”,并据此调整模型参数的当前值。
当训练达到预定的次数或者模型收敛时则可以结束上述训练过程。
图12显示了本说明书实施例所述的词权重模型的内部结构。如图12所示,该词权重模型可以包括:
输入层1202,用于接收至少一个词语及其对应的已知输出。例如,在图6中,上述至少一个词语包括:“我的”、“钱”、“丢了”、“该”、“怎么办”以及“呢”六个词语,其中,“钱”和“丢了”是标注为重要的词语,图12中使用阴影框标识该词语为重要词语。
编码器1204,用于将上述至少一个词语进行编码,输出上述至少一个词语的词向量。
线性变换模型1206,用于对上述至少一个词语的词向量进行线性变换,得到上述至少一个词语的词权重,作为预测输出。
比较层1208,用于根据所述预测输出和已知输出之间的误差确定一个梯度;并将所述梯度反向传播给所述编码器1204和所述线性变换模型1206以联合地调整所述编码器1204和所述线性变换模型1206的参数的当前值。例如,在图12中,已知输出为词语“钱”和“丢了”的词权重应当大于“我的”、“该”、“怎么办”以及“呢”,因此,上述比较层1208会将预测输出与该已知输出进行比较,并根据二者之间的误差联合调整编码器1204和线性变换模型1206。
在本说明书的实施例中,上述编码器1204可以通过BERT模型、卷积神经网络(CNN)模型以及长短期记忆(LSTM)模型中的至少一种实现。而上述线性变换模型1206可以具体为一个1×N或N×1的系数矩阵,其中,N为上述词向量的维度;或者上述线性变换模型1206可以具体包括一个1×N或N×1的系数矩阵以及一个归一化单元。在本说明书的实施例中,上述归一化单元可以利用S生长曲线(Sigmoid)实现。
可以看出,在训练完成后,上述词权重模型输出的词权重可以准确地表示该词语的重要程度。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于电子设备实施例以及计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本说明书的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本说明书的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本说明书难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本说明书难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本说明书的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本说明书的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本说明书。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本说明书的具体实施例对本说明书进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
上述对本说明书特定实施例进行了描述。其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本说明书的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
Claims (17)
1.一种检索式问答方法,包括:
对接收的第一文本进行分词,得到至少一个第一词语;
确定所述至少一个第一词语的词权重;
根据所述至少一个第一词语从知识库召回预定数量的候选问题-答案对;
针对每个候选问题-答案对,分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;并根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述第二文本的匹配度;以及
根据确定的所述第一文本和所述候选问题-答案对中每个第二文本的匹配度返回至少一个候选问题-答案对中的答案。
2.根据权利要求1所述的方法,其中,所述确定所述至少一个第一词语的词权重包括:分别将所述至少一个第一词语输入经过训练的词权重模型,得到所述至少一个第一词语的词权重。
3.根据权利要求1所述的方法,其中,所述确定所述第二文本包含的至少一个第二词语及其词权重包括:
从所述知识库获取所述第二文本包含的至少一个第二词语及其词权重;
或,
对所述第二文本进行分词,得到所述至少一个第二词语,并分别将所述至少一个第二词语输入经过训练的词权重模型,得到所述至少一个第二词语的词权重。
4.根据权利要求1所述的方法,其中,所述根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述候选问题-答案对中每个问题的匹配度包括:
根据所述至少一个第一词语的词权重和所述至少一个第二词语的词权重确定所述第一文本和第二文本的词权重相关矩阵,其中,所述词权重相关矩阵中的每个元素Bij代表所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数;
确定所述第一文本和第二文本的注意力权值矩阵,其中,所述注意力权值矩阵中的每个元素Aij代表所述第一文本中第i个词语对所述第二文本中第j个词语的匹配度;
使用所述词权重相关矩阵对所述注意力权值矩阵进行更新;以及
将所述更新后的注意力权值矩阵、第一文本以及第二文本输入基于注意力机制的相似度匹配模型,确定所述第一文本和所述第二文本的匹配度。
5.根据权利要求4所述的方法,其中,所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数为所述第一文本中第i个词语和所述第二文本中第j个词语的词权重的乘积。
6.根据权利要求4所述的方法,其中,所述使用所述词权重相关矩阵对所述注意力权值矩阵进行更新包括:
针对所述注意力权值矩阵中的每个元素,将所述元素与所述词权重相关矩阵中的对应元素进行相乘,并使用得到的乘积替换所述元素;或,
针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的平均值,并使用得到的平均值替换所述元素;或,
针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的加权平均值,并使用得到的加权平均值替换所述元素。
7.根据权利要求1所述的方法,其中,所述根据确定的所述第一文本和所述候选问题-答案对中每个第二文本的匹配度返回至少一个候选问题-答案对中的答案包括:将所述第一文本和每个候选问题-答案对中问题的匹配度、所述第一文本和所述候选问题-答案对输入排序模型,接收所述排序模型输出的排序值,根据所述排序值返回排序在前的至少一个候选问题-答案对中的答案。
8.一种检索式问答服务器,包括:
第一词语获取模块,用于对接收的第一文本进行分词,得到至少一个第一词语,并确定所述至少一个第一词语的词权重;
召回模块,用于根据所述至少一个第一词语从知识库召回预定数量的候选问题-答案对;
相似度匹配模块,用于针对每个候选问题-答案对,分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;并根据所述至少一个第一词语、所述至少一个第二词语及其词权重确定所述第一文本和所述第二文本的匹配度;以及
反馈模块,用于根据确定的所述第一文本和所述候选问题-答案对中每个第二文本的匹配度返回至少一个候选问题-答案对中的答案。
9.根据权利要求8所述的服务器,其中,所述相似度匹配模块包括:
第二词语获取单元,用于分别将所述候选问题-答案对中的问题作为第二文本,确定所述第二文本包含的至少一个第二词语及其词权重;
词权重相关矩阵确定单元,用于根据所述至少一个第一词语的词权重和所述至少一个第二词语的词权重确定所述第一文本和第二文本的词权重相关矩阵,其中,所述词权重相关矩阵中的每个元素Bij代表所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数;
注意力权值矩阵确定单元,用于确定所述第一文本和第二文本的注意力权值矩阵,其中,所述注意力权值矩阵中的每个元素Aij代表所述第一文本中第i个词语对所述第二文本中第j个词语的匹配度;
更新单元,用于使用所述词权重相关矩阵对所述注意力权值矩阵进行更新;以及
相似度匹配单元,用于将所述更新后的注意力权值矩阵、第一文本以及第二文本输入基于注意力机制的相似度匹配模型,确定所述第一文本和所述第二文本的匹配度。
10.根据权利要求8所述的服务器,其中,所述第一词语获取模块将所述至少一个第一词语输入训练好的词权重模型,得到所述至少一个第一词语的词权重。
11.根据权利要求9所述的服务器,其中,所述第二词语获取单元对所述第二文本进行分词,得到至少一个第二词语,并将所述至少一个第二词语输入训练好的词权重模型,得到所述至少一个第二词语的词权重。
12.根据权利要求9所述的服务器,其中,所述第一文本中第i个词语和所述第二文本中第j个词语的词权重相关系数为所述第一文本中第i个词语和所述第二文本中第j个词语的词权重的乘积。
13.根据权利要求9所述的服务器,其中,所述更新单元针对所述注意力权值矩阵中的每个元素,将所述元素与所述词权重相关矩阵中的对应元素进行相乘,并使用得到的乘积替换所述元素;或者
所述更新单元针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的平均值,并使用得到的平均值替换所述元素;或者
所述更新单元针对上述注意力权值矩阵中的每个元素,求所述元素与所述词权重相关矩阵中的对应元素的加权平均值,并使用得到的加权平均值替换所述元素。
14.根据权利要求8所述的服务器,其中,所述反馈模块包括:
排序模型,用于根据输入的所述第一文本和每个候选问题-答案对中问题的匹配度、所述第一文本和所述候选问题-答案对确定所述后续问题-答案对的排序值;以及
反馈单元,用于根据所述排序值返回排序在前的至少一个候选问题-答案对中的答案。
15.一种训练权利要求2或3所述词权重模型的方法,其中,所述方法包括:
获取训练数据,所述训练数据包括多个训练文本以及每一个训练文本对应的已知输出;
针对每个训练文本,
将所述训练文本经分词后得到的至少一个第三词语输入编码器,根据所述编码器的参数的当前值生成所述至少一个第三词语的词向量;
将所述至少一个第三词语的词向量输入线性变换模型,根据所述线性变换模型的参数的当前值生成所述至少一个第三词语的词权重,并将所述至少一个第三词语的词权重作为所述训练文本的预测输出;
根据所述训练文本的预测输出和已知输出之间的误差确定一个梯度;
将所述梯度反向传播给所述编码器和所述线性变换模型以联合地调整所述编码器和所述线性变换模型的参数的当前值。
16.一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至7任意一项所述的方法。
17.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行权利要求1至7任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010059894.7A CN111309878B (zh) | 2020-01-19 | 2020-01-19 | 检索式问答方法、模型训练方法、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010059894.7A CN111309878B (zh) | 2020-01-19 | 2020-01-19 | 检索式问答方法、模型训练方法、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111309878A true CN111309878A (zh) | 2020-06-19 |
CN111309878B CN111309878B (zh) | 2023-08-22 |
Family
ID=71150979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010059894.7A Active CN111309878B (zh) | 2020-01-19 | 2020-01-19 | 检索式问答方法、模型训练方法、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111309878B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797214A (zh) * | 2020-06-24 | 2020-10-20 | 深圳壹账通智能科技有限公司 | 基于faq数据库的问题筛选方法、装置、计算机设备及介质 |
CN112307738A (zh) * | 2020-11-11 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 用于处理文本的方法和装置 |
CN112632252A (zh) * | 2020-12-25 | 2021-04-09 | 中电金信软件有限公司 | 对话应答方法、装置、计算机设备和存储介质 |
CN113158682A (zh) * | 2021-04-09 | 2021-07-23 | 泰康保险集团股份有限公司 | 产品名称识别方法、装置、电子设备和介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975459A (zh) * | 2016-05-24 | 2016-09-28 | 北京奇艺世纪科技有限公司 | 一种词项的权重标注方法和装置 |
CN107704506A (zh) * | 2017-08-30 | 2018-02-16 | 华为技术有限公司 | 智能应答的方法和装置 |
CN107729468A (zh) * | 2017-10-12 | 2018-02-23 | 华中科技大学 | 基于深度学习的答案抽取方法及系统 |
CN108153876A (zh) * | 2017-12-26 | 2018-06-12 | 爱因互动科技发展(北京)有限公司 | 智能问答方法及系统 |
CN108304424A (zh) * | 2017-03-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 文本关键词提取方法及文本关键词提取装置 |
CN108509638A (zh) * | 2018-04-11 | 2018-09-07 | 联想(北京)有限公司 | 一种问题提取方法及电子设备 |
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
CN108920654A (zh) * | 2018-06-29 | 2018-11-30 | 泰康保险集团股份有限公司 | 一种问答文本语义匹配的方法和装置 |
CN109271505A (zh) * | 2018-11-12 | 2019-01-25 | 深圳智能思创科技有限公司 | 一种基于问题答案对的问答系统实现方法 |
CN109670029A (zh) * | 2018-12-28 | 2019-04-23 | 百度在线网络技术(北京)有限公司 | 用于确定问题答案的方法、装置、计算机设备及存储介质 |
CN109766423A (zh) * | 2018-12-29 | 2019-05-17 | 上海智臻智能网络科技股份有限公司 | 基于神经网络的问答方法及装置、存储介质、终端 |
CN110069612A (zh) * | 2019-04-28 | 2019-07-30 | 河北省讯飞人工智能研究院 | 一种回复生成方法及装置 |
CN110399473A (zh) * | 2019-06-28 | 2019-11-01 | 阿里巴巴集团控股有限公司 | 为用户问题确定答案的方法和装置 |
CN110674271A (zh) * | 2019-08-27 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 一种问答处理方法及装置 |
WO2021159877A1 (zh) * | 2020-02-14 | 2021-08-19 | 华为技术有限公司 | 问答方法及装置 |
-
2020
- 2020-01-19 CN CN202010059894.7A patent/CN111309878B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975459A (zh) * | 2016-05-24 | 2016-09-28 | 北京奇艺世纪科技有限公司 | 一种词项的权重标注方法和装置 |
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
CN108304424A (zh) * | 2017-03-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 文本关键词提取方法及文本关键词提取装置 |
CN107704506A (zh) * | 2017-08-30 | 2018-02-16 | 华为技术有限公司 | 智能应答的方法和装置 |
CN107729468A (zh) * | 2017-10-12 | 2018-02-23 | 华中科技大学 | 基于深度学习的答案抽取方法及系统 |
CN108153876A (zh) * | 2017-12-26 | 2018-06-12 | 爱因互动科技发展(北京)有限公司 | 智能问答方法及系统 |
CN108509638A (zh) * | 2018-04-11 | 2018-09-07 | 联想(北京)有限公司 | 一种问题提取方法及电子设备 |
CN108920654A (zh) * | 2018-06-29 | 2018-11-30 | 泰康保险集团股份有限公司 | 一种问答文本语义匹配的方法和装置 |
CN109271505A (zh) * | 2018-11-12 | 2019-01-25 | 深圳智能思创科技有限公司 | 一种基于问题答案对的问答系统实现方法 |
CN109670029A (zh) * | 2018-12-28 | 2019-04-23 | 百度在线网络技术(北京)有限公司 | 用于确定问题答案的方法、装置、计算机设备及存储介质 |
CN109766423A (zh) * | 2018-12-29 | 2019-05-17 | 上海智臻智能网络科技股份有限公司 | 基于神经网络的问答方法及装置、存储介质、终端 |
CN110069612A (zh) * | 2019-04-28 | 2019-07-30 | 河北省讯飞人工智能研究院 | 一种回复生成方法及装置 |
CN110399473A (zh) * | 2019-06-28 | 2019-11-01 | 阿里巴巴集团控股有限公司 | 为用户问题确定答案的方法和装置 |
CN110674271A (zh) * | 2019-08-27 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 一种问答处理方法及装置 |
WO2021159877A1 (zh) * | 2020-02-14 | 2021-08-19 | 华为技术有限公司 | 问答方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797214A (zh) * | 2020-06-24 | 2020-10-20 | 深圳壹账通智能科技有限公司 | 基于faq数据库的问题筛选方法、装置、计算机设备及介质 |
CN112307738A (zh) * | 2020-11-11 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 用于处理文本的方法和装置 |
CN112632252A (zh) * | 2020-12-25 | 2021-04-09 | 中电金信软件有限公司 | 对话应答方法、装置、计算机设备和存储介质 |
CN113158682A (zh) * | 2021-04-09 | 2021-07-23 | 泰康保险集团股份有限公司 | 产品名称识别方法、装置、电子设备和介质 |
CN113158682B (zh) * | 2021-04-09 | 2024-03-01 | 泰康保险集团股份有限公司 | 产品名称识别方法、装置、电子设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111309878B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110309283B (zh) | 一种智能问答的答案确定方法及装置 | |
US11314806B2 (en) | Method for making music recommendations and related computing device, and medium thereof | |
CN111309878B (zh) | 检索式问答方法、模型训练方法、服务器及存储介质 | |
US11741109B2 (en) | Dialogue system, a method of obtaining a response from a dialogue system, and a method of training a dialogue system | |
CN108846077B (zh) | 问答文本的语义匹配方法、装置、介质及电子设备 | |
CN110717099B (zh) | 一种推荐影片的方法及终端 | |
CN110737756B (zh) | 确定针对用户输入数据的应答的方法、装置、设备和介质 | |
CN111259647A (zh) | 基于人工智能的问答文本匹配方法、装置、介质及电子设备 | |
JP2022169743A (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
CN113297360A (zh) | 基于弱监督学习和联合学习机制的法律问答方法及设备 | |
CN113255328A (zh) | 语言模型的训练方法及应用方法 | |
CN115062134A (zh) | 知识问答模型训练及知识问答方法、装置和计算机设备 | |
CN113591490B (zh) | 信息处理方法、装置和电子设备 | |
CN113535912B (zh) | 基于图卷积网络和注意力机制的文本关联方法及相关设备 | |
CN111274808B (zh) | 文本检索方法、模型训练方法、文本检索装置及存储介质 | |
CN117131155A (zh) | 多类目识别方法、装置、电子设备及储存介质 | |
CN116975221A (zh) | 文本阅读理解方法、装置、设备及存储介质 | |
CN116756278A (zh) | 机器问答方法以及装置 | |
US20230153522A1 (en) | Image captioning | |
CN116957006A (zh) | 预测模型的训练方法、装置、设备、介质及程序产品 | |
CN113569094A (zh) | 视频推荐方法、装置、电子设备及存储介质 | |
CN113343666B (zh) | 评分的置信度的确定方法、装置、设备及存储介质 | |
CN117272937B (zh) | 文本编码模型训练方法、装置、设备及存储介质 | |
CN113987156B (zh) | 一种长文本生成方法、装置及电子设备 | |
US20230214633A1 (en) | Neural ranking model for generating sparse representations for information retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |