CN111597319A - 一种基于faq问答系统的问句匹配方法 - Google Patents
一种基于faq问答系统的问句匹配方法 Download PDFInfo
- Publication number
- CN111597319A CN111597319A CN202010454152.4A CN202010454152A CN111597319A CN 111597319 A CN111597319 A CN 111597319A CN 202010454152 A CN202010454152 A CN 202010454152A CN 111597319 A CN111597319 A CN 111597319A
- Authority
- CN
- China
- Prior art keywords
- question
- professional
- normalization module
- term
- faq
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于FAQ问答系统的问句匹配方法,通过联合训练术语规范化模块M1和语句规范化模块M2,得到训练完的问句规范系统,再将用户问句输入问句规范系统,得到规范化的问句,计算规范化的问句与原始标准FAQ问答对集中问句的相似度,得到准确的答案。本发明在构建规范化问句训练集合时采用二次标注方法,对用户问句进行术语规范化标注,再对得到的专业问句集进行问句规范化标注,提高用户输入问句集的利用效率;其次,两个模块联合训练和应用,术语规范化模块M1为语句规范化模块M2提供增益信息,提升问句规范系统的性能,解决了现有基于FAQ的自动问答技术匹配准确率不高的问题。
Description
技术领域
本发明属于自然语言处理技术领域,具体涉及一种基于FAQ问答系统的问句匹配方法。
背景技术
基于FAQ的垂直领域自动问答系统,其常见问题和答案,往往由领域专家搜集整理,一个问题对应一个答案。也称为问答对。已有的采用FAQ技术实现的问答系统,通过将用户提出的问题和系统中所列问题,采用基于句子相似度匹配的方式,完成用户问题到所列问题之间的映射。这种方法的主要缺点有:
一义多词等带来的语义鸿沟。在许多专业领域的问答系统中,比如医学、税收等,用户(如患者、普通纳税人)提问时的用词和句式等等,和专业问句的表述之间有巨大的语义鸿沟。比如“呼吸困难”和“出不赢气”;前者是专业表达,后者是普通用户描述,两者语义相近,但无一字相同。研究人员进一步提出采用词嵌入(word embedding)方式,但这种方式对每一个词计算一个静态的词向量。接下来,通过余弦相似度计算词相似,然后通过词相似计算句子相似;或者将一句话所有词的词向量采用累加等方法形成一个总的句子向量,计算这两个句子向量的余弦相似度。但这些改进对一词多义仍然束手无策且存在下述第二个缺点。
无法有效利用标注问题集合里的信息。由于标注好的问答句对里面包含了很多可以利用的规律和信息,利用这些信息,可以有效提升问题系统的质量。如何利用这些信息,基于传统问题匹配技术,还不充分和不够科学。
低频词权重过高(不知道哪些词更重要)。已有方法在计算用户提问和已有列表问题的句子相似度时,通常采用tf*idf的加权方法,tf为词频(该词在当前问句中出现的次数),idf为反文档频次(总问句数除以该词出现的问句数)。但该方法是一种比较粗的计算方法,和实际问句上下文关系不大。用户问句中由于用户的实际情况千差万别,表达方式各异,许多词通常只在极少数问题表述中出现。这使得虽然其tf很小,但idf往往很高,两者相乘之后仍可能被赋予了过高的权重。比如“模特为未成年是否需缴纳个税吗?”和“我家小孩子还不到18岁,给电商摆拍模特,日收入过千,交不交税?”。在后者的普通用户问题描述中,“摆拍”在已有权重计算方法中权重很高,但由于和其匹配的专业表达中,未出现该词,从而极大降低该专业表达匹配的概率。但此词显然并不重要。
综上所述,目前的基于句子相似的问题匹配,由于存在用户问句和列表问句存在语义鸿沟,且句子中关键词加权算法无法细致考虑其所在上下文,导致匹配准确率不高。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于FAQ问答系统的问句匹配方法解决了现有基于FAQ的自动问答技术匹配准确率不高的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于FAQ问答系统的问句匹配方法,包括以下步骤:
S1、收集用户问句,构建规范化问句训练集合;
S2、构建原始标准FAQ问答对集;
S3、采用动态softmax方法构建术语规范化模块M1;
S4、基于术语规范化模块M1输出logits向量,构建语句规范化模块M2;
S5、采用规范化问句训练集合,联合训练术语规范化模块M1和语句规范化模块M2,得到训练完的问句规范系统;
S6、将用户问句,输入问句规范系统,得到规范化的问句;
S7、根据匹配检索算法,计算规范化的问句与原始标准FAQ问答对集中的问句的相似度值;
S8、判断相似度值是否大于阈值,若是,则得到与该问句对应的答案;若否,则更新用户问句,并跳转至步骤S6。
进一步地,步骤S1中构建规范化问句训练集合的过程为:
S11、对用户问句进行收集,得到N个用户输入问句集;
S12、对N个用户输入问句集进行术语规范化标注,得到N个规范化术语问句构成的集合,即N个专业问句集;
S13、对N个专业问句集进行问句规范化标注,得到N个规范问句构成的集合,即N个规范问句集;
S14、根据N个用户输入问句集、N个专业问句集和N个规范问句集,构建规范化问句训练集合,其中,规范化问句训练集合为:S={[X1,Y1,Z1],…,[Xi,Yi,Zi],…,[XN,YN,ZN]},其中,S为规范化问句训练集合,Xi为第i个用户输入问句集,Xi={xi1,…,xit,…xiT},xit为第i个用户输入问句集中的第t个用户词,Yi为第i个专业问句集,Yi={yi1,…,yit,…yiT},yit为第i个专业问句集的第t个专业术语词,T为第i个用户输入问句集或第i个专业问句集的长度,Zi为第i个规范问句集,Zi={zi1,…,zil,…ziL},zil为第i个规范问句集的第l个规范词,L为第i个规范问句集的长度,1≤i≤N,N为问句总数。
进一步地,所述步骤S5中术语规范化模块M1包括:第一自注意力机制的神经网络、第一全连接层和第一损失层;
所述问句规范化模块M2包括:第二自注意力机制的神经网络、第二全连接层和第二损失层;
所述第一自注意力机制的神经网络的输出端分别与第一全连接层的输入端和第二自注意力机制的神经网络的输入端连接;
所述第一全连接层的输出端与第一损失层的输入端连接;
所述第二自注意力机制的神经网络的输出端与第二全连接层的输入端连接;
所述第二全连接层的输出端与第二损失层的输入端连接。
进一步地,所述术语规范化模块M1通过专业词汇表Vkey={u1,…,uk,…,uK}建立用户输入问句集Xi和专业问句集Yi之间的映射关系,构建其映射关系的表达式为:
其中,uk为专业词汇表Vkey第k个专业术语词,k为专业词汇表Vkey的长度,由上面公式,得到动态词汇表Vit=Vkey∪{xit},其特征还包括根据映射结果,可用条件概率函数P(w|xit,Xi)来表示这个映射,其中w∈Vit,其特征还有采用基于神经网络transformer来构建术语规范化模块M1,其输出logits向量Hi,以及利用Hi在动态词汇表Vit上执行动态sotfmax方法来规范化术语。
进一步地,所述步骤S5中的训练方法为:采用规范化问句训练集合,根据联合损失函数,通过反向传播算法,并将第一自注意力机制的神经网络的输出logits向量和规范问句集作为第二自注意力机制的神经网络的输入,迭代训练术语规范化模块M1和问句规范化模块M2的神经网络参数,得到训练好的问句规范模块;所述反向传播算法采用梯度下降方式;所述联合损失函数的表达式为:
loss=loss1+loss2
其中,loss为联合损失函数,loss1为术语规范化模块M1的损失函数,loss2为问句规范化模块M2的损失函数。
进一步地,所述术语规范化模块M1的损失函数loss1的表达式为:
其中,hit为输出logits向量Hi的第t个元素,“·”为内积,v(uk)为专业术语词uk的词向量,ptk表示术语规范化模块M1在动态词汇表Vi,t=Vkey∪{xit}上输出的分布列,ptyit表示yit对应这个概率序列ptk中的概率,即答案概率。
进一步地,所述问句规范化模块M2的损失函数loss2的表达式为:
lpss2=crossentropy(softmax(Li),Zi)
其中,crossentropy为交叉熵函数,softmax为逻辑回归函数,Li为向量Hi输入到问句规范化模块M2后输出的logits向量。
本发明的有益效果为:
(1)、本发明在构建规范化问句训练集合时采用二次标注方法,对用户问句进行术语规范化标注,再对得到的专业问句集进行问句规范化标注,提高用户输入问句集的利用效率;
(2)、两个模块联合训练和应用,术语规范化模块M1为语句规范化模块M2提供增益信息,提升问句规范系统的性能。
(3)、计算专业词在专业词汇表Veb中的分布列,通过这种方式能自动找到关键词语赋予更高权重、忽略无关紧要的词语,进而获得更好的问答性能。
(4)、通过将用户输入问句集转换为规范问句集,再通过规范问句集去匹配原始标准FAQ问答对集中的答案,提高了问句匹配的准确度和效率。
附图说明
图1为一种基于FAQ问答系统的问句匹配方法的流程图;
图2为术语规范化模块M1和问句规范化模块M2的结构图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于FAQ问答系统的问句匹配方法,包括以下步骤:
S1、收集用户问句,构建规范化问句训练集合;
所述步骤S1中构建规范化问句训练集合的过程为:
S11、对用户问句进行收集,得到N个用户输入问句集;
S12、对N个用户输入问句集进行术语规范化标注,得到N个规范化术语问句构成的集合,即N个专业问句集;
S13、对N个专业问句集进行问句规范化标注,得到N个规范问句构成的集合,即N个规范问句集;
S14、根据N个用户输入问句集、N个专业问句集和N个规范问句集,构建规范化问句训练集合,其中,规范化问句训练集合为:S={X1,Y1,Z1],…,[Xi,Yi,Zi],…,[XN,YN,ZN]},其中,S为规范化问句训练集合,Xi为第i个用户输入问句集,Xi={xi1,…,xit,…xiT},xit为第i个用户输入问句集中的第t个用户词,Yi为第i个专业问句集,Yi={yi1,…,yit,…yiT},yit为第i个专业问句集的第t个专业术语词,T为第i个用户输入问句集或第i个专业问句集的长度,Zi为第i个规范问句集,Zi={zi1,…,zil,…ziL},zil为第i个规范问句集的第l个规范词,L为第i个规范问句集的长度,1≤i≤N,N为问句总数。
S2、构建原始标准FAQ问答对集;
原始标准FAQ问答对集F={[Q1,A1],…,[QM,AM]},其中Q1,…,QM为问句,A1,…,AM为与问句匹配的答案,M为原始标准FAQ问答对集中问句或答案的总数。
S3、采用动态softmax方法构建术语规范化模块M1;
S4、基于术语规范化模块M1输出logits向量,构建语句规范化模块M2;
S5、采用规范化问句训练集合,联合训练术语规范化模块M1和语句规范化模块M2,得到训练完的问句规范系统;
所述步骤S5中术语规范化模块M1包括:第一自注意力机制的神经网络、第一全连接层和第一损失层;
所述问句规范化模块M2包括:第二自注意力机制的神经网络、第二全连接层和第二损失层其中,第一自注意力机制的神经网络和第二自注意力机制的神经网络可采用LSTM神经网络来替代;
所述第一自注意力机制的神经网络的输出端分别与第一全连接层的输入端和第二自注意力机制的神经网络的输入端连接;
所述第一全连接层的输出端与第一损失层的输入端连接;
所述第二自注意力机制的神经网络的输出端与第二全连接层的输入端连接;
所述第二全连接层的输出端与第二损失层的输入端连接。
所述术语规范化模块M1通过专业词汇表Vkey={u1,…,uk,…,uK}建立用户输入问句集Xi和专业问句集Yi之间的映射关系,构建其映射关系的表达式为:
其中,uk为专业词汇表Vkey第k个专业术语词,K为专业词汇表Vkey的长度,由上面公式,得到动态词汇表Vit=Vkey∪{xit},其特征还包括根据映射结果,可用条件概率函数P(w|xit,Xi)来表示这个映射,其中w∈Vit,其特征还有采用基于神经网络transformer来构建术语规范化模块M1,其输出logits向量Hi,以及利用Hi在动态词汇表Vit上执行动态sotfmax方法来规范化术语。
所述步骤S5中的训练方法为:采用规范化问句训练集合,根据联合损失函数,通过反向传播算法,并将第一自注意力机制的神经网络的输出logits向量和规范问句集作为第二自注意力机制的神经网络的输入,迭代训练术语规范化模块M1和问句规范化模块M2的神经网络参数,得到训练好的问句规范模块;所述反向传播算法采用梯度下降方式;所述联合损失函数的表达式为:
loss=loss1+loss2
其中,loss为联合损失函数,loss1为术语规范化模块M1的损失函数,loss2为问句规范化模块M2的损失函数。
所述术语规范化模块M1的损失函数loss1的表达式为:
其中,hit为输出logits向量Hi的第t个元素,“·”为内积,v(uk)为专业术语词uk的词向量,ptk表示术语规范化模块M1在动态词汇表Vi,t=Vkey∪{xit}上输出的分布列,ptyit表示yit对应这个概率序列ptk中的概率,即答案概率。
所述问句规范化模块M2的损失函数loss2的表达式为:
loss2=crossentropy(softmax(Li),Zi)
其中,crossentropy为交叉熵函数,softmax为逻辑回归函数,Li为向量Hi输入到问句规范化模块M2后输出的logits向量。
S6、将用户问句,输入问句规范系统,得到规范化的问句;
S7、根据匹配检索算法,计算规范化的问句与原始标准FAQ问答对集中的问句的相似度值;
S8、判断相似度值是否大于阈值,若是,则得到与该问句对应的答案;若否,则更新用户问句,并跳转至步骤S6。
本发明的有益效果为:
(1)、本发明在构建规范化问句训练集合时采用二次标注方法,对用户问句进行术语规范化标注,再对得到的专业问句集进行问句规范化标注,提高用户输入问句集的利用效率;
(2)、两个模块联合训练和应用,术语规范化模块M1为语句规范化模块M2提供增益信息,提升问句规范系统的性能。
(3)、计算专业词在专业词汇表Veb中的分布列,通过这种方式能自动找到关键词语赋予更高权重、忽略无关紧要的词语,进而获得更好的问答性能。
(4)、通过将用户输入问句集转换为规范问句集,再通过规范问句集去匹配原始标准FAQ问答对集中的答案,提高了问句匹配的准确度和效率。
Claims (7)
1.一种基于FAQ问答系统的问句匹配方法,其特征在于,包括以下步骤:
S1、收集用户问句,构建规范化问句训练集合;
S2、构建原始标准FAQ问答对集;
S3、采用动态softmax方法构建术语规范化模块M1;
S4、基于术语规范化模块M1输出logits向量,构建语句规范化模块M2;
S5、采用规范化问句训练集合,联合训练术语规范化模块M1和语句规范化模块M2,得到训练完的问句规范系统;
S6、将用户问句,输入问句规范系统,得到规范化的问句;
S7、根据匹配检索算法,计算规范化的问句与原始标准FAQ问答对集中的问句的相似度值;
S8、判断相似度值是否大于阈值,若是,则得到与该问句对应的答案;若否,则更新用户问句,并跳转至步骤S6。
2.根据权利要求1所述的基于FAQ问答系统的问句匹配方法,其特征在于,所述步骤S1中构建规范化问句训练集合的过程为:
S11、对用户问句进行收集,得到N个用户输入问句集;
S12、对N个用户输入问句集进行术语规范化标注,得到N个规范化术语问句构成的集合,即N个专业问句集;
S13、对N个专业问句集进行问句规范化标注,得到N个规范问句构成的集合,即N个规范问句集;
S14、根据N个用户输入问句集、N个专业问句集和N个规范问句集,构建规范化问句训练集合,其中,规范化问句训练集合为:S={[X1,Y1,Z1],…,[Xi,Yi,Zi],…,[XN,YN,ZN]},其中,S为规范化问句训练集合,Xi为第i个用户输入问句集,Xi={xi1,…,xit,…xiT},xit为第i个用户输入问句集中的第t个用户词,Yi为第i个专业问句集,Yi={yi1,…,yit,…yiT},yit为第i个专业问句集的第t个专业术语词,T为第i个用户输入问句集或第i个专业问句集的长度,Zi为第i个规范问句集,Zi={zi1,…,zil,…ziL},zil为第i个规范问句集的第l个规范词,L为第i个规范问句集的长度,1≤i≤N,N为问句总数。
3.根据权利要求2所述的基于FAQ问答系统的问句匹配方法,其特征在于,所述步骤S5中术语规范化模块M1包括:第一自注意力机制的神经网络、第一全连接层和第一损失层;
所述问句规范化模块M2包括:第二自注意力机制的神经网络、第二全连接层和第二损失层;
所述第一自注意力机制的神经网络的输出端分别与第一全连接层的输入端和第二自注意力机制的神经网络的输入端连接;
所述第一全连接层的输出端与第一损失层的输入端连接;
所述第二自注意力机制的神经网络的输出端与第二全连接层的输入端连接;
所述第二全连接层的输出端与第二损失层的输入端连接。
4.根据权利要求3所述的基于FAQ问答系统的问句匹配方法,其特征在于,所述术语规范化模块M1通过专业词汇表Vkey={u1,…,uk,…,uK}建立用户输入问句集Xi和专业问句集Yi之间的映射关系,构建其映射关系的表达式为:
其中,uk为专业词汇表Vkey第k个专业术语词,K为专业词汇表Vkey的长度,由上面公式,得到动态词汇表Vit=Vkey∪{xit},其特征还包括根据映射结果,可用条件概率函数P(w|xit,Xi)来表示这个映射,其中w∈Vit,其特征还有采用基于神经网络transformer来构建术语规范化模块M1,其输出logits向量Hi,以及利用Hi在动态词汇表Vit上执行动态sotfmax方法来规范化术语。
5.根据权利要求4所述的基于FAQ问答系统的问句匹配方法,其特征在于,所述步骤S5中的训练方法为:采用规范化问句训练集合,根据联合损失函数,通过反向传播算法,并将第一自注意力机制的神经网络的输出logits向量和规范问句集作为第二自注意力机制的神经网络的输入,迭代训练术语规范化模块M1和问句规范化模块M2的神经网络参数,得到训练好的问句规范模块;所述反向传播算法采用梯度下降方式;所述联合损失函数的表达式为:
loss=loss1+loss2
其中,loss为联合损失函数,loss1为术语规范化模块M1的损失函数,loss2为问句规范化模块M2的损失函数。
7.根据权利要求5所述的基于FAQ问答系统的问句匹配方法,其特征在于,所述问句规范化模块M2的损失函数loss2的表达式为:
loss2=crossentropy(softmax(Li),Zi)
其中,crossentropy为交叉熵函数,softmax为逻辑回归函数,Li为向量Hi输入到问句规范化模块M2后输出的logits向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010454152.4A CN111597319B (zh) | 2020-05-26 | 2020-05-26 | 一种基于faq问答系统的问句匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010454152.4A CN111597319B (zh) | 2020-05-26 | 2020-05-26 | 一种基于faq问答系统的问句匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111597319A true CN111597319A (zh) | 2020-08-28 |
CN111597319B CN111597319B (zh) | 2021-02-09 |
Family
ID=72181392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010454152.4A Active CN111597319B (zh) | 2020-05-26 | 2020-05-26 | 一种基于faq问答系统的问句匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111597319B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364634A (zh) * | 2020-11-02 | 2021-02-12 | 成都不问科技有限公司 | 一种基于问句的同义词匹配方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083692A (zh) * | 2019-04-22 | 2019-08-02 | 齐鲁工业大学 | 一种金融知识问答的文本交互匹配方法及装置 |
US20190377747A1 (en) * | 2015-06-02 | 2019-12-12 | International Business Machines Corporation | Utilizing Word Embeddings for Term Matching in Question Answering Systems |
CN110706807A (zh) * | 2019-09-12 | 2020-01-17 | 北京四海心通科技有限公司 | 一种基于本体语义相似度的医学问答方法 |
CN110825843A (zh) * | 2019-10-15 | 2020-02-21 | 深圳市奥拓电子股份有限公司 | 适于金融领域的训练方法、问答方法、装置及存储介质 |
-
2020
- 2020-05-26 CN CN202010454152.4A patent/CN111597319B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190377747A1 (en) * | 2015-06-02 | 2019-12-12 | International Business Machines Corporation | Utilizing Word Embeddings for Term Matching in Question Answering Systems |
CN110083692A (zh) * | 2019-04-22 | 2019-08-02 | 齐鲁工业大学 | 一种金融知识问答的文本交互匹配方法及装置 |
CN110706807A (zh) * | 2019-09-12 | 2020-01-17 | 北京四海心通科技有限公司 | 一种基于本体语义相似度的医学问答方法 |
CN110825843A (zh) * | 2019-10-15 | 2020-02-21 | 深圳市奥拓电子股份有限公司 | 适于金融领域的训练方法、问答方法、装置及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364634A (zh) * | 2020-11-02 | 2021-02-12 | 成都不问科技有限公司 | 一种基于问句的同义词匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111597319B (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111414461B (zh) | 一种融合知识库与用户建模的智能问答方法及系统 | |
WO2023273170A1 (zh) | 一种迎宾机器人对话方法 | |
CN107818164A (zh) | 一种智能问答方法及其系统 | |
CN111444700A (zh) | 一种基于语义文档表达的文本相似度量方法 | |
CN109741824A (zh) | 一种基于机器学习的医疗问诊方法 | |
CN111859938B (zh) | 基于位置向量降噪和丰富语义的电子病历实体关系抽取方法 | |
CN116150335A (zh) | 一种军事场景下文本语义检索方法 | |
CN111966797B (zh) | 利用引入了语义信息的词向量进行机器阅读理解的方法 | |
CN111444704A (zh) | 基于深度神经网络的网络安全关键词抽取方法 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN114580362B (zh) | 一种回标文件生成系统及其方法 | |
CN114706559A (zh) | 一种基于需求识别的软件规模度量方法 | |
CN115934951A (zh) | 一种网络热点话题用户情绪预测方法 | |
CN111597319B (zh) | 一种基于faq问答系统的问句匹配方法 | |
CN111651660B (zh) | 一种跨媒体检索困难样本的方法 | |
CN115905187B (zh) | 一种面向云计算工程技术人员认证的智能化命题系统 | |
CN117034921A (zh) | 一种基于用户数据的提示学习训练方法、装置和介质 | |
CN115204143B (zh) | 一种基于prompt的文本相似度计算方法及系统 | |
CN116720498A (zh) | 一种文本相似度检测模型的训练方法、装置及其相关介质 | |
CN114997331A (zh) | 基于度量学习的小样本关系分类方法及系统 | |
CN115935998A (zh) | 多特征金融领域命名实体识别方法 | |
CN114169447B (zh) | 基于自注意力卷积双向门控循环单元网络的事件检测方法 | |
CN110968795B (zh) | 一种公司形象提升系统的数据关联匹配系统 | |
CN114372138A (zh) | 一种基于最短依存路径和bert的电力领域关系抽取的方法 | |
Ma et al. | Approximate least squares estimation for spatial autoregressive models with covariates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |