CN110232113B - 一种提高知识库问答准确度的方法及系统 - Google Patents
一种提高知识库问答准确度的方法及系统 Download PDFInfo
- Publication number
- CN110232113B CN110232113B CN201910292426.1A CN201910292426A CN110232113B CN 110232113 B CN110232113 B CN 110232113B CN 201910292426 A CN201910292426 A CN 201910292426A CN 110232113 B CN110232113 B CN 110232113B
- Authority
- CN
- China
- Prior art keywords
- vector
- question
- relation
- path
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种提高知识库问答准确度的方法及系统,包括:获取待回答的用户问句,提取该用户问句中的主题实体,以该主题实体检索知识库,将得到的每一个候选答案的路径信息作为候选路径,并预处理该用户问句,得到该用户问句的向量表示;利用该向量表示对该候选路径上的每一步关系利用注意力机制进行打分,得到该候选路径上的每一步关系的关系置信度,并将该候选路径上所有的关系置信度求和,得到关系路径的路径置信度;将所有候选路径根据其置路径置信度进行排序,输出路径置信度最高的候选路径作为该用户问句的回答结果。本发明增强了中间结点在整个关系推断中的作用,提高了关系推断的准确率。
Description
技术领域
本发明涉及互联网技术领域和大数据分析中的关系推断领域,并特别涉及一种基于路径信息的关系推断的知识库问答方法及系统。
背景技术
知识库问答系统是自然语言处理领域的研究热点,用户输入一个完整而口语化的问句,系统通过在结构化的知识库中查询即可返回明确的答案字串。知识库中的知识通常以三元组的形式存储,即(头实体,关系,尾实体)。一般而言,知识库问答系统包含两个核心模块,即主题实体推断模块和关系推断模块。其中主题实体推断是将用户问题中用户感兴趣的实体找出,并链接到知识库中对应的实体;关系推断是根据用户问题,推断出从主题实体到最终答案所需要的所有知识库中的关系。根据回答用户问题所需要的知识库中的三元组的数量,用户问题可以被分为单关系问题和多关系问题:单关系问题仅需要一个三元组即可得到最终的答案,而多关系问题需要多个三元组才能得到最终答案。
现有的关系推断技术主要分为两种,一种是基于嵌入的方法,一种是基于语义解析的方法。基于嵌入的方法通过将用户问句和知识库中的实体、关系转变为低维稠密的向量,从而通过计算向量间的相似度得到用户问句对应的知识库中关系;基于语义解析的方法通过将用户问句转变为结构化的查询语句,得到用户问句对应的关系的结构化表示。基于语义解析的方法因为需要学习如何构造结构化的查询语句,往往需要大量的人工标注的数据,这一类标注数据需要标注人员熟悉掌握相应的语言学知识,代价昂贵。基于嵌入的方法忽视关系推断步骤,将单关系问题和多关系问题统一对待,将在知识库中与主题实体相连的两跳以内的所有结点都视为候选答案,没有显示建模多关系问题里中间结点对关系推断的最终影响,这种将所有结点编码作为编码候选答案的方法类似于信息检索,在处理多关系问题时没有充分利用问题和知识库中信息,使得关系推断的结果相对模糊。例如在典型的多关系问题“AAA的妻子的身高是多少?”,传统方法的方法首先将知识库中与“AAA”相连的两跳以内的所有结点取出,最后计算编码后的结点与问句的相似度,但是这里问的不是AAA的身高,也不是其父母或队友的身高,而是他妻子BBB的身高,传统方法返回的结点很有可能是AAA或其相关人物的身高,而非其妻子BBB的身高。
发明内容
发明人在进行多关系问答中的研究时,发现如果显示建模中间结点在整个关系推断中的作用,将中间结点的作用量化并加入到模型优化环节,能显著地提高知识库问答系统对于回答多关系问题的准确性。
本发明的目的是解决上述现有技术的未能显示建模中间结点对关系推断的影响问题,在处理多关系问题时,利用主题实体到答案结点的路径信息,采用注意力机制对路径中的关系进行打分,并通过计算中间结果与中间结点的相似度得到该路径的置信度,最终得到对该候选关系路径的打分,通过所有候选关系路径排序,输出排名最高的关系路径作为回答结果。
针对现有技术的不足,本发明提出一种提高知识库问答准确度的方法,其中包括:
步骤1、获取待回答的用户问句,提取该用户问句中的主题实体,以该主题实体检索知识库,将得到的每一个候选答案的路径信息作为候选路径,并预处理该用户问句,得到该用户问句的向量表示;
步骤2、利用该向量表示对该候选路径上的每一步关系利用注意力机制进行打分,得到该候选路径上的每一步关系的关系置信度,并将该候选路径上所有的关系置信度求和,得到关系路径的路径置信度;
步骤3、将所有候选路径根据其置路径置信度进行排序,输出路径置信度最高的候选路径作为该用户问句的回答结果。
所述的提高知识库问答准确度的方法,其中步骤1中该预处理包括:
步骤11、将该用户问句中主题实体用占位符代替并去除该用户问句中的标点符号,得到预处理问句;
步骤13、从预设的词嵌入矩阵中获取该预处理问句中的每一个词的低维稠密向量,并将该低维稠密向量输入双向门控循环单元中,得到该用户问句中每一个词的隐藏状态向量;
步骤14、根据该用户问题包含的三元组数目,设定该三元组数目个的线性层,隐藏状态向量经过对应的线性层,得到该向量表示。
所述的提高知识库问答准确度的方法,其中步骤2中该关系置信度的确定过程包括:
步骤21、利用关系嵌入矩阵与实体嵌入矩阵,将得到该候选路径中关系和实体的低维稠密向量,分别作为关系向量和实体向量;
步骤22、对每个词的隐藏状态向量与关系向量求相似度,将所有求得的第一相似度输入至SoftMax层,得到每个词在该关系向量下的权重;
步骤23、在该权重下通过对每个词的向量加权求和,得到在该关系向量下的语义表示,并利用该语义表示与该关系向量求相似度,得到第二相似度;
步骤24、从该实体嵌入矩阵中获得头实体的低维稠密向量,并利用该关系向量与该第二相似度分数,求得中间结果,并将该中间结果与实体的余弦相似度作为该关系置信度。
所述的提高知识库问答准确度的方法,其中该步骤22得到每个词在该关系向量下的权重的具体过程包括:
问句中第i个词的权重其中exp代表以自然常数e为底的指数函数,N为输入问句的长度,βi=W·(r1⊙wi)+b,βj=W·(r1⊙wj)+b,W,b为待学习参数,wj和wi分别为用户问句第j个和第i个词的经过双向门控循环单元和第一个线性层后的向量,⊙为向量点乘,W1,b1为第一个线性层的参数。
所述的任意一种提高知识库问答准确度的方法,其中通过主题实体识别工具提取该主题实体。
本发明还提出了一种提高知识库问答准确度的系统,其中包括:
模块1、获取待回答的用户问句,提取该用户问句中的主题实体,以该主题实体检索知识库,将得到的每一个候选答案的路径信息作为候选路径,并预处理该用户问句,得到该用户问句的向量表示;
模块2、利用该向量表示对该候选路径上的每一步关系利用注意力机制进行打分,得到该候选路径上的每一步关系的关系置信度,并将该候选路径上所有的关系置信度求和,得到关系路径的路径置信度;
模块3、将所有候选路径根据其置路径置信度进行排序,输出路径置信度最高的候选路径作为该用户问句的回答结果。
所述的提高知识库问答准确度的系统,其中模块1中该预处理包括:
模块11、将该用户问句中主题实体用占位符代替并去除该用户问句中的标点符号,得到预处理问句;
模块13、从预设的词嵌入矩阵中获取该预处理问句中的每一个词的低维稠密向量,并将该低维稠密向量输入双向门控循环单元中,得到该用户问句中每一个词的隐藏状态向量;
模块14、根据该用户问题包含的三元组数目,设定该三元组数目个的线性层,隐藏状态向量经过对应的线性层,得到该向量表示。
所述的提高知识库问答准确度的系统,其中模块2中该关系置信度的确定过程包括:
模块21、利用关系嵌入矩阵与实体嵌入矩阵,将得到该候选路径中关系和实体的低维稠密向量,分别作为关系向量和实体向量;
模块22、对每个词的隐藏状态向量与关系向量求相似度,将所有求得的第一相似度输入至SoftMax层,得到每个词在该关系向量下的权重;
模块23、在该权重下通过对每个词的向量加权求和,得到在该关系向量下的语义表示,并利用该语义表示与该关系向量求相似度,得到第二相似度;
模块24、从该实体嵌入矩阵中获得头实体的低维稠密向量,并利用该关系向量与该第二相似度分数,求得中间结果,并将该中间结果与实体的余弦相似度作为该关系置信度。
所述的提高知识库问答准确度的系统,其中该模块22得到每个词在该关系向量下的权重的具体过程包括:
问句中第i个词的权重其中exp代表以自然常数e为底的指数函数,N为输入问句的长度,βi=W·(r1⊙wi)+b,βj=W·(r1⊙wj)+b,W,b为待学习参数,wj和wi分别为用户问句第j个和第i个词的经过双向门控循环单元和第一个线性层后的向量,⊙为向量点乘,W1,b1为第一个线性层的参数。
所述的提高知识库问答准确度的系统,其中通过主题实体识别工具提取该主题实体。
与已有技术相比,本发明方法具有以下优点:
一是充分利用问句与知识库中信息,取得关系路径中每一步关系与问句的相关度;二是利用相关度产生了每一步关系的置信度,这个过程是端到端的,在训练中能够保证没有误差传递。本发明增强了中间结点在整个关系推断中的作用,提高了关系推断的准确率。
附图说明
图1为整体流程图;
图2为输入步骤流程图;
图3为推理步骤流程图;
图4为输入步骤语言模型详细介绍图;
图5为推理步骤模型详细介绍图。
具体实施方式
本发明提出的知识库多关系问题关系推断方法包括以下步骤:
1)通过主题实体识别工具得到用户问句的主题实体,并得到所有的候选答案的路径信息,该候选答案是从主题实体出发,在知识库内与主题实体通过n跳关系相连接的所有结点,路径信息即为主题实体与候选实体之间的n跳关系路径。例如,AAA的女儿的出生日期。这个问题中,主题实体是AAA,答案是2010年5月22日,那路径信息就是AAA(父女关系)CCC(生日)2010年5月22日;
2)针对用户输入的问句,通过先对问句进行去除标点符号及小写转化预处理,并将主题实体在问句中的提及用“<e>”代替,通过查询预训练的词嵌入矩阵,得到问句中每个词的低维稠密向量,并依次输入一个Bi-GRU(双向门控循环单元),得到每个词的隐藏状态;
3)针对一个给定的候选答案的路径信息,若该路径长度为n,对路径中的每步的关系都利用注意力机制进行打分,判断当前关系与用户问句的相关度,并通过这个打分计算一个中间结果,利用这个中间结果与当前的中间或最终结点的相似度作为该关系的置信度,所有的置信度之和为该候选关系路径的打分;
4)对用户问句的所有候选关系路径按照打分进行排序,并输出排名靠前的关系路径作为回答结果。
为让本发明的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。
本发明提出了一种基于路径信息的知识库多关系问题关系推断方法,方法的整体流程如图1所示。方法主要有输入步骤、推理步骤、输出步骤这三个步骤,该输入步骤采用了一个双向的GRU和线性层,将用户问句的每个词都转化为一个低维稠密的向量;推理步骤将与用户问句中的主题实体相连的n跳以内的结点取出作为候选答案,以主题实体到候选答案的关系路径作为输入,通过对路径中的关系的置信度打分,得到这个路径下该候选关系路径的最终得分;最后答案单元对所有的候选关系路径打分,并输出排名最高的作为回答结果。其中路径是所有关系按照对应顺序的组合,不单单是某一个关系。结合图1描述该方法的整体流程步骤。
模型工作阶段:
输入步骤S1,预处理用户问句,得到相应的向量表示作为推理输入;
推理步骤S2,利用输入步骤S1产生的向量表示对候选路径上的每一步关系打分得到其置信度,并将所有的关系的置信度求和得到关系路径的置信度;
输出步骤S3,对所有候选路径根据其置信度进行排序,输出最高的关系路径作为关系推断的结果。
其中,步骤S1包含多个子步骤,具体地如图2所示有:
S101、将用户问句中的主题实体e0在用户问句中的提及用占位符“<e>”代替,提及(mention)是指这个主题实体在该用户问句下的表述,这个表述不一定与知识库中存储的实体名称完全一致,比如知识库中存储的是XXX,用户问句中的表述是XXX的昵称或者XXX的职称,这里的表述就是知识库中的实体“XXX”在用户问句中的提及(mention);。
S102、去除问句中的标点符号(不包括第一步替换的“<e>”),例如问句末尾的问号、句号等,在问句为英文的情况下对问句中的词进行小写转化等。
S103、从预训练好的词嵌入矩阵中获取用户问句中的每一个词的低维稠密向量,并输入进双向的GRU中,得到与用户问句长度一致的一系列隐藏状态向量{h1,h2,…,hN},N为问句长度,hN代表第N个隐藏状态向量,隐藏状态是神经网络模型的输出向量,具体如图4所示。
S104、根据用户问题所需要的三元组数目,或设定的最大的三元组数目,设定相应个数的线性层,调用推理单元对路径中每个关系打分前,用户问句的隐藏状态向量都要经过对应的线性层。本发明采取的数据集和参照对比的方法都是基于问题所需要的三元组数目已知的条件。但是实际上问题所要的三元组个数肯定是未知的,本发明只需要预先训练一个判别器,然后先判别用户问句所需要的三元组数目即可。经过不同线性层的目的就是让模型在不同的推理步骤下关注用户问句的不同方面,比如AAA女儿的出生日期,在第一步推理应该关注的是父女关系而不是出生日期,第二步推理关注的才是出生日期。每一个线性层对应一个推理步骤,一个推理步骤对应问句所要的三元组中的一个。用户问句的向量表示是在S103中将预训练好的词嵌入输入神经网络双向GRU得到的。
步骤S2包含多个子步骤,具体地如图3、图5所示有:
S202、对问句的每个词经过第一个线性层的隐藏状态向量与关系向量r1求相似度,然后将所有得到的相似度传入一个柔性最大值传输函数(SoftMax)层,得到每个词在关系向量r1下的权重。形式化地,问句中第i个词的权重 其中N为输入问句的长度,βj=W·(r1⊙wj)+b,W,b为待学习参数,wj=W1·hj+b1为用户问句第j个词的经过双向GRU和第一个线性层后的向量,⊙为向量点乘,W1,b1为第一个线性层的参数。
S204、从预训练好的实体嵌入矩阵中获得实体e0,e1的低维稠密向量e0,e1。向量都是加粗表示的,两个实体都是路径信息中已经显示的,比如AAA(父女关系)CCC(出生日期)X年X月X日;这个路径已经在第1步得到,其中的实体就是AAA、CCC、X年X月X日。这里的日期是字符串,当做实体处理。并利用关系向量r1与相似度分数求得中间结果 并通过该中间结果与e1的余弦相似度求得关系r1的置信度如此计算置信度的原因是根据TransE的思想,对于一个三元组,头实体的语义+关系的语义=尾实体的语义,如“《某电影》”的语义+“导演”的语义=“导演名”的语义。在这种设定下,我们有e1=e0+r1,因此如果关系r1确实是问句所关心的第一跳关系,那么就会趋于1,如此也会近似等于e1。
S205、将{h1,h2,…,hN}输入第二个线性层,得到对应的词的向量,并针对候选答案路径中的第二步关系r2和实体e2重复步骤S2的(1)至(4),需要注意的是,在算第二步的中间结果时,最终我们得到第二步关系r2的置信度C(e2;q)。
S206、通过将这两步的置信度加和,我们得到该路径的置信度C(path;q)=C(e1;q)+C(e2;q)。
步骤S3、输出步骤获取最终答案,具体地有:通过对步骤S2算出的路径的置信度排序,我们得到排名最高的路径。需要注意的是,在不知道问题到底需要几个三元组回答时,我们会设置一个最大路径长度,比如说2,同时引入空关系和空实体,对所有三元组进行路径长度补全,即在第一个三元组后加入空关系和空实体。如果排名最高的路径中第二个实体是空实体,我们返回第一步关系作为最终关系路径,否则返回整体的关系路径作为最终答案。
与已有技术相比,本发明方法在WorldCup2014语料的测试集上取得了优异的结果,在单跳问题的关系推断准确率提高了2.9%,在两跳关系问题中,单路径问题的关系推断准确率上提高了5.9%,多路径问题的关系推断准确率提高了19.2%。
以下为与上述方法实施例对应的系统实施例,本实施方式可与上述实施方式互相配合实施。上述实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在上述实施方式中。
本发明还提出了一种提高知识库问答准确度的系统,其中包括:
模块1、获取待回答的用户问句,提取该用户问句中的主题实体,以该主题实体检索知识库,将得到的每一个候选答案的路径信息作为候选路径,并预处理该用户问句,得到该用户问句的向量表示;
模块2、利用该向量表示对该候选路径上的每一步关系利用注意力机制进行打分,得到该候选路径上的每一步关系的关系置信度,并将该候选路径上所有的关系置信度求和,得到关系路径的路径置信度;
模块3、将所有候选路径根据其置路径置信度进行排序,输出路径置信度最高的候选路径作为该用户问句的回答结果。
所述的提高知识库问答准确度的系统,其中模块1中该预处理包括:
模块11、将该用户问句中主题实体用占位符代替并去除该用户问句中的标点符号,得到预处理问句;
模块13、从预设的词嵌入矩阵中获取该预处理问句中的每一个词的低维稠密向量,并将该低维稠密向量输入双向门控循环单元中,得到该用户问句中每一个词的隐藏状态向量;
模块14、根据该用户问题包含的三元组数目,设定该三元组数目个的线性层,隐藏状态向量经过对应的线性层,得到该向量表示。
所述的提高知识库问答准确度的系统,其中模块2中该关系置信度的确定过程包括:
模块21、利用关系嵌入矩阵与实体嵌入矩阵,将得到该候选路径中关系和实体的低维稠密向量,分别作为关系向量和实体向量;
模块22、对每个词的隐藏状态向量与关系向量求相似度,将所有求得的第一相似度输入至SoftMax层,得到每个词在该关系向量下的权重;
模块23、在该权重下通过对每个词的向量加权求和,得到在该关系向量下的语义表示,并利用该语义表示与该关系向量求相似度,得到第二相似度;
模块24、从该实体嵌入矩阵中获得头实体的低维稠密向量,并利用该关系向量与该第二相似度分数,求得中间结果,并将该中间结果与实体的余弦相似度作为该关系置信度。
所述的提高知识库问答准确度的系统,其中该模块22得到每个词在该关系向量下的权重的具体过程包括:
Claims (6)
1.一种提高知识库问答准确度的方法,其特征在于,包括:
步骤1、获取待回答的用户问句,提取该用户问句中的主题实体,以该主题实体检索知识库,将得到的每一个候选答案的路径信息作为候选路径,并预处理该用户问句,得到该用户问句的向量表示;
步骤2、利用该向量表示对该候选路径上的每一步关系利用注意力机制进行打分,得到该候选路径上的每一步关系的关系置信度,并将该候选路径上所有的关系置信度求和,得到关系路径的路径置信度;
步骤3、将所有候选路径根据其置路径置信度进行排序,输出路径置信度最高的候选路径作为该用户问句的回答结果;
其中步骤1中该预处理包括:
步骤11、将该用户问句中主题实体用占位符代替并去除该用户问句中的标点符号,得到预处理问句;
步骤13、从预设的词嵌入矩阵中获取该预处理问句中的每一个词的低维稠密向量,并将该低维稠密向量输入双向门控循环单元中,得到该用户问句中每一个词的隐藏状态向量;
步骤14、根据该用户问句包含的三元组数目,设定线性层数量与该三元组数目相同,隐藏状态向量经过对应的线性层,得到该向量表示;
步骤2中该关系置信度的确定过程包括:
步骤21、利用关系嵌入矩阵与实体嵌入矩阵,将得到该候选路径中关系和实体的低维稠密向量,分别作为关系向量和实体向量;
步骤22、对每个词的隐藏状态向量与关系向量求相似度,将所有求得的第一相似度输入至SoftMax层,得到每个词在该关系向量下的权重;
步骤23、在该权重下通过对每个词的向量加权求和,得到在该关系向量下的语义表示,并利用该语义表示与该关系向量求相似度,得到第二相似度;
步骤24、从该实体嵌入矩阵中获得头实体的低维稠密向量,并利用该关系向量与该第二相似度,求得中间结果,并将该中间结果与实体的余弦相似度作为该关系置信度。
3.如权利要求1或2所述的提高知识库问答准确度的方法,其特征在于,通过主题实体识别工具提取该主题实体。
4.一种提高知识库问答准确度的系统,其特征在于,包括:
模块1、获取待回答的用户问句,提取该用户问句中的主题实体,以该主题实体检索知识库,将得到的每一个候选答案的路径信息作为候选路径,并预处理该用户问句,得到该用户问句的向量表示;
模块2、利用该向量表示对该候选路径上的每一步关系利用注意力机制进行打分,得到该候选路径上的每一步关系的关系置信度,并将该候选路径上所有的关系置信度求和,得到关系路径的路径置信度;
模块3、将所有候选路径根据其置路径置信度进行排序,输出路径置信度最高的候选路径作为该用户问句的回答结果;
其中模块1中该预处理包括:
模块11、将该用户问句中主题实体用占位符代替并去除该用户问句中的标点符号,得到预处理问句;
模块13、从预设的词嵌入矩阵中获取该预处理问句中的每一个词的低维稠密向量,并将该低维稠密向量输入双向门控循环单元中,得到该用户问句中每一个词的隐藏状态向量;
模块14、根据该用户问句包含的三元组数目,设定线性层数量与该三元组数目相同,隐藏状态向量经过对应的线性层,得到该向量表示;
模块2中该关系置信度的确定过程包括:
模块21、利用关系嵌入矩阵与实体嵌入矩阵,将得到该候选路径中关系和实体的低维稠密向量,分别作为关系向量和实体向量;
模块22、对每个词的隐藏状态向量与关系向量求相似度,将所有求得的第一相似度输入至SoftMax层,得到每个词在该关系向量下的权重;
模块23、在该权重下通过对每个词的向量加权求和,得到在该关系向量下的语义表示,并利用该语义表示与该关系向量求相似度,得到第二相似度;
模块24、从该实体嵌入矩阵中获得头实体的低维稠密向量,并利用该关系向量与该第二相似度,求得中间结果,并将该中间结果与实体的余弦相似度作为该关系置信度。
6.如权利要求4或5所述的提高知识库问答准确度的系统,其特征在于,通过主题实体识别工具提取该主题实体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910292426.1A CN110232113B (zh) | 2019-04-12 | 2019-04-12 | 一种提高知识库问答准确度的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910292426.1A CN110232113B (zh) | 2019-04-12 | 2019-04-12 | 一种提高知识库问答准确度的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110232113A CN110232113A (zh) | 2019-09-13 |
CN110232113B true CN110232113B (zh) | 2021-03-26 |
Family
ID=67860191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910292426.1A Active CN110232113B (zh) | 2019-04-12 | 2019-04-12 | 一种提高知识库问答准确度的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110232113B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727781B (zh) * | 2019-10-21 | 2022-11-01 | 国网江苏省电力有限公司电力科学研究院 | 一种电力多源知识检索结果融合方法及装置 |
CN112434149B (zh) * | 2020-06-24 | 2023-09-19 | 北京金山数字娱乐科技有限公司 | 信息提取方法和装置、设备及存储介质 |
CN111858896B (zh) * | 2020-07-30 | 2024-03-29 | 上海海事大学 | 一种基于深度学习的知识库问答方法 |
CN113468311B (zh) * | 2021-07-20 | 2023-09-19 | 四川启睿克科技有限公司 | 一种基于知识图谱的复杂问句问答方法、装置及存储介质 |
CN113688217B (zh) * | 2021-08-24 | 2022-04-22 | 山东省人工智能研究院 | 一种面向搜索引擎知识库的智能问答方法 |
CN113704445A (zh) * | 2021-10-28 | 2021-11-26 | 北京明略昭辉科技有限公司 | 知识库问答方法、装置、电子设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875296B2 (en) * | 2015-03-25 | 2018-01-23 | Google Llc | Information extraction from question and answer websites |
CN105912629B (zh) * | 2016-04-07 | 2019-08-13 | 上海智臻智能网络科技股份有限公司 | 一种智能问答方法及装置 |
CN107993724B (zh) * | 2017-11-09 | 2020-11-13 | 易保互联医疗信息科技(北京)有限公司 | 一种医学智能问答数据处理的方法及装置 |
CN107992528B (zh) * | 2017-11-13 | 2022-07-05 | 清华大学 | 利用可解释推理网络的多关系问答系统 |
CN109408627B (zh) * | 2018-11-15 | 2021-03-02 | 众安信息技术服务有限公司 | 一种融合卷积神经网络和循环神经网络的问答方法及系统 |
CN109271506A (zh) * | 2018-11-29 | 2019-01-25 | 武汉大学 | 一种基于深度学习的电力通信领域知识图谱问答系统的构建方法 |
-
2019
- 2019-04-12 CN CN201910292426.1A patent/CN110232113B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110232113A (zh) | 2019-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232113B (zh) | 一种提高知识库问答准确度的方法及系统 | |
CN109992648B (zh) | 基于词迁徙学习的深度文本匹配方法及装置 | |
CN106980683B (zh) | 基于深度学习的博客文本摘要生成方法 | |
CN110647619B (zh) | 一种基于问题生成和卷积神经网络的常识问答方法 | |
CN110516055A (zh) | 一种结合bert的用于教学任务的跨平台智能问答实现方法 | |
CN111382565B (zh) | 基于多标签的情绪-原因对抽取方法及系统 | |
CN112015868B (zh) | 基于知识图谱补全的问答方法 | |
CN110019685B (zh) | 基于排序学习的深度文本匹配方法及装置 | |
CN112434517B (zh) | 一种结合主动学习的社区问答网站答案排序方法及系统 | |
CN111831789B (zh) | 一种基于多层语义特征提取结构的问答文本匹配方法 | |
CN111858896B (zh) | 一种基于深度学习的知识库问答方法 | |
CN111046155A (zh) | 一种基于fsm多轮问答的语义相似度计算方法 | |
CN109918477A (zh) | 一种基于变分自编码器的分布式检索资源库选择方法 | |
CN113297364A (zh) | 一种面向对话系统中的自然语言理解方法及装置 | |
CN111581364B (zh) | 一种面向医疗领域的中文智能问答短文本相似度计算方法 | |
CN112115242A (zh) | 一种基于朴素贝叶斯分类算法的智能客服问答系统 | |
CN116992007B (zh) | 基于问题意图理解的限定问答系统 | |
CN115761753A (zh) | 一种融合知识图谱的检索式知识前缀引导视觉问答方法 | |
CN113012822A (zh) | 一种基于生成式对话技术的医疗问答系统 | |
CN111666374A (zh) | 一种在深度语言模型中融入额外知识信息的方法 | |
CN113935459B (zh) | 一种基于bert的深度神经网络模型的自动评卷方法 | |
CN113011196B (zh) | 一种概念增强表示与单向蕴含注意力的主观题自动阅卷神经网络模型 | |
CN112231455A (zh) | 一种机器阅读理解方法及系统 | |
CN108959467B (zh) | 一种基于强化学习的问句和答案句相关度的计算方法 | |
CN114579706B (zh) | 一种基于bert神经网络和多任务学习的主观题自动评阅方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |