CN111639171A - 一种知识图谱问答方法及装置 - Google Patents

一种知识图谱问答方法及装置 Download PDF

Info

Publication number
CN111639171A
CN111639171A CN202010512399.7A CN202010512399A CN111639171A CN 111639171 A CN111639171 A CN 111639171A CN 202010512399 A CN202010512399 A CN 202010512399A CN 111639171 A CN111639171 A CN 111639171A
Authority
CN
China
Prior art keywords
entity
sample
subject
question
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010512399.7A
Other languages
English (en)
Other versions
CN111639171B (zh
Inventor
彭涛
崔海
刘露
包铁
王上
张雪松
梁琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202010512399.7A priority Critical patent/CN111639171B/zh
Publication of CN111639171A publication Critical patent/CN111639171A/zh
Application granted granted Critical
Publication of CN111639171B publication Critical patent/CN111639171B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

本申请提供一种知识图谱问答方法及装置,该方法包括:接收问题语句,并识别问题语句的实体提及和问题模式;在预设的知识图谱中检索与实体提及相关的主语实体作为候选实体;获取知识图谱中候选实体的谓语关系,并计算问题模式与候选实体的谓语关系间的语义相似度;将知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为问题语句的答案。本申请能够对问题语句的问题模式和知识图谱的谓语关系进行语义的联合分析,从而识别出知识图谱中语义最相关的宾语实体作为答案,从而提高问答结果的准确率。

Description

一种知识图谱问答方法及装置
技术领域
本发明涉及人工智能技术领域,更具体地说,涉及一种知识图谱问答方法及装置。
背景技术
近年来,随着知识图谱的发展,人们正在探索如何获取知识图谱中的有效知识。虽然诸如SPARQL、GraphQL等查询语言被设计用于知识图谱的检索,但由于查询语言的语法细节无法被终端用户所理解,因此基于知识图谱的问答系统应运而生,即当用户提出自然语言形式的问题时,该系统会通过检索知识图谱给出答案。
针对单关系事实型问题,即给出一个自然语言形式的问题,仅需要知识图谱中的一个三元组<主语实体,谓语关系,宾语实体>便可以回答该问题,例如对于问题“苹果公司的创始人是谁?”,就可以通过知识图谱中的三元组“<苹果公司,创始人,乔布斯>”进行回答。目前,处理单关系事实型问题的方法主要是端到端的神经网络方法,但该方法仅仅考虑了主语实体在字面上是否相同,而没有考虑语义上是否相关,因此如果知识图谱中出现多个重名的主语实体,则无法准确区分,导致问答结果准确率很低。
发明内容
有鉴于此,为解决上述问题,本发明提供知识图谱问答方法及装置,技术方案如下:
一种知识图谱问答方法,所述方法包括:
接收问题语句,并识别问题语句的实体提及和问题模式;
在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体;
获取所述知识图谱中所述候选实体的谓语关系,并计算所述问题模式与所述候选实体的谓语关系间的语义相似度;
将所述知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为所述问题语句的答案。
优选的,所述在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体,包括:
建立所述知识图谱中主语实体与所述主语实体的n-gram集合的反向映射索引,所述主语实体的n-gram集合中包含所述主语实体的所有组合方式;
生成所述实体提及的n-gram集合,所述实体提及的n-gram集合包含所述实体提及的所有组合方式;
采用启发式算法匹配所述实体提及的n-gram集合与所述主语实体的n-gram集合,基于所述反向映射索引将匹配到的主语实体作为候选实体。
优选的,所述在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体,还包括:
调用已训练的多标签分类模型,所述多标签分类模型是预先通过第一问题模式样本、以及为所述第一问题模式样本所标注的主题标签训练得到的;
将所述问题模式输入至所述多标签分类模型中,通过所述多标签分类模型获得所述问题模式所属主题的第一概率;
确定所述候选实体的主题,并从所述第一概率中获取所述问题模式属于所述候选实体的主题的第二概率;
计算所述候选实体与所述问题提及的编辑距离,并基于所述编辑距离和所述第二概率中的最大概率确定所述候选实体的评分;
筛选所述候选实体中评分符合预设排名的实体。
优选的,所述多标签分类模型的训练过程,包括:
获取训练用的第一基础模型,所述第一基础模型为预设的文本分类模型;
基于所述知识图谱中的三元组生成所述第一问题模式样本,所述第一问题模式样本所标注的主题标签为所述三元组中的谓语关系;
将所述第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至所述文本分类模型中,并计算所述文本分类模型的交叉熵损失函数值;
在所述交叉熵损失函数值不符合预设的第一结束条件的情况下,调整所述文本分类模型的权重参数,并返回执行所述将所述第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至所述文本分类模型中;
在所述交叉熵损失函数值符合所述第一结束条件的情况下,将本次训练后的所述文本分类模型作为所述多标签分类模型。
优选的,所述计算所述问题模式与所述候选实体的谓语关系间的语义相似度,包括:
调用已训练的关系检测模型,所述关系检测模型是预先通过第二问题模式样本、以及为所述第二问题模式样本所标注的关系标签训练得到的;
将所述问题模式与所述候选实体的谓语关系输入至所述关系检测模型中,通过所述关系检测模型获得所述问题模式与所述候选实体的谓语关系的语义相似度。
优选的,所述关系检测模型的训练过程,包括:
获取训练用的第二基础模型,所述第二基础模型包括第一编码层、第二编码层、分类模型和输出层;
基于所述知识图谱中的三元组生成所述第二问题模式样本,所述第二问题模式样本包括正样本和负样本,所述正样本所标注的关系标签为所述三元组中的谓语关系,所述负样本所标注的关系标签非所述三元组中的谓语关系;
按照预设比例分别对所述正样本和所述负样本进行样本采集,得到用于本次训练的样本;
针对所述用于本次训练的样本,通过所述第一编码层生成该样本所标注的关系标签的嵌入向量,并将该样本所标注的关系标签的嵌入向量作为该样本所标注的关系标签的第一低维向量;
通过所述第二编码层生成该样本中词组的嵌入向量;
通过所述分类模型采用注意力机制处理所述词组的嵌入向量得到该样本的第二低维向量;
通过所述输出层计算所述第一低维向量与所述第二低维向量的关联程度,并基于所述关联程度确定折页损失函数值;
在所述折页损失函数值不符合预设的第二结束条件的情况下,基于所述折页损失函数值分别调整所述第一编码层、所述第二编码层和所述分类模型的权重参数,并返回执行所述按照预设比例分别对所述正样本和所述负样本进行样本采集,得到用于本次训练的样本;
在所述折页损失函数值符合所述第二结束条件的情况下,将本次训练后的所述第二基础模型作为所述关系检测模型。
一种知识图谱问答装置,所述装置包括:
实体检测模块,用于接收问题语句,并识别问题语句的实体提及和问题模式;
实体链接模块,用于在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体;
关系检测模块,用于获取所述知识图谱中所述候选实体的谓语关系,并计算所述问题模式与所述候选实体的谓语关系间的语义相似度;
答案生成模块,用于将所述知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为所述问题语句的答案。
优选的,所述实体链接模块,具体用于:
建立所述知识图谱中主语实体与所述主语实体的n-gram集合的反向映射索引,所述主语实体的n-gram集合中包含所述主语实体的所有组合方式;生成所述实体提及的n-gram集合,所述实体提及的n-gram集合包含所述实体提及的所有组合方式;采用启发式算法匹配所述实体提及的n-gram集合与所述主语实体的n-gram集合,基于所述反向映射索引将匹配到的主语实体作为候选实体。
优选的,所述实体链接模块,还用于:
调用已训练的多标签分类模型,所述多标签分类模型是预先通过第一问题模式样本、以及为所述第一问题模式样本所标注的主题标签训练得到的;将所述问题模式输入至所述多标签分类模型中,通过所述多标签分类模型获得所述问题模式所属主题的第一概率;确定所述候选实体的主题,并从所述第一概率中获取所述问题模式属于所述候选实体的主题的第二概率;计算所述候选实体与所述问题提及的编辑距离,并基于所述编辑距离和所述第二概率中的最大概率确定所述候选实体的评分;筛选所述候选实体中评分符合预设排名的实体。
优选的,所述关系检测模块,具体用于:
调用已训练的关系检测模型,所述关系检测模型是预先通过第二问题模式样本、以及为所述第二问题模式样本所标注的关系标签训练得到的;将所述问题模式与所述候选实体的谓语关系输入至所述关系检测模型中,通过所述关系检测模型获得所述问题模式与所述候选实体的谓语关系的语义相似度。
本申请提供的知识图谱问答方法及装置,识别问题语句的实体提及和问题模式,并在知识图谱中检索与实体提及相关的主语实体作为候选实体,进而通过计算问题模式与候选实体的谓语关系的语义相似度来确定问题语句的答案。本申请能够对问题语句的问题模式和知识图谱的谓语关系进行语义的联合分析,从而识别出知识图谱中语义最相关的宾语实体作为答案,从而提高问答结果的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的知识图谱问答方法的方法流程图;
图2为本申请实施例提供的知识图谱问答方法的部分方法流程图;
图3为本申请实施例提供的知识图谱问答方法的另一部分方法流程图;
图4为本申请实施例提供的知识图谱问答方法的另一部分方法流程图;
图5为本申请实施例提供的场景实施例的示意图;
图6为本申请实施例提供的知识图谱问答装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
为方便理解本申请,以下首先对本申请相关的概率进行解释说明:
1)知识图谱:知识图谱是一种语义网络,网络中的节点代表真实世界中的实体,网络中的边代表一种语义关系。知识图谱通常由大量三元组构成;
2)三元组:一条三元组代表一条知识,例如三元组<姚明,身高,2米26>表示“姚明的身高是2米26”。三元组由主语实体、谓语关系以及宾语实体组成;
3)主语实体:即三元组中的第一项,例如上述三元组中的“姚明”是主语实体;
4)谓语关系:即三元组中的第二项,例如上述三元组中的“身高”是谓语关系;
5)宾语实体:即三元组中的第三项,例如上述三元组中的“2米26”是宾语实体;
6)管道模型:也称流水线模型,是指通过多个子模块的级联来解决一个问题,与端到端模型相对;
7)实体提及:是指在自然语言句子中出现的有关实体的部分。例如给出问句“姚明的身高是多少?”,那么“姚明”便是问句中的实体提及。
8)实体链接:将问句中的实体提及与知识图谱中的主语实体对应的过程即为实体链接;
9)深度神经网络:是机器学习的分支,以人工神经网络为架构,对数据进行表征学习的算法;
10)最大池化:对邻域内的特征点取最大值;
11)实体识别:是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名等。例如给出问句“姚明的身高是多少?”,那么从问句中识别出“姚明”的过程就是命名实体识别;
12)注意力机制:当人们注意到某个场景时,对该场景内每一处空间位置上的注意力分布是不一样的。在自然语言处理领域中,可以将注意力机制看作是为每个单词分配不同的权重,越重要的单词的权重应该越高;
13)序列标注:属于自然语言处理领域的一种任务,即对输入的语句进行标注。例如可以标注词性,或标注具有意义的实体等;
14)BiGRU模型:即双向门控神经网络。由两个单向门控神经网络构成,常用于自然语言处理过程中,对文本进行表征学习;
15)CRF模型:即条件随机场。是一种无向图模型,在命名实体识别等序列标注任务中应用广泛;
16)多标签分类:即一个样本可以被分类到多个不同的类别中,样本和类别可以具有一对多的关系;
17)“BIO”标注模式:对一个序列的每个元素标注一个标签,“B”表示片段的开头,“I”表示片段的中间位置,“O”表示不属于任何类型。例如给出问句“姚明的身高是多少?”,如果采用“BIO”标注模式对实体进行标注,那么标注结果为“BIOOOOOOO”;
18)n-gram模型:将一句话拆分成长度为n的连续片段。例如当n值为2时,按照字级别对问句“姚明的身高是多少?”进行拆分,就可以得到“姚明”、“明的”、“的身”、“身高”等片段;
19)编辑距离:两个字符串之间,由一个转换成另外一个所需要的最少操作次数,允许的操作包括替换字符,增加字符,删除字符。两字符串的编辑距离越小,说明两字符串的相似度越高;反之,两字符串的编辑距离越大,说明两字符串的相似度越低;
20)TextRNN、TextCNN、TextRCNN、TextRNN-Attention:均为基础的基于神经网络的文本分类算法;
21)交叉熵损失函数:在分类模型中常见的衡量误差的函数;
22)折页损失函数:用于衡量正样本和负样本之间差异的损失函数,如果正样本和负样本的差异越大说明模型效果越好。
现阶段,单关系事实型问题面临着四方面的挑战:(1)一词多义现象,即相同的词汇或者短语在不同的上下文语境中会表达出完全不同的语义。例如“苹果”这个词即有可能表示一种水果,也可以表示科技公司;(2)歧义现象,即一个词汇或短语可以被链接到知识图谱中的不同实体。例如“芝加哥”这个词可以与知识图谱中的实体“芝加哥城市”相关联,同时也可以与实体“芝加哥公牛队”相关联;(3)语义鸿沟现象,即知识图谱中的一个谓语关系在问句中具有多种表述形式。例如知识图谱中的关系“出生于”可以被表述为“你的家乡在哪里?”或者“你出生于哪里?”;(4)实体重名现象,即随着知识图谱规模的增长,很多实体具有完全相同的名称,这使得无法从字面上对实体加以区分。
对于端到端的神经网络方法处理单关系事实型问题,以下以申请号201910306552.8的专利《一种端到端的基于上下文的知识库问答方法与装置》来说明:
其方法实施的主要步骤为:
(1)对自然语言问题进行预处理,过滤特殊字符;
(2)基于知识库构建与问题相关的候选主语实体集合,并根据候选实体在知识库中相关联的关系构建候选谓语关系集合;
(3)对于每个问题的候选主语实体集合中的每个实体,抽取实体在问题中的上下文;
(4)对于每个问题的候选谓语关系集合中的每个关系进行不同粒度的划分;
(5)基于CERM模型进行训练,通过训练数据学习主语实体的上下文表示和谓语关系的不同粒度的表示,使得正确的实体和正确的关系的相似度更高;在测试阶段,返回候选实体列表和候选关系列表中得分最高主语实体和谓语关系;
(6)利用预测的主语实体和谓语关系在知识库中找到宾语实体作为答案返回。
其中,CERM模型包括:
实体编码器单元:利用深度神经网络模型对实体的上下文进行序列建模,将候选实体转化为一个包含问题上下文语义的低维空间的分布式向量;
关系编码器单元:将划分后的关系看作一个序列,利用深度神经网络将划分后的关系转化为包含关系语义的一个分布式向量;
实体和关系得分列表单元:将一个自然语言问题的候选主语实体和候选谓语关系分别通过实体编码器和关系编码器得到的特征向量进行点积运算得到实体和关系的相似度矩阵,对矩阵分别进行行方向和列方向的最大池化操作得到关系相似度得分列表和实体相似度得分列表;
实体和关系预测单元:在训练阶段,通过最小化对数归一化指数损失,使得候选实体和候选关系相似度得分列表中正确的实体和关系的得分更高;测试阶段,返回主语实体和谓语关系得分列表中得分最高的实体和关系。
但是,以上技术方案具有以下两点缺陷:
(1)在实体链接过程中,该方法首先收集知识库中的实体标签名,形成待检索实体库,然后在上述实体库中检索与问题中单词或词组相匹配的实体名称,从而形成实体候选集。该方法的缺点在于首先没有在问句中进行命名实体识别,因此如果问句中的实体名称与知识图谱中的标准实体名称不完全一致,则会导致正确实体不会出现在实体候选集中。另外,该方法仅仅考虑了实体名称在字面上是否相同,而没有考虑语义上是否相关,因此如果知识图谱中出现多个重名实体,则该方法无法区分正确实体。
(2)在该方法使用的CERM模型中,无论是实体编码器还是关系编码器仅仅通过深度神经网络转化为低维空间的分布式向量。由于深度神经网络具有黑箱效应,该方法不能为预测结果给出合理的解释。
本申请提供一种基于管道模型的知识图谱问答方法,该方法的方法流程图如图1所示,包括如下步骤:
S10,接收问题语句,并识别问题语句的实体提及和问题模式。
本申请实施例中,该步骤为实体检测,可以将实体提及的识别任务视为序列标注任务。具体的,首先从问句样本中标注出具有实体含义的词组、以及普通词组,标注时采用“BIO”模式;进而使用标注好的问句样本训练BiGRU-CRF模型,将该模型作为后续识别问题语句的实体提及的工具。
而在识别出问题语句中的实体提及后,将实体提及用通用符号,比如“head”替换,可以得到该问题语句的问题模式。例如,给出问题语句“撒哈拉以南非洲的时区是多少?”,该问题语句的实体提及为“撒哈拉以南非洲”,相应的,该问题语句的问题模式为“<head>的时区是多少?”。
S20,在预设的知识图谱中检索与实体提及相关的主语实体作为候选实体。
本申请实施例中,该步骤为实体链接,可以通过字符匹配的方法从知识图谱中检索出与实体提及相关的主语实体。
具体实现过程中,步骤S20“在预设的知识图谱中检索与实体提及相关的主语实体作为候选实体”可以采用如下步骤,方法流程图如图2所示:
S201,建立知识图谱中主语实体与主语实体的n-gram集合的反向映射索引,主语实体的n-gram集合中包含主语实体的所有组合方式。
本申请实施例中,可以收集知识图谱中的所有主语实体,形式主语实体库。针对该主语实体库中的每个主语实体,获得该主语实体的n-gram集合,并建立该主语实体与n-gram集合的映射关系。
比如给出主语实体“贝拉克·侯赛因·奥巴马”,则其n-gram集合为{贝拉克,侯赛因,奥巴马,贝拉克·侯赛因,侯赛因·奥巴马,贝拉克·侯赛因·奥巴马}。
需要说明的是,以上举例的n-gram集合的组合基准为一个词组,但在实际应用中,n-gram集合的组合基准可以为一个词组,还可以为一个字符,还可为一个空格,本实施例对此不做限定,可以根据实际场景进行设置。
S202,生成实体提及的n-gram集合,实体提及的n-gram集合包含实体提及的所有组合方式。
本申请实施例中,生成实体提及的n-gram集合可以参见步骤S202,本实施例对此不做限定。需要说明的是,步骤S201与步骤S202所采用的组合基准相同。
S203,采用启发式算法匹配实体提及的n-gram集合与主语实体的n-gram集合,基于反向映射索引将匹配到的主语实体作为候选实体。
本申请实施例中,为减少候选实体的规模,采用启发式算法,按照n值由大到小对实体提及的n-gram集合中的组合方式进行排序,优先匹配字符长度较长的组合,如果能够匹配到,则不考虑字符长度较短的组合。
在此基础上,为解决无法区分知识图谱中名称相同的主语实体,进一步,本申请将根据实体提及的上下文,即问题模式进行处理,使正确的主语实体出现在候选实体中排名靠前的位置,从而缓解歧义现象以及重名现象。
步骤S203之后,还可以采用如下步骤,方法流程图如图3所示:
S204,调用已训练的多标签分类模型,多标签分类模型是预先通过第一问题模式样本、以及为第一问题模式样本所标注的主题标签训练得到的。
本申请实施例中,由于问题模式与主题间具有对应关系,例如给出问题模式“<head>的时区是多少?”,显然该问题模式的主题关乎于“时区”而非“职业”。因此,我们可以利用基于深度神经网络的文本分类模型对问题模式与主题的映射关系进行建模。
此外,由于问题模式与主题间可能具有一对多的关系,我们将该问题转化成多标签分类问题。具体的文本分类模型可以考虑TextRNN、TextCNN、TextRCNN、TextRNN-Attention等基础模型或其它更为复杂的神经网络模型,在训练阶段将采用交叉熵损失函数评估模型误差。
具体的,多标签分类模型的训练过程,包括如下步骤:
获取训练用的第一基础模型,第一基础模型为预设的文本分类模型;基于知识图谱中的三元组生成第一问题模式样本,第一问题模式样本所标注的主题标签为三元组中的谓语关系;将第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至文本分类模型中,并计算文本分类模型的交叉熵损失函数值;在交叉熵损失函数值不符合预设的第一结束条件的情况下,调整文本分类模型的权重参数,并返回执行将第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至文本分类模型中;在交叉熵损失函数值符合第一结束条件的情况下,将本次训练后的文本分类模型作为多标签分类模型。
本申请实施例中,在生成用于训练多标签分类模型的第一问题模式样本时,可以随机从知识图谱中提取一定数量的三元组,将一个三元组中的主语实体用诸如“head”的通用符号替换即可得到一个问题模式样本,并将该三元组中的谓语关系作为该问题模式样本的主题标签。
还需要说明的是,第一结束条件可以为一个交叉熵损失函数阈值。
S205,将问题模式输入至多标签分类模型中,通过多标签分类模型获得问题模式所属主题的第一概率。
本申请实施例中,将问题模式输入到多标签分类模型中,由该多标签分类模型输出问题模式所属的主题、以及属于该主题的概率。
S206,确定候选实体的主题,并从第一概率中获取问题模式属于候选实体的主题的第二概率。
本申请实施例中,对于每一个候选实体,其在知识图谱中可能具体多个谓语关系,即具有多个主题,因此,可以确定多标签分类模型输出的结果中被该候选实体所具有的主题的概率,也就是第二概率。
S207,计算候选实体与问题提及的编辑距离,并基于编辑距离和第二概率中的最大概率确定候选实体的评分。
本申请实施例中,形式化定义如下,给出问题模式p、实体提及m、候选实体ei、问题模式所属主题Rei、多标签分类模型M。
采用如下公式(1)计算候选实体的评分,考虑了字符相关性以及问题模式分类:
Figure BDA0002528786980000131
其中,SEL(ei,p,m)为候选实体的评分,Sed(ei,m)为编辑距离,
Figure BDA0002528786980000132
则表示从问题模式p所属的候选实体的主题
Figure BDA0002528786980000133
的概率(即第二概率)中选出最大值。
S208,筛选候选实体中评分符合预设排名的实体。
本申请实施例中,按照由大到小的顺序对候选实体的评分进行排序,能够得到候选实体的排名,并保留其中top-N个实体作为最终的候选实体。
由此,本申请实施例在实体链接的过程中,首先基于字符匹配的实体链接方法初步得到候选实体,进而根据问题模式与主题的映射关系建立多标签分类模型,并将该模型应用于实体链接过程中,从而为初步得到的候选实体额外分配额外的问题模式分类的评分,最后通过重新排序,使得正确的实体能够出现在排名靠前的候选实体中,从而缓解歧义现象以及主语实体的同名现象。
S30,获取知识图谱中候选实体的谓语关系,并计算问题模式与候选实体的谓语关系间的语义相似度。
本申请实施例中,该步骤为关系检测,具体的,可以构建基于注意力机制的关系检测模型来计算问题模式与候选实体的谓语关系间的余弦相似度,从而将该余弦相似度作为两者的语义相似度。
具体实现过程中,步骤S30“计算问题模式与候选实体的谓语关系间的语义相似度”可以采用如下步骤:
调用已训练的关系检测模型,关系检测模型是预先通过第二问题模式样本、以及为第二问题模式样本所标注的关系标签训练得到的;
将问题模式与候选实体的谓语关系输入至关系检测模型中,通过关系检测模型获得问题模式与候选实体的谓语关系的语义相似度。
其中,关系检测模型的训练过程,包括如下步骤:
获取训练用的第二基础模型,第二基础模型包括第一编码层、第二编码层、分类模型和输出层;基于知识图谱中的三元组生成第二问题模式样本,第二问题模式样本包括正样本和负样本,正样本所标注的关系标签为三元组中的谓语关系,负样本所标注的关系标签非三元组中的谓语关系;按照预设比例分别对正样本和负样本进行样本采集,得到用于本次训练的样本;针对用于本次训练的样本,通过第一编码层生成该样本所标注的关系标签的嵌入向量,并将该样本所标注的关系标签的嵌入向量作为该样本所标注的关系标签的第一低维向量;通过第二编码层生成该样本中词组的嵌入向量;通过分类模型采用注意力机制处理词组的嵌入向量得到该样本的第二低维向量;通过输出层计算第一低维向量与第二低维向量的关联程度,并基于关联程度确定折页损失函数值;在折页损失函数值不符合预设的第二结束条件的情况下,基于折页损失函数值分别调整第一编码层、第二编码层和分类模型的权重参数,并返回执行按照预设比例分别对正样本和负样本进行样本采集,得到用于本次训练的样本;在折页损失函数值符合第二结束条件的情况下,将本次训练后的第二基础模型作为关系检测模型。
参见图4所示的关系检测模型的训练示意图。通过第一编码层生成关系标签“时区”的嵌入向量,该嵌入向量作为其的低维向量表示,即第一低维向量。通过第二编码层生成样本“<head>的时区是多少?”的嵌入向量,并将该嵌入向量输入至分类模型“BiGRU模型”中,由BiGRU模型先基于该嵌入向量获得样本的隐含状态,进而采用注意力机制将样本的隐含状态转换为样本的低维向量表示,即第二低维向量。使用注意力机制能够为问题模式中每个词组分配不同的权重,通过可视化的注意力权重,能够提高模型的可解释性。
具体的,采用以下公式(2)为注意力机制计算第二低维向量:
Figure BDA0002528786980000141
其中,hi为样本的第i个词组的隐含状态[h1,h2,...,hL]中的一个,L为样本的词组长度,αi为第i个词组的注意力权重,v、W、以及U为分类模型的权重参数。
进一步,采用以下公式(3)计算第一低维向量vr与第二低维向量vp的余弦相似度,将该余弦相似度作为关联程度:
SRD(vr,vp)=cosine(vr,vp) (3)
其中,SRD(vr,vp)为余弦相似度。
此外,可以按照如下公式(4)计算第二基础模型的折页损失函数值:
Figure BDA0002528786980000151
其中,L(θ)为折页损失函数值,N为正样本数量,M为每个正样本对应的负样本的数量,γ为可调节的超参数,
Figure BDA0002528786980000152
为正样本对应的第一低维向量,
Figure BDA0002528786980000153
为负样本对应的第一低维向量。
S40,将知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为问题语句的答案。
本申请实施例中,该步骤为答案生成,将语义相似度最大的一组候选实体和谓语关系分别作为最优主语实体和最优谓语关系,从而在知识图谱中检索出最优主语实体和最优谓语关系所在的三元组中的宾语实体作为答案。
参见图5所示的场景实施例。接收到问题语句“撒哈拉以南非洲的时区是多少?”之后,通过实体检测识别其中的实体提及“撒哈拉以南非洲”、以及问题模式“<head>的时区是多少?”;通过实体链接确定知识图谱中与实体提及“撒哈拉以南非洲”相关的候选实体“m.04whzt2”和“m.06qtn”;进一步通过关系检测获取候选实体“m.04whzt2”和“m.06qtn”的谓语关系“类型、主题、名称、时区……”,并计算问题模式“<head>的时区是多少?”与谓语关系“类型、主题、名称、时区……”中各个关系的语义相似度,从而在知识图谱中确定语义相似度最大的一组候选实体“m.06qtn”和“时区”所在的三元组<m.06qtn,时区,欧洲西部夏令时间>,从而将“欧洲西部夏令时间”作为答案输出。
本申请实施例提供的知识图谱问答方法,能够对问题语句的问题模式和知识图谱的谓语关系进行语义的联合分析,从而识别出知识图谱中语义最相关的宾语实体作为答案,从而提高问答结果的准确率。
基于上述实施例提供的知识图谱问答方法,本申请实施例还提供一种执行上述知识图谱问答方法的装置,该装置的结构示意图如图6所示,包括:
实体检测模块10,用于接收问题语句,并识别问题语句的实体提及和问题模式;
实体链接模块20,用于在预设的知识图谱中检索与实体提及相关的主语实体作为候选实体;
关系检测模块30,用于获取知识图谱中候选实体的谓语关系,并计算问题模式与候选实体的谓语关系间的语义相似度;
答案生成模块40,用于将知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为问题语句的答案。
可选的,实体链接模块20,具体用于:
建立知识图谱中主语实体与主语实体的n-gram集合的反向映射索引,主语实体的n-gram集合中包含主语实体的所有组合方式;生成实体提及的n-gram集合,实体提及的n-gram集合包含实体提及的所有组合方式;采用启发式算法匹配实体提及的n-gram集合与主语实体的n-gram集合,基于反向映射索引将匹配到的主语实体作为候选实体。
可选的,实体链接模块20,还用于:
调用已训练的多标签分类模型,多标签分类模型是预先通过第一问题模式样本、以及为第一问题模式样本所标注的主题标签训练得到的;将问题模式输入至多标签分类模型中,通过多标签分类模型获得问题模式所属主题的第一概率;确定候选实体的主题,并从第一概率中获取问题模式属于候选实体的主题的第二概率;计算候选实体与问题提及的编辑距离,并基于编辑距离和第二概率中的最大概率确定候选实体的评分;筛选候选实体中评分符合预设排名的实体。
可选的,实体链接模块20训练多标签分类模型的过程,包括:
获取训练用的第一基础模型,第一基础模型为预设的文本分类模型;
基于知识图谱中的三元组生成第一问题模式样本,第一问题模式样本所标注的主题标签为三元组中的谓语关系;将第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至文本分类模型中,并计算文本分类模型的交叉熵损失函数值;在交叉熵损失函数值不符合预设的第一结束条件的情况下,调整文本分类模型的权重参数,并返回执行将第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至文本分类模型中;在交叉熵损失函数值符合第一结束条件的情况下,将本次训练后的文本分类模型作为多标签分类模型。
可选的,关系检测模块30,具体用于:
调用已训练的关系检测模型,关系检测模型是预先通过第二问题模式样本、以及为第二问题模式样本所标注的关系标签训练得到的;将问题模式与候选实体的谓语关系输入至关系检测模型中,通过关系检测模型获得问题模式与候选实体的谓语关系的语义相似度。
可选的,关系检测模块30训练关系检测模型的过程,包括:
获取训练用的第二基础模型,第二基础模型包括第一编码层、第二编码层、分类模型和输出层;基于知识图谱中的三元组生成第二问题模式样本,第二问题模式样本包括正样本和负样本,正样本所标注的关系标签为三元组中的谓语关系,负样本所标注的关系标签非三元组中的谓语关系;按照预设比例分别对正样本和负样本进行样本采集,得到用于本次训练的样本;针对用于本次训练的样本,通过第一编码层生成该样本所标注的关系标签的嵌入向量,并将该样本所标注的关系标签的嵌入向量作为该样本所标注的关系标签的第一低维向量;通过第二编码层生成该样本中词组的嵌入向量;通过分类模型采用注意力机制处理词组的嵌入向量得到该样本的第二低维向量;通过输出层计算第一低维向量与第二低维向量的关联程度,并基于关联程度确定折页损失函数值;在折页损失函数值不符合预设的第二结束条件的情况下,基于折页损失函数值分别调整第一编码层、第二编码层和分类模型的权重参数,并返回执行按照预设比例分别对正样本和负样本进行样本采集,得到用于本次训练的样本;在折页损失函数值符合第二结束条件的情况下,将本次训练后的第二基础模型作为关系检测模型。
本申请实施例提供的知识图谱问答装置,能够对问题语句的问题模式和知识图谱的谓语关系进行语义的联合分析,从而识别出知识图谱中语义最相关的宾语实体作为答案,从而提高问答结果的准确率。
以上对本发明所提供的一种知识图谱问答方法及装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备所固有的要素,或者是还包括为这些过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种知识图谱问答方法,其特征在于,所述方法包括:
接收问题语句,并识别问题语句的实体提及和问题模式;
在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体;
获取所述知识图谱中所述候选实体的谓语关系,并计算所述问题模式与所述候选实体的谓语关系间的语义相似度;
将所述知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为所述问题语句的答案。
2.根据权利要求1所述的方法,其特征在于,所述在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体,包括:
建立所述知识图谱中主语实体与所述主语实体的n-gram集合的反向映射索引,所述主语实体的n-gram集合中包含所述主语实体的所有组合方式;
生成所述实体提及的n-gram集合,所述实体提及的n-gram集合包含所述实体提及的所有组合方式;
采用启发式算法匹配所述实体提及的n-gram集合与所述主语实体的n-gram集合,基于所述反向映射索引将匹配到的主语实体作为候选实体。
3.根据权利要求2所述的方法,其特征在于,所述在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体,还包括:
调用已训练的多标签分类模型,所述多标签分类模型是预先通过第一问题模式样本、以及为所述第一问题模式样本所标注的主题标签训练得到的;
将所述问题模式输入至所述多标签分类模型中,通过所述多标签分类模型获得所述问题模式所属主题的第一概率;
确定所述候选实体的主题,并从所述第一概率中获取所述问题模式属于所述候选实体的主题的第二概率;
计算所述候选实体与所述问题提及的编辑距离,并基于所述编辑距离和所述第二概率中的最大概率确定所述候选实体的评分;
筛选所述候选实体中评分符合预设排名的实体。
4.根据权利要求3所述的方法,其特征在于,所述多标签分类模型的训练过程,包括:
获取训练用的第一基础模型,所述第一基础模型为预设的文本分类模型;
基于所述知识图谱中的三元组生成所述第一问题模式样本,所述第一问题模式样本所标注的主题标签为所述三元组中的谓语关系;
将所述第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至所述文本分类模型中,并计算所述文本分类模型的交叉熵损失函数值;
在所述交叉熵损失函数值不符合预设的第一结束条件的情况下,调整所述文本分类模型的权重参数,并返回执行所述将所述第一问题模式样本中用于本次训练的样本和其所标注的主题标签输入至所述文本分类模型中;
在所述交叉熵损失函数值符合所述第一结束条件的情况下,将本次训练后的所述文本分类模型作为所述多标签分类模型。
5.根据权利要求1所述的方法,其特征在于,所述计算所述问题模式与所述候选实体的谓语关系间的语义相似度,包括:
调用已训练的关系检测模型,所述关系检测模型是预先通过第二问题模式样本、以及为所述第二问题模式样本所标注的关系标签训练得到的;
将所述问题模式与所述候选实体的谓语关系输入至所述关系检测模型中,通过所述关系检测模型获得所述问题模式与所述候选实体的谓语关系的语义相似度。
6.根据权利要求5所述的方法,其特征在于,所述关系检测模型的训练过程,包括:
获取训练用的第二基础模型,所述第二基础模型包括第一编码层、第二编码层、分类模型和输出层;
基于所述知识图谱中的三元组生成所述第二问题模式样本,所述第二问题模式样本包括正样本和负样本,所述正样本所标注的关系标签为所述三元组中的谓语关系,所述负样本所标注的关系标签非所述三元组中的谓语关系;
按照预设比例分别对所述正样本和所述负样本进行样本采集,得到用于本次训练的样本;
针对所述用于本次训练的样本,通过所述第一编码层生成该样本所标注的关系标签的嵌入向量,并将该样本所标注的关系标签的嵌入向量作为该样本所标注的关系标签的第一低维向量;
通过所述第二编码层生成该样本中词组的嵌入向量;
通过所述分类模型采用注意力机制处理所述词组的嵌入向量得到该样本的第二低维向量;
通过所述输出层计算所述第一低维向量与所述第二低维向量的关联程度,并基于所述关联程度确定折页损失函数值;
在所述折页损失函数值不符合预设的第二结束条件的情况下,基于所述折页损失函数值分别调整所述第一编码层、所述第二编码层和所述分类模型的权重参数,并返回执行所述按照预设比例分别对所述正样本和所述负样本进行样本采集,得到用于本次训练的样本;
在所述折页损失函数值符合所述第二结束条件的情况下,将本次训练后的所述第二基础模型作为所述关系检测模型。
7.一种知识图谱问答装置,其特征在于,所述装置包括:
实体检测模块,用于接收问题语句,并识别问题语句的实体提及和问题模式;
实体链接模块,用于在预设的知识图谱中检索与所述实体提及相关的主语实体作为候选实体;
关系检测模块,用于获取所述知识图谱中所述候选实体的谓语关系,并计算所述问题模式与所述候选实体的谓语关系间的语义相似度;
答案生成模块,用于将所述知识图谱中,语义相似度最大的候选实体和谓语关系所对应的宾语实体作为所述问题语句的答案。
8.根据权利要求7所述的装置,其特征在于,所述实体链接模块,具体用于:
建立所述知识图谱中主语实体与所述主语实体的n-gram集合的反向映射索引,所述主语实体的n-gram集合中包含所述主语实体的所有组合方式;生成所述实体提及的n-gram集合,所述实体提及的n-gram集合包含所述实体提及的所有组合方式;采用启发式算法匹配所述实体提及的n-gram集合与所述主语实体的n-gram集合,基于所述反向映射索引将匹配到的主语实体作为候选实体。
9.根据权利要求8所述的装置,其特征在于,所述实体链接模块,还用于:
调用已训练的多标签分类模型,所述多标签分类模型是预先通过第一问题模式样本、以及为所述第一问题模式样本所标注的主题标签训练得到的;将所述问题模式输入至所述多标签分类模型中,通过所述多标签分类模型获得所述问题模式所属主题的第一概率;确定所述候选实体的主题,并从所述第一概率中获取所述问题模式属于所述候选实体的主题的第二概率;计算所述候选实体与所述问题提及的编辑距离,并基于所述编辑距离和所述第二概率中的最大概率确定所述候选实体的评分;筛选所述候选实体中评分符合预设排名的实体。
10.根据权利要求7所述的装置,其特征在于,所述关系检测模块,具体用于:
调用已训练的关系检测模型,所述关系检测模型是预先通过第二问题模式样本、以及为所述第二问题模式样本所标注的关系标签训练得到的;将所述问题模式与所述候选实体的谓语关系输入至所述关系检测模型中,通过所述关系检测模型获得所述问题模式与所述候选实体的谓语关系的语义相似度。
CN202010512399.7A 2020-06-08 2020-06-08 一种知识图谱问答方法及装置 Active CN111639171B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010512399.7A CN111639171B (zh) 2020-06-08 2020-06-08 一种知识图谱问答方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010512399.7A CN111639171B (zh) 2020-06-08 2020-06-08 一种知识图谱问答方法及装置

Publications (2)

Publication Number Publication Date
CN111639171A true CN111639171A (zh) 2020-09-08
CN111639171B CN111639171B (zh) 2023-10-27

Family

ID=72332179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010512399.7A Active CN111639171B (zh) 2020-06-08 2020-06-08 一种知识图谱问答方法及装置

Country Status (1)

Country Link
CN (1) CN111639171B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112182178A (zh) * 2020-09-25 2021-01-05 北京字节跳动网络技术有限公司 智能问答方法、装置、设备及可读存储介质
CN112328773A (zh) * 2020-11-26 2021-02-05 四川长虹电器股份有限公司 基于知识图谱的问答实现方法和系统
CN112527998A (zh) * 2020-12-22 2021-03-19 深圳市优必选科技股份有限公司 一种答复推荐方法、答复推荐装置及智能设备
CN113076758A (zh) * 2021-03-19 2021-07-06 中山大学 一种面向任务型对话的多域请求式意图识别方法
CN113360616A (zh) * 2021-06-04 2021-09-07 科大讯飞股份有限公司 自动问答处理方法、装置、设备及存储介质
CN113378513A (zh) * 2021-06-11 2021-09-10 电子科技大学 一种面向领域关系抽取的标注语料生成方法
CN113449038A (zh) * 2021-06-29 2021-09-28 东北大学 一种基于自编码器的矿山智能问答系统及方法
CN113535972A (zh) * 2021-06-07 2021-10-22 吉林大学 一种融合上下文语义的知识图谱链路预测模型、方法及装置
CN113742447A (zh) * 2021-07-19 2021-12-03 暨南大学 基于查询路径生成的知识图谱问答方法、介质和设备
CN114416941A (zh) * 2021-12-28 2022-04-29 北京百度网讯科技有限公司 融合知识图谱的对话知识点确定模型的生成方法及装置
CN114416953A (zh) * 2022-01-20 2022-04-29 北京百度网讯科技有限公司 问答处理方法、问答模型的训练方法和装置
CN114547273A (zh) * 2022-03-18 2022-05-27 科大讯飞(苏州)科技有限公司 问题回答方法及相关装置、电子设备、存储介质
WO2022107989A1 (ko) * 2020-11-23 2022-05-27 숭실대학교산학협력단 질의문과 지식 그래프 관계 학습을 이용한 지식 완성 방법 및 장치
CN115017913A (zh) * 2022-04-21 2022-09-06 广州世纪华轲科技有限公司 基于主从框架模式的语义成分解析方法
CN115170800A (zh) * 2022-07-15 2022-10-11 浙江大学 一种基于社交媒体与深度学习的城市内涝积水深度识别方法
CN115577713A (zh) * 2022-12-07 2023-01-06 中科雨辰科技有限公司 一种基于知识图谱的文本处理方法
CN115859987A (zh) * 2023-01-19 2023-03-28 阿里健康科技(中国)有限公司 实体提及识别模块和的链接方法、装置、设备和介质
CN117216194A (zh) * 2023-11-08 2023-12-12 天津恒达文博科技股份有限公司 文博领域知识问答方法及装置、设备和介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110137919A1 (en) * 2009-12-09 2011-06-09 Electronics And Telecommunications Research Institute Apparatus and method for knowledge graph stabilization
US20110258230A1 (en) * 2010-04-16 2011-10-20 Korea Institute Of Science & Technology Information Question-answer service system and method based on rdf search
US20170099249A1 (en) * 2015-10-05 2017-04-06 Yahoo! Inc. Method and system for classifying a question
CN107729493A (zh) * 2017-09-29 2018-02-23 北京创鑫旅程网络技术有限公司 旅行知识图谱的构建方法、装置及旅行问答方法、装置
CN107748757A (zh) * 2017-09-21 2018-03-02 北京航空航天大学 一种基于知识图谱的问答方法
CN108052636A (zh) * 2017-12-20 2018-05-18 北京工业大学 确定文本主题相关度的方法、装置及终端设备
CN110059160A (zh) * 2019-04-17 2019-07-26 东南大学 一种端到端的基于上下文的知识库问答方法及装置
CN110147436A (zh) * 2019-03-18 2019-08-20 清华大学 一种基于教育知识图谱与文本的混合自动问答方法
CN110399457A (zh) * 2019-07-01 2019-11-01 吉林大学 一种智能问答方法和系统
CN110888966A (zh) * 2018-09-06 2020-03-17 微软技术许可有限责任公司 自然语言问答
CN111159345A (zh) * 2019-12-27 2020-05-15 中国矿业大学 一种中文知识库答案获取方法及其装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110137919A1 (en) * 2009-12-09 2011-06-09 Electronics And Telecommunications Research Institute Apparatus and method for knowledge graph stabilization
US20110258230A1 (en) * 2010-04-16 2011-10-20 Korea Institute Of Science & Technology Information Question-answer service system and method based on rdf search
US20170099249A1 (en) * 2015-10-05 2017-04-06 Yahoo! Inc. Method and system for classifying a question
CN107748757A (zh) * 2017-09-21 2018-03-02 北京航空航天大学 一种基于知识图谱的问答方法
CN107729493A (zh) * 2017-09-29 2018-02-23 北京创鑫旅程网络技术有限公司 旅行知识图谱的构建方法、装置及旅行问答方法、装置
CN108052636A (zh) * 2017-12-20 2018-05-18 北京工业大学 确定文本主题相关度的方法、装置及终端设备
CN110888966A (zh) * 2018-09-06 2020-03-17 微软技术许可有限责任公司 自然语言问答
CN110147436A (zh) * 2019-03-18 2019-08-20 清华大学 一种基于教育知识图谱与文本的混合自动问答方法
CN110059160A (zh) * 2019-04-17 2019-07-26 东南大学 一种端到端的基于上下文的知识库问答方法及装置
CN110399457A (zh) * 2019-07-01 2019-11-01 吉林大学 一种智能问答方法和系统
CN111159345A (zh) * 2019-12-27 2020-05-15 中国矿业大学 一种中文知识库答案获取方法及其装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YANCHAO HAO ET AL.: "Pattern-revising Enhanced Simple Question Answering over Knowledge Basea", pages 3 - 5 *
姚占雷;郭金龙;许鑫;: "联合虚拟参考咨询中的自动问答系统设计与实现", 现代图书情报技术, no. 09 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112182178A (zh) * 2020-09-25 2021-01-05 北京字节跳动网络技术有限公司 智能问答方法、装置、设备及可读存储介质
KR102442422B1 (ko) * 2020-11-23 2022-09-08 숭실대학교산학협력단 질의문과 지식 그래프 관계 학습을 이용한 지식 완성 방법 및 장치
KR20220070919A (ko) * 2020-11-23 2022-05-31 숭실대학교산학협력단 질의문과 지식 그래프 관계 학습을 이용한 지식 완성 방법 및 장치
WO2022107989A1 (ko) * 2020-11-23 2022-05-27 숭실대학교산학협력단 질의문과 지식 그래프 관계 학습을 이용한 지식 완성 방법 및 장치
CN112328773A (zh) * 2020-11-26 2021-02-05 四川长虹电器股份有限公司 基于知识图谱的问答实现方法和系统
CN112527998A (zh) * 2020-12-22 2021-03-19 深圳市优必选科技股份有限公司 一种答复推荐方法、答复推荐装置及智能设备
CN113076758A (zh) * 2021-03-19 2021-07-06 中山大学 一种面向任务型对话的多域请求式意图识别方法
CN113076758B (zh) * 2021-03-19 2023-03-14 中山大学 一种面向任务型对话的多域请求式意图识别方法
CN113360616A (zh) * 2021-06-04 2021-09-07 科大讯飞股份有限公司 自动问答处理方法、装置、设备及存储介质
CN113535972A (zh) * 2021-06-07 2021-10-22 吉林大学 一种融合上下文语义的知识图谱链路预测模型、方法及装置
CN113378513B (zh) * 2021-06-11 2022-12-23 电子科技大学 一种面向领域关系抽取的标注语料生成方法
CN113378513A (zh) * 2021-06-11 2021-09-10 电子科技大学 一种面向领域关系抽取的标注语料生成方法
CN113449038A (zh) * 2021-06-29 2021-09-28 东北大学 一种基于自编码器的矿山智能问答系统及方法
CN113449038B (zh) * 2021-06-29 2024-04-26 东北大学 一种基于自编码器的矿山智能问答系统及方法
CN113742447B (zh) * 2021-07-19 2024-04-02 暨南大学 基于查询路径生成的知识图谱问答方法、介质和设备
CN113742447A (zh) * 2021-07-19 2021-12-03 暨南大学 基于查询路径生成的知识图谱问答方法、介质和设备
CN114416941A (zh) * 2021-12-28 2022-04-29 北京百度网讯科技有限公司 融合知识图谱的对话知识点确定模型的生成方法及装置
CN114416941B (zh) * 2021-12-28 2023-09-05 北京百度网讯科技有限公司 融合知识图谱的对话知识点确定模型的生成方法及装置
CN114416953A (zh) * 2022-01-20 2022-04-29 北京百度网讯科技有限公司 问答处理方法、问答模型的训练方法和装置
CN114416953B (zh) * 2022-01-20 2023-10-31 北京百度网讯科技有限公司 问答处理方法、问答模型的训练方法和装置
CN114547273B (zh) * 2022-03-18 2022-08-16 科大讯飞(苏州)科技有限公司 问题回答方法及相关装置、电子设备、存储介质
CN114547273A (zh) * 2022-03-18 2022-05-27 科大讯飞(苏州)科技有限公司 问题回答方法及相关装置、电子设备、存储介质
CN115017913A (zh) * 2022-04-21 2022-09-06 广州世纪华轲科技有限公司 基于主从框架模式的语义成分解析方法
CN115170800A (zh) * 2022-07-15 2022-10-11 浙江大学 一种基于社交媒体与深度学习的城市内涝积水深度识别方法
CN115577713A (zh) * 2022-12-07 2023-01-06 中科雨辰科技有限公司 一种基于知识图谱的文本处理方法
CN115859987A (zh) * 2023-01-19 2023-03-28 阿里健康科技(中国)有限公司 实体提及识别模块和的链接方法、装置、设备和介质
CN115859987B (zh) * 2023-01-19 2023-06-16 阿里健康科技(中国)有限公司 实体提及识别模块及其链接方法、设备和介质
CN117216194A (zh) * 2023-11-08 2023-12-12 天津恒达文博科技股份有限公司 文博领域知识问答方法及装置、设备和介质
CN117216194B (zh) * 2023-11-08 2024-01-30 天津恒达文博科技股份有限公司 文博领域知识问答方法及装置、设备和介质

Also Published As

Publication number Publication date
CN111639171B (zh) 2023-10-27

Similar Documents

Publication Publication Date Title
CN111639171B (zh) 一种知识图谱问答方法及装置
CN111291185B (zh) 信息抽取方法、装置、电子设备及存储介质
CN110795543B (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN111475623B (zh) 基于知识图谱的案件信息语义检索方法及装置
CN110727779A (zh) 基于多模型融合的问答方法及系统
CN112214610B (zh) 一种基于跨度和知识增强的实体关系联合抽取方法
CN111783394B (zh) 事件抽取模型的训练方法、事件抽取方法和系统及设备
CN111209384A (zh) 基于人工智能的问答数据处理方法、装置及电子设备
CN111985239A (zh) 实体识别方法、装置、电子设备及存储介质
CN113191148A (zh) 一种基于半监督学习和聚类的轨道交通实体识别方法
CN112256939A (zh) 一种针对化工领域的文本实体关系抽取方法
CN112328800A (zh) 自动生成编程规范问题答案的系统及方法
CN111324691A (zh) 一种基于知识图谱的少数民族领域智能问答方法
CN112559781B (zh) 一种图像检索系统和方法
CN112541337A (zh) 一种基于递归神经网络语言模型的文档模板自动生成方法及系统
CN110968708A (zh) 一种教育信息资源属性标注方法及系统
CN113947084A (zh) 基于图嵌入的问答知识检索方法、装置及设备
CN115146062A (zh) 融合专家推荐与文本聚类的智能事件分析方法和系统
CN117390198A (zh) 构建电力领域科技知识图谱的方法、装置、设备及介质
CN115982338B (zh) 一种基于查询路径排序的领域知识图谱问答方法及系统
CN110377690B (zh) 一种基于远程关系抽取的信息获取方法和系统
CN111104503A (zh) 一种建筑工程质量验收规范问答系统及其构建方法
CN115658845A (zh) 一种适用于开源软件供应链的智能问答方法及装置
CN112765940B (zh) 一种基于主题特征和内容语义的网页去重方法
CN114648029A (zh) 一种基于BiLSTM-CRF模型的电力领域命名实体识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant