CN114036275B - 一种知识图谱嵌入多跳问答方法 - Google Patents
一种知识图谱嵌入多跳问答方法 Download PDFInfo
- Publication number
- CN114036275B CN114036275B CN202111314094.6A CN202111314094A CN114036275B CN 114036275 B CN114036275 B CN 114036275B CN 202111314094 A CN202111314094 A CN 202111314094A CN 114036275 B CN114036275 B CN 114036275B
- Authority
- CN
- China
- Prior art keywords
- question
- tensor
- word
- answer
- relation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 75
- 238000013519 translation Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 description 4
- 235000008694 Humulus lupulus Nutrition 0.000 description 2
- 239000002585 base Substances 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000012458 free base Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
Abstract
本发明公开一种知识图谱嵌入多跳问答方法通过翻译模型的思想,将问题q嵌入的向量空间作为源序列翻译到实体嵌入的向量空间中,解决了问题q嵌入的向量空间与实体嵌入的向量空间不一致的问题;通过Tf‑Idf权重系数的加权计算,解决了问题q嵌入的词向量问题嵌入的词向量无法考虑数据中所有问题数据的全局信息的问题,使得答案的预测更具合理性;从而提升了基于知识图谱的多跳问答的准确率。
Description
技术领域
本发明涉及知识图谱问答技术领域,具体涉及一种知识图谱嵌入多跳问答方法。
背景技术
知识图谱是一种结构化的包含三元组(头实体,关系,尾实体)的知识库,它的本质是一种带有标签的有向图,图中的节点代表实体,边代表关系。大型的知识图谱有2008年构建的Freebase、2013年Google构建的Wikidata以及2015年Lehmann等人给出的从维基百科的词条中抽取出的DBPedia等等。知识图谱问答(Question Answering over KnowledgeGraph,KGQA)是应用知识图谱信息的一个研究领域,即给定一个自然语言问题和一个知识图谱,通过分析问题和知识图谱中包含的信息,知识图谱问答系统尝试给出正确的答案。
早期的问答工作致力于解决简单问题(一跳问题),类似于“姚明的出生地是哪里?”通过一个知识图谱三元组(姚明,出生于,上海)就能得到答案“上海”。这种类型的问题已经得到比较好的解决办法,典型的案例比如百度给出的KEQA。但是现实中多跳问题(复杂问题)也是一个常用且难解决的任务。例如:“姚明的妻子的出生地在哪里?”属于两跳问题,需要两个三元组(姚明,妻子是,叶莉)->(叶莉,出生地,上海)才能得到答案“上海”。
2018年Zhang等人提出的《Variational Reasoning for Question Answeringwith Knowledge Graph(使用变分推理做知识图谱问答)》解决了端到端的知识图谱多跳问答。然而,在知识图谱多跳问答领域,通常需要通过多个三元组的推理才能得到答案,而通常知识图谱是不完整的,这就会导致由于路径上关系的缺失而得不到正确答案。例如自然语言问题“What are the genres of movies written by Louis Mellis?”答案是“Crime”没有关系缺失的推理路径是(LouisMellis,written_by_reverse,GangsterNo.1)->(GangsterNo.1,has_genre,Crime)经过两跳的推理就能得到答案。但是由于关系has_genre的缺失,可能无法得到答案,或者经过多跳才能得到答案。使得一些限定跳数的模型会将正确答案排除在推理范围之外。
而对于知识图谱的不完整性,链接预测领域已经做了大量的研究。Mikolov等人在2013年提出的word2vector模型发现了词向量的平移不变性现象,即V(men)-V(women)≈V(king)-V(queen)。基于此在2013年Bordes等人提出的TransE模型将实体和向量嵌入到高维的连续向量空间,利用不同向量之间的距离相似性,采用h+r≈t(h,r,t分别为头实体,关系,尾实体)函数来计算实体间的距离。但是这种方式在处理一对多、多对一和多对多的关系时,会有先天的缺陷。为了弥补TransE在这些方面的不足,后续又提出了TransH、TransR、TransD、ComplEx以及RotatE等模型。其中ThéoTrouillon等人在2016年提出的ComplEx模型第一次将实体和关系嵌入到了复数空间,更好地解决了多种关系的问题。
Saxena等人在2020年的《Annual Meeting of the AssociationforComputationalLinguistics(计算语言学)》会议上发表的论文“Improving Multi-hopQuestion Answering over Knowledge Graphs using Knowledge Base Embeddings(通过知识图谱嵌入提升多跳问答)”提出将知识图谱嵌入应用到多跳问答领域,并使用了Roberta预训练模型将自然语言问题嵌入到向量空间,再通过知识图谱嵌入领域的ComplEx模型解决了推理路径上的关系缺失问题,最后通过ComplEx的打分函数来得到问题的答案。尽管与VRN、GraftNet、PullNet、KV-Mem等模型相比有了比较大的提升,但是由于Roberta的训练语料以及训练方法与ComplEx不同,这就导致了自然语言问题嵌入的向量空间与头实体以及答案实体嵌入的向量空间不同,使得两种不同的向量空间表示进行推理得到的答案正确率不高。另一个问题是由于预训练模型本身结构的限制,每次的输入只能为一个问题文本,这样得到的词向量只考虑了局部问题的各个词之间的关系,但是却没有考虑到全局所有问题,这就导致无法区分一个问题中不同的词对于问题的不同贡献程度,这显然是不合理的。
发明内容
本发明所要解决的是多跳问答的问题嵌入与实体嵌入空间不一致以及自然语言问题的词向量嵌入缺乏全局信息的问题,提供一种知识图谱嵌入多跳问答方法。
为解决上述问题,本发明是通过以下技术方案实现的:
一种知识图谱嵌入多跳问答方法,包括步骤如下:
步骤1、将已知的知识图谱生成实体向量字典和关系向量字典;
步骤2、先从已知的问答数据集中提取问题字段、答案字段和关系链字段;
步骤3、先利用词频-逆向文本频率指数计算公式计算步骤2所得的各问题字段中每个词的词频-逆向文本频率指数;再将每个词的词频-逆向文本频率指数与所属问题中所有词的词频-逆向文本频率指数之和的比值作为这个词的权重系数;后将所有词的权重系数生成词权重系数张量;
步骤4、通过步骤1所得的实体向量字典的键值匹配查询问答数据集,得到问答数据集中各问题字段所对应的头实体向量和尾实体向量;同时,通过步骤1所得的关系向量字典的键值匹配查询问答数据集,得到问答数据集中各关系链字段所对应的关系向量,并将所有关系向量进行拼接得到关系张量;
步骤5、先从步骤2所得的各问题字段中分别提取问题字符串,并在每个问题字符串加上头尾标识符和填充标识符,得到处理后的问题字符串;再将所有处理后的问题字符串送入到预训练模型中进行训练,得到问题序列张量;
步骤6、基于步骤5所得的所有处理后的问题字符串和步骤3的词权重系数张量,构建问题权重系数张量和问题掩码张量:在问题权重系数张量中,处理后的问题字符串中各词的权重系数通过查询词权重系数张量得到,处理后的问题字符串中头尾标识符和填充标识符的权重系数为0;在问题掩码张量中,处理后的问题字符串中各词的掩码为1,处理后的问题字符串中头尾标识符和填充标识符的掩码为0;
步骤7、将步骤5所得的问题序列张量和步骤6所得的问题权重系数张量相乘得到问题序列权重张量;
步骤8、将步骤4所得的关系张量、步骤6所得的问题掩码张量和步骤7所得的关系张量问题序列权重张量作为翻译模型的输入,得到与实体向量空间相近的问题张量;
步骤9、先基于步骤4查询当前所提问题字段所对应的头实体向量;再将该头实体向量和步骤8所得的问题张量一并送入到嵌入模型中,得到该头实体向量所对应的尾实体向量;后基于步骤4查询该尾实体向量所对应的答案字段,以此作为当前所提问题的答案。
上述步骤3的权重系数TIPw为:
式中,w为词的编号,nw为编号为w的词在当前问题字段中的出现次数,nk为当前问题字段中的所有词的数量,D为所有问题字段的数量,d为包含编号为w的词的问题字段的数量,W为第w个词所属问题中词的数量。
上述步骤5的预训练模型为Roberta预训练模型。
上述步骤8的翻译模型为Transformer翻译模型。
上述步骤9的嵌入模型为ComplEx嵌入模型。
与现有技术相比,本发明在基于知识图谱嵌入的多跳问答的技术之上,引入了Transformer翻译模型的思想以及词的Tf-Idf(词频和逆向文本频率)权重系数的加权计算,从而解决了问题q的向量空间与头实体head以及答案实体tail向量空间不一致,和问题q嵌入的词向量缺乏全局信息的缺点,使得答案的预测更具合理性,问题q的关系表示更加准确,提升了基于知识图谱的多跳问答的准确率。
附图说明
图1是基于翻译思想和Tf-Idf的知识图谱嵌入多跳问答方法的流程图。
图2是基于翻译思想和Tf-Idf的知识图谱嵌入多跳问答方法的框架图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,对本发明进一步详细说明。
一种知识图谱嵌入多跳问答方法,如图1和2所示,其具体包括步骤如下:
步骤1、将已知的三元组形式的知识图谱生成实体向量字典e和关系向量字典r。
步骤1.1、已知知识图谱以三元组的形式存储为T=(es,r,eo),其中es表示头实体,r表示关系,eo表示尾实体,如(姚明,妻子,叶莉),“姚明”是头实体,“妻子”是关系,“叶莉”是尾实体。
步骤1.2、将知识图谱中的各实体和各关系分别进行编码,得到编码后的三元组。
步骤1.3、利用ComplEx嵌入模型对步骤1.2所得的各编码后的三元组进行训练,获得实体向量字典e和关系向量字典r。
步骤2、先从已知的问答数据集中提取所有的问题字段question、答案字段answer和关系链字段InferentialChain。
由于问答数据集里的数据不是三元组形式的,因此需要从已知的问答数据集中提取问题字段question、答案字段answer和关系链字段InferentialChain。比如在问答数据集中,所提取的一个问题字段为“姚明的妻子是谁?”,所提取的一个答案字段为“叶莉”,所提取的一个关系链字段为“妻子”。
步骤3、先利用词频-逆向文本频率指数计算公式计算步骤2所得的各问题字段中每个词的词频-逆向文本频率指数Tf-Idf;再将每个词的词频-逆向文本频率指数与所属问题中所有词的词频-逆向文本频率指数之和的比值作为这个词的权重系数TIP;后将所有问题中词的权重系数生成词权重系数张量ti_values。
步骤3.1、计算词频-逆向文本频率指数:
词频Tf:
逆向文本频率指数Idf:
词频-逆向文本频率指数Tf-Idf:
Tf-Idfw=Tfw*Idfw
式中,w为词的编号;Tfw为编号为w的词的词频,Idfw为编号为w的词的逆向文本频率指数,Tf-Idfw为编号为w的词的词频-逆向文本频率指数;nw为编号为w的词在当前问题字段中的出现次数,nk为当前问题字段中的所有词的数量;d为包含编号为w的词的问题字段的数量,D为所有问题字段的数量。
步骤3.2、计算权重系数:
权重系数TIP:
式中,w为词的编号,TIPw为编号为w的词的权重系数,Tf-Idfw为编号为w的词的词频-逆向文本频率指数,W为第w个词所属问题中词的数量。
步骤3.3、将所有词的权重系数通过深度学习框架中的torch.Tensor函数转换成词权重系数张量ti_values。
在本实施例中,由于后续所用到的预训练模型为Roberta模型,Roberta模型规定的输入序列长度为64,因此词权重系数张量ti_values的长度为64,若长度不足的以0填补。
步骤4、通过步骤1所得的实体向量字典的键值匹配查询问答数据集,得到问答数据集中各问题字段所对应的头实体向量p_head和尾实体向量tail_emb。同时,通过步骤1所得的关系向量字典的键值匹配查询问答数据集,得到问答数据集中各关系链字段所对应的关系向量rels_emb,并将所有关系向量rels_emb进行拼接得到关系张量trg_rel_emb;
步骤5、先从步骤2所得的各问题字段中分别提取问题字符串,并在每个问题字符串加上头尾标识符和填充标识符,得到处理后的问题字符串;再将所有处理后的问题字符串送入到预训练模型中进行训练,得到问题序列张量。
步骤5.1、从各问题字段中分别提取问题字符串,在每个问题字符串的队首插入头标识符“<s>”,在队尾插入尾标识符“</s>”。如“<s>what is the name of justinbieberbrother</s>”。
步骤5.2、本实施例所采用的预训练模型为Roberta模型,Roberta模型规定的输入序列长度为64,如果插入头尾标识符后,每个问题字符串的长度不足64的,通过末尾插入“<pad>”标识符补齐,获得处理后的问题字符串。如“<s>what is the name of justinbieberbrother</s><pad><pad><pad>……<pad>”。
步骤5.3、将处理后的问题字符串输入到预训练模型Roberta中进行训练,得到问题序列张量question_embedding。
步骤6、基于步骤5所得的所有处理后的问题字符串和步骤3的词权重系数张量ti_values,构建问题权重系数张量words_ti_value和问题掩码张量src_mask。在问题权重系数张量words_ti_value中,处理后的问题字符串中各词的权重系数通过查询词权重系数张量ti_values得到,处理后的问题字符串中头尾标识符<s>和填充标识符<pad>的权重系数为0。在问题掩码张量src_mask中,处理后的问题字符串中各词的掩码为1,处理后的问题字符串中头尾标识符<s>和填充标识符<pad>的掩码为0。
步骤7、将步骤5所得的问题序列张量question_embeddiing和步骤6所得的问题权重系数张量words_ti_value相乘得到问题序列权重张量src_embedding。
步骤8、将步骤4所得的关系张量trg_rel_emb、步骤6所得的问题掩码张量src_mask和步骤7所得的问题序列权重张量src_embedding作为翻译模型的输入,得到与实体向量空间相近的问题张量words_TiBased_embedding。
步骤9、先基于步骤4查询当前所提问题字段所对应的头实体向量;再将该头实体向量和步骤8所得的问题张量一并送入到嵌入模型中,得到该头实体向量所对应的尾实体向量;后基于步骤4查询该尾实体向量所对应的答案字段,以此作为当前所提问题的答案。
在本实施例中使用的嵌入模型是ComplEx,ComplEx模型将实体和关系嵌入到向量空间,将实体和关系向量采用得分函数计算得到尾实体向量。
本发明通过翻译模型的思想,将问题q嵌入的向量空间作为源序列翻译到实体嵌入的向量空间中,解决了问题q嵌入的向量空间与实体嵌入的向量空间不一致的问题;通过Tf-Idf权重系数的加权计算,解决了问题q嵌入的词向量问题嵌入的词向量无法考虑数据中所有问题数据的全局信息的问题,使得答案的预测更具合理性;从而提升了基于知识图谱的多跳问答的准确率。
本发明在基于知识图谱的多跳问答领域方法中,可以解决问题q嵌入的向量空间与实体嵌入的向量空间不一致以及问题嵌入的词向量无法考虑数据中所有问题数据的全局信息的缺点,经过多次训练,达到了更高的问题的答案预测的准确率。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施方式,均视为在本发明的保护之内。
Claims (5)
1.一种知识图谱嵌入多跳问答方法,其特征是,包括步骤如下:
步骤1、将已知的知识图谱生成实体向量字典和关系向量字典;
步骤2、先从已知的问答数据集中提取问题字段、答案字段和关系链字段;
步骤3、先利用词频-逆向文本频率指数计算公式计算步骤2所得的各问题字段中每个词的词频-逆向文本频率指数;再将每个词的词频-逆向文本频率指数与所属问题中所有词的词频-逆向文本频率指数之和的比值作为这个词的权重系数;后将所有词的权重系数生成词权重系数张量;
步骤4、通过步骤1所得的实体向量字典的键值匹配查询问答数据集,得到问答数据集中各问题字段所对应的头实体向量和尾实体向量;同时,通过步骤1所得的关系向量字典的键值匹配查询问答数据集,得到问答数据集中各关系链字段所对应的关系向量,并将所有关系向量进行拼接得到关系张量;
步骤5、先从步骤2所得的各问题字段中分别提取问题字符串,并在每个问题字符串加上头尾标识符和填充标识符,得到处理后的问题字符串;再将所有处理后的问题字符串送入到预训练模型中进行训练,得到问题序列张量;
步骤6、基于步骤5所得的所有处理后的问题字符串和步骤3的词权重系数张量,构建问题权重系数张量和问题掩码张量:在问题权重系数张量中,处理后的问题字符串中各词的权重系数通过查询词权重系数张量得到,处理后的问题字符串中头尾标识符和填充标识符的权重系数为0;在问题掩码张量中,处理后的问题字符串中各词的掩码为1,处理后的问题字符串中头尾标识符和填充标识符的掩码为0;
步骤7、将步骤5所得的问题序列张量和步骤6所得的问题权重系数张量相乘得到问题序列权重张量;
步骤8、将步骤4所得的关系张量、步骤6所得的问题掩码张量和步骤7所得的关系张量问题序列权重张量作为翻译模型的输入,得到与实体向量空间相近的问题张量;
步骤9、先基于步骤4查询当前所提问题字段所对应的头实体向量;再将该头实体向量和步骤8所得的问题张量一并送入到嵌入模型中,得到该头实体向量所对应的尾实体向量;后基于步骤4查询该尾实体向量所对应的答案字段,以此作为当前所提问题的答案。
2.根据权利要求1所述的一种知识图谱嵌入多跳问答方法,其特征是,步骤3的权重系数TIPw为:
式中,w为词的编号,nw为编号为w的词在当前问题字段中的出现次数,nk为当前问题字段中的所有词的数量,D为所有问题字段的数量,d为包含编号为w的词的问题字段的数量,W为第w个词所属问题中词的数量。
3.根据权利要求1所述的一种知识图谱嵌入多跳问答方法,其特征是,步骤5的预训练模型为Roberta预训练模型。
4.根据权利要求1所述的一种知识图谱嵌入多跳问答方法,其特征是,步骤8的翻译模型为Transformer翻译模型。
5.根据权利要求1所述的一种知识图谱嵌入多跳问答方法,其特征是,步骤9的嵌入模型为ComplEx嵌入模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111314094.6A CN114036275B (zh) | 2021-11-08 | 2021-11-08 | 一种知识图谱嵌入多跳问答方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111314094.6A CN114036275B (zh) | 2021-11-08 | 2021-11-08 | 一种知识图谱嵌入多跳问答方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114036275A CN114036275A (zh) | 2022-02-11 |
CN114036275B true CN114036275B (zh) | 2024-04-02 |
Family
ID=80143373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111314094.6A Active CN114036275B (zh) | 2021-11-08 | 2021-11-08 | 一种知识图谱嵌入多跳问答方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114036275B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380325A (zh) * | 2020-08-15 | 2021-02-19 | 电子科技大学 | 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统 |
CN112650840A (zh) * | 2020-12-04 | 2021-04-13 | 天津泰凡科技有限公司 | 一种基于知识图谱推理的医疗智能问答处理方法及系统 |
CN113010693A (zh) * | 2021-04-09 | 2021-06-22 | 大连民族大学 | 融合指针生成网络的知识图谱智能问答方法 |
WO2021139283A1 (zh) * | 2020-06-16 | 2021-07-15 | 平安科技(深圳)有限公司 | 基于深度学习技术的知识图谱问答方法、装置及设备 |
CN113326361A (zh) * | 2021-05-25 | 2021-08-31 | 武汉理工大学 | 一种基于汽车产业图谱知识问答方法、系统及电子设备 |
-
2021
- 2021-11-08 CN CN202111314094.6A patent/CN114036275B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139283A1 (zh) * | 2020-06-16 | 2021-07-15 | 平安科技(深圳)有限公司 | 基于深度学习技术的知识图谱问答方法、装置及设备 |
CN112380325A (zh) * | 2020-08-15 | 2021-02-19 | 电子科技大学 | 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统 |
CN112650840A (zh) * | 2020-12-04 | 2021-04-13 | 天津泰凡科技有限公司 | 一种基于知识图谱推理的医疗智能问答处理方法及系统 |
CN113010693A (zh) * | 2021-04-09 | 2021-06-22 | 大连民族大学 | 融合指针生成网络的知识图谱智能问答方法 |
CN113326361A (zh) * | 2021-05-25 | 2021-08-31 | 武汉理工大学 | 一种基于汽车产业图谱知识问答方法、系统及电子设备 |
Non-Patent Citations (1)
Title |
---|
杜文倩 ; 李弼程 ; 王瑞 ; .融合实体描述及类型的知识图谱表示学习方法.中文信息学报.2020,(第07期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114036275A (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753024B (zh) | 一种面向公共安全领域的多源异构数据实体对齐方法 | |
CN110059160B (zh) | 一种端到端的基于上下文的知识库问答方法及装置 | |
WO2021031480A1 (zh) | 文本生成方法和装置 | |
CN110781683A (zh) | 一种实体关系联合抽取方法 | |
CN111538848A (zh) | 一种融合多源信息的知识表示学习方法 | |
CN112380325B (zh) | 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统 | |
CN111160564B (zh) | 一种基于特征张量的中文知识图谱表示学习方法 | |
CN111651557A (zh) | 一种自动化文本生成方法、装置及计算机可读存储介质 | |
CN112988917B (zh) | 一种基于多种实体上下文的实体对齐方法 | |
CN113177141B (zh) | 基于语义嵌入软相似性的多标签视频哈希检索方法及设备 | |
CN113254616B (zh) | 面向智能问答系统的句向量生成方法及系统 | |
CN110688489A (zh) | 基于交互注意力的知识图谱推演方法、装置和存储介质 | |
CN115599899B (zh) | 基于飞行器知识图谱的智能问答方法、系统、设备及介质 | |
CN115761753A (zh) | 一种融合知识图谱的检索式知识前缀引导视觉问答方法 | |
EP4145303A1 (en) | Information search method and device, electronic device, and storage medium | |
CN114238645A (zh) | 一种基于bert孪生注意力网络与融合图嵌入特征的关系选择方法 | |
CN116821291A (zh) | 基于知识图谱嵌入与语言模型交替学习的问答方法及系统 | |
CN115827844A (zh) | 一种基于Sparql语句生成的知识图谱问答方法和系统 | |
CN111666374A (zh) | 一种在深度语言模型中融入额外知识信息的方法 | |
CN114036275B (zh) | 一种知识图谱嵌入多跳问答方法 | |
CN114372454A (zh) | 文本信息抽取方法、模型训练方法、装置及存储介质 | |
CN116401353A (zh) | 一种结合内部与外部知识图谱的安全多跳问答方法及系统 | |
CN116561272A (zh) | 开放域视觉语言问答方法、装置、电子设备及存储介质 | |
CN107016630B (zh) | 一种新型英语教学学习语言系统 | |
CN112100393B (zh) | 一种低资源场景下的知识三元组抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |