CN117875424B - 一种基于实体描述和对称关系的知识图谱补全方法及系统 - Google Patents
一种基于实体描述和对称关系的知识图谱补全方法及系统 Download PDFInfo
- Publication number
- CN117875424B CN117875424B CN202410269305.6A CN202410269305A CN117875424B CN 117875424 B CN117875424 B CN 117875424B CN 202410269305 A CN202410269305 A CN 202410269305A CN 117875424 B CN117875424 B CN 117875424B
- Authority
- CN
- China
- Prior art keywords
- entity
- knowledge graph
- representing
- relation
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 33
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000007246 mechanism Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000012163 sequencing technique Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/027—Frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于实体描述和对称关系的知识图谱补全方法及系统,涉及知识图谱技术领域,包括:S1:获取知识图谱,对知识图谱进行预处理,获得三元组集合和实体描述集合;S2:通过知识图谱嵌入模型对三元组集合进行实体与关系建模,获得对称关系集合;S3:通过编码器对三元组集合、对称关系集合和实体描述集合进行编码,获得编码向量集合;S4:通过解码器对编码向量集合进行解码,获得候选解集合;S5:对候选解集合进行评分和排序,获得最优解,将最优解作为补全后的知识图谱。本发明对知识图谱中的关系结构进行挖掘获得对称关系集合,处于对称关系位置的实体通常是相似或是相关的,因此对称关系集合可以提高知识图谱补全的准确性和效率。
Description
技术领域
本发明涉及知识图谱技术领域,尤其涉及一种基于实体描述和对称关系的知识图谱补全方法及系统。
背景技术
随着互联网的快速发展,信息量呈指数级增长,信息的获取和管理变得越来越困难。知识图谱通过将知识形式化为图结构,能够更好地表示知识之间的关系和语义信息,支持机器运行知识推理与决策。知识图谱的建立不仅可以为人们提供更好的信息获取的工具,也为机器的智能化应用奠定了基础。知识图谱本质上是一种语义网络,是对现实世界中事物及其关系对的形式化描述。现实世界中存在着大量实体和概念,它们之间的关系复杂多样,相应地,大规模的知识图谱也通常包括数千万个实体和数亿个关系。因此知识图谱也已经成为了许多人工智能应用的重要知识来源,如信息提取、智能问答、大数据推荐、事实核查等。
知识图谱的构建是一个庞大而复杂的任务,其需要依赖人工标注和自动抽取等技术,然而由于信息源的限制和获取知识的难度,构建出的知识图谱往往面临着不完整的问题。同时由于现实世界中的知识是动态变化的,新的实体、属性和关系的不断出现,使得旧的知识可能被修正或者删除,因此知识图谱需要能够及时跟踪和更新这些变化以保证知识的准确性和时效性。因此知识图谱补全技术应运而生,此技术提高了知识图谱的完整性、准确性和应用价值,推动了知识图谱应用的发展和智能化技术的创新。然而由于知识图谱融合了现实世界中的实体与关系,使得其复杂性加剧,而现有的知识图谱补全模型使用的是原始的知识图谱元素来学习低维表示,称之为知识图谱嵌入。现有的主流方法包括张量分解模型、几何模型以及深度学习模型。这些模型都被广泛地应用在知识图谱补全技术领域。
然而在大多数知识图谱中,实体和关系通常只有简单的描述,缺乏涵盖丰富语义的信息描述。现有的知识图谱嵌入的方法忽略了观测到的特性,并且只根据语义来进行知识图谱补全往往可能是不准确的。
发明内容
有鉴于此,本发明的目的在于提供一种可以解决现有的知识图谱补全方法不够准确问题的基于实体描述和对称关系的知识图谱补全方法。
本发明提供了一种基于实体描述和对称关系的知识图谱补全方法,包括:
S1:获取知识图谱,对知识图谱进行预处理,获得三元组集合和实体描述集合;
S2:通过知识图谱嵌入模型对三元组集合进行实体与关系建模,获得对称关系集合;
S3:通过编码器对三元组集合、对称关系集合和实体描述集合进行编码,获得编码向量集合;
S4:通过解码器对编码向量集合进行解码,获得候选解集合;
S5:对候选解集合进行评分和排序,获得最优解,将最优解作为补全后的知识图谱。
优选的,三元组集合中三元组S的表达式为:
其中,表示头实体,/>表示关系,/>表示尾实体。
优选的,步骤S2具体为:
S21:将三元组集合分为训练集和测试集,对训练集进行特征提取,获得实体描述;对实体描述进行标注,获得标注的实体描述数据,标注的实体描述数据包括多条路径,每条路径包括多个三元组;
S22:通过标注的实体描述数据对知识图谱嵌入模型进行训练,获得训练好的知识图谱嵌入模型;
S23:通过训练好的知识图谱嵌入模型对三元组集合中各实体之间的关系进行遍历,提取对称关系,将所有的对称关系作为对称关系集合。
优选的,步骤S22具体为:
S221:提取标注的实体描述数据中的对称关系,对称关系的表达式为:
其中,i表示路径的编号,表示第/>条路径上的对称关系,/>表示对称关系/>中的开始实体,/>表示对称关系/>中的结束实体,/>表示两个实体之间关系的路径,n表示路径i中的实体总数,/>表示路径i上的第n个实体;
S222:设置目标实体集,从目标实体集中抽取个实体作为正实体集合,正实体集合/>的表达式为:
其中,u表示实体的编号,表示路径i上的第u个正实体,/>表示正实体/>的实体对,/>表示路径i上的第u个实体,/>表示给定的开始实体,k表示正实体的总数;
S223:通过正实体集合和对称关系对知识图谱嵌入模型进行训练,获得损失函数,损失函数的表达式为:
其中,表示欧几里得范数,/>表示第i个正实体的嵌入,/>表示第i个正实体的嵌入的对比对,/>表示均方误差损失函数;
S224:重复步骤S221-S223直至损失函数的值小于预设值,获得训练好的知识图谱嵌入模型。
优选的,步骤S3具体为:
S31:将三元组集合、对称关系集合和实体描述集合作为输入序列,输入序列中的每个单词包括:开始实体、关系、结束实体、实体描述和对称关系;
S32:构建编码器,编码器包括:位置编码层、第一注意力机制层、第一前馈神经网络和池化层;
S33:输入序列中的各单词依次经过位置编码层、第一注意力机制层、第一前馈神经网络和池化层进行编码,获得编码向量集合。
优选的,步骤S4具体为:
S41:构建解码器,解码器包括:第二注意力机制层、第二前馈神经网络、全连接层和函数层;
S42:编码向量集合中的各编码向量依次经过第二注意力机制层、第二前馈神经网络、全连接层和函数层进行解码,获得各编码向量对应的下一个符号的概率分布,将所有的概率分布作为候选解集合。
一种存储介质,所述存储介质存储指令及数据用于实现所述的基于实体描述和对称关系的知识图谱补全方法。
一种基于实体描述和对称关系的知识图谱补全系统,包括:处理器及存储介质;所述处理器加载并执行存储介质中的指令及数据用于实现所述的基于实体描述和对称关系的知识图谱补全方法。
本发明具有以下有益效果:
通过知识图谱嵌入模型对三元组集合进行实体与关系建模,对知识图谱中的关系结构进行挖掘获得对称关系集合,处于对称关系位置的实体通常是相似或是相关的,因此对称关系集合可以提高知识图谱补全的准确性和效率,通过对三元组集合和对称关系集合进行编码与解码,最终获得更加精确的补全后的知识图谱。
附图说明
图1为本发明实施例方法流程图;
图2为对称关系集合提取示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,本发明提供一种基于实体描述和对称关系的知识图谱补全方法,包括:
S1:获取知识图谱,对知识图谱进行预处理,获得三元组集合和实体描述集合;
S2:通过知识图谱嵌入模型对三元组集合进行实体与关系建模,获得对称关系集合;
S3:通过编码器对三元组集合、对称关系集合和实体描述集合进行编码,获得编码向量集合;
S4:通过解码器对编码向量集合进行解码,获得候选解集合;
S5:对候选解集合进行评分和排序,获得最优解,将最优解作为补全后的知识图谱。
进一步的,对于知识图谱进行数据的预处理,给每一个实体加上实体描述,然后再将三元组的信息以及实体描述的信息在嵌入低维向量时共同嵌入;
预处理的步骤如下:
对收集到的数据文本进行清理和预处理,包括去除噪声、标点符号、停用词等,并将文本数据划分为训练集与测试集;
在训练集中,将数据集中的数据进行特征提取,构建实体描述;
对构建的实体描述标识并标记以供机器识别;
基于标注的实体描述数据,利用预训练的BART模型进行训练,以提高模型的性能。此模型的损失函数原则如下:
其中表示掩盖的词的总数,/>表示被掩码后的标记,/>表示模型对应于/>的预测结果,/>表示的是模型的概率分布,i为训练样本的编号;
三元组集合中三元组S的表达式为:
其中,表示头实体,/>表示关系,/>表示尾实体。
进一步的,步骤S2具体为:
S21:将三元组集合分为训练集和测试集,对训练集进行特征提取,获得实体描述;对实体描述进行标注,获得标注的实体描述数据,标注的实体描述数据包括多条路径,每条路径包括多个三元组;
具体的,使用RotetE知识图谱嵌入模型,对实体与关系进行建模并获取知识图谱的对称结构信息,具体建模原则如下:
其中,代表哈德曼积,/>表示欧几里得范数,/>表示实体与关系的模型;
S22:通过标注的实体描述数据对知识图谱嵌入模型进行训练,获得训练好的知识图谱嵌入模型;
S23:通过训练好的知识图谱嵌入模型对三元组集合中各实体之间的关系进行遍历,提取对称关系,将所有的对称关系作为对称关系集合。
具体的,从知识图谱中提取出的对称关系集合如图2所示;
(张三,喜欢,足球),(李四,喜欢,足球)两个三元组构成一个对称关系;
(张三,饲养,宠物狗),(王五,饲养,宠物狗)两个三元组构成一个对称关系;
(张三,喜欢,跑步),(陈六,不喜欢,跑步),(小明,喜欢,跑步)三个三元组构成一个对称关系。
进一步的,步骤S22具体为:
S221:提取标注的实体描述数据中的对称关系,对称关系的表达式为:
其中,i表示路径的编号,表示第/>条路径上的对称关系,/>表示对称关系/>中的开始实体,/>表示对称关系/>中的结束实体,/>表示两个实体之间关系的路径,n表示路径i中的实体总数,/>表示路径i上的第n个实体;
S222:设置目标实体集,从目标实体集中抽取个实体作为正实体集合,正实体集合/>的表达式为:
其中,u表示实体的编号,表示路径i上的第u个正实体,/>表示正实体/>的实体对,/>表示路径i上的第u个实体,/>表示给定的开始实体,k表示正实体的总数;
S223:通过正实体集合和对称关系对知识图谱嵌入模型进行训练,获得损失函数,损失函数的表达式为:
其中,表示欧几里得范数,/>表示第i个正实体的嵌入,/>表示第i个正实体的嵌入的对比对,/>表示均方误差损失函数;
S224:重复步骤S221-S223直至损失函数的值小于预设值,获得训练好的知识图谱嵌入模型。
进一步的,步骤S3具体为:
S31:将三元组集合、对称关系集合和实体描述集合作为输入序列,输入序列中的每个单词包括:开始实体、关系、结束实体、实体描述和对称关系;
S32:构建编码器,编码器包括:位置编码层、第一注意力机制层、第一前馈神经网络和池化层;
S33:输入序列中的各单词依次经过位置编码层、第一注意力机制层、第一前馈神经网络和池化层进行编码,获得编码向量集合。
具体的,为输入序列中的每个单词添加位置编码的向量,以捕捉单词在序列中的相对位置编码;
第一注意力机制层使用的多层的自注意力机制以及前馈层神经网络层来编码输入的序列,其具体的计算公式如下:
其中,/>,/>分别代表的是查询矩阵,键矩阵以及值矩阵;在Transformer模型中,每个输入都会经过一个线性变换来得到查询、键以及值的表示;
此发明在编码层中使用了掩码机制,以便模型在处理序列时只用关注当前的位置之前的信息,并且不会受到未来标记的干扰。同时,如果输入长度不同的输入序列,此编码器将会对较短的序列进行填充;
对编码层的输出进行池化操作,将序列转化为固定长度的向量表示;此发明中使用的是全局平均池化的方法;
对于最终的编码层输出的编码向量,将其进行保存用于下游的生成任务。
进一步的,步骤S4具体为:
S41:构建解码器,解码器包括:第二注意力机制层、第二前馈神经网络、全连接层和函数层;
S42:编码向量集合中的各编码向量依次经过第二注意力机制层、第二前馈神经网络、全连接层和函数层进行解码,获得各编码向量对应的下一个符号的概率分布,将所有的概率分布作为候选解集合。
具体的,解码器使用自身的注意力机制通过计算当前位置与其他位置的相似度得到一个注意力分布,然后将输入序列的编码信息结合起来,其中解码器的自注意力的计算公式如下:
其中,/>,/>分别代表是查询矩阵,键矩阵以及值矩阵,/>为归一化函数。
解码器使用一个编码器-解码器注意力机制的第二注意力机制层,将上下文向量和词嵌入向量融合,形成一个新的向量表示,这个表示中包括了输入序列中的语义和位置信息,以及当前时间步的上下文,以便模型理解每一个单词的语义和位置信息;
融合后的向量会通过一个前馈神经网络,由多个全连接层组成,进行进一步的非线性变换,有助于模型对输入进行更复杂的表示和处理,其中具体的计算公式如下:
其中是输入向量,/>和/>分别是均值和方差,/>和/>是学习到的缩放和偏移参数,/>是一个用于稳定计算的极小数;
解码器使用一个循环结构来产生下一个输出,在每一个时间步,解码器会根据当前位置的输入和所有之前生成的输出来预测下一个位置的输出;
此发明的输出层是一个全连接层加上一个函数,它将前馈神经网络的输出映射到一个概率分布,用来预测下一给单词的概率;解码器将会根据这个概率分布来选择下一个生成的单词,其中全连接层的具体公式如下:
其中是激活函数,/>是输入向量,/>是输入层到隐藏层的权重矩阵,/>是隐藏层的偏置向量,/>是隐藏层到输出层的权重矩阵,/>是输出层的偏置向量。
对于解码器中生成的候选集,由于BART模型灵活的自回归能力,可能会产生数据集中不存在的实体,因此给定一个前缀约束来控制解码器在给定前缀序列的情况下生成的有效令牌;
具体的,在生成输出前,解码器会生成一个初始的特殊标记,作为第一个输入;
解码器会根据之前的隐藏状态和输入的单词,计算注意力分数,加权获取上下文向量;其计算公式如下:
其中表示前缀约束对原始输入的加权平均表示,/>代表矩阵乘法,/>为原始输入,A是一个由编码器输出和解码器隐藏状态计算得到的权重矩阵;
解码器会生成一个概率分布,用于预测下一个单词的概率;并将前缀约束的加权平均表示与原始输入的表示进行拼接,得到最终的输入的表示,其具体计算公式如下:
其中,表示拼接操作,/>表示最终输入的表示,/>为原始输入;
在生成输出后,解码器会检查生成的单词与给定前缀匹配,如果匹配成功,则保留这个单词,如果匹配不成功,则剔除掉这个单词。
进一步的,步骤S5具体为:
对于候选解集合中的每个解利用波束搜索算法对其进行评分和排序,具体来说,对于候选解集合中的每个解,会根据当前解的最后一个生成的符号,利用解码器模型生成下一个符号的概率分布,综合生成概率,计算候选解的分数;根据候选解的分数,将候选解加入波束队列中;最后对于波束队列,根据候选解的分数进行排序,并保留分数最高的k个候选解,作为下一轮搜索的候选解集合;最终会根据搜索的结果,选择得分最高的候选解作为最终的输出结果,其中,候选解的得分计算原则如下:
其中表示对所有对数概率值进行求和操作,/>表示分布操作,如果当前假设当前候选解的长度为t,已经生成了/>个符号,表示为/>,接下来要根据当前候选解的最后一个符号/>,计算生成下一个符号的概率分布,并得到每个符号的对数概率值。
一种存储介质,所述存储介质存储指令及数据用于实现所述的基于实体描述和对称关系的知识图谱补全方法。
一种基于实体描述和对称关系的知识图谱补全系统,包括:处理器及存储介质;所述处理器加载并执行所述存储介质中的指令及数据用于实现所述的基于实体描述和对称关系的知识图谱补全方法。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。词语第一、第二、以及第三等的使用不表示任何顺序,可将这些词语解释为标识。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (5)
1.一种基于实体描述和对称关系的知识图谱补全方法,其特征在于,包括:
S1:获取知识图谱,对知识图谱进行预处理,获得三元组集合和实体描述集合;
S2:通过知识图谱嵌入模型对三元组集合进行实体与关系建模,获得对称关系集合;
S3:通过编码器对三元组集合、对称关系集合和实体描述集合进行编码,获得编码向量集合;
S4:通过解码器对编码向量集合进行解码,获得候选解集合;
S5:对候选解集合进行评分和排序,获得最优解,将最优解作为补全后的知识图谱;
三元组集合中三元组S的表达式为:
其中,表示头实体,/>表示关系,/>表示尾实体;
步骤S2具体为:
S21:将三元组集合分为训练集和测试集,对训练集进行特征提取,获得实体描述;对实体描述进行标注,获得标注的实体描述数据,标注的实体描述数据包括多条路径,每条路径包括多个三元组;
S22:通过标注的实体描述数据对知识图谱嵌入模型进行训练,获得训练好的知识图谱嵌入模型;
S23:通过训练好的知识图谱嵌入模型对三元组集合中各实体之间的关系进行遍历,提取对称关系,将所有的对称关系作为对称关系集合;
步骤S22具体为:
S221:提取标注的实体描述数据中的对称关系,对称关系的表达式为:
其中,i表示路径的编号,表示第/>条路径上的对称关系,/>表示对称关系/>中的开始实体,/>表示对称关系/>中的结束实体,/>表示两个实体之间关系的路径,n表示路径i中的实体总数,/>表示路径i上的第n个实体;
S222:设置目标实体集,从目标实体集中抽取个实体作为正实体集合,正实体集合/>的表达式为:
其中,u表示实体的编号,表示路径i上的第u个正实体,/>表示正实体/>的实体对,表示路径i上的第u个实体,/>表示给定的开始实体,k表示正实体的总数;
S223:通过正实体集合和对称关系对知识图谱嵌入模型进行训练,获得损失函数,损失函数的表达式为:
其中,表示欧几里得范数,/>表示第i个正实体的嵌入,/>表示第i个正实体的嵌入的对比对,/>表示均方误差损失函数;
S224:重复步骤S221-S223直至损失函数的值小于预设值,获得训练好的知识图谱嵌入模型。
2.根据权利要求1所述的基于实体描述和对称关系的知识图谱补全方法,其特征在于,步骤S3具体为:
S31:将三元组集合、对称关系集合和实体描述集合作为输入序列,输入序列中的每个单词包括:开始实体、关系、结束实体、实体描述和对称关系;
S32:构建编码器,编码器包括:位置编码层、第一注意力机制层、第一前馈神经网络和池化层;
S33:输入序列中的各单词依次经过位置编码层、第一注意力机制层、第一前馈神经网络和池化层进行编码,获得编码向量集合。
3.根据权利要求1所述的基于实体描述和对称关系的知识图谱补全方法,其特征在于,步骤S4具体为:
S41:构建解码器,解码器包括:第二注意力机制层、第二前馈神经网络、全连接层和函数层;
S42:编码向量集合中的各编码向量依次经过第二注意力机制层、第二前馈神经网络、全连接层和函数层进行解码,获得各编码向量对应的下一个符号的概率分布,将所有的概率分布作为候选解集合。
4.一种存储介质,其特征在于:所述存储介质存储指令及数据用于实现权利要求1~3任一项所述的基于实体描述和对称关系的知识图谱补全方法。
5.一种基于实体描述和对称关系的知识图谱补全系统,其特征在于:包括:处理器及存储介质;所述处理器加载并执行存储介质中的指令及数据用于实现权利要求1~3任一项所述的基于实体描述和对称关系的知识图谱补全方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410269305.6A CN117875424B (zh) | 2024-03-11 | 2024-03-11 | 一种基于实体描述和对称关系的知识图谱补全方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410269305.6A CN117875424B (zh) | 2024-03-11 | 2024-03-11 | 一种基于实体描述和对称关系的知识图谱补全方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117875424A CN117875424A (zh) | 2024-04-12 |
CN117875424B true CN117875424B (zh) | 2024-05-24 |
Family
ID=90595102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410269305.6A Active CN117875424B (zh) | 2024-03-11 | 2024-03-11 | 一种基于实体描述和对称关系的知识图谱补全方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117875424B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112115261A (zh) * | 2020-08-21 | 2020-12-22 | 浙江工商大学 | 基于对称和互逆关系统计的知识图谱数据扩展方法 |
CN113836319A (zh) * | 2021-09-30 | 2021-12-24 | 福州大学 | 融合实体邻居的知识补全方法及系统 |
CN115186819A (zh) * | 2022-06-22 | 2022-10-14 | 电子科技大学 | 一种结合子图结构和关系类型的知识图谱补全方法 |
CN115905568A (zh) * | 2022-11-19 | 2023-04-04 | 郑州轻工业大学 | 一种上下文感知的知识图谱补全方法 |
CN117035080A (zh) * | 2023-08-18 | 2023-11-10 | 西南交通大学 | 一种基于三元组全局信息交互的知识图谱补全方法与系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140164313A1 (en) * | 2014-02-17 | 2014-06-12 | Invent.ly LLC | Method and Apparatus for Predicting Subject Responses to a Proposition based on Quantum Representation of the Subject's Internal State and of the Proposition |
EP4030349A1 (en) * | 2021-01-18 | 2022-07-20 | Siemens Aktiengesellschaft | Neuromorphic hardware for processing a knowledge graph represented by observed triple statements and method for training a learning component |
-
2024
- 2024-03-11 CN CN202410269305.6A patent/CN117875424B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112115261A (zh) * | 2020-08-21 | 2020-12-22 | 浙江工商大学 | 基于对称和互逆关系统计的知识图谱数据扩展方法 |
CN113836319A (zh) * | 2021-09-30 | 2021-12-24 | 福州大学 | 融合实体邻居的知识补全方法及系统 |
CN115186819A (zh) * | 2022-06-22 | 2022-10-14 | 电子科技大学 | 一种结合子图结构和关系类型的知识图谱补全方法 |
CN115905568A (zh) * | 2022-11-19 | 2023-04-04 | 郑州轻工业大学 | 一种上下文感知的知识图谱补全方法 |
CN117035080A (zh) * | 2023-08-18 | 2023-11-10 | 西南交通大学 | 一种基于三元组全局信息交互的知识图谱补全方法与系统 |
Non-Patent Citations (3)
Title |
---|
Knowledge graph representation learning with simplifying hierarchical feature propagation;Zhifei Li.et.;《Information Processing and Management: an International Journal》;20230701;第60卷(第4期);103348 * |
基于表示学习的知识图谱推理研究综述;李志飞等;《计算机科学》;20230331;第50卷(第3期);94-113 * |
知识图谱综述——表示、构建、推理与知识超图理论;田玲等;《计算机应用》;20211231;第41卷(第8期);2161-2186 * |
Also Published As
Publication number | Publication date |
---|---|
CN117875424A (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111291185B (zh) | 信息抽取方法、装置、电子设备及存储介质 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN110134757B (zh) | 一种基于多头注意力机制的事件论元角色抽取方法 | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN111950269A (zh) | 文本语句处理方法、装置、计算机设备和存储介质 | |
CN112215013B (zh) | 一种基于深度学习的克隆代码语义检测方法 | |
CN117648429B (zh) | 基于多模态自适应检索式增强大模型的问答方法及系统 | |
CN116484024A (zh) | 一种基于知识图谱的多层次知识库构建方法 | |
CN111145914A (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN113051922A (zh) | 一种基于深度学习的三元组抽取方法及系统 | |
CN115688784A (zh) | 一种融合字与词语特征的中文命名实体识别方法 | |
CN115936001A (zh) | 基于BERT-BiLSTM-CRF模型和注意力的电网IT运维实体识别方法及系统 | |
CN117807232A (zh) | 商品分类方法、商品分类模型构建方法及装置 | |
CN114510946A (zh) | 基于深度神经网络的中文命名实体识别方法及系统 | |
CN117151223B (zh) | 一种基于可学习提示的多模态实体识别和关系抽取方法 | |
CN117828024A (zh) | 一种插件检索方法、装置、存储介质及设备 | |
CN116522165B (zh) | 一种基于孪生结构的舆情文本匹配系统及方法 | |
CN111666375A (zh) | 文本相似度的匹配方法、电子设备和计算机可读介质 | |
CN116680407A (zh) | 一种知识图谱的构建方法及装置 | |
CN117875424B (zh) | 一种基于实体描述和对称关系的知识图谱补全方法及系统 | |
CN114417880B (zh) | 一种基于电网实训问答知识库的交互式智能问答方法 | |
CN113342982B (zh) | 融合RoBERTa和外部知识库的企业行业分类方法 | |
Xin et al. | Automatic annotation of text classification data set in specific field using named entity recognition | |
CN118312600B (zh) | 一种基于知识图谱与大语言模型的智能客服问答方法 | |
CN118227769B (zh) | 一种基于知识图谱增强的大语言模型问答生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |