CN113742491A - 基于表示学习的时间知识图谱推理方法 - Google Patents
基于表示学习的时间知识图谱推理方法 Download PDFInfo
- Publication number
- CN113742491A CN113742491A CN202110922890.1A CN202110922890A CN113742491A CN 113742491 A CN113742491 A CN 113742491A CN 202110922890 A CN202110922890 A CN 202110922890A CN 113742491 A CN113742491 A CN 113742491A
- Authority
- CN
- China
- Prior art keywords
- entity
- time
- knowledge graph
- representation
- knowledge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000007246 mechanism Effects 0.000 claims abstract description 18
- 230000002123 temporal effect Effects 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 25
- 238000011176 pooling Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000003068 static effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000009193 crawling Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 239000004576 sand Substances 0.000 claims description 2
- 238000004804 winding Methods 0.000 claims description 2
- 230000002349 favourable effect Effects 0.000 abstract 1
- 238000003058 natural language processing Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
一种基于表示学习的时间知识图谱推理方法,包括三个步骤:构建带实体描述的时间知识图谱数据集;构建和训练融合实体描述的时间知识图谱表示学习模型;知识推理应用。本发明提出的方法,在时间知识图谱表示学习模型HyTE的基础上,引入了实体描述,丰富了实体信息,有利于模型对实体表示进行学习;并且本发明提出的基于时间与关系的注意力机制,能够根据四元组中时间与关系的不同,关注到实体描述中的不同的位置,学习最相关的信息。本发明提出的方法在预测任务中有很好的表现,提高了时间知识图谱推理的准确率。
Description
技术领域
本发明涉及知识图谱以及自然语言处理领域。
表示学习与知识推理是知识图谱领域的一个重要分支。
背景技术
知识图谱推理是知识图谱应用中的一项重要任务,与自然语言处理紧密联系。在知识图谱中,知识(或事实)常常被表示为三元组的形式,即(头实体,关系,尾实体)表示头实体与尾实体之间存在关系。知识图谱推理旨在根据已有的知识推导出新的知识,使机器具有和人类一样的推理和决策能力,对问答、推荐等应用有重要作用。而基于表示学习的推理需要先将由文字符号表示的知识,转换为方便机器操作的向量表示,再学习其中的联系进行推理。现有的方法认为若是(头实体,关系,尾实体)这一知识正确,则头实体、关系、尾实体对应的向量表示 h、r、t存在h+r=t,这也是模型损失函数设计以及判断知识是否正确的依据。
然而,现实中的许多知识是有时间约束的,一些知识只会在某段时间内是正确的。在时间知识图谱上,考虑时间这一维度之后,这项任务变得更具挑战性。受TransH的启发,Dasgupta等人提出了HyTE模型,使用了超平面的技巧,将时间知识图谱看成是由不同时间区间下的静态知识图谱组成,将属于不同时间区间的知识涉及的实体与关系映射到该时间区间的平面上进行学习。但现有的方法大都基于知识图谱的结构信息进行学习,若是实体出现的频率较低,而且与其他实体有相同的关系和邻居时,这些实体便是结构信息相似的实体,不容易被区分。融合结构以外的信息进行学习是解决此类问题的一种有效方法。Xie等人提出了基于卷积神经网络的联合表示模型DKRL,从实体描述构建实体的向量表示。该模型分别使用TransE和卷积神经网络来编码基于结构信息的表示和基于实体描述的表示,并利用两类表示计算损失函数。但该模型的卷积神经网络编码器尚未考虑实体描述中可能存在着实体在不同时间、不同关系下的信息,需要对不同位置的文本加以关注。
发明内容
知识图谱推理是与自然语言处理紧密联系的重要任务之一。知识图谱推理旨在根据已有的知识推导出新的知识,使机器具有和人类一样的推理和决策能力,对问答、推荐等应用有重要作用,而知识图谱表示学习是机器进行推理的基础。而在时间知识图谱上,考虑时间这一维度之后,这项任务变得更具挑战性。而现有的方法大都只利用知识图谱的结构信息进行学习,若是存在结构相似的实体,此类实体将拥有相似的表示,难以被区分。融合实体描述进行学习是解决此类问题的一种有效方法。但目前融合实体描述的方法无法注意到在时间知识图谱中,实体描述可能含有实体在不同时间下的信息,这类信息对不同时间段的表示学习有不同程度的作用。
为了解决此问题,本文提出了基于带注意力机制的卷积神经网络的融合实体描述信息的时间知识图谱表示学习方法。该方法基于时间知识图谱表示学习模型 HyTE编码实体的结构表示,利用带注意力机制的卷积神经网络编码实体的描述文本得到实体基于描述的表示,最后将两种表示进行加权求和,作为实体的最终表示。方法中的注意力机制将根据四元组中的关系与时间这一上下文而关注实体描述中的不同位置的信息,最终提高了预测的准确率。
为了实现上述目的,本发明给出的技术方案为:
一种基于表示学习的时间知识图谱推理方法,其特征在于,包括:
步骤1、构建带实体描述的时间知识图谱数据集;
步骤2、构建和训练融合实体描述的时间知识图谱表示学习模型;
步骤3、知识推理应用。
有益效果
本发明针对现有基于表示学习的时间知识图谱推理方法只关注结构信息的问题,提出了基于注意力机制的融合实体描述的时间知识图谱表示学习方法。我们在时间知识图谱表示学习的基础上,引入了实体描述。对于结构信息,本发明使用HyTE方法,学习实体在不同时间区间下的基于结构信息的表示。对于实体描述,本发明使用注意力机制与卷积神经网络学习实体的基于描述的表示,注意力机制将根据时间与关系这一上下文,关注实体描述中相关的部分。最终将实体基于不同信息得到的两种表示,按照一定比例求和作为最终的实体描述。通过引入实体描述,并用注意力机制关注文本中与四元组的时间、关系相关的位置,提高了在时间知识图谱上进行预测任务的准确率,对知识图谱推理领域有重大意义。
附图说明
附图是用来提动对本发明的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但不构成对本发明的限制。在附图中:
图1为时间知识图谱推理的表示学习方法的技术路线图;
图2为步骤一构建带实体描述的时间知识图谱数据集的流程图;
图3为训练融合实体描述的时间知识图谱表示学习模型的整体框架;
图4为带注意力机制的卷积神经网络的结构图;
图5为步骤二训练融合实体描述的时间知识图谱表示学习模型的流程图;
图6为步骤三知识推理的流程图。
具体实施方式
知识图谱推理旨在根据已有的知识推导出新的知识,使机器具有和人类一样的推理和决策能力的关键技术之一,对问答、推荐等应用有重要作用,而知识图谱表示学习是机器进行推理的基础。目前的知识图谱表示学习方法大多关注于静态知识图谱,未考虑大部分知识只在某一时间段内是正确的。并且大部分方法信息来源单一,容易存在信息相似的实体,造成预测效果较差。本发明提出一种用于时间知识图谱推理的表示学习方法,应用于知识图谱推理及缺失预测,其创新点在于在时间知识图谱表示学习方法的基础上,引入了实体描述信息,通过学习多源信息,解决了模型容易混淆结构信息相似的实体的问题。并且设计了基于时间与关系的注意力机制,关注与时间、关系相关的信息,有效地提高了预测任务的准确率。
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的具体实施方式进行清楚、完整的描述。应当理解的是,此处所描述的具体实施方法仅用于说明和解释本发明,并不用于限制本发明。
本发明的具体实施过程如图1所示,包括如下3个方面:
步骤1、构建带实体描述的时间知识图谱数据集;
步骤2、构建和训练融合实体描述的时间知识图谱表示学习模型;
步骤3、知识推理应用。
各个步骤详述如下。
第一步:构建带实体描述的时间知识图谱数据集,如图2所示
数据集中包含关系、实体、实体描述以及表示成四元组的知识:
1.1:利用爬虫技术,从百科类网站或现有知识库中,为知识图谱中的实体爬取实体描述文本,提供给步骤1.2。
1.2:实体描述文本预处理,提供步骤1.3。
1.2.1:移除所有标点符号,并将所有大写字母转换为小写字母;
1.2.2:删除非时间的数字,只保留3个数字或4个数字构成的代表年份的数字串。
1.3:利用知识抽取技术,从网络文本或现有知识库中,抽取带时间约束的知识,构建时间知识图谱,提供步骤1.4。
1.4:对知识中的关系、实体进行编号,将知识表示为四元组。其中,四元组(h,r,t,τ),表示头实体h与尾实体t之间存在关系r这一事实只有在时间范围τ=[τs,τe]下是正确的,τs和τe分别为开始时间与结束时间,提供步骤1.5。
1.5:对四元组中的时间标签预处理。根据时间区间将时间知识图谱拆分为多个静态的子图,每个子图由该时间区间下正确的四元组构成。假设划分了T个时间区间τ1,τ2,…,τT,则时间知识图谱将τ1,τ2,…,τT进行编号并将数据集中的时间标签替换为所属时间区间的编号。
得到带实体描述的时间知识图谱数据集,数据集中的实体、关系编号以及四元组信息将提供给步骤2.1,实体描述信息将提供给步骤2.3。
第二步:构建和训练融合实体描述的时间知识图谱表示学习模型
融合实体描述的时间知识图谱表示学习模型的构造,包括两部分:基于HyTE 的结构表示学习以及基于带注意力机制的CNN的文本表示学习。首先,利用HyTE 模型来编码知识图谱的结构信息;然后利用带注意力机制的卷积神经网络编码实体的文本信息;最后使用一种机制学习两种信息的最佳权重,联合成最终的实体表示。模型整体框架如图3所示。
2.1:依次从步骤1.5得到的数据集中选择一个正样本X=(h,r,t,τ),并随机替换h、r、t其中之一得到负样本X′=(h′,r′,t′,τ),将正样本与负样本提供给步骤2.2和步骤2.3。
2.2:分别计算正样本中h、r、t在时间τ下的基于结构信息的表示
其中,h,r,分别为h,r,t的原始的向量表示,d为向量的维度,表示1*d 的矩阵,d为1时表示一个标量,以下同理;为时间区间τ的参数。负样本的计算过程同正样本,得到提供给步骤2.3.5和步骤2.4。
2.3:通过带注意力机制的卷积神经网络分别计算实体h,t在时间τ以及关系r 这一上下文中的基于描述信息的表示。在此步骤中,由于对实体h和t的处理过程相同,用e表示其中任意一个实体,其描述文本的词向量序列为x1:n= [x1,x2,…,xn],表示序列中的第i个向量,d1为向量的维度,提供给步骤 2.3.1。神经网络结构如图4,各层操作如下:
2.3.1:第一卷积层。在卷积层中,使用大小为k的卷积核对输入序列进行一维卷积。所以卷积层输出的第i个向量为ci=σ(W·xi:i+k-1+b)。其中,是卷积核,d1为输入向量的维度,d2为输出向量的维度,在卷积层中可看作特征图的个数,为偏置项,σ是激活函数,选择ReLU作为激活函数。最终卷积层的输出为c1:m=[c1,c2,…,cm],m=n-k+1为池化层输入序列的长度。
2.3.2:最大池化层。在第一个卷积层之后,进行一次池化操作。池化操作可以压缩卷积层的输出与参数的数量,也在一定程度上防止了过拟合。池化层以上一个卷积层的输出序列c1:m作为输入。我们使用最大池化,以一个大小为l的窗口在输入序列上以步长s进行滑动,则第i个窗口的输出为pi=max(c(i-1)·s+1:(i-1)·s+l),最终池化层的输出为
2.3.3:dropout。在训练期间,dropout层通过在输入的数据中随机选取一定比例的进行丢弃(置为0),防止过拟合。我们对池化层的输出进行Dropout 操作,并作为第二个卷积层的输入。
2.3.4:第二卷积层。本层以2.3.3的输出序列为输入,处理同步骤2.3.1,记输出为y1:o,o为输出序列的长度,输出到步骤2.3.5。
2.3.5:注意力层。以步骤2.3.4的输出y1:o作为输入,依次计算序列中每一个序列的权重,并进行加权求和。对于序列中第i个向量yi,计算其在关系r与时间τ约束下的权重将序列y1:o中所有向量根据其权重进行加权求和得到实体e在关系r与时间τ之下的基于实体描述的表示 作为输出提供给步骤2.4。
2.4:联合两种实体表示得到实体的最终表示。对于实体e,在关系r与时间τ下的最终表示为其中σ为sigmoid函数,参数为实体基于结构信息的表示的权重。相应的头实体h的最终表示记为hτ,r,尾实体t的最终表示记为tτ,r。
2.5:计算损失值。对于正样本X以及负样本X′,损失值loss=max(0,f(X)- f(X′)+γ),其中为f评分函数为向量的第一或第二范式,γ>0为超参数,表示正负样本之间的间距。将损失值提供给步骤2.3。
2.6:优化模型参数。根据步骤2.5得到的损失值,使用梯度下降法或Adam 算法调整模型参数,最小化模型整体的损失值。
2.7:如果进行一次迭代后达到停止迭代的条件(损失值小于设置的阈值或迭代次数达到最大次数),则结束训练,否则继续步骤2.1。
2.8:得到训练完的模型,提供给步骤3.1。
第三步:知识推理应用。给定待预测的(缺少实体或关系的)四元组,预测其缺失部分。流程如图6所示。
3.1:在步骤2.8得到的模型中,依次将知识图谱中的所有实体(或关系) 分别代入到该四元组的缺失部位中,并计算代入实体(或关系)后评分函数f的值,最后将所有实体(或关系)的评分提供给步骤3.2。
3.2:根据评分进行排序,选出评分最高的一个或多个实体(或关系)作为预测值。
参考文献
[1]Dasgupta S S,Ray S N,Talukdar P.Hyte:Hyperplane-based temporallyaware knowledge graph embedding[C]//Proceedings of the 2018 conference onempirical methods in natural language processing.2018:2001-2011.
[2]Xie R,Liu Z,Jia J,et al.Representation learning of knowledgegraphs with entity descriptions[C]//Proceedings of the AAAI Conference onArtificial Intelligence.2016, 30(1).
创新点
提出了一种基于表示学习的时间知识图谱推理方法,不同于先前的时间知识图谱推理方法,我们在时间知识图谱表示学习模型HyTE的基础上,引入了实体描述,丰富了实体信息,有利于模型对实体表示进行学习。并且本发明提出的基于时间与关系的注意力机制,能够根据四元组中时间与关系的不同,关注到实体描述中的不同的位置,学习最相关的信息。
本发明提出的方法在预测任务中有很好的表现,提高了时间知识图谱推理的准确率。
Claims (4)
1.一种基于表示学习的时间知识图谱推理方法,其特征在于,包括:
步骤1、构建带实体描述的时间知识图谱数据集;
步骤2、构建和训练融合实体描述的时间知识图谱表示学习模型;
步骤3、知识推理应用。
2.如权利要求1所述的一种基于表示学习的时间知识图谱推理方法,其特征在于,所述步骤1中,数据集中包含关系、实体、实体描述以及表示成四元组的知识:
1.1:利用爬虫技术,从百科类网站或现有知识库中,为知识图谱中的实体爬取实体描述文本,提供给步骤1.2;
1.2:实体描述文本预处理,提供给步骤1.3;
1.2.1:移除所有标点符号,并将所有大写字母转换为小写字母;
1.2.2:删除非时间的数字,只代表年份的数字串;
1.3:利用知识抽取技术,从网络文本或现有知识库中,抽取带时间约束的知识,构建时间知识图谱,提供步骤1.4;
1.4:对知识中的关系、实体进行编号,将知识表示为四元组;其中,四元组(h,r,t,τ),表示头实体h与尾实体t之间存在关系r这一事实只有在时间范围τ=[τs,τe]下是正确的,τs和τe分别为开始时间与结束时间,提供步骤1.5;
1.5:对四元组中的时间标签预处理;根据时间区间将时间知识图谱拆分为多个静态的子图,每个子图由该时间区间下正确的四元组构成;
得到带实体描述的时间知识图谱数据集,数据集中的实体、关系编号以及四元组信息将提供给步骤2.1,实体描述信息将提供给步骤2.3。
3.如权利要求1所述的一种基于表示学习的时间知识图谱推理方法,其特征在于,所述步骤2中,融合实体描述的时间知识图谱表示学习模型的构造,包括两部分:基于HyTE的结构表示学习以及基于带注意力机制的CNN的文本表示学习;首先,利用HyTE模型来编码知识图谱的结构信息;然后利用带注意力机制的卷积神经网络编码实体的文本信息;最后使用一种机制学习两种信息的最佳权重,联合成最终的实体表示;具体步骤为:
2.1:依次从步骤1.5得到的数据集中选择一个正样本X=(h,r,t,τ),并随机替换h、r、t其中之一得到负样本X′=(h′,r′,t′,τ),将正样本与负样本提供给步骤2.2和步骤2.3;
2.2:分别计算正样本中h、r、t在时间τ下的基于结构信息的表示
2.3:通过带注意力机制的卷积神经网络分别计算实体h,t在时间τ以及关系r这一上下文中的基于描述信息的表示;在此步骤中,对实体h和t的处理过程相同,用e表示其中任意一个实体,其描述文本的词向量序列为x1:n=[x1,x2,…,xn],表示序列中的第i个向量,d1为向量的维度,提供给步骤2.3.1;神经网络各层操作如下:
2.3.1:第一卷积层;在卷积层中,使用大小为k的卷积核对输入序列进行一维卷积;卷积层输出的第i个向量为ci=σ(W·xi:i+k-1+b);其中,是卷积核,d1为输入向量的维度,d2为输出向量的维度,在卷积层中可看作特征图的个数,为偏置项,σ是激活函数,选择ReLU作为激活函数;最终卷积层的输出为c1:m=[c1,c2,…,cm],m=n-k+1为池化层输入序列的长度;
2.3.2:最大池化层;在第一个卷积层之后,进行一次池化操作;池化层以上一个卷积层的输出序列c1:m作为输入,使用最大池化,以一个大小为l的窗口在输入序列上以步长s进行滑动,则第i个窗口的输出为pi=max(c(i-1)·s+1:(i-1)·s+l),最终池化层的输出为
2.3.3:dropout;在训练期间,dropout层通过在输入的数据中随机选取一定比例的进行丢弃(置为0),防止过拟合;对池化层的输出进行Dropout操作,并作为第二个卷积层的输入;
2.3.4:第二卷积层;本层以2.3.3的输出序列为输入,处理同步骤2.3.1,记输出为y1:o,o为输出序列的长度,输出到步骤2.3.5;
2.3.5:注意力层;以步骤2.3.4的输出y1:o作为输入,依次计算序列中每一个序列的权重,并进行加权求和;对于序列中第i个向量yi,计算其在关系r与时间τ约束下的权重将序列y1:o中所有向量根据其权重进行加权求和得到实体e在关系r与时间τ之下的基于实体描述的表示 作为输出提供给步骤2.4;
2.4:联合两种实体表示得到实体的最终表示;对于实体e,在关系r与时间τ下的最终表示为其中σ为sigmoid函数,参数为实体基于结构信息的表示的权重。相应的头实体h的最终表示记为hτ,r,尾实体t的最终表示记为tτ,r;
2.5:计算损失值;对于正样本X以及负样本X′,损失值loss=max(0,f(X)-f(X′)+γ),其中为f评分函数 为向量的第一或第二范式,γ>0为超参数,表示正负样本之间的间距;将损失值提供给步骤2.3;
2.6:优化模型参数;根据步骤2.5得到的损失值,使用梯度下降法或Adam算法调整模型参数,最小化模型整体的损失值;
2.7:如果进行一次迭代后达到停止迭代的条件(损失值小于设置的阈值或迭代次数达到最大次数),则结束训练,否则继续步骤2.1;
2.8:得到训练完的模型,提供给步骤3.1。
4.如权利要求1所述的一种基于表示学习的时间知识图谱推理方法,其特征在于,所述步骤3中,给定待预测的四元组,预测其缺失部分;具体步骤为:
3.1:在步骤2.8得到的模型中,依次将知识图谱中的所有实体(或关系)分别代入到该四元组的缺失部位中,并计算代入实体(或关系)后评分函数f的值,最后将所有实体(或关系)的评分提供给步骤3.2;
3.2:根据评分进行排序,选出评分最高的一个或多个实体(或关系)作为预测值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110922890.1A CN113742491A (zh) | 2021-08-12 | 2021-08-12 | 基于表示学习的时间知识图谱推理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110922890.1A CN113742491A (zh) | 2021-08-12 | 2021-08-12 | 基于表示学习的时间知识图谱推理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113742491A true CN113742491A (zh) | 2021-12-03 |
Family
ID=78730931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110922890.1A Pending CN113742491A (zh) | 2021-08-12 | 2021-08-12 | 基于表示学习的时间知识图谱推理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113742491A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114186078A (zh) * | 2021-12-17 | 2022-03-15 | 沈阳东软智能医疗科技研究院有限公司 | 知识图谱的表示学习方法、装置、存储介质及电子设备 |
WO2023155287A1 (zh) * | 2022-02-17 | 2023-08-24 | 北京邮电大学 | 基于时序知识图谱的复杂问答查询方法和装置 |
CN117236448A (zh) * | 2023-11-15 | 2023-12-15 | 中国人民解放军空军预警学院 | 一种基于时序知识图谱的雷达意图推理及其模型训练方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781316A (zh) * | 2019-10-25 | 2020-02-11 | 南京航空航天大学 | 一种融合超平面和持续时间建模的时间感知知识表示学习方法 |
CN111159425A (zh) * | 2019-12-30 | 2020-05-15 | 浙江大学 | 一种基于历史关系和双图卷积网络的时态知识图谱表示方法 |
CN112559757A (zh) * | 2020-11-12 | 2021-03-26 | 中国人民解放军国防科技大学 | 一种时序知识图谱补全的方法及系统 |
-
2021
- 2021-08-12 CN CN202110922890.1A patent/CN113742491A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781316A (zh) * | 2019-10-25 | 2020-02-11 | 南京航空航天大学 | 一种融合超平面和持续时间建模的时间感知知识表示学习方法 |
CN111159425A (zh) * | 2019-12-30 | 2020-05-15 | 浙江大学 | 一种基于历史关系和双图卷积网络的时态知识图谱表示方法 |
CN112559757A (zh) * | 2020-11-12 | 2021-03-26 | 中国人民解放军国防科技大学 | 一种时序知识图谱补全的方法及系统 |
Non-Patent Citations (1)
Title |
---|
YU FANG等: "Learning Description-Based Representations for Temporal Knowledge Graph Reasoning via Attentive CNN", 《2021 3RD INTERNATIONAL CONFERENCE AN ARTIFICIAL INTELLIGENCE AND COMPUTER SCIENCE》, vol. 2025, pages 2 - 9 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114186078A (zh) * | 2021-12-17 | 2022-03-15 | 沈阳东软智能医疗科技研究院有限公司 | 知识图谱的表示学习方法、装置、存储介质及电子设备 |
CN114186078B (zh) * | 2021-12-17 | 2023-07-21 | 沈阳东软智能医疗科技研究院有限公司 | 知识图谱的表示学习方法、装置、存储介质及电子设备 |
WO2023155287A1 (zh) * | 2022-02-17 | 2023-08-24 | 北京邮电大学 | 基于时序知识图谱的复杂问答查询方法和装置 |
CN117236448A (zh) * | 2023-11-15 | 2023-12-15 | 中国人民解放军空军预警学院 | 一种基于时序知识图谱的雷达意图推理及其模型训练方法 |
CN117236448B (zh) * | 2023-11-15 | 2024-02-09 | 中国人民解放军空军预警学院 | 一种基于时序知识图谱的雷达意图推理及其模型训练方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113742491A (zh) | 基于表示学习的时间知识图谱推理方法 | |
CN114169330B (zh) | 融合时序卷积与Transformer编码器的中文命名实体识别方法 | |
CN109857871B (zh) | 一种基于社交网络海量情景数据的用户关系发现方法 | |
CN110852110B (zh) | 目标语句提取方法、问题生成方法以及信息处理设备 | |
CN110083702B (zh) | 一种基于多任务学习的方面级别文本情感转换方法 | |
CN113254675B (zh) | 基于自适应少样本关系抽取的知识图谱构建方法 | |
CN115688879A (zh) | 一种基于知识图谱的智能客服语音处理系统及方法 | |
CN107832300A (zh) | 面向微创医疗领域文本摘要生成方法及装置 | |
CN109766553A (zh) | 一种基于多正则化结合的胶囊模型的中文分词方法 | |
CN113312919A (zh) | 一种知识图谱的文本生成方法及装置 | |
CN114757432A (zh) | 基于流程日志和多任务学习的未来执行活动及时间预测方法及系统 | |
CN113204633A (zh) | 一种语义匹配蒸馏方法及装置 | |
CN115062003B (zh) | 基于gpt2的云erp社区生成式问答方法 | |
CN116341562A (zh) | 一种基于Unilm语言模型的相似问题生成方法 | |
CN114238652A (zh) | 一种用于端到端场景的工业故障知识图谱建立方法 | |
CN115017907A (zh) | 一种基于领域词典的中文农业命名实体识别方法 | |
CN112035629B (zh) | 基于符号化知识与神经网络的问答模型的实现方法 | |
CN117150041A (zh) | 一种基于强化学习的小样本知识图谱补全方法 | |
Zhou et al. | Exploratory inference learning for scribble supervised semantic segmentation | |
CN114185595B (zh) | 基于代码结构引导的方法名生成方法 | |
CN115587318A (zh) | 一种基于神经网络的源码分类方法 | |
CN115470348A (zh) | 一种暴力事件检测方法、装置及设备 | |
CN115982373A (zh) | 结合多级交互式对比学习的知识图谱推荐方法 | |
CN114648005A (zh) | 一种多任务联合学习的多片段机器阅读理解方法及装置 | |
CN113743315A (zh) | 一种基于结构增强的手写体初等数学公式识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |