CN114547347A - 基于卷积神经网络的时序知识图谱补全方法、装置及设备 - Google Patents
基于卷积神经网络的时序知识图谱补全方法、装置及设备 Download PDFInfo
- Publication number
- CN114547347A CN114547347A CN202210448185.7A CN202210448185A CN114547347A CN 114547347 A CN114547347 A CN 114547347A CN 202210448185 A CN202210448185 A CN 202210448185A CN 114547347 A CN114547347 A CN 114547347A
- Authority
- CN
- China
- Prior art keywords
- neural network
- dimensional
- convolutional neural
- entity
- knowledge graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000011159 matrix material Substances 0.000 claims description 69
- 238000012549 training Methods 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 39
- 238000013507 mapping Methods 0.000 claims description 38
- 239000013598 vector Substances 0.000 claims description 37
- 238000011176 pooling Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000007634 remodeling Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 230000003213 activating effect Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 5
- 230000002441 reversible effect Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000009469 supplementation Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 7
- 230000007246 mechanism Effects 0.000 abstract description 6
- 238000000605 extraction Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 3
- 230000002349 favourable effect Effects 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000009795 derivation Methods 0.000 description 4
- 239000003337 fertilizer Substances 0.000 description 4
- 208000015181 infectious disease Diseases 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 208000035473 Communicable disease Diseases 0.000 description 2
- 241000700605 Viruses Species 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000010006 flight Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000711573 Coronaviridae Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000035558 fertility Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种基于卷积神经网络的时序知识图谱补全方法、装置及设备,该方法属于时序知识图谱技术领域。所述方法将卷积神经网络应用于时序知识图谱中。一方面,利用卷积神经网络的表征学习能力,从输入信息中提取高阶特征;另一方面,卷积运算利用卷积核的参数共享机制和加权平均机制实现稀疏相乘和参数共享,有效减少权重参数的数量,使得网络能进行快速学习,同时也有效减少计算内存开销;有利于模型在大型数据集上获得较好的性能;同时,本方法中采用二维卷积增加实体/关系/时间嵌入表示之间的交互点,提高了模型的特征提取能力。
Description
技术领域
本申请涉及时序知识图谱技术领域,特别是涉及一种基于卷积神经网络的时序知识图谱补全方法、装置及设备。
背景技术
近年来,深度学习在很多机器学习领域都有着非常出色的表现,例如,深度卷积神经网络(Deep Neural Network,DNN)在图像识别(image dentification)、语音识别(Voicerecognition)、自然语言处理(Natural Language Processing, NLP) 等领域有着广泛应用。卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。
GCN首次提出将卷积方法用于知识图谱,随后出现了一系列相关模型,如GraphSAGE,GCN (Relational-GCN),CompGCN等,但这些模型的研究对象都是静态知识图谱。时序知识图谱领域的研究工作,例如,TTransE,HyTE,TA-DistMult,DE-SimplE,TuckERT,ATiSE,TeRo,TNTComplEx等都属于浅层模型,可能导致知识图谱特征提取不足。
发明内容
基于此,有必要针对上述技术问题,提供一种基于卷积神经网络的时序知识图谱补全方法、装置及设备。
一种基于卷积神经网络的时序知识图谱补全方法,所述方法包括:
获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示。
对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示。
将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块。
将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量。
将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
一种基于卷积神经网络的时序知识图谱补全装置,所述装置包括:
卷积神经网络训练样本确定模块:用于获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
卷积神经网络训练模块:用于将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量;将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
时序知识图谱的得分确定模块,用于根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
一种设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
上述基于卷积神经网络的时序知识图谱补全方法、装置及设备,所述方法将卷积神经网络应用于时序知识图谱中。一方面,利用卷积神经网络的表征学习能力,从输入信息中提取高阶特征。另一方面,卷积运算利用卷积核的参数共享机制和加权平均机制实现稀疏相乘和参数共享,有效减少权重参数的数量,使得网络能进行快速学习,同时也有效减少计算内存开销;有利于模型在大型数据集上获得较好的性能。同时,本方法中采用二维卷积增加实体/ 关系/ 时间嵌入表示之间的交互点,以提高模型的特征提取能力。
附图说明
图1为一个实施例中基于卷积神经网络的时序知识图谱补全方法的整体框架;
图2为一个实施例中基于卷积神经网络的时序知识图谱补全方法的流程示意;
图3为一个实施例中基于卷积神经网络的时序知识图谱补全装置的结构框图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
时序知识图谱的推理任务中,时间条件通常是已知的,目标是当h或t丢失的时候,推断一个四元组是否有效,即给定推导h或者给定推导t。其中,h、t分别为四元组的头实体和尾实体,r为四元组头实体h和尾实体t之间的关系,为四元组的时间戳。
本发明的任务是:给定推导h或者给定推导t,使用已有的实体和关系来推理知识图谱中缺失的事实,而不需要创建新的实体或关系。对于这两种情形,本发明并没有单独为每一种情况训练一个模型,而是训练了同一个模型,用于这两种情况的评估。对于每个测试四元组,本发明用知识图谱中存在的所有实体替换每个头实体,构造n−1个被损坏的四元组,然后对每一个这样的四元组评分。接着,将这些分数按升序排序,并得到正确的四元组的排列。本发明也可以用同样的方法替换四元组的尾实体。
本发明中的基于卷积神经网络的时序知识图谱补全方法应用于传染性疾病密接人群数据挖掘方面,利用网络人物关系图谱进行某种传染性疾病的密接人群判断。
本方法的核心思想是:通过二维卷积和全连接层来建模输入的实体、关系以及时间嵌入表示之间的交互,模型整体架构如图1所示。基于卷积神经网络的时序知识图谱补全方法由两个主要部分组成,左边部分是获得时序知识图谱中实体、关系、时间戳初始嵌入的过程,右边部分的输入是头实体、关系、时间戳的初始嵌入经过拼接后得到的张量,经过卷积、池化和全连接层提取特征,输出为事实的得分。
在一个实施例中,如图2所示,提供了一种基于卷积神经网络的时序知识图谱补全方法,该方法包括以下步骤:
步骤200:获取时序知识图谱中的头实体、关系、尾实体、时间戳的初始嵌入表示。
具体的,时序知识图谱包括多个由头实体、关系、尾实体以及时间戳组成的四元组。时序知识图谱中的四元组是从某轮新冠疫情传播人物关系图谱描述的多条事实中提取的,例如,某轮新冠疫情传播人物关系图谱的描述中有一个感染轨迹,如:张某和李某于2020年10月25日在合肥被确诊为新冠病毒感染者,张某和李某在2020年10月11日在营口一起参加了摄影基地的培训活动,张某是从北京坐火车2020年10月10抵达营口的,李某是2020年10月10日从兰州乘坐MF8288次航班抵达大连,当日乘坐G8043次高铁抵达营口;参加完培训活动后张某于2020年10月15日乘坐火车返回北京,一直在公司上班,2020年10月23日张某乘坐K10271次列车从北京到合肥,张某于2020年10月25日在合肥被确诊为新冠病毒感染者;李某于2020年10月15日乘坐G8042次高铁从营口达到大连,当天转乘HU7746次航班从大连到合肥,当天乘坐大巴车来到六安市,在一个影楼开展培训活动,李某于2020年10月20日乘坐D3086次动车从六安到合肥,在六安培训期间影楼的范某、刘某参加了培训,范某、刘某长期居住于六安市,刘某和范某分别于2020年10月25日、2020年10月26日被确诊为新冠病毒感染者。上述感染轨迹包括多个事实,这些事实可用四元组描述为:(张某,乘火车,北京—营口,2020年10月11日),(李某,乘MF8288次航班,兰州—大连,2020年10月10日),(李某,乘坐G8043次高铁,大连—营口,2020年10月10日),(张某,接触,李某,2020年10月11日-15日),(张某,乘火车,营口—北京,2020年10月15日),(张某,居住于,营口,2020年10月15日-23日),(张某,乘坐K10271次列车,北京-合肥,2020年10月23日),(李某,乘坐G8042次高铁,营口-大连,2020年10月15),(李某,乘坐乘HU7746次航班,大连-合肥,2020年10月15),(李某,乘坐大巴,合肥-六安市,2020年10月15),(刘某和范某,接触,李某,2020年10月15),(刘某和范某,居住于,六安市,长期),(李某,乘坐D3086次动车,六安市-合肥,2020年10月20),(李某,居住于,合肥,2020年10月20日-25日)。将这些四元组用节点和边连接起来形成时序知识图谱,其中节点表示四元组中的头实体或者尾实体,边表示四元组中的关系和时间对。
关系是头实体和尾实体之间的关系。
步骤202:对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示。
值得说明的是,在本方法的步骤阐述中是根据已知头实体、关系和时间戳,来推导尾实体,本方法同样适用于已知尾实体、关系和时间戳的情况,即将2D重塑的对象替换为:尾实体、关系和时间戳,同样也可以推导出头实体。
步骤204:将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
步骤206:将训练样本输入到2维卷积神经网络中,得到特征映射矩阵。
2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块。
使用二维卷积增加嵌入表示之间的交互点,使得时序知识图谱的四元组中的各个元素充分交互,糅合,以更好地提取时序知识图谱的特征,让模型自学习四元组的表示;二维卷积能够通过增加嵌入表示之间的交互点提取更多的嵌入之间的特征交互,从而提高模型的表现力。
步骤208:将特征映射矩阵进行向量重塑,得到重塑后的特征向量。
步骤210:将重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
具体的,全连接的本质上是矩阵乘法,相当于通过一个特征空间变换来提取有用的信息并将它整合。
对重塑后的特征向量,用矩阵参数化的线性变换将其投影到k维空间,并通过内积与目标尾实体的嵌入匹配。代表一个线性变换矩阵,用于计算四元组的最终得分。卷积核和矩阵的参数与实体/关系/时间戳的参数是相互独立的。
步骤212:根据预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
上述基于卷积神经网络的时序知识图谱补全方法中,所述方法将卷积神经网络应用于时序知识图谱中。一方面,利用卷积神经网络的表征学习能力,从输入信息中提取高阶特征。另一方面,卷积运算利用卷积核的参数共享机制和加权平均机制实现稀疏相乘和参数共享,有效减少权重参数的数量,使得网络能进行快速学习,同时也有效减少计算内存开销;有利于模型在大型数据集上获得较好的性能。同时,本方法中采用二维卷积增加实体/关系/ 时间嵌入表示之间的交互点,以提高模型的特征提取能力。
在其中一个实施例中,步骤200包括:对时序知识图谱中的头实体、关系、尾实体、时间戳进行随机初始化,得到头实体、关系、尾实体、时间戳的初始嵌入表示;将头实体和尾实体归为实体,生成一个实体的初始嵌入矩阵,记为,生成一个关系的初始嵌入矩阵,记为,生成一个时间戳的初始嵌入矩阵,记为,其中k为三个初始嵌入矩阵的维数,,和分别为实体、关系和时间戳的个数。
在前向传递过程中,该方法对三个嵌入矩阵进行行向量查找,一个是实体初始嵌入矩阵,记为,一个是关系初始嵌入矩阵,记为,一个是时间戳的初始嵌入矩阵,记为,其中k 为初始嵌入维数,这里我们假设三个初始嵌入的维度是相同的;,和分别为实体、关系和时间戳的个数。然后,该模型将拼接起来,将拼接结果作为基于卷积神经网络的时序知识图谱补全网络模型的输入。
该网络模型的预设的卷积神经网络的最后一个二维卷积模块返回一个特征映射矩阵,其中c是维度为m和n的二维特征映射的个数。特征映射矩阵G随后被函数vec(·)重塑成一个特征向量,然后用矩阵参数化的线性变换将其投影到k 维空间,并通过内积与目标尾实体的嵌入匹配。代表一个线性变换矩阵,用于计算四元组的最终得分。
在其中一个实施例中,2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;步骤206包括:当2维卷积神经网络包括1个2维卷积模块时:将训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;当2维卷积神经网络包括2个或2个以上的2维卷积模块时:将训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
在其中一个实施例中,步骤212中的预设的打分函数表达式为:
其中,,,和分别为头实体、关系、尾实体和时间戳的初始嵌入表示,,,分别为头实体、关系、时间戳的重塑嵌入表示,为一个线性变换矩阵,为将特征矩阵转换为特征向量的操作,||为特征向量的拼接,为二维卷积层的卷积核, 和分别为Logistic Sigmoid函数和 ReLU函数。
在其中一个实施例中,步骤212之前还包括:根据预测结果、训练样本以及预设损失函数,对由2维卷积神经网络和预设的全连接网络组成的基于卷积神经网络的时序知识图谱补全网络模型进行反向训练,得到训练好的基于卷积神经网络的时序知识图谱补全网络模型;将预设损失函数最小化,预设损失函数采用二值交叉熵损失函数,其的表达式为:
在一个实施例中,基于卷积神经网络的时序知识图谱补全网络模型的训大于等于练包括两个节点,前向传播阶段和向后传播阶段;具体步骤包括:
第一阶段,向前传播阶段:
(1)从训练集中取一个样本,输入基于卷积神经网络的时序知识图谱补全网络模型;
(2)计算相应的实际输出;在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常执行时执行的过程。
第二阶段,向后传播阶段:
(1)计算实际输出与相应的理想输出的差;
(2)按极小化误差的方法调整权矩阵。
这两个阶段的工作一般应受到精度要求的控制。
网络的训练过程如下:
(1)选定训练集,对整个数据集进行随机划分,作为优选,训练集,验证集,测试集的中样本的数量比例为8:1:1。
(2)将各权值、阈值,置成小的接近于0的随机值,并初始化精度控制参数和学习率;
(3)从训练集中取一个输入模式加到网络,并给出它的目标输出向量;
(4)计算出中间层输出向量,计算出网络的实际输出向量;
(5)将输出向量中的元素与目标向量中的元素进行比较,计算出输出误差;对于中间层的隐单元也需要计算出误差;
(6)依次计算出各权值的调整量和阈值的调整量;
(7)调整权值和调整阈值;
(8)当经历M后,判断指标是否满足精度要求,如果不满足,则返回(3),继续迭代;如果满足就进入下一步;
(9)训练结束,将权值和阈值保存在文件中。这时可以认为各个权值已经达到稳定,分类器已经形成。再一次进行训练,直接从文件导出权值和阈值进行训练,不需要进行初始化。
应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图3所示,提供了一种基于卷积神经网络的时序知识图谱补全装置,包括:卷积神经网络训练样本确定模块、卷积神经网络训练模块和时序知识图谱的事实得分确定模块,其中:
卷积神经网络训练样本确定模块,用于获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
卷积神经网络训练模块,用于将训练样本输入到2维卷积神经网络中,得到特征映射矩阵;2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;将特征映射矩阵进行向量重塑,得到重塑后的特征向量;将重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
时序知识图谱的事实得分确定模块,用于根据预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
在其中一个实施例中,卷积神经网络训练样本确定模块,还用于对时序知识图谱中的头实体、关系、尾实体、时间戳进行随机初始化,得到头实体、关系、尾实体、时间戳的初始嵌入表示;将头实体和尾实体归为实体,生成一个实体的初始嵌入矩阵,记为,生成一个关系的初始嵌入矩阵,记为,生成一个时间戳的初始嵌入矩阵,记为,其中k为三个初始嵌入矩阵的维数,,和分别为实体、关系和时间戳的个数。
在其中一个实施例中,2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;卷积神经网络训练模块,还用于当2维卷积神经网络包括1个2维卷积模块时:将训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;当2维卷积神经网络包括2个或2个以上的2维卷积模块时:将训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
在其中一个实施例中,时序知识图谱的事实得分确定模块中的预设的打分函数表达式如式(1)所示。
在其中一个实施例中,时序知识图谱的事实得分确定模块之前还包括网络反向训练模块,用于根据预测结果、训练样本以及预设损失函数,对由2维卷积神经网络和预设的全连接网络组成的基于卷积神经网络的时序知识图谱补全网络模型进行反向训练,得到训练好的基于卷积神经网络的时序知识图谱补全网络模型;预设损失函数的表达式如式(2)所示。
关于基于卷积神经网络的时序知识图谱补全装置的具体限定可以参见上文中对于基于卷积神经网络的时序知识图谱补全方法的限定,在此不再赘述。上述基于卷积神经网络的时序知识图谱补全装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于卷积神经网络的时序知识图谱补全方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
在一个验证性实施例中,实验数据集选用:ICEWS14,ICEWS05-15,GDELT 这三个数据集。本实施例中用到的实验数据集统计结果如表1所示。
表1 实验数据集的统计
参数设置:在Pytorch 中运行模型,只使用了一个GPU。为了给HTMR 搜索和找到合适的超参数,本实施例在以下超参数范围使用贪婪搜索:学习率(learning rate,lr) 的搜索范围是{0.001, 0.01, 0.05, 0.1, 0.2},dropout rate的搜索范围是{0.001, 0.01,0.1, 0.2},嵌入维度的搜索范围是{50, 100, 200, 400}。所有的模型都是用Adagrad优化的,学习率lr=0.1,dropout rate=0.1,batch_size=1000;对于这三个数据集,我们选择的初始嵌入维度都设置为200。
评价标准:本实施例的推理任务类似于链接预测,它的目标是在特定时间设置下,用一个缺失的实体补全某个事实。负例的构造方法为:对于测试集中的每一个有效四元组,将四元组中的h(或t) 替换为实体集E 中除h(或t) 之外的其它实体,得到“损坏四元组”。假设知识图谱中存在m 个实体,则可以构造m - 1 个“损坏四元组”,并将这m-1 个“损坏四元组”与知识图谱中现有的四元组进行比较;如果它们已经存在于知识图谱中,则删除该实例。然后检查模型是否给正确的四元组赋一个较高的分数,给“损坏四元组”赋一个较低的分数。将有效的测试四元组和“损坏四元组”按分数升序排列。本实施例的实验结果是基于以下评价标准:平均倒数排序(Mean Reciprocal Rank, MRR) 和N 个正确排序所占的比例(Hits@N)(其中N 取1,3 和10)作为评估指标。所有的评价标准都是值越高越好。对于所有的实验,本实施例报告了5 次运行的平均结果,忽略了通常很低的方差。
基线模型:本实施例比较了两类基线,静态知识图谱嵌入和时序知识图谱嵌入方法。对于静态知识图谱嵌入的基线,使用翻译嵌入模型(或平移嵌入模型)(TranslatingEmbedding,简称:TransE),多关系表示学习模型(Multi-relational representationlearning,简称DistMult),基于复数的嵌入模型(complex embeddings,简称:ComplEx),旋转嵌入模型(rotate embedding,简称:RotatE),知识图谱嵌入的四元数表示模型(Quaternion Representations for Knowledge Graph Embeddings,简称:QuatE)。对于时序知识图谱嵌入的基线,使用时序感知的翻译嵌入模型(Temporal TranslatingEmbedding,简称:TTransE),基于超平面的时间感知知识图谱嵌入模型(Hyperplane-basedTemporallyaware Knowledge Graph Embedding,简称:HyTE),时间感知的TransE模型(Time-Aware TransE,简称:TA-TransE),时间感知的DistMult模型(Time-AwareDistMult,简称:TA-DistMult),时序知识图谱历时嵌入模型(Diachronic Embedding,简称:DE-Simple),加性时间序列分解模型(Additive Time Series decomposition,简称:ATiSE),时序旋转模型(TemporalRotation,简称:TeRo),时序张量分解嵌入模型(temporalcomponent embedding,简称:TNTComplEx)。嵌套GRU的时序知识图谱表示模型(NestedGated Recurrent Unit,简称:NGRU),基于Householder 变换的时序知识图谱推理(Householder Transformation based Multi-relational Reasoning,简称:HTMR)
主要实验结果:表2和表3展示了基于卷积神经网络的时序知识图谱补全网络模型(Tem_Conv)在ICEWS14,ICEWS05-15,GDELT 这三个数据集的测试集上的结果。其中,MRR 值与Hits@N 都是越大越好;Hits@N 值以百分比表示。
表2 Tem_Conv 在ICEWS14,ICEWS05-15 测试集的实验结果
表3 Tem_Conv 在GDELT 测试集的实验结果
备注:表2和表3中:MRR代表平均倒数排序,Hits@10代表10个正确排序所占的比例,Hits@3代表3个正确排序所占的比例,Hits@1代表1个正确排序所占的比例。
表2给出的是Tem_Conv 在ICEWS14,ICEWS05-15两个数据集的结果。从整体上来看,在时序数据集上,考虑时间的模型性能要优于相应的静态模型;例如,TTransE和HyTE要比TransE 性能好;TNTComplEx 性能要明显优于ComplEx,TeRo 要明显优于RotatE。模型在ICEWS14和ICEWS05-15的所有指标都显著优于基线模型;Tem_Conv 在ICEWS14 上的实验结果全部优于HTMR 和NGRU,在ICEWS05-15 与HTMR 不相上下。
表3给出了Tem_Conv 在GDELT 数据集上的实验结果。实验结果显示,Tem_Conv 在所有指标上优于NGRU,同时也在所有指标上显著优于所有基线模型。与TNTComplEx相比,MRR,Hits@1,Hits@3,Hits@10 分别提高3.5,3.6,3.8,3 个百分点。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于卷积神经网络的时序知识图谱补全方法,其特征在于,所述方法包括:
获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;
对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;
将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本;
将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;
将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量;
将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果;
根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
3.根据权利要求1所述的方法,其特征在于,所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;
将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵,包括:
当2维卷积神经网络包括1个2维卷积模块时:
将所述训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;
当2维卷积神经网络包括2个或2个以上的2维卷积模块时:
将所述训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;
将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
7.一种基于卷积神经网络的时序知识图谱补全装置,其特征在于,所述装置包括:
卷积神经网络训练样本确定模块:用于获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本;
卷积神经网络训练模块:用于将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量;将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果;
时序知识图谱的得分确定模块,用于根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
9.根据权利要求7所述的装置,其特征在于,所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;
卷积神经网络训练模块,还用于当2维卷积神经网络包括1个2维卷积模块时:将所述训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;当2维卷积神经网络包括2个或2个以上的2维卷积模块时:将所述训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-6任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210448185.7A CN114547347A (zh) | 2022-04-27 | 2022-04-27 | 基于卷积神经网络的时序知识图谱补全方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210448185.7A CN114547347A (zh) | 2022-04-27 | 2022-04-27 | 基于卷积神经网络的时序知识图谱补全方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114547347A true CN114547347A (zh) | 2022-05-27 |
Family
ID=81666633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210448185.7A Pending CN114547347A (zh) | 2022-04-27 | 2022-04-27 | 基于卷积神经网络的时序知识图谱补全方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114547347A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112148891A (zh) * | 2020-09-25 | 2020-12-29 | 天津大学 | 一种基于图感知张量分解的知识图谱补全方法 |
CN115422369A (zh) * | 2022-08-30 | 2022-12-02 | 中国人民解放军国防科技大学 | 基于改进TextRank的知识图谱补全方法和装置 |
-
2022
- 2022-04-27 CN CN202210448185.7A patent/CN114547347A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112148891A (zh) * | 2020-09-25 | 2020-12-29 | 天津大学 | 一种基于图感知张量分解的知识图谱补全方法 |
CN115422369A (zh) * | 2022-08-30 | 2022-12-02 | 中国人民解放军国防科技大学 | 基于改进TextRank的知识图谱补全方法和装置 |
CN115422369B (zh) * | 2022-08-30 | 2023-11-03 | 中国人民解放军国防科技大学 | 基于改进TextRank的知识图谱补全方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111667884B (zh) | 基于注意力机制使用蛋白质一级序列预测蛋白质相互作用的卷积神经网络模型 | |
US11537898B2 (en) | Generative structure-property inverse computational co-design of materials | |
Peng et al. | Refuel: Exploring sparse features in deep reinforcement learning for fast disease diagnosis | |
US20180341862A1 (en) | Integrating a memory layer in a neural network for one-shot learning | |
CN108986908A (zh) | 问诊数据处理方法、装置、计算机设备和存储介质 | |
CN114547347A (zh) | 基于卷积神经网络的时序知识图谱补全方法、装置及设备 | |
Le et al. | Knowledge graph embedding by relational rotation and complex convolution for link prediction | |
JP7299317B2 (ja) | 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置 | |
CN113378938B (zh) | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 | |
CN111241244A (zh) | 基于大数据的答案位置获取方法、装置、设备及介质 | |
Sarkar et al. | An algorithm for DNA read alignment on quantum accelerators | |
Liu et al. | EACP: An effective automatic channel pruning for neural networks | |
CN108805260A (zh) | 一种图说生成方法及装置 | |
Jiang et al. | An intelligent recommendation approach for online advertising based on hybrid deep neural network and parallel computing | |
CN114742210A (zh) | 混合神经网络训练方法、交通流预测方法、设备和介质 | |
US20230097940A1 (en) | System and method for extracting and using groups of features for interpretability analysis | |
CN116797850A (zh) | 基于知识蒸馏和一致性正则化的类增量图像分类方法 | |
CN110766465A (zh) | 金融产品评估方法及其验证方法、装置 | |
CN114420221B (zh) | 一种基于知识图谱辅助的多任务药物筛选方法和系统 | |
CN114155388B (zh) | 一种图像识别方法、装置、计算机设备和存储介质 | |
Stypułkowski et al. | Representing point clouds with generative conditional invertible flow networks | |
CN115422369A (zh) | 基于改进TextRank的知识图谱补全方法和装置 | |
CN115204171A (zh) | 基于超图神经网络的文档级事件抽取方法及系统 | |
Fong et al. | Optimized swarm search-based feature selection for text mining in sentiment analysis | |
CN114332469A (zh) | 模型训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220527 |