CN112148888A - 基于图神经网络的知识图谱构建方法 - Google Patents

基于图神经网络的知识图谱构建方法 Download PDF

Info

Publication number
CN112148888A
CN112148888A CN202010984868.5A CN202010984868A CN112148888A CN 112148888 A CN112148888 A CN 112148888A CN 202010984868 A CN202010984868 A CN 202010984868A CN 112148888 A CN112148888 A CN 112148888A
Authority
CN
China
Prior art keywords
neural network
graph
matrix
word
entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010984868.5A
Other languages
English (en)
Inventor
孙雁飞
刘鹏涛
亓晋
许斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202010984868.5A priority Critical patent/CN112148888A/zh
Publication of CN112148888A publication Critical patent/CN112148888A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出了一种基于图神经网络的知识图谱构建方法,包括以下步骤:步骤1)目标实体识别:给定目标文本语句,使用双向长短时记忆循环神经网络模型和条件随机场模型识别目标文本语句中的目标实体;步骤2)实体关系抽取:使用基于文本的卷积神经网络模型抽取两个目标实体之间的关系;步骤3)知识图谱的构建及更新:使用图卷积神经网络模型对实体及实体关系进行学习,根据学习到的结果对知识图谱进行构建及更新,本发明提高了实体关系抽取的准确性,使知识图谱的表达能力更加精准;此外,将图神经网络模型用于学习图数据,对结点进行有效的分类,扩展知识图谱的应用性。

Description

基于图神经网络的知识图谱构建方法
技术领域
本发明涉及一种知识图谱,具体的说是一种知识图谱的构件方法,属于神经网络技术领域。
背景技术
知识图谱是以图的形式表现客观世界中的实体及其之间关系的知识库,实体可以是真实世界中的物体或抽象的概念,关系则表示了实体间的联系。因此,知识图谱能够以结构化的形式表示人类知识,通过知识表示和推理技术,可以给人工智能系统提供可处理的先验知识,让其具有与人类一样的解决复杂任务的能力。如何更好地构建、表示、补全、应用知识图谱,已经成为认知和人工智能领域重要的研究方向之一。目前,知识图谱的构建主要是基于深度学习,而深度学习在欧几里得数据上有着优异的效果,但是在非欧几里得的图数据上表现并不理想。
图数据的复杂性对现有机器学习算法提出了重大挑战,因为图数据是不规则的,每张图大小不同、结点无序,一张图中的每个结点都有不同数目的邻居结点,使得一些在图像中容易计算的重要运算(如卷积)不能再直接应用于图计算。此外,现有机器学习算法的核心假设是实例彼此独立,然而,图数据中的每个实例都与周围的其它实例相关,包含一些复杂的连接信息,用于捕获数据之间的依赖关系,包括引用、朋友关系和相互作用等。
现如今越来越多的研究开始将深度学习方法应用到图数据领域,受到深度学习领域进展的驱动,研究人员在设计图神经网络的架构时借鉴了卷积网络、循环网络和深度自编码器的思想。顺势而生的图神经网络(Graph Neural Network,GNN)是一种连接模型,它通过图的结点之间的消息传递来捕捉图的依赖关系,是处理图数据的利器。
现有技术中公开了:一种基于深度学习的知识图谱构建方法,其公开号为:CN107526799A,申请号:201710713735.2,该发明将深度学习技术应用到知识图谱的构建中,采用双向循环神经网络和条件随机场的实体识别模型对目标文本语句中的目标实体进行识别,减少实体识别和关系抽取过程中的特征工程,减轻人工设计和调节特征带来的负担和麻烦,精准挖掘文本中的知识。该发明是针对知识图谱构建的一个基础性专利,对于给定目标文本语句,进行目标实体的识别和目标实体间关系的抽取,并对目标实体概念化,根据目标实体、目标实体关系和概念构建知识图谱。其不足之处在于:在处理非欧几里得的实体关系数据时采用常规的深度学习方法;对于识别到的实体和抽取的实体关系没有进行更深层次的挖掘和处理,仅仅是规范化、概念化后直接构建知识图谱,限制了知识图谱的应用场景。
发明内容
本发明的目的是提供一种基于图神经网络的知识图谱构建方法,提高实体关系抽取的准确性,使知识图谱的表达能力更加精准;此外,将图神经网络模型用于学习图数据,对结点进行有效的分类,扩展知识图谱的应用性。
本发明的目的是这样实现的:一种基于图神经网络的知识图谱构建方法,包括以下步骤:
步骤1)目标实体识别:给定目标文本语句,使用双向长短时记忆循环神经网络模型和条件随机场模型识别目标文本语句中的目标实体;
步骤2)实体关系抽取:使用基于文本的卷积神经网络模型抽取两个目标实体之间的关系;
步骤3)知识图谱的构建及更新:使用图卷积神经网络模型对实体及实体关系进行学习,根据学习到的结果对知识图谱进行构建及更新。
作为本发明的进一步改进,步骤1)具体包括:
步骤1.1)采用双向长短时记忆循环神经网络模型计算目标文本语句中每个词Xi对应的所有可能标签的概率Zi
步骤1.2)采用条件随机场对目标文本语句中的每一个词Xi进行标注,计算出最优标注序列Y*,并根据最优标注序列Y*获取目标文本语句中的目标实体。
作为本发明的进一步改进,步骤1.1)具体包括:
步骤1.1.1)采用双向长短时记忆循环神经网络模型在预设查找表中查找目标文本语句X=X1,X2,…,XN中的每一个词Xi对应的词向量Ei
步骤1.1.2)将词向量Ei作为Bi-LSTM模型的输入,分别从右至左和从左至右扫描,得到两个第一输出序列
Figure BDA0002688880800000031
步骤1.1.3)将第一输出序列
Figure BDA0002688880800000032
Figure BDA0002688880800000033
进行串接,抽取
Figure BDA0002688880800000034
Figure BDA0002688880800000035
的特征,并计算每个词Xi对应的所有可能标签的概率Zi,计算公式如下:
Figure BDA0002688880800000036
公式(1)中,W1表示隐藏层参数矩阵,b1表示隐藏层偏置,hi'表示第一输出序列中第i个值的隐藏层输出,W2表示输出层参数矩阵。
作为本发明的进一步改进,步骤1.2)具体包括:
步骤1.2.1)将目标文本语句X=X1,X2,…,XN作为条件随机场模型的输入计算得到第二输出序列,并计算第二输出序列对应的标签序列Y=Y1,Y2,…,YN
步骤1.2.2)根据每个词Xi对应的所有可能标签的概率Zi计算标签序列Y=Y1,Y2,…,YN的得分S(X,Y),并将得分最高的标签作为最优标签序列
Figure BDA0002688880800000037
标签序列的得分S(X,Y)计算具体如下:
Figure BDA0002688880800000038
公式(2)中,
Figure BDA0002688880800000039
表示第i个词Xi获得标签Yi的概率,
Figure BDA00026888808000000310
表示标签Yi-1与标签Yi之间的转移概率。
作为本发明的进一步改进,步骤2)具体包括:
步骤2.1)将词向量Ei作为基于文本的卷积神经网络模型的输入,每个单词均为K维的词向量,因此对于长度为N的一句话可用维度为N×K的矩阵X表示;
步骤2.2)预训练的词向量矩阵维度为N×K,设计一个过滤器窗口W,其维度为T×K,其中K为词向量的长度,T表示窗口所含的单词个数;之后不断地滑动该窗口,每次滑动一个位置,进行如下计算:
ci=f(W·Xi:i+T-1+b) (3)
公式(3)中,f表示非线性激活函数,xi:i+T-1表示该句子中第i到i+T-1的单词组成的词向量矩阵,ci表示当前窗口位置的取值,b表示偏置;
因此对于长度为N的句子,维度为T×K的过滤器窗口可以产生由N-T+1个值组成的集合:
c={c1,c2…cN-T+1} (4)
公式(4)中,c是N-T+1个过滤器窗口产生值的集合;
步骤2.3)提取集合c中最大的特征,对集合c进行max-over-time操作,即取出集合c中的最大值
Figure BDA0002688880800000041
步骤2.4)M个过滤器窗口,将产生由M个值组成的向量
Figure BDA0002688880800000042
Text-CNN模型通过设置一个全相连层,将向量z映射为长度为l的向量,l即为待预测的关系类型的个数,设置softmax激活函数即可转换为各个关系类型的概率值,输出最大概率,即为两个目标实体之间的关系。
作为本发明的进一步改进,步骤3)具体包括:
步骤3.1)根据步骤1和步骤2抽取出实体和实体关系构建图数据库,并对一小部分实体添加标签,用于区分实体类别;
步骤3.2)图数据库中的各个结点有着不同的D维特征向量,假设有N个结点,这N个结点的特征组成一个N×D维的矩阵X,各个结点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵;将X矩阵和A矩阵作为图卷积神经网络模型GCN的输入,GCN也是一个神经网络层,它的层与层之间的传播公式为:
Figure BDA0002688880800000051
公式(5)中,
Figure BDA0002688880800000052
I是单位矩阵,
Figure BDA0002688880800000053
H是每一层的特征,对于输入层,H就是X,σ是非线性激活函数;
步骤3.3)原图数据经过几层GCN计算后每个结点的特征从X变成了Z,即
Z=f(X,A) (6)
公式(6)中,X是由N个结点的特征向量组成的特征矩阵,A是邻接矩阵,f是GCN计算函数,Z是GCN变换后的特征;
步骤3.4:针对所有结点计算交叉熵(cross entropy)损失函数:
Figure BDA0002688880800000054
公式(7)中,YL是结点类别数目,Yl是属于某一类的概率,Zl是某个结点经过GCN变换后的特征值;
步骤3.5)根据训练的模型对结点进行分类,并添加相对应的标签在图数据库中更新。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:本发明在实体关系抽取时采用基于文本的卷积神经网络模型,提高了实体关系抽取的准确性;在构建知识图谱时,采用图卷积神经网络模型对结点进行分类,使知识图谱的应用场景得到了拓展。
附图说明
图1为本发明原理框图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明采用双向长短时记忆循环神经网络模型(Bi-LSTM)和条件随机场模型(CRF)识别目标文本语句中的目标实体,采用基于文本的卷积神经网络模型(Text-CNN)抽取两个目标实体之间的关系;在目标文本数据经过有效提取后,根据提取出的实体信息和实体关系信息构建图数据库;借助于图卷积神经网络模型对图数据库中的图数据进行分类、更新标签,天然的数据经过加工后重新进入知识图谱,丰富了知识图谱的应用场景。具体如下:
如图1所示,一种基于图神经网络的知识图谱构建方法,包括以下步骤:
Step 1):给定目标文本语句,使用双向长短时记忆循环神经网络模型(Bi-directional Long-Short Term Memory,Bi-LSTM)和条件随机场模型(ConditionalRandom Field,CRF)识别目标文本语句中的目标实体;
Step 2):使用基于文本的卷积神经网络模型(Text Convolutional NeuralNetwork,Text-CNN)抽取两个目标实体之间的关系;
Step(3):使用图卷积神经网络模型(GCN)对实体及实体关系进行学习,根据学习到的结果对知识图谱进行构建及更新。
针对以上三个层面,具体发明内容阐述如下:
Step1:目标实体识别。
Step1.1:采用双向长短时记忆循环神经网络模型计算目标文本语句中每个词Xi对应的所有可能标签的概率Zi
Step1.1.1:采用双向长短时记忆循环神经网络模型在预设查找表中查找目标文本语句X=X1,X2,…,XN中的每一个词Xi对应的词向量Ei
Step1.1.2:将词向量Ei作为Bi-LSTM模型的输入,分别从右至左和从左至右扫描,得到两个第一输出序列
Figure BDA0002688880800000061
Step1.1.3:将第一输出序列
Figure BDA0002688880800000062
Figure BDA0002688880800000063
进行串接,抽取
Figure BDA0002688880800000064
Figure BDA0002688880800000065
的特征,并计算每个词Xi对应的所有可能标签的概率Zi,计算公式如下:
Figure BDA0002688880800000071
公式(1)中,W1表示隐藏层参数矩阵,b1表示隐藏层偏置,hi'表示第一输出序列中第i个值的隐藏层输出,W2表示输出层参数矩阵。
Step1.2:采用条件随机场对目标文本语句中的每一个词Xi进行标注,计算出最优标注序列Y*,并根据最优标注序列Y*获取目标文本语句中的目标实体。
Step1.2.1:将目标文本语句X=X1,X2,…,XN作为条件随机场模型的输入计算得到第二输出序列,并计算第二输出序列对应的标签序列Y=Y1,Y2,…,YN
Step1.2.2:根据每个词Xi对应的所有可能标签的概率Zi计算标签序列Y=Y1,Y2,…,YN的得分S(X,Y),并将得分最高的标签作为最优标签序列
Figure BDA0002688880800000072
标签序列的得分S(X,Y)计算具体如下:
Figure BDA0002688880800000073
公式(2)中,
Figure BDA0002688880800000074
表示第i个词Xi获得标签Yi的概率,
Figure BDA0002688880800000075
表示标签Yi-1与标签Yi之间的转移概率。
Step2:实体关系抽取。
Step2.1:将词向量Ei作为基于文本的卷积神经网络模型的输入,每个单词均为K维的词向量,因此对于长度为N的一句话可用维度为N×K的矩阵X表示。
Step2.2:预训练的词向量矩阵维度为N×K,设计一个过滤器窗口W,其维度为T×K,其中K为词向量的长度,T表示窗口所含的单词个数。之后不断地滑动该窗口,每次滑动一个位置,进行如下计算:
ci=f(W·Xi:i+T-1+b) (3)
公式(3)中,f表示非线性激活函数,xi:i+T-1表示该句子中第i到i+T-1的单词组成的词向量矩阵,ci表示当前窗口位置的取值,b表示偏置。
因此对于长度为N的句子,维度为T×K的过滤器窗口可以产生由N-T+1个值组成的集合:
c={c1,c2…cN-T+1} (4)
公式(4)中,c是N-T+1个过滤器窗口产生值的集合。
Step2.3:提取集合c中最大的特征,对集合c进行max-over-time操作,即取出集合c中的最大值
Figure BDA0002688880800000081
Step2.4:M个过滤器窗口,将产生由M个值组成的向量
Figure BDA0002688880800000082
Text-CNN模型通过设置一个全相连层,将向量z映射为长度为l的向量,l即为待预测的关系类型的个数,设置softmax激活函数即可转换为各个关系类型的概率值,输出最大概率,即为两个目标实体之间的关系。
Step3:知识图谱的构建及更新。
Step3.1:根据Step1和Step2抽取出实体和实体关系构建图数据库,并对一小部分结点(实体)添加标签,用于区分实体类别。
Step3.2:图数据库中的各个结点有着不同的D维特征向量,假设有N个结点,这N个结点的特征组成一个N×D维的矩阵X,各个结点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵。将X矩阵和A矩阵作为图卷积神经网络模型(GCN)的输入,GCN也是一个神经网络层,它的层与层之间的传播公式为:
Figure BDA0002688880800000083
公式(5)中,
Figure BDA0002688880800000084
I是单位矩阵,
Figure BDA0002688880800000085
H是每一层的特征,对于输入层,H就是X,σ是非线性激活函数。
Step3.3:原图数据经过几层GCN计算后每个结点的特征从X变成了Z,即
Z=f(X,A) (6)
公式(6)中,X是由N个结点的特征向量组成的特征矩阵,A是邻接矩阵,f是GCN计算函数,Z是GCN变换后的特征。
Step3.4:针对所有结点计算交叉熵(cross entropy)损失函数:
Figure BDA0002688880800000091
公式(7)中,YL是结点类别数目,Yl是属于某一类的概率,Zl是某个结点经过GCN变换后的特征值。
Step3.5:根据训练的模型对结点进行分类,并添加相对应的标签在图数据库中更新。
本发明在实体关系抽取时采用基于文本的卷积神经网络模型,与原技术方案相比,提高了实体关系抽取的准确性。在构建知识图谱时,采用图卷积神经网络模型对结点进行分类,使知识图谱的应用场景得到了拓展。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (6)

1.一种基于图神经网络的知识图谱构建方法,其特征在于,包括以下步骤:
步骤1)目标实体识别:给定目标文本语句,使用双向长短时记忆循环神经网络模型和条件随机场模型识别目标文本语句中的目标实体;
步骤2)实体关系抽取:使用基于文本的卷积神经网络模型抽取两个目标实体之间的关系;
步骤3)知识图谱的构建及更新:使用图卷积神经网络模型对实体及实体关系进行学习,根据学习到的结果对知识图谱进行构建及更新。
2.根据权利要求1所述的基于图神经网络的知识图谱构建方法,其特征在于,步骤1)具体包括:
步骤1.1)采用双向长短时记忆循环神经网络模型计算目标文本语句中每个词Xi对应的所有可能标签的概率Zi
步骤1.2)采用条件随机场对目标文本语句中的每一个词Xi进行标注,计算出最优标注序列Y*,并根据最优标注序列Y*获取目标文本语句中的目标实体。
3.根据权利要求2所述的基于图神经网络的知识图谱构建方法,其特征在于,步骤1.1)具体包括:
步骤1.1.1)采用双向长短时记忆循环神经网络模型在预设查找表中查找目标文本语句X=X1,X2,…,XN中的每一个词Xi对应的词向量Ei
步骤1.1.2)将词向量Ei作为Bi-LSTM模型的输入,分别从右至左和从左至右扫描,得到两个第一输出序列
Figure FDA0002688880790000011
步骤1.1.3)将第一输出序列
Figure FDA0002688880790000012
Figure FDA0002688880790000013
进行串接,抽取
Figure FDA0002688880790000014
Figure FDA0002688880790000015
的特征,并计算每个词Xi对应的所有可能标签的概率Zi,计算公式如下:
Figure FDA0002688880790000016
Zi=W2·hi'
公式(1)中,W1表示隐藏层参数矩阵,b1表示隐藏层偏置,hi'表示第一输出序列中第i个值的隐藏层输出,W2表示输出层参数矩阵。
4.根据权利要求2所述的基于图神经网络的知识图谱构建方法,其特征在于,步骤1.2)具体包括:
步骤1.2.1)将目标文本语句X=X1,X2,…,XN作为条件随机场模型的输入计算得到第二输出序列,并计算第二输出序列对应的标签序列Y=Y1,Y2,…,YN
步骤1.2.2)根据每个词Xi对应的所有可能标签的概率Zi计算标签序列Y=Y1,Y2,…,YN的得分S(X,Y),并将得分最高的标签作为最优标签序列
Figure FDA0002688880790000021
标签序列的得分S(X,Y)计算具体如下:
Figure FDA0002688880790000022
公式(2)中,
Figure FDA0002688880790000023
表示第i个词Xi获得标签Yi的概率,
Figure FDA0002688880790000024
表示标签Yi-1与标签Yi之间的转移概率。
5.根据权利要求3或4所述的基于图神经网络的知识图谱构建方法,其特征在于,步骤2)具体包括:
步骤2.1)将词向量Ei作为基于文本的卷积神经网络模型的输入,每个单词均为K维的词向量,因此对于长度为N的一句话可用维度为N×K的矩阵X表示;
步骤2.2)预训练的词向量矩阵维度为N×K,设计一个过滤器窗口W,其维度为T×K,其中K为词向量的长度,T表示窗口所含的单词个数;之后不断地滑动该窗口,每次滑动一个位置,进行如下计算:
ci=f(W·Xi:i+T-1+b) (3)
公式(3)中,f表示非线性激活函数,xi:i+T-1表示该句子中第i到i+T-1的单词组成的词向量矩阵,ci表示当前窗口位置的取值,b表示偏置;
因此对于长度为N的句子,维度为T×K的过滤器窗口可以产生由N-T+1个值组成的集合:
c={c1,c2…cN-T+1} (4)
公式(4)中,c是N-T+1个过滤器窗口产生值的集合;
步骤2.3)提取集合c中最大的特征,对集合c进行max-over-time操作,即取出集合c中的最大值
Figure FDA0002688880790000031
步骤2.4)M个过滤器窗口,将产生由M个值组成的向量
Figure FDA0002688880790000032
Text-CNN模型通过设置一个全相连层,将向量z映射为长度为l的向量,l即为待预测的关系类型的个数,设置softmax激活函数即可转换为各个关系类型的概率值,输出最大概率,即为两个目标实体之间的关系。
6.根据权利要求5所述的基于图神经网络的知识图谱构建方法,其特征在于,步骤3)具体包括:
步骤3.1)根据步骤1和步骤2抽取出实体和实体关系构建图数据库,并对一小部分实体添加标签,用于区分实体类别;
步骤3.2)图数据库中的各个结点有着不同的D维特征向量,假设有N个结点,这N个结点的特征组成一个N×D维的矩阵X,各个结点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵;将X矩阵和A矩阵作为图卷积神经网络模型GCN的输入,GCN也是一个神经网络层,它的层与层之间的传播公式为:
Figure FDA0002688880790000033
公式(5)中,
Figure FDA0002688880790000034
I是单位矩阵,
Figure FDA0002688880790000035
H是每一层的特征,对于输入层,H就是X,σ是非线性激活函数;
步骤3.3)原图数据经过几层GCN计算后每个结点的特征从X变成了Z,即
Z=f(X,A) (6)
公式(6)中,X是由N个结点的特征向量组成的特征矩阵,A是邻接矩阵,f是GCN计算函数,Z是GCN变换后的特征;
步骤3.4:针对所有结点计算交叉熵(cross entropy)损失函数:
Figure FDA0002688880790000036
公式(7)中,YL是结点类别数目,Yl是属于某一类的概率,Zl是某个结点经过GCN变换后的特征值;
步骤3.5)根据训练的模型对结点进行分类,并添加相对应的标签在图数据库中更新。
CN202010984868.5A 2020-09-18 2020-09-18 基于图神经网络的知识图谱构建方法 Withdrawn CN112148888A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010984868.5A CN112148888A (zh) 2020-09-18 2020-09-18 基于图神经网络的知识图谱构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010984868.5A CN112148888A (zh) 2020-09-18 2020-09-18 基于图神经网络的知识图谱构建方法

Publications (1)

Publication Number Publication Date
CN112148888A true CN112148888A (zh) 2020-12-29

Family

ID=73893159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010984868.5A Withdrawn CN112148888A (zh) 2020-09-18 2020-09-18 基于图神经网络的知识图谱构建方法

Country Status (1)

Country Link
CN (1) CN112148888A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112632263A (zh) * 2020-12-30 2021-04-09 西安交通大学 一种基于gcn与指针网络的自然语言到sparql语句的生成系统及方法
CN113010691A (zh) * 2021-03-30 2021-06-22 电子科技大学 一种基于图神经网络的知识图谱推理关系预测方法
CN113239358A (zh) * 2021-03-11 2021-08-10 东南大学 基于知识图谱的开源软件漏洞挖掘方法
CN113393017A (zh) * 2021-05-07 2021-09-14 浙江警官职业学院 一种基于个体复杂关系的监管场所安全预警方法及装置
CN113505214A (zh) * 2021-06-30 2021-10-15 北京明略软件系统有限公司 内容推荐方法、装置、计算机设备和存储介质
CN113569059A (zh) * 2021-09-07 2021-10-29 浙江网商银行股份有限公司 目标用户识别方法及装置
CN113779988A (zh) * 2021-09-07 2021-12-10 科大国创云网科技有限公司 一种通信领域过程类知识事件抽取方法
CN113824707A (zh) * 2021-09-13 2021-12-21 厦门吉快科技有限公司 一种基于知识图谱的网站性能拨测度量方法和装置
CN113836260A (zh) * 2021-08-27 2021-12-24 北京工业大学 一种基于知识增强的深度学习的总氮含量预测方法
CN114111764A (zh) * 2021-08-21 2022-03-01 西北工业大学 一种导航知识图谱构建及推理应用方法
CN114240891A (zh) * 2021-12-17 2022-03-25 重庆大学 融合知识图谱和图卷积神经网络的焊点质量识别方法
CN114297398A (zh) * 2021-11-11 2022-04-08 北京邮电大学 基于神经网络的知识图谱实体链接方法、装置及电子设备
CN114707005A (zh) * 2022-06-02 2022-07-05 浙江建木智能系统有限公司 一种舰船装备的知识图谱构建方法和系统

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112632263B (zh) * 2020-12-30 2023-01-03 西安交通大学 一种基于gcn与指针网络的自然语言到sparql语句的生成系统及方法
CN112632263A (zh) * 2020-12-30 2021-04-09 西安交通大学 一种基于gcn与指针网络的自然语言到sparql语句的生成系统及方法
CN113239358A (zh) * 2021-03-11 2021-08-10 东南大学 基于知识图谱的开源软件漏洞挖掘方法
CN113010691A (zh) * 2021-03-30 2021-06-22 电子科技大学 一种基于图神经网络的知识图谱推理关系预测方法
CN113393017A (zh) * 2021-05-07 2021-09-14 浙江警官职业学院 一种基于个体复杂关系的监管场所安全预警方法及装置
CN113393017B (zh) * 2021-05-07 2022-08-23 浙江警官职业学院 一种基于个体复杂关系的监管场所安全预警方法及装置
CN113505214A (zh) * 2021-06-30 2021-10-15 北京明略软件系统有限公司 内容推荐方法、装置、计算机设备和存储介质
CN114111764A (zh) * 2021-08-21 2022-03-01 西北工业大学 一种导航知识图谱构建及推理应用方法
CN114111764B (zh) * 2021-08-21 2024-01-12 西北工业大学 一种导航知识图谱构建及推理应用方法
CN113836260A (zh) * 2021-08-27 2021-12-24 北京工业大学 一种基于知识增强的深度学习的总氮含量预测方法
CN113779988A (zh) * 2021-09-07 2021-12-10 科大国创云网科技有限公司 一种通信领域过程类知识事件抽取方法
CN113569059A (zh) * 2021-09-07 2021-10-29 浙江网商银行股份有限公司 目标用户识别方法及装置
CN113824707A (zh) * 2021-09-13 2021-12-21 厦门吉快科技有限公司 一种基于知识图谱的网站性能拨测度量方法和装置
CN114297398A (zh) * 2021-11-11 2022-04-08 北京邮电大学 基于神经网络的知识图谱实体链接方法、装置及电子设备
CN114240891A (zh) * 2021-12-17 2022-03-25 重庆大学 融合知识图谱和图卷积神经网络的焊点质量识别方法
CN114707005A (zh) * 2022-06-02 2022-07-05 浙江建木智能系统有限公司 一种舰船装备的知识图谱构建方法和系统
CN114707005B (zh) * 2022-06-02 2022-10-25 浙江建木智能系统有限公司 一种舰船装备的知识图谱构建方法和系统

Similar Documents

Publication Publication Date Title
CN112148888A (zh) 基于图神经网络的知识图谱构建方法
CN109086267B (zh) 一种基于深度学习的中文分词方法
Zhang et al. Multi-scale attention with dense encoder for handwritten mathematical expression recognition
CN112115995B (zh) 一种基于半监督学习的图像多标签分类方法
CN110046656B (zh) 基于深度学习的多模态场景识别方法
CN108829677B (zh) 一种基于多模态注意力的图像标题自动生成方法
CN107609572B (zh) 基于神经网络和迁移学习的多模态情感识别方法、系统
CN108229582A (zh) 一种面向医学领域的多任务命名实体识别对抗训练方法
Cohen et al. Stacked sequential learning
Shi et al. Deep adaptively-enhanced hashing with discriminative similarity guidance for unsupervised cross-modal retrieval
CN111737511B (zh) 基于自适应局部概念嵌入的图像描述方法
CN107818084B (zh) 一种融合点评配图的情感分析方法
Jha et al. A novel approach on visual question answering by parameter prediction using faster region based convolutional neural network
CN109741824A (zh) 一种基于机器学习的医疗问诊方法
CN114065769B (zh) 情感原因对抽取模型的训练方法、装置、设备及介质
CN116821294A (zh) 一种基于隐式知识反刍的问答推理方法和装置
Koishybay et al. Continuous sign language recognition with iterative spatiotemporal fine-tuning
CN116303977A (zh) 一种基于特征分类的问答方法及系统
CN113553445B (zh) 一种生成视频描述的方法
CN117152851B (zh) 基于大模型预训练的人脸、人体协同聚类方法
CN117852523A (zh) 一种学习鉴别性语义和多视角上下文的跨域小样本关系抽取方法和装置
Bhalekar et al. Generation of image captions using VGG and ResNet CNN models cascaded with RNN approach
CN116955579A (zh) 一种基于关键词知识检索的聊天回复生成方法和装置
CN110929013A (zh) 一种基于bottom-up attention和定位信息融合的图片问答实现方法
CN116432660A (zh) 一种情感分析模型的预训练方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20201229

WW01 Invention patent application withdrawn after publication