CN110347847A - 基于神经网络的知识图谱补全方法 - Google Patents
基于神经网络的知识图谱补全方法 Download PDFInfo
- Publication number
- CN110347847A CN110347847A CN201910663022.9A CN201910663022A CN110347847A CN 110347847 A CN110347847 A CN 110347847A CN 201910663022 A CN201910663022 A CN 201910663022A CN 110347847 A CN110347847 A CN 110347847A
- Authority
- CN
- China
- Prior art keywords
- sentence
- knowledge mapping
- vector
- feature vector
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 17
- 239000013598 vector Substances 0.000 claims abstract description 69
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 23
- 238000005516 engineering process Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 239000012634 fragment Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims 1
- 230000007774 longterm Effects 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 10
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 238000010348 incorporation Methods 0.000 description 5
- 239000002585 base Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012458 free base Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供的一种基于神经网络的知识图谱补全方法,涉及自然语言处理技术领域,其包括:S1、在嵌入层将知识图谱K中的三元组(s,r,o)转换为句子[s r o],利用向量表示技术把句子[s r o]转换为k维稠密向量表示形式xi=[vs,vr,vo];S2、在循环层利用BiLSTM网络从输入特征向量xi中学习句子的长期依赖性,得到循环层特征向量hRNN;S3、在卷积层利用卷积神经网络从特征向量hRNN中学习局部结构信息,得到卷积层特征向量hCNN;S4、在全连接层将卷积层特征向量hCNN转化为每一个三元组(s,r,o)的得分。该知识图谱补全方法在不依靠任何外部数据的情况下,利用循环和卷积神经网络捕获知识图谱中事实的长期依赖性和局部结构信息,同时保留实体和关系的传递特征,学习能力更高。
Description
技术领域
本发明涉及自然语言处理技术领域,具体而言,涉及一种基于神经网络的知识图谱补全方法。
背景技术
随时大数据时代的到来,知识图谱逐渐成为当前的研究热点。知识图谱用于存储真实世界的结构化事实,其本质是语义网络,用节点表示实体,边表示实体之间的关系。知识图谱广泛用于许多场景,如语义搜索、智能问答、辅助决策等。但是,知识图谱面临严重的数据稀疏和数据缺失等问题。近年来,已经提出了许多知识图谱补全方法来填补缺失的事实。
传统的知识图谱补全模型主要是分为两类:一是浅层结构的嵌入模型,二是使用神经网络的深层结构嵌入模型。其中浅层结构的嵌入模型将关系视为向量空间中实体之间的翻译,最著名的论文是在2013年的国际机器学习顶级会议中的《Translatingembeddings for modeling multi-relational data》,正确事实的尾实体嵌入约等于头实体嵌入加上关系嵌入。该类模型仅将实体和关系嵌入视为固定维度的向量,因此它们无法在嵌入的不同维度中学习特征。而深层结构的嵌入模型通过神经网络来学习实体和关系嵌入的更丰富特征,最近发表于2018年国际人工智能顶级会议上的《Convolutional 2Dknowledge graph embeddings》通过2D卷积层改变实体和关系的嵌入,实体嵌入被连接成输入矩阵,经过卷积操作后输出特征映射张量,这些特征映射张量通过线性变换以获得分数。另一篇发表于2018年计算语言学协会北美年会上的《A novel embedding model forknowledge base completion based on convolutional neural network》用1D卷积代替2D卷积,将每个事实转换为3列矩阵,并从同一维度中提取嵌入之间的全局关系,它仅使用形状为1×3的滤波器,并不能很好地利用卷积运算的优点。
然而,上述模型忽略了知识图谱中的事实来自文本,只是在没有上下文信息的情况下嵌入知识图谱的部分事实,因此特征学习能力仍然不足。
发明内容
本发明实施例在于提供一种基于神经网络的知识图谱补全方法,其能够缓解上述问题。
本发明提供一种基于神经网络的知识图谱补全方法,定义知识图谱K={E,R,T},E代表实体,R代表实体之间的关系集合,T=(s,r,o)为三元组,T代表知识图谱K中若干正确的事实,s∈E表示主语,o∈E表示宾语,r∈R表示主语和宾语之间的关系,所述知识图谱补全方法包括以下步骤:
S1、在嵌入层将知识图谱K中的三元组(s,r,o)转换为句子[s r o],利用向量表示技术把句子[s r o]转换为k维稠密向量表示形式xi=[vs,vr,vo],其中xi表示由知识图谱K中第i个三元组转换而成的句子特征向量,vs,vr,vo分别表示s,r,o的k维向量;
S2、在循环层利用BiLSTM网络从输入特征向量xi中学习句子的长期依赖性,得到循环层特征向量hRNN;
S3、在卷积层利用卷积神经网络从循环层特征向量hRNN中学习局部结构信息,得到卷积层特征向量hCNN;
S4、在全连接层将卷积层特征向量hCNN转化为每一个三元组(s,r,o)的得分。
在本发明实施例中,通过将三元组转换为具有上下文信息的句子,在此基础上采用Sentence-RCNN网络来学习其中的长期依赖性和局部结构信息,可以解决特征学习不足导致的补全效果差的问题。
可选地,步骤S2的具体方法为:
S21、基于LSTM的循环神经网络利用输入门it、遗忘门ft和输出门ot控制信息流,各门均通过使用当前输入xi,前一步骤产生的状态hi-1和当前状态输出后产生的状态ci-1来确定是否接受输入和忘记之前存储的信息,t代表第t个序列片段;LSTM由五部分组成,计算方式分别如下:
it=σ(wxixt+whiht-1+wcict-1+bi) (1)
ft=σ(wxfxt+whfht-1+wcfct-1+bf) (2)
ot=σ(wxoxt+whoht-1+wcoct-1+bo) (3)
ct=ittanh(wxcxt+whcht-1+wccct-1+bc)+ftct-1 (4)
ht=ottanh(ct) (5)
其中,式(1)、(2)、(3)中σ(·)代表sigmoid函数;
式(1)中wxi,whi,wci为输入门it中需要学习的权重矩阵,bi表示输入门it中的偏置向量;
式(2)中wxf,whf,wcf为遗忘门ft中需要学习的权重矩阵,bf表示遗忘门ft中的偏置向量;
式(3)中wxo,who,wco为输出门ot中需要学习的权重矩阵,bo表示输出门ot中的偏置向量;
式(4)中ct为当前时刻的候选状态,wxc,whc,wcc为ct中需要学习的权重矩阵,bc表示ct中的偏置向量;
式(5)中,通过将非线性变换后的ct与输出门ot进行点积操作,得到当前时刻的隐藏状态输出ht;
S22、LSTM网络按时间顺序处理特征向量xi,忽略了未来的文本信息,而BiLSTM网络通过引入循环层来扩展LSTM网络;BiLSTM网络包含用于左和右序列上下文特征学习的两个子LSTM网络,该网络通过不同数量隐藏单元β的前向传播和后向传播,获得前向隐藏状态和后向隐藏状态最后输出循环层特征向量hRNN:
其中是LSTM网络学习在不同方向特征向量xi后得到的隐藏状态,计算过程如S21,:表示连接操作,输出循环层特征向量hRNN包含了输入句子[s r o]的长期依赖性。
可选地,步骤S3的具体方法为:
卷积层在循环层特征向量hRNN上应用卷积从句子的每个部分获得局部结构信息;hRNN被送到该层,其中形状为N×3(N∈{1,2,3,...})的不同过滤器γ通过在hRNN的每一行上连续操作来生成不同的特征映射,在此层中,特征映射hCNN根据如下公式生成:
hCNN=ReLU(γ·hRNN+b) (8)
其中b∈R是偏置项,·是点积;卷积层特征向量hCNN学习了输入句子[s r o]的长期依赖性和局部结构信息。
可选地,步骤S4的具体方法为:
在全连接层将卷积层特征向量hCNN连接成单个向量,然后通过与权重向量点积,得到句子[s r o]的得分,Sentence-RCNN得分函数f[s r o]定义如下:
f[s r o]=concat(σ(γ*(β#[vs,vr,vo])))·w (9)
其中·表示点积,#表示循环运算层,*表示卷积运算层;
非线性逻辑sigmoid函数用于获得句子是否为正确的概率预测:
p=Sigmoid(f[s r o])p∈[0,1] (10)
对于训练模型参数,在分数上采用逻辑sigmoid函数,Sentence-RCNN使用自适应矩算法来训练三元组,其损失函数L计算公式如下:
其中,第一项是经验风险,第二项是正则化项,λ是L2正则化的超参数,用于调整经验风险和正则化之间的关系以平衡经验风险与模型复杂度;w是L2正则化的权重向量;l(s,r,o)为样例的标签,正例则为1,负例则为-1;K′是标签为-1的负例的集合,负例是通过破坏K中的正例而产生的。
可选地,负例的构造方法具体包括以下步骤:
S411、采用不同的概率替换主语或者宾语以获得负例,对于1-N、N-1和N-N的关系,通过提供更多机会来取代连接实体少的一侧;
S412、在所有具有关系r的三元组中,统计两个数据:1)所有连接关系r的实体,表示为EC;2)未连接到关系r的候选实体,表示为ENC=E-EC;
S413、知识图谱中的三元组(s,r,o)为正例,而训练过程中所需负例三元组(s′,r,o′)由正例(s,r,o)构成,从(s,r,o)中关系r的ENC中选择被破坏的实体s′或o′,继而减少了产生错误负例的可能性。
在本发明实施例中,负例的构造方法可减少训练过程中产生错的负例,从而提高模型学习性能。
可选地,步骤S411的具体方法为:
在关系r的所有三元组中,得到两个统计:1)每个主语连接的平均宾语数量,表示为ts;2)每个宾语连接的平均主语数量,表示为to;
然后根据伯努利分布参数对每个正例的关系r进行采样,以概率替换三元组的主语,以概率替换三元组的宾语。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举本发明实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明知识图谱补全框架Sentence-RCNN示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
在WN18RR和FB15k-237上通过对比实验验证。这两个公开的知识图谱补全数据集分别由WordNet和Freebase知识库中抽取的信息构成,并且测试数据集不具有反向关系,表1列出了它们的统计数据。
表1
数据集 | 实体数 | 关系数 | 训练集 | 验证集 | 测试集 |
WN18RR | 40943 | 11 | 86835 | 3034 | 3134 |
FB15k-237 | 14541 | 237 | 272115 | 17535 | 20466 |
由于FB15k-237具有大量关系,因此以WN18RR(11个关系)为例来介绍本发明提出的基于Sentence-RCNN的知识图谱补全方法。
如图1所示,知识图谱补全具体步骤如下:
S1、在嵌入层将数据集WN18RR中的86835个事实三元组(s,r,o)转换为句子[s ro],利用向量表示技术将把句子转换为k维稠密向量表示形式xi=[vs,vr,vo];
S2、在循环层利用BiLSTM从输入特征向量xi中学习句子的长期依赖性,得到特征向量hRNN;
S21、基于LSTM的循环神经网络利用输入门it、遗忘门ft和输出门ot控制信息流,各门均通过使用当前输入xi,前一步骤产生的状态hi-1和当前状态输出后产生的状态ci-1来确定是否接受输入和忘记之前存储的信息,t代表第t个序列片段;LSTM由五部分组成,计算方式分别如下:
it=σ(wxixt+whiht-1+wcict-1+bi) (1)
ft=σ(wxfxt+whfht-1+wcfct-1+bf) (2)
ot=σ(wxoxt+whoht-1+wcoct-1+bo) (3)
ct=ittanh(wxcxt+whcht-1+wccct-1+bc)+ftct-1 (4)
ht=ottanh(ct) (5)
其中,式(1)、(2)、(3)中σ(·)代表sigmoid函数;
式(1)中wxi,whi,wci为输入门it中需要学习的权重矩阵,bi表示输入门it中的偏置向量;
式(2)中wxf,whf,wcf为遗忘门ft中需要学习的权重矩阵,bf表示遗忘门ft中的偏置向量;
式(3)中wxo,who,wco为输出门ot中需要学习的权重矩阵,bo表示输出门ot中的偏置向量;
式(4)中ct为当前时刻的候选状态,wxc,whc,wcc为ct中需要学习的权重矩阵,bc表示ct中的偏置向量;
式(5)中,通过将非线性变换后的ct与输出门ot进行点积操作,得到当前时刻的隐藏状态输出ht;
S22、LSTM网络按时间顺序处理特征向量xi,忽略了未来的文本信息,而BiLSTM网络通过引入循环层来扩展LSTM网络。BiLSTM网络包含用于左和右序列上下文特征学习的两个子LSTM网络,该网络通过不同数量隐藏单元β的前向传播和后向传播,获得前向隐藏状态和后向隐藏状态最后输出循环层特征向量hRNN:
其中是LSTM网络学习在不同方向特征向量xi后得到的隐藏状态,计算过程如S21,:表示连接操作,输出循环层特征向量hRNN包含了输入句子[s r o]的长期依赖性。
S3、卷积层在循环层特征向量hRNN上应用卷积从句子的每个部分获得局部结构信息。hRNN被送到该层,其中形状为N×3(N∈{1,2,3,...})的不同过滤器γ通过在hRNN的每一行上连续操作来生成不同的特征映射,在此层中,特征映射hCNN根据如下公式生成:
hCNN=ReLU(γ·hRNN+b) (8)
其中b∈R是偏置项,·是点积;卷积层特征向量hCNN学习了输入句子[s r o]的长期依赖性和局部结构信息。
S4、在全连接层将卷积层特征向量hCNN连接成单个向量,然后通过与权重向量点积,得到句子[s r o]的得分,Sentence-RCNN得分函数f[s r o]定义如下:
f[s r o]=concat(σ(γ*(β#[vs,vr,vo])))·w (9)
其中·表示点积,#表示循环运算层,*表示卷积运算层;
非线性逻辑sigmoid函数用于获得句子是否为正确的概率预测:
p=Sigmoid(f[s r o])p∈[0,1] (10)
对于训练模型参数,在分数上采用逻辑sigmoid函数,Sentence-RCNN使用自适应矩算法来训练三元组,其损失函数L计算公式如下:
其中,第一项是经验风险,第二项是正则化项,λ是L2正则化的超参数,用于调整经验风险和正则化之间的关系以平衡经验风险与模型复杂度;w是L2正则化的权重向量;l(s,r,o)为样例的标签,正例则为1,负例则为-1;K′是标签为-1的负例的集合,负例是通过破坏K中的正例而产生的。
负例对于训练嵌入模型至关重要,目前很少有研究者关注如何生成正确的负例,传统技术的模型从知识图谱所有实体中随机选择替换实体构造负例,由于实体的数量远大于关系数量,因此很容易选择正确的实例作为负例。因此,为了消除无关的实体,降低了错误负例的可能性,本发明中提出了负例的构造方法,具体包括以下步骤:
S411、采用不同的概率替换主语或者宾语以获得负例,对于1-N、N-1和N-N的关系,通过提供更多机会来取代连接实体少的一侧,具体而言,在关系r的所有三元组中,得到两个统计:1)每个主语连接的平均宾语数量,表示为ts;2)每个宾语连接的平均主语数量,表示为to。然后根据伯努利分布参数对每个正例的关系r进行采样,以概率替换三元组的主语,以概率替换三元组的宾语。
S412、在所有具有关系r的三元组中,统计两个数据:1)所有连接关系r的实体,表示为EC;2)未连接到关系r的候选实体,表示为ENC=E-EC。
S413、WN18RR的三元组(s,r,o)为正例,而训练过程中所需负例三元组(s′,r,o′)由正例(s,r,o)构成,从(s,r,o)中关系r的ENC中选择被破坏的实体s′或o′,继而减少了产生错误负例的可能性。
数据集WN18RR的EC和B的统计细节见表2。参数EC表示一些关系连接了大多数的实体,而其他实体仅连接很少的实体。B的变化反映了关系的映射属性的差异,即,1-N,N-1和N-N。
表2
Relation | E<sub>C</sub> | B |
hypernym | 36762 | 0.7817 |
derivationally_related_form | 16737 | 0.4998 |
instance_hypernym | 3034 | 0.8592 |
also_see | 1061 | 0.4732 |
member_meronym | 8173 | 0.2965 |
synset_domain_topic_of | 3447 | 0.9058 |
has_part | 5444 | 0.3314 |
member_of_domain_usage | 659 | 0.4038 |
member_of_domain_region | 1042 | 0.1155 |
verb_group | 1038 | 0.4994 |
similar_to | 82 | 0.5032 |
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于神经网络的知识图谱补全方法,其特征在于,定义知识图谱K={E,R,T},E代表实体,R代表实体之间的关系集合,T=(s,r,o)为三元组,T代表知识图谱K中若干正确的事实,s∈E表示主语,o∈E表示宾语,r∈R表示主语和宾语之间的关系,该方法包括以下步骤:
S1、在嵌入层将知识图谱K中的三元组(s,r,o)转换为句子[s r o],利用向量表示技术把句子[s r o]转换为k维稠密向量表示形式xi=[vs,vr,vo],其中xi表示由知识图谱K中第i个三元组转换而成的句子特征向量,vs,vr,vo分别表示s,r,o的k维向量;
S2、在循环层利用BiLSTM网络从输入特征向量xi中学习句子的长期依赖性,得到循环层特征向量hRNN;
S3、在卷积层利用卷积神经网络从特征向量hRNN中学习局部结构信息,得到卷积层特征向量hCNN;
S4、在全连接层将卷积层特征向量hCNN转化为每一个三元组(s,r,o)的得分。
2.根据权利要求1所述基于神经网络的知识图谱补全方法,其特征在于,步骤S2的具体方法为:
S21、基于LSTM网络的循环神经网络利用输入门it、遗忘门ft和输出门ot控制信息流,各门均通过使用当前输入xi,前一步骤产生的状态hi-1和当前状态输出后产生的状态ci-1来确定是否接受输入和忘记之前存储的信息,t代表第t个序列片段;LSTM网络由五部分组成,计算方式分别如下:
it=σ(wxixt+whiht-1+wcict-1+bi) (1)
ft=σ(wxfxt+whfht-1+wcfct-1+bf) (2)
ot=σ(wxoxt+whoht-1+wcoct-1+bo) (3)
ct=ittanh(wxcxt+whcht-1+wccct-1+bc)+ftct-1 (4)
ht=ottanh(ct) (5)
其中,式(1)、(2)、(3)中σ(·)代表sigmoid函数;
式(1)中wxi,whi,wci为输入门it中需要学习的权重矩阵,bi表示输入门it中的偏置向量;
式(2)中wxf,whf,wcf为遗忘门ft中需要学习的权重矩阵,bf表示遗忘门ft中的偏置向量;
式(3)中wxo,who,wco为输出门ot中需要学习的权重矩阵,bo表示输出门ot中的偏置向量;
式(4)中ct为当前时刻的候选状态,wxc,whc,wcc为ct中需要学习的权重矩阵,bc表示ct中的偏置向量;
式(5)中,通过将非线性变换后的ct与输出门ot进行点积操作,得到当前时刻的隐藏状态输出ht;
S22、LSTM网络按时间顺序处理特征向量xi,忽略了未来的文本信息,而BiLSTM网络通过引入循环层来扩展LSTM网络;BiLSTM网络包含用于左和右序列上下文特征学习的两个子LSTM网络,该网络通过不同数量隐藏单元β的前向传播和后向传播,获得前向隐藏状态和后向隐藏状态最后输出循环层特征向量hRNN:
其中是LSTM网络学习在不同方向特征向量xi后得到的隐藏状态,计算过程如S21,:表示连接操作,输出循环层特征向量hRNN包含了输入句子[s r o]的长期依赖性。
3.根据权利要求2所述基于神经网络的知识图谱补全方法,其特征在于,步骤S3的具体方法为:
卷积层在循环层特征向量hRNN上应用卷积从句子的每个部分获得局部结构信息;hRNN被送到该层,其中形状为N×3(N∈{1,2,3,...})的不同过滤器γ通过在hRNN的每一行上连续操作来生成不同的特征映射,在此层中,特征映射hCNN根据如下公式生成:
hCNN=ReLU(γ·hRNN+b) (8)
其中b∈R是偏置项,·是点积;卷积层特征向量hCNN学习了输入句子[s r o]的长期依赖性和局部结构信息。
4.根据权利要求3所述基于神经网络的知识图谱补全方法,其特征在于,步骤S4的具体方法为:
在全连接层将卷积层特征向量hCNN连接成单个向量,然后通过与权重向量点积,得到句子[s r o]的得分,Sentence-RCNN得分函数f[s r o]定义如下:
f[s r o]=concat(σ(γ*(β#[vs,vr,vo])))·w (9)
其中·表示点积,#表示循环运算层,*表示卷积运算层;
非线性逻辑sigmoid函数用于获得句子是否为正确的概率预测:
p=Sigmoid(f[s r o])p∈[0,1] (10)
对于训练模型参数,在分数上采用逻辑sigmoid函数,Sentence-RCNN使用自适应矩算法来训练三元组,其损失函数L计算公式如下:
其中,第一项是经验风险,第二项是正则化项,L2是正则化项,即损失函数L的第二项,λ是L2正则化的超参数,用于调整经验风险和正则化之间的关系以平衡经验风险与模型复杂度;w是L2正则化的权重向量;l(s,r,o)为样例的标签,正例则为1,负例则为-1;K′是标签为-1的负例的集合,负例是通过破坏K中的正例而产生的。
5.根据权利要求4所述基于神经网络的知识图谱补全方法,其特征在于,负例的构造方法具体包括以下步骤:
S411、采用不同的概率替换主语或者宾语以获得负例,对于1-N、N-1和N-N的关系,通过提供更多机会来取代连接实体少的一侧;
S412、在所有具有关系r的三元组中,统计两个数据:1)所有连接关系r的实体,表示为EC;2)未连接到关系r的候选实体,表示为ENC=E-EC;
S413、知识图谱中的三元组(s,r,o)为正例,而训练过程中所需负例三元组(s′,r,o′)由正例(s,r,o)构成,从(s,r,o)中关系r的ENC中选择被破坏的实体s′或0′,继而减少了产生错误负例的可能性。
6.根据权利要求5所述基于神经网络的知识图谱补全方法,其特征在于,步骤S411的具体方法为:
在关系r的所有三元组中,得到两个统计:1)每个主语连接的平均宾语数量,表示为ts;2)每个宾语连接的平均主语数量,表示为to;
然后根据伯努利分布参数对每个正例的关系r进行采样,以概率替换三元组的主语,以概率替换三元组的宾语。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910663022.9A CN110347847B (zh) | 2019-07-22 | 2019-07-22 | 基于神经网络的知识图谱补全方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910663022.9A CN110347847B (zh) | 2019-07-22 | 2019-07-22 | 基于神经网络的知识图谱补全方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110347847A true CN110347847A (zh) | 2019-10-18 |
CN110347847B CN110347847B (zh) | 2021-09-28 |
Family
ID=68179717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910663022.9A Expired - Fee Related CN110347847B (zh) | 2019-07-22 | 2019-07-22 | 基于神经网络的知识图谱补全方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110347847B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078896A (zh) * | 2019-12-18 | 2020-04-28 | 福州大学 | 基于prmatc算法的知识库补全方法 |
CN111159426A (zh) * | 2019-12-30 | 2020-05-15 | 武汉理工大学 | 一种基于图卷积神经网络的产业图谱融合方法 |
CN111177282A (zh) * | 2019-12-30 | 2020-05-19 | 福州大学 | 一种融入注意力机制的预测方法 |
CN111428674A (zh) * | 2020-04-02 | 2020-07-17 | 南开大学 | 一种保持多度量空间一致性的多损失联合训练方法 |
CN111582509A (zh) * | 2020-05-07 | 2020-08-25 | 南京邮电大学 | 一种基于知识图谱表示学习和神经网络的协同推荐方法 |
CN111639196A (zh) * | 2020-06-03 | 2020-09-08 | 核工业湖州工程勘察院有限公司 | 一种多层渐进增强的地灾知识图谱及其自动补全方法 |
CN111767412A (zh) * | 2020-09-02 | 2020-10-13 | 成都数联铭品科技有限公司 | 用于知识图谱构建的数据映射方法及系统、电子设备 |
CN112148891A (zh) * | 2020-09-25 | 2020-12-29 | 天津大学 | 一种基于图感知张量分解的知识图谱补全方法 |
CN112667820A (zh) * | 2020-12-08 | 2021-04-16 | 吉林省吉科软信息技术有限公司 | 全流程可追溯生态链监管知识图谱的深度学习构建方法 |
CN113127648A (zh) * | 2021-04-25 | 2021-07-16 | 北京百度网讯科技有限公司 | 数据验证方法和装置、电子设备、计算机可读介质 |
CN113360670A (zh) * | 2021-06-09 | 2021-09-07 | 山东大学 | 一种基于事实上下文的知识图谱补全方法及系统 |
CN113360664A (zh) * | 2021-05-31 | 2021-09-07 | 电子科技大学 | 一种知识图谱补全方法 |
CN113672741A (zh) * | 2021-08-19 | 2021-11-19 | 支付宝(杭州)信息技术有限公司 | 一种信息的处理方法、装置及设备 |
CN113934862A (zh) * | 2021-09-29 | 2022-01-14 | 北方工业大学 | 社区安全风险预测方法、装置、电子设备及介质 |
CN115062159A (zh) * | 2022-06-13 | 2022-09-16 | 西南交通大学 | 基于联邦学习的多粒度动态知识图谱嵌入模型构造方法 |
CN116402133A (zh) * | 2023-04-12 | 2023-07-07 | 中南大学 | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886543A (zh) * | 2015-12-16 | 2017-06-23 | 清华大学 | 结合实体描述的知识图谱表示学习方法和系统 |
CN107391623A (zh) * | 2017-07-07 | 2017-11-24 | 中国人民大学 | 一种融合多背景知识的知识图谱嵌入方法 |
CN107729497A (zh) * | 2017-10-20 | 2018-02-23 | 同济大学 | 一种基于知识图谱的词嵌入深度学习方法 |
CN108563653A (zh) * | 2017-12-21 | 2018-09-21 | 清华大学 | 一种用于知识图谱中知识获取模型的构建方法及系统 |
CN109376864A (zh) * | 2018-09-06 | 2019-02-22 | 电子科技大学 | 一种基于堆叠神经网络的知识图谱关系推理算法 |
CN109815345A (zh) * | 2019-02-25 | 2019-05-28 | 南京大学 | 一种基于路径的知识图谱嵌入方法 |
-
2019
- 2019-07-22 CN CN201910663022.9A patent/CN110347847B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886543A (zh) * | 2015-12-16 | 2017-06-23 | 清华大学 | 结合实体描述的知识图谱表示学习方法和系统 |
CN107391623A (zh) * | 2017-07-07 | 2017-11-24 | 中国人民大学 | 一种融合多背景知识的知识图谱嵌入方法 |
CN107729497A (zh) * | 2017-10-20 | 2018-02-23 | 同济大学 | 一种基于知识图谱的词嵌入深度学习方法 |
CN108563653A (zh) * | 2017-12-21 | 2018-09-21 | 清华大学 | 一种用于知识图谱中知识获取模型的构建方法及系统 |
CN109376864A (zh) * | 2018-09-06 | 2019-02-22 | 电子科技大学 | 一种基于堆叠神经网络的知识图谱关系推理算法 |
CN109815345A (zh) * | 2019-02-25 | 2019-05-28 | 南京大学 | 一种基于路径的知识图谱嵌入方法 |
Non-Patent Citations (1)
Title |
---|
王桢: "基于嵌入模型的知识图谱补全", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078896A (zh) * | 2019-12-18 | 2020-04-28 | 福州大学 | 基于prmatc算法的知识库补全方法 |
CN111078896B (zh) * | 2019-12-18 | 2022-06-21 | 福州大学 | 基于并行规则挖掘算法prmatc的知识库补全方法 |
CN111159426A (zh) * | 2019-12-30 | 2020-05-15 | 武汉理工大学 | 一种基于图卷积神经网络的产业图谱融合方法 |
CN111177282A (zh) * | 2019-12-30 | 2020-05-19 | 福州大学 | 一种融入注意力机制的预测方法 |
CN111159426B (zh) * | 2019-12-30 | 2023-04-18 | 武汉理工大学 | 一种基于图卷积神经网络的产业图谱融合方法 |
CN111428674A (zh) * | 2020-04-02 | 2020-07-17 | 南开大学 | 一种保持多度量空间一致性的多损失联合训练方法 |
CN111428674B (zh) * | 2020-04-02 | 2022-06-24 | 南开大学 | 一种保持多度量空间一致性的多损失联合训练方法 |
CN111582509A (zh) * | 2020-05-07 | 2020-08-25 | 南京邮电大学 | 一种基于知识图谱表示学习和神经网络的协同推荐方法 |
CN111582509B (zh) * | 2020-05-07 | 2022-09-02 | 南京邮电大学 | 一种基于知识图谱表示学习和神经网络的协同推荐方法 |
CN111639196B (zh) * | 2020-06-03 | 2022-03-15 | 核工业湖州勘测规划设计研究院股份有限公司 | 一种多层渐进增强的地灾知识图谱及其自动补全方法 |
CN111639196A (zh) * | 2020-06-03 | 2020-09-08 | 核工业湖州工程勘察院有限公司 | 一种多层渐进增强的地灾知识图谱及其自动补全方法 |
CN111767412A (zh) * | 2020-09-02 | 2020-10-13 | 成都数联铭品科技有限公司 | 用于知识图谱构建的数据映射方法及系统、电子设备 |
CN112148891A (zh) * | 2020-09-25 | 2020-12-29 | 天津大学 | 一种基于图感知张量分解的知识图谱补全方法 |
CN112667820B (zh) * | 2020-12-08 | 2023-04-18 | 吉林省吉科软信息技术有限公司 | 全流程可追溯生态链监管知识图谱的深度学习构建方法 |
CN112667820A (zh) * | 2020-12-08 | 2021-04-16 | 吉林省吉科软信息技术有限公司 | 全流程可追溯生态链监管知识图谱的深度学习构建方法 |
CN113127648A (zh) * | 2021-04-25 | 2021-07-16 | 北京百度网讯科技有限公司 | 数据验证方法和装置、电子设备、计算机可读介质 |
CN113360664B (zh) * | 2021-05-31 | 2022-03-25 | 电子科技大学 | 一种知识图谱补全方法 |
CN113360664A (zh) * | 2021-05-31 | 2021-09-07 | 电子科技大学 | 一种知识图谱补全方法 |
CN113360670A (zh) * | 2021-06-09 | 2021-09-07 | 山东大学 | 一种基于事实上下文的知识图谱补全方法及系统 |
CN113360670B (zh) * | 2021-06-09 | 2022-06-17 | 山东大学 | 一种基于事实上下文的知识图谱补全方法及系统 |
CN113672741A (zh) * | 2021-08-19 | 2021-11-19 | 支付宝(杭州)信息技术有限公司 | 一种信息的处理方法、装置及设备 |
CN113934862B (zh) * | 2021-09-29 | 2022-10-14 | 北方工业大学 | 社区安全风险预测方法、装置、电子设备及介质 |
CN113934862A (zh) * | 2021-09-29 | 2022-01-14 | 北方工业大学 | 社区安全风险预测方法、装置、电子设备及介质 |
CN115062159A (zh) * | 2022-06-13 | 2022-09-16 | 西南交通大学 | 基于联邦学习的多粒度动态知识图谱嵌入模型构造方法 |
CN115062159B (zh) * | 2022-06-13 | 2024-05-24 | 西南交通大学 | 基于联邦学习的多粒度事件预警动态知识图谱嵌入模型构造方法 |
CN116402133A (zh) * | 2023-04-12 | 2023-07-07 | 中南大学 | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 |
CN116402133B (zh) * | 2023-04-12 | 2024-04-30 | 中南大学 | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110347847B (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110347847A (zh) | 基于神经网络的知识图谱补全方法 | |
CN110334219B (zh) | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 | |
CN109639710B (zh) | 一种基于对抗训练的网络攻击防御方法 | |
CN111753101B (zh) | 一种融合实体描述及类型的知识图谱表示学习方法 | |
Yang et al. | Improving shape retrieval by learning graph transduction | |
CN110046252B (zh) | 一种基于注意力机制神经网络与知识图谱的医疗文本分级方法 | |
CN113535953B (zh) | 一种基于元学习的少样本分类方法 | |
CN105469096A (zh) | 一种基于哈希二值编码的特征袋图像检索方法 | |
CN112732921B (zh) | 一种虚假用户评论检测方法及系统 | |
CN110647620A (zh) | 一种基于置信超平面和词典信息的知识图谱表示学习方法 | |
CN112559734B (zh) | 简报生成方法、装置、电子设备及计算机可读存储介质 | |
WO2023155508A1 (zh) | 一种基于图卷积神经网络和知识库的论文相关性分析方法 | |
CN110598022B (zh) | 一种基于鲁棒深度哈希网络的图像检索系统与方法 | |
CN115587594B (zh) | 网络安全的非结构化文本数据抽取模型训练方法及系统 | |
CN111506732A (zh) | 一种文本多层次标签分类方法 | |
CN111460157A (zh) | 用于多领域文本分类的循环卷积多任务学习方法 | |
CN113179276B (zh) | 基于显式和隐含特征学习的智能入侵检测方法和系统 | |
CN114925205B (zh) | 基于对比学习的gcn-gru文本分类方法 | |
CN117291265B (zh) | 一种基于文本大数据的知识图谱构建方法 | |
CN115168579A (zh) | 一种基于多头注意力机制和二维卷积操作的文本分类方法 | |
CN115204171A (zh) | 基于超图神经网络的文档级事件抽取方法及系统 | |
Zhu et al. | Configurable graph reasoning for visual relationship detection | |
CN112668633B (zh) | 一种基于细粒度领域自适应的图迁移学习方法 | |
Cai et al. | Semantic and correlation disentangled graph convolutions for multilabel image recognition | |
CN114239584A (zh) | 一种基于自监督学习的命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210928 |
|
CF01 | Termination of patent right due to non-payment of annual fee |