CN106228245A - 基于变分推断和张量神经网络的知识库补全方法 - Google Patents

基于变分推断和张量神经网络的知识库补全方法 Download PDF

Info

Publication number
CN106228245A
CN106228245A CN201610578882.9A CN201610578882A CN106228245A CN 106228245 A CN106228245 A CN 106228245A CN 201610578882 A CN201610578882 A CN 201610578882A CN 106228245 A CN106228245 A CN 106228245A
Authority
CN
China
Prior art keywords
tensor
lambda
ijk
knowledge base
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610578882.9A
Other languages
English (en)
Other versions
CN106228245B (zh
Inventor
徐增林
贺丽荣
刘斌
李广西
盛泳潘
王雅芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201610578882.9A priority Critical patent/CN106228245B/zh
Publication of CN106228245A publication Critical patent/CN106228245A/zh
Application granted granted Critical
Publication of CN106228245B publication Critical patent/CN106228245B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Abstract

本发明公开了一种基于变分推断和张量神经网络的知识库补全方法,在知识库补全方法中引入了张量分解思想和贝叶斯框架,考虑了隐含变量的先验知识,探讨了隐含变量两两之间的相互作用,并用神经网络进行了非线性的表达,增加了对不确定性的考虑,较为明显的提高了知识库补全方法的精度,与现有的技术相比有了较大的提升。

Description

基于变分推断和张量神经网络的知识库补全方法
技术领域
本发明属于知识库补全技术领域,具体涉及一种基于变分推断和张量神经网络的知识库补全方法的设计。
背景技术
知识库补全是知识库中一个重要的研究课题,在问答系统,信息检索等一些应用中扮演着重要的角色。知识库用三元组(subject,relation,object)表示数据信息,是一种揭示实体之间的语义网络,虽然存储着海量的信息,但有相当大的一部分信息是缺失的,隐含在其中,所以当用户进行搜索时,可能发出的请求在知识库中不能找到相对应的答案,为了解决这一问题,相关研究者基于已经存在的三元组,提出了一系列的学习算法,来增强用户的搜索体验。
目前已有的学习算法有Rescal,NTN,transE,transR等等,Rescal算法是较早的一个模型,考虑的是成对实体之间的简单的交互信息,transE模型是一个三角形模型,根据实体差和关系的距离来对知识库进行补全,NTN(Neural Tensor Networks,张量神经网络)算法提出了神经网络的思想,成对考虑的是实体之间在关系的每个维度上的交互信息,包括一阶信息,二阶信息和三阶信息,较之前模型相对复杂,尽管这些算法很成功,但是这些模型都没有探讨实体,关系两两成对的交互,同时忽略了实体和关系的先验知识,即没有引入贝叶斯的框架,而他们的先验知识对模型的准确性有很重要的作用,同时他们不擅长对不确定三元组的预测建模。
发明内容
本发明的目的是为了解决现有的知识库补全技术忽略了实体和关系的先验知识,并且没有考虑隐含变量之间成对的互交信息的问题,提出了一种基于变分推断和张量神经网络的知识库补全方法。
本发明的技术方案为:基于变分推断和张量神经网络的知识库补全方法,包括以下步骤:
S1、根据知识库中的三元组(ei,ej,rk),构造张量Y;
S2、根据张量Y,在一个隐含张量X的条件下构造一个似然函数p(Y|X);
S3、将隐含张量X中的每个元素xijk用两层神经网络表示;
S4、给三元组(ei,ej,rk)中的隐含实体变量和隐含关系变量一个高斯先验;
S5、根据贝叶斯框架,假设三元组(ei,ej,rk)中的隐含实体变量和隐含关系变量的后验分布为高斯分布;
S6、根据变分推断,最大化ELOB来近似后验高斯分布,采用SGVB方法优化ELOB,并用随机梯度求解。
进一步地,步骤S1具体为:
假设知识库中的实体个数为N,关系个数为M,构造的张量Y∈RN×N×M,RN×N×M为维数是N×N×M的三维实数空间;若知识库中三元组(ei,ej,rk)存在,则张量Y的各维度上的下标对应的元素yijk为1,否则yijk为0。
进一步地,步骤S2具体为:
根据张量Y,在一个隐含张量X的条件下构造一个似然函数p(Y|X):
p ( Y | X ) = Π i = 1 N Π j = 1 N Π k = 1 M [ B e r ( y i j k | σ ( x i j k ; α ) ) ] I i j k - - - ( 1 )
其中Ber(yijk|σ(xijk;α))是伯努利分布,它的均值是σ(xijk;α),而σ(xijk;α)是sigmoid函数,具体形式为Iijk是一个指示变量,三元组(ei,ej,rk)在训练数据中存在的话,Iijk值为1,否则Iijk值为0。
进一步地,步骤S3具体为:
将隐含张量X中的每个元素xijk用两层神经网络表示,具体表示为:
xijk=wThijk+b0 (2)
其中w为权重向量,b0表示一个线性偏差;ei,ej,rk∈Rd×1,b∈RK×1,w∈RK×d,W1,W2,W3∈RK×d,K为关系用向量表示之后的维度,d为实体用向量表示之后的维度; 是神经网络表示中的权重和偏差;f(·)是激活函数。
进一步地,步骤S4具体为:
三元组(ei,ej,rk)中每个隐含实体变量和每个隐含关系变量都有先验知识,假设隐含实体变量和隐含关系变量均为高斯分布,具体形式如下:
p ( e i | μ i , λ i ) = N ( e i | μ E , d i a g ( λ E - 1 ) ) - - - ( 3 )
p ( r k | μ k , λ k ) = N ( r k | μ R , d i a g ( λ R - 1 ) ) - - - ( 4 )
其中,p(·)为先验的概率密度函数,N(·)为高斯分布的概率密度函数;μii分别表示ei的先验概率密度函数的参数,其值分别为μE,μkk分别表示rk的先验概率密度函数的参数,其值分别为μR,分别表示高斯分布的协方差矩阵。
进一步地,步骤S5具体为:
根据贝叶斯框架,三元组(ei,ej,rk)中每个隐含实体变量和每个隐含关系变量的后验分布服从高斯分布,具体形式如下:
q ( e i | μ ~ i , λ ~ i ) = N ( e i | μ ~ i , d i a g ( λ ~ i - 1 ) ) - - - ( 5 )
q ( r k | μ ~ k , λ ~ k ) = N ( r k | μ ~ k , d i a g ( λ ~ k - 1 ) ) - - - ( 6 )
其中,q(·)为后验的概率密度函数,N(·)为高斯分布的概率密度函数;分别表示ei的后验概率密度函数的参数,分别表示rk的后验概率密度函数的参数;分别表示高斯分布的协方差矩阵。
进一步地,步骤S6具体为:
根据变分推断,近似后验高斯分布的时候需要最大化下界ELOB,表示为:
logp(xi|θ)≥L(q(z|xi,φ),θ) (7)
其中xi代表的是第i个数据,L(·)代表的是最大化下界ELOB函数,θ为ELOB的参数,z表示隐含变量,φ为z后验概率密度函数的参数;
L ( q ( z | x i , φ ) , θ ) = - K L ( q ( z | x i , φ ) | | p ( z | θ ) ) + E q ( z | x i , φ ) [ log q ( z | x i , φ ) ] - - - ( 8 )
采用SGVB方法将ELOB第二项期望项进行简化,引入一个可微的转换和噪声ε,形式如下:z=gφ(ε),ε~p(ε),则公式(8)可重新表示为:
L ( q ( z | x i , φ ) , θ ) = 1 L Σ l = 1 L log p ( x i | z ( i , l ) , θ ) - K L ( q ( z | x i , φ ) | | p ( z | θ ) ) - - - ( 9 )
其中z(i,l)=gφ(ε),ε~p(ε);假设z=gφ(ε)=μ+diag(λ-1/2)ε,下界ELOB形式变为:
L ( Θ , Φ | Y ) = Σ l = 1 L Σ i = 1 N Σ j = 1 N Σ k = 1 M I i j k L log B e r ( y i j k | σ ( l ) ( x i j k ; α ) ) - Σ i = 1 N K L [ q ( e i | μ ~ i , λ ~ i ) | | p ( e i | μ E , λ E ) ] - Σ j = 1 N K L [ q ( e j | μ ~ j , λ ~ j ) | | p ( e j | μ E , λ E ) ] - Σ k = 1 M K L [ q ( r k | μ ~ k , λ ~ k ) | | p ( e k | μ R , λ R ) ] - - - ( 10 )
其中 分别表示ej的后验概率密度函数的参数,μER值为0,λER设定为I;
采用随机梯度上升算法求解,不断更新参数Θ,Φ,直到收敛停止。
本发明的有益效果是:本发明通过在基于变分推断和张量神经网络的知识库补全方法中增加了贝叶斯框架,考虑了隐含变量的先验知识,引入了张量思想,探讨了隐含变量两两之间的相互作用,并加入神经网络非线性表达,可以较为准确的表达现有知识库的真实情况,同时在精度方面本发明相较于现有的知识库学习算法有了较大的提升。
附图说明
图1为本发明提供的基于变分推断和张量神经网络的知识库补全方法流程图。
图2为本发明实施例的隐含变量实体、关系以及用数据构建的三维张量模型图。
图3为Wordnet数据集上本发明和NTN的精度测试结果统计图。
图4为Freebase数据集上本发明和NTN的精度测试结果统计图。
具体实施方式
下面结合附图对本发明的实施例作进一步的说明。
本发明提供了一种基于变分推断和张量神经网络的知识库补全方法,如图1所示,包括以下步骤:
S1、根据知识库中的三元组(ei,ej,rk),构造张量Y。
其中,ei代表三元组中的subject,指的是第i个实体;ej代表三元组中的object,指的是第j个实体,rk代表三元组中的ralation,指的是第k个关系。
假设知识库中的实体个数为N,关系个数为M,构造的张量Y∈RN×N×M,RN×N×M为维数是N×N×M的三维实数空间;若知识库中三元组(ei,ej,rk)存在,则张量Y的各维度上的下标对应的元素yijk为1,否则yijk为0。
S2、根据张量Y,在一个隐含张量X的条件下构造一个似然函数p(Y|X):
p ( Y | X ) = Π i = 1 N Π j = 1 N Π k = 1 M [ B e r ( y i j k | σ ( x i j k ; α ) ) ] I i j k - - - ( 1 )
其中Ber(yijk|σ(xijk;α))是伯努利分布,它的均值是σ(xijk;α),而σ(xijk;α)是sigmoid函数,具体形式为Iijk是一个指示变量,三元组(ei,ej,rk)在训练数据中存在的话,Iijk值为1,否则Iijk值为0。这一步的意义在于把连续隐含变量xijk通过伯努利分布变成离散变量yijk,如图2所示。
S3、将隐含张量X中的每个元素xijk用两层神经网络表示,具体表示为:
xijk=wThijk+b0 (2)
其中w为权重向量,b0表示一个线性偏差;ei,ej,rk∈Rd×1,b∈RK×1,w∈RK×d,W1,W2,W3∈RK×d,K为关系用向量表示之后的维度,d为实体用向量表示之后的维度; 是神经网络表示中的权重和偏差;f(·)是激活函数。本发明实施例中,f(·)采用双曲正切函数tanh(·)。
本发明中,xijk表示的时候考虑了三元组(ei,ej,rk)中三个隐含变量两两成对交互的信息,同时用神经网络进行非线性的表示,更贴近真实世界,更准确的计算了三元组存在的可能性。
S4、给三元组(ei,ej,rk)中的隐含实体变量和隐含关系变量一个高斯先验。
三元组(ei,ej,rk)中每个隐含实体变量和每个隐含关系变量都有先验知识,假设隐含实体变量和隐含关系变量均为高斯分布,具体形式如下:
p ( e i | μ i , λ i ) = N ( e i | μ E , d i a g ( λ E - 1 ) ) - - - ( 3 )
p ( r k | μ k , λ k ) = N ( r k | μ R , d i a g ( λ R - 1 ) ) - - - ( 4 )
其中,p(·)为先验的概率密度函数,N(·)为高斯分布的概率密度函数;μii分别表示ei的先验概率密度函数的参数,其值分别为μE,μkk分别表示rk的先验概率密度函数的参数,其值分别为μR,分别表示高斯分布的协方差矩阵。
在实际中求解过程中,隐含实体变量和隐含关系变量是均值为0,协方差矩阵为I的高斯先验(I代表单位矩阵,即对角元素为1其他元素为0的矩阵)。
S5、根据贝叶斯框架,假设三元组(ei,ej,rk)中的隐含实体变量和隐含关系变量的后验分布为高斯分布。
根据贝叶斯框架,三元组(ei,ej,rk)中每个隐含实体变量和每个隐含关系变量的后验分布服从高斯分布,具体形式如下:
q ( e i | μ ~ i , λ ~ i ) = N ( e i | μ ~ i , d i a g ( λ ~ i - 1 ) ) - - - ( 5 )
q ( r k | μ ~ k , λ ~ k ) = N ( r k | μ ~ k , d i a g ( λ ~ k - 1 ) ) - - - ( 6 )
其中,q(·)为后验的概率密度函数,N(·)为高斯分布的概率密度函数;分别表示ei的后验概率密度函数的参数,分别表示rk的后验概率密度函数的参数;分别表示高斯分布的协方差矩阵。
S6、根据变分推断,最大化ELOB来近似后验高斯分布,采用SGVB方法优化ELOB,并用随机梯度求解。
根据变分推断,近似后验高斯分布的时候需要最大化下界ELOB,表示为:
logp(xi|θ)≥L(q(z|xi,φ),θ) (7)
其中xi代表的是第i个数据,L(·)代表的是最大化下界ELOB函数,θ为ELOB的参数,z表示隐含变量,φ为z后验概率密度函数的参数。
L ( q ( z | x i , φ ) , θ ) = - K L ( q ( z | x i , φ ) | | p ( z | θ ) ) + E q ( z | x i , φ ) [ log q ( z | x i , φ ) ] - - - ( 8 )
在一般情况下,ELOB第二项期望项是很难求的,所以我们引入了Stochastic Gradient Variational Bayes(SGVB)Estimator方法,这个方法可以把第二项的期望项简化,使求解过程变得很容易:
引入一个可微的转换和噪声ε,形式如下:z=gφ(ε),ε~p(ε),则公式(8)可重新表示为:
L ( q ( z | x i , φ ) , θ ) = 1 L Σ l = 1 L log p ( x i | z ( i , l ) , θ ) - K L ( q ( z | x i , φ ) | | p ( z | θ ) ) - - - ( 9 )
其中z(i,l)=gφ(ε),ε~p(ε);假设z=gφ(ε)=μ+diag(λ-1/2)ε,下界ELOB形式变为:
L ( Θ , Φ | Y ) = Σ l = 1 L Σ i = 1 N Σ j = 1 N Σ k = 1 M I i j k L log B e r ( y i j k | σ ( l ) ( x i j k ; α ) ) - Σ i = 1 N K L [ q ( e i | μ ~ i , λ ~ i ) | | p ( e i | μ E , λ E ) ] - Σ j = 1 N K L [ q ( e j | μ ~ j , λ ~ j ) | | p ( e j | μ E , λ E ) ] - Σ k = 1 M K L [ q ( r k | μ ~ k , λ ~ k ) | | p ( e k | μ R , λ R ) ] - - - ( 10 )
其中 分别表示ej的后验概率密度函数的参数,μER值为0,λER设定为I。
采用随机梯度上升算法求解,不断更新参数Θ,Φ,直到收敛停止。
本发明在精度方面相较于现有的知识库学习算法有了较大的提升,具体表现如下:
如图3所示,在知识库Wordnet上进行实验,可见本发明与现有的NTN(NeuralTensor Networks,张量神经网络)算法相比,在实例、成员、地域、同义词、主题域五个关系上的精度测试结果均有提升。
如图4所示,在知识库Freebase上进行实验,可见本发明与现有的NTN(NeuralTensor Networks,张量神经网络)算法相比,在职业、死亡原因、宗教信仰三个关系上的精度测试结果大致相同,在性别和制度两个关系上的精度测试结果有比较明显的提升。
如下表所示,分别在知识库Wordnet以及Freebase上进行实验,可见本发明与现有的三种知识库学习算法TransE、TransR以及NTN相比,其精度测试结果均有比较明显的提升。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (7)

1.基于变分推断和张量神经网络的知识库补全方法,其特征在于,包括以下步骤:
S1、根据知识库中的三元组(ei,ej,rk),构造张量Y;
S2、根据张量Y,在一个隐含张量X的条件下构造一个似然函数p(Y|X);
S3、将隐含张量X中的每个元素xijk用两层神经网络表示;
S4、给三元组(ei,ej,rk)中的隐含实体变量和隐含关系变量一个高斯先验;
S5、根据贝叶斯框架,假设三元组(ei,ej,rk)中的隐含实体变量和隐含关系变量的后验分布为高斯分布;
S6、根据变分推断,最大化ELOB来近似后验高斯分布,采用SGVB方法优化ELOB,并用随机梯度求解。
2.根据权利要求1所述的基于变分推断和张量神经网络的知识库补全方法,其特征在于,所述步骤S1具体为:
假设知识库中的实体个数为N,关系个数为M,构造的张量Y∈RN×N×M,RN×N×M为维数是N×N×M的三维实数空间;若知识库中三元组(ei,ej,rk)存在,则张量Y的各维度上的下标对应的元素yijk为1,否则yijk为0。
3.根据权利要求2所述的基于变分推断和张量神经网络的知识库补全方法,其特征在于,所述步骤S2具体为:
根据张量Y,在一个隐含张量X的条件下构造一个似然函数p(Y|X):
p ( Y | X ) = Π i = 1 N Π j = 1 N Π k = 1 M [ B e r ( y i j k | σ ( x i j k ; α ) ) ] I i j k - - - ( 1 )
其中Ber(yijk|σ(xijk;α))是伯努利分布,它的均值是σ(xijk;α),而σ(xijk;α)是sigmoid函数,具体形式为Iijk是一个指示变量,三元组(ei,ej,rk)在训练数据中存在的话,Iijk值为1,否则Iijk值为0。
4.根据权利要求3所述的基于变分推断和张量神经网络的知识库补全方法,其特征在于,所述步骤S3具体为:
将隐含张量X中的每个元素xijk用两层神经网络表示,具体表示为:
xijk=wThijk+b0 (2)
其中w为权重向量,b0表示一个线性偏差;ei,ej,rk∈Rd×1,b∈RK×1,w∈RK×d,W1,W2,W3∈RK×d,K为关系用向量表示之后的维度,d为实体用向量表示之后的维度; 是神经网络表示中的权重和偏差;f(·)是激活函数。
5.根据权利要求4所述的基于变分推断和张量神经网络的知识库补全方法,其特征在于,所述步骤S4具体为:
三元组(ei,ej,rk)中每个隐含实体变量和每个隐含关系变量都有先验知识,假设隐含实体变量和隐含关系变量均为高斯分布,具体形式如下:
p ( e i | μ i , λ i ) = N ( e i | μ E , d i a g ( λ E - 1 ) ) - - - ( 3 )
p ( r k | μ k , λ k ) = N ( r k | μ R , d i a g ( λ R - 1 ) ) - - - ( 4 )
其中,p(·)为先验的概率密度函数,N(·)为高斯分布的概率密度函数;μii分别表示ei的先验概率密度函数的参数,其值分别为μE,μkk分别表示rk的先验概率密度函数的参数,其值分别为μR, 分别表示高斯分布的协方差矩阵。
6.根据权利要求5所述的基于变分推断和张量神经网络的知识库补全方法,其特征在于,所述步骤S5具体为:
根据贝叶斯框架,三元组(ei,ej,rk)中每个隐含实体变量和每个隐含关系变量的后验分布服从高斯分布,具体形式如下:
q ( e i | μ ~ i , λ ~ i ) = N ( e i | μ ~ i , d i a g ( λ ~ i - 1 ) ) - - - ( 5 )
q ( r k | μ ~ k , λ ~ k ) = N ( r k | μ ~ k , d i a g ( λ ~ k - 1 ) ) - - - ( 6 )
其中,q(·)为后验的概率密度函数,N(·)为高斯分布的概率密度函数;分别表示ei的后验概率密度函数的参数,分别表示rk的后验概率密度函数的参数;分别表示高斯分布的协方差矩阵。
7.根据权利要求6所述的基于变分推断和张量神经网络的知识库补全方法,其特征在于,所述步骤S6具体为:
根据变分推断,近似后验高斯分布的时候需要最大化下界ELOB,表示为:
logp(xi|θ)≥L(q(z|xi,φ),θ) (7)
其中xi代表的是第i个数据,L(·)代表的是最大化下界ELOB函数,θ为ELOB的参数,z表示隐含变量,φ为z后验概率密度函数的参数;
L ( q ( z | x i , φ ) , θ ) = - K L ( q ( z | x i , φ ) | | p ( z | θ ) ) + E q ( z | x i , φ ) [ log q ( z | x i , φ ) ] - - - ( 8 )
采用SGVB方法将ELOB第二项期望项进行简化,引入一个可微的转换和噪声ε,形式如下:z=gφ(ε),ε~p(ε),则公式(8)可重新表示为:
L ( q ( z | x i , φ ) , θ ) = 1 L Σ l = 1 L log p ( x i | z ( i , l ) , θ ) - K L ( q ( z | x i , φ ) | | p ( z | θ ) ) - - - ( 9 )
其中z(i,l)=gφ(ε),ε~p(ε);假设z=gφ(ε)=μ+diag(λ-1/2)ε,下界ELOB形式变为:
L ( Θ , Φ | Y ) = Σ l = 1 L Σ i = 1 N Σ j = 1 N Σ k = 1 M I i j k L log B e r ( y i j k | σ ( l ) ( x i j k ; α ) ) - Σ i = 1 N K L [ q ( e i | μ ~ i , λ ~ i ) | | p ( e i | μ E , λ E ) ] - Σ j = 1 N K L [ q ( e j | μ ~ j , λ ~ j ) | | p ( e j | μ E , λ E ) ] - Σ k = 1 M K L [ q ( r k | μ ~ k , λ ~ k ) | | p ( e k | μ R , λ R ) ] - - - ( 10 )
其中 分别表示ej的后验概率密度函数的参数, μER值为0,λER设定为I;
采用随机梯度上升算法求解,不断更新参数Θ,Φ,直到收敛停止。
CN201610578882.9A 2016-07-21 2016-07-21 基于变分推断和张量神经网络的知识库补全方法 Active CN106228245B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610578882.9A CN106228245B (zh) 2016-07-21 2016-07-21 基于变分推断和张量神经网络的知识库补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610578882.9A CN106228245B (zh) 2016-07-21 2016-07-21 基于变分推断和张量神经网络的知识库补全方法

Publications (2)

Publication Number Publication Date
CN106228245A true CN106228245A (zh) 2016-12-14
CN106228245B CN106228245B (zh) 2018-09-04

Family

ID=57532033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610578882.9A Active CN106228245B (zh) 2016-07-21 2016-07-21 基于变分推断和张量神经网络的知识库补全方法

Country Status (1)

Country Link
CN (1) CN106228245B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491500A (zh) * 2017-07-28 2017-12-19 中国人民大学 一种强适应性的知识库补全方法
CN107622129A (zh) * 2017-09-29 2018-01-23 咪咕文化科技有限公司 一种知识库的组织方法及装置、计算机存储介质
CN107644147A (zh) * 2016-07-20 2018-01-30 百度(美国)有限责任公司 从多个结果确定充分原因的系统和方法
CN107657390A (zh) * 2017-10-13 2018-02-02 滁州学院 一种特种设备安全隐患管控大数据监测系统及监测方法
CN110555208A (zh) * 2018-06-04 2019-12-10 北京三快在线科技有限公司 一种信息查询中的歧义消除方法、装置及电子设备
CN111027700A (zh) * 2019-12-18 2020-04-17 福州大学 基于wcur算法的知识库补全方法
CN111191460A (zh) * 2019-12-30 2020-05-22 福州大学 一种结合逻辑规则和碎片化知识的关系预测方法
CN111340186A (zh) * 2020-02-17 2020-06-26 之江实验室 基于张量分解的压缩表示学习方法
CN113935258A (zh) * 2021-10-15 2022-01-14 北京百度网讯科技有限公司 计算流体动力学加速方法、装置、设备以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509327A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 一种图像空洞填补的多尺度全局采样方法
CN102592135A (zh) * 2011-12-16 2012-07-18 温州大学 融合目标空间分布和时序分布特征子空间的视觉跟踪方法
US8346708B2 (en) * 2009-01-22 2013-01-01 Nec Laboratories America, Inc. Social network analysis with prior knowledge and non-negative tensor factorization
CN102957608A (zh) * 2012-12-10 2013-03-06 北京科技大学 一种容迟容断网络的路由算法
US9208440B2 (en) * 2012-05-29 2015-12-08 Battelle Memorial Institute Method of analyzing a scenario represented as elements of a tensor space, and scored using tensor operators
US20160125048A1 (en) * 2014-10-31 2016-05-05 Kabushiki Kaisha Toshiba Item recommendation device, item recommendation method, and computer program product

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8346708B2 (en) * 2009-01-22 2013-01-01 Nec Laboratories America, Inc. Social network analysis with prior knowledge and non-negative tensor factorization
CN102509327A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 一种图像空洞填补的多尺度全局采样方法
CN102592135A (zh) * 2011-12-16 2012-07-18 温州大学 融合目标空间分布和时序分布特征子空间的视觉跟踪方法
US9208440B2 (en) * 2012-05-29 2015-12-08 Battelle Memorial Institute Method of analyzing a scenario represented as elements of a tensor space, and scored using tensor operators
CN102957608A (zh) * 2012-12-10 2013-03-06 北京科技大学 一种容迟容断网络的路由算法
US20160125048A1 (en) * 2014-10-31 2016-05-05 Kabushiki Kaisha Toshiba Item recommendation device, item recommendation method, and computer program product

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FRANCESCO BANDIERA等: "KNOWLEDGE-AIDED BAYESIAN COVARIANCE MATRIX ESTIMATION IN COMPOUND-GAUSSIAN CLUTTER", 《IEEE》 *
唐鑫等: "基于变分贝叶斯学习的音频水印盲检测方法", 《通信学报》 *
徐定杰等: "混合高斯分布的变分贝叶斯学习参数估计", 《上海交通大学学报》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107644147A (zh) * 2016-07-20 2018-01-30 百度(美国)有限责任公司 从多个结果确定充分原因的系统和方法
CN107644147B (zh) * 2016-07-20 2021-05-07 百度(美国)有限责任公司 从多个结果确定充分原因的系统和方法
CN107491500A (zh) * 2017-07-28 2017-12-19 中国人民大学 一种强适应性的知识库补全方法
CN107491500B (zh) * 2017-07-28 2020-01-10 中国人民大学 一种强适应性的知识库补全方法
CN107622129B (zh) * 2017-09-29 2020-03-24 咪咕文化科技有限公司 一种知识库的组织方法及装置、计算机存储介质
CN107622129A (zh) * 2017-09-29 2018-01-23 咪咕文化科技有限公司 一种知识库的组织方法及装置、计算机存储介质
CN107657390A (zh) * 2017-10-13 2018-02-02 滁州学院 一种特种设备安全隐患管控大数据监测系统及监测方法
CN110555208A (zh) * 2018-06-04 2019-12-10 北京三快在线科技有限公司 一种信息查询中的歧义消除方法、装置及电子设备
CN111027700A (zh) * 2019-12-18 2020-04-17 福州大学 基于wcur算法的知识库补全方法
CN111191460A (zh) * 2019-12-30 2020-05-22 福州大学 一种结合逻辑规则和碎片化知识的关系预测方法
CN111191460B (zh) * 2019-12-30 2023-01-03 福州大学 一种结合逻辑规则和碎片化知识的关系预测方法
CN111340186A (zh) * 2020-02-17 2020-06-26 之江实验室 基于张量分解的压缩表示学习方法
CN111340186B (zh) * 2020-02-17 2022-10-21 之江实验室 基于张量分解的压缩表示学习方法
CN113935258A (zh) * 2021-10-15 2022-01-14 北京百度网讯科技有限公司 计算流体动力学加速方法、装置、设备以及存储介质
CN113935258B (zh) * 2021-10-15 2022-05-20 北京百度网讯科技有限公司 计算流体动力学加速方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN106228245B (zh) 2018-09-04

Similar Documents

Publication Publication Date Title
CN106228245A (zh) 基于变分推断和张量神经网络的知识库补全方法
Guo et al. A pseudoinverse learning algorithm for feedforward neural networks with stacked generalization applications to software reliability growth data
Xu Induced uncertain linguistic OWA operators applied to group decision making
Ghaseminezhad et al. A novel self-organizing map (SOM) neural network for discrete groups of data clustering
CN106528610A (zh) 一种基于路径张量分解的知识图谱表示学习方法
CN109299262A (zh) 一种融合多粒度信息的文本蕴含关系识别方法
Li et al. Consistent stabilizability of switched Boolean networks
Giovanis et al. Bayesian updating with subset simulation using artificial neural networks
Zhang et al. Finite automata approach to observability of switched Boolean control networks
CN107220525A (zh) 基于rnn的基因调控网络构建与动态差异性分析方法
Wang et al. Fuzzy opinion networks: A mathematical framework for the evolution of opinions and their uncertainties across social networks
CN113190688A (zh) 基于逻辑推理和图卷积的复杂网络链接预测方法及系统
Ignjatovic et al. Bisimulations in fuzzy social network analysis
Cavallo et al. Preservation of preferences intensity of an inconsistent pairwise comparison matrix
Cliff Complete orders from incomplete data: Interactive ordering and tailored testing.
Otani et al. Quality control of crowdsourced classification using hierarchical class structures
Zhang et al. An improved noise loss correction algorithm for learning from noisy labels
CN114077659A (zh) 一种基于邻居交互网络的知识图谱问答方法及系统
CN113987203A (zh) 一种基于仿射变换与偏置建模的知识图谱推理方法与系统
Guo et al. Stable degree analysis for strategy profiles of evolutionary networked games
Huang SIS epidemic model-based optimization
Paulson et al. Cooperation can emerge in prisoner’s dilemma from a multi-species predator prey replicator dynamic
Ackleh et al. Competitive exclusion and coexistence for a quasilinear size-structured population model
Chang Sequential confidence regions of generalized linear models with adaptive designs
Kuwahara et al. Predicting COVID-19 pandemic waves with biologically and behaviorally informed universal differential equations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant