CN112667824A - 基于多语义学习的知识图谱补全方法 - Google Patents

基于多语义学习的知识图谱补全方法 Download PDF

Info

Publication number
CN112667824A
CN112667824A CN202110059002.8A CN202110059002A CN112667824A CN 112667824 A CN112667824 A CN 112667824A CN 202110059002 A CN202110059002 A CN 202110059002A CN 112667824 A CN112667824 A CN 112667824A
Authority
CN
China
Prior art keywords
entity
embedding
entities
network
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110059002.8A
Other languages
English (en)
Other versions
CN112667824B (zh
Inventor
尹宝才
王家普
胡永利
孙艳丰
王博岳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110059002.8A priority Critical patent/CN112667824B/zh
Publication of CN112667824A publication Critical patent/CN112667824A/zh
Application granted granted Critical
Publication of CN112667824B publication Critical patent/CN112667824B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了基于多语义学习的知识图谱补全方法,将实体e1和r分别先通过多个转换矩阵学习到多个隐藏的语义表示。在前面的知识图嵌入捕捉实体和关系多个隐藏语义的步骤中,得到对同一实体或关系的多个特征嵌入。利用深度残差注意力网络优化实体和关系的嵌入。引入去噪网络优化实体嵌入和关系嵌入。接下来先简述去噪网络的结构。引入多步融合的过程来充分融合实体和关系;本发明提出来的深度残差注意力网络,能有效减少引入多个隐藏语义带来大量噪声的问题。同时去噪网络和多步融合网络能充分融合实体和关系,来得到最符合的预测结果。

Description

基于多语义学习的知识图谱补全方法
技术领域
本发明适用于知识领域知识图谱补全技术,尤其涉及一种基于多语义学习的知识图谱补全方法。
背景技术
知识图作为人类知识的集合,已经成为人工智能(AI)和自然语言处理(NLP)应用的重要资源,如问题回答、网络搜索和语义分析等。知识表示,特别是知识嵌入,是知识利用的基础步骤。知识图谱的嵌入是为了学习一种连续的映射,将一个结构化的知识图谱的实体和关系嵌入到一个向量空间中。知识图谱嵌入有多种应用,如关系提取、问题回答、规范化、推荐系统、对话系统等。
知识图谱是事实的结构化的表示,其在知识图可以表示成三元组的集合(h,r,t),其中r表示头实体h和尾实体t之间的关系。大多数知识图谱,如Freebase[1],WordNet[2],YAGO[3]等,已经包含数百万甚至数十亿的三元组,但仍远未完成,因为新兴出现的新知识。因此,该问题产生了知识库完成、实体识别和链接预测等任务。
知识图谱补全(Knowledge Graph Completion,KGC)任务旨在减少知识图谱中的知识缺失,提高知识图谱中知识的完备程度。因此,若能将知识图谱中的这些知识补全,对于提升搜索引擎的语义搜索精度、完善知识问答和智能推荐系统的服务质量具有重要的价值。近年来,各种不同的知识图谱补全方法被提出,这些方法大致分为以下三类,即基于距离的模型,基于语义匹配的模型和基于卷积神经网络的模型。
(1)基于距离的模型
这些方法的主要思想是先将实体和关系映射到同一空间,之后将关系视为从头实体到尾实体的转换。
TransH在2014年提出,该方法将实体映射到特定关系的超平面上,来满足不同关系下的实体表示,再进行转换操作。TransR于2016年提出,该方法针对每个关系学习一个映射矩阵,然后把实体映射到特定关系空间中。
(2)基于语义匹配的模型
基于语义匹配的模型提出更复杂的操作,寻找实体和关系之间的语义联系。
DistMult在2014年提出,该方法使用使用加权元素点积来定义分数函数。打分函数定义为fr(h,t)=∑hkrktk。ComplEx在2016年提出,ComplEx是DistMult的一个改进版本,它利用复数嵌入和Hermitian点积来解决反对称问题,而它在反对称关系上的性能比TransE或DistMult差。ATTH在2020年提出,该方法利用双曲线嵌入方法来捕获层次和逻辑模式。打分函数可以被定义为:
Figure BDA0002901788320000021
其中Q(h,r)是双曲注意力机制。
(3)基于卷积神经网络的模型
基于卷积的模型,该模型提出利用卷积来提升模型的表达能力,CNN的多层结构具有表达能力强、参数效率高的优点。
基于卷积神经网络的模型主要包括ConvE(2018),HypER(2019),等。ConvE在2018年提出,该方法使用卷积神经网络(CNN)对实体和关系之间的交互进行建模,增强了实体和关系嵌入之间的交互,从而学习更好的表示。打分函数表示为:fr(h,t)=f(vec(f([h;r*w]))W)t。HypER在2019年提出,该方法把实体作为特征图,关系重构成卷积核的形式进行卷积操作。该模型的打分函数被定义为:fr(h,t)=f(vec(h*vec-1(wrH))W)t。InteractE在2020年提出,该方法通过feature permutation,checkered feature reshaping,以及circular convolution来增强模型表达能力。该方法打分函数表示为:fr(h,t)=concat(g([h,r,t]*Ω))w。
现有的方法虽然已经取得了很大的进步,但仍存在一些具有挑战性的问题有待解决。首先是一词多义的问题。对于实体或者关系应该具有多种语义,而不同的语义应该具有不同的特征表示,以及特征交互不充分问题。针对这两个问题,提出的解决方案有:(1)通过多语义学习来进行知识图谱嵌入。(2)增强实体和关系特征之间的交互。
发明内容
同一个实体或者关系有多种语义,而不同语义应该具有不同的特征表示。比如,对于两个三元组(Apple,taste,delicious)与(Apple,software,ios),同一个实体Apple,具有不同的语义,应该通过不同的特征表示来表达。所以本文通过学习多种语义表达来进行知识图谱嵌入。通过引入深度残差注意力模块,联合注意力,门控注意力网络,以及去噪模块来对实体和关系特征进行学习。
本发明通过提出的模型能使实体和关系的特征表示更加准确,以及提升实体和关系的交互能力。
所提的模型的框架如附图1所示。对于实体和关系,首先通过不同的变换矩阵来捕获它们的多个隐藏语义信息。然后,通过深度残差注意力网络的结构以及实体和关系之间的联合注意来捕捉实体和关系间的交互影响,得到更有判别性的特征。最后通过了去噪网络和基于残差网络的多步融合结构来优化特征表示及融合实体和关系的特征。
步骤一:实体和关系的多重嵌入;
首先,将实体e1和r分别先通过多个转换矩阵学习到多个隐藏的语义表示。知识图嵌入的目的是将实体和关系嵌入到连续的低维空间中,同时保持知识图的关系和语义。当实体数为ne,关系数为nr,则实体和关系独热编码的维度分别为ne和nr,实体和关系的嵌入维数为d。即通过
Figure BDA0002901788320000031
实体的嵌入矩阵,
Figure BDA0002901788320000032
关系的嵌入矩阵来实现,其中i和j是实体和关系需要学习语义参数的个数i∈1,2,3…,n,j∈1,2,3…,m。在本发明中,头实体e1和关系r分别对应于高维的独热向量Xe和Xr,接着分别对头实体e1和关系r通过多个嵌入矩阵Cei和Crj嵌入到d维空间,分别得到e1i和rj的嵌入表示为:
Figure BDA0002901788320000033
步骤二:深度残差注意力网络;
在前面的知识图嵌入捕捉实体和关系多个隐藏语义的步骤中,得到对同一实体或关系的多个特征嵌入。接着,本步骤利用深度残差注意力网络优化实体和关系的嵌入。深度残差注意力网络结构由1×1卷积层、ReLU层和softmax归一化层组成,预测每个输入特征的注意力权重,然后是输入特征的加权求和层。深度残差注意力网络减少了对外部信息的依赖,更擅长捕获特征的内部相关性。
在本发明中,首先对于关系的多个隐藏语义特征是r1,r2,...,rm,每一个特征rj表示一个通道。如图1所示,第一个1×1卷积层实现跨信道交互和信息整合,这一步捕获概念之间内在的相关性。ReLU激活函数增加了模型的非线性和表达能力。第二层1×1卷积层将通道数减小到1,然后通过softmax函数生成注意力权重图mr。Softmax操作将注意力权重图的每个元素设置在0到1之间,这些元素和为1。最后通过输入特征的加权求和操作得到关系特征r,该过程表示为:
Figure BDA0002901788320000041
其中,
Figure BDA00029017883200000412
表示对应元素的乘积。
通过深度残差注意力网络生成关系嵌入向量
Figure BDA00029017883200000413
然后将关系嵌入向量
Figure BDA00029017883200000414
对实体的每个语义特征进行联合注意操作。与实体关系的联合注意力过程表示为:
Figure BDA0002901788320000042
其中,σ表示sigmoid非线性激活函数。
Figure BDA0002901788320000043
表示关系对实体联合注意力操作之后的实体特征表示。
在关系对实体进行联合注意力过程后,对实体嵌入向量
Figure BDA0002901788320000044
上进行深度残差注意力网络,过程与关系一样。实体通过深度残差注意力网络,生成实体特征向量
Figure BDA0002901788320000045
实体的权值求和过程表示为:
Figure BDA0002901788320000046
接下来,将gate结构引入到的模型中,以优化关系的特征表示。gate结构是LSTM的核心机制,在许多应用中被发现非常成功。gate是一种选择性地让信息通过的方法。如图1中的模块所示,gate由具有sigmoid激活功能的层和Hadamard product操作层组成。Gate结构表示为:
Figure BDA0002901788320000047
b,W表示偏差和权重矩阵。[;]表示向量拼接操作。Sigmoid操作将f的每个元素设置在0到1之间,描述应该允许通过多少信息。然后,一个gate使用Hadamardproduct来过滤信息,如公式(6)所示:
Figure BDA0002901788320000048
步骤三:去噪网络
本步骤将引入去噪网络优化实体嵌入
Figure BDA0002901788320000049
和关系嵌入
Figure BDA00029017883200000410
接下来先简述去噪网络的结构。假设m=(m1,m2,m3,...,ml)T是特征向量。对特征元素间进行差分操作之后投射到一个新的向量n=(n1,n2,n3,...,nz)T。n中的每个元素计算如下:
Figure BDA00029017883200000411
其中,i,j∈[1,l],k∈[1,z],
Figure BDA0002901788320000051
是可学习的参数。公式(7)写成矩阵形式为:
nk=mTW(k)1-mT(W(k))T1 (8)
其中,W(k)∈Rl×l是可学习的参数,1∈Rl是全1向量。
其中nk是向量n里的一个特征元素,因此在向量n中这个权值参数为W∈Rl×l×z。而对于三阶张量会引入参数爆炸的问题的同时,加重训练负担,因此引入张量分解。
Figure BDA0002901788320000052
其中,Us∈Rl×z和Vs∈Rl×z是权值参数;S是超参数;
Figure BDA0002901788320000057
是Hadamard乘积。
最终,向量n∈Rz表示为:
Figure BDA0002901788320000053
因此,把从m到n的映射过程表示为去噪过程,表示为:
n=DN(m) (11)
最后,实体和关系通过去噪网络之后表示为:
Figure BDA0002901788320000054
Figure BDA0002901788320000055
步骤四:多步融合
本步骤引入多步融合的过程来充分融合实体和关系,多步融合过程表示为:
Figure BDA0002901788320000056
其中,τ是softmax函数。W1和W2是可学习的映射参数矩阵。conv(x,y)函数表示在2019年HypER模型引入的卷积方法,即把x当作特征图,y重构成卷积核的形式进行卷积的操作。
步骤五:打分函数
本发明的知识图谱嵌入的打分函数表示为:
Figure BDA0002901788320000061
其中,conv()是卷积操作,
Figure BDA0002901788320000062
是深度残差注意力网络,vec-1是向量到矩阵的映射操作。
对于训练过程,使用Adam优化器来最小化交叉熵损失函数。
与现有技术相比较,虽然现有的方法取得了很大的进展,但仍存在一些具有挑战性的问题。比如实体或关系的多重语义问题。事实上,大多数实体或关系在实践中有许多不同的语义。例如,实体apple在不同的三元组(apple,taste,delicious)和(apple,software,ios)中明显表达了不同的语义,那么不同的语义在嵌入空间里应该具有不同的特征表示。然而,在目前的方法中,由于一个实体在嵌入空间中通常只有一个表示形式,所以很难处理这种情况。而本发明能够学习多种特征向量来表达多种不同的语义。同时本发明提出来的深度残差注意力网络,能有效减少引入多个隐藏语义带来大量噪声的问题。同时去噪网络和多步融合网络能充分融合实体和关系,来得到最符合的预测结果。
附图说明
图1:基于多语义学习的知识图谱补全研究主流程图。
图2:基于多语义学习的知识图谱补全模型图。
具体实施方式
以下结合附图和实施例对本发明进行详细说明。
实验
评估的模型在下列几个公共数据集上:
表1.数据集列表.
Figure BDA0002901788320000063
WN18:是Wordnet的子集,是一个包含单词之间的词汇关系的数据库。
FB15k:是Freebase的一个子集,是一个关于真实世界事实的大型数据库。
WN18RR:是WN18的一个子集,由Dettmers等人通过删除WN18的逆关系而创建。
FB15k-237:是由Toutanova等人创建的,注意到FB15k和WN18的验证和测试集包含了训练集中存在许多的逆关系,对于简单的模型更有利。FB15k-237是FB15k的一个子集,去掉了逆关系。
1、评估指标
本实验共采用4种评价标准对该知识图谱补全模型进行评估,分别为平均倒数秩(MRR),Hit@10,Hit@3,以及Hit@1。平均倒数秩(MRR)取所有测试三元组中分配给真三元组的倒数秩的平均值。Hit@k测量真实三元组出现在排名前k的三元组中的案例的百分比。总体而言,实验目标是实现高平均倒数秩(MRR)和Hit@k。
2、实验结果
实验一:链路预测
表2.在WN18RR和FB15k-237数据集上的链路预测
Figure BDA0002901788320000071
表3.在WN18和FB15k数据集上的链路预测结果
Figure BDA0002901788320000081
实验二:不同关系下实验性能
表4.WN18RR中不同关系的数量和性能
Figure BDA0002901788320000082

Claims (2)

1.基于多语义学习的知识图谱补全方法,其特征在于:该方法包括如下步骤,
步骤一:实体和关系的多重嵌入;
将实体e1和r分别先通过多个转换矩阵学习到多个隐藏的语义表示;知识图嵌入的目的是将实体和关系嵌入到连续的低维空间中,保持知识图的关系和语义;当实体数为ne,关系数为nr,则实体和关系独热编码的维度分别为ne和nr,实体和关系的嵌入维数为d;即通过
Figure FDA0002901788310000011
实体的嵌入矩阵,
Figure FDA0002901788310000012
关系的嵌入矩阵来实现,其中i和j是实体和关系需要学习语义参数的个数i∈1,2,3…,n,j∈1,2,3…,m;头实体e1和关系r分别对应于高维的独热向量Xe和Xr,接着分别对头实体e1和关系r通过多个嵌入矩阵Cei和Crj嵌入到d维空间,分别得到e1i和rj的嵌入表示为:
Figure FDA0002901788310000013
步骤二:深度残差注意力网络;
在前面的知识图嵌入捕捉实体和关系多个隐藏语义的步骤中,得到对同一实体或关系的多个特征嵌入;利用深度残差注意力网络优化实体和关系的嵌入;深度残差注意力网络结构由1×1卷积层、ReLU层和softmax归一化层组成,预测每个输入特征的注意力权重,然后是输入特征的加权求和层;
对于关系的多个隐藏语义特征是r1,r2,...,rm,每一个特征rj表示一个通道;通过输入特征的加权求和操作得到关系特征
Figure FDA0002901788310000014
表示为:
Figure FDA0002901788310000015
其中,
Figure FDA0002901788310000016
表示对应元素的乘积;
通过深度残差注意力网络生成关系嵌入向量
Figure FDA0002901788310000017
然后将关系嵌入向量
Figure FDA0002901788310000018
对实体的每个语义特征进行联合注意操作;与实体关系的联合注意力过程表示为:
Figure FDA0002901788310000019
其中,σ表示sigmoid非线性激活函数;
Figure FDA00029017883100000110
表示关系对实体联合注意力操作之后的实体特征表示;
在关系对实体进行联合注意力过程后,对实体嵌入向量
Figure FDA00029017883100000111
上进行深度残差注意力网络,过程与关系一样;实体通过深度残差注意力网络,生成实体特征向量
Figure FDA0002901788310000021
实体的权值求和过程表示为:
Figure FDA0002901788310000022
将gate结构引入到的模型中,以优化关系的特征表示;gate结构是LSTM的核心机制,在许多应用中被发现非常成功;gate由具有sigmoid激活功能的层和Hadamardproduct操作层组成;Gate结构表示为:
Figure FDA0002901788310000023
b,W表示偏差和权重矩阵;[;]表示向量拼接操作;Sigmoid操作将f的每个元素设置在0到1之间;一个gate使用Hadamard product来过滤信息,如公式(6)所示:
Figure FDA0002901788310000024
步骤三:去噪网络
将引入去噪网络优化实体嵌入
Figure FDA0002901788310000025
和关系嵌入
Figure FDA0002901788310000026
假设m=(m1,m2,m3,...,ml)T是特征向量;对特征元素间进行差分操作之后投射到一个新的向量n=(n1,n2,n3,...,nz)T;n中的每个元素计算如下:
Figure FDA0002901788310000027
其中,i,j∈[1,l],k∈[1,z],
Figure FDA0002901788310000028
是可学习的参数;公式(7)写成矩阵形式为:
nk=mT W(k)1-mT(W(k))T1 (8)
其中,W(k)∈Rl×l是可学习的参数,1∈Rl是全1向量;
其中nk是向量n里的一个特征元素,在向量n中这个权值参数为W∈Rl×l×z;而对于三阶张量会引入参数爆炸的问题的同时,加重训练负担,引入张量分解;
Figure FDA0002901788310000029
其中,Us∈Rl×z和Vs∈Rl×z是权值参数;S是超参数;
Figure FDA00029017883100000210
是Hadamard乘积;
最终,向量n∈Rz表示为:
Figure FDA0002901788310000031
因此,把从m到n的映射过程表示为去噪过程,表示为:
n=DN(m) (11)
最后,实体和关系通过去噪网络之后表示为:
Figure FDA0002901788310000032
Figure FDA0002901788310000033
步骤四:多步融合
引入多步融合的过程来充分融合实体和关系,多步融合过程表示为:
Figure FDA0002901788310000034
其中,τ是softmax函数;W1和W2是可学习的映射参数矩阵;conv(x,y)函数表示在2019年HypER模型引入的卷积方法,即把x当作特征图,y重构成卷积核的形式进行卷积的操作;
步骤五:打分函数
知识图谱嵌入的打分函数表示为:
Figure FDA0002901788310000035
其中,conv()是卷积操作,
Figure FDA0002901788310000036
是深度残差注意力网络,vec-1是向量到矩阵的映射操作;对于训练过程,使用Adam优化器来最小化交叉熵损失函数。
2.根据权利要求1所述的基于多语义学习的知识图谱补全方法,其特征在于:
第一个1×1卷积层实现跨信道交互和信息整合,捕获概念之间内在的相关性;ReLU激活函数增加了模型的非线性和表达能力;第二层1×1卷积层将通道数减小到1,然后通过softmax函数生成注意力权重图mr;Softmax操作将注意力权重图的每个元素设置在0到1之间,这些元素和为1。
CN202110059002.8A 2021-01-17 2021-01-17 基于多语义学习的知识图谱补全方法 Active CN112667824B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110059002.8A CN112667824B (zh) 2021-01-17 2021-01-17 基于多语义学习的知识图谱补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110059002.8A CN112667824B (zh) 2021-01-17 2021-01-17 基于多语义学习的知识图谱补全方法

Publications (2)

Publication Number Publication Date
CN112667824A true CN112667824A (zh) 2021-04-16
CN112667824B CN112667824B (zh) 2024-03-15

Family

ID=75415457

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110059002.8A Active CN112667824B (zh) 2021-01-17 2021-01-17 基于多语义学习的知识图谱补全方法

Country Status (1)

Country Link
CN (1) CN112667824B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113204647A (zh) * 2021-04-29 2021-08-03 哈尔滨工程大学 一种基于联合权重的编码解码框架知识图谱嵌入方法
CN113569773A (zh) * 2021-08-02 2021-10-29 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN114880527A (zh) * 2022-06-09 2022-08-09 哈尔滨工业大学(威海) 一种基于多预测任务的多模态知识图谱表示方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977234A (zh) * 2019-03-28 2019-07-05 哈尔滨工程大学 一种基于主题关键词过滤的知识图谱补全方法
CN110147450A (zh) * 2019-05-06 2019-08-20 北京科技大学 一种知识图谱的知识补全方法及装置
CN110334219A (zh) * 2019-07-12 2019-10-15 电子科技大学 基于注意力机制融入文本语义特征的知识图谱表示学习方法
CN111949764A (zh) * 2020-08-18 2020-11-17 桂林电子科技大学 一种基于双向注意力机制的知识图谱补全方法
CN112035672A (zh) * 2020-07-23 2020-12-04 深圳技术大学 一种知识图谱补全方法、装置、设备以及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977234A (zh) * 2019-03-28 2019-07-05 哈尔滨工程大学 一种基于主题关键词过滤的知识图谱补全方法
CN110147450A (zh) * 2019-05-06 2019-08-20 北京科技大学 一种知识图谱的知识补全方法及装置
CN110334219A (zh) * 2019-07-12 2019-10-15 电子科技大学 基于注意力机制融入文本语义特征的知识图谱表示学习方法
CN112035672A (zh) * 2020-07-23 2020-12-04 深圳技术大学 一种知识图谱补全方法、装置、设备以及存储介质
CN111949764A (zh) * 2020-08-18 2020-11-17 桂林电子科技大学 一种基于双向注意力机制的知识图谱补全方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113204647A (zh) * 2021-04-29 2021-08-03 哈尔滨工程大学 一种基于联合权重的编码解码框架知识图谱嵌入方法
CN113569773A (zh) * 2021-08-02 2021-10-29 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN113569773B (zh) * 2021-08-02 2023-09-15 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN114880527A (zh) * 2022-06-09 2022-08-09 哈尔滨工业大学(威海) 一种基于多预测任务的多模态知识图谱表示方法

Also Published As

Publication number Publication date
CN112667824B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
CN112667824B (zh) 基于多语义学习的知识图谱补全方法
CN112529168B (zh) 一种基于gcn的属性多层网络表示学习方法
CN111737535B (zh) 一种基于元结构和图神经网络的网络表征学习方法
CN110083770B (zh) 一种基于特征层面更深的自注意力网络的序列推荐方法
CN112417219A (zh) 基于超图卷积的超边链接预测方法
CN113919441A (zh) 一种基于超图变换网络的分类方法
Dai et al. MRGAT: multi-relational graph attention network for knowledge graph completion
CN116821776B (zh) 一种基于图自注意力机制的异质图网络节点分类方法
CN111259264B (zh) 一种基于生成对抗网络的时序评分预测方法
CN116401380B (zh) 面向异构知识图谱的对比学习预测方法及系统
CN116386899A (zh) 基于图学习的药物疾病关联关系预测方法及相关设备
CN115129884A (zh) 基于语义交互匹配网络的知识图谱补全方法及系统
Jiang et al. An intelligent recommendation approach for online advertising based on hybrid deep neural network and parallel computing
CN114781503A (zh) 一种基于深度特征融合的点击率预估方法
CN117173702A (zh) 基于深度特征图融合的多视图多标记学习方法
CN117131933A (zh) 一种多模态知识图谱建立方法及应用
Sun et al. Self-organization preserved graph structure learning with principle of relevant information
CN115757897A (zh) 一种基于知识图卷积网络的文化资源智能推荐方法
CN115689639A (zh) 一种基于深度学习的商业广告点击率预测方法
CN115408536A (zh) 一种基于上下文信息融合的知识图谱补全方法
CN113205175A (zh) 一种基于互信息最大化的多层属性网络表征学习方法
CN114625871B (zh) 一种基于注意力位置联合编码的三元组分类方法
Horn Similarity encoder: A neural network architecture for learning similarity preserving embeddings
Yuan et al. AGKE: Improve Knowledge Graph Embedding by Adaptively Generating Kernel
CN115587254A (zh) 一种基于卷积和外积的协同过滤方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant