CN112667824A - 基于多语义学习的知识图谱补全方法 - Google Patents
基于多语义学习的知识图谱补全方法 Download PDFInfo
- Publication number
- CN112667824A CN112667824A CN202110059002.8A CN202110059002A CN112667824A CN 112667824 A CN112667824 A CN 112667824A CN 202110059002 A CN202110059002 A CN 202110059002A CN 112667824 A CN112667824 A CN 112667824A
- Authority
- CN
- China
- Prior art keywords
- entity
- embedding
- entities
- network
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 238000007499 fusion processing Methods 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims abstract description 5
- 238000003780 insertion Methods 0.000 claims abstract description 3
- 230000037431 insertion Effects 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 230000009901 attention process Effects 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 238000004880 explosion Methods 0.000 claims description 2
- 230000010354 integration Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000005457 optimization Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 2
- 239000012458 free base Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000002585 base Substances 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了基于多语义学习的知识图谱补全方法,将实体e1和r分别先通过多个转换矩阵学习到多个隐藏的语义表示。在前面的知识图嵌入捕捉实体和关系多个隐藏语义的步骤中,得到对同一实体或关系的多个特征嵌入。利用深度残差注意力网络优化实体和关系的嵌入。引入去噪网络优化实体嵌入和关系嵌入。接下来先简述去噪网络的结构。引入多步融合的过程来充分融合实体和关系;本发明提出来的深度残差注意力网络,能有效减少引入多个隐藏语义带来大量噪声的问题。同时去噪网络和多步融合网络能充分融合实体和关系,来得到最符合的预测结果。
Description
技术领域
本发明适用于知识领域知识图谱补全技术,尤其涉及一种基于多语义学习的知识图谱补全方法。
背景技术
知识图作为人类知识的集合,已经成为人工智能(AI)和自然语言处理(NLP)应用的重要资源,如问题回答、网络搜索和语义分析等。知识表示,特别是知识嵌入,是知识利用的基础步骤。知识图谱的嵌入是为了学习一种连续的映射,将一个结构化的知识图谱的实体和关系嵌入到一个向量空间中。知识图谱嵌入有多种应用,如关系提取、问题回答、规范化、推荐系统、对话系统等。
知识图谱是事实的结构化的表示,其在知识图可以表示成三元组的集合(h,r,t),其中r表示头实体h和尾实体t之间的关系。大多数知识图谱,如Freebase[1],WordNet[2],YAGO[3]等,已经包含数百万甚至数十亿的三元组,但仍远未完成,因为新兴出现的新知识。因此,该问题产生了知识库完成、实体识别和链接预测等任务。
知识图谱补全(Knowledge Graph Completion,KGC)任务旨在减少知识图谱中的知识缺失,提高知识图谱中知识的完备程度。因此,若能将知识图谱中的这些知识补全,对于提升搜索引擎的语义搜索精度、完善知识问答和智能推荐系统的服务质量具有重要的价值。近年来,各种不同的知识图谱补全方法被提出,这些方法大致分为以下三类,即基于距离的模型,基于语义匹配的模型和基于卷积神经网络的模型。
(1)基于距离的模型
这些方法的主要思想是先将实体和关系映射到同一空间,之后将关系视为从头实体到尾实体的转换。
TransH在2014年提出,该方法将实体映射到特定关系的超平面上,来满足不同关系下的实体表示,再进行转换操作。TransR于2016年提出,该方法针对每个关系学习一个映射矩阵,然后把实体映射到特定关系空间中。
(2)基于语义匹配的模型
基于语义匹配的模型提出更复杂的操作,寻找实体和关系之间的语义联系。
DistMult在2014年提出,该方法使用使用加权元素点积来定义分数函数。打分函数定义为fr(h,t)=∑hkrktk。ComplEx在2016年提出,ComplEx是DistMult的一个改进版本,它利用复数嵌入和Hermitian点积来解决反对称问题,而它在反对称关系上的性能比TransE或DistMult差。ATTH在2020年提出,该方法利用双曲线嵌入方法来捕获层次和逻辑模式。打分函数可以被定义为:其中Q(h,r)是双曲注意力机制。
(3)基于卷积神经网络的模型
基于卷积的模型,该模型提出利用卷积来提升模型的表达能力,CNN的多层结构具有表达能力强、参数效率高的优点。
基于卷积神经网络的模型主要包括ConvE(2018),HypER(2019),等。ConvE在2018年提出,该方法使用卷积神经网络(CNN)对实体和关系之间的交互进行建模,增强了实体和关系嵌入之间的交互,从而学习更好的表示。打分函数表示为:fr(h,t)=f(vec(f([h;r*w]))W)t。HypER在2019年提出,该方法把实体作为特征图,关系重构成卷积核的形式进行卷积操作。该模型的打分函数被定义为:fr(h,t)=f(vec(h*vec-1(wrH))W)t。InteractE在2020年提出,该方法通过feature permutation,checkered feature reshaping,以及circular convolution来增强模型表达能力。该方法打分函数表示为:fr(h,t)=concat(g([h,r,t]*Ω))w。
现有的方法虽然已经取得了很大的进步,但仍存在一些具有挑战性的问题有待解决。首先是一词多义的问题。对于实体或者关系应该具有多种语义,而不同的语义应该具有不同的特征表示,以及特征交互不充分问题。针对这两个问题,提出的解决方案有:(1)通过多语义学习来进行知识图谱嵌入。(2)增强实体和关系特征之间的交互。
发明内容
同一个实体或者关系有多种语义,而不同语义应该具有不同的特征表示。比如,对于两个三元组(Apple,taste,delicious)与(Apple,software,ios),同一个实体Apple,具有不同的语义,应该通过不同的特征表示来表达。所以本文通过学习多种语义表达来进行知识图谱嵌入。通过引入深度残差注意力模块,联合注意力,门控注意力网络,以及去噪模块来对实体和关系特征进行学习。
本发明通过提出的模型能使实体和关系的特征表示更加准确,以及提升实体和关系的交互能力。
所提的模型的框架如附图1所示。对于实体和关系,首先通过不同的变换矩阵来捕获它们的多个隐藏语义信息。然后,通过深度残差注意力网络的结构以及实体和关系之间的联合注意来捕捉实体和关系间的交互影响,得到更有判别性的特征。最后通过了去噪网络和基于残差网络的多步融合结构来优化特征表示及融合实体和关系的特征。
步骤一:实体和关系的多重嵌入;
首先,将实体e1和r分别先通过多个转换矩阵学习到多个隐藏的语义表示。知识图嵌入的目的是将实体和关系嵌入到连续的低维空间中,同时保持知识图的关系和语义。当实体数为ne,关系数为nr,则实体和关系独热编码的维度分别为ne和nr,实体和关系的嵌入维数为d。即通过实体的嵌入矩阵,关系的嵌入矩阵来实现,其中i和j是实体和关系需要学习语义参数的个数i∈1,2,3…,n,j∈1,2,3…,m。在本发明中,头实体e1和关系r分别对应于高维的独热向量Xe和Xr,接着分别对头实体e1和关系r通过多个嵌入矩阵Cei和Crj嵌入到d维空间,分别得到e1i和rj的嵌入表示为:
步骤二:深度残差注意力网络;
在前面的知识图嵌入捕捉实体和关系多个隐藏语义的步骤中,得到对同一实体或关系的多个特征嵌入。接着,本步骤利用深度残差注意力网络优化实体和关系的嵌入。深度残差注意力网络结构由1×1卷积层、ReLU层和softmax归一化层组成,预测每个输入特征的注意力权重,然后是输入特征的加权求和层。深度残差注意力网络减少了对外部信息的依赖,更擅长捕获特征的内部相关性。
在本发明中,首先对于关系的多个隐藏语义特征是r1,r2,...,rm,每一个特征rj表示一个通道。如图1所示,第一个1×1卷积层实现跨信道交互和信息整合,这一步捕获概念之间内在的相关性。ReLU激活函数增加了模型的非线性和表达能力。第二层1×1卷积层将通道数减小到1,然后通过softmax函数生成注意力权重图mr。Softmax操作将注意力权重图的每个元素设置在0到1之间,这些元素和为1。最后通过输入特征的加权求和操作得到关系特征r,该过程表示为:
接下来,将gate结构引入到的模型中,以优化关系的特征表示。gate结构是LSTM的核心机制,在许多应用中被发现非常成功。gate是一种选择性地让信息通过的方法。如图1中的模块所示,gate由具有sigmoid激活功能的层和Hadamard product操作层组成。Gate结构表示为:
b,W表示偏差和权重矩阵。[;]表示向量拼接操作。Sigmoid操作将f的每个元素设置在0到1之间,描述应该允许通过多少信息。然后,一个gate使用Hadamardproduct来过滤信息,如公式(6)所示:
步骤三:去噪网络
本步骤将引入去噪网络优化实体嵌入和关系嵌入接下来先简述去噪网络的结构。假设m=(m1,m2,m3,...,ml)T是特征向量。对特征元素间进行差分操作之后投射到一个新的向量n=(n1,n2,n3,...,nz)T。n中的每个元素计算如下:
nk=mTW(k)1-mT(W(k))T1 (8)
其中,W(k)∈Rl×l是可学习的参数,1∈Rl是全1向量。
其中nk是向量n里的一个特征元素,因此在向量n中这个权值参数为W∈Rl×l×z。而对于三阶张量会引入参数爆炸的问题的同时,加重训练负担,因此引入张量分解。
最终,向量n∈Rz表示为:
因此,把从m到n的映射过程表示为去噪过程,表示为:
n=DN(m) (11)
最后,实体和关系通过去噪网络之后表示为:
步骤四:多步融合
本步骤引入多步融合的过程来充分融合实体和关系,多步融合过程表示为:
其中,τ是softmax函数。W1和W2是可学习的映射参数矩阵。conv(x,y)函数表示在2019年HypER模型引入的卷积方法,即把x当作特征图,y重构成卷积核的形式进行卷积的操作。
步骤五:打分函数
本发明的知识图谱嵌入的打分函数表示为:
对于训练过程,使用Adam优化器来最小化交叉熵损失函数。
与现有技术相比较,虽然现有的方法取得了很大的进展,但仍存在一些具有挑战性的问题。比如实体或关系的多重语义问题。事实上,大多数实体或关系在实践中有许多不同的语义。例如,实体apple在不同的三元组(apple,taste,delicious)和(apple,software,ios)中明显表达了不同的语义,那么不同的语义在嵌入空间里应该具有不同的特征表示。然而,在目前的方法中,由于一个实体在嵌入空间中通常只有一个表示形式,所以很难处理这种情况。而本发明能够学习多种特征向量来表达多种不同的语义。同时本发明提出来的深度残差注意力网络,能有效减少引入多个隐藏语义带来大量噪声的问题。同时去噪网络和多步融合网络能充分融合实体和关系,来得到最符合的预测结果。
附图说明
图1:基于多语义学习的知识图谱补全研究主流程图。
图2:基于多语义学习的知识图谱补全模型图。
具体实施方式
以下结合附图和实施例对本发明进行详细说明。
实验
评估的模型在下列几个公共数据集上:
表1.数据集列表.
WN18:是Wordnet的子集,是一个包含单词之间的词汇关系的数据库。
FB15k:是Freebase的一个子集,是一个关于真实世界事实的大型数据库。
WN18RR:是WN18的一个子集,由Dettmers等人通过删除WN18的逆关系而创建。
FB15k-237:是由Toutanova等人创建的,注意到FB15k和WN18的验证和测试集包含了训练集中存在许多的逆关系,对于简单的模型更有利。FB15k-237是FB15k的一个子集,去掉了逆关系。
1、评估指标
本实验共采用4种评价标准对该知识图谱补全模型进行评估,分别为平均倒数秩(MRR),Hit@10,Hit@3,以及Hit@1。平均倒数秩(MRR)取所有测试三元组中分配给真三元组的倒数秩的平均值。Hit@k测量真实三元组出现在排名前k的三元组中的案例的百分比。总体而言,实验目标是实现高平均倒数秩(MRR)和Hit@k。
2、实验结果
实验一:链路预测
表2.在WN18RR和FB15k-237数据集上的链路预测
表3.在WN18和FB15k数据集上的链路预测结果
实验二:不同关系下实验性能
表4.WN18RR中不同关系的数量和性能
Claims (2)
1.基于多语义学习的知识图谱补全方法,其特征在于:该方法包括如下步骤,
步骤一:实体和关系的多重嵌入;
将实体e1和r分别先通过多个转换矩阵学习到多个隐藏的语义表示;知识图嵌入的目的是将实体和关系嵌入到连续的低维空间中,保持知识图的关系和语义;当实体数为ne,关系数为nr,则实体和关系独热编码的维度分别为ne和nr,实体和关系的嵌入维数为d;即通过实体的嵌入矩阵,关系的嵌入矩阵来实现,其中i和j是实体和关系需要学习语义参数的个数i∈1,2,3…,n,j∈1,2,3…,m;头实体e1和关系r分别对应于高维的独热向量Xe和Xr,接着分别对头实体e1和关系r通过多个嵌入矩阵Cei和Crj嵌入到d维空间,分别得到e1i和rj的嵌入表示为:
步骤二:深度残差注意力网络;
在前面的知识图嵌入捕捉实体和关系多个隐藏语义的步骤中,得到对同一实体或关系的多个特征嵌入;利用深度残差注意力网络优化实体和关系的嵌入;深度残差注意力网络结构由1×1卷积层、ReLU层和softmax归一化层组成,预测每个输入特征的注意力权重,然后是输入特征的加权求和层;
将gate结构引入到的模型中,以优化关系的特征表示;gate结构是LSTM的核心机制,在许多应用中被发现非常成功;gate由具有sigmoid激活功能的层和Hadamardproduct操作层组成;Gate结构表示为:
b,W表示偏差和权重矩阵;[;]表示向量拼接操作;Sigmoid操作将f的每个元素设置在0到1之间;一个gate使用Hadamard product来过滤信息,如公式(6)所示:
步骤三:去噪网络
将引入去噪网络优化实体嵌入和关系嵌入假设m=(m1,m2,m3,...,ml)T是特征向量;对特征元素间进行差分操作之后投射到一个新的向量n=(n1,n2,n3,...,nz)T;n中的每个元素计算如下:
nk=mT W(k)1-mT(W(k))T1 (8)
其中,W(k)∈Rl×l是可学习的参数,1∈Rl是全1向量;
其中nk是向量n里的一个特征元素,在向量n中这个权值参数为W∈Rl×l×z;而对于三阶张量会引入参数爆炸的问题的同时,加重训练负担,引入张量分解;
最终,向量n∈Rz表示为:
因此,把从m到n的映射过程表示为去噪过程,表示为:
n=DN(m) (11)
最后,实体和关系通过去噪网络之后表示为:
步骤四:多步融合
引入多步融合的过程来充分融合实体和关系,多步融合过程表示为:
其中,τ是softmax函数;W1和W2是可学习的映射参数矩阵;conv(x,y)函数表示在2019年HypER模型引入的卷积方法,即把x当作特征图,y重构成卷积核的形式进行卷积的操作;
步骤五:打分函数
知识图谱嵌入的打分函数表示为:
2.根据权利要求1所述的基于多语义学习的知识图谱补全方法,其特征在于:
第一个1×1卷积层实现跨信道交互和信息整合,捕获概念之间内在的相关性;ReLU激活函数增加了模型的非线性和表达能力;第二层1×1卷积层将通道数减小到1,然后通过softmax函数生成注意力权重图mr;Softmax操作将注意力权重图的每个元素设置在0到1之间,这些元素和为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110059002.8A CN112667824B (zh) | 2021-01-17 | 2021-01-17 | 基于多语义学习的知识图谱补全方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110059002.8A CN112667824B (zh) | 2021-01-17 | 2021-01-17 | 基于多语义学习的知识图谱补全方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112667824A true CN112667824A (zh) | 2021-04-16 |
CN112667824B CN112667824B (zh) | 2024-03-15 |
Family
ID=75415457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110059002.8A Active CN112667824B (zh) | 2021-01-17 | 2021-01-17 | 基于多语义学习的知识图谱补全方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112667824B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113204647A (zh) * | 2021-04-29 | 2021-08-03 | 哈尔滨工程大学 | 一种基于联合权重的编码解码框架知识图谱嵌入方法 |
CN113569773A (zh) * | 2021-08-02 | 2021-10-29 | 南京信息工程大学 | 基于知识图谱和Softmax回归的干扰信号识别方法 |
CN114880527A (zh) * | 2022-06-09 | 2022-08-09 | 哈尔滨工业大学(威海) | 一种基于多预测任务的多模态知识图谱表示方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977234A (zh) * | 2019-03-28 | 2019-07-05 | 哈尔滨工程大学 | 一种基于主题关键词过滤的知识图谱补全方法 |
CN110147450A (zh) * | 2019-05-06 | 2019-08-20 | 北京科技大学 | 一种知识图谱的知识补全方法及装置 |
CN110334219A (zh) * | 2019-07-12 | 2019-10-15 | 电子科技大学 | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 |
CN111949764A (zh) * | 2020-08-18 | 2020-11-17 | 桂林电子科技大学 | 一种基于双向注意力机制的知识图谱补全方法 |
CN112035672A (zh) * | 2020-07-23 | 2020-12-04 | 深圳技术大学 | 一种知识图谱补全方法、装置、设备以及存储介质 |
-
2021
- 2021-01-17 CN CN202110059002.8A patent/CN112667824B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977234A (zh) * | 2019-03-28 | 2019-07-05 | 哈尔滨工程大学 | 一种基于主题关键词过滤的知识图谱补全方法 |
CN110147450A (zh) * | 2019-05-06 | 2019-08-20 | 北京科技大学 | 一种知识图谱的知识补全方法及装置 |
CN110334219A (zh) * | 2019-07-12 | 2019-10-15 | 电子科技大学 | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 |
CN112035672A (zh) * | 2020-07-23 | 2020-12-04 | 深圳技术大学 | 一种知识图谱补全方法、装置、设备以及存储介质 |
CN111949764A (zh) * | 2020-08-18 | 2020-11-17 | 桂林电子科技大学 | 一种基于双向注意力机制的知识图谱补全方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113204647A (zh) * | 2021-04-29 | 2021-08-03 | 哈尔滨工程大学 | 一种基于联合权重的编码解码框架知识图谱嵌入方法 |
CN113569773A (zh) * | 2021-08-02 | 2021-10-29 | 南京信息工程大学 | 基于知识图谱和Softmax回归的干扰信号识别方法 |
CN113569773B (zh) * | 2021-08-02 | 2023-09-15 | 南京信息工程大学 | 基于知识图谱和Softmax回归的干扰信号识别方法 |
CN114880527A (zh) * | 2022-06-09 | 2022-08-09 | 哈尔滨工业大学(威海) | 一种基于多预测任务的多模态知识图谱表示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112667824B (zh) | 2024-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112667824B (zh) | 基于多语义学习的知识图谱补全方法 | |
CN112529168B (zh) | 一种基于gcn的属性多层网络表示学习方法 | |
CN111737535B (zh) | 一种基于元结构和图神经网络的网络表征学习方法 | |
CN110083770B (zh) | 一种基于特征层面更深的自注意力网络的序列推荐方法 | |
CN112417219A (zh) | 基于超图卷积的超边链接预测方法 | |
CN113919441A (zh) | 一种基于超图变换网络的分类方法 | |
Dai et al. | MRGAT: multi-relational graph attention network for knowledge graph completion | |
CN116821776B (zh) | 一种基于图自注意力机制的异质图网络节点分类方法 | |
CN111259264B (zh) | 一种基于生成对抗网络的时序评分预测方法 | |
CN116401380B (zh) | 面向异构知识图谱的对比学习预测方法及系统 | |
CN116386899A (zh) | 基于图学习的药物疾病关联关系预测方法及相关设备 | |
CN115129884A (zh) | 基于语义交互匹配网络的知识图谱补全方法及系统 | |
Jiang et al. | An intelligent recommendation approach for online advertising based on hybrid deep neural network and parallel computing | |
CN114781503A (zh) | 一种基于深度特征融合的点击率预估方法 | |
CN117173702A (zh) | 基于深度特征图融合的多视图多标记学习方法 | |
CN117131933A (zh) | 一种多模态知识图谱建立方法及应用 | |
Sun et al. | Self-organization preserved graph structure learning with principle of relevant information | |
CN115757897A (zh) | 一种基于知识图卷积网络的文化资源智能推荐方法 | |
CN115689639A (zh) | 一种基于深度学习的商业广告点击率预测方法 | |
CN115408536A (zh) | 一种基于上下文信息融合的知识图谱补全方法 | |
CN113205175A (zh) | 一种基于互信息最大化的多层属性网络表征学习方法 | |
CN114625871B (zh) | 一种基于注意力位置联合编码的三元组分类方法 | |
Horn | Similarity encoder: A neural network architecture for learning similarity preserving embeddings | |
Yuan et al. | AGKE: Improve Knowledge Graph Embedding by Adaptively Generating Kernel | |
CN115587254A (zh) | 一种基于卷积和外积的协同过滤方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |