CN113254663B - 一种融合图卷积与翻译模型的知识图谱联合表示学习方法 - Google Patents
一种融合图卷积与翻译模型的知识图谱联合表示学习方法 Download PDFInfo
- Publication number
- CN113254663B CN113254663B CN202110430124.3A CN202110430124A CN113254663B CN 113254663 B CN113254663 B CN 113254663B CN 202110430124 A CN202110430124 A CN 202110430124A CN 113254663 B CN113254663 B CN 113254663B
- Authority
- CN
- China
- Prior art keywords
- knowledge graph
- graph
- entity
- learning
- indirect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 17
- 239000013598 vector Substances 0.000 claims abstract description 43
- 239000011159 matrix material Substances 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000012512 characterization method Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
一种融合图卷积与翻译模型的知识图谱联合表示学习方法,包括以下步骤:1)根据知识图谱构建其相对应的直接邻接矩阵和间接邻接矩阵;2)设计图卷积网络,包括一个输入层、两个隐藏层和一个输出层,优化邻接点节点对中心节点的注意力系数,通过学习直接邻节点和间接邻节点的结构信息得到节点的向量表示;3)采用翻译模型学习关系的语义信息,得到实体和关系的向量表示;4)将图卷积网络和翻译模型相融合,通过不断的迭代学习得到知识图谱的最终向量表示。本发明能够同时学习知识图谱的结构信息和关系语义,提高知识图谱的向量表示精度。
Description
技术领域
本发明涉及知识图谱、表示学习等领域,特别给出了一种融合图卷积与翻译模型的知识图谱联合表示学习方法。
背景技术
知识图谱表示学习旨在通过学习知识图谱中的语义特征,在保留原有语义信息的前提下将知识图谱的实体和关系从高维离散的空间映射到一个连续低维的向量空间中,从而使实体和关系能够被直接数值化地计算,提高计算效率。
现有主要的知识图谱表示学习模型包括翻译模型、语义匹配模型和神经网络模型。翻译模型的主要思想是将三元组(h,r,t)中的关系r解释为头实体h到尾实体t的翻译过程,TransE(Annual Conference on Neural Information Processing Systems,2013)是最具代表性的翻译模型之一,该模型认为头实体的嵌入加上关系的嵌入应该等于尾实体在向量空间中的位置,即h+r=t。语义匹配模型是使用基于语义相似度的得分函数,通过语义相似度的匹配来衡量事实的合理性,RESCAL(International Conference onInternational Conference on Machine Learning,2011)是最具代表性的语义匹配模型之一,该模型是一种基于三向张量分解的表示学习方法,其中成对的实体通过其嵌入的张量积表示。神经网络模型主要是通过深度神经网络来学习知识图谱的嵌入表示,ConvKB(Conference of the North American Chapter of the Association forComputational Linguistics:Human Language Technologies,2018)通过使用卷积神经网络来捕获实体之间的全局关系和翻译特性,每个三元组(h,r,t)的嵌入表示是三元组中的实体和关系的嵌入拼接而成的3列矩阵,然后将这3列矩阵输入到卷积层,在该卷积层上对矩阵用多个卷积核进行卷积操作以生成不同的特征图。
然而,现有方法通常只关注知识图谱的某一方面特征,如结构特征和关系特征,不能全面学习知识图谱结构和语义信息,导致知识图谱表示学习结果准确度较低。
发明内容
为了克服现有技术的不足,提高知识图谱表示学习准确性,本发明提出一种融合图卷积与翻译模型的知识图谱联合表示学习模型,该模型能同时对知识图谱的结构信息和关系语义进行学习,并采用注意力机制减少学习噪声,得到准确的知识图谱表示学习结果。
为了解决技术问题本发明提供如下的技术方案:
一种融合图卷积与翻译模型的知识图谱联合表示学习方法,包括以下步骤:
1)构建知识图谱邻接矩阵
在知识图谱中,根据节点之间的链接关系定义两种邻接关系:
定义1:在知识图谱中,存在直接链接关系的一对节点互为直接邻接点,此时两个节点间的距离为1,又称为1跳邻接点;
定义2:在知识图谱中,存在通路的一对节点称为间接邻接点,此时两个节点间的距离为n,n>1,又称为n跳邻接点;
假设一个知识图谱的节点数量为N,构建其直接邻接矩阵:
其中若两个节点为直接邻节点,则直接邻接矩阵A中对应位置的值为1,否则为0;
同时,构建该知识图谱的间接邻接矩阵:
其中若两个节点互为间接邻接点,则间接邻接矩阵A’中对应位置的值为1,否则为0;
2)基于图卷积学习知识图谱的结构信息,过程如下:
2.1)学习实体向量表示
设计图卷积网络,包括一个输入层和两个隐藏层,每个隐藏层同时学习直接邻节点和间接邻节点的信息,以第二个隐藏层的输出作为实体的向量表示,利用该多跳图卷积网络学习知识图谱的结构信息;
其中,Ni,1表示节点i∈E的直接邻节点集合,Ni,2表示节点i∈E的间接邻节点集合,W1,分别是直接邻节点和间接邻节点在第l层的权重矩阵,σ1表示的是激活函数;μ1是一个权重系数,用于对直接邻节点和间接邻节点的影响力进行平衡;表示的是节点i与其邻节点j之间的注意力权重;
2.2)学习邻接点的注意力系数
其中sim(·,·)是相似度的函数,用于比较节点i和节点j在经过一次线性变换之后的向量表示的相似度;W1和W2分别作为中心实体和其邻节点的线性变换矩阵,以表征相邻节点之间的差异;
3)基于翻译模型学习知识图谱的关系语义
采用翻译模型TransE学习知识图谱的关系语义,将关系看作是头实体到尾实体的翻译过程;
3.1)生成负样本
为增强TransE模型的表征能力,使用负采样强化训练效果,负三元组通过随机负采样的方式生成,对于每一条正三元组(h,r,t)∈T+,分别使用错误头实体h′或错误尾实体t′等概率的替换h或者t来生成负三元组集合T-;其中h′,t′是分别从知识图谱的所有头实体集合和尾实体集合中随机采样得到的;在生成负三元组之后会对该三元组进行验证,倘若随机生成的三元组是正样本的,即(h′,r,t′)∈T+,则重新随机生成负三元组;
3.2)最小化损失函数
为了强化正三元组在向量空间中的位置,拉开负三元组内实体之间的距离,设计以下基于边缘的排名损失函数:
其中T+表示正三元组的集合,T-表示负三元组集合;[·]+=max(·,0),γ1>0是一个边缘超参数,μ2>0是一个用于平衡负样本损失和正样本损失的权重系数;是在TransE中提出的一个三元组的得分函数,用于测量一条三元组的误差量,其定义如下:
其中,‖·‖2表示两个向量的L2范数;
通过随机梯度下降法最小化损失函数的值;
4)联合表示学习算法
通过图卷积网络和翻译模型对知识图谱的结构特征和关系语义迭代地进行学习,得到知识图谱的向量表示;
联合表示学习算法的输入为知识图谱的三元组、邻接矩阵,联合表示学习算法的输出为知识图谱的向量表示,联合表示学习算法的过程如下:
4.1)将实体和关系的嵌入随机初始化;
4.2)在每个隐藏层中,通过公式(2)学习实体之间的注意力系数,然后利用公式(1)分别学习直接邻节点和间接邻节点的结构信息,并以设定的权重相互融合作为该实体在下一层的向量表示,图卷积模型的最后一层作为图卷积模型的输出,作为实体的向量表示结果;
4.3)以步骤4.2)的输出作为翻译模型TransE的实体的初始向量表示,通过最小化公式(4)的损失值来对实体间的关系语义进行学习,从而得到新的实体和关系的向量表示;
4.4)再以步骤4.3)得到的实体向量表示作为图卷积模型的实体初始向量表示,反复执行步骤4.2)和步骤4.3),直至收敛得到最终的实体和关系的向量表示;
4.5)输出知识图谱的向量表示。
本发明的有益效果为:本发明给出的知识图谱联合表示学习模型融合了图卷积神经网络和翻译模型,其优势在于能够同时学习知识图谱的结构信息和关系语义,并通过注意力机制减少不重要邻节点的噪声,提高了知识图谱向量表示准确性。
附图说明
图1是知识图谱示意图,其中,(a)是于David Beckham的人际关系数据所构建的知识图谱,(b)是知识图谱抽象表示。
图2是联合表示学习模型框架图。
具体实施方式
下面结合附图对本发明的作进一步说明。
参照图1和图2,一种融合图卷积与翻译模型的知识图谱联合表示学习方法,包括以下步骤:
1)构建知识图谱邻接矩阵
对于需要通过表示学习获取其嵌入表示的知识图谱,根据实体之间的连接关系来构建他们的邻接矩阵,以图1的知识图谱为例,图1(a)是基于David Beckham的人际关系数据所构建的知识图谱,为便于表示将其抽象为图1(b)的表示形式;
直接邻接矩阵反应实体之间是否直接相连,例如,图1中实体e1与e2相连则a12=1,a∈A,因此,图1的知识图谱的直接邻接矩阵A表示为:
间接邻接矩阵反应实体之间是否只是间接相连,因此,图1知识图谱的间接邻接矩阵A′表示为:
2)基于图卷积对实体进行表示学习
以图卷积模型来学习知识图谱的邻域结构嵌入;
首先,设计图卷积网络,通过实验验证,图卷积网络被设计为包括一个输入层和两个隐藏层,各层嵌入维度为[200,200,200],并以最后一层的嵌入为实体的嵌入表示。将步骤(1)得到的直接邻接矩阵A和间接邻接矩阵A′输入至图卷积模型当中,模型通过邻接矩阵获取实体连接的关系;
其次,再根据公式(1),基于注意力系数对邻节点的信息进行学习,例如e1在计算下一层的嵌入表示时,需要学习直接邻节点e2,e3,e4的嵌入,以及间接邻节点e5,e6的嵌入(n=2),再设定权重系数将不同距离邻节点的学习结果相互融合;
3)基于翻译模型对关系进行表示学习
以TransE来学习知识图谱的关系语义嵌入表示;
首先,通过随机负采样技术对每个为每个正三元组生成多个负三元组作为负样本,例如,对于图1(b)中正三元组(e1,r2,e4),可以随机替换头实体生成负三元组(e2,r2,e4)或替换尾实体生成负三元组(e1,r2,e6);
其次,根据公式(4)计算得到目前模型的损失值,并利用梯度下降法来最小化损失函数的值;
4)联合嵌入表示学习
联合嵌入表示学习的模型框架图如图2所示,通过图卷积网络和翻译模型对知识图谱的结构特征和关系语义迭代地进行学习,得到知识图谱的向量表示,以图1(b)为例。
联合表示学习算法的输入:图1(b)的三元组、邻接矩阵A和A′
联合表示学习算法的输出:知识图谱的向量表示
联合表示学习算法的过程如下:
4.1)将实体和关系的嵌入随机初始化,此时实体e和关系r在表示空间中处于随机位置。
4.2)每个实体通过图卷积聚合广范的邻域信息来更新自身的嵌入。通过公式(2)学习每对实体之间的注意力系数,然后利用公式(1)分别学习直接邻节点和间接邻节点的结构信息。
4.3)TransE以步骤4.2)输出的实体嵌入表示作为此次训练中实体的初始嵌入表示,通过最小化公式(4)的损失强化正三元组在向量空间中的位置,拉开负三元组内实体之间的距离,使正三元组中的实体和关系在表示空间中的位置满足h+r=t,例如图1(b)中e1+r2=e4。
4.4)将步骤4.3)中实体嵌入作为步骤2训练中实体的初始化嵌入;以此类推不断迭代交替执行4.2)和4.3),直至模型收敛,得到最后知识图谱的最终嵌入;
4.5)输出知识图谱的向量表示。
本说明书的实施例所述的内容仅仅是对发明构思的实现形式的列举,仅作说明用途。本发明的保护范围不应当被视为仅限于本实施例所陈述的具体形式,本发明的保护范围也及于本领域的普通技术人员根据本发明构思所能想到的等同技术手段。
Claims (1)
1.一种融合图卷积与翻译模型的知识图谱联合表示学习方法,其特征在于,所述方法包括以下步骤:
1)构建知识图谱邻接矩阵
在知识图谱中,根据节点之间的链接关系定义两种邻接关系:
定义1:在知识图谱中,存在直接链接关系的一对节点互为直接邻接点,此时两个节点间的距离为1,又称为1跳邻接点;
定义2:在知识图谱中,存在通路的一对节点称为间接邻接点,此时两个节点间的距离为n,n>1,又称为n跳邻接点;
假设一个知识图谱的节点数量为N,构建其直接邻接矩阵:
其中若两个节点为直接邻接点,则直接邻接矩阵A中对应位置的值为1,否则为0;
同时,构建该知识图谱的间接邻接矩阵:
其中若两个节点互为间接邻接点,则间接邻接矩阵A’中对应位置的值为1,否则为0;
2)基于图卷积学习知识图谱的结构信息,过程如下:
2.1)学习实体向量表示
设计图卷积网络,包括一个输入层和两个隐藏层,每个隐藏层同时学习直接邻接点和间接邻接点的信息,以第二个隐藏层的输出作为实体的向量表示,利用该图卷积网络学习知识图谱的多跳结构信息;
其中,Ni,1表示节点i∈E的直接邻接点集合,Ni,2表示节点i∈E的间接邻接点集合,分别是直接邻接点和间接邻接点在第l层的权重矩阵,σ1表示的是激活函数;μ1是一个权重系数,用于对直接邻接点和间接邻接点的影响力进行平衡;表示的是节点i与其邻接点j之间的注意力权重;
2.2)学习邻接点的注意力系数
其中sim(·,·)是相似度的函数,用于比较节点i和节点j在经过一次线性变换之后的向量表示的相似度;W1和W2分别作为中心实体和其邻接点的线性变换矩阵,以表征相邻接点之间的差异;
3)基于翻译模型学习知识图谱的关系语义
采用翻译模型TransE学习知识图谱的关系语义,将关系看作是头实体到尾实体的翻译过程;
3.1)生成负样本
为增强TransE模型的表征能力,使用负采样强化训练效果,负三元组通过随机负采样的方式生成,对于每一条正三元组(h,r,t)∈T+,分别使用错误头实体h′或错误尾实体t′等概率的替换h或者t来生成负三元组集合T-;其中h′,t′是分别从知识图谱的所有头实体集合和尾实体集合中随机采样得到的;在生成负三元组之后会对该三元组进行验证,倘若随机生成的三元组是正样本的,即(h′,r,t′)∈T+,则重新随机生成负三元组;
3.2)最小化损失函数
为了强化正三元组在向量空间中的位置,拉开负三元组内实体之间的距离,设计以下基于边缘的排名损失函数:
其中T+表示正三元组的集合,T-表示负三元组集合;[·]+=max(·,0),γ1>0是一个边缘超参数,μ2>0是一个用于平衡负样本损失和正样本损失的权重系数;是在TransE中提出的一个三元组的得分函数,用于测量一条三元组的误差量,其定义如下:
其中,||·||2表示两个向量的L2范数;
通过随机梯度下降法最小化损失函数的值;
4)联合表示学习算法
通过图卷积网络和翻译模型对知识图谱的结构特征和关系语义迭代地进行学习,得到知识图谱的向量表示;
联合表示学习算法的输入为知识图谱的三元组、邻接矩阵,联合表示学习算法的输出为知识图谱的向量表示,联合表示学习算法的过程如下:
4.1)将实体和关系的嵌入随机初始化;
4.2)在每个隐藏层中,通过公式(2)学习实体之间的注意力系数,然后利用公式(1)分别学习直接邻接点和间接邻接点的结构信息,并以设定的权重相互融合作为该实体在下一层的向量表示,图卷积模型的最后一层作为图卷积模型的输出,作为实体的向量表示结果;
4.3)以步骤4.2)的输出作为翻译模型TransE的实体的初始向量表示,通过最小化公式(4)的损失值来对实体间的关系语义进行学习,从而得到新的实体和关系的向量表示;
4.4)再以步骤4.3)得到的实体向量表示作为图卷积模型的实体初始向量表示,反复执行步骤4.2)和步骤4.3),直至收敛得到最终的实体和关系的向量表示;
4.5)输出知识图谱的向量表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110430124.3A CN113254663B (zh) | 2021-04-21 | 2021-04-21 | 一种融合图卷积与翻译模型的知识图谱联合表示学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110430124.3A CN113254663B (zh) | 2021-04-21 | 2021-04-21 | 一种融合图卷积与翻译模型的知识图谱联合表示学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113254663A CN113254663A (zh) | 2021-08-13 |
CN113254663B true CN113254663B (zh) | 2022-06-17 |
Family
ID=77221954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110430124.3A Active CN113254663B (zh) | 2021-04-21 | 2021-04-21 | 一种融合图卷积与翻译模型的知识图谱联合表示学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113254663B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807519B (zh) * | 2021-08-30 | 2024-08-20 | 华中师范大学 | 一种融入教学反馈与习得理解的知识图谱构建方法 |
CN114021584B (zh) * | 2021-10-25 | 2024-05-10 | 大连理工大学 | 基于图卷积网络和翻译模型的知识表示学习方法 |
CN113936743B (zh) * | 2021-11-12 | 2024-04-26 | 大连海事大学 | 一种基于异质ppi网络的蛋白质复合物识别方法 |
CN114399048B (zh) * | 2022-01-14 | 2024-09-13 | 河南大学 | 基于图卷积神经网络与类型嵌入的教育领域联合知识点预测方法及系统 |
CN114860952A (zh) * | 2022-04-29 | 2022-08-05 | 华侨大学 | 一种基于数据统计和知识指导的图拓扑学习方法及系统 |
CN114724010B (zh) * | 2022-05-16 | 2022-09-02 | 中译语通科技股份有限公司 | 一种待训练样本的确定方法、装置、设备及可读存储介质 |
CN115526293B (zh) * | 2022-09-13 | 2024-06-21 | 深圳市规划和自然资源数据管理中心 | 一种顾及语义和结构信息的知识图谱推理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334219B (zh) * | 2019-07-12 | 2023-05-09 | 电子科技大学 | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 |
CN111159426B (zh) * | 2019-12-30 | 2023-04-18 | 武汉理工大学 | 一种基于图卷积神经网络的产业图谱融合方法 |
CN112131395B (zh) * | 2020-08-26 | 2023-09-26 | 浙江工业大学 | 一种基于动态阈值的迭代式知识图谱实体对齐方法 |
-
2021
- 2021-04-21 CN CN202110430124.3A patent/CN113254663B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113254663A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113254663B (zh) | 一种融合图卷积与翻译模型的知识图谱联合表示学习方法 | |
CN108399428B (zh) | 一种基于迹比准则的三元组损失函数设计方法 | |
WO2023000574A1 (zh) | 一种模型训练方法、装置、设备及可读存储介质 | |
CN112508085B (zh) | 基于感知神经网络的社交网络链路预测方法 | |
CN110413704B (zh) | 基于加权邻居信息编码的实体对齐方法 | |
CN111489358A (zh) | 一种基于深度学习的三维点云语义分割方法 | |
CN112381179B (zh) | 一种基于双层注意力机制的异质图分类方法 | |
CN112581515B (zh) | 基于图神经网络的户外场景点云配准方法 | |
CN113378048B (zh) | 一种基于多视角知识图谱注意力网络的个性化推荐方法 | |
CN110263236B (zh) | 基于动态多视图学习模型的社交网络用户多标签分类方法 | |
Wang et al. | Graph neural networks: Self-supervised learning | |
CN114969367B (zh) | 基于多方面子任务交互的跨语言实体对齐方法 | |
CN112464004A (zh) | 一种多视角深度生成图像聚类方法 | |
CN113052263A (zh) | 一种基于流形学习和高阶图神经网络的小样本图像分类方法 | |
CN114611384A (zh) | 基于图神经网络的医学知识图谱节点重要性评估方法 | |
CN112131403B (zh) | 一种动态环境下的知识图谱表示学习方法 | |
CN114036308A (zh) | 基于图注意力神经网络的知识图谱表示方法 | |
CN114064627A (zh) | 一种针对多重关系的知识图谱链接补全方法及系统 | |
CN116340646A (zh) | 一种基于超图基序优化多元用户表示的推荐方法 | |
CN111488498A (zh) | 基于图神经网络的“节点-图”跨层图匹配方法及系统 | |
CN108537342A (zh) | 一种基于邻居信息的网络表示学习方法及系统 | |
CN111695011A (zh) | 一种基于张量表示的动态超图结构学习分类方法及系统 | |
CN113228059A (zh) | 面向跨网络的表示学习算法 | |
CN112487305A (zh) | 一种基于gcn的动态社交用户对齐方法 | |
CN116543259A (zh) | 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |