CN110414665A - 一种基于深度神经网络的网络表示学习方法 - Google Patents

一种基于深度神经网络的网络表示学习方法 Download PDF

Info

Publication number
CN110414665A
CN110414665A CN201910426821.4A CN201910426821A CN110414665A CN 110414665 A CN110414665 A CN 110414665A CN 201910426821 A CN201910426821 A CN 201910426821A CN 110414665 A CN110414665 A CN 110414665A
Authority
CN
China
Prior art keywords
node
network
sequence
vector
random
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910426821.4A
Other languages
English (en)
Inventor
熊丽荣
沈树茂
范菁
虞胜杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910426821.4A priority Critical patent/CN110414665A/zh
Publication of CN110414665A publication Critical patent/CN110414665A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于深度神经网络的网络表示学习方法,包括如下步骤:1)首先在网络中进行随机游走,得到节点序列;2)然后结合节点在节点序列中的位置信息,将节点序列中的各个节点转换成特征向量;3)基于深度双向转换编码器建立学习模型,将步骤2)经过处理的节点序列输入到学习模型中进行训练,得到网络中节点的表示向量。本发明结合节点在节点序列中的位置信息,更好地利用节点之间的关系信息。本发明将自然语言处理中的深度双向转换编码器用于网络表示学习,以更好地保留网络的局部结构和全局结构,进一步地提升了节点表示向量的准确度。

Description

一种基于深度神经网络的网络表示学习方法
技术领域
本发明涉及网络表示学习技术领域,更具体地,涉及一种基于深度神经网络的网络表示学习方法。
背景技术
事物之间相互联系可以形成网络,其中蕴含了大量信息。直接使用高维稀疏的网络数据进行分析和挖掘,需要耗费很大的计算量。使用网络表示学习将网络中节点转化为低维的向量表示,再进行信息挖掘,可以节省很多计算量。获得节点的向量表示之后,可以将其作为输入再对网络进行挖掘,比如进行链路预测,节点分类和社区发现等。
网络表示学习(Network Representation Learning),又名网络嵌入(NetworkEmbedding)、图嵌入(Graph Embedding),它旨在将网络中的节点表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空间中具有表示以及推理的能力,同时可轻松方便的作为机器学习模型的输入,进而可将得到的向量表示运用到社交网络中常见的应用中,如可视化任务、节点分类任务、链接预测以及社区发现等任务,还可以作为社交边信息应用到推荐系统等其他常见任务中。网络表示学习是一种分布式的表示学习技术。
网络表示学习将网络中的节点信息转化为低维的向量表示。很多网络的结构稀疏,且从高维的稀疏向量表示得到低维稠密的向量表示过程中会有一些信息丢失,影响了网络表示学习得到的节点表示向量的准确度。目前已有的网络表示方法考虑了节点之间的关系,却忽略了网络的局部和全局结构信息,导致获得的节点表示向量不够准确。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于深度神经网络的网络表示学习方法,利用网络的局部和全局结构信息进行网络表示学习,以获得更准确的节点表示向量。
一种基于深度神经网络的网络表示学习方法,包括如下步骤:
1)首先在网络中进行随机游走,得到节点序列;
2)然后结合节点在节点序列中的位置信息,将节点序列中的各个节点转换成特征向量;
3)基于深度双向转换编码器建立学习模型,将步骤2)经过处理的节点序列输入到学习模型中进行训练,得到网络中节点的表示向量。
优选地,所述的步骤1)具体如下:设定网络G=(V,E),其中V是网络中的节点,E是它的边,|V|表示网络中节点的数量;对于网络G,每次采样随机挑选一个顶点vi作为随机游走的根节点,i的取值范围为[0,|V| -1];一次游走从节点的邻居开始,到达最大长度t结束,从而得到由节点构成的节点序列Sj,j的取值范围为正整数;如下式所示:
Sj=vl,v2,...,vt (1)
对于每个节点,需要进行γ次长度为t的随机游走,其中i的取值范围为 [0,|V|-1],j为正整数,γ的取值范围为[5,1000],t的取值范围为[10,1000]。
为了更好地利用节点之间的关系信息以提升节点表示向量的准确度,将在网络中使用随机游走生成的节点序列进行处理,在节点的特征向量中结合各个节点在序列中的位置信息。优选地,所述的步骤2)具体如下:
(21)对于一个由节点构成的节点序列Sj,对序列中的每个节点根据其在节点序列中的位置进行编号,从0到t-1,并将位置信息转化为向量,得到节点的位置表示Xi
(22)对节点的特征向量进行随机初始化,得到节点表示
(23)定义学习模型的输入表示为X′i,包含节点的位置表示Xi和节点表示两部分,处理后的节点序列用S′j表示,如下式所示:
S′j=X′1,X′2,...,X′t (2)。
为了更好地保留社交网络的局部结构和全局结构,本发明使用BERT网络表示学习方法中的深度双向转换编码器建立学习模型,将经过处理的节点序列输入到学习模型中进行训练,以得到各个节点的表示向量。优选地,所述的步骤3) 分为预训练和微调两个过程,具体如下:
(31)预训练过程
为了训练模型并得到节点的向量表示,采用BERT模型中提出的masked LM 方法,即随机隐藏一定比例的输入节点,然后预测那些隐藏的节点;
(32)微调过程
在微调阶段,使用节点的标签信息进行训练。
优选地,所述的步骤(31)具体如下:
S1.在每个节点序列中随机选取一定比例a的隐藏节点用于预测,部分或全部使用隐藏标记[MASK]替换这些节点,a的取值范围为[0.1,0.2];经过处理的节点序列为S′j,随机隐藏一定比例a的输入节点后的节点序列S″j
S″j=X′1,X′2,...,[MASK],...,X′t (3)
S2.与隐藏节点vi相对应的特征向量被输入到输出的Softmax中,可以得到其概率向量为如下式所示:
其中表示用于分类的输出层中的权重,|V|表示网络中节点的数量, d是一个比较小的隐式向量的维度;
定义节点vi对应的one-hot向量表示为损失函数定义如下:
其中i的取值范围为[0,|V|-1],具体取值为节点序列S″j中隐藏的节点对应的编号。
由于隐藏标记在微调期间从未出现过,基于masked LM的方法会在预训练和微调之间造成一些轻微的数据不匹配。为了缓和这种情况,故最好是部分用隐藏标记[MASK]替换实际节点。优选地,步骤S1中,先从全部隐藏节点中随机挑选出A%的部分,再从剩下的隐藏节点中随机挑选出B%的部分,最后剩下的隐藏节点为C%的部分,其中A+B+C=100,A>50,B>0,C>0;
针对A%的隐藏节点部分,使用隐藏标记[MASK]替换实际节点;针对B%的隐藏节点部分,使用随机的一个节点来替换实际节点;针对C%的隐藏节点部分,保持原节点不变。
优选地,步骤S1中,A=80,B=10,C=10。
优选地,所述的步骤(32)具体如下:
定义节点vi的标签向量为其中|T|表示分类标签的数量,节点vi对应的特征向量为在用于分类的输出层中定义其权重为用标准softmax计算标签概率计算公式如下:
损失函数定义如下:
其中i的取值范围为[0,|V|-1],具体取值为节点序列S′j中的节点对应的编号。
本发明的有益效果是:
1.结合节点在节点序列中的位置信息,更好地利用节点之间的关系信息。
2.本发明将自然语言处理中的深度双向转换编码器用于网络表示学习,以更好地保留网络的局部结构和全局结构,进一步地提升了节点表示向量的准确度。
附图说明
图1为本发明的方法流程图;
图2为本发明学习模型的输入表示图;
图3为本发明学习模型的结构图;
图4为BlogCatalog数据集的实验Micro-F1结果;
图5为BlogCatalog数据集的实验Macro-F1结果。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
一种基于深度神经网络的网络表示学习方法,如附图1所示,包括如下步骤:
1)随机游走
在网络中进行随机游走,以得到节点序列。设定网络G=(V,E),其中V是网络中的节点,E是它的边,|V|表示网络中节点的数量;对于网络G,每次采样随机挑选一个顶点vi作为随机游走的根节点,i的取值范围为 [0,|V|-1];一次游走从节点的邻居开始,到达最大长度t结束,从而得到由节点构成的节点序列Sj,j的取值范围为正整数;如下式所示:
Sj=v1,v2,...,vt (8)
对于每个节点,需要进行γ次长度为t的随机游走,其中i的取值范围为 [0,|V|-1],j为正整数,γ的取值范围为[5,1000],t的取值范围为[10,1000]。
2)输入处理
为了更好地利用节点之间的关系信息以提升节点表示向量的准确度,将在网络中使用随机游走生成的节点序列进行处理,在节点的特征向量中结合各个节点在序列中的位置信息。具体步骤如下:
(21)对于一个由节点构成的节点序列Sj,对序列中的每个节点根据其在节点序列中的位置进行编号,从0到t-1。并将位置信息转化为向量,得到节点的位置表示Xi
(22)对节点的特征向量进行随机初始化,得到节点表示
(23)定义学习模型的输入表示为X′i,包含节点的位置表示Xi和节点表示两部分,如附图2所示。处理后的节点序列用S′j表示,如下所示:
S′j=X′1,X′2,...,X′t (9)
3)模型训练
为了更好地保留社交网络的局部结构和全局结构,使用BERT网络表示学习方法中的深度双向转换编码器建立学习模型,如附图3所示。将经过处理的节点序列输入到学习模型中,并进行训练,以得到各个节点的表示向量。
学习模型的训练分为预训练和微调两个过程。具体步骤如下:
(31)预训练过程
为了训练模型并得到节点的向量表示,采用BERT模型中提出的masked LM 方法,即随机隐藏一定比例的输入节点,然后预测那些隐藏的节点。具体步骤如下:
S1.在每个节点序列中随机隐藏一定比例a的节点用于预测,部分或全部使用隐藏标记[MASK]替换这些节点。a的取值范围为[0.1,0.2]。经过处理的节点序列为S′j,随机隐藏一定比例a的输入节点后的节点序列S″j
S″j=X′1,X′2,...,[MASK],...,X′t (10)
由于隐藏标记在微调期间从未出现过,基于masked LM的方法会在预训练和微调之间造成一些轻微的不匹配。为了缓和这种情况,推荐是用隐藏标记[MASK] 替换部分实际节点,具体是:先从全部隐藏节点中随机挑选出A%的部分,再从剩下的隐藏节点中随机挑选出B%的部分,最后剩下的隐藏节点为C%的部分,其中A+B+C=100,A>50,B>0,C>0;
针对A%的隐藏节点部分,使用隐藏标记[MASK]替换实际节点;针对B%的隐藏节点部分,使用随机的一个节点来替换实际节点;针对C%的隐藏节点部分,保持原节点不变。
再具体地举例来说,步骤S1中,A=80,B=10,C=10。即:
(a)针对80%的隐藏节点,使用隐藏标记[MASK]替换实际的节点
(b)针对10%的隐藏节点,使用随机的一个节点来替换。
(c)针对10%的隐藏节点,保持原节点不变。
S2.与隐藏节点vi相对应的特征向量被输入到输出的Softmax中,可以得到其概率向量为如下所示:
其中表示用于分类的输出层中的权重,|V|表示网络中节点的数量, d是一个比较小的隐式向量的维度。
定义节点vi对应的one-hot向量表示为损失函数定义如下:
其中i的取值范围为[0,|V|-1],具体取值为节点序列S″j中隐藏的节点对应的编号。
(32)微调过程
在微调阶段,使用节点的标签信息进行训练。定义节点vi的标签向量为其中|T|表示分类标签的数量。节点vi对应的特征向量为在用于分类的输出层中定义其权重为用标准softmax计算标签概率计算公式如下:
损失函数定义如下:
其中i的取值范围为[0,|V|-1],具体取值为节点序列S′j中的节点对应的编号。
为了验证本发明方法的效果,将本发明的网络表示学习方法和其他相关网络表示学习方法进行比较,所选的网络表示学习方法分别是HOPE,GraRep, DeepWalk,Node2vec,LINE和SDNE。随机抽取一部分有标签的用户节点进行训练,其余用户节点用做测试。设用做训练数据的比率为TR,取值范围为[0.1,0.9]。
对所有网络表示学习方法,在BlogCatalog数据集上进行实验,都使用由LibLinear实现的一对多的逻辑回归进行分类。并使用Macro-F1和Micro-F1来衡量使用节点的网络表示进行分类的准确度。
对本发明的网络表示学习方法参数设置如下:
把网络表示学习方法的节点网络表示的维度d设置为128。将每个节点的游走次数r设为10,每次游走长度t设为80。在预训练过程中,将序列长度t设为 80,批尺寸(batchsize)设为32,使用Adam优化器,并设置学习率lr为1e-4,β1=0.9,β2=0.999,L2权重衰减设置为0.01,将所有层的丢弃概率(dropout probability)设为0.1。在微调阶段,将批尺寸(batch size)设为32,并设置学习率lr为2e-5。
在实验中,将用于训练的数据比率TR从0.1不断提高到0.9,并记录对应的实验结果。实验的Micro-F1和Macro-F1结果如图4和图5所示所示。实验结果显示本发明的方法与其他六种方法相比较,效果更好。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (8)

1.一种基于深度神经网络的网络表示学习方法,其特征在于包括如下步骤:
1)首先在网络中进行随机游走,得到节点序列;
2)然后结合节点在节点序列中的位置信息,将节点序列中的各个节点转换成特征向量;
3)基于深度双向转换编码器建立学习模型,将步骤2)经过处理的节点序列输入到学习模型中进行训练,得到网络中节点的表示向量。
2.根据权利要求1所述的基于深度神经网络的网络表示学习方法,其特征在于:所述的步骤1)具体如下:设定网络G=(V,E),其中V是网络中的节点,E是它的边,|V|表示网络中节点的数量;对于网络G,每次采样随机挑选一个顶点vi作为随机游走的根节点,i的取值范围为[0,|V|-1];一次游走从节点的邻居开始,到达最大长度t结束,从而得到由节点构成的节点序列Sj,j的取值范围为正整数;如下式所示:
Sj=v1,v2,...,vt (1)
对于每个节点,需要进行γ次长度为t的随机游走,其中i的取值范围为[0,|V|-1],j为正整数,γ的取值范围为[5,1000],t的取值范围为[10,1000]。
3.根据权利要求1所述的基于深度神经网络的网络表示学习方法,其特征在于:所述的步骤2)具体如下:
(21)对于一个由节点构成的节点序列Sj,对序列中的每个节点根据其在节点序列中的位置进行编号,从0到t-1,并将位置信息转化为向量,得到节点的位置表示Xi
(22)对节点的特征向量进行随机初始化,得到节点表示
(23)定义学习模型的输入表示为X′i,包含节点的位置表示Xi和节点表示两部分,处理后的节点序列用S′j表示,如下式所示:
S′j=X′1,X′2,...,X′t (2)。
4.根据权利要求1所述的基于深度神经网络的网络表示学习方法,其特征在于:所述的步骤3)分为预训练和微调两个过程,具体如下:
(31)预训练过程
为了训练模型并得到节点的向量表示,采用BERT模型中提出的masked LM方法,即随机隐藏一定比例的输入节点,然后预测那些隐藏的节点;
(32)微调过程
在微调阶段,使用节点的标签信息进行训练。
5.根据权利要求4所述的基于深度神经网络的网络表示学习方法,其特征在于:所述的步骤(31)具体如下:
S1.在每个节点序列中随机选取一定比例a的隐藏节点用于预测,部分或全部使用隐藏标记[MASK]替换这些节点,a的取值范围为[0.1,0.2];经过处理的节点序列为S′j,随机隐藏一定比例a的输入节点后的节点序列S″j
S″j=X′1,X′2,...,[MASK],...,X′t (3)
S2.与隐藏节点vi相对应的特征向量被输入到输出的Softmax中,可以得到其概率向量为如下式所示:
其中表示用于分类的输出层中的权重,|V|表示网络中节点的数量,d是一个比较小的隐式向量的维度;
定义节点vi对应的one-hot向量表示为损失函数定义如下:
其中i的取值范围为[0,|V|-1],具体取值为节点序列S″j中隐藏的节点对应的编号。
6.根据权利要求5所述的基于深度神经网络的网络表示学习方法,其特征在于:步骤S1中,先从全部隐藏节点中随机挑选出A%的部分,再从剩下的隐藏节点中随机挑选出B%的部分,最后剩下的隐藏节点为C%的部分,其中A+B+C=100,A>50,B>0,C>0;
针对A%的隐藏节点部分,使用隐藏标记[MASK]替换实际节点;针对B%的隐藏节点部分,使用随机的一个节点来替换实际节点;针对C%的隐藏节点部分,保持原节点不变。
7.根据权利要求6所述的基于深度神经网络的网络表示学习方法,其特征在于:步骤S1中,A=80,B=10,C=10。
8.根据权利要求5所述的基于深度神经网络的网络表示学习方法,其特征在于:所述的步骤(32)具体如下:
定义节点vi的标签向量为其中|T|表示分类标签的数量,节点vi对应的特征向量为在用于分类的输出层中定义其权重为用标准softmax计算标签概率计算公式如下:
损失函数定义如下:
其中i的取值范围为[0,|V|-1],具体取值为节点序列S′j中的节点对应的编号。
CN201910426821.4A 2019-05-21 2019-05-21 一种基于深度神经网络的网络表示学习方法 Pending CN110414665A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910426821.4A CN110414665A (zh) 2019-05-21 2019-05-21 一种基于深度神经网络的网络表示学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910426821.4A CN110414665A (zh) 2019-05-21 2019-05-21 一种基于深度神经网络的网络表示学习方法

Publications (1)

Publication Number Publication Date
CN110414665A true CN110414665A (zh) 2019-11-05

Family

ID=68357825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910426821.4A Pending CN110414665A (zh) 2019-05-21 2019-05-21 一种基于深度神经网络的网络表示学习方法

Country Status (1)

Country Link
CN (1) CN110414665A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991175A (zh) * 2019-12-10 2020-04-10 爱驰汽车有限公司 多模态下的文本生成方法、系统、设备及存储介质
CN111008447A (zh) * 2019-12-21 2020-04-14 杭州师范大学 一种基于图嵌入法的链路预测方法
CN111064603A (zh) * 2019-12-04 2020-04-24 深圳大学 一种网络链路确定方法、装置及设备
CN111708881A (zh) * 2020-05-22 2020-09-25 国网天津市电力公司 一种引入关联关系的文本表示学习方法
CN112132326A (zh) * 2020-08-31 2020-12-25 浙江工业大学 一种基于随机游走度惩罚机制的社交网络好友预测方法
CN112182511A (zh) * 2020-11-27 2021-01-05 中国人民解放军国防科技大学 复杂语义增强异构信息网络表示学习方法和装置
CN112925953A (zh) * 2021-03-09 2021-06-08 南京航空航天大学 一种动态网络表示方法及系统
CN113035334A (zh) * 2021-05-24 2021-06-25 四川大学 鼻腔nkt细胞淋巴瘤放疗靶区自动勾画方法和装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111064603A (zh) * 2019-12-04 2020-04-24 深圳大学 一种网络链路确定方法、装置及设备
CN110991175A (zh) * 2019-12-10 2020-04-10 爱驰汽车有限公司 多模态下的文本生成方法、系统、设备及存储介质
CN110991175B (zh) * 2019-12-10 2024-04-09 爱驰汽车有限公司 多模态下的文本生成方法、系统、设备及存储介质
CN111008447B (zh) * 2019-12-21 2023-09-05 杭州师范大学 一种基于图嵌入法的链路预测方法
CN111008447A (zh) * 2019-12-21 2020-04-14 杭州师范大学 一种基于图嵌入法的链路预测方法
CN111708881A (zh) * 2020-05-22 2020-09-25 国网天津市电力公司 一种引入关联关系的文本表示学习方法
CN112132326B (zh) * 2020-08-31 2023-12-01 浙江工业大学 一种基于随机游走度惩罚机制的社交网络好友预测方法
CN112132326A (zh) * 2020-08-31 2020-12-25 浙江工业大学 一种基于随机游走度惩罚机制的社交网络好友预测方法
CN112182511B (zh) * 2020-11-27 2021-02-19 中国人民解放军国防科技大学 复杂语义增强异构信息网络表示学习方法和装置
CN112182511A (zh) * 2020-11-27 2021-01-05 中国人民解放军国防科技大学 复杂语义增强异构信息网络表示学习方法和装置
CN112925953A (zh) * 2021-03-09 2021-06-08 南京航空航天大学 一种动态网络表示方法及系统
CN112925953B (zh) * 2021-03-09 2024-02-20 南京航空航天大学 一种动态网络表示方法及系统
CN113035334A (zh) * 2021-05-24 2021-06-25 四川大学 鼻腔nkt细胞淋巴瘤放疗靶区自动勾画方法和装置

Similar Documents

Publication Publication Date Title
CN110414665A (zh) 一种基于深度神经网络的网络表示学习方法
Geary et al. A guide to ecosystem models and their environmental applications
Di Cola et al. ecospat: an R package to support spatial analyses and modeling of species niches and distributions
CN109523018B (zh) 一种基于深度迁移学习的图片分类方法
Thessen Adoption of machine learning techniques in ecology and earth science
CN109934261B (zh) 一种知识驱动参数传播模型及其少样本学习方法
CN110210486B (zh) 一种基于素描标注信息的生成对抗迁移学习方法
Pavoine et al. Measuring biodiversity to explain community assembly: a unified approach
CN108334936B (zh) 基于迁移卷积神经网络的故障预测方法
Gomez et al. A divide-and-link algorithm for hierarchical clustering in networks
CN107729497A (zh) 一种基于知识图谱的词嵌入深度学习方法
CN110796313B (zh) 一种基于带权图卷积和项目吸引力模型的会话推荐方法
Pennell et al. A simple approach for maximizing the overlap of phylogenetic and comparative data
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN110110372B (zh) 一种用户时序行为自动切分预测方法
CN112541639A (zh) 基于图神经网络和注意力机制的推荐系统评分预测方法
CN110334105A (zh) 一种基于Storm的流数据异常检测算法
CN114201684A (zh) 一种基于知识图谱的自适应学习资源推荐方法及系统
Gul et al. A systematic analysis of link prediction in complex network
CN105787045A (zh) 一种用于可视媒体语义索引的精度增强方法
CN111860178A (zh) 一种基于权重字典学习的小样本遥感目标检测方法及系统
CN116383446A (zh) 一种基于异构引文网络的作者分类方法
DeNicola et al. A stochastic model of epilithic algal succession and patch dynamics in streams
CN115664970A (zh) 基于双曲空间的网络异常点检测方法
CN114708501A (zh) 基于条件对抗网络的遥感影像建筑物变化检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191105