CN111461907A - 一种面向社交网络平台的动态网络表征学习方法 - Google Patents

一种面向社交网络平台的动态网络表征学习方法 Download PDF

Info

Publication number
CN111461907A
CN111461907A CN202010174189.1A CN202010174189A CN111461907A CN 111461907 A CN111461907 A CN 111461907A CN 202010174189 A CN202010174189 A CN 202010174189A CN 111461907 A CN111461907 A CN 111461907A
Authority
CN
China
Prior art keywords
network
matrix
dynamic
learning method
dynamic network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010174189.1A
Other languages
English (en)
Inventor
徐小龙
王扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202010174189.1A priority Critical patent/CN111461907A/zh
Publication of CN111461907A publication Critical patent/CN111461907A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种面向社交网络平台的动态网络表征学习方法,包括如下步骤:根据输入的原始数据,对其中所有出现过的节点进行编号;根据编号后的节点序列以及原始数据,构建一个动态网络;得到动态网络的邻接矩阵、自环邻接矩阵以及对应的度矩阵;将所得矩阵作为输入交由深度神经网络模型进行学习;训练神经网络模型,将原始高维稀疏矩阵转换为低维稠密的向量,并将网络所携带的时序信息也嵌入在新的向量空间中。本发明通过使用图卷积神经网络来对网络数据进行特征提取并结合LSTM捕捉网络中潜在的时序信息,使得高维网络中蕴含的特征信息以及时序信息都可以被捕获到,具有很好的普适性,可以应用到所有有关的网络分析任务中。

Description

一种面向社交网络平台的动态网络表征学习方法
技术领域
本发明属于表征学习技术领域,具体涉及一种面向社交网络平台的动态网络表征学习方法。
背景技术
网络表征学习旨在将网络中的节点表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空间中具有表示以及推理的能力。目前,静态网络表征学习算法得到了长远的发展,然而在现实世界中的网络大多数都是动态的而不是静态的,即网络中的节点或者边是会随着时间的变化发生增加或者减少的。简单地将现有的静态网络表征学习算法应用于动态网络的每一个快照,通常会导致稳定性、灵活性以及效率方面差强人意,如何设计算法使之更加适用于动态网络表征学习成为了值得研究的一个问题。
基于特征值分解的动态网络表征学习方法通过对复杂网络的邻接矩阵和其属性矩阵进行特征值分解,从而得到每个节点的向量表示。从矩阵角度看,网络动态演变的过程等价于邻接矩阵和属性矩阵在不断发生变化。基于特征值分解的算法正是利用这些变化,根据矩阵的摄动理论来对网络的向量进行更新,主要包括DANE、DHPE和TIMERS等方法。此类方法依赖于所要分解的矩阵并且随着网络规模的扩大,算法的时间复杂度和空间复杂度会成倍提高。
基于Skip-Gram的动态网络表征学习方法通过随机游走将原始网络转换为节点序列的集合,借助于词表征的思想,通过每个节点上下文的信息从而达到节点表征的学习,主要包括DNE、HTNE和NetWalk等方法。此类方法的性能取决于所选取的游走策略,并且由于随机游走对网络边缘节点采样存在不全面的将问题,因此算法的性能还存在提升空间。
基于深度学习的动态网络表征学习方法通过利用深度学习领域的复杂结构来实现对原始动态网络结构以及信息的提取,从而实现网络表征的学习。主要包括借助于自编码器实现的DynGEM和dyngraph2vec等方法,以及使用图卷积神经网络实现的DyRep等方法。对于使用传统深度学习的动态网络表征学习方法,由于网络数据属于非欧式空间,传统的深度学习方法在非欧式空间数据上的特征提取同样存在提升的空间。
发明内容
发明目的:本发明提供一种面向社交网络平台的动态网络表征学习方法,该方法主要针对社交网络平台中存在的复杂网络,利用深度学习来对节点之间存在的复杂的、高度非线性的关系进行学习,在捕获动态网络中的时序信息的同时将高维、稀疏的矩阵转化为低维、实值、稠密的向量形式。
发明内容:本发明提供一种面向社交网络平台的动态网络表征学习方法,包括以下步骤:
(1)对于输入的网络数据,对其中出现过的节点进行编号,并将编号作为节点自身的id,每个节点的编号唯一,得到节点的集合V={v1,···,vn}以及边的集合
Figure BDA0002410231450000021
(2)根据编号后的节点序列以及原始数据,构建一个动态网络
Figure BDA0002410231450000022
用来表示网络在时间轴上的一系列快照,其中Gt=(Vt,Et)表示的就是动态网络
Figure BDA0002410231450000023
在t时刻的网络结构,其中Vt∈V表示t时刻网络中存在的节点,Et∈E表示的是t时刻网络中存在的边;
(3)经步骤(1)和步骤(2)处理后,得到动态网络的邻接矩阵
Figure BDA0002410231450000024
其中At|V|×|V|表示的就是t时刻的静态网络Gt的邻接矩阵;
(4)将步骤(3)所得动态网络的邻接矩阵
Figure BDA0002410231450000025
作为训练数据交由GCN网络结构提取输入数据中潜在的特征;
(5)将由步骤(4)处理后得到的网络特征,使用多层LSTM网络结构捕捉动态网络演化过程中的时序信息并实现对原始输入数据的嵌入操作;
(6)将由步骤(5)处理后得到的网络表征向量通过全连接神经网络进行解码操作,并得到下一时刻网络结构的预测结果;
(7)根据步骤(4)至步骤(6)构建出深度神经网络模型,利用反向传播算法对该模型进行训练,修正各层神经元的权重系数。
进一步地,所述步骤(4)通过以下公式实现:
Figure BDA0002410231450000026
其中,σt为激活函数,
Figure BDA0002410231450000027
为图Gt的自环邻接矩阵,IN为单位矩阵,Dt是At的度矩阵,Ht是每一层的特征,对于第一层来说就是特征矩阵X,WGCN是需要学习的权重矩阵。
进一步地,所述步骤(5)通过以下公式实现:
Figure BDA0002410231450000031
Figure BDA0002410231450000032
Figure BDA0002410231450000033
Figure BDA0002410231450000034
Figure BDA0002410231450000035
Figure BDA0002410231450000036
其中,
Figure BDA0002410231450000037
表示该单元的输出,
Figure BDA0002410231450000038
表示LSTM的单元状态,
Figure BDA0002410231450000039
是触发忘记门的值,Wf表示忘记门中的权重参数,
Figure BDA00024102314500000310
是触发输出门的值,
Figure BDA00024102314500000311
代表触发LSTM的更新门的值,Wi表示更新门中的权重参数,
Figure BDA00024102314500000312
代表新的估计候选状态,WC表示候选状态得到过程中涉及到的权重,b代表偏差值,在第一层中可以设置l个LSTM,其中单元状态和隐藏表示从t-l到t时刻的连锁传递,第k层的计算公式记为:
Figure BDA00024102314500000313
Figure BDA00024102314500000314
其中,σ为激活函数,WRNN是LSTM网络的权重参数矩阵。
进一步地,步骤(7)所述的深度神经网络模型主要包括编码阶段和解码阶段两部分。
进一步地,步骤(7)所述深度神经网络模型的损失函数为:
Figure BDA00024102314500000315
通过在t+l时刻学习到的嵌入对t+l+1时刻网络重构中出现的错误边进行一定的惩罚,从而修正权重参数;其中,代表Hadamard积,加权矩阵B用来对网络中边重构进行修正,其中Bij=βfor(i,j)∈Et+l+1,否则为1。
有益效果:与现有技术相比,本发明的有益效果:
1、本发明利用神经网络模型来对原始的动态网络进行学习,在实现过程中考虑到网络所携带的时序信息,从而将动态网络以低维、实值、稠密的向量形式进行表示,在得到网络表征向量的同时预测下一阶段网络结构;
2、本发明在动态网络表征学习过程中,利用卷积操作来扫描整个空间中的数据,从而获得更加全面的信息;于此同时充分考虑到非欧氏空间数据的特点,利用专门针对于图的图卷积神经网络来从网络数据中提取特征向量,从而提取网络中潜在的特征向量;
3、本发明将提取到的网络特征数据交由LSTM来从不同时间下的向量中学习潜在的时序信息,避免传统循环神经网络梯度爆炸与梯度消失等问题,并且LSTM在处理时序信息数据具有更好的效果;
4、本发明充分考虑了实际网络中的有效信息,并在不同类型的复杂网络数据上都取得了优异的效果,具有良好的实用性。
附图说明
图1为本发明方法的模型示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
如图1所示,本发明提供一种面向社交网络平台的动态网络表征学习方法,包括如下步骤:
1、对于输入的网络数据,对其中出现过的节点进行编号,并将编号作为节点自身的id,每个节点的编号唯一,得到节点的集合V={v1,···,vn}以及边的集合
Figure BDA0002410231450000041
读取原始数据,该数据为DBLP论文引用排名前500的作者组成的并以(year,node_1,node_2)三元组形式展示,其中字段含义分别为年份、节点1编号和节点2编号。取前40条记录,如下所示:
Figure BDA0002410231450000042
Figure BDA0002410231450000051
根据读取到的数据,对其中所有出现过的节点进行编号,并将编号作为节点自身的id,每个节点的编号唯一,得到节点的集合V={(0,0),(1,1),(2,2),(3,3),(4,4),(5,5),(6,9),(7,11),(8,35),(9,57),(10,74),(11,103),(12,123),(13,128),(14,194),(15,224),(16,234),(17,244),(18,251),(19,260),(20,279),(21,307),(22,332),(23,352),(24,361),(25,389),(26,431),(27,446)}。
2、根据编号后的节点序列以及原始数据,构建一个动态网络
Figure BDA0002410231450000052
用来表示网络在时间轴上的一系列快照,其中Gt=(Vt,Et)表示的就是动态网络
Figure BDA0002410231450000053
在t时刻的网络结构,其中Vt∈V表示t时刻网络中存在的节点,Et∈E表示的是t时刻网络中存在的边。
构建一个动态网络
Figure BDA0002410231450000054
用来表示网络在时间轴上的一系列快照:
Figure BDA0002410231450000055
3、经步骤1和步骤2处理后,得到动态网络的邻接矩阵
Figure BDA0002410231450000056
其中At|V|×|V|表示的就是t时刻的静态网络Gt的邻接矩阵。
此处,邻接矩阵的维度为28×28其中1代表两节点有边相连,而0则表示没有,结果如下所示:
Figure BDA0002410231450000061
4、将步骤3所得动态网络的邻接矩阵
Figure BDA0002410231450000062
作为训练数据交由GCN网络结构提取输入数据中潜在的特征。
Figure BDA0002410231450000063
其中,σt为激活函数,
Figure BDA0002410231450000064
为图Gt的自环邻接矩阵,IN为单位矩阵,Dt是At的度矩阵,Ht是每一层的特征,对于第一层来说就是特征矩阵X,WGCN是需要学习的权重矩阵。
计算每个时间片下网络的自环邻接矩阵
Figure BDA0002410231450000065
以及对应的度矩阵Dt,所得结果如下所示:
Figure BDA0002410231450000071
将自环邻接矩阵以及度矩阵作为深度神经网络模型的输入,对于卷积神经网络来说,我们将单位矩阵作为特征矩阵;
5、将由步骤4处理后得到的网络特征,使用多层LSTM网络结构捕捉动态网络演化过程中的时序信息并实现对原始输入数据的嵌入操作。
捕捉时序信息所使用的LSTM网络的隐藏状态定义为:
Figure BDA0002410231450000072
Figure BDA0002410231450000073
Figure BDA0002410231450000074
Figure BDA0002410231450000081
Figure BDA0002410231450000082
Figure BDA0002410231450000083
其中
Figure BDA0002410231450000084
表示该单元的输出,
Figure BDA0002410231450000085
表示LSTM的单元状态,
Figure BDA0002410231450000086
是触发忘记门的值,Wf表示忘记门中的权重参数,
Figure BDA0002410231450000087
是触发输出门的值,
Figure BDA0002410231450000088
代表触发LSTM的更新门的值,Wi表示更新门中的权重参数,
Figure BDA0002410231450000089
代表新的估计候选状态,WC表示候选状态得到过程中涉及到的权重,b代表偏差值。在第一层中可以设置l个LSTM,其中单元状态和隐藏表示从t-l到t时刻的连锁传递。第k层的计算公式记为:
Figure BDA00024102314500000810
Figure BDA00024102314500000811
其中,σ为激活函数,WRNN是LSTM网络的权重参数矩阵。
6、将由步骤5处理后得到的网络表征向量通过全连接神经网络进行解码操作,并得到下一时刻网络结构的预测结果。
7、构建深度神经网络模型,利用反向传播算法对该模型进行训练,修正各层神经元的权重系数,最终得到低维稠密的网络表征向量。
深度神经网络模型主要是由图卷积网络(GCN)和长短时记忆(LSTM)网络组成的编码阶段和全连接网络组成的解码阶段两部分。
深度神经网络模型的损失函数定义为:
Figure BDA00024102314500000812
公式中,通过在t+l时刻学习到的嵌入对t+l+1时刻网络重构中出现的错误边进行一定的惩罚,从而修正权重参数。其中,代表Hadamard积,加权矩阵B用来对网络中边重构进行修正,其中Bij=βfor(i,j)∈Et+l+1,否则为1。
最终由28×28维的原始网络得到28×5维的节点表征向量,前5个节点最终学习到的向量如下所示:
Figure BDA0002410231450000091

Claims (5)

1.一种面向社交网络平台的动态网络表征学习方法,其特征在于,包括以下步骤:
(1)对于输入的网络数据,对其中出现过的节点进行编号,并将编号作为节点自身的id,每个节点的编号唯一,得到节点的集合V={v1,···,vn}以及边的集合
Figure FDA0002410231440000011
(2)根据编号后的节点序列以及原始数据,构建一个动态网络
Figure FDA0002410231440000012
用来表示网络在时间轴上的一系列快照,其中Gt=(Vt,Et)表示的就是动态网络
Figure FDA0002410231440000013
在t时刻的网络结构,其中Vt∈V表示t时刻网络中存在的节点,Et∈E表示的是t时刻网络中存在的边;
(3)经步骤(1)和步骤(2)处理后,得到动态网络的邻接矩阵
Figure FDA0002410231440000014
其中At∈|V|×|V|表示的就是t时刻的静态网络Gt的邻接矩阵;
(4)将步骤(3)所得动态网络的邻接矩阵
Figure FDA0002410231440000015
作为训练数据交由GCN网络结构提取输入数据中潜在的特征;
(5)将由步骤(4)处理后得到的网络特征,使用多层LSTM网络结构捕捉动态网络演化过程中的时序信息并实现对原始输入数据的嵌入操作;
(6)将由步骤(5)处理后得到的网络表征向量通过全连接神经网络进行解码操作,并得到下一时刻网络结构的预测结果;
(7)根据步骤(4)至步骤(6)构建出深度神经网络模型,利用反向传播算法对该模型进行训练,修正各层神经元的权重系数。
2.根据权利要求1所述的一种面向社交网络平台的动态网络表征学习方法,其特征在于,所述步骤(4)通过以下公式实现:
Figure FDA0002410231440000016
其中,σt为激活函数,
Figure FDA0002410231440000017
为图Gt的自环邻接矩阵,IN为单位矩阵,Dt是At的度矩阵,Ht是每一层的特征,对于第一层来说就是特征矩阵X,WGCN是需要学习的权重矩阵。
3.根据权利要求1所述的一种面向社交网络平台的动态网络表征学习方法,其特征在于,所述步骤(5)通过以下公式实现:
Figure FDA0002410231440000021
Figure FDA0002410231440000022
Figure FDA0002410231440000023
Figure FDA0002410231440000024
Figure FDA0002410231440000025
Figure FDA0002410231440000026
其中,
Figure FDA0002410231440000027
表示该单元的输出,
Figure FDA0002410231440000028
表示LSTM的单元状态,
Figure FDA0002410231440000029
是触发忘记门的值,Wf表示忘记门中的权重参数,
Figure FDA00024102314400000210
是触发输出门的值,
Figure FDA00024102314400000211
代表触发LSTM的更新门的值,Wi表示更新门中的权重参数,
Figure FDA00024102314400000212
代表新的估计候选状态,WC表示候选状态得到过程中涉及到的权重,b代表偏差值,在第一层中可以设置l个LSTM,其中单元状态和隐藏表示从t-l到t时刻的连锁传递,第k层的计算公式记为:
Figure FDA00024102314400000213
Figure FDA00024102314400000214
其中,σ为激活函数,WRNN是LSTM网络的权重参数矩阵。
4.根据权利要求1所述的一种面向社交网络平台的动态网络表征学习方法,其特征在于,步骤(7)所述的深度神经网络模型主要包括编码阶段和解码阶段两部分。
5.根据权利要求4所述的一种面向社交网络平台的动态网络表征学习方法,其特征在于,步骤(7)所述深度神经网络模型的损失函数为:
Figure FDA00024102314400000215
通过在t+l时刻学习到的嵌入对t+l+1时刻网络重构中出现的错误边进行一定的惩罚,从而修正权重参数;其中,代表Hadamard积,加权矩阵B用来对网络中边重构进行修正,其中Bij=βfor(i,j)∈Et+l+1,否则为1。
CN202010174189.1A 2020-03-13 2020-03-13 一种面向社交网络平台的动态网络表征学习方法 Pending CN111461907A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010174189.1A CN111461907A (zh) 2020-03-13 2020-03-13 一种面向社交网络平台的动态网络表征学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010174189.1A CN111461907A (zh) 2020-03-13 2020-03-13 一种面向社交网络平台的动态网络表征学习方法

Publications (1)

Publication Number Publication Date
CN111461907A true CN111461907A (zh) 2020-07-28

Family

ID=71684454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010174189.1A Pending CN111461907A (zh) 2020-03-13 2020-03-13 一种面向社交网络平台的动态网络表征学习方法

Country Status (1)

Country Link
CN (1) CN111461907A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446489A (zh) * 2020-11-25 2021-03-05 天津大学 基于变分自编码器的动态网络嵌入链接预测方法
CN113065974A (zh) * 2021-03-16 2021-07-02 西北工业大学 一种基于动态网络表示学习的链路预测方法
CN113111865A (zh) * 2021-05-13 2021-07-13 广东工业大学 一种基于深度学习的跌倒行为检测方法和系统
CN114118375A (zh) * 2021-11-29 2022-03-01 吉林大学 一种基于时序图Transformer的连续动态网络表征学习方法
CN115208680A (zh) * 2022-07-21 2022-10-18 中国科学院大学 一种基于图神经网络的动态网络风险预测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423814A (zh) * 2017-07-31 2017-12-01 南昌航空大学 一种采用深度卷积神经网络建立动态网络模型的方法
CN110263280A (zh) * 2019-06-11 2019-09-20 浙江工业大学 一种基于多视图的动态链路预测深度模型及应用
CN110413844A (zh) * 2019-05-24 2019-11-05 浙江工业大学 基于时空注意力深度模型的动态链路预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423814A (zh) * 2017-07-31 2017-12-01 南昌航空大学 一种采用深度卷积神经网络建立动态网络模型的方法
CN110413844A (zh) * 2019-05-24 2019-11-05 浙江工业大学 基于时空注意力深度模型的动态链路预测方法
CN110263280A (zh) * 2019-06-11 2019-09-20 浙江工业大学 一种基于多视图的动态链路预测深度模型及应用

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈晋音 等: "基于时空注意力深度模型的动态链路预测", 《小型微型计算机系统》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446489A (zh) * 2020-11-25 2021-03-05 天津大学 基于变分自编码器的动态网络嵌入链接预测方法
CN112446489B (zh) * 2020-11-25 2023-05-05 天津大学 基于变分自编码器的动态网络嵌入链接预测方法
CN113065974A (zh) * 2021-03-16 2021-07-02 西北工业大学 一种基于动态网络表示学习的链路预测方法
CN113065974B (zh) * 2021-03-16 2023-08-18 西北工业大学 一种基于动态网络表示学习的链路预测方法
CN113111865A (zh) * 2021-05-13 2021-07-13 广东工业大学 一种基于深度学习的跌倒行为检测方法和系统
CN113111865B (zh) * 2021-05-13 2023-08-15 广东工业大学 一种基于深度学习的跌倒行为检测方法和系统
CN114118375A (zh) * 2021-11-29 2022-03-01 吉林大学 一种基于时序图Transformer的连续动态网络表征学习方法
CN114118375B (zh) * 2021-11-29 2024-05-10 吉林大学 一种基于时序图Transformer的连续动态网络表征学习方法
CN115208680A (zh) * 2022-07-21 2022-10-18 中国科学院大学 一种基于图神经网络的动态网络风险预测方法
US11934536B2 (en) 2022-07-21 2024-03-19 University Of Chinese Academy Of Sciences Dynamic network risk predicting method based on a graph neural network

Similar Documents

Publication Publication Date Title
CN111461907A (zh) 一种面向社交网络平台的动态网络表征学习方法
CN109271522B (zh) 基于深度混合模型迁移学习的评论情感分类方法及系统
CN110046252B (zh) 一种基于注意力机制神经网络与知识图谱的医疗文本分级方法
CN112381179B (zh) 一种基于双层注意力机制的异质图分类方法
CN112087447B (zh) 面向稀有攻击的网络入侵检测方法
CN112308326B (zh) 一种基于元路径和双向编码器的生物网络链接预测方法
CN111259917B (zh) 一种基于局部近邻成分分析的图像特征提取方法
CN113190688A (zh) 基于逻辑推理和图卷积的复杂网络链接预测方法及系统
CN112686376A (zh) 一种基于时序图神经网络的节点表示方法及增量学习方法
CN113822419A (zh) 一种基于结构信息的自监督图表示学习运行方法
CN112578089A (zh) 一种基于改进tcn的空气污染物浓度预测方法
CN116383401A (zh) 一种融合文本描述与图卷积机制的知识图谱补全方法
CN115062727A (zh) 一种基于多阶超图卷积网络的图节点分类方法及系统
CN117035013A (zh) 一种采用脉冲神经网络预测动态网络链路的方法
CN110993121A (zh) 一种基于双协同线性流形的药物关联预测方法
CN108629401A (zh) 基于局部感知递归神经网络的字符级语言模型预测方法
CN115081516A (zh) 一种基于生物连接组时变卷积网络的物联网流量预测方法
CN114330672A (zh) 多信息聚合的图残差生成模型、分类方法、电子设备及存储介质
CN112597890A (zh) 基于多维泰勒网的人脸识别方法
CN112288078A (zh) 一种基于脉冲神经网络的自学习、小样本学习和迁移学习的方法与系统
CN112818982A (zh) 基于深度特征自相关性激活的农业害虫图像检测方法
CN113379068B (zh) 基于结构化数据的深度学习架构搜索方法
CN115761654B (zh) 一种车辆重识别方法
FangYuan et al. A Multi-view Images Classification Based on Deep Graph Convolution
CN116311280B (zh) 基于图注意力网络的电子公文主题标引方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 210003 Gulou District, Jiangsu, Nanjing new model road, No. 66

Applicant after: NANJING University OF POSTS AND TELECOMMUNICATIONS

Address before: Yuen Road Qixia District of Nanjing City, Jiangsu Province, No. 9 210046

Applicant before: NANJING University OF POSTS AND TELECOMMUNICATIONS

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200728