CN113111224B - 一种基于拓扑感知文本表征的网络嵌入学习方法 - Google Patents
一种基于拓扑感知文本表征的网络嵌入学习方法 Download PDFInfo
- Publication number
- CN113111224B CN113111224B CN202110287783.6A CN202110287783A CN113111224B CN 113111224 B CN113111224 B CN 113111224B CN 202110287783 A CN202110287783 A CN 202110287783A CN 113111224 B CN113111224 B CN 113111224B
- Authority
- CN
- China
- Prior art keywords
- text
- characterization
- network
- topology
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012512 characterization method Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000008447 perception Effects 0.000 title claims abstract description 20
- 230000008569 process Effects 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000009412 basement excavation Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 3
- 241000689227 Cora <basidiomycete fungus> Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于拓扑感知文本表征的网络嵌入学习方法,该方法利用结点的局部拓扑结构信息,自适应地生成拓扑感知滤波器,并用于文本表征的学习,从而得到拓扑感知的文本表征,更有效地将拓扑结构信息融入到文本表征的挖掘中;此外,本方法可以与现有的基于上下文感知的网络嵌入模型相结合,适用面更广,并且在链接预测、结点分类任务上取得了性能提升,体现了本方法学习到的网络结点表征的有效性。
Description
技术领域
本发明涉及网络嵌入方法领域,更具体地,涉及一种基于拓扑感知文本表征的网络嵌入学习方法。
背景技术
在现实世界中,具有网络结构的数据十分常见,例如,基于微博、微信等平台的社交网络、论文引用网络等。这些网络中往往蕴含着海量的信息,合理有效地挖掘这些信息对一些下游任务的应用非常有益,例如电商系统中的商品推荐、相关论文推荐等。在信息量爆炸式增长的当今时代,这些网络通常都包含大量的结点和边、规模十分庞大,直接对网络进行处理需要大量的时间和存储空间、计算效率很低。因此,研究如何高效地挖掘网络中的有用信息具有重要意义。
在众多网络研究方法中,网络嵌入是一种应用广泛并且取得了较好效果的方法,网络嵌入也叫网络表征学习、图嵌入。网络嵌入的目标是为网络中的每个结点学习一个低维表征,使得这个低维表征尽可能地保留了该结点的重要信息。学习到结点表征后,我们只需要对这些低维表征进行处理就能利用网络中丰富的信息,而不需要对原始的网络进行处理,这样可以极大地提高计算效率。
传统的网络嵌入主要被看成一个降维的过程,主要的降维方法有主成分分析、多维缩放。后来,其他方法如局部线性嵌入被提出,用于保持非线性流型的全局结构。这些方法在小的网络上都能取得不错的效果,但是由于算法的复杂度较高,它们并不适用于大型的网络。
目前,已经有许多网络嵌入的算法被提出来,这些算法主要利用到的信息有三大类:网络结构信息、结点属性信息和结点标签信息。网络结构信息是指根据网络的拓扑结构处理获得的信息,例如网络结点直接的邻接关系;结点属性信息是指网络中结点本身具有的一些特性和内容,例如社交网络中每个用户的性别、年龄、好友数量等,论文引用网络中每篇论文的关键词、论文文本等;结点标签信息是指按照某种标准将网络中所有结点分为几大类,每个结点所在的类别信息。
发明内容
本发明提供一种基于拓扑感知文本表征的网络嵌入学习方法,该方法使得网络结点的表征包含更丰富的信息。
为了达到上述技术效果,本发明的技术方案如下:
一种基于拓扑感知文本表征的网络嵌入学习方法,包括以下步骤:
S1:使用图神经网络提取文本网络中结点的局部拓扑结构信息,获取所有结点的拓扑结构表征;
S2:将S1得到的结点的拓扑结构表征输入到滤波器生成模块,生成拓扑感知的滤波器,并将得到的拓扑感知滤波器和文本输入到卷积神经网络模块中,生成拓扑感知的文本表征;
S3:通过已有的网络嵌入模型获取上下文感知的文本表征,与S2中得到的拓扑感知的文本表征结合起来,得到网络结点最终的文本表征;将拓扑结构表征和文本表征结合起来,得到最终的网络结点表征。
进一步地,所述步骤S1的具体过程是:
首先为网络中的每个结点随机初始化一个拓扑结构表征,结点的初始结构表征用/>表示,根据输入的网络的邻接矩阵,从结点/>的所有邻居结点中随机采样出多跳邻居,每一跳的邻居数量是固定的,对结点/>采样/>跳的邻居后,获得关于结点/>的局部拓扑图;
采样得到结点的局部拓扑图后,再利用图神经网络一层一层地由外往内学习结点的结构表征,如公式(1)(2):
其中,是图神经网络的参数;/>表示第/>个结点在/>层的邻居;/>用于将所有邻居结点的向量表征聚集起来,构成一个矩阵;/>是激活函数;;
经过层后得到结点/>的局部拓扑结构表征,如公式(3)所示:
(3)。
进一步地,所述步骤S2的具体过程包括:
将步骤S1得到的拓扑结构表征输入到一个滤波器生成模块,生成拓扑感知的滤波器/>,如公式(4):
(4)
其中,表示反卷积神经网络;
将输入文本和拓扑感知滤波器/>一起输入到卷积神经网络中,并通过非线性变换得到基于局部拓扑结构信息的文本表征/>,称为拓扑感知的文本表征,如公式(5)(6):
其中,是卷积神经网络,b是卷积层中的偏置项;/>是非线性激活函数;/>代表平均池化操作。
进一步地,所述步骤S3的具体过程是:
将文本输入到已有的上下文感知的网络嵌入模型中,获取上下文本感知的文本表征;
所述步骤S3的具体过程还包括:
将上下文本感知的文本表征与步骤S2中得到的拓扑感知的文本表征/>进行线性加权,得到网络结点最终的文本表征/>,如公式(7):
(7)
其中,是模型的一个参数,/>是一个可学习的参数,与模型中的其他参数一起在训练过程中学习得到。
将步骤S1得到的拓扑结构表征和步骤S3得到的文本表征/>拼接起来,获取最终的网络结点表征/>,如公式(8):
(8)。
与现有技术相比,本发明技术方案的有益效果是:
本发明方法相比于只考虑了拓扑结构信息或者只考虑了文本信息的网络嵌入方法,同时考虑了这两种信息,并且将二者融合起来,使得网络结点的表征包含更丰富的信息;相比于同时考虑了结构信息和文本信息的方法,本方法利用结点的局部拓扑结构信息,自适应地生成拓扑感知滤波器,并用于文本表征的学习,从而得到拓扑感知的文本表征,更有效地将拓扑结构信息融入到文本表征的挖掘中;此外,本方法可以与现有的基于上下文感知的网络嵌入模型相结合,适用面更广,并且在链接预测、结点分类任务上取得了性能提升,体现了本方法学习到的网络结点表征的有效性。
附图说明
图1为S1步骤中提取结点的局部拓扑信息的示意图;
图2为S1和S2步骤中学习拓扑感知的文本表征的流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1-2所示,一种基于拓扑感知文本表征的网络嵌入学习方法,包括以下步骤:
S1:使用图神经网络提取文本网络中结点的局部拓扑结构信息,获取所有结点的拓扑结构表征;
S2:将S1得到的结点的拓扑结构表征输入到滤波器生成模块,生成拓扑感知的滤波器,并将得到的拓扑感知滤波器和文本输入到卷积神经网络模块中,生成拓扑感知的文本表征;
S3:通过已有的网络嵌入模型获取上下文感知的文本表征,与S2中得到的拓扑感知的文本表征结合起来,得到网络结点最终的文本表征;将拓扑结构表征和文本表征结合起来,得到最终的网络结点表征。
进一步地,所述步骤S1的具体过程是:
首先为网络中的每个结点随机初始化一个拓扑结构表征,结点的初始结构表征用/>表示,根据输入的网络的邻接矩阵,从结点/>的所有邻居结点中随机采样出多跳邻居,每一跳的邻居数量是固定的,对结点/>采样/>跳的邻居后,获得关于结点/>的局部拓扑图;
采样得到结点的局部拓扑图后,再利用图神经网络一层一层地由外往内学习结点的结构表征,如公式(1)(2):
其中,是图神经网络的参数;/>表示第/>个结点在/>层的邻居;/>用于将所有邻居结点的向量表征聚集起来,构成一个矩阵;/>是激活函数;
经过层后得到结点/>的局部拓扑结构表征,如公式(3)所示:
(3)。
进一步地,所述步骤S2的具体过程包括:
将步骤S1得到的拓扑结构表征输入到一个滤波器生成模块,生成拓扑感知的滤波器/>,如公式(4):
(4)
其中,表示反卷积神经网络;
将输入文本和拓扑感知滤波器/>一起输入到卷积神经网络中,并通过非线性变换得到基于局部拓扑结构信息的文本表征/>,称为拓扑感知的文本表征,如公式(5)(6):
其中,是卷积神经网络,b是卷积层中的偏置项;/>是非线性激活函数;/>代表平均池化操作。
进一步地,所述步骤S3的具体过程是:
将文本输入到已有的上下文感知的网络嵌入模型中,获取上下文本感知的文本表征;
所述步骤S3的具体过程还包括:
将上下文本感知的文本表征与步骤S2中得到的拓扑感知的文本表征/>进行线性加权,得到网络结点最终的文本表征/>,如公式(7):
(7)
其中,是模型的一个参数,/>是一个可学习的参数,与模型中的其他参数一起在训练过程中学习得到。
将步骤S1得到的拓扑结构表征和步骤S3得到的文本表征/>拼接起来,获取最终的网络结点表征/>,如公式(8):
(8)。
本实施例采用两个论文引用网络数据集Cora和HepTh,以及一个社交网络数据集Zhihu。其中,Cora数据集包含机器学习中7个研究领域的2277篇论文,有5214条引用关系;HepTh数据集包含1038篇文章和1990条引用关系;Zhihu数据集包含了10000个活跃用户和用户的相关描述、感兴趣的话题,同时包含了43896条连接关系。
本发明方法具体步骤为:
第一步,搭建图神经网络,为网络结点随机初始化结构表征,将网络数据中的邻接矩阵和初始化的结构表征输入到图神经网络中,获取结点的局部拓扑结构表征。
第二步,搭建反卷积神经网络和卷积神经网络,将结点的局部拓扑结构表征输入到反卷积神经网络中,生成拓扑感知的滤波器;将输入文本和拓扑感知滤波器一起输入到卷积神经网络中,得到结点的拓扑感知文本表征。
第三步,将文本输入到已有的基于上下文感知的网络嵌入模型中,获得上下文感知的文本表征;将上下文感知的文本表征和拓扑感知的文本表征进行线性加权,得到最终的文本表征;将结点的文本表征和结构表征拼接起来得到最终的网络结点表征。
第四步,对于链接预测任务,随机删除网络中一定比例的边,计算生成的结点表征之间的相似性,预测节点间是否存在边,并验证预测结果;对于结点分类任务,将生成的结点表征输入到线性SVM分类器中进行分类,并验证分类结果。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (2)
1.一种基于拓扑感知文本表征的网络嵌入学习方法,其特征在于,包括以下步骤:
S1:使用图神经网络提取文本网络中结点的局部拓扑结构信息,获取所有结点的拓扑结构表征;
S2:将S1得到的结点的拓扑结构表征输入到滤波器生成模块,生成拓扑感知的滤波器,并将得到的拓扑感知滤波器和文本输入到卷积神经网络模块中,生成拓扑感知的文本表征;
S3:通过已有的网络嵌入模型获取上下文感知的文本表征,与S2中得到的拓扑感知的文本表征结合起来,得到网络结点最终的文本表征;将拓扑结构表征和文本表征结合起来,得到最终的网络结点表征;
所述步骤S1的具体过程包括:
首先为网络中的每个结点随机初始化一个拓扑结构表征,结点的初始结构表征用/>表示,根据输入的网络的邻接矩阵,从结点/>的所有邻居结点中随机采样出多跳邻居,每一跳的邻居数量是固定的,对结点/>采样/>跳的邻居后,获得关于结点/>的局部拓扑图;
所述步骤S1的具体过程还包括:
采样得到结点的局部拓扑图后,再利用图神经网络一层一层地由外往内学习结点的结构表征,如公式(1)(2):
其中, 是图神经网络的参数;/>表示第/>个结点在/>层的邻居;用于将所有邻居结点的向量表征聚集起来,构成一个矩阵; />是激活函数;
所述步骤S1的具体过程还包括:
经过层后得到结点/>的局部拓扑结构表征,如公式(3)所示:
(3);
所述步骤S2的具体过程包括:
将步骤S1得到的拓扑结构表征输入到一个滤波器生成模块,生成拓扑感知的滤波器,如公式(4):
(4)
其中, 表示反卷积神经网络;
所述步骤S2的具体过程还包括:将输入文本和拓扑感知滤波器/>一起输入到卷积神经网络中,并通过非线性变换得到基于局部拓扑结构信息的文本表征/>,称为拓扑感知的文本表征,如公式(5)(6):
其中, 是卷积神经网络,b是卷积层中的偏置项;/>是非线性激活函数;代表平均池化操作;
所述步骤S3的具体过程包括:
将文本输入到已有的上下文感知的网络嵌入模型中,获取上下文本感知的文本表征;
所述步骤S3的具体过程还包括:
将上下文本感知的文本表征与步骤S2中得到的拓扑感知的文本表征/>进行线性加权,得到网络结点最终的文本表征/>,如公式(7):
(7)
其中, 是模型的一个参数;
所述步骤S3的具体过程还包括:
将步骤S1得到的拓扑结构表征和步骤S3得到的文本表征/>拼接起来,获取最终的网络结点表征/>,如公式(8):
(8)。
2.根据权利要求1所述的基于拓扑感知文本表征的网络嵌入学习方法,其特征在于, 是一个可学习的参数,与模型中的其他参数一起在训练过程中学习得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110287783.6A CN113111224B (zh) | 2021-03-17 | 2021-03-17 | 一种基于拓扑感知文本表征的网络嵌入学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110287783.6A CN113111224B (zh) | 2021-03-17 | 2021-03-17 | 一种基于拓扑感知文本表征的网络嵌入学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113111224A CN113111224A (zh) | 2021-07-13 |
CN113111224B true CN113111224B (zh) | 2023-08-18 |
Family
ID=76711626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110287783.6A Active CN113111224B (zh) | 2021-03-17 | 2021-03-17 | 一种基于拓扑感知文本表征的网络嵌入学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111224B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897254A (zh) * | 2015-12-18 | 2017-06-27 | 清华大学 | 一种网络表示学习方法 |
CN110781271A (zh) * | 2019-09-02 | 2020-02-11 | 国网天津市电力公司电力科学研究院 | 一种基于层次注意力机制的半监督网络表示学习模型 |
CN110851620A (zh) * | 2019-10-29 | 2020-02-28 | 天津大学 | 一种基于文本嵌入和结构嵌入联合的知识表示方法 |
CN110874392A (zh) * | 2019-11-20 | 2020-03-10 | 中山大学 | 基于深度双向注意力机制的文本网络信息融合嵌入方法 |
CN111368074A (zh) * | 2020-02-24 | 2020-07-03 | 西安电子科技大学 | 一种基于网络结构和文本信息的链路预测方法 |
CN111461348A (zh) * | 2020-04-07 | 2020-07-28 | 国家计算机网络与信息安全管理中心 | 一种基于图核的深度网络嵌入学习方法 |
CN111709518A (zh) * | 2020-06-16 | 2020-09-25 | 重庆大学 | 一种基于社区感知和关系注意力的增强网络表示学习的方法 |
CN111709474A (zh) * | 2020-06-16 | 2020-09-25 | 重庆大学 | 一种融合拓扑结构和节点属性的图嵌入链路预测方法 |
CN111913702A (zh) * | 2020-08-11 | 2020-11-10 | 湖北大学 | 一种基于图神经网络的软件系统中关键类的识别方法 |
CN112347268A (zh) * | 2020-11-06 | 2021-02-09 | 华中科技大学 | 一种文本增强的知识图谱联合表示学习方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11157705B2 (en) * | 2019-07-22 | 2021-10-26 | International Business Machines Corporation | Semantic parsing using encoded structured representation |
-
2021
- 2021-03-17 CN CN202110287783.6A patent/CN113111224B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897254A (zh) * | 2015-12-18 | 2017-06-27 | 清华大学 | 一种网络表示学习方法 |
CN110781271A (zh) * | 2019-09-02 | 2020-02-11 | 国网天津市电力公司电力科学研究院 | 一种基于层次注意力机制的半监督网络表示学习模型 |
CN110851620A (zh) * | 2019-10-29 | 2020-02-28 | 天津大学 | 一种基于文本嵌入和结构嵌入联合的知识表示方法 |
CN110874392A (zh) * | 2019-11-20 | 2020-03-10 | 中山大学 | 基于深度双向注意力机制的文本网络信息融合嵌入方法 |
CN111368074A (zh) * | 2020-02-24 | 2020-07-03 | 西安电子科技大学 | 一种基于网络结构和文本信息的链路预测方法 |
CN111461348A (zh) * | 2020-04-07 | 2020-07-28 | 国家计算机网络与信息安全管理中心 | 一种基于图核的深度网络嵌入学习方法 |
CN111709518A (zh) * | 2020-06-16 | 2020-09-25 | 重庆大学 | 一种基于社区感知和关系注意力的增强网络表示学习的方法 |
CN111709474A (zh) * | 2020-06-16 | 2020-09-25 | 重庆大学 | 一种融合拓扑结构和节点属性的图嵌入链路预测方法 |
CN111913702A (zh) * | 2020-08-11 | 2020-11-10 | 湖北大学 | 一种基于图神经网络的软件系统中关键类的识别方法 |
CN112347268A (zh) * | 2020-11-06 | 2021-02-09 | 华中科技大学 | 一种文本增强的知识图谱联合表示学习方法及装置 |
Non-Patent Citations (1)
Title |
---|
Attributed Network Embedding with Data Distribution Adaptation;Jiaxing Chen 等;《2018 5th International Conference on Behavioral, Economic, and Socio-Cultural Computing (BESC)》;250-255 * |
Also Published As
Publication number | Publication date |
---|---|
CN113111224A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | One2multi graph autoencoder for multi-view graph clustering | |
Cen et al. | Representation learning for attributed multiplex heterogeneous network | |
CN111950594B (zh) | 基于子图采样的大规模属性图上的无监督图表示学习方法和装置 | |
De Floriani et al. | Morse complexes for shape segmentation and homological analysis: discrete models and algorithms | |
CN111881350B (zh) | 一种基于混合图结构化建模的推荐方法与系统 | |
Tran et al. | Community detection in partially observable social networks | |
CN109543708B (zh) | 融合拓扑特征的面向图数据的模式识别方法 | |
Gebhart et al. | Characterizing the shape of activation space in deep neural networks | |
CN113486190A (zh) | 一种融合实体图像信息和实体类别信息的多模态知识表示方法 | |
CN112559764A (zh) | 一种基于领域知识图谱的内容推荐方法 | |
Saxena et al. | NodeSim: node similarity based network embedding for diverse link prediction | |
CN113297427A (zh) | 一种基于u型嵌套网络的图分类方法 | |
CN111985623A (zh) | 基于最大化互信息和图神经网络的属性图群组发现方法 | |
CN114172688A (zh) | 基于gcn-dl的加密流量网络威胁关键节点自动提取方法 | |
Sun et al. | Graph force learning | |
Yoo et al. | Sampling subgraphs with guaranteed treewidth for accurate and efficient graphical inference | |
Zhang et al. | Network representation learning via improved random walk with restart | |
Xiao et al. | ANE: Network embedding via adversarial autoencoders | |
CN116992307A (zh) | 基于图网络特征快速聚合的社交网络用户匹配方法及装置 | |
CN113111224B (zh) | 一种基于拓扑感知文本表征的网络嵌入学习方法 | |
CN117473315A (zh) | 一种基于多层感知机的图分类模型构建方法和图分类方法 | |
CN114842247B (zh) | 基于特征累加的图卷积网络半监督节点分类方法 | |
CN114492651A (zh) | 一种基于个性化网页排位的半监督图节点分类方法 | |
Chaudhary et al. | Autoencoder model using edge enhancement to detect communities in complex networks | |
CN114332472A (zh) | 一种基于图神经网络的数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |