CN111930858A - 一种异质信息网络的表示学习方法、装置及电子设备 - Google Patents

一种异质信息网络的表示学习方法、装置及电子设备 Download PDF

Info

Publication number
CN111930858A
CN111930858A CN202010711317.1A CN202010711317A CN111930858A CN 111930858 A CN111930858 A CN 111930858A CN 202010711317 A CN202010711317 A CN 202010711317A CN 111930858 A CN111930858 A CN 111930858A
Authority
CN
China
Prior art keywords
node
network
heterogeneous information
representation
information network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010711317.1A
Other languages
English (en)
Inventor
石川
王啸
赵健安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202010711317.1A priority Critical patent/CN111930858A/zh
Publication of CN111930858A publication Critical patent/CN111930858A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例提供一种异质信息网络的表示学习方法、装置及电子设备,包括:获得异质信息网络和异质信息网络的网络模式,并从异质信息网络中采样出与网络模式相匹配的网络模式实例以及针对异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示,由于网络模式全面地保留了网络中的各节点的节点类型和关系信息,因此通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。

Description

一种异质信息网络的表示学习方法、装置及电子设备
技术领域
本发明涉及信息处理技术领域,特别是涉及一种异质信息网络的表示学习方法、装置及电子设备。
背景技术
网络嵌入有着广泛的应用场景,它旨在保留网络的结构的前提下将网络的节点投影到低维空间中。现有的大多数网络嵌入方法都集中在同质(Homogeneous)信息网络上。但是,随着交互系统的激增,由多种类型的实体和链接组成的异质信息网络成为了建模复杂交互行为的强大工具。最近,为处理无处不在的异质网络数据,基于异质信息网络的表示学习已引起越来越多的关注,并被广泛应用在现实场景中。
为了学习异质信息网络上的节点表示,学者们提出了许多异质信息网络表示学习方法,其中大多数方法利用元路径引导的随机游走来保留不同类型节点之间的结构和语义相关性(Proximity)。通常地,这些方法采用元路径(异质信息网络中两个节点之间的关系序列)来帮助建模。
示例性的,如图1所示论文异质信息网络中,包含四种类型的节点和三种类型的关系,其中,四种类型的节点分别为会议节点、论文节点、作者节点和术语节点,从图1中可以看出,会议节点包括会议V1和会议V2,论文节点包括论文P1、论文P2和论文P3,作者节点包括作者A1、作者A2和作者A3,术语节点包括术语T1和术语T2。三种关系分别为会议节点和论文节点之间的出版关系、论文节点和作者节点之间的写作关系以及论文节点和术语节点之间的包含关系。
现有技术中,从如图1所示的论文异质信息网络中,可以确定多种元路径,如图2所示,为确定出的两种元路径的示意图,包括元路径APA和元路径APVPA,分别描述了两个作者之间的共同作者和共同参会的关系。
由于对于同一个异质信息网络而言,其可能存在多种不同的元路径,而基于不同的元路径的网络表示包含不同语义,如何有效地融合不同的网络嵌入以生成统一的网络表示也是一个难题。
发明内容
本发明实施例的目的在于提供一种异质信息网络的表示学习方法、装置及电子设备,以生成统一的网络表示。具体技术方案如下:
本发明实施例提供了一种异质信息网络的表示学习方法,包括:
获得异质信息网络和所述异质信息网络的网络模式,其中,所述异质信息网络具有多种节点类型和关系类型,所述网络模式为包含有所述异质信息网络中所有节点类型和关系类型的异质信息网络框架;
从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例;
针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
进一步的,所述从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例,包括:
获取所述异质信息网络包含的任意一个节点,并将所获取的节点放入节点集合;
从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合;
重复执行所述从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合的步骤,直至所述节点集合中包含有所述异质信息网络所包含的所有节点类型;
基于所述节点集合中所包含的节点和所述网络模式,确定出与所述网络模式相匹配的网络模式实例。
进一步的,所述针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示,包括:
针对所述异质信息网络包含的每个节点,使用异质图卷积神经网络得到该节点的初始节点表示,并且基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示。
进一步的,所述使用异质图卷积神经网络得到该节点的初始节点表示,包括:
基于该节点的节点类型对应的映射矩阵和该节点的特征向量,将该节点映射到预设维度的表征空间,得到该节点的节点向量;
将该节点的节点向量输入至异质图卷积神经网络,生成该节点的节点表示。
进一步的,所述基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示,包括:
基于预设的一阶损失函数和该节点的一阶邻居关系,计算该节点的初始节点表示的一阶损失函数值;
基于预设的高阶损失函数和包含该节点的网络模式实例,计算该节点的初始节点表示的高阶损失函数值;
基于计算得到的一阶损失函数值和高阶损失函数值,对该节点的初始节点表示进行优化,得到该节点的节点表示。
本发明实施例还提供了一种异质信息网络的表示学习装置,包括:
网络获得模块,用于获得异质信息网络和所述异质信息网络的网络模式,其中,所述异质信息网络具有多种节点类型和关系类型,所述网络模式为包含有所述异质信息网络中所有节点类型和关系类型的异质信息网络框架;
实例采集模块,用于从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例;
节点表示模块,用于针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
进一步的,所述实例采集模块,具体用于获取所述异质信息网络包含的任意一个节点,并将所获取的节点放入节点集合,并且从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合,以及重复执行所述从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合的步骤,直至所述节点集合中包含有所述异质信息网络所包含的所有节点类型,以及基于所述节点集合中所包含的节点和所述网络模式,确定出与所述网络模式相匹配的网络模式实例。
进一步的,所述节点表示模块,包括:
初始节点表示子模块,用于针对所述异质信息网络包含的每个节点,使用异质图卷积神经网络得到该节点的初始节点表示;
节点优化子模块,用于基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示。
进一步的,所述初始节点表示子模块,具体用于基于该节点的节点类型对应的映射矩阵和该节点的特征向量,将该节点映射到预设维度的表征空间,得到该节点的节点向量,并且将该节点的节点向量输入至异质图卷积神经网络,生成该节点的节点表示。
进一步的,所述节点优化子模块,具体用于基于预设的一阶损失函数和该节点的一阶邻居关系,计算该节点的初始节点表示的一阶损失函数值,并且基于预设的高阶损失函数和包含该节点的网络模式实例,计算该节点的初始节点表示的高阶损失函数值,以及基于计算得到的一阶损失函数值和高阶损失函数值,对该节点的初始节点表示进行优化,得到该节点的节点表示。
本发明实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一所述的异质信息网络的表示学习方法步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述的异质信息网络的表示学习方法步骤。
本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的异质信息网络的表示学习方法。
本发明实施例有益效果:
本发明实施例提供的一种异质信息网络的表示学习方法、装置及电子设备,由于网络模式是异质信息网络的统一蓝图,其全面地保留了网络中的各节点的节点类型和关系信息,因此,从异质信息网络中提取出的网络模式实例包含异质信息网络中最本质的高阶特征,又由于一个异质信息网络中网络模式是唯一的,因此,使用通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明一个实施例提供的异质信息网络的示意图。
图2为本发明一个实施例提供的元路径的示意图。
图3为本发明一个实施例提供的异质信息网络的表示学习方法的流程图。
图4为本发明一个实施例提供的网络模式的示意图。
图5为本发明一个实施例提供的网络模式实例的示意图。
图6为本发明另一个实施例提供的异质信息网络的表示学习方法的流程图。
图7为本发明一个实施例提供的异质信息网络的表示学习装置的结构示意图。
图8为本发明一个实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了清楚地阐述本发明实施例提供的技术方案,下面再分别对本发明实施例公开的异质信息网络的表示学习方法、装置、电子设备及可读存储介质进行详细说明。
本发明实施例提供一种异质信息网络的表示学习方法,如图3所示,该方法包括:
S301:获得异质信息网络和异质信息网络的网络模式,其中,异质信息网络具有多种节点类型和关系类型,网络模式为包含有异质信息网络中所有节点类型和关系类型的异质信息网络框架。
S302:从异质信息网络中采样出与网络模式相匹配的网络模式实例。
S303:针对异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
本发明实施例提供的如图3所示的异质信息网络的表示学习方法,由于网络模式是异质信息网络的统一蓝图,其全面地保留了网络中的各节点的节点类型和关系信息,因此,从异质信息网络中提取出的网络模式实例包含异质信息网络中最本质的高阶特征,又由于一个异质信息网络中网络模式是唯一的,因此,使用通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。
为了清楚地阐述本发明实施例的技术方案,下面分步骤阐述本发明实施例提供的如图3所示的异质信息网络的表示学习方法。
针对步骤S301,异质信息网络可以为如图1所示的论文异质信息网络,也可以是电影异质信息网络,还可以是推荐异质信息网络等异质信息网络。
可选的,每个异质信息网络具有多种节点类型和关系类型,在如图1所示的论文异质信息网络中,包含有四种节点类型的节点,分别为会议节点、论文节点、作者节点和术语节点,从图1中可以看出,会议节点包括会议V1和会议V2,论文节点包括论文P1、论文P2和论文P3,作者节点包括作者A1、作者A2和作者A3,术语节点包括术语T1和术语T2。
在如图1所示的论文异质信息网络中,还包括三种关系类型的关系,分别为会议节点和论文节点之间的出版关系、论文节点和作者节点之间的写作关系以及论文节点和术语节点之间的包含关系。
同时,每个异质信息网络均具有一个唯一的网络模式,其中一个异质信息网络的网络模式为包含有该异质信息网络中所有节点类型和关系类型的异质信息网络框架。示例性的,针对如图1所示的异质信息网络,其具有的网络模式如图4所示,包含有1个会议节点、1个论文节点、1个作者节点和1个术语节点。
进一步的,一个异质信息网络中符合网络模式实例中的不同节点数量很有可能是不平衡的,即在一个网络模式实例中某个节点类型的数量可能大于其他节点类型的数量,例如:一篇论文可被看作一个网络模式实例,在图1所示的论文异质信息网络中,可以看到一篇论文可以有多个作者但是只有一个会议,这种节点数量的不平衡会损害表示学习的效果。为解决这种节点数量不平衡,提出网络模式实例的概念:网络模型实例为包含了全部异质信息网络节点和关系类型的异质信息网络架构。即每个网络模型实例都包含全部的节点类型和关系类型,且每个类型节点有且只有一个,从而解决了节点数量不均衡的问题。例如,图5展示了图1所示论文异质信息网络中的两个网络模式实例{A1,P1,V1,T1}和{A3,P3,V2,T2}。
针对步骤S302,与网络模式相匹配的网络模式实例为:所包含的节点的节点类型与网络模式所指示的节点类型质量相同、且所包含的节点之间的连接关系与网络模式所指示的连接关系相同的节点集合。
可选的,可以先判断节点集合中节点的节点类型是否与网络模式所指示的节点类型质量相同,当相同时,判断节点集合中节点之间的连接关系与网络模式所指示的连接关系相同,也相同时,确定节点集合为与网络模式相匹配的网络模型实例。
针对步骤S303,可以使用异质图卷积神经网络得到该节点的初始节点表示,并且基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示。
可选的,可以先基于该节点的节点类型对应的映射矩阵和该节点的特征向量,将该节点映射到预设维度的表征空间,得到该节点的节点向量,并且将该节点的节点向量输入至异质图卷积神经网络,生成该节点的节点表示,再基于预设的一阶损失函数和该节点的一阶邻居关系,计算该节点的初始节点表示的一阶损失函数值,并且基于预设的高阶损失函数和包含该节点的网络模式实例,计算该节点的初始节点表示的高阶损失函数值,以及基于计算得到的一阶损失函数值和高阶损失函数值,对该节点的初始节点表示进行优化,得到该节点的节点表示。
可选的,在得到网络模式实例集合
Figure BDA0002596645590000088
后,还可以通过预测网络模式实例是否存在于网络中来保持异质信息网络中的网络模式结构。给定一个网络模型实例,例如图1中的S={A1,P1,V1,T1},我们可以预测A1是否在异质信息网络中和{P1,V1,T1}构成联系。也可以预测P1是否和{A1,V1,T1}构成联系。很显然,这两种预测是截然不同的,由于异质信息网络中各节点的连接关系的的异质性,PA、PV和PT三种关系彼此区分,对A的预测是以确定的PV、PT关系来预测PA关系,而对P的预测则是预测P是否能和给定的A、V、T构成PA、PV和PT三种关系。显然对于不同的关系,理应设计不同的保持方法。本发明实施例基于多任务学习来考虑异质信息网络中的边异质性。
为方便理解,可以以保持三个节点类型的节点的网络模式实例为例进行阐述。假定需要保持一个网络模式实例
Figure BDA0002596645590000089
如果要预测
Figure BDA00025966455900000810
是否存在
Figure BDA00025966455900000811
的网络模式中,则称
Figure BDA00025966455900000812
为目标节点,
Figure BDA00025966455900000813
为上下文节点。针对每个节点而言,其都有两种角色:目标节点和上下文节点,因此理应有两种相对应网络表示:目标节点表示和上下文节点表示。考虑到这种区别,以Z为目标节点表示,并为每一个节点
Figure BDA00025966455900000814
的节点类型
Figure BDA00025966455900000815
设计了一个上下文编码器(Context Encoder),记为
Figure BDA00025966455900000818
去学习节点
Figure BDA00025966455900000819
的上下文节点表示,在本例中,上述节点
Figure BDA00025966455900000820
和,节点
Figure BDA00025966455900000821
的上下文节点表示
Figure BDA00025966455900000816
Figure BDA00025966455900000817
分别为:
Figure BDA0002596645590000083
Figure BDA0002596645590000084
其中,
Figure BDA0002596645590000085
为针对节点
Figure BDA00025966455900000822
的节点类型
Figure BDA00025966455900000823
的上下文编码器,
Figure BDA0002596645590000086
为针对节点
Figure BDA00025966455900000824
的节点类型
Figure BDA00025966455900000825
的上下文编码器,
Figure BDA0002596645590000087
为节点
Figure BDA00025966455900000826
的目标节点表示,
Figure BDA0002596645590000091
为节点
Figure BDA00025966455900000914
的目标节点表示。
可选的,针对每个节点的节点类型设计的上下文编码其可以由一层全连接神经网络构成。对于目标节点为
Figure BDA00025966455900000915
的网络模式实例
Figure BDA0002596645590000092
将目标节点的目标节点表示
Figure BDA0002596645590000093
和上下文节点的上下文节点表示拼起来得到了以节点
Figure BDA00025966455900000916
做目标节点时网络模式实例S的节点表示
Figure BDA0002596645590000094
Figure BDA0002596645590000095
其中,||符号表示向量拼接操作。
在确定
Figure BDA0002596645590000096
后,可以预测以节点
Figure BDA00025966455900000917
为目标节点的网络模式实例S存在于网络中的概率,记为
Figure BDA00025966455900000918
Figure BDA0002596645590000097
其中,
Figure BDA0002596645590000098
为识别目标节点类型为
Figure BDA00025966455900000919
的网络模式实例的网络模式分类器,在一个实施例中,
Figure BDA0002596645590000099
可以为多层神经网络分类器。
相同地,当把
Figure BDA00025966455900000920
Figure BDA00025966455900000921
看成目标节点的时候,也可以通过类似的方式得到节点
Figure BDA00025966455900000922
为目标节点的网络模式实例S存在于网络中的概率
Figure BDA00025966455900000923
和节点
Figure BDA00025966455900000924
为目标节点的网络模式实例S存在于网络中的概率
Figure BDA00025966455900000911
值得注意的是,本实施例以包含三种节点类型的网络模式为例进行阐述,但本发明并不局限于节点类型的个数,可以轻易地泛化本发明实施例于其他异质信息网络。
保持网络模式的损失
Figure BDA00025966455900000912
可以通过预测网络模式实例集合
Figure BDA00025966455900000913
中每个网络模式实例S的多任务分类的准确率得到。
为避免出现简单分类解(分类器预测所有实例为正样本),可以通过从异质信息网络中采样一个节点来替换目标节点来生成负样本。
对于每个网络模式实例(正样本),采样Ms个负样本。则保持网络模式的高阶损失函数
Figure BDA0002596645590000101
为:
Figure BDA0002596645590000102
其中,
Figure BDA0002596645590000103
表示异质信息网络中节点类型的集合,
Figure BDA00025966455900001014
表示异质信息网络中关系类型的集合,当以节点
Figure BDA00025966455900001015
为目标节点的网络模式实例S存在的情况下,
Figure BDA0002596645590000105
否则
Figure BDA0002596645590000106
可选的,最小化高阶损失函数
Figure BDA0002596645590000107
以保留网络模式的高阶结构。
在网络表示学习中,网络的一阶结构(Pairwise Proximity)体现了网络最本的特征,在网络表示学习中至关重要。
在本发明的一个实施例中,给定参数集合Θ,保留网络一阶结构的目标函数
Figure BDA0002596645590000108
为:
Figure BDA0002596645590000109
其中,
Figure BDA00025966455900001010
表示节点vi的邻居节点,
Figure BDA00025966455900001016
为在网络模型实例中已存在节点vi的情况下,节点
Figure BDA00025966455900001011
也存在的概率。
在本发明的一个实施例中,
Figure BDA00025966455900001012
可以使用softmax函数定义:
Figure BDA00025966455900001013
其中,V表示节点集合。
在本发明的一个实施例中,为了更有效率地计算
Figure BDA0002596645590000111
可以使用负采样算法,即将采样得到的负样本来代表整个网络,并优化目标函数
Figure BDA0002596645590000112
的对数形式,此时,基于一阶损失函数
Figure BDA0002596645590000113
可以表示为:
Figure BDA0002596645590000114
其中,E表示关系类型集合、
Figure BDA0002596645590000115
表示包含节点
Figure BDA0002596645590000116
的关系类型集合,δ(x)=1/(1+exp(-x)),
Figure BDA0002596645590000117
表示网络中的噪声分布,Me表示负样本的数量。
可选的,为了更好的保持异质信息网络的一阶结构和高阶结构,可以采用综合考虑一阶结构和高阶结构的复合损失函数:
Figure BDA0002596645590000118
其中,β为预设的平衡系数。
可选的,可以基于复合损失函数值优化节点的初始节点表示,将优化后的节点表示作为节点的节点表示。
在如图3所示异质信息网络的表示学习方法的基础上,本发明实施例还提供了一种异质信息网络的表示学习方法,以实现上述步骤S302,如图6所示,包括:
S601:获取异质信息网络包含的任意一个节点,并将所获取的节点放入节点集合。
本步骤中,可以通过随机获取的方式获取质信息网络包含的节点,可以将随机获取的节点放入节点集合中,可选的初始化选取一个节点并放入节点集合。
S602:从与节点集合中最新放入的节点相邻的节点中,选取出节点类型与节点集合所包含的节点类型不同的节点,放入节点集合。
本步骤中,可以确定出最新放入节点的节点类型,并在异质信息网络包含的、非该节点类型的节点中随机获取节点,放入节点集合中。
在本发明的一个实施例中,每次添加的新节点必须满足条件:新节点类型需区别于节点集合中的现有节点类型、且新节点和当前节点集合中包含的节点存在连边
可选的,重复执行步骤S602,直至节点集合中包含有异质信息网络所包含的所有节点类型,可选的,持续添加新节点到节点集合中,直到节点集合中的节点类型数量为类型数
Figure BDA0002596645590000121
其中类型数
Figure BDA0002596645590000122
为异质信息网络网络中包含的节点类型的数量。
S603:基于节点集合中所包含的节点和网络模式,确定出与网络模式相匹配的网络模式实例。
本步骤中,当节点集合中节点数量满足网络模式所指示的节点数量后,可以确定节点结合中任意两个节点的连接情况是否满足网络模式所指示的连接情况,若满足,则节点集合为与网络模式相匹配的网络模式实例,否则节点集合与网络模式相不匹配。
本发明实施例提供的如图6所示的异质信息网络的表示学习方法,由于网络模式是异质信息网络的统一蓝图,其全面地保留了网络中的各节点的节点类型和关系信息,因此,从异质信息网络中提取出的网络模式实例包含异质信息网络中最本质的高阶特征,又由于一个异质信息网络中网络模式是唯一的,因此,使用通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。并且,通过提供了一种获取网络模式实例的方法。
基于同一发明构思,根据本发明实施例提供的异质信息网络的表示学习方法,如图7所示,本发明实施例还提供了一种异质信息网络的表示学习装置,该装置包括:
网络获得模块701,用于获得异质信息网络和异质信息网络的网络模式,其中,异质信息网络具有多种节点类型和关系类型,网络模式为包含有异质信息网络中所有节点类型和关系类型的异质信息网络框架;
实例采集模块702,用于从异质信息网络中采样出与网络模式相匹配的网络模式实例;
节点表示模块703,用于针对异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
进一步的,实例采集模块,具体用于获取异质信息网络包含的任意一个节点,并将所获取的节点放入节点集合,并且从与节点集合中最新放入的节点相邻的节点中,选取出节点类型与节点集合所包含的节点类型不同的节点,放入节点集合,以及重复执行从与节点集合中最新放入的节点相邻的节点中,选取出节点类型与节点集合所包含的节点类型不同的节点,放入节点集合的步骤,直至节点集合中包含有异质信息网络所包含的所有节点类型,以及基于节点集合中所包含的节点和网络模式,确定出与网络模式相匹配的网络模式实例。
进一步的,节点表示模块,包括:
节点表示子模块,用于使用异质图卷积神经网络得到该节点的初始节点表示;
节点优化子模块,用于基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示。
进一步的,初始节点表示子模块,具体用于基于该节点的节点类型对应的映射矩阵和该节点的特征向量,将该节点映射到预设维度的表征空间,得到该节点的节点向量,并且将该节点的节点向量输入至异质图卷积神经网络,生成该节点的节点表示。
进一步的,节点优化子模块,具体用于基于预设的一阶损失函数和该节点的一阶邻居关系,计算该节点的初始节点表示的一阶损失函数值,并且基于预设的高阶损失函数和包含该节点的网络模式实例,计算该节点的初始节点表示的高阶损失函数值,以及基于计算得到的一阶损失函数值和高阶损失函数值,对该节点的初始节点表示进行优化,得到该节点的节点表示。
本发明实施例提供的如图7所示的异质信息网络的表示学习装置,由于网络模式是异质信息网络的统一蓝图,其全面地保留了网络中的各节点的节点类型和关系信息,因此,从异质信息网络中提取出的网络模式实例包含异质信息网络中最本质的高阶特征,又由于一个异质信息网络中网络模式是唯一的,因此,使用通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。
本发明实施例还提供了一种电子设备,如图8所示,包括处理器801、通信接口802、存储器803和通信总线804,其中,处理器801,通信接口802,存储器803通过通信总线804完成相互间的通信,
存储器803,用于存放计算机程序;
处理器801,用于执行存储器803上所存放的程序时,实现如下步骤:
获得异质信息网络和所述异质信息网络的网络模式,其中,所述异质信息网络具有多种节点类型和关系类型,所述网络模式为包含有所述异质信息网络中所有节点类型和关系类型的异质信息网络框架;
从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例;
针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
本发明实施例提供的如图8所示的电子设备,由于网络模式是异质信息网络的统一蓝图,其全面地保留了网络中的各节点的节点类型和关系信息,因此,从异质信息网络中提取出的网络模式实例包含异质信息网络中最本质的高阶特征,又由于一个异质信息网络中网络模式是唯一的,因此,使用通过与网络模式相匹配的网络模式实例可以生成统一的网络表示。
需要说明的是,上述电子设备实现异质信息网络的表示学习的其他实施例,与前述方法实施例部分提及的异质信息网络的表示学习相同,在此不再赘述。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一异质信息网络的表示学习方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一异质信息网络的表示学习方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、系统、电子设备、计算机可读存储介质和计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种异质信息网络的表示学习方法,其特征在于,包括:
获得异质信息网络和所述异质信息网络的网络模式,其中,所述异质信息网络具有多种节点类型和关系类型,所述网络模式为包含有所述异质信息网络中所有节点类型和关系类型的异质信息网络框架;
从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例;
针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
2.根据权利要求1所述的方法,其特征在于,所述从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例,包括:
获取所述异质信息网络包含的任意一个节点,并将所获取的节点放入节点集合;
从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合;
重复执行所述从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合的步骤,直至所述节点集合中包含有所述异质信息网络所包含的所有节点类型;
基于所述节点集合中所包含的节点和所述网络模式,确定出与所述网络模式相匹配的网络模式实例。
3.根据权利要求1或2所述的方法,其特征在于,所述针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示,包括:
针对所述异质信息网络包含的每个节点,使用异质图卷积神经网络得到该节点的初始节点表示,并且基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示。
4.根据权利要求3所述的方法,其特征在于,所述使用异质图卷积神经网络得到该节点的初始节点表示,包括:
基于该节点的节点类型对应的映射矩阵和该节点的特征向量,将该节点映射到预设维度的表征空间,得到该节点的节点向量;
将该节点的节点向量输入至异质图卷积神经网络,生成该节点的节点表示。
5.根据权利要求3所述的方法,其特征在于,所述基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示,包括:
基于预设的一阶损失函数和该节点的一阶邻居关系,计算该节点的初始节点表示的一阶损失函数值;
基于预设的高阶损失函数和包含该节点的网络模式实例,计算该节点的初始节点表示的高阶损失函数值;
基于计算得到的一阶损失函数值和高阶损失函数值,对该节点的初始节点表示进行优化,得到该节点的节点表示。
6.一种异质信息网络的表示学习装置,其特征在于,包括:
网络获得模块,用于获得异质信息网络和所述异质信息网络的网络模式,其中,所述异质信息网络具有多种节点类型和关系类型,所述网络模式为包含有所述异质信息网络中所有节点类型和关系类型的异质信息网络框架;
实例采集模块,用于从所述异质信息网络中采样出与所述网络模式相匹配的网络模式实例;
节点表示模块,用于针对所述异质信息网络包含的每个节点,基于该节点的一阶邻居关系和包含该节点的网络模式实例,得到该节点的节点表示。
7.根据权利要求6所述的装置,其特征在于,所述实例采集模块,具体用于获取所述异质信息网络包含的任意一个节点,并将所获取的节点放入节点集合,并从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合,以及重复执行所述从与所述节点集合中最新放入的节点相邻的节点中,选取出节点类型与所述节点集合所包含的节点类型不同的节点,放入所述节点集合的步骤,直至所述节点集合中包含有所述异质信息网络所包含的所有节点类型,以及基于所述节点集合中所包含的节点和所述网络模式,确定出与所述网络模式相匹配的网络模式实例。
8.根据权利要求6或7所述的装置,其特征在于,所述节点表示模块,包括:
初始节点表示子模块,用于针对所述异质信息网络包含的每个节点,使用异质图卷积神经网络得到该节点的初始节点表示;
节点优化子模块,用于基于该节点的一阶邻居关系和包含该节点的网络模式实例,对该节点的初始节点表示进行优化,得到该节点的节点表示。
9.根据权利要求8所述的装置,其特征在于,所述初始节点表示子模块,具体用于基于该节点的节点类型对应的映射矩阵和该节点的特征向量,将该节点映射到预设维度的表征空间,得到该节点的节点向量,并且将该节点的节点向量输入至异质图卷积神经网络,生成该节点的节点表示。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
CN202010711317.1A 2020-07-22 2020-07-22 一种异质信息网络的表示学习方法、装置及电子设备 Pending CN111930858A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010711317.1A CN111930858A (zh) 2020-07-22 2020-07-22 一种异质信息网络的表示学习方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010711317.1A CN111930858A (zh) 2020-07-22 2020-07-22 一种异质信息网络的表示学习方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN111930858A true CN111930858A (zh) 2020-11-13

Family

ID=73314286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010711317.1A Pending CN111930858A (zh) 2020-07-22 2020-07-22 一种异质信息网络的表示学习方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111930858A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906873A (zh) * 2021-03-26 2021-06-04 北京邮电大学 一种图神经网络训练方法、装置、电子设备及存储介质
CN113626556A (zh) * 2021-10-12 2021-11-09 杭州电子科技大学 一种学术异构网络嵌入的模型训练方法及文本表示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906873A (zh) * 2021-03-26 2021-06-04 北京邮电大学 一种图神经网络训练方法、装置、电子设备及存储介质
CN113626556A (zh) * 2021-10-12 2021-11-09 杭州电子科技大学 一种学术异构网络嵌入的模型训练方法及文本表示方法
CN113626556B (zh) * 2021-10-12 2022-03-01 杭州电子科技大学 一种学术异构网络嵌入的模型训练方法及文本表示方法

Similar Documents

Publication Publication Date Title
US11915123B2 (en) Fusing multimodal data using recurrent neural networks
CN112256886B (zh) 图谱中的概率计算方法、装置、计算机设备及存储介质
CN111930858A (zh) 一种异质信息网络的表示学习方法、装置及电子设备
CN111639696A (zh) 一种用户分类方法及装置
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
Huang et al. Semantic integration of sensor knowledge on artificial internet of things
US11636185B2 (en) AI governance using tamper proof model metrics
CN112419312A (zh) 相似房源信息检测方法、装置、电子设备和可读介质
CN115544257B (zh) 网盘文档快速分类方法、装置、网盘及存储介质
CN113971400A (zh) 一种文本检测方法、装置、电子设备及存储介质
US11714637B1 (en) User support content generation
CN115759183A (zh) 一种多结构文本图神经网络的相关方法和相关装置
CN112949832B (zh) 一种网络结构搜索方法、装置、电子设备及存储介质
US11762896B2 (en) Relationship discovery and quantification
CN111582456B (zh) 用于生成网络模型信息的方法、装置、设备和介质
CN112148865B (zh) 信息推送方法和装置
US20220083899A1 (en) Validation of ai models using holdout sets
CN114553555A (zh) 恶意网址识别方法、装置、存储介质及电子设备
CN113177596B (zh) 一种区块链地址分类方法和装置
US20230186190A1 (en) Ticket embedding based on multi-dimensional it data
CN116501993B (zh) 房源数据推荐方法及装置
CN113362097B (zh) 一种用户确定方法和装置
CN115223113B (zh) 训练样本集清洗方法、装置
CN117218474A (zh) 模型训练方法、装置、电子设备及存储介质
CN116910455A (zh) 数据扰动方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201113