CN117501325A - 对动态图进行分层周期性检测的系统和方法 - Google Patents
对动态图进行分层周期性检测的系统和方法 Download PDFInfo
- Publication number
- CN117501325A CN117501325A CN202280041391.4A CN202280041391A CN117501325A CN 117501325 A CN117501325 A CN 117501325A CN 202280041391 A CN202280041391 A CN 202280041391A CN 117501325 A CN117501325 A CN 117501325A
- Authority
- CN
- China
- Prior art keywords
- subgraph
- node
- edge
- embedding
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000737 periodic effect Effects 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims description 91
- 238000001514 detection method Methods 0.000 title description 19
- 230000008569 process Effects 0.000 claims description 28
- 230000003993 interaction Effects 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 22
- 230000004931 aggregating effect Effects 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 230000000306 recurrent effect Effects 0.000 claims description 18
- 238000007405 data analysis Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 238000010801 machine learning Methods 0.000 claims description 15
- 238000005065 mining Methods 0.000 claims description 10
- 230000003068 static effect Effects 0.000 claims description 10
- 238000005295 random walk Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims 3
- 238000004891 communication Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 14
- 230000002776 aggregation Effects 0.000 description 12
- 238000004220 aggregation Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 230000001953 sensory effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 229940028444 muse Drugs 0.000 description 2
- GMVPRGQOIOIIMI-DWKJAMRDSA-N prostaglandin E1 Chemical compound CCCCC[C@H](O)\C=C\[C@H]1[C@H](O)CC(=O)[C@@H]1CCCCCCC(O)=O GMVPRGQOIOIIMI-DWKJAMRDSA-N 0.000 description 2
- FMFKNGWZEQOWNK-UHFFFAOYSA-N 1-butoxypropan-2-yl 2-(2,4,5-trichlorophenoxy)propanoate Chemical compound CCCCOCC(C)OC(=O)C(C)OC1=CC(Cl)=C(Cl)C=C1Cl FMFKNGWZEQOWNK-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
计算机获得针对时间段中的每个时间的节点嵌入、节点周期性分类、边嵌入和边周期性分类。该计算机基于图的子图、时间段中的时间、针对子图中的节点的节点嵌入、针对子图中的边的边嵌入、针对子图中的节点的节点周期性分类以及针对子图中的边的边周期性分类来确定子图嵌入。该计算机将针对时间段中的每个时间的子图嵌入中的每个子图嵌入转换成投影子图嵌入。对于子图,该计算机将多个投影子图嵌入聚合成聚合子图嵌入。该计算机至少基于聚合子图嵌入来确定子图是否是周期性的。
Description
相关申请的交叉引用
本申请是2021年6月10日提交的美国临时申请63/209,183的PCT申请,并要求其优先权,该申请的全文出于所有目的以引用方式并入本文。
背景技术
周期性是一种普遍的时间模式,并且它的存在范围从诸如月运周期和动物灭绝的自然现象到诸如产品定价和搜索引擎活动的人为现象。除了这些属性级别的周期性(例如,一段时间内的关键字搜索计数)之外,还存在交互级别的周期性,诸如动物彼此的交互、用户彼此交换电子邮件、员工登录服务器、顾客购买商品等。
捕获周期性模式并确定潜在的周期性对于各种应用非常有益,并且已经在时间序列和事件挖掘方面进行了研究。
然而,除了时间序列和事件发生之外,还存在许多周期性模式。更常见的是,这些模式可以自然地格式化为动态图。例如,电子邮件系统中的用户可以被视为节点,并且在两个用户之间交换的电子邮件可以被视为边。此外,在一组用户间交换的电子邮件可以被子图(包括多个用户和边)捕获。检测节点和边的周期性可以是直接的,因为它们的出现均可以被视为时间线中的事件,并且应用基于事件的周期性挖掘算法(例如,ePeriodicity)可能就足够了。尽管如此,找到子图的周期性并不容易,至少有两个原因:子图在动态图的时间跨度中显现的稀疏性,以及获得高质量子图嵌入的困难。
本公开的实施方案单独地以及共同地解决此问题和其他问题。
发明内容
一个实施方案涉及一种方法,所述方法包括:由计算机获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;由所述计算机基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入、针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类以及针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;由所述计算机将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成多个投影子图嵌入中的投影子图嵌入;对于所述子图,由所述计算机将所述多个投影子图嵌入聚合成聚合子图嵌入;以及由所述计算机至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
一个实施方案涉及一种计算机,所述计算机包括:处理器;耦合到所述处理器的计算机可读介质,所述计算机可读介质包括能够由所述处理器执行以用于实现方法的代码,所述方法包括:获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入和针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类和针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成投影子图嵌入;对于所述子图,将所述多个投影子图嵌入聚合成聚合子图嵌入;以及至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
一个实施方案涉及一种系统,所述系统包括:多个设备;数据库;以及数据分析计算机,所述数据分析计算机包括:处理器;以及耦合到所述处理器的计算机可读介质,所述计算机可读介质包括能够由所述处理器执行以用于实现方法的代码,所述方法包括:从数据库获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入和针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类和针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成投影子图嵌入;对于所述子图,将所述多个投影子图嵌入聚合成聚合子图嵌入;以及至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
关于本公开的实施方案的其他细节可见于具体实施方式和附图。
附图说明
图1示出了根据实施方案的动态图形数据处理系统的框图。
图2示出了根据实施方案的数据分析计算机的部件的框图。
图3示出了根据实施方案的被图示为节点和边的集合的图形数据。
图4示出了根据实施方案的示例节点、边和子图随时间的出现。
图5示出了图示根据实施方案的分层周期性检测系统的总体架构的流程图。
图6示出了图示根据实施方案的生成周期性感知子图嵌入的过程的流程图。
图7示出了图示根据实施方案的节点嵌入与基本周期性之间的比较的数据图。
具体实施方式
在论述本公开的实施方案之前,可以进一步详细描述一些术语。
“交互”可以包括相互的作用或影响。“交互”可以包括各方、各设备和/或各实体之间的通信、联系或交换。示例交互包括两方之间的交易和两个设备之间的数据交换。在一些实施方案中,交互可以包括用户请求访问安全数据、安全网页、安全位置等。在其他实施方案中,交互可以包括支付交易,在所述支付交易中,两个设备可以交互以促进支付。
“交互数据”可以包括与交互相关的数据和/或在交互期间记录的数据。在一些实施方案中,交互数据可以是网络数据的交易数据。交易数据可以包括具有数据值的多个数据元素。
“用户”可以包括个体。在一些实施方案中,用户可以与一个或多个个人账户和/或移动设备相关联。在一些实施方案中,用户也可以被称为持卡人、账户持有人或消费者。
“用户设备”可以是由用户操作的设备。用户设备的示例可以包括移动电话、智能手机、卡、个人数字助理(PDA)、膝上型计算机、台式计算机、服务器计算机、车辆(例如汽车)、精简客户端设备、平板式PC,等等。此外,用户设备可以是任何类型的可穿戴技术设备,例如手表、耳机、眼镜等。用户设备可包括能够处理用户输入的一个或多个处理器。用户设备还可包括用于接收用户输入的一个或多个输入传感器。如本领域中已知的,存在能够检测用户输入的多种输入传感器,例如加速度计、相机、麦克风等。由输入传感器获得的用户输入可以来自多种数据输入类型,包括但不限于音频数据、视觉数据或生物特征数据。用户设备可以包括用户可以操作的任何电子设备,所述电子设备还可以提供与网络的远程通信能力。远程通信能力的示例包括使用移动电话(无线)网络、无线数据网络(例如,3G、4G或类似网络)、Wi-Fi、Wi-Max,或者可提供对网络(诸如互联网或专用网络)的访问的任何其他通信介质。
“资源提供商”可以是可以提供诸如商品、服务、信息和/或访问的资源的实体。资源提供商的实例包括商家、数据提供商、交通部分、政府实体、场地和住宅运营商等。
“机器学习”可以包括人工智能过程,在该人工智能过程中,可以训练软件应用以通过学习做出准确的预测。可以通过将输入数据应用于根据对聚合数据执行统计分析而形成的预测模型来生成预测。可以使用训练数据来训练模型,使得可以使用所述模型来做出准确预测。预测可以是例如图像的分类(例如在互联网上标识猫的图像),或作为另一示例,可以是推荐(例如用户可能喜欢的电影或消费者可能喜欢的餐馆)。
在一些实施方案中,模型可以是统计模型,其可以用于根据已知信息预测未知信息。举例来说,学习模块可以是用于根据训练数据生成回归线(监督学习)的一组指令,或用于基于相似度、连通性和/或数据点间距离将数据分组成数据的不同分类的集群(无监督学习)的一组指令。接着,回归线或数据群集可用作用于根据已知信息预测未知信息的模型。一旦根据学习模块构建了模型,就可使用模型根据新请求生成预测输出。新请求可以是对与呈现的数据相关联的预测的请求。例如,新请求可以是对图像进行分类或为用户创建推荐的请求。
“拓扑图”或“图”可以包括在由边连接的不同顶点的平面中的图的表示。拓扑图中的不同顶点可以被称为“节点”。每个节点可以表示事件的特定信息,或者可以表示实体或对象的简档的特定信息。这些节点可通过一组边E彼此相关。例如,“边”可被描述为由作为图G=(V,E)的子集的两个节点组成的无序对,其中G是包括由一组边E连接的一组顶点(节点)V的图。例如,拓扑图可表示交易网络,其中表示交易的节点可通过边连接到与交易相关的一个或多个节点,诸如表示设备、用户、交易类型等的信息的节点。边缘可与被称为“权重”的数值相关联,所述数值可被指派给两个节点之间的成对连接。边缘权重可以被标识为两个节点之间的连接强度和/或可以与成本或距离相关,因为它常常表示从一个节点移动到下一个节点所需的量。
“子图”可包括由更大图的元素的子集形成的图。元素可包括顶点和连接边,并且子集可以是从更大图的整个一组节点和边中选择的一组节点和边。例如,多个子图可以通过对图形数据随机采样来形成,其中每个随机样本都可以是子图。每个子图可与由同一更大图形成的另一子图重叠。
术语“节点”可以包括表示指定信息的离散数据点。在拓扑图中,节点可以通过“边”彼此连接,该“边”可以被分配称为边权重的值以便描述两个节点之间的连接强度。例如,第一节点可以是表示网络中的第一设备或交互网络中的用户的数据点,并且第一节点可以在图中连接到表示网络中的第二设备或交互网络中的资源提供商的第二节点。在一些实施方案中,连接强度可以由对应于信息在两个节点之间传输的快慢和容易程度的边权重来定义。边权重也可以用于表示从一个状态或节点移动到下一个状态或节点所需的成本或距离。例如,第一节点可以是表示机器的第一位置的数据点,且第一节点可以在图中连接到用于机器的第二位置的第二节点。边权重可以是从第一位置移动到第二位置所需的能量。
“周期性分类”可以包括某事物是否是周期性的指示。周期性分类可以将节点或边分类为“周期性的”或“非周期性的”。在一些实施方案中,周期性分类可以是二元周期性分类。在其他实施方案中,周期性分类可以是连续值范围内的值。
“嵌入”可以包括高维向量可以被转换到其中的相对低维的空间。嵌入可以是离散—分类—变量到连续数的向量的映射。神经网络嵌入是有用的,因为它们可以减少分类变量的维数,并且在变换空间中有意义地表示类别。嵌入可以更容易地对大输入(例如,表示词语的稀疏向量等)执行机器学习。嵌入可以通过在嵌入空间中将语义相似的输入放在一起来捕获输入的语义中的一些语义。嵌入可以跨模型学习和重用。
“投影嵌入”可以包括已经被投影到嵌入空间中的嵌入。可以通过将嵌入从一个嵌入空间转换到另一个嵌入空间来创建投影嵌入。例如,针对节点的多个嵌入可以各自被投影到单个嵌入空间中,其中每个嵌入是在时间跨度的时间内的节点嵌入。可以选择单个嵌入空间作为最终时间戳嵌入空间的嵌入空间。然而,应当理解,可以选择任何嵌入空间。
“聚合嵌入”可以包括已经组合成单个嵌入的嵌入。可以从多个投影嵌入创建聚合嵌入。因而,投影嵌入可以表示每个时间戳处的节点,而聚合嵌入可以表示跨每个时间戳的节点。
“处理器”可以包括处理某事的设备。在一些实施方案中,处理器可以包括任何合适的一个或多个数据计算设备。处理器可以包括一起工作以实现期望的功能的一个或多个微处理器。处理器可以包括CPU,所述CPU包括至少一个高速数据处理器,所述高速数据处理器足以执行用于执行用户和/或系统生成的请求的程序成分。CPU可以是微处理器,例如AMD的Athlon、Duron和/或Opteron;IBM和/或Motorola的PowerPC;IBM和Sony的Cell处理器;Intel的Celeron、Itanium、Pentium、Xeon和/或XScale;和/或类似的处理器。
“存储器”可以是能够存储电子数据的任何合适的一个或多个设备。合适的存储器可以包括非瞬态计算机可读介质,其存储可以由处理器执行以实施期望方法的指令。存储器的示例可以包括一个或多个存储器芯片、磁盘驱动器等。此类存储器可以使用任何合适的电、光和/或磁操作模式进行操作。
“服务器计算机”可以包括功能强大的计算机或计算机集群。例如,服务器计算机可以是大型主机、小型计算机集群,或者像单元一样工作的一组服务器。在一个示例中,服务器计算机可以是耦合到Web服务器的数据库服务器。服务器计算机可以包括一个或多个计算设备,并且可以使用多种计算结构、布置和编译中的任一种来服务于来自一个或多个客户端计算机的请求。
表1示出了本文出现的各种符号的定义。
图1示出了根据本公开的实施方案的系统100。系统100包括多个设备102、数据库104和数据分析计算机106。多个设备102可以与数据库104进行操作性通信。数据库104可以与数据分析计算机106进行操作性通信。
为了简化说明,在图1中示出了一定数量的部件。然而,应当理解,本发明的实施方案可以包括多于一个每种组件。此外,本发明的一些实施方案可以包括比图1中所示的所有组件少或多的组件。
图1中的设备之间的消息可以使用安全通信协议来发送,所述安全通信协议例如但不限于:文件传输协议(FTP)、超文本传输协议(HTTP)、安全超文本传输协议(HTTPS)、SSL、ISO(例如,ISO 8583)等。通信网络可以包括以下中的任一个和/或组合:直接互连;互联网;局域网(LAN);城域网(MAN);作为互联网上节点的运行任务(OMNI);安全定制连接;广域网(WAN);无线网络(例如,采用例如但不限于无线应用协议(WAP)、I-模式等等的协议);等等。通信网络可以使用任何合适的通信协议以生成一个或多个安全通信信道。在一些情况下,通信信道可以包括安全通信信道,该安全通信信道可以以任何已知方式建立,诸如通过使用相互认证和会话密钥,以及建立安全套接层(SSL)会话。
多个设备102可以包括能够获得数据和/或执行交互的任意数量的设备。用户设备的示例包括用户设备、移动设备、接入设备、资源提供商设备等。多个设备102中的每个设备可以直接或间接地(例如,经由中间计算机,未示出)向数据库104提供关于该设备执行的交互的数据。
例如,多个设备102中的第一设备(诸如用户设备)可以与多个设备102中的第二设备(诸如资源提供商计算机)执行交互(诸如交易)。第一设备和第二设备都可以向数据库104提供与交互相关的数据。例如,第一设备和第二设备可以提供交互数据、设备标识符、设备类型(例如,用户设备或资源提供商设备)和/或与设备或设备之间的交互相关的任何其他数据。
数据库104可以包括可以存储由多个设备102获得的数据的电子存储系统。数据库104可以包括任何合适的数据库。数据库104可以是传统的、容错性的、相关联的、可扩展的安全数据库,例如可以从OracleTM或者SybaseTM购买的数据库。
由多个设备102获得的数据可以被存储为包括多个节点和多个边的动态图。动态图的多个节点可以表示多个设备102。多个边可以表示在多个设备102中的设备之间发生的交互。
数据分析计算机106可以包括能够分析存储在数据库中的数据的计算机或服务器计算机。数据分析计算机106可以从数据库104获得数据并且分析数据,如本文进一步详细描述的。例如,数据分析计算机106可以确定图中包括的子图是否是周期性的。
图2示出了根据实施方案的数据分析计算机200的框图。示例性数据分析计算机200可以包括处理器204。处理器204可以耦合到存储器202、网络接口206和计算机可读介质208。计算机可读介质208可以包括一个或多个模块,该一个或多个模块包括嵌入模块208A、图形转换模块208B、嵌入聚合模块208C和周期性检测模块208D。
存储器202可用于存储数据和代码。存储器202可以在内部或在外部耦接到处理器204(例如,基于云的数据存储装置),并且可以包括易失性和/或非易失性存储器(诸如RAM、DRAM、ROM、闪存存储器或任何其他合适的存储器设备)的任何组合。例如,存储器202可以存储图形数据。
计算机可读介质208可以包括代码,该代码可由处理器204执行以用于执行方法,该方法包括:由计算机获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;由所述计算机基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入、针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类以及针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;由所述计算机将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成多个投影子图嵌入中的投影子图嵌入;对于所述子图,由所述计算机将所述多个投影子图嵌入聚合成聚合子图嵌入;以及由所述计算机至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
嵌入模块208A可以包括代码或软件,该代码或软件可由处理器204执行以用于嵌入节点、边和/或子图。嵌入模块208A结合处理器204可以确定针对多个节点的节点嵌入,确定针对多个边嵌入的边嵌入和针对子图的子图嵌入。嵌入模块208A结合处理器204可以执行机器学习嵌入过程来学习嵌入。
嵌入模块208A结合处理器204可以使用静态节点嵌入方法来确定节点嵌入。例如,嵌入模块208A结合处理器204可以利用静态节点嵌入方法,该方法包括例如在DeepWalk和node2vec中执行的基于随机行走的方法。例如,node2vec框架通过优化邻域保持目标来学习针对图中节点的低维表示。目标是灵活的,并且算法通过模拟有偏随机行走来适应网络邻域的各种定义。具体地,它提供了一种平衡探索-开发权衡的方法,该探索-开发权衡又导致服从从同质性到结构等价的等价谱的表示。
嵌入模块208A结合处理器204可以使用静态边嵌入方法来确定边嵌入。例如,嵌入模块208A结合处理器204可以利用edge2vec的修改版本。修改的边学习过程可以旨在优化考虑全局边接近度、局部边接近度和所有时间边接近度的损失函数。本文将更详细地描述修改的边学习过程。
嵌入模块208A结合处理器204可以使用子图表示学习方法来确定子图嵌入。例如,嵌入模块208A结合处理器204可以基于图的子图、时间段中的时间、针对子图中的节点的节点嵌入、针对子图中的边的边嵌入、针对子图中的节点的节点周期性分类以及针对子图中的边的边周期性分类来确定针对子图的子图嵌入。嵌入模块208A结合处理器204可以使用修改的SubGNN过程来确定子图嵌入,如本文进一步详细描述的。
图形转换模块208B可以包括代码或软件,该代码或软件可由处理器204执行以用于将来自多个时间戳的多个嵌入转换成投影嵌入。图形转换模块208B结合处理器204可以使用机器学习过程来执行嵌入投影,该机器学习过程优化损失函数以获得转换矩阵,从而转换输入嵌入以获得接近最终时间戳处的嵌入的嵌入。因而,图形转换模块208B结合处理器204可以将来自每个时间戳的输入嵌入投影到(被选择为最终时间戳的)单个时间戳的嵌入空间。通过这样做,图形转换模块208B结合处理器204可以创建空间,在该空间中每个投影嵌入可以与彼此进行准确地比较。
嵌入聚合模块208C可以包括代码或软件,该代码或软件可由处理器204执行以用于聚合多个投影嵌入。嵌入聚合模块208C结合处理器204可以基于多个投影嵌入来确定聚合嵌入。因而,嵌入聚合模块208C结合处理器204可以将多个投影嵌入组合成单个聚合嵌入,其中每个投影嵌入针对不同的时间戳。聚合嵌入可以表示投影嵌入所表示的边、节点或子图(例如,实体)。
例如,嵌入聚合模块208C结合处理器204可以利用递归神经网络来聚合给定节点或边的跨时间的嵌入。嵌入聚合模块208C结合处理器204可以使用递归神经网络来学习嵌入矩阵和转换矩阵。嵌入矩阵可以将节点或边投影嵌入转换为更小的维度。转换矩阵可以帮助将投影嵌入变换成单个聚合嵌入。
周期性检测模块208D可以包括代码或软件,该代码或软件可由处理器204执行以用于确定节点或边是否是周期性的。周期性检测模块208D结合处理器204可以使用分类和回归任务来执行二元周期性分类。周期性检测模块208D结合处理器204可以确定针对每个输入聚合节点嵌入的节点周期性分类和针对每个输入聚合边嵌入的边周期性分类。例如,周期性检测模块208D结合处理器204可以执行机器学习分类方法来确定节点或边是否是周期性的。
网络接口206可以包括可允许数据分析计算机200与外部计算机通信的接口。网络接口206可以使数据分析计算机200能够向和从另一设备(例如,数据库、处理计算机等)传送数据。网络接口206的一些示例可包括调制解调器、物理网络接口(诸如以太网卡或其他网络接口卡(NIC))、虚拟网络接口、通信端口、个人计算机存储卡国际协会(PCMCIA)插槽和卡等。由网络接口206启用的无线协议可以包括Wi-FiTM。经由网络接口206传输的数据可以呈信号的形式,所述信号可以是电信号、电磁信号、光信号,或者能够由外部通信接口接收的任何其它信号(统称为“电子信号”或“电子消息”)。可以包括数据或指令的这些电子消息可以经由通信路径或信道在网络接口206与其他设备之间提供。如上所述,可以使用任何合适的通信路径或信道,诸如电线或电缆、光纤、电话线、蜂窝链路、射频(RF)链路、WAN或LAN网络、互联网,或任何其他合适的介质。
图3示出了根据实施方案的被图示为节点和边的集合的图形数据。图3示出了由数个边连接的节点V1-V11。图3还示出了包括节点V8-V11的子图302。图可以包括任意数量的节点和边。此外,图可以不包括子图、包括一个子图或包括多个子图。子图可以包括彼此相关的节点和边。例如,子图302可以包括具有相似特性(例如,位置、使用历史、偏好等)的节点V8-V11。
与节点和边相比,子图在动态图的时间跨度中的出现明显更稀疏。在给定的有限窗口中,进行足够的观察来确定节点和边的周期性可能是可行的,但是确定子图的周期性是不可行的。例如,以安然电子邮件数据集为例。图4示出了所选择节点、边和子图在t=400与t=450之间的出现。如可以看出,对于每个实体,节点和边都表现出可容易观察的周期性模式,但它们的基本周期性可变化。然而,子图在该窗口中出现较少,因此很难确定它们在有限窗口中是否是周期性的。为了解决这种稀疏性,一种改良方法是首先根据节点和边构建周期性感知特征,然后利用这种所学习的信息来促进对子图的周期性的理解。然而,这种方法不能用任何当前的方法来完成,这导致了第二个技术挑战。
虽然利用所学习的节点和边特征来进一步构建可以使子图周期性检测容易的子图嵌入在高层次上看起来是好策略,但该方法本身需要许多详细的考虑。首先,虽然有丰富的节点表示学习算法生成高质量的节点嵌入[10]-[18],但对于边嵌入[19]-[21]来说就不一样了,更不用说子图嵌入[22]、[23]中甚至更有限的发展了。为了在动态图中精确地捕获一组周期性感知的子图嵌入,需要能够获得高质量的边和子图嵌入。
为了解决在从表示学习方法中学习子图的周期性时的上述技术问题,实施方案提供了一种分层系统,该分层系统首先学习节点和边的周期性感知嵌入,然后进一步利用该信息来学习对于子图周期性检测最佳的子图嵌入。例如,根据实施方案的系统可以首先分别学习动态图的节点嵌入和边嵌入的静态快照,其中实施方案改进了现有的边嵌入方法[21]以增强其在下游周期性检测任务中的嵌入质量。然后,使用嵌入转换方法[24]将所学习的嵌入投影到相同的潜在空间上,并且使用递归神经网络在动态图的整个时间跨度内将其聚合到单个嵌入。预测的周期性分数然后被发送到子图嵌入阶段,其中每个子图被分解成节点图和边图。使用先前学习的节点嵌入和边嵌入,结合周期性分数,实施方案可以利用基于消息传递的子图嵌入方法[22]来生成每个快照的子图嵌入。然后,子图嵌入也跨时间跨度被投影到同一空间上,使用递归神经网络聚合,并且最终传递到全连接层,以预测基本周期性。
因而,本文描述的实施方案针对前述技术问题提供了以下技术解决方案和优点。1)实施方案提供了根据分层的和基于神经网络的方法来确定动态图中子图的周期性。2)实施方案通过引入新的损失函数来提供边表示学习方法的修改版本,其在给定的时间戳处捕获边的存在。因而,边嵌入更适合通过动态图的时间跨度来预测边周期性。3)实施方案将所学习的周期性感知的节点嵌入和边嵌入及其周期性分数利用到最近提出的子图嵌入方法SubGNN[22]中。通过对两个真实世界数据集的评估,可以示出,与非周期性感知嵌入相比,所学习的周期性感知子图嵌入可以更好地检测子图的周期性。
实施方案可以将动态图定义为其中/>是随时间变化的节点集的集合,ε={E(t)}t∈T是随时间变化的边集的集合,并且/>是动态图/>的完整时间跨度。在时间t的子图可以定义为/> 其中/>并且然后,给定动态图/>和一组子图/>实施方案旨在学习节点、边和子图的周期性感知嵌入,并且进一步利用该嵌入来预测每个实体的基本周期性。
作为第一示例,动态图的节点可以表示用户和资源提供商。动态图的边可以表示用户与资源提供商之间的交互(例如,交易等)。动态图的子图可以包括以某种方式彼此相关的用户、资源提供商和交互的集合。例如,子图可以表示在小镇的当地节日期间发生的和与之相关的交互。子图可能只在特定时间显现在动态图中。实施方案可以确定子图是否是周期性的。例如,当子图的节点和边的集合显现在动态图中时,如果当地节日每月发生一次,则子图可以是周期性的。因而,实施方案可以基于动态图来确定小镇的当地节日既存在又每月发生。
作为第二示例,动态图的节点可以表示计算机网络中的计算机。动态图的边可以表示计算机网络中的计算机之间的通信信道或链接。动态图的子图可以表示例如代表玩家计算机和游戏服务器计算机处理大型多玩家在线游戏(MMO)的动作的一组计算机。子图可以基于玩家使用彼此一起玩MMO的计算机来周期性地显现。大群玩家一起玩MMO可能影响网络流量和游戏服务器计算机的负载。实施方案可以确定子图是否是周期性的。例如,如果一起玩MMO的大群玩家以稍微规则的间隔显现在子图中(例如,在周末显现、在星期二晚上显现、在每月的第二个星期四显现等),则子图可以是周期性的。因而,实施方案可以确定子图的周期性,并且允许网络中的计算机为网络负载平衡和/或在子图显现的高使用时间期间限制游戏服务器计算机过载的其他过程做准备。
在一些实施方案中,计算机用来预测每个(例如,由节点表示的)实体的基本周期性的输入数据可以与用于系统训练的训练标签一起准备。系统可以利用任何已知的周期性标签。例如,系统可以利用节点和边的周期性的先验知识,以便适当地学习每种类型的实体的周期性感知嵌入。对于周期性标签生成,为了获得节点和边周期性的真实值(groundtruth),实施方案可以利用事件周期性挖掘的方法,该方法可以处置[8]中提出的缺失数据的一部分。给定动态图的完整时间跨度,计算机可以构建长度的出现向量,其中每个值为0或1,表示在该时间戳处对应的(例如,由节点表示的)实体是否存在。通过间隔切割和重叠方法,然后[8]中的方法输出每个测试周期性值的概率分数。
在一些实施方案中,可以在确定子图周期性之前向计算机提供感兴趣的子图。对于子图模式挖掘,已经提出了关于跨动态图挖掘频繁显现的子图模式的几种方法。实施方案可以利用任何合适的子图模式挖掘过程来根据动态图(诸如,gSpan[28])确定一个或多个子图。
图5示出了图示根据实施方案的分层周期性检测系统的总体架构的流程图。图5的方法可以由计算机(例如,数据分析计算机)执行。下面描述的算法1包括执行图5和图6的过程的伪代码。
参考图5,可以在计算机是数据分析计算机,图是动态图,图中的多个节点中的节点表示资源提供商和用户,并且图中的多个边中的边表示资源提供商与用户之间的交互的情况下描述方法。然而,应当理解,该方法可以应用于其他用例。
在描述图5所示的各个步骤之前,将讨论该方法的简要概述。根据实施方案,在流水线开始时,计算机可以首先利用诸如node2vec[15]和edge2vec[21]的图嵌入方法来获得动态图的每个静态快照的节点嵌入和边嵌入。所获得的节点嵌入和边嵌入可以分别定义为χv={XV(t)}t∈T和χε={Xe(t)}t∈T。
然后将所获得的和传递到嵌入投影方法(例如,MUSE[24])中,其中在t=1...1期间所有快照的嵌入被投影到投影嵌入被表示为/>和/>
然后,投影嵌入被馈送到递归神经网络中,以在整个时间跨度内聚合每个节点和边的嵌入序列。节点v的聚合嵌入被表示为hv,边e的聚合嵌入被表示为he。
然后,聚合嵌入用于进行第一预测任务,二元周期性分类。分类结果然后被发送到两个模块:周期性检测模块和子图嵌入生成模块。周期性检测模块类似于二元分类模块,其中子图嵌入生成模块中对分类结果的使用充当被确定为周期性的节点或边上的嵌入放大器。
在上述嵌入和信息就位之后,实施方案然后可以利用子图嵌入方法(例如,SubGNN[22])针对动态图中的每个静态快照生成每个预定子图的嵌入。然后,检测周期性之前的其余步骤类似于针对节点和边的步骤,除了实施方案没有将子图分类为周期性或非周期性分类的部分。相反,实施方案结合了周期性滤波器掩码,以便于检测子图的基本周期性。
回到图5,在步骤S502处,计算机可以确定针对多个节点的多个节点嵌入。例如,对于多个时间步长中的每个时间步长,计算机可以确定针对该时间步长的多个节点嵌入,其中多个节点嵌入对应于单个时间步长处的图中的节点。多个节点和多个边形成图。
为了嵌入每个快照的节点嵌入,可以使用各种节点嵌入方法。提出了几种图表示学习算法,这些图表示学习算法能够生成对各种下游任务有用的高质量节点嵌入,包括用于静态图[10]-[15]和动态图[16]-[18]的方法。动态图嵌入方法通常具有高复杂性,并且倾向于跨时间延续节点的存在,而区分节点是否存在于特定时间戳中在周期性检测任务[25]中是至关重要的。因此,与通常假设使用动态图嵌入相反,实施方案利用静态方法来获得节点嵌入。因而,计算机可以在机器学习过程期间使用包括随机行走采样的静态节点嵌入过程来确定针对多个节点的节点嵌入。此外,为了准确捕获节点的存在,基于随机行走的方法(诸如DeepWalk[13]和node2vec[15])比没有随机行走的方法更合适。这是因为不存在的节点不会通过随机行走到达,除非在随机开始步骤对其进行采样。
为了在动态图的给定快照t处进行一阶随机行走,随机行走的转换概率可以表示如下:
其中ci是在行走的第i步到达的节点,πvx是从节点v到x的转换概率,并且Z是归一化常数。
当node2vec在进行随机行走时遇到BFS和DFS策略时,有助于控制朝向BFS和DFS的偏置的p和q参数可以并入到针对二阶随机行走的非归一化转换概率中,如
πvx=αpq(t,x)·wvx (1)
其中wvx是边(v,x)的权重。αpq(t,x)是有偏项,其被公式化为
其中dtx表示t与x之间的最短路径的长度。
经采样的行走被用作对类似skipgram的模型的输入,然后获得每个节点在时间戳t[26]处的嵌入,其被表示为Xv(t)。
在步骤S504处,计算机可以确定针对多个边的多个边嵌入。例如,对于多个时间步长中的每个时间步长,计算机可以确定针对该时间步长的多个边嵌入,其中多个边嵌入对应于单个时间步长处的图中的边。在一些实施方案中,计算机可以利用edge2vec[21]的修改版本来嵌入每个快照的边嵌入。计算机可以基于训练机器学习模型来确定针对多个边的边嵌入,该机器学习模型优化考虑了全局边接近度、局部边接近度和所有时间边接近度的损失函数。
给定两个边,e1=(s1,t1)和e2=(s2,t2),如果s1=s2或t1=t2,则两个边的局部边接近度为1。否则,局部接近度为0。它们的全局边接近度由它们的邻域向量的相似性来定义,其定义如下。
ne= (ws1,...,ws|V|,wt1,...,wt|V|) (2)
其中wij表示顶点i与j之间的连接,这可以直接从图的邻接矩阵中检索。
1)全局边接近度:edge2vec算法旨在通过优化深度自动编码器来保持边的全局接近度。对于自动编码器中的每个输入,邻域向量ne被馈入并表示为对于编码器中的每个层n,其输入是传递通过全连接层后来自前一层的输出:
解码器以对称方式工作,其中解码器的每个层n-1的输入是传递通过全连接层后的前一层n(解码器的层编号递减)的输出:
对于得到较好训练的自动编码器,解码器在开始时的输入与最终输出/>之间的差异应当尽可能小。这就导致了第一损失到第一损失到优化,全局损失。
其中Ie是针对的指示符向量。设/>并且指示符向量的值可以被确定为:
2)局部边接近度:为了保持边的局部接近度,edge2vec旨在将具有局部接近度的边的嵌入拉得更近,而将没有局部接近度的边的嵌入推得更远。为了实现这一点,edge2vec借用了来自word2vec[26]的skipgram的思想。对于每个给定的边对ep=(e,e’)(e和e’的局部接近度均为1),其得出λ负边,这些负边与e和e’的局部接近度均为0。因此,给定边对的局部接近度损失为
原始edge2vec考虑的损失函数到此结束。然而,到目前为止,仅在总体动态图的单个快照内考虑边之间的相似性和不相似性。为了实现跨时间对边的区分,实施方案还提供了要考虑的附加损失函数。
3)所有时间边接近度:为了区分在动态图中给定时间t内是否存在边,实施方案引入了所有时间边接近度。所有时间边接近度是基于的修改,其中计算机对在给定时间t内不存在但在其他时间t’内存在的边进行采样,而不是将非局部接近度边作为负样本。以这种方式,所有时间边接近度损失可以写成如下形式。/>
其中e”是在时间t处也存在(但不必与e具有局部接近度)的边,并且ej是在时间t内不存在的负边。
为此,实施方案引入了例如edge2vec旨在优化的修改的边嵌入过程的三个损失。因此,将修改的edge2vec的总体目标如下添加在一起。
然后,每个时间戳t处的最终获得的边嵌入被表示为Xe(t)。
在步骤S506处,计算机可以将针对时间段中的每个时间的多个节点嵌入中的每个节点嵌入转换成投影节点嵌入。例如,多个节点嵌入可以跨每个时间步长被归一化。此外,在步骤S508处,计算机可以将针对时间段中的每个时间的多个边节点嵌入中的每个边嵌入转换成投影边嵌入。通过将每个节点嵌入和边嵌入分别转换成相似的节点嵌入空间和边嵌入空间,嵌入可以更准确地相互比较。
作为转换嵌入的示例,将讨论转换节点嵌入。应当理解,将每个节点嵌入转换成投影节点嵌入是以类似于将每个边嵌入转换成投影边嵌入的方式来执行的。例如,对于每个时间戳t的节点嵌入Xv(t)和边嵌入Xe(t)(其中),计算机可以学习转换矩阵/>和使得投影嵌入接近于最终时间戳/>处的嵌入(例如,/>和/>)。
更具体地,训练用于将嵌入从t投影到的鉴别符,以区分从/>和/>采样的嵌入。形式上,鉴别符的损失函数可以写成如下形式。
通过使上述损失最小化,计算机能够利用所获得的和/>并且得到节点和边的跨时间的最终投影嵌入,如/>和/>
在步骤S510处,对于多个节点中的每个节点,计算机可以将针对特定节点的投影节点嵌入聚合成聚合节点嵌入。聚合节点嵌入可以表示针对多个时间步长的所有时间步长的节点。此外,在步骤S512处,对于多个边中的每个边,计算机可以将投影边嵌入聚合成聚合边嵌入。聚合边嵌入可以表示针对多个时间步长的所有时间步长的边。
在一些实施方案中,计算机可以在步骤S502和S504之后分别执行步骤S510和S512。例如,在确定节点嵌入之后,计算机可以将多个节点嵌入或其派生物聚合成聚合节点嵌入。多个节点嵌入的派生物可以是多个投影节点嵌入。此外,在确定边嵌入之后,计算机可以将多个边嵌入或其派生物聚合成聚合边嵌入。多个边嵌入的派生物可以是多个投影边嵌入。
作为聚合投影嵌入的示例,将讨论聚合投影节点嵌入。应当理解,将每个投影节点嵌入聚合成聚合节点嵌入是以类似于将每个边嵌入聚合成聚合边嵌入的方式来执行的。到目前为止,计算机已经生成了跨动态图的时间跨度的节点嵌入和边嵌入,并且将它们投影到与最后时间戳相同的嵌入空间(例如,/>)。为了聚合给定实体的跨时间的嵌入,计算机可以将嵌入序列馈送到递归神经网络中,其中在时间t处的节点嵌入/边嵌入是在1...t-1期间来自其嵌入的聚合,如下所述。
ht=σh(Whxt+Uhht-1+bh) (15)
其中Wh是将给定节点嵌入/边嵌入转换为更小维度的嵌入矩阵,并且Uh是从t-1到t的转换矩阵。
因而,聚合投影节点嵌入和聚合投影边嵌入包括将投影节点嵌入输入到第一递归神经网络中,以在整个时间段内聚合嵌入的每个节点序列,并且将投影边嵌入输入到第二递归神经网络中,以在整个时间段内聚合嵌入的每个边序列。第一递归神经网络和第二递归神经网络可以根据等式15来执行,以确定嵌入矩阵和转换矩阵。计算机可以执行机器学习过程来确定(例如,学习)用于第一递归神经网络和第二递归神经网络两者的嵌入矩阵和转换矩阵。然后,计算机可以使用所学习的嵌入矩阵和转换矩阵来获得聚合节点嵌入和聚合边嵌入。
在聚合之后,计算机保存聚合节点嵌入和聚合边嵌入(例如,将它们存储在存储器中),分别表示为hv和he。
在步骤S514处,对于多个节点中的每个节点,计算机可以将聚合节点嵌入分类为周期性的或非周期性的,以产生节点周期性分类。此外,在步骤S516处,对于多个边中的每个节点,计算机可以将聚合边嵌入分类为周期性的或非周期性的,以产生边周期性分类。计算机可以使用二元机器学习分类方法对聚合节点嵌入和聚合边嵌入进行分类。二元机器学习分类方法可以将输入聚合节点嵌入和输入聚合边嵌入标记为“周期性的”或“非周期性的”。
作为对聚合节点嵌入进行分类的示例,将讨论对聚合节点嵌入进行分类。应当理解,对每个聚合节点嵌入进行分类是以类似于对每个聚合边嵌入进行分类的方式执行的。例如,利用聚合节点嵌入hv和聚合边嵌入he,由计算机执行二元周期性分类和数值周期性检测作为分类和回归任务。例如,计算机可以将聚合节点嵌入和聚合边嵌入分类如下:
yt=σy(Wyht+by) (16)
其中对于二元周期性分类任务和数值周期性检测任务两者,将yt的维度设置为1。二元分类任务的输出可以被表示为pv和pe,并且利用它们进行子图的进一步表示学习,我们接下来将讨论这一过程。
在步骤S518处,计算机可以基于在步骤S514处确定的节点周期性分类来输出节点周期性确定。
在步骤S520处,计算机可以基于在步骤S516处确定的边周期性分类来输出边周期性确定。
在步骤S521处,在获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对图中的多个边的边嵌入和边周期性分类之后,计算机可以确定子图嵌入。
计算机可以基于图的子图并且基于时间段中的时间(例如,时间步长)、以及针对子图的节点的节点嵌入和针对子图的边的边嵌入、针对子图的节点的节点周期性分类和针对子图的边的边周期性分类来确定子图嵌入。计算机可以确定针对每个时间戳处的子图的子图嵌入。图6示出了子图嵌入确定方法,并且将在下面进一步详细描述。
在步骤S522处,在确定子图嵌入之后,计算机可以将针对时间段中的每个时间的子图嵌入中的每个子图嵌入转换成多个投影子图嵌入中的投影子图嵌入。子图嵌入可以被投影到子图嵌入中,类似于节点嵌入被投影到节点嵌入中,如在步骤S506处所描述。
例如,计算机可以将子图嵌入中表示每个时间戳处的子图的每个子图嵌入投影到同一相干空间中。计算机可以将每个子图嵌入投影到最后时间戳的子图嵌入的嵌入空间中。如本文进一步详细描述的,可以使用机器学习过程来学习转换矩阵,从而执行投影。
在步骤S524处,在转换每个子图嵌入之后,计算机可以针对该子图将多个投影子图嵌入聚合成聚合子图嵌入。聚合子图嵌入可以表示针对所有时间步长的子图。可以以类似于将多个投影节点嵌入聚合成聚合节点嵌入的方式,将多个投影子图嵌入聚合成聚合子图嵌入,如在步骤S510处所描述。例如,如本文所述,可以使用递归神经网络来学习嵌入矩阵和转换矩阵,从而执行聚合。
在一些实施方案中,计算机可以在步骤S521之后执行步骤S524。例如,在确定子图嵌入之后,计算机可以将多个子图嵌入或其派生物聚合成聚合子图嵌入。多个子图嵌入的派生物可以是多个投影子图嵌入。
在步骤S526处,在确定聚合子图嵌入之后,计算机可以基于聚合子图嵌入、节点周期性分类和边周期性分类来确定子图是否是周期性的。例如,计算机可以将聚合子图嵌入传递到全连接递归神经网络层中,以预测子图的基本周期性。递归神经网络可被训练成基于节点周期性分类和边周期性分类来标识聚合子图嵌入是“周期性的”还是“非周期性的”。
在一些实施方案中,确定子图是否是周期性的可以包括计算机至少基于聚合子图嵌入来确定估计周期性分数。计算机然后可以确定估计周期性分数是否超过周期性分数阈值。周期性分数阈值可以是预先确定的值。如果估计周期性分数超过周期性分数阈值,则计算机可以输出子图是周期性的指示。在某些情况下,计算机可以输出估计周期分数。例如,计算机可以确定估计周期性分数为0.9(在0到1的范围内)。计算机可以将估计周期性分数0.9与周期性分数阈值0.85进行比较。由于估计周期性分数0.9超过了周期性分数阈值0.85,因此计算机可以输出与估计周期性分数相关联的子图是周期性的指示。
图6示出了图示根据实施方案的生成周期性感知子图嵌入的过程的流程图。图6所示的过程可以在图5中的步骤S521处执行。
关于对子图表示的学习已经有几个提议。为了结合从上述步骤中学习的节点和边的嵌入和周期性,一些实施方案可以利用修改的SubGNN[22]。SubGNN是在消息传递框架[27]之上设计的,这使得考虑节点和边的嵌入以及周期性信息变得容易。
在步骤S602之前,计算机可以确定动态图的子图S。计算机可以使用子图模式挖掘学习过程来确定多个子图,并且然后从多个子图中选择子图。计算机可以从动态图中包括的多个子图中选择感兴趣的子图。
在步骤S602处,计算机可以将子图S分解成子节点图Sv′和子边图Se′。子节点图Sv′可以包括关于子图S的节点的信息。子边图Se′可以包括关于子图S的边的信息。
在步骤S604处,在获得子节点图Sv′之后,计算机可以在步骤S606-S614期间处理子节点图Sv′。
在步骤S606处,计算机可以获得针对如子节点图Sv′中包括的子图S中的多个节点的节点嵌入。例如,可以在如图5所示的步骤S502处创建节点嵌入。
在步骤S608处,计算机可以确定节点消息。节点消息可以是基于(在图5中的步骤S502处确定的)节点嵌入创建的数据项。节点消息可以将来自节点嵌入的信息提供给子节点图中包括的节点。例如,包括一个或多个锚节点的锚块可以由计算机确定。锚块中包括的节点的节点嵌入可用于修改(例如,将包括数据的消息传递到)子节点图的节点。计算机可以使用节点嵌入根据子图中的锚节点来确定多个节点消息。
作为示例,对于子节点图,计算机可以按照[22]中提出的通道来标识子图S的锚块,并且将来自锚块的消息传递到给定子图,如下所示。
其中X是通道,A是对应的锚块,并且aX是锚块的编码,其可以直接从先前所学习和投影的节点嵌入中检索。
在步骤S610处,计算机可以获得针对子节点图Sv′中包括的多个节点的节点周期性分类。可以在如图5所示的步骤S514处生成节点周期性分类。
在步骤S612处,计算机可以使用所确定的节点消息和子节点图来确定聚合消息。可以使用阶不变聚合函数(AGG)来确定节点消息。此外,针对特定节点的节点消息可以通过(例如,如在图5所示的步骤S514处确定的)该节点的周期性进行加权。
然后,计算机可以聚合由节点周期性分类加权的消息,如下所示。
其中AGG是阶不变聚合函数,并且是基于先前获得的pv的锚块A的周期性。
在步骤S614处,计算机可以生成针对子节点图中的节点的嵌入。例如,计算机可以基于聚合消息创建子图-节点嵌入。
步骤S616-S626与步骤S604-S614类似,但利用边子图和相关联的边数据,而不是节点子图和相关联的节点数据来执行,并且此处不再赘述。
在步骤S628处,计算机可以组合在步骤S614和S626处确定的子图-节点嵌入和子图-边嵌入。例如,计算机可以使用子图-节点嵌入和子图-边嵌入来确定总体子图嵌入。
计算机可以使用聚合节点消息和聚合边消息(例如,gX,c)、可学习的权重矩阵(WX)和激活函数(σ)来确定子图嵌入。例如,如下确定子图Sv′的嵌入。
hX,c←σ(WX·[gX,c;hX,c]) (19)
在确定子图嵌入之后,计算机可以执行S521之后的步骤,如图5所示。例如,最终更新的hX,c然后被传递到嵌入投影,使得跨时间的嵌入在相同的相干空间中,并且然后通过递归神经网络进行聚合,并且最后传递到全连接层以预测子图的基本周期性。
在下面的算法1中示出了所提出的系统的训练过程方法的概括版本。
算法1:示例训练过程
利用合成数据集和真实世界数据集对实施方案进行评估。对于真实世界数据集,我们使用安然电子邮件数据集[29]和由开放图形基准提出的arXiv引文数据集[30]。我们进行了针对二元分类和回归两者的周期性检测任务。结果在下面的表II中示出。
表2:合成数据集上的周期性检测性能。
图7示出了图示根据实施方案的节点嵌入与基本周期性之间的比较的数据图。图7示出了两种不同的节点嵌入技术及其输出节点嵌入。当与DynAE方法相比时,实施方案所利用的修改的Node2vec+MUSE节点嵌入过程导致可更容易标识的节点分组,这些节点分组按周期性进行分组。
参考文献:
[1]C.Hauenschild,“Lunar periodicity,”in Cold Spring Harbor Symposiaon Quantitative Biology,vol.25.Cold Spring Harbor Laboratory Press,1960,pp.491–497.
[2]J.J.SEPKOSKI,“Periodicity in extinction and the problem ofcatastrophismin the history of life,”Journal of the Geological Society,vol.146,no.1,pp.7–19,1989.
[3]S.Karray,“Periodicity of pricing and marketing efforts in adistribution channel,”European Journal of Operational Research,vol.228,no.3,pp.635–647,2013.
[4]A.Drutsa,G.Gusev,and P.Serdyukov,“Engagement periodicity in searchengine usage:Analysis and its application to search quality evaluation,”inProceedings of the Eighth ACM International Conference on Web Search and DataMining,WSDM 2015,Shanghai,China,February 2-6,2015,X.Cheng,H.Li,E.Gabrilovich,and J.Tang,Eds.ACM,2015,pp.27–36.
[5]I.R.Fischhoff,S.R.Sundaresan,J.Cordingley,and D.I.Rubenstein,“Habitat use and movements of plains zebra(equus burchelli)in response topredation danger from lions,”Behavioral Ecology,vol.18,no.4,pp.725–729,2007.
[6]M.G.Elfeky,W.G.Aref,and A.K.Elmagarmid,“Periodicity detection intime series databases,”IEEE Trans.Knowl.Data Eng.,vol.17,no.7,pp.875–887,2005.[Online].Available:https://doi.org/10.1109/TKDE.2005.114
[7]——,“WARP:time warping for periodicity detection,”in Proceedingsof the 5th IEEE International Conference on Data Mining(ICDM 2005),27-30November 2005,Houston,Texas,USA.IEEE Computer Society,2005,pp.138–145.[Online].Available:https://doi.org/10.1109/ICDM.2005.152
[8]Z.Li,J.Wang,and J.Han,“Mining event periodicity fromincompleteobservations,”in The 18th ACM SIGKDDInternational Conference on KnowledgeDiscovery and Data Mining,KDD’12,Beijing,China,August 12-16,2012,Q.Yang,D.Agarwal,and J.Pei,Eds.ACM,2012,pp.444–452.[Online].Available:https://doi.org/10.1145/2339530.2339604
[9]——,“eperiodicity:Mining event periodicity fromincompleteobservations,”IEEE Trans.Knowl.Data Eng.,vol.27,no.5,pp.1219–1232,2015.[Online].Available:https://doi.org/10.1109/TKDE.2014.2365801
[10]A.Ahmed,N.Shervashidze,S.M.Narayanamurthy,V.Josifovski,andA.J.Smola,“Distributed large-scale natural graph factorization,”in22ndInternational World Wide Web Conference,WWW’13,Rio de Janeiro,Brazil,May13-17,2013,D.Schwabe,V.A.F.Almeida,H.Glaser,R.Baeza-Yates,andS.B.Moon,Eds.International World Wide Web Conferences SteeringCommittee/ACM,2013,pp.37–48.
[11]M.Belkin and P.Niyogi,“Laplacian eigenmaps and spectraltechniquesfor embedding and clustering,”in Advances in Neural InformationProcessingSystems 14[Neural Information Processing Systems:Natural andSynthetic,NIPS 2001,December 3-8,2001,Vancouver,British Columbia,Canada],T.G.Dietterich,S.Becker,and Z.Ghahramani,Eds.MIT Press,2001,pp.585–591.
[12]S.Cao,W.Lu,and Q.Xu,“Grarep:Learning graph representationswithglobal structural information,”in Proceedings of the 24th ACMInternationalConference on Information and Knowledge Management,CIKM 2015,Melbourne,VIC,Australia,October 19-23,2015,J.Bailey,A.Moffat,C.C.Aggarwal,M.de Rijke,R.Kumar,V.Murdock,T.K.Sellis,and J.X.Yu,Eds.ACM,2015,pp.891–900.
[13]B.Perozzi,R.Al-Rfou,and S.Skiena,“Deepwalk:online learningofsocial representations,”in The 20th ACM SIGKDD International ConferenceonKnowledge Discovery and Data Mining,KDD’14,New York,NY,USA-August 24-27,2014,S.A.Macskassy,C.Perlich,J.Leskovec,W.Wang,andR.Ghani,Eds.ACM,2014,pp.701–710.
[14]J.Tang,M.Qu,M.Wang,M.Zhang,J.Yan,and Q.Mei,“LINE:large-scaleinformation network embedding,”in Proceedings of the 24thInternationalConference on World Wide Web,WWW 2015,Florence,Italy,May 18-22,2015,A.Gangemi,S.Leonardi,and A.Panconesi,Eds.ACM,2015,pp.1067–1077.
[15]A.Grover and J.Leskovec,“node2vec:Scalable feature learningfornetworks,”in Proceedings of the 22nd ACM SIGKDD International ConferenceonKnowledge Discovery and Data Mining,San Francisco,CA,USA,August 13-17,2016,B.Krishnapuram,M.Shah,A.J.Smola,C.C.Aggarwal,D.Shen,andR.Rastogi,Eds.ACM,2016,pp.855–864.
[16]P.Goyal,N.Kamra,X.He,and Y.Liu,“Dyngem:Deep embeddingmethod fordynamic graphs,”arXiv preprint arXiv:1805.11273,2018.
[17]A.Sankar,Y.Wu,L.Gou,W.Zhang,and H.Yang,“Dysat:Deepneuralrepresentation learning on dynamic graphs via self-attention networks,”inWSDM’20:The Thirteenth ACM International Conference on Web Search andDataMining,Houston,TX,USA,February 3-7,2020,J.Caverlee,X.B.Hu,M.Lalmas,andW.Wang,Eds.ACM,2020,pp.519–527.
[18]P.Goyal,S.R.Chhetri,and A.Canedo,“dyngraph2vec:Capturingnetworkdynamics using dynamic graph representation learning,”Knowl.BasedSyst.,vol.187,2020.
[19]M.G.Sohrab,T.Nakata,M.Miwa,and Y.Sasaki,“EDGE2VEC:edgerepresentations for large-scale scalable hierarchical learning,”Computaci′on ySistemas,vol.21,no.4,2017.[Online].Available:http://www.cys.cic.ipn.mx/ojs/index.php/CyS/article/view/2849
[20]Z.Gao,G.Fu,C.Ouyang,S.Tsutsui,X.Liu,J.J.Yang,C.Gessner,B.Foote,D.J.Wild,Y.Ding,and Q.Yu,“edge2vec:Representation learning using edgesemantics for biomedical knowledge discovery,”BMC Bioinform.,vol.20,no.1,pp.306:1–306:15,2019.[Online].Available:https://doi.org/10.1186/s12859-019-2914-2
[21]C.Wang,C.Wang,Z.Wang,X.Ye,and P.S.Yu,“Edge2vec:Edge-based socialnetwork embedding,”ACM Trans.Knowl.Discov.Data,vol.14,no.4,pp.45:1–45:24,2020.[Online].Available:https://doi.org/10.1145/3391298
[22]E.Alsentzer,S.G.Finlayson,M.M.Li,and M.Zitnik,“Subgraph neuralnetworks,”in Advances in Neural Information Processing Systems 33:AnnualConference on Neural Information Processing Systems 2020,NeurIPS 2020,December 6-12,2020,virtual,H.Larochelle,M.Ranzato,R.Hadsell,M.Balcan,andH.Lin,Eds.,2020.
[23]L.Chen,J.Li,C.Sahinalp,M.Marathe,A.Vullikanti,A.Nikolaev,E.Smirnov,R.Israfilov,and J.Qiu,“Subgraph2vec:Highlyvectorized tree-likesubgraph counting,”in 2019 IEEE International Conference on Big Data(BigData),Los Angeles,CA,USA,December 9-12,2019,C.Baru,J.Huan,L.Khan,X.Hu,R.Ak,Y.Tian,R.S.Barga,C.Zaniolo,K.Lee,and Y.F.Ye,Eds.IEEE,2019,pp.483–492.[Online].Available:https://doi.org/10.1109/BigData47090.2019.9006037
[24]G.Lample,A.Conneau,M.Ranzato,L.Denoyer,and H.J′egou,“Wordtranslation without parallel data,”in 6th International Conference onLearning Representations,ICLR 2018,Vancouver,BC,Canada,April 30-May 3,2018,Conference Track Proceedings.OpenReview.net,2018.
[25]C.D.Barros,M.R.Mendonc,a,A.B.Vieira,and A.Ziviani,“A survey onembedding dynamic graphs,”arXiv preprint arXiv:2101.01229,2021.
[26]T.Mikolov,I.Sutskever,K.Chen,G.S.Corrado,and J.Dean,“Distributedrepresentations of words and phrases and their compositionality,”in Advancesin Neural Information Processing Systems 26:27th Annual Conference on NeuralInformation Processing Systems 2013.Proceedings of a meeting held December 5-8,2013,Lake Tahoe,Nevada,United States,C.J.C.Burges,L.Bottou,Z.Ghahramani,andK.Q.Weinberger,Eds.,2013,pp.3111–3119.
[27]J.Gilmer,S.S.Schoenholz,P.F.Riley,O.Vinyals,and G.E.Dahl,“Neuralmessage passing for quantum chemistry,”in Proceedings of the 34thInternational Conference on Machine Learning,ICML 2017,Sydney,NSW,Australia,6-11 August 2017,ser.Proceedings of Machine Learning Research,D.Precup andY.W.Teh,Eds.,vol.70.PMLR,2017,pp.1263–1272.[Online].Available:http://proceedings.mlr.press/v70/gilmer17a.html
[28]X.Yan and J.Han,“gspan:Graph-based substructure pattern mining,”in Proceedings of the 2002 IEEE International Conference on Data Mining(ICDM2002),9-12 December 2002,Maebashi City,Japan.IEEE Computer Society,2002,pp.721–724.[Online].Available:https://doi.org/10.1109/ICDM.2002.1184038
[29]B.Klimt and Y.Yang,“The enron corpus:A new dataset for emailclassification research,”in European Conference on Machine Learning.Springer,2004,pp.217–226.
[30]W.Hu,M.Fey,M.Zitnik,Y.Dong,H.Ren,B.Liu,M.Catasta,and J.Leskovec,“Open graph benchmark:Datasets for machine learning on graphs,”in Advances inNeural Information Processing Systems 33:Annual Conference on NeuralInformation Processing Systems 2020,NeurIPS2020,December 6-12,2020,virtual,H.Larochelle,M.Ranzato,R.Hadsell,M.Balcan,and H.Lin,Eds.,2020.
尽管以特定顺序示出或描述了上述流程图和过程流程中的步骤,但应理解,本发明的实施方案可以包括具有呈不同顺序的步骤的方法。另外,可以省略或添加步骤,并且这些步骤仍可以在本发明的实施方案中。
本申请中描述的软件部件或功能中的任一者可以实现为待由处理器使用诸如例如Java、C、C++、C#、Objective-C、Swift的任何合适的计算机语言或者诸如Perl或Python的脚本语言使用例如常规的或面向对象的技术执行的软件代码。所述软件代码可以作为一系列指令或命令存储在计算机可读介质上以供存储和/或传输,合适的介质包括随机存取存储器(RAM)、只读存储器(ROM)、例如硬盘驱动器或软盘等磁性介质,或者例如光盘(CD)或数字通用光盘(DVD)等光学介质、闪存存储器,等等。计算机可读介质可以是此类存储设备或传输设备的任何组合。
此类程序还可使用适于经由包括互联网在内的符合多种协议的有线网络、光学网络和/或无线网络进行传输的载波信号来编码和传输。因而,根据本发明的实施方案的计算机可读介质可以使用用此类程序编码的数据信号来创建。用程序代码编码的计算机可读介质可以与兼容设备一起封装或者与其他设备分开提供(例如经由因特网下载)。任何这种计算机可读介质可以驻留于单个计算机产品(例如硬盘驱动器、CD或整个计算机系统)之上或之内,并且可以存在于系统或网络内的不同计算机产品之上或之内。计算机系统可以包括监视器、打印机,或者用于向用户提供本文中所提及的任何结果的其他合适的显示器。
以上描述是说明性的且不是限制性的。在阅读了本公开之后,本发明的许多变型形式对于本领域的技术人员将变得显而易见。因此,本发明的范围不应参考以上描述来确定,而是应参考未决的权利要求连同其完整范围或等同物来确定。
在不脱离本发明的范围的情况下,任何实施方案的一个或多个特征可以与任何另一实施方案的一个或多个特征进行组合。
如本文所用,除非明确指示有相反的意思,否则使用“一个/种”或“该/所述”旨在表示“至少一个/种”。
Claims (20)
1.一种方法,所述方法包括:
由计算机获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;
由所述计算机基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入、针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类以及针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;
由所述计算机将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成多个投影子图嵌入中的投影子图嵌入;
对于所述子图,由所述计算机将所述多个投影子图嵌入聚合成聚合子图嵌入;以及
由所述计算机至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
2.如权利要求1所述的方法,其中获得针对所述时间段中的每个时间的针对所述图中的所述多个节点的所述节点嵌入和所述节点周期性分类,以及针对所述图中的所述多个边的所述边嵌入和所述边周期性分类还包括:
由所述计算机确定针对所述多个节点的所述节点嵌入;
由所述计算机确定针对所述多个边的所述边嵌入,其中所述多个节点和所述多个边形成所述图;
由所述计算机将针对所述时间段中的每个时间的所述节点嵌入中的每个节点嵌入转换成投影节点嵌入;
由所述计算机将针对所述时间段中的每个时间的所述边节点嵌入中的每个边嵌入转换成投影边嵌入;
对于所述多个节点中的每个节点,由所述计算机将针对该节点的所述投影节点嵌入聚合成聚合节点嵌入;
对于所述多个边中的每个边,由所述计算机将所述投影边嵌入聚合成聚合边嵌入;
对于所述多个节点中的每个节点,由所述计算机将所述聚合节点嵌入分类为周期性的或非周期性的,以产生所述节点周期性分类;以及
对于所述多个边中的每个节点,由所述计算机将所述聚合边嵌入分类为周期性的或非周期性的,以产生所述边周期性分类。
3.如权利要求2所述的方法,其中聚合所述投影节点嵌入和聚合所述投影边嵌入还包括:
由所述计算机将所述投影节点嵌入输入到第一递归神经网络中,以在整个所述时间段内聚合嵌入的每个节点序列;以及
由所述计算机将所述投影边嵌入输入到第二递归神经网络中,以在整个所述时间段内聚合嵌入的每个边序列。
4.如权利要求2所述的方法,其中对所述聚合节点嵌入进行分类和对所述聚合边嵌入进行分类还包括:
由所述计算机执行二元机器学习分类过程。
5.如权利要求1所述的方法,其中确定所述子图嵌入还包括:
由所述计算机确定所述图的所述子图;
由所述计算机将所述子图分解成包括所述子图中的所述多个节点中的所述节点的子节点图,以及包括所述子图中的所述多个边中的所述边的子边图;
由所述计算机使用所述节点嵌入根据所述子图中的锚节点来确定多个节点消息;
由所述计算机使用所述边嵌入根据所述子图中的锚边来确定多个边消息;
由所述计算机聚合由所述节点周期性分类加权的所述多个节点消息;
由所述计算机聚合由所述边周期性分类加权的所述多个边消息;以及
由所述计算机使用聚合的节点消息、聚合的边消息、可学习的权重矩阵和激活函数来确定所述子图嵌入。
6.如权利要求1所述的方法,其中所述边周期性分类将边分类为周期性的或非周期性的,并且其中所述节点周期性分类将节点分类为周期性的或非周期性的。
7.如权利要求1所述的方法,其中确定所述子图是否是周期性的还包括:
由所述计算机基于所述聚合子图嵌入来确定估计周期性分数。
8.如权利要求1所述的方法,其中确定所述子图是否是周期性的还包括:
由所述计算机至少基于所述聚合子图嵌入来确定估计周期性分数;
由所述计算机确定所述估计周期性分数是否超过周期性分数阈值;以及
如果所述估计周期性分数超过所述周期性分数阈值,则由所述计算机输出所述子图是周期性的指示。
9.如权利要求1所述的方法,其中所述图是动态图,所述节点周期性分类是二元节点周期性分类,并且所述边周期性分类是二元边周期性分类。
10.如权利要求1所述的方法,所述方法还包括:
由所述计算机基于子图模式挖掘学习过程根据所述图来确定多个子图;以及
由所述计算机从所述多个子图中选择所述子图。
11.一种计算机,所述计算机包括:
处理器;以及
耦合到所述处理器的计算机可读介质,所述计算机可读介质包括能够由所述处理器执行以用于实现方法的代码,所述方法包括:
获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;
基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入和针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类和针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;
将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成多个投影子图嵌入中的投影子图嵌入;
对于所述子图,将所述多个投影子图嵌入聚合成聚合子图嵌入;以及
至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
12.如权利要求11所述的计算机,其中所述方法还包括:
输出指示所述子图的周期性的估计周期性分数。
13.如权利要求11所述的计算机,其中获得针对所述时间段中的每个时间的针对所述图中的所述多个节点的所述节点嵌入和所述节点周期性分类,以及针对所述图中的所述多个边的所述边嵌入和所述边周期性分类还包括:
在机器学习过程期间使用包括随机行走采样的静态节点嵌入过程来确定针对所述多个节点的所述节点嵌入;以及
基于训练机器学习模型来确定针对所述多个边的所述边嵌入。
14.如权利要求11所述的计算机,其中所述方法还包括:
使用子图模式挖掘学习过程来确定所述图的所述子图。
15.如权利要求11所述的计算机,其中确定所述子图嵌入还包括:
确定所述图的所述子图;
将所述子图分解成包括所述子图中的所述多个节点中的所述节点的子节点图,以及包括所述子图中的所述多个边中的所述边的子边图;
使用所述节点嵌入根据所述子图中的锚节点来确定多个节点消息;
使用所述边嵌入根据所述子图中的锚边来确定多个边消息;
聚合由所述节点周期性分类加权的所述多个节点消息;
聚合由所述边周期性分类加权的所述多个边消息;以及
使用聚合的节点消息、聚合的边消息、可学习的权重矩阵和激活函数来确定所述子图嵌入。
16.如权利要求11所述的计算机,其中所述计算机是数据分析计算机,所述图是动态图,所述图中的所述多个节点表示资源提供商和用户,并且所述图中的所述多个边表示所述资源提供商与所述用户之间的交互。
17.如权利要求11所述的计算机,其中所述方法还包括:
使用优化损失函数的机器学习过程来确定所述边嵌入,所述损失函数考虑了全局边接近度、局部边接近度和所有时间边接近度。
18.一种系统,所述系统包括:
多个设备;
数据库;以及
数据分析计算机,所述数据分析计算机包括:
处理器;以及
耦合到所述处理器的计算机可读介质,所述计算机可读介质包括能够由所述处理器执行以用于实现方法的代码,所述方法包括:
从所述数据库获得针对时间段中的每个时间的针对图中的多个节点的节点嵌入和节点周期性分类,以及针对所述图中的多个边的边嵌入和边周期性分类;
基于所述图的子图、所述时间段中的时间、针对所述子图中的节点的所述节点嵌入和针对所述子图中的边的所述边嵌入、针对所述子图中的所述节点的所述节点周期性分类和针对所述子图中的所述边的所述边周期性分类来确定子图嵌入;
将针对所述时间段中的每个时间的所述子图嵌入中的每个子图嵌入转换成多个投影子图嵌入中的投影子图嵌入;
对于所述子图,将所述多个投影子图嵌入聚合成聚合子图嵌入;以及
至少基于所述聚合子图嵌入来确定所述子图是否是周期性的。
19.如权利要求18所述的系统,其中所述图中的所述多个节点表示所述多个设备,并且其中所述图中的所述多个边表示所述多个设备与资源提供商设备之间的交互。
20.如权利要求18所述的系统,其中确定所述子图嵌入还包括:
使用子图模式挖掘学习过程来确定所述图的所述子图;
将所述子图分解成包括所述子图中的所述多个节点中的所述节点的子节点图,以及包括所述子图中的所述多个边中的所述边的子边图;
使用所述节点嵌入根据所述子图中的锚节点来确定多个节点消息;
使用所述边嵌入根据所述子图中的锚边来确定多个边消息;
聚合由所述节点周期性分类加权的所述多个节点消息;
聚合由所述边周期性分类加权的所述多个边消息;以及
使用聚合的节点消息、聚合的边消息、可学习的权重矩阵和激活函数来确定所述子图嵌入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163209183P | 2021-06-10 | 2021-06-10 | |
US63/209,183 | 2021-06-10 | ||
PCT/US2022/033022 WO2022261447A1 (en) | 2021-06-10 | 2022-06-10 | Hierarchical periodicity detection on dynamic graphs system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117501325A true CN117501325A (zh) | 2024-02-02 |
Family
ID=84426365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280041391.4A Pending CN117501325A (zh) | 2021-06-10 | 2022-06-10 | 对动态图进行分层周期性检测的系统和方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4352660A1 (zh) |
CN (1) | CN117501325A (zh) |
WO (1) | WO2022261447A1 (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9536268B2 (en) * | 2011-07-26 | 2017-01-03 | F. David Serena | Social network graph inference and aggregation with portability, protected shared content, and application programs spanning multiple social networks |
WO2017075438A1 (en) * | 2015-10-28 | 2017-05-04 | Google Inc. | Processing computational graphs |
KR101945406B1 (ko) * | 2018-06-08 | 2019-02-08 | 한국과학기술정보연구원 | 실관계 기반 유사 서브 그래프 매칭 |
-
2022
- 2022-06-10 EP EP22821115.7A patent/EP4352660A1/en active Pending
- 2022-06-10 CN CN202280041391.4A patent/CN117501325A/zh active Pending
- 2022-06-10 WO PCT/US2022/033022 patent/WO2022261447A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP4352660A1 (en) | 2024-04-17 |
WO2022261447A1 (en) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lalwani et al. | Customer churn prediction system: a machine learning approach | |
Xue et al. | Dynamic network embedding survey | |
Divakaran et al. | Temporal link prediction: A survey | |
Barros et al. | A survey on embedding dynamic graphs | |
L’heureux et al. | Machine learning with big data: Challenges and approaches | |
Jawed et al. | Self-supervised learning for semi-supervised time series classification | |
Wang et al. | Deep generative model for robust imbalance classification | |
Shen et al. | A bayesian classification intrusion detection method based on the fusion of PCA and LDA | |
CN116662817B (zh) | 物联网设备的资产识别方法及系统 | |
Li et al. | Explain graph neural networks to understand weighted graph features in node classification | |
Cécillon et al. | Graph embeddings for abusive language detection | |
Huang et al. | An energy-efficient and trustworthy unsupervised anomaly detection framework (EATU) for IIoT | |
Ye et al. | Who are the celebrities? Identifying vital users on Sina Weibo microblogging network | |
Kose et al. | Fair contrastive learning on graphs | |
Zhang et al. | Dynamic representation learning via recurrent graph neural networks | |
Ji et al. | Multi-range gated graph neural network for telecommunication fraud detection | |
Montero et al. | Efficient large-scale face clustering using an online Mixture of Gaussians | |
Kothamasu et al. | Sentiment analysis on twitter data based on spider monkey optimization and deep learning for future prediction of the brands | |
Gong et al. | Latent evolution model for change point detection in time-varying networks | |
Verma et al. | Feature selection algorithm characterization for NIDS using machine and deep learning | |
Pughazendi et al. | Graph sample and aggregate attention network optimized with barnacles mating algorithm based sentiment analysis for online product recommendation | |
Lima | Hawkes processes modeling, inference, and control: An overview | |
Ahmadi et al. | Inductive and transductive link prediction for criminal network analysis | |
Yaseen et al. | Cloud‐based video analytics using convolutional neural networks | |
Haddad et al. | Exploring the representational power of graph autoencoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |