CN114567634B - 面向后e级图计算的方法、系统、存储介质及电子设备 - Google Patents

面向后e级图计算的方法、系统、存储介质及电子设备 Download PDF

Info

Publication number
CN114567634B
CN114567634B CN202210234737.4A CN202210234737A CN114567634B CN 114567634 B CN114567634 B CN 114567634B CN 202210234737 A CN202210234737 A CN 202210234737A CN 114567634 B CN114567634 B CN 114567634B
Authority
CN
China
Prior art keywords
graph
vertex
computing node
computing
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210234737.4A
Other languages
English (en)
Other versions
CN114567634A (zh
Inventor
张宇
赵进
余辉
杨赟
姜新宇
李仕俊
廖小飞
金海�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202210234737.4A priority Critical patent/CN114567634B/zh
Publication of CN114567634A publication Critical patent/CN114567634A/zh
Priority to US17/815,436 priority patent/US20230281157A1/en
Application granted granted Critical
Publication of CN114567634B publication Critical patent/CN114567634B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/80Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/52Program synchronisation; Mutual exclusion, e.g. by means of semaphores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/546Message passing systems or structures, e.g. queues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/54Indexing scheme relating to G06F9/54
    • G06F2209/548Queue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明涉及面向后E级图计算方法、系统、存储介质及电子设备,方法包括:在构建核心子图的情况下,至少一个计算节点选取核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对图划分块进行异步图计算处理,基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点;在各个计算节点及其管辖的下层计算节点的图数据均收敛后,计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;逐层次通信直至整个集群负责的图顶点状态收敛。本发明解决了大规模分布式环境下计算性能低、拓展性差、通信开销高等问题,提升超级计算机在支持大规模图计算时的性能。

Description

面向后E级图计算的方法、系统、存储介质及电子设备
技术领域
本发明涉及图计算技术领域,尤其涉及一种面向后E级图计算的方法、系统、存储介质及电子设备。
背景技术
由于图能够很好地描述大数据时代事物之间的关联关系,在结构和语义上有很强的表达能力。为此,大量大数据分析应用均利用迭代图处理技术来挖掘各自需要的数据信息。例如,通过单源点最短路径算法来找出事物间的最短路径;通过连通分量算法找出数据中的社区关系。与此同时,随着数据的爆发式增长,图数据的规模越来越大,对计算能力的需求也越来越强烈。例如AI芯片电路图的图顶点规模已达万亿级别。在对大规模图数据的科学计算中,往往需要利用超级计算机来快速高效地获得分析结果。
然而,图计算和传统的科学计算有着极大不同,它会更明显地表现出数据依赖复杂,负载不均衡,数据局部性差,不规则数据访问等问题,这使得传统超级计算机的大数据处理系统在支持大规模图计算时面临着极大的挑战。具体而言,首先,现有面向超级计算机的图计算系统在运行时缺乏对图顶点状态间复杂依赖的充分感知,在并行执行时以图顶点或者边为基本处理单位,各图顶点难以将其最新状态快速有效地传递给其邻居,导致大量无效图顶点状态更新、计算效率低下(不但收敛速度慢而且底层硬件资源消耗大,例如数据的冗余加载导致内存带宽等资源的消耗),使得有限的硬件资源成为大规模图计算执行的性能瓶颈,最终导致系统性能低下。其次,在图计算过程中,数据间复杂且不规则的依赖导致大量不规则的数据访问以及极差的数据局部性(比如传统CPU架构每次访问64字节的数据,其中只有4或者8字节的数据是有效的),造成存储资源和内存带宽的有效利用率低。同时,现有方案在计算时,所有图顶点之间状态传递需要沿着它们之间的依赖关系链串行进行,这使得底层平台上的大量并行计算资源利用率低,而上面运行的图计算任务不但收敛速度慢而且需要高额的数据访问开销以反复加载图数据以对它们进行处理。此外,图数据间的依赖也导致不同计算节点之间频繁且不规则的小消息通信,造成大量冗余的通信消息(例如,数据包的包头和图顶点ID信息)和极大的网络通信开销,限制了大规模图计算的在超级计算机上的性能和拓展性。
专利文献CN110704693A公开了一种分布式图计算系统和方法,系统包括多个计算机和数据库,每台计算机上具有一个或多个计算结点,首先进行初始化,各个计算结点分别从数据库中读取不相交的原图的一部分边;主体计算流程,采用以子图为中心的迭代化计算方法,同时加入图缩减和重新划分过程以加速收敛,其中每轮迭代包含以下步骤:重新划分步骤,在每轮迭代的开始,首先对当前计算的图进行重新划分;本地计算步骤;缩减步骤,每个计算结点本地计算完成后,删除被判定无用的部分点/边,对原图进行重构;判断剩下的所有边是否能够存储在单个计算结点,为是的情况下,迭代结束,否则返回到重新划分步骤。本发明图计算方技术可以有效减少算法收敛所需的迭代轮数,提高计算效率。
此外,一方面由于对本领域技术人员的理解存在差异;另一方面由于申请人做出本发明时研究了大量文献和专利,但篇幅所限并未详细罗列所有的细节与内容,然而这绝非本发明不具备这些现有技术的特征,相反本发明已经具备现有技术的所有特征,而且申请人保留在背景技术中增加相关现有技术之权利。
发明内容
现有技术中,在进行图计算时,所有图顶点之间状态传递需要沿着它们之间的依赖关系链串行进行,这使得底层平台上的大量并行计算资源利用率低,上面运行的图计算任务不但收敛速度慢而且需要高额的数据访问开销以反复加载图数据以对它们进行处理。此外,图数据间的依赖也导致不同计算节点之间频繁且不规则的小消息通信,造成大量冗余的通信消息(例如,数据包的包头和图顶点ID信息)和极大的网络通信开销,限制了大规模图计算在超级计算机上的性能和拓展性。
针对现有技术之不足,本发明提供了一种面向后E级图计算的方法,所述方法至少包括:分布式异步图处理和建立层次化超大规模分布式通信;所述分布式异步图处理的步骤至少包括:在构建核心子图的情况下,至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理。
本发明的异步图计算处理,通过优先选取核心子图中包含活跃图顶点的块进行处理,使得重要图顶点的状态快速传递,加快难以收敛的图顶点状态的收敛速度,避免图计算的长尾效应;还通过在处理每个块时,采用拓扑结构感知的图处理机制的方式将图划分块中的图数据按照图拓扑顺序调度到各核上并行处理,从而有效加快图顶点状态传递、避免无效图顶点处理和减少数据访问开销。
所述建立层次化超大规模分布式通信的步骤至少包括:基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点;在各个计算节点及其管辖的下层计算节点的图数据均收敛后,所述计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;逐层次通信直至整个集群负责的图顶点状态收敛。
本发明中,在图数据分区时,采用社区结构感知的划分方式,将图顶点之间依赖紧密的核心子图分配到同一分组中,从而使得子图内的频繁通信发生在同一分组内部,减少全局通信开销。
优选地,所述方法还包括:在进行分布式异步图处理之前,各个计算节点将本地图分区划分为细粒度的块,并且根据块中图顶点度数来区分高度数块和低度数块,选取所述高度数块来构建核心子图。其中,在构建核心子图的过程中,识别核心图顶点,并且将核心图顶点的状态数据合并存储。本发明的状态数据的合并,能够提高数据时间/空间局部性,保证每次加载的数据大多都是有效的,减少数据访问开销。
优选地,所述至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理的步骤至少包括:至少一个计算节点选取所述核心子图中包含活跃图顶点的高度数块,基于拓扑结构感知的图处理机制,将所述高度数块中的图数据按照图拓扑顺序调度到各核上并行处理,能够有效加快图顶点状态传递、避免无效图顶点处理和减少数据访问开销。
优选地,所述至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理的步骤还包括:在高度数块的处理过程中,将图顶点状态的更新数据按照图顶点ID顺序进行排序,再将排序后的所述图顶点状态更新数据按照排好的顺序应用到相应图顶点来更新其图顶点状态值,以将图顶点状态更新数据的随机访问转化为规则地有序访问,减少无效数据访问。
优选地,所述至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理的步骤还包括:在所述计算节点的图数据被计算至局部收敛后且没有达到需要通信的条件的情况下,所述计算节点生成需要通信状态值的图顶点与不直接相邻的至少一个图顶点之间的状态值依赖关系,所述计算节点基于所述状态值依赖关系在通信后更新图顶点状态值,使得图顶点的更新进行传递,能够使得通信后更新的图顶点状态值能够快速传递给更多的图顶点,加快图顶点状态的传递速度,提高计算资源的有效并行度。
优选地,所述基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点的步骤至少包括:将若干计算节点按照树型的方式设置,将图数据按照社区结构感知的划分方式划分并形成图分区,根据所述状态值依赖关系将图顶点之间的依赖紧密的核心子图分配至同一组计算节点中,使得所述核心子图内的频繁通信发生在同一计算节点分组内部,减少全局通信开销。
优选地,所述基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点的步骤还包括:在若干计算节点进行通信时,发送至同一图顶点的通信信息基于规约合并的方式来减少通信量;和/或向同一计算节点的若干通信信息是以合并的方式统一发送至所述计算节点的,以充分利用网络带宽,减少频繁的小消息通信开销。此外,对通信消息进行压缩,通过去掉图顶点ID等不必要的信息来进一步降低通信量。
本发明还提供一种面向后E级图计算的系统,至少包括处理器,所述处理器至少包括:第一模块,用于分布式异步图处理;第二模块,用于建立层次化超大规模分布式通信:
第一模块被配置为:在构建核心子图的情况下,至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理,
第二模块被配置为:基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点;在各个计算节点及其管辖的下层计算节点的图数据均收敛后,所述计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;逐层次通信直至整个集群负责的图顶点状态收敛。
本发明还提供一种存储设备,其上存储有计算机程序,该程序被处理器执行时实现权利要求1至7中任一项所述的面向后E级图计算方法的步骤。
本发明还提供一种电子设备,包括:存储器,其上存储有计算机程序;处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1至7中任一项所述的面向后E级图计算方法的步骤。
本发明的面向后E级图计算系统、存储设备和电子设备,其优势与本发明的面向后E级图计算方法的优势相同,不再赘述。
附图说明
图1是本发明提供的其中一种基于分组的层次化树型通信方式的逻辑结构图;
图2是本发明提供的图计算方法中核心图顶点状态合并的逻辑示意图;
图3是本发明提供的图计算方法中SSSP任务的状态值依赖关系的逻辑示意图;
图4是本发明提供的图计算方法中的社区检测算法的逻辑示意图;
图5是本发明提供的图计算方法中多计算节点间通信的逻辑示意图;
图6是本发明提供的图计算方法中的消息压缩的结构示意图;
图7是本发明提供的图计算方法中图顶点状态规约算法的逻辑示意图;
图8是本发明提供的图计算方法中消息合并的逻辑示意图;
图9是本发明提供的分布式异步图处理流程示意图;
图10是本发明提供的层次化超大规模分布式通信流程示意图。
附图标记列表
10:合并状态表;20:哈希表;30:初始社区结构;31:第一社区结构;32:第二社区结构;33:第三社区结构;34:第n社区结构;41:图顶点状态值;42:主代理图顶点;43:镜像代理图顶点;51:消息压缩步骤;52:消息发送步骤;53:消息解压及规约步骤;54:生成的信息;61:图顶点ID;62:第一状态值;63:位表;64:第二状态值;65:规约算法步骤。
具体实施方式
下面结合附图进行详细说明。
本发明提供一种面向后E级图计算的方法及系统、存储介质以及电子设备。
本发明的核心思想包括:首先,各计算节点利用细粒度的块来进行异步图处理,使得每个加载到缓存的块被处理到局部收敛才换出,提高数据访问局部性,避免数据冗余的反复加载;并且,优先地选择重要图数据块进行处理来加快重要图顶点的状态传播速度。其次,对每个块的处理,采用一种图拓扑感知的异步图处理机制,使活跃图顶点的最新状态能够沿着图拓扑快速传递,加快图顶点状态速度。对图计算的图顶点状态更新进行规则化来有效降低随机访存,提高缓存和内存带宽利用率,降低图顶点状态更新开销;同时,合并核心图顶点状态数据的存储和访问,提高数据时间/空间局部性,保证每次加载到缓存的图顶点状态数据大多都是有效的。生成需要通信状态值的图顶点与其他不直接相邻图顶点之间的状态值依赖关系,以此来进一步加快图顶点状态的传递速度,提高计算资源的有效并行度。每个计算节点的每轮图计算需要将其图划分块计算到局部收敛为止才触发通信,加快了图顶点状态传递,充分挖掘各计算节点的计算能力,也减少了通信次数和数据量。在各个计算节点的每轮图计算后,通过基于分组的层次化的树型通信模式,使得大量无规则的全局小消息通信规则化,即大多数无规则的全局小消息通信能够被转换成了局部通信,从而有效限制了大量无规则小消息通信对整个网络以及整个集群的负面影响;并且通过消息层次化通信方式来有效合并小消息,从而充分利用网络带宽。在通信前,对发往相同计算节点的消息进行合并和压缩,将非规则小消息通信转换成顺序的规则通信,并且去掉通信消息中的图顶点ID等不必要的信息,从而减少频繁的小消息通信开销,降低通信量,提高带宽利用率。
实施例1
本发明的面向后E级图计算方法,至少包括:分布式异步图处理和建立层次化超大规模分布式通信。
分布式异步图处理的步骤包括:
在进行分布式异步图处理之前,在构建核心子图的情况下,至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理。
核心子图是指:由高度数图划分块构成的子图,核心子图的处理对图计算收敛速度影响最大。
活跃图是指:在每轮迭代处理中,需要处理的图数据。
具体地,在进行分布式异步图处理之前,各个计算节点将本地图分区划分为细粒度的块,并且根据块中图顶点度数来区分高度数块和低度数块,选取所述高度数块来构建核心子图。
例如,各个计算节点将其本地图分区Gi划分为细粒度的图划分块P,图划分块的大小|P|由以下公式决定:
Figure BDA0003535665570000071
其中,|G|为图数据的大小,|V|为图顶点的数量,|Uv|为每个图顶点状态值的大小,|LLC|为L3缓存的大小,|R|表示预留的空间。|P|的值为满足该公式的最大正整数值。
统计各个图划分块中图顶点的平均度数
Figure BDA0003535665570000072
其中VP是图划分块P的图顶点集合。|VP|是图划分块P中包含的图顶点数量,Deg(vi)是图顶点vi的度数。
根据阈值(Threshold)来区分高度数块和低度数块。阈值(Threshold)是由用户定义的高度数块的比例来决定的。例如:现有100个图划分块,用户定义的高度数块的比例为5%,则将图划分块按照ADegP降序排序后,阈值(Threshold)为第5个图划分块P5
Figure BDA0003535665570000073
ADeg大于阈值(Threshold)的图划分块被判定为高度数块,将选取的高度数块来构建核心子图。
在构建核心子图的过程中,识别核心图顶点,并且将核心图顶点的状态数据合并存储。本发明的状态数据的合并,能够提高数据时间/空间局部性,保证每次加载的数据大多都是有效的,减少数据访问开销。
核心图是指:由高度数图顶点以及这些图顶点的边构成的子图。
顶点是指:图是由图顶点和边构成。图顶点用于表示某个事物或者对象,边用于表示事物或者对象之间的关联关系。
首先根据用户自定义的核心图顶点比例来判定核心图顶点。例如,如果图中有10000个图顶点,用户自定义的核心图顶点比例为0.5%,则将图顶点按照其度数Deg(v)的降序进行排序后,前50个图顶点为核心图顶点。如图2所示,每个计算节点将其本地的高度数图顶点状态合并存储在其本地的合并状态表10中。为了快速访问到本地的核心图顶点状态值,各个计算节点构建相应哈希表20,其中每个key-value对为<v,
Figure BDA0003535665570000081
Figure BDA0003535665570000082
为图顶点v的状态值Sv在合并状态表10中的地址。
在进行异步图计算处理时,通过优先选取核心子图中包含活跃图顶点的图划分块进行处理,使得重要图顶点的状态快速传递,加快难以收敛的图顶点状态的收敛速度,避免图计算的长尾效应。
在选取时,优先选择核心子图中的图划分块来获取图数据。至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块。
若该计算节点的所有图划分块均收敛,即,该计算节点的图分区中没有活跃图顶点,则表示当前轮图计算完成。如果此时达到了通信条件,即,该计算节点上的图数据和其管辖的计算节点上的图数据均收敛,则触发分布式通信模块来同步不同计算节点上的图顶点状态。如果此时还没有达到通信条件,则该计算节点生成需要通信状态值的图顶点与其他不直接相邻图顶点之间的状态值依赖关系。
获取图数据的处理方式为:在处理每一个选取的图划分块时,计算节点的每个CPU核选取该图划分块中的一个活跃图顶点并压入其私有队列Q中。此处,压入是指:将选取的活跃图顶点按顺序写入先进先出队列Q中。每个CPU核对应一个队列Q,以便以该图顶点作为源顶点来按照图拓扑获取图数据。
优选地,以广度优先的顺序获取图数据,并且按照图拓扑顺序进行异步图计算。如果该图划分块中没有活跃图顶点,则表示当前选取的图划分块已经局部收敛,则判断是否达到通信条件并进行相应的处理。
广度是指:一次性访问当前图顶点的所有未访问状态相邻图顶点,并依次对每个相邻图顶点执行同样处理。
基于拓扑结构感知的图处理机制,将所述高度数块中的图数据按照图拓扑顺序调度到各CPU核上并行处理,能够有效加快图顶点状态传递、避免无效图顶点处理和减少数据访问开销。
拓扑结构感知的图处理机制是指:从高度数块的活跃图顶点开始,按照广度优先的遍历顺序来访问图数据并对访问的图数据进行处理,使得图数据沿着相互之间的依赖顺序进行处理。
每个图划分块需要被处理到局部收敛时才会调度下一个块进行处理,使得加载进到缓存的图数据被反复处理直到收敛后才被置换出缓存,从而通过提高数据时间局部性(即提高数据重用率)来避免数据冗余的反复加载,减少数据访问量,减少全局同步开销,使得图顶点状态传递更快,活跃图顶点数量更多,数据并行度更高,最终提高核的利用率。
优选地,每个计算节点的每个CPU核从其对应的队列Q中按顺序取出一个图顶点vi,获取该图顶点vi的邻居图顶点(与vi一起构成边)以及相应图顶点的状态值。
获取图数据进行处理的方式还包括:将每条边的源顶点状态值传递到该边的目的顶点来更新目的顶点的状态值。同时,读取图顶点状态值依赖关系表,通过生成的图顶点状态值依赖关系,将通信后的图顶点状态值快速传递给其他图顶点。每次图顶点状态传递会生成一个图顶点状态更新,即<目的图顶点ID,更新状态值>。队列Q中所有图顶点的相关图数据被处理后,所生成的图顶点状态更新会生成图顶点状态更新流。
在图划分块的处理过程中,将图顶点状态的更新数据按照图顶点ID顺序进行排序,再将排序后的所述图顶点状态更新数据按照排好的顺序应用到相应图顶点来更新其图顶点状态值,以将图顶点状态更新数据的随机访问转化为规则地有序访问,减少无效数据访问。
对图顶点状态更新流按照其目的图顶点ID进行排序,将排序后的图顶点状态更新,顺序地应用到相应图顶点,即将更新状态值和目的图顶点的当前状态值进行计算,得出目的图顶点的最新状态值。
对核心图顶点的状态更新,需要更新其在合并状态表10的状态值,从而提高核心图顶点状态访问的空间/时间局部性。如果图顶点的状态值被更新,则该图顶点被设置为活跃图顶点,并且压入队列Q中。
判断队列Q中是否还存在活跃图顶点。若是,则重新进行获取图顶点以及相应图顶点的状态值。否则,重新进行图划分块的处理。
在所述计算节点的图数据被计算至局部收敛后且没有达到需要通信的条件的情况下,所述计算节点生成需要通信状态值的图顶点与不直接相邻的至少一个图顶点之间的状态值依赖关系,所述计算节点基于所述状态值依赖关系在通信后更新图顶点状态值,使得图顶点的更新进行传递,能够使得通信后更新的图顶点状态值能够快速传递给更多的图顶点,加快图顶点状态的传递速度,提高计算资源的有效并行度。
具体地,生成需要通信状态值的图顶点与其他不直接相邻图顶点之间的状态值依赖关系。
由于图顶点状态值之间的依赖关系通常是线性关系,因此,两个不直接相邻的图顶点状态值的依赖关系可以表示为:Sy=a*Sx+b,vx和vy为两个不直接相邻的图顶点,Sx和Sy为图顶点vx和vy的状态值,a和b为常量。
例如,在图3中,需要通信图顶点状态值的图顶点为v0,对于SSSP算法,v0与其他不直接相邻图顶点(例如,v2)之间的状态值依赖关系。如图3所示,其中常量a和b分别为1和9。该依赖关系的计算方式为,进行两次迭代处理,分别得到两组图顶点vx和vy的状态值,即<Sx,Sy>和<Sx′,Sy′>,随后将根据这两组状态值计算出相应的常量a和b。
图顶点状态值依赖关系存储。
当两个不直接相邻的图顶点状态值的依赖关系被计算出来后,相应的参数(即,vx,vy,a和b)被存储在一个图顶点状态值依赖关系表中,如表1:图顶点状态值依赖关系表所示。
表1:图顶点状态值依赖关系表
v<sub>x</sub> v<sub>y</sub> a b
v<sub>0</sub> v<sub>2</sub> 1 9
v<sub>0</sub>v<sub>3</sub> 1 11
v<sub>0</sub> v<sub>4</sub> 1 18
当每次通信后,需要通信状态值的图顶点被更新图顶点状态值后,可以利用生成的图顶点状态值依赖关系,将更新后的图顶点状态值快速传递给更多的图顶点,加快图顶点状态的传递速度和传播范围。
在生成图顶点状态值依赖关系的过程中,如果某个时刻达到了通信条件即,当前计算节点上的图数据和其管辖的计算节点上的图数据均收敛,则重新选取包含活跃图顶点的图划分块进行处理。
在进行分布式异步图处理后,建立层次化超大规模分布式通信。
如图1所示,基于树型的方式设置计算节点。以图1中的计算节点为例,设置有4层计算节点。第0层F0的初始计算节点为Node 0。第一层F1计算节点为Node 1~Node 4。第二层F2的计算节点为Node 5~Node 8、Node 9~Node 12,……。第三层F3的计算节点为Nodey~Node y+3,……。第四层F4的计算节点至少包括Node x~Node x+3,……,Node n~Noden+3,……。
具体地,计算节点进行分组,构建层次化的树型通信架构。如图1的示例中,每个分组包含4个计算节点。该4个计算节点中除去了树型结构根节点对应的计算节点。各分组之间构成如图1所示的树型通信架构。
各个计算节点在通信时,只与自己所管辖的计算节点、自己所属的计算节点和该所属节点所管辖的其余同层次节点进行通信。
各个计算节点自己管辖的计算节点为树型结构的子节点,如图1中,计算节点Nodey所管辖的计算节点,即树型结构的子节点为Node x,Node x+1,Node x+2和Node x+3。计算节点Node y所属的计算节点即树型结构的父亲节点为Node 5。与计算节点Node y同层次节点即树型结构的兄弟节点为Node y+1,Node y+2和Node y+3。
基于社区结构感知的划分方式将图数据分区并分配至各个计算节点。
具体来说,社区是图顶点之间依赖紧密的子图。
社区将被分配到同一分组中,甚至同一计算节点,以此来降低全局通信开销。如图4所示,通过社区检测算法(例如,基于标签传播的社区检测算法)来检测出图结构中的社区关系,随后将具有社区相关的图数据分配到同一分组中。
例如,图4中,图顶点v0~v5属于初始社区结构30;图顶点v6、v7、v13和v14属于第一社区结构31;图顶点v8~v12属于第二社区结构32;图顶点v15、v16、v19、v20和v21属于第三社区结构33。v17和v18属于第n社区结构34。
镜像代理图顶点是指:指图顶点在不同计算节点上的副本
例如,将初始社区结构30分配给图1中的计算节点Node x,Node x+1,Node x+2和Node x+3。优选地,在进行分区时采用笛卡尔顶点切分方法,在该方法中,只有主代理图顶点同时拥有该图顶点的出边和入边,而代理图顶点只有该图顶点的出边或者入边的一类,如图5所示。按照以上方式,图数据将被切分为图分区,然后各个图分区将分配到超级计算机的各个计算节点。
在各个计算节点及其管辖的下层计算节点的图数据均收敛后,所述计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;逐层次通信直至整个集群负责的图顶点状态收敛。
具体地,每个计算节点在完成其第Tj轮图计算后,将需要通信状态值的图顶点的状态值更新生成消息。
如图5所示,计算节点上的图分区收敛后,需要把其镜像代理图顶点43的状态值生成通信消息,以便发送到其他计算节点上相应的主代理图顶点来同步不同计算节点上相同图顶点的状态值。例如,在位于第3层的计算节点Nodey上的图分区收敛后,需要把其镜像代理图顶点v5,v6和v7的状态值生成通信消息,以便发送到Nodey+1上的图顶点v5,v6和v7,来同步不同计算节点上相同图顶点的状态值。
在图数据分区时,采用社区结构感知的划分方式,将图顶点之间依赖紧密的核心子图分配到同一分组中,从而使得子图内的频繁通信发生在同一分组内部,减少全局通信开销。
具体地,当通信消息生成以后,如图7所示,对同一图顶点相关的通信消息进行规约,即将同一图顶点的多个通信消息合并为一个通信消息,从而减少通信量。例如,对于SSSP算法来说,需要计算出这些通信消息中的状态值以更新最小值。
如图8所示,通过规约算法步骤65,对发往同一计算节点的信息合并到同一队列以便统一发送,从而将不规则的小消息通信转化为规则的大消息通信,即生成的信息54,提高网络带宽利用率。
小消息通信是指:通信量小于2KB的通信消息。
大消息通信是指:通信量大于等于2KB的通信消息。
本发明至,将若干计算节点按照树型的方式设置,将图数据按照社区结构感知的划分方式划分并形成图分区,根据所述状态值依赖关系将图顶点之间的依赖紧密的核心子图分配至同一组计算节点中,使得所述核心子图内的频繁通信发生在同一计算节点分组内部,减少全局通信开销。
在若干计算节点进行通信时,发送至同一图顶点的通信信息基于规约合并的方式来减少通信量;和/或向同一计算节点的若干通信信息是以合并的方式统一发送至所述计算节点的,以充分利用网络带宽,减少频繁的小消息通信开销。
优选地,本发明还对通信消息进行压缩,通过去掉图顶点ID等不必要的信息来进一步降低通信量。
如图6所示,将每个队列中的通信消息进行压缩。具体来说,通信消息根据图顶点ID61进行排序,随后通过使用位表63来标识与第二状态值64所对应的图顶点ID61的信息,将消息中的图顶点ID61信息去掉,从而进一步减少通信量。例如,与图顶点ID61对应的第一状态值62通过消息压缩步骤51形成位表63,其中,与位表63对应的是第二状态值64。位表63通过消息发送步骤52进行发送和接收。接收的计算节点对位表63进行消息解压及规约步骤53,再次形成图顶点状态值。
计算节点Node y所管辖的计算节点为位于第4层的计算节点Node x,Node x+1,Node x+2,和Node x+3。在计算节点Node y自身的图数据均收敛后,计算节点Node y将规约、合并和压缩后的图顶点状态数据消息发送到其他计算节点进行通信。具体来说,多机间的通信行为主要分为以下三种行为:
第一,该计算节点Node y和其所管辖的计算节点Node x,Node x+1,Node x+2,和Node x+3之间进行相互通信。具体来说,在通信时,Node y所管辖的计算节点先将他们的通信消息发送给Node y,Node y对通信消息按照进行规约、合并和压缩后,Node y再将规整后的消息分别发送给其所管辖的计算节点,从而避免各计算节点之间频繁的小消息通信。
第二,若按第一种方式通信后,相应计算节点的图顶点状态值均不改变,则计算节点Node y将利用归总后的通信消息与其所属的计算节点和该所属节点所管辖的其余同层次节点进行通信,从而同步图顶点状态值。
例如,计算节点Node y和其所管辖的计算节点上的图数据整体达到局部收敛,则计算节点Node y将利用归总后的通信消息与其所属的第2层计算节点Node 5和该所属节点所管辖的同层次的第3层计算节点Node y+1,Node y+2,和Node y+3进行通信,从而同步图顶点状态值。
第三,若该计算节点Node y和其所管辖的计算节点需要与不直接管理或不直接所属的计算节点(例如,图1中的Node n,Node n+1,Node n+2和Node n+3)进行通信时,通信消息会根据树型通信结构进行发送和传递,避免全局的频繁小消息传递。如图1所示,相关通信消息会先发送到Node y进行汇集,随后按照树型层次化通信结构,将汇聚后的消息发送到Node 5,随后再发送到Node y+3,Node y+3将相关通信消息分别发送到相应计算节点(例如,图1中的Node n,Node n+1,Node n+2和Node n+3)。通过这样的方式,使得全局通信消息被充分规约、合并和压缩,使得网络通信行为更规则。
当所有计算节点的图数据均收敛后,即当所有计算节点与其所属的计算节点和其所属节点所管辖的其余同层次节点进行通信后,图顶点状态值均不再改变,则计算结束。
实施例2
本发明还提供一种面向后E级图计算系统,至少包括处理器,所述处理器至少包括:第一模块,用于分布式异步图处理;第二模块,用于建立层次化超大规模分布式通信。第一模块与第二模块以有线或无线的方式建立通信连接。
第一模块和第二模块均可以是处理器、专用集成芯片、服务器、云服务器中的一种或几种。第一模块和第二模块还能够集成为一个处理器、专用集成芯片或服务器。
第一模块被配置为:在构建核心子图的情况下,至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理,
第二模块被配置为:基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点;在各个计算节点及其管辖的下层计算节点的图数据均收敛后,所述计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;逐层次通信直至整个集群负责的图顶点状态收敛。
如图9所示,第一模块执行的步骤示例为:
S0:开始。
S1:各计算节点对其图分区进行细粒度划分,并构建核心子图。
S2:识别核心图顶点;对核心图顶点状态进行合并。
S3:判断是否存在活跃数据块;若否,进入步骤S4,若是,进入步骤S7。
S4:判断是否达到通信条件;若否,进入步骤S5;若是;进入步骤S16。
S5:生成需要通信状态值的图顶点与其他不直接相邻图顶点之间的状态值依赖关系。
S6:图顶点状态值依赖关系存储。
S7:按照重要度选择一个包括活跃图顶点的图划分块。
S8:判断该图划分块是否存在活跃图顶点;若否,返回步骤S3;若是,进入步骤S9。
S9:选取该图划分块中的活跃图顶点并压入队列Q。
S10:从队列Q中按顺序取出一个图顶点。
S11:读取与该图顶点相关的边数据以及图顶点状态数据。
S12:将每条边的源顶点状态值传递到该边的目的顶点来更新目的顶点的状态值,读取图顶点状态值依赖关系表,将通信后所更新的图顶点状态值快速传递给其他图顶点,并对图顶点状态值更新规则化。
S13:判断在更新时目的顶点的状态值是否被更新;若否,进入步骤S15;若是,进入步骤S14。
S14:目的顶点被设置为活跃图顶点,并且压入队列Q中。
S15:判断队列Q是否还存在活跃图顶点,若否,返回步骤S8;若是,进入步骤S16。
S16:结束。
如图10所示,第二模块执行的步骤示例为:
S0:开始,
S21:对计算节点进行分组,构建层次化的树型通信架构;
S22:对图数据进行分区,随后将图分区分配到各个计算节点;
S23:在计算节点完成第Tj轮图计算后,将图顶点状态数据的更新生成通信消息。
S24:与同一图顶点相关的通信消息进行规约计算。
S25:将发往相同计算节点的通信消息合并,并且对通信消息进行压缩。
S26:判断该计算节点所管辖的计算节点和其自身的图数据是否收敛;若否,重新进行判断;若是,进入步骤S27。
S27:该计算节点和其所管辖的计算节点之间进行相互通信。
S28:判断相应计算节点的图顶点状态值是否均不改变;若否,进入步骤S32;若是,进入步骤S29。
S29:与计算节点Node n所属的计算节点和由该所属的计算节点所管辖的其余同层次节点进行图顶点状态信息同步。
S30:判断是否需要与不直接管理或不直接所属的计算节点进行通信;若是,进入步骤S31;若否,进入步骤S32。
S31:通信消息根据树型通信结构进行发送和传递,均在父亲计算节点汇聚后统一发送。
S32:判断在所有计算节点通信后,图顶点状态值是否有更新;若否,进入步骤S34;若是,进入步骤S33。
S33:对计算节点Node n的计算进入下一轮,j=j+1,进入步骤S23。
S34:结束。
本发明还提供一种存储设备,其上存储有计算机程序,该程序被处理器执行时实现本发明的面向后E级图计算方法的步骤。
本发明还提供一种电子设备,包括:存储器,其上存储有计算机程序;处理器,用于执行所述存储器中的所述计算机程序,以实现本发明的面向后E级图计算方法的步骤。
需要注意的是,上述具体实施例是示例性的,本领域技术人员可以在本发明公开内容的启发下想出各种解决方案,而这些解决方案也都属于本发明的公开范围并落入本发明的保护范围之内。本领域技术人员应该明白,本发明说明书及其附图均为说明性而并非构成对权利要求的限制。本发明的保护范围由权利要求及其等同物限定。本发明说明书包含多项发明构思,诸如“优选地”、“根据一个优选实施方式”或“可选地”均表示相应段落公开了一个独立的构思,申请人保留根据每项发明构思提出分案申请的权利。

Claims (10)

1.一种面向后E级图计算的方法,其特征在于,所述方法至少包括:
分布式异步图处理和建立层次化超大规模分布式通信;
所述分布式异步图处理的步骤至少包括:
在构建核心子图的情况下,至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理,
所述建立层次化超大规模分布式通信的步骤至少包括:
基于树型的方式设置多个计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点;
在各个计算节点及其管辖的下层计算节点的图数据均收敛后,所述计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;
逐层次通信直至整个集群负责的图顶点状态收敛。
2.根据权利要求1所述的面向后E级图计算的方法,其特征在于,所述方法还包括:在进行分布式异步图处理之前,各个计算节点将本地图分区划分为细粒度的块,并且根据块中图顶点度数来区分高度数块和低度数块,
选取所述高度数块来构建核心子图;
其中,
在构建核心子图的过程中,识别核心图顶点,并且将核心图顶点的状态数据合并存储。
3.根据权利要求1或2所述的面向后E级图计算的方法,其特征在于,所述至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理的步骤至少包括:
至少一个计算节点选取所述核心子图中包含活跃图顶点的高度数块,
基于拓扑结构感知的图处理机制,将所述高度数块中的图数据按照图拓扑顺序调度到各核上并行处理。
4.根据权利要求3所述的面向后E级图计算的方法,其特征在于,所述至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理的步骤还包括:
在高度数块的处理过程中,将图顶点状态的更新数据按照图顶点ID顺序进行排序,再将排序后的所述图顶点状态更新数据按照排好的顺序应用到相应图顶点来更新其图顶点状态值,以将图顶点状态更新数据的随机访问转化为规则地有序访问。
5.根据权利要求4所述的面向后E级图计算的方法,其特征在于,所述至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理的步骤还包括:
在所述计算节点的图数据被计算至局部收敛后且没有达到需要通信的条件的情况下,所述计算节点生成需要通信状态值的图顶点与不直接相邻的至少一个图顶点之间的状态值依赖关系,
所述计算节点基于所述状态值依赖关系在通信后更新图顶点状态值,使得图顶点的更新进行传递。
6.根据权利要求1所述的面向后E级图计算的方法,其特征在于,所述基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点的步骤至少包括:
将若干计算节点按照树型的方式设置,
将图数据按照社区结构感知的划分方式划分并形成图分区,根据状态值依赖关系将图顶点之间的依赖紧密的核心子图分配至同一组计算节点中,使得所述核心子图内的频繁通信发生在同一计算节点分组内部。
7.根据权利要求6所述的面向后E级图计算的方法,其特征在于,所述基于树型的方式设置计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点的步骤还包括:
在若干计算节点进行通信时,发送至同一图顶点的通信信息基于规约合并的方式来减少通信量;和/或
向同一计算节点的若干通信信息是以合并的方式统一发送至所述计算节点的。
8.一种面向后E级图计算的系统,至少包括处理器,其特征在于,所述处理器至少包括:
第一模块,用于分布式异步图处理;
第二模块,用于建立层次化超大规模分布式通信:
第一模块被配置为:
在构建核心子图的情况下,至少一个计算节点选取所述核心子图中包含活跃图顶点的图划分块且基于拓扑结构感知的图处理机制对所述图划分块进行异步图计算处理,
第二模块被配置为:
基于树型的方式设置多个计算节点,基于社区结构感知的划分方式将图数据分区并分配至各个计算节点;
在各个计算节点及其管辖的下层计算节点的图数据均收敛后,所述计算节点与其自身所属的上层计算节点、同层次计算节点进行通信以实现同级之间的图顶点状态的同步;
逐层次通信直至整个集群负责的图顶点状态收敛。
9.一种存储设备,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至7中任一项所述的面向后E级图计算方法的步骤。
10.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1至7中任一项所述的面向后E级图计算方法的步骤。
CN202210234737.4A 2022-03-07 2022-03-07 面向后e级图计算的方法、系统、存储介质及电子设备 Active CN114567634B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210234737.4A CN114567634B (zh) 2022-03-07 2022-03-07 面向后e级图计算的方法、系统、存储介质及电子设备
US17/815,436 US20230281157A1 (en) 2022-03-07 2022-07-27 Post-exascale graph computing method, system, storage medium and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210234737.4A CN114567634B (zh) 2022-03-07 2022-03-07 面向后e级图计算的方法、系统、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN114567634A CN114567634A (zh) 2022-05-31
CN114567634B true CN114567634B (zh) 2023-02-07

Family

ID=81716854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210234737.4A Active CN114567634B (zh) 2022-03-07 2022-03-07 面向后e级图计算的方法、系统、存储介质及电子设备

Country Status (2)

Country Link
US (1) US20230281157A1 (zh)
CN (1) CN114567634B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115495056B (zh) * 2022-11-17 2023-03-07 阿里巴巴(中国)有限公司 分布式图计算系统和方法
CN116339958B (zh) * 2023-05-30 2023-09-08 支付宝(杭州)信息技术有限公司 一种任务执行方法、装置以及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10616038B2 (en) * 2014-06-24 2020-04-07 Vmware, Inc. Method and system for clustering event messages and managing event-message clusters
US20210319887A1 (en) * 2015-05-20 2021-10-14 Amuseneering Technologies, Llc Method of treating diabetes informed by social determinants of health
US10635562B2 (en) * 2015-09-04 2020-04-28 Futurewei Technologies, Inc. Fault tolerance in distributed graph processing networks
CN108683738B (zh) * 2018-05-16 2020-08-14 腾讯科技(深圳)有限公司 图数据处理方法和图数据的计算任务发布方法
CN109918199B (zh) * 2019-02-28 2023-06-16 中国科学技术大学苏州研究院 基于gpu的分布式图处理系统
CN110619595B (zh) * 2019-09-17 2021-04-13 华中科技大学 一种基于多fpga加速器互联的图计算优化方法
CN110769050B (zh) * 2019-10-18 2021-12-21 腾讯科技(深圳)有限公司 数据处理方法、数据处理系统、计算机设备及存储介质
CN113392280B (zh) * 2021-06-10 2023-08-04 东北大学 一种面向跨区域的多主模型分布式图计算方法

Also Published As

Publication number Publication date
US20230281157A1 (en) 2023-09-07
CN114567634A (zh) 2022-05-31

Similar Documents

Publication Publication Date Title
CN114567634B (zh) 面向后e级图计算的方法、系统、存储介质及电子设备
US10394792B1 (en) Data storage in a graph processing system
Pearce et al. Faster parallel traversal of scale free graphs at extreme scale with vertex delegates
Racke Minimizing congestion in general networks
Pearce et al. Scaling techniques for massive scale-free graphs in distributed (external) memory
Pandurangan et al. On the distributed complexity of large-scale graph computations
CN109033234B (zh) 一种基于状态更新传播的流式图计算方法及系统
Lin Distributed algorithms for fully personalized pagerank on large graphs
US10191998B1 (en) Methods of data reduction for parallel breadth-first search over graphs of connected data elements
CN112883241B (zh) 基于连通分量生成优化的超级计算机基准测试加速方法
CN109656798B (zh) 基于顶点重排序的超级计算机大数据处理能力测试方法
Mayer et al. Graph: Traffic-aware graph processing
Tessier et al. Topology-aware data aggregation for intensive I/O on large-scale supercomputers
US20200104425A1 (en) Techniques for lossless and lossy large-scale graph summarization
CN107257356B (zh) 一种基于超图分割的社交用户数据优化放置方法
CN110222055B (zh) 一种动态图下多边更新的单轮核值维护方法
CN110175172B (zh) 基于稀疏二分图的极大二分团并行枚举方法
CN110245271B (zh) 基于属性图的大规模关联数据划分方法及系统
CN109254844B (zh) 一种大规模图的三角形计算方法
Kang et al. Large scale complex network analysis using the hybrid combination of a MapReduce cluster and a highly multithreaded system
Tench et al. GraphZeppelin: Storage-friendly sketching for connected components on dynamic graph streams
Hajiaghayi et al. Hierarchical graph partitioning
Peres Concurrent self-adjusting distributed tree networks
Zhang et al. Bring orders into uncertainty: enabling efficient uncertain graph processing via novel path sampling on multi-accelerator systems
Lamm et al. Communication-efficient Massively Distributed Connected Components

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant