CN109213592B - 一种基于自动选择副本因子模型的图计算方法 - Google Patents

一种基于自动选择副本因子模型的图计算方法 Download PDF

Info

Publication number
CN109213592B
CN109213592B CN201710533444.5A CN201710533444A CN109213592B CN 109213592 B CN109213592 B CN 109213592B CN 201710533444 A CN201710533444 A CN 201710533444A CN 109213592 B CN109213592 B CN 109213592B
Authority
CN
China
Prior art keywords
slice
node
array
factor
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710533444.5A
Other languages
English (en)
Other versions
CN109213592A (zh
Inventor
陈瀚
马凌霄
杨智
薛继龙
代亚非
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201710533444.5A priority Critical patent/CN109213592B/zh
Publication of CN109213592A publication Critical patent/CN109213592A/zh
Application granted granted Critical
Publication of CN109213592B publication Critical patent/CN109213592B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明提供一种基于自动选择副本因子模型的图计算方法,其步骤为:将图数据切分得到若干个切片;根据自动选择副本因子模型为上述每个切片选择最优的副本因子Ri,其中所述副本因子Ri是指为第i个切片Si选择的副本个数;初始化上述每个切片的所有节点值,计算每个切片的每一条边,并根据上述每个切片的副本因子Ri将计算得到的目标节点的副本值存放在Ri个副本中;合并上述每一条边的Ri个副本的目标节点的副本值,并将合并后得到的目标节点的更新值更新至GlobalVertices数组;其中所述GlobalVertices数组用于存放图数据的所有节点值。该方法不仅解决了计算资源被浪费的问题,而且提高了图计算系统的速度。

Description

一种基于自动选择副本因子模型的图计算方法
技术领域
本发明涉及云计算领域,具体涉及一种基于自动选择副本因子模型的图计算方法。
背景技术
近年来,随着社交网络、基因和各种商业领域中的图结构数据数量和规模快速的增长,对于处理大规模图数据的需求也在随之增加。越来越多的公司需要图计算系统来对图数据进行分析和计算。许多分布式图计算系统应运而生,其中包括Pregel、Giraph、GraphX、GraphLab、PowerGraph、PowerLyra和Gemini。然而现有的图计算系统节点之间的大量通信使得网络成为瓶颈。分布式图计算系统想要达到很好的性能就需要高速网络。
另一种解决方案是不采用分布式架构。其中Galois和Ligra就是为共享内存/多核机器设计的,GraphChi和X-Stream也是为单机处理大规模图数据设计的。集中式的图计算系统避免了分布式系统中的管理和调度问题。但随着新的计算机硬件的出现(如图形处理器GPU),计算机硬件性能的不断提升,这些传统的图计算系统设计并不能完全发挥其计算能力。使用GPU加速的图计算系统似乎是一个可行的解决方案。尽管已经有一些系统进行过一些尝试,但使用GPU来支持大规模图计算系统仍然是一个很大的挑战。其主要问题在于:真实图数据中存在非常严重的节点度数倾斜(图中小部分的节点有大量的边)现象。这会导致GPU的多个线程计算的时候产生大量的写冲突。冲突的线程会被串行化,严重浪费并行计算能力,拖慢系统的计算速度。
发明内容
针对上述问题,本发明的目的是提供一种基于自动选择副本因子模型的图计算方法,该方法能够使得GPU多线程并发计算时,不再受图数据中节点度数倾斜现象的影响,不仅解决了计算资源被浪费的问题,而且提高了图计算系统的速度。
为实现上述目的,本发明所采用的技术方案如下:
一种基于自动选择副本因子模型的图计算方法,其步骤包括:
将图数据切分得到若干个切片;
根据自动选择副本因子模型为上述每个切片选择最优的副本因子Ri,其中所述副本因子Ri是指为第i个切片Si选择的副本个数;
初始化上述每个切片的所有节点值,计算每个切片的每一条边,并根据上述每个切片的副本因子Ri将计算得到的目标节点的副本值存放在Ri个副本中;
合并上述每一条边的Ri个副本的目标节点的副本值,并将合并后得到的目标节点的更新值更新至GlobalVertices数组;其中所述GlobalVertices数组用于存放图数据的所有节点值。
进一步地,该方法步骤还包括:将GlobalVertices数组中存放的图数据的所有节点值传输至内存中进行同步。
进一步地,所述将图数据切分得到若干个切片是指:根据GPU显存大小将图数据切分成若干个页,并根据每个页的大小确定每个页中包含的若干个切片的尺寸以及根据共享内存(shared memory)大小确定每个切片中最大节点个数。
进一步地,所述切片采用CSC和CSR压缩格式保存。
进一步地,CPU将切片以批量发送的方式发送给GPU进行计算。
进一步地,所述自动选择副本因子模型的输入是一个切片的平均度数和GPU的存储限制,输出为该切片最优的副本因子Ri;其中所述切片最优的副本因子Ri的计算公式为:
其中Ri代表第i个切片的副本因子;u和E分别代表第i个切片Si中的目标节点和边。
进一步地,采用sum(合并)方法合并上述每一条边的Ri个副本的目标节点的副本值。
更进一步地,所述sum方法是指利用两路归并策略将Ri个副本的目标节点的副本值进行合并。
进一步地,采用apply(更新)方法将合并后得到的目标节点的更新值更新至GlobalVertices数组。
更进一步地,所述apply方法如果采用异步模式,则目标节点的更新值将直接提交到GlobalVertices数组;如果采用同步模式,则先将目标节点的更新值存储到一暂时的数组中,在所有切片计算结束后再更新到GlobalVertices数组中。
本发明的有益效果在于:本发明提供一种基于自动选择副本因子模型的图计算方法,该方法通过推导得到所述自动选择副本因子模型,并根据该模型得到每一个切片最优的副本因子,既解决了传统方法在GPU多线程并发计算时,受图数据中节点度数倾斜现象影响导致写冲突进而导致计算速度减慢的问题,也解决了选取过大副本因子而产生的硬件计算性能浪费的问题。另外本发明方法在图数据的预处理阶段(即图数据切分与选择最优的副本因子阶段)进行了一些额外的操作及对页和切片的限制。由于预处理阶段是几乎每个图计算系统都需要进行的,并且通常时间较长,因此使用本发明方法额外增加的时间可以忽略不计。
附图说明
图1是本发明提供的基于GPU加速的图计算系统计算过程示意图。
图2是合并方法示意图。
图3是本发明提供的一种基于自动选择副本因子模型的图计算方法流程图。
图4是预处理后的数据结构示意图。
图5是使用本发明方法与不使用副本的计算时间对比图。
图6是使用本发明方法与使用不同固定副本因子的计算时间对比图。
具体实施方式
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图作详细说明如下。
传统的基于GPU加速的图计算系统在计算过程中,SM执行计算是以切片为单位的。SM中的所有线程并发计算切片中的所有边,由于真实图数据的节点都呈幂律分布,存在严重的节点度数倾斜现象,因此在并发计算的过程中会产生严重的写冲突,导致计算能力被严重浪费,系统速度被拖慢。本发明通过基于自动选择副本因子模型的图计算方法解决了基于GPU加速的图计算系统中由于图数据的节点度数倾斜带来的时间损耗,从而大幅度提高图计算系统的性能。
GPU在其显存中保存GlobalVertices数组,用来存放图数据的所有节点值。如图1所示,计算一个切片分为四个阶段:init(初始化)阶段,gather(聚合)阶段,sum(合并)阶段,apply(更新)阶段。当计算结束后,GPU显存中存放的GlobalVertices数组,即新的节点值就会被同步到内存中。本发明用Si={(u,v,w)|rs≤u≤re}来表示一个切片,其中Si的下标i代表第i个切片,u代表该切片中的边的目标节点,v代表该切片中的边的起始节点,w代表该切片中的边的权值,rs和re分别代表这个切片中开始节点和截止节点的序号。一般情况下,用三元组(u,v,w)代表以v为起始节点,u为目标节点,边的权值为w的一条边。
下面详细介绍一个切片在GPU中计算的四个阶段。
init阶段:首先GPU在SM的共享内存中分配一个LocalVertices数组,该数组用来存储该SM计算的切片(图数据切分成若干个页,每个页中包含若干个切片,该过程在后文中有进一步说明)的所有节点值。然后一组连续的线程将该数组初始化为用户自定义的初始值(如PageRank算法中设置为0)。
Gather阶段:对于每一条边(u,v,w),其中u为边的目标节点,v为边的起始节点,w为边的权值。一个GPU线程从显存中读取GlobalVertices数组中当前节点值和切片中边的全部信息即(u,v,w)合并到变量a′u中:其中Du为GlobalVertices数组中目标节点u的当前计算值,Dv为GlobalVertices数组中起始节点v的当前计算值,w为这条边的权值,a′u为在LocalVertices数组中目标节点u的一个副本值,In[u]为u的邻居节点数组,即以u作为目标节点的边的起始节点集合,gather即为用户自定义的gather方法。为了利用合并访问显存这一特性(GPU一次访问可以读取多个值),连续的线程会读取连续的边的全部信息。
Sum阶段:将上一步计算得到的同一个目标节点的多个副本值进行合并,得到目标节点u这一轮的更新值,即au←sum(a′u),其中au为在LocalVertices数组中合并得到的更新值,a′u为在LocalVertices数组中目标节点u的一个副本值。
Apply阶段:在这一步,每个线程更新LocalVertices数组的节点值,即 其中/>为GlobalVertices数组中这一轮计算得到的目标节点u的计算值,Du为GlobalVertices数组中上一轮计算得到的目标节点u的计算值,au为LocalVertices数组中这一轮计算得到的目标节点u的更新值。Du和au根据用户自定义的apply方法得到这一轮的结果(即目标节点u的计算值),并更新到/>如果apply方法采用的是异步模式,系统会将目标节点的更新值提交到GlobalVertices数组,直接应用到之后的计算。如果更新采用的是同步模式,系统则会将其存储到一个暂时的数组中,在这一轮计算结束后再更新到GlobalVertices数组中。
上述提到的框架帮助用户很容易的写出大部分图计算的算法。但是由于多线程同时修改相同的共享地址空间(处理相同目标节点的边)会产生碰撞,会导致在gather阶段产生大量的写冲突。这种冲突通常需要使用原子操作将内存的更新串行化。原子更新相比于正常的更新操作延迟更高。
而如前所述真实图数据中节点的度数都是呈幂律分布的,这就意味着写冲突在计算中是非常频繁的,特别是对于那些大度数的节点。写冲突会导致GPU产生严重的计算性能问题。本发明提出的解决方案是使用副本,即把一个节点的更新值au在共享内存中放置R个副本,每个副本值a′u是au的一部分,所有a′u通过sum方法得到au,其中R也称为副本因子。另外本发明设计了对应(mapping)函数,将每个线程对应到一个节点的副本上。为了方便对应,在本发明中一个切片中所有节点的R都相同。对于一个切片内的所有目标节点uj,对应函数为:其中j及下标j代表切片中目标节点u的序号(即uj代表切片中的第j个目标节点),Si代表第i个切片,Ri代表切片Si的副本因子,addr[u′j]代表副本值a′u的地址空间,rs是这个切片中开始节点的序号,tid代表这个线程对应的线程号。切片中的所有边计算结束后,系统会执行一个额外的sum方法:au←sum(a′u)。为了更快的聚合,本发明采用了两路归并的策略。每一轮归并线程tid执行用户自定义的sum方法,其步长为L。L初始化为R/2,每一轮归并结束后L←L/2,直到L<1。如图2所示,以初始步长为4为例,第一轮前四个值和后四个值对应进行合并(即指向下一轮同一个位置的两个值进行合并),聚合结束后步长变为2。反复进行聚合,直到步长变为1/2,结束计算,得到最后的聚合值为8。
尽管副本能够减少写冲突,但是由于共享内存大小有限,副本会使得共享内存中节点数减少,导致GPU的利用率降低。为了保持副本数和GPU利用率的平衡,本发明提出一个自动选择副本因子模型来最大化计算性能。该模型的推导过程如下:
该模型的输入是一个切片的平均度数和GPU的存储(共享内存等)限制,输出为最大化计算性能的副本因子Ri。在下述描述中,u和E分别代表切片Si中的目标节点和边,tl和ta分别代表访问显存的时间和共享内存上原子操作的时间。
在gather阶段,切片Si的副本因子为Ri,所有线程需要从显存中读入Ri×|u|个目标节点值、|E|个边的权值到共享内存中,其需要的时间分别为Ri×|u|×tl和|E|×tl。在共享内存中,所有线程需要执行|E|个原子操作,其平均度数为需要/>的时间。sum阶段需要|u|×ta×logRi的时间;其中|u|和|E|分别指切片Si中的目标节点的总数和边的总数。因此切片Si的总时间TG(Ri)为:
本发明希望找到使得TG(Ri)最小的副本因子Ri,由于logRi<<Ri,因此当Ri×|u|×tl时能取得最小值,即/>实际中ta≈tl,最后得到/>另外由于Ri达到32之后就会完全消除冲突问题(即一个SM的所有线程(最大为32个线程)都计算同一个节点的副本,更新的节点存在32个副本,不会产生冲突),所以Ri的最大值设置为32。为了高效合并,在本发明中让Ri=2n(n≥0),所以
根据上述模型,能够对每一个切片选择最优的副本因子。在gather阶段采用本发明提出的自动选择副本因子模型计算每一个切片最优的副本因子,既解决了传统方法写冲突导致速度减慢,也解决了选取过大副本因子而产生的硬件计算性能浪费的问题。另外采用本发明方法需要在图数据的预处理阶段进行一些额外的操作及对页和切片的限制。其中包括:预处理时需要保证切片内的目标节点是连续的,并且有数量限制。页的大小要小于GPU显存的大小。根据本发明提出的自动选择副本因子模型计算每个切片最优的副本因子,并存储在元数据中,随图数据一并发送至GPU进行计算。由于预处理阶段是几乎每个图计算系统都需要进行的,并且通常时间较长,因此使用本发明方法额外增加的时间可以忽略不计。其中所述元数据是用于描述数据属性的数据,本发明的副本因子就是元数据,且元数据还包含一些其他的描述信息,比如切片的目标节点范围等。
针对上述四个阶段(即init阶段、gather阶段、sum阶段和apply阶段),用户通过实现一个包含以下四个方法的接口来描述一个图算法。
方法1:init(Vertex*LocalVertices,Vertex*GlobalVertices),该方法用于根据GlobalVertices来初始化LocalVertices,其中LocalVertices为SM内部的共享内存中存放当前切片所有节点值的数组,GlobalVertices是存放在GPU显存中图数据的所有节点值的数组。
方法2:gather(Vertex*v,Vertex_static*v_static,Edge*w,Vertex*LocalVertices),该方法用于执行一条边的计算,其中v是边的起始节点,v_static为起始节点的其他相关数据(由用户自定义,如PageRank算法中可以存放每个节点的度数),w为该条边的权值(若是无权图则为空),LocalVertices是存放在共享内存中的当前切片所有节点值的数组(其内部包含副本)。
方法3:sum(Vertex*V,Vertex*U),该方法用于合并同一个目标节点的两个副本V、U的节点值。其中V和U是同一个目标节点在LocalVertices中的两个副本。
方法4:apply(Vertex*GlobalVertices,Vertex*LocalVertices),该方法用于根据LocalVertices更新GlobalVertices,其中此时LocalVertices存放该切片的目标节点的更新值,GlobalVertices是存放在GPU显存中图数据的所有更新的目标节点值的数组。
经过验证,绝大多数运行于图计算系统上的图算法都适用于此接口。
本发明提供一种基于自动选择副本因子模型的图计算方法,请参考图3,其实现过程为:
1、在图计算开始之前,系统对图数据进行预处理,根据GPU显存大小及共享内存大小确定每个切片的尺寸限制以及每个切片中最大节点个数。另外需要保证每个切片中的目标节点是连续的。为了降低显存开销,本发明采用了CSC和CSR的图数据压缩格式来保存数据。请参考图4,在该图左侧的图例中,0、1、2、3、4、5代表节点,两个节点之间的值代表边的权值。根据左侧图例,右侧CSC压缩格式(入边)中idx数组表示从第idx[i]到第idx[i+1](不包含第idx[i+1])条边的目标节点为i;Nbr数组表示所有边的起始节点;Edge数组表示所有边的权值;IdxOff数组为所有边的目标节点减去这个切片的起始节点的序号。右侧CSR压缩格式(出边)中idx数组表示从第idx[i]到第idx[i+1](不包含第idx[i+1])条边的起始节点为i;Nbr数组表示所有边的目标节点。LocalVertices数组在节点对应序号的位置存放该节点的计算结果。在产生一个切片的过程中,当切片的边数达到显存的大小限制,或者目标节点个数达到共享内存大小的限制时,统计其平均度数,根据本发明提出的自动选择副本因子模型,选择该切片最适合的副本因子Ri。为了减少传输带来的开销可以使用批量的方式,将多个切片组成一个页送到GPU中进行计算。
2、切片被复制到GPU的显存之后,SM分配LocalVertices数组用于存放这个切片范围内的所有节点值,并根据用户自定义的init方法将其初始化(如PageRank算法中初始化为0)。计算正式开始时,SM中的所有线程连续读取切片中的数据,每一个线程根据用户自定义的gather方法处理每一条边,直到该切片中的边被全部计算。根据上述选择的该切片的副本因子Ri及用户自定义的sum方法将gather得到的同一目标节点的副本值进行合并,得到目标节点这一轮的更新值。
3、每一个线程根据用户自定义的apply方法处理每一个目标节点值,直到该切片中范围内的目标节点被全部计算,完成这该切片这一轮的计算,并将计算结果提交至显存中。
4、重复执行步骤2和步骤3直至该图数据的所有切片都完成一次计算,则计算结束,并将显存中的计算结果传输至内存中进行一次同步。
下面详细介绍针对本发明方法所进行的实验。
1)实施步骤
a)首先在基于GPU加速的图计算系统之上实现本发明提出的自动选择副本因子模型。
b)启动系统,向系统提交计算任务,CPU将图数据以批量发送切片的方式发送给GPU进行计算,GPU计算结束后将结果返回给CPU。经过多轮计算,CPU将最终得到的结果输出,统计总计算时间以及每个页的计算时间。
2)实施效果
实验使用的GPU为Nvidia GeForce GTX 1070,其包含15个SM和8GB显存;CPU为Intel Haswell-EP Xeon E5-2650v3,10核、主频2.3GHz,内存为64GB双通道,PCIe 3.0 16通道连接内存和显存。实验采用PageRank算法作为计算负载,并根据GPU对图数据进行预处理,根据系统接口实现相应的gather、apply等方法。所有系统与方法均使用C语言。
如图5所示,该图描述的是在SK-2005图数据集上运行PageRank算法,每一个页的计算时间对比图。不使用副本方式的计算时间对于不同的页变化很大,因为不同页中节点的度数差别很大。差距最大的在时间上慢了45.17倍。同时还发现计算时间与页中最大节点度数的相关系数为0.9853,这就意味着一个页的计算时间受最大度数节点影响。相比于不使用副本的方式,使用本发明方法每个页的计算时间快速且平稳,同时平均提升4.84倍速度,大大减少总的计算时间。
为了说明本发明的自动选择副本因子效果优于整个图数据选择固定的副本因子,在SK-2005图数据集上使用固定的副本因子Ri∈{1,2,4,8,16,32}运行PageRank算法。如图6所示,计算时间在Ri一开始增加的时候降低,之后又有增加。根据本发明提出的自动选择副本因子模型得到的副本因子运行速度最快,达到8.6s,比整个图数据选择固定副本因子中最快的情况(其计算时间为14.87s)仍然快1.73倍。
以上实施仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。

Claims (9)

1.一种基于自动选择副本因子模型的图计算方法,其步骤包括:
将图数据切分得到若干个切片;
根据自动选择副本因子模型为上述每个切片选择最优的副本因子Ri,其中所述副本因子Ri是指为第i个切片Si选择的副本个数;
初始化上述每个切片的所有节点值,计算每个切片的每一条边,并根据上述每个切片的副本因子Ri将计算得到的目标节点的副本值存放在Ri个副本中;
合并上述每一条边的Ri个副本的目标节点的副本值,并将合并后得到的目标节点的更新值更新至GlobalVertices数组;其中所述GlobalVertices数组用于存放图数据的所有节点值;
所述自动选择副本因子模型的输入是一个切片的平均度数和GPU的存储限制,输出为该切片最优的副本因子Ri;其中所述切片最优的副本因子Ri的计算公式为:
其中Ri代表第i个切片的副本因子;u和E分别代表第i个切片Si中的目标节点和边。
2.如权利要求1所述的方法,其特征在于,该方法步骤还包括:将GlobalVertices数组中存放的图数据的所有节点值传输至内存中进行同步。
3.如权利要求1所述的方法,其特征在于,所述将图数据切分得到若干个切片是指:根据GPU显存大小将图数据切分成若干个页,并根据每个页的大小确定每个页中包含的若干个切片的尺寸以及根据共享内存大小确定每个切片中最大节点个数。
4.如权利要求1所述的方法,其特征在于,所述切片采用CSC和CSR压缩格式保存。
5.如权利要求1所述的方法,其特征在于,CPU将切片以批量发送的方式发送给GPU进行计算。
6.如权利要求1所述的方法,其特征在于,采用sum方法合并上述每一条边的Ri个副本的目标节点的副本值。
7.如权利要求6所述的方法,其特征在于,所述sum方法是指利用两路归并策略将Ri个副本的目标节点的副本值进行合并。
8.如权利要求1所述的方法,其特征在于,采用apply方法将合并后得到的目标节点的更新值更新至GlobalVertices数组。
9.如权利要求8所述的方法,其特征在于,所述apply方法如果采用异步模式,则目标节点的更新值将直接提交到GlobalVertices数组;如果采用同步模式,则先将目标节点的更新值存储到一暂时的数组中,在所有切片计算结束后再更新到GlobalVertices数组中。
CN201710533444.5A 2017-07-03 2017-07-03 一种基于自动选择副本因子模型的图计算方法 Active CN109213592B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710533444.5A CN109213592B (zh) 2017-07-03 2017-07-03 一种基于自动选择副本因子模型的图计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710533444.5A CN109213592B (zh) 2017-07-03 2017-07-03 一种基于自动选择副本因子模型的图计算方法

Publications (2)

Publication Number Publication Date
CN109213592A CN109213592A (zh) 2019-01-15
CN109213592B true CN109213592B (zh) 2023-07-18

Family

ID=64993438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710533444.5A Active CN109213592B (zh) 2017-07-03 2017-07-03 一种基于自动选择副本因子模型的图计算方法

Country Status (1)

Country Link
CN (1) CN109213592B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109918199B (zh) * 2019-02-28 2023-06-16 中国科学技术大学苏州研究院 基于gpu的分布式图处理系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104618153A (zh) * 2015-01-20 2015-05-13 北京大学 分布式并行图处理中基于p2p的动态容错方法及系统
CN105224528A (zh) * 2014-05-27 2016-01-06 华为技术有限公司 基于图计算的大数据处理方法和装置
CN105590321A (zh) * 2015-12-24 2016-05-18 华中科技大学 一种基于块的子图构建及分布式图处理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2950507A1 (en) * 2014-05-28 2015-12-02 Fujitsu Limited Method and system for storing distributed graph data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224528A (zh) * 2014-05-27 2016-01-06 华为技术有限公司 基于图计算的大数据处理方法和装置
CN104618153A (zh) * 2015-01-20 2015-05-13 北京大学 分布式并行图处理中基于p2p的动态容错方法及系统
CN105590321A (zh) * 2015-12-24 2016-05-18 华中科技大学 一种基于块的子图构建及分布式图处理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Xiaowei Zhu.GridGraph: Large-Scale Graph Processing on a Single Machine Using 2-Level Hierarchical Partitioning.2015 USENIX Annual Technical Conference (USENIC ATC ’15).2015,全文. *
景年强.SpecGraph:基于并发更新的分布式实时图计算模型.计算机研究与发展.2014,全文. *
高壮良.基于Graphlab的网络图关键节点发现算法研究.通信学报.2016,全文. *

Also Published As

Publication number Publication date
CN109213592A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
US11487698B2 (en) Parameter server and method for sharing distributed deep learning parameter using the same
CN110134636B (zh) 模型训练方法、服务器和计算机可读存储介质
CN107330516B (zh) 模型参数训练方法、装置及系统
Khorasani et al. Scalable simd-efficient graph processing on gpus
US8868470B2 (en) Parallel processing of data sets
KR20130020050A (ko) 로컬리티 센서티브 해시의 버킷 구간 관리 장치 및 그 방법
CN112463189B (zh) 基于通信操作稀疏化的分布式深度学习多步延迟更新方法
CN108804383B (zh) 基于度量空间的支撑点并行枚举方法及装置
CN104407879A (zh) 一种电网时序大数据并行加载方法
Tanaka et al. Automatic graph partitioning for very large-scale deep learning
CN114329327A (zh) 基于上下三角分解的稀疏矩阵并行求解方法及装置
CN110187968A (zh) 异构计算环境下的图数据处理加速方法
CN109213592B (zh) 一种基于自动选择副本因子模型的图计算方法
CN109636709B (zh) 一种适用于异构平台的图计算方法
US20220413906A1 (en) Method, device, and program product for managing multiple computing tasks based on batch
Zhou et al. AdaptCL: Efficient collaborative learning with dynamic and adaptive pruning
CN117762515A (zh) 一种基于混合遗传算法的页面加载方法及系统
CN116128019A (zh) Transformer模型的并行训练方法及装置
CN109254844B (zh) 一种大规模图的三角形计算方法
CN110780947A (zh) 用于社交图数据的PageRank并行计算加速方法
KR20210073145A (ko) 분산-병렬 딥러닝 학습의 스케줄링 기반 학습 데이터/모델 할당 방법 및 장치
CN110325984B (zh) 在图形中进行层次社区检测的系统和方法
CN113342313B (zh) 一种基于参数服务器异步更新Spark MLlib中线性分类模型参数的方法
CN111241204B (zh) 一种梯度数据的同步方法、装置、设备及存储介质
CN113934361B (zh) 用于管理存储系统的方法、设备和计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant